Quantencomputing könnte die nächste Revolution in der medizinischen Bildgebung und KI-Gerechtigkeit vorantreiben. Erfahren Sie, wie diese Technologie dazu beitragen kann, bestehende Herausforderungen zu überwinden und eine gerechtere Gesundheitsversorgung für alle zu schaffen.
Wissen Sie was? Ich stimme zu. Nicht weil Quantencomputing eine drohende Bedrohung für die nationale Sicherheit ist. Sondern weil es die Zukunft ist und das Land, das bei Quanteninformationssystemen die Führung übernimmt, für das nächste halbe Jahrhundert technologische und wirtschaftliche Vorteile gegenüber dem Rest der Welt haben wird. Ich habe bereits meine Bedenken geäußert, dass die Vereinigten Staaten in diesem Rennen ins Hintertreffen geraten.
Die Erforschung von KI-Systemen hat gezeigt, dass sie in vielen Szenarien systematisch und ungerecht gegen bestimmte Bevölkerungsgruppen voreingenommen sein können. Die medizinische Bildgebung, in der KI-Systeme zunehmend eingesetzt werden, bildet hier keine Ausnahme. In diesem Bereich diskutieren wir den Sinn von Fairness und kommentieren mögliche Quellen von Voreingenommenheit sowie verfügbare Strategien zu deren Minderung. Schließlich analysieren wir den aktuellen Stand des Feldes, identifizieren Stärken und heben Bereiche von Vakanz, Herausforderungen und Möglichkeiten hervor, die vor uns liegen.
Mit dem exponentiellen Wachstum in der Entwicklung von Künstlicher Intelligenz (KI) Systemen für die Analyse medizinischer Bilder haben Krankenhäuser und medizinische Zentren begonnen, solche Instrumente in der klinischen Praxis einzusetzen. Diese Systeme basieren in der Regel auf einer bestimmten Art von maschinellem Lernen (ML), das als Deep Learning (DL) bezeichnet wird. DL-Methoden lernen komplexe Datenrepräsentationen, indem sie mehrere Verarbeitungsebenen mit unterschiedlichen Abstraktionsebenen verwenden, die für eine breite Palette von Aufgaben nützlich sind.
In der medizinischen Bildgebung sind Beispiele für solche Aufgaben die Klassifizierung von Pathologien, die anatomische Segmentierung, die Abgrenzung von Läsionen, die Bildrekonstruktion, die Synthese, die Registrierung und die Super-Auflösung, unter vielen anderen. Während die Anzahl der wissenschaftlichen Veröffentlichungen im Zusammenhang mit DL-Methoden, die auf verschiedenen MIC-Problemen unter Laborbedingungen angewendet werden, exponentiell gewachsen ist, haben klinische Studien zur Bewertung medizinischer KI-Systeme erst kürzlich an Fahrt gewonnen.
Die Forschungsgemeinschaft für Fairness im ML hat kürzlich darauf hingewiesen, dass ML-Systeme gegen bestimmte Teilpopulationen voreingenommen sein können, in dem Sinne, dass sie unterschiedliche Leistungen für verschiedene Teilgruppen aufweisen, die durch geschützte Attribute wie Alter, Rasse/Ethnizität, Geschlecht oder sozioökonomischen Status definiert sind. Im Bereich der Gesundheitsversorgung könnte das möglicherweise ungleiche Verhalten von Algorithmen gegenüber verschiedenen Bevölkerungsgruppen sogar als Verstoß gegen die Prinzipien der Bioethik angesehen werden: Gerechtigkeit, Autonomie, Wohltun und Nichtschaden. In diesem Zusammenhang ist es unerlässlich, Fairness in der MIC zu fördern. Dies ist jedoch alles andere als einfach: Die Gewährleistung von Fairness im ML erfordert die Bewältigung verschiedener und mehrerer Aspekte entlang des gesamten Gestaltungs-, Entwicklungs- und Implementierungswegs.