Automatische Übersetzung anzeigen
Dies ist eine automatisch generierte Übersetzung. Wenn Sie auf den englischen Originaltext zugreifen möchten, klicken Sie hier
#Neues aus der Industrie
{{{sourceTextContent.title}}}
Medizin 5.0: Algorithmen des maschinellen Lernens im Gesundheitswesen vom Medica Magazine
{{{sourceTextContent.subTitle}}}
Interview mit Prof. Alena Buyx, Direktorin des Instituts für Geschichte und Ethik der Medizin, Lehrstuhl für Ethik in Medizin und Gesundheitstechnologien, Technische Universität München (TUM) und Mitglied des Deutschen Ethikrates
{{{sourceTextContent.description}}}
In der Medizin hält die Künstliche Intelligenz das Heilsversprechen: Sie soll Mediziner entlasten, Zeit und Geld sparen und Aufgaben zuverlässig und unermüdlich erfüllen. Doch bevor KI-Algorithmen Krankheiten diagnostizieren dürfen, sind noch viele technische und ethische Fragen zu beantworten. Wie KI und "Medicine 5.0" das Gesundheitswesen auf der Fachmesse MEDICA 2019 verändern können, erfahren Sie im MEDICA ECON FORUM by TK.
In diesem Interview mit MEDICA-tradefair.com spricht Prof. Alena Buyx über maschinelles Lernen von Black-Box-Algorithmen und beschreibt die Herausforderungen, die sich daraus für Medizin und Politik ergeben.
Herr Prof. Buyx, was ist "Medizin 5.0"?
Prof. Alena Buyx: "Medicine 5.0" bezieht sich auf maschinelle Lernalgorithmen, die auch autonome Entscheidungen treffen können. "Autonom" bedeutet in diesem Zusammenhang, dass sie sich die Verarbeitungsregeln aus großen Datenmengen, d.h. aus großen Datenmengen, selbst beibringen und damit anschließend eine Diagnose durchführen und eine Behandlung empfehlen können. Wir verstehen jedoch nicht immer, was hinter jedem einzelnen Schritt steckt, mit dem sie diese Empfehlungen ausgesprochen haben.
Funktionieren diese Algorithmen wie Blackboxen, deren Prozesse wir nicht kennen?
Buyx: Die Medizin versucht, die Verwendung klassischer Black-Box-Algorithmen zu vermeiden. Dies ist eine ethische Verpflichtung, die auch zu den von mir vertretenen Ansichten gehört: Wir müssen noch in der Lage sein zu verstehen, was in der Blackbox passiert. Dies betrifft nicht unbedingt jeden einzelnen Schritt, aber wir sollten die Entscheidungsparameter identifizieren, die ein Algorithmus verwendet. Dies sollten medizinische Kriterien sein und keine Kriterien, die irgendwie statistisch signifikant, aber nicht klinisch relevant sind.
Ein bekanntes Beispiel ist ein Algorithmus, der mit der Diagnose von Tuberkulose mittels Röntgenstrahlen beauftragt wurde. Der Algorithmus betrachtete unter anderem die Kanten von Röntgenbildern und stellte nach dem Einlernen selbst fest, dass mobile Röntgenbilder häufig Anomalien aufweisen, die mit Tuberkulose übereinstimmen. Das liegt jedoch daran, dass mobile Systeme in Ländern mit hoher TB-Belastung häufiger eingesetzt werden. Unnötig zu sagen, dass dies ein völlig nichtmedizinischer Faktor ist, der die klinische Genauigkeit nicht fördert. Dieses Blackbox-Modell darf nicht zugelassen werden. Es benötigt eine Anmerkung, um die groben Kriterien zu beschreiben. Wir müssen auch in der Lage sein, den Algorithmus so zu ändern, dass er ein bestimmtes Kriterium nicht mehr verwendet.
Wie würden sich diese Algorithmen auf das Gesundheitssystem auswirken?
Buyx: Bisher haben autonome Algorithmen noch keine umfassende praktische Umsetzung erfahren, da sie noch nicht gut genug sind und viele Herausforderungen mit sich bringen. Wenn es uns gelingt, ethische Algorithmen zu entwickeln, kann dies eine positive Transformation in der Medizin auslösen. Aber nur, wenn sie genauer diagnostizieren können als ein Arzt oder verbindliche therapeutische Empfehlungen geben können und wir genügend Einblicke haben, warum sie das tun und ob diese Schlussfolgerungen auf einer vernünftigen medizinischen Grundlage beruhen. Dann könnten sie den Patienten Zeit sparen, Fehler vermeiden und Kosten senken.
Sie haben es bereits kurz angesprochen: Welche ethischen Bedenken oder Probleme werfen diese Algorithmen auf?
Buyx: Erstens müssen die Algorithmen gründliche Beweise liefern und zuverlässig und präzise arbeiten, um Risiken und Schäden zu vermeiden. Wir dürfen einfach nicht unserer Besessenheit von der Technik zum Opfer fallen. Zweitens darf dies nicht zu weitreichenden Missverständnissen führen, dass Algorithmen und KI Ärzte oder andere Angehörige des Gesundheitswesens ersetzen werden. Algorithmen erfüllen eine bestimmte, gut definierte Aufgabe und können nicht nach anderen Merkmalen suchen, die ein Arzt bei der Untersuchung eines Patienten sieht, d.h. sie können keine vollständige Differentialdiagnose stellen.
Drittens darf es keine algorithmische Verzerrung geben, die durch Datensätze oder Programmierung verursacht wird. Wir alle haben von Algorithmen zur Gesichtserkennung gehört, bei denen die jeweiligen Datensätze nicht so vielfältig sind wie in der realen Welt. Das ist der Grund, warum diese Art von Algorithmen sind großartig bei der Identifizierung der Gesichter von weißen Männern, sondern kämpfen darum, Gesichter von Frauen oder Menschen mit Farbe zu erkennen. Wir müssen das über die Trainingsdaten korrigieren.
Wir müssen auch darüber nachdenken, wie und inwieweit wir Patienten über die Rolle von Algorithmen aufklären und wie wir die Patientenautonomie gewährleisten, wenn die Algorithmen den Status einer eigentlichen medizinischen Beratung als Assistenzsysteme erreichen.
Was muss die Politik tun, um den richtigen Rahmen zu schaffen?
Buyx: Die Politik muss unbedingt einen Rahmen schaffen, wenn solche Algorithmen als Medizinprodukte zugelassen werden sollen. Der Genehmigungsprozess unterscheidet sich natürlich vom Verfahren für ein Ultraschallgerät. Eine der Hauptaufgaben in diesem Zusammenhang ist es, diese Prozesse nachhaltig, ethisch und sozial verantwortlich zu gestalten. Die größte Herausforderung liegt im kommerziellen Bereich und bei gesundheitsbezogenen Apps. Die Anforderungen in diesem Bereich sind bei weitem nicht so streng wie die von Medizinprodukten.
Eine Reihe von Anwendungen für die psychische Gesundheit verwenden künstlich intelligente Algorithmen. Wir müssen entscheiden, wie wir die Situation handhaben wollen, wenn diese Apps Verbraucher oder Patienten ohne ärztliche Aufsicht und Beteiligung direkt ansprechen. Wenn Apps dazu bestimmt sind, klinische Unterstützung zu leisten, die bisher im Verantwortungsbereich eines Arztes lag (und das zu Recht), müssen wir sicherstellen, dass diese Apps als potenzielle Medizinprodukte klassifiziert und behandelt werden.