Automatische Übersetzung anzeigen
Dies ist eine automatisch generierte Übersetzung. Wenn Sie auf den englischen Originaltext zugreifen möchten, klicken Sie hier
#Neues aus der Industrie
{{{sourceTextContent.title}}}
KI, Datenintegrität & Life Sciences: Warten wir nicht, bis jemand stirbt
{{{sourceTextContent.subTitle}}}
Die Idee von Maschinen, die denken können, wurde zu Beginn des 20. Jahrhunderts zum Thema der Science-Fiction und sorgte für interessante Lesarten. Die Wissenschaft holte auf und der Begriff "künstliche Intelligenz" (KI) wurde von John McCarthy im Dartmouth Summer Research Project on Artificial Intelligence (DSRPAI) 1956 geprägt, wo das erste KI-Programm, der Logic Theorist, von Allen Newell, Cliff Shaw und Herbert Simon vorgestellt wurde.
{{{sourceTextContent.description}}}
Die KI-Forschung florierte in den frühen Jahren, bis sie durch Grenzen der Rechenleistung verlangsamt wurde, aber sie wurde in den 1980er Jahren sowohl durch Rechenwerkzeuge als auch durch Investitionen wiederbelebt, als John Hopfield und David Rumelhart tiefe Lerntechniken popularisierten, die es Computern erlaubten, mit Hilfe von Erfahrungen zu lernen.1 Die nächste Einschränkung der KI-Förderung war die Computerspeicherung, die Ende der 1990er Jahre kein Problem mehr war, da Speichererweiterungen billige und allgegenwärtige Lösungen hervorbrachten. In unserer modernen Welt tragen wir in unserem täglichen Leben Geräte, die die Speicherkapazität von Supercomputern von vor wenigen Jahrzehnten in den Schatten stellen. Die KI ist nun in den Mainstream übergegangen, verlässt die Labore und kommt mit intelligenten Assistenten (z.B. Alexa und Siri) und Smart TVs in unsere Wohnzimmer. KI ist in den Nachrichten und auf unserer Zunge, denn kaum eine Woche vergeht ohne eine Fernsehwerbung oder jemanden in unseren sozialen Kreisen, der KI erwähnt. Aber was ist KI und wie könnte sie unser Leben beeinflussen, wenn sie auf die Biowissenschaften angewendet wird?
Müll rein, Müll raus, Müll raus
Um dieser Diskussion willen können wir uns darauf einigen, dass KI zu Vorhersagen, Klassifizierungen und Entscheidungen aus der rechnerischen Analyse großer Datensätze führen kann, die auf maschinellem Lernen (ML) aus repräsentativen Datenquellen basiert und durch die Daten und die damit verbundenen Ergebnisse weiter informiert wird. In diesem Zusammenhang kann die künstliche Intelligenz beispielsweise ein erhebliches Potenzial zur Effizienzsteigerung von Forschungs- und Entwicklungsaktivitäten aufweisen, wie beispielsweise anspruchsvolle, tragfähige Wirkstofftargets für weitere Untersuchungen. Oder die KI kann mehr Kapazität für die Fertigung bieten, indem sie das Fehlerpotenzial reduziert und die Produktprüfung, -freigabe und -disposition für den Versand durch die Lieferkette beschleunigt. Es bleibt jedoch ein großes Risiko mit diesem Potenzial für eine hohe Belohnung, da Fehler oder Verluste, die durch schlechte KI-Ergebnisse verursacht werden, negative Auswirkungen auf die öffentliche Gesundheit haben können
Eine der heutigen Herausforderungen der KI besteht in der Entwicklung und Verwaltung von ML und KI, um das große Volumen an unterschiedlichen und nicht standardisierten Daten zu bewältigen, die verfügbar sind. Die KI wird schnell in unser Leben übernommen, was sich an Beispielen der Unterhaltungselektronik zeigt. Karan Bedi, COO von Blaupunkt Televisions India, berichtet, dass "Konsumgüterunternehmen nichts unversucht lassen, um ihre Produkte mit Digital- und KI-Technologien auszustatten" und "viele Hausgerätehersteller das Internet der Dinge (IoT) und die KI in die Haushaltsprodukte integrieren". 2 Ein gemeinsames Beispiel ist der Smart TV, dessen weltweiter Stückzahlanteil 2018 auf über 70 Prozent der verkauften Fernseher stieg, gegenüber 55 Prozent im Jahr 2015.3
Überlegen Sie, wie schlechte Daten die KI-Erfahrung beeinflussen können. Datenintegrität und Datenqualität spielen eine Schlüsselrolle in den KI-Ergebnissen. Eine schlechte Eingangsqualität kann zu unerwarteten oder fehlerhaften KI-Ausgaben führen. Nehmen wir zum Beispiel die Verwendung eines Smart TV, bei dem Netflix-Daten unvorsichtig eingegeben wurden (z.B. zufällig ausgewählte Programme von Interesse) oder ein Hulu-Konto-Login von einem Hausgast eingegeben wurde. Wenn ein Algorithmus, der für gezielte Werbung oder Programmierungsvorschläge in einem dieser Dienste verwendet wird, auf den Datensatz angewendet wird, haben die Ergebnisse möglicherweise keinerlei Bedeutung für den aktuellen Betrachter. Dies kann zwar irritierend oder nicht hilfreich sein, ist aber nicht lebensbedrohlich.
Eine unvorsichtige Dateneingabe oder falsche Datensätze im Zusammenhang mit Life-Science-Anwendungen können jedoch Folgen haben, die die Sterblichkeit einschließen. "Machine Learning Algorithmen sind sehr abhängig von genauen, sauberen und gut markierten Trainingsdaten, aus denen man lernen kann, damit sie genaue Ergebnisse liefern können", sagt Ron Schmelzer.4 Während ML können verzerrte oder fehlerhafte Eingaben zu ungenauen oder anomalen Ausgaben führen, die für den vorliegenden Patienten keine Relevanz haben. Während Fehler unwahrscheinlich sind, sinkt die Akzeptanz von Fehlern dramatisch, wenn man die negativen Auswirkungen auf die Gesundheit der Patienten und die öffentliche Sicherheit berücksichtigt. Das Betrachten von Netflix-Programmieranzeigen, die nicht von Interesse sind, ist eine Sache - die Dosierung der falschen Medizin ist etwas ganz anderes.
Beginnen Sie mit dem Ende im Kopf
Ein Markt für Datenaufbereitungslösungen (einschließlich ClearStory Data, Datameer, Datawatch, Melissa Data, Oracle, Paxata, SAP, SAS, TIBCO Software, Trifacta und Unifi Software) ist entstanden, die Datenwrangling, Datenreinigung und Datenaufbereitung für ML und AI durchführen. Tatsächlich wird "die überwiegende Mehrheit der Projektzeit des maschinellen Lernens" von diesen Aktivitäten in Anspruch genommen.4 Bei der Geschwindigkeit, mit der Daten erstellt werden, ist es jedoch wahrscheinlich, dass die Fähigkeit zur Datenaufbereitung durch den Rückstau an Daten, die vorbereitet werden müssen, überholt wird.
Die Datenaufbereitung erfordert weiterhin ein gewisses Maß an menschlicher Interaktion. Mindestens muss ein Mensch die Spezifikation für die Datentransformation während des ETL (Extrahieren, Transformieren und Laden) konfigurieren, wenn er Daten aus mehreren Quellen sammelt oder Daten in einen zentralen Datenspeicher migriert. Doch der Datenstreit stellt eine potenziell größere menschliche Beteiligung dar, da der Kontext notwendig sein kann, um eine erweiterte Verarbeitung zur Transformation robuster Daten durchzuführen
Ob Datenaufbereitungslösungen mithalten können oder nicht, das Argument bleibt die Verbesserung der Integrität und Qualität der Daten, während sie erstellt werden, anstatt zu versuchen, sie später zu bereinigen, während sie für ML und AI vorbereitet werden. Dies wird zu einem großen Teil durch Datenmanagement und Information Governance erreicht, bei denen Datenintegrität und Datenqualität zentrale Bestandteile sind. Es obliegt denjenigen, die KI für Life Sciences-Lösungen schaffen, größte Aufmerksamkeit auf Datenintegrität und Datenqualität zu richten, um das Risiko negativer Auswirkungen auf die Gesundheit der Patienten und die öffentliche Sicherheit zu minimieren. Die KI für Life-Science-Lösungen hat einen höheren Standard als in anderen Branchen.
Datenintegrität ein kritischer Erfolgsfaktor
Datenintegrität und Datenqualität sind kritische Erfolgsfaktoren für KI-Lösungen in den Life Sciences. Die Standards für und die Überprüfung der Datenintegrität und Datenqualität müssen für Datensätze, bei denen ML/AI angewendet werden soll, erhöht werden. Die einfache Durchführung von Computersystem-Validierungen (CSV) oder die Verwaltung von Computersystemen unter CGMP-Bedingungen reicht nicht aus, um Datenintegrität und Datenqualität zu gewährleisten.
Datenintegrität und Datenqualität müssen gemeinsame Themen in einem ausgereiften Qualitätsmanagementsystem sein und proaktiv in das Datenmanagement und die Information Governance als Kerngeschäft integriert werden. Wir stellen fest, dass, wenn Unternehmen verstehen, dass Datenintegrität und Datenqualität kritische Erfolgsfaktoren sind, das Ergebnis ein Wettbewerbsvorteil ist. Es können weniger menschliche Fehler auftreten, und die Untersuchungen können schneller und erfolgreicher abgeschlossen werden. M&A-Aktivitäten werden effektiver und effizienter gestaltet, da die Sorgfaltspflicht leichter erleichtert wird und die Bewertung mit vertretbaren Daten und mit Personal, das sie versteht und erklären kann, klarer ist. Diese Erfolgsfaktoren führen zu besseren KI-Ergebnissen mit verbesserter Fähigkeit, Patienten Produkte anzubieten, und zu einer Wertsteigerung für Eigentümer und Aktionäre.
Jetzt, da die KI immer häufiger auftritt, werden uns sehr direkt praktische und ethische Fragen gestellt, da wir "der KI erlauben, sich ständig zu verbessern und Amokläufe in der Gesellschaft durchzuführen". 1 Wann wird ein KI-Ergebnis, das auf schlechten Daten basiert, als Folge von Verletzungen von Menschen oder sogar Tod enden? An welchem Punkt wird böswillige Absicht beteiligt sein, diese KI-Ergebnisse zu beeinflussen, um zu Verletzungen oder zum Tod zu führen? Erinnern Sie sich an die "Tylenol-Morde von 1981" und daran, wie sich die daraus resultierenden regulatorischen und industriellen Maßnahmen für immer verändert haben, wie wir Medikamente verpacken.5 Werden wir uns reaktiv verhalten und auf ein "Tylenol-Level-Ereignis" warten, das uns zwingt, uns selbst zu regieren, und die schlechten Daten, die wir durch die KI pumpen? Oder werden wir uns proaktiv verhalten, um unsere Daten gewissenhaft zu verwalten, um negative Auswirkungen auf die Gesundheit der Patienten und das menschliche Leben zu vermeiden?