KI im Labor – Game Changer oder Risiko?


Anwendungsbeispiele, Zukunftsaussichten und Hürden

Hin und wieder passiert es, dass ein technischer Fortschritt die gesamte Welt nachhaltig verändert. Die Erfindung von Kunststoffen hat Anfang des 20. Jahrhunderts binnen weniger Jahre den gesamten Planeten geprägt und zahllose neue Möglichkeiten in der Materialentwicklung geschaffen. Konrad Zuse setzte 1941 mit dem ersten Computer den Grundstein für ein digitales Zeitalter. Und mit dem Übergang von ARPANET zum öffentlich verfügbaren Internet gelang Anfang der 1990er Jahre ein weiterer Meilenstein.

Nun stehen wir mittendrin in der nächsten großen technologischen Wende, die sich in jeder Sprache in nur zwei Buchstaben zusammenfassen lässt: KI im Deutschen, im Englischen AI genannt.

Künstliche Intelligenz (Artificial Intelligence) ist seit dem Erfolg des Sprachmodells ChatGPT mit einem Mal überall und entwickelt sich in rasantem Tempo weiter. Und wie Kunststoffe, Computer und Internet, wird auch KI unsere Welt nachhaltig prägen.



Was ist KI?

Wenngleich eine konkrete einheitliche Definition fehlt, ist mit künstlicher Intelligenz üblicherweise eine besondere Form von Algorithmen gemeint, die Eingaben über ein komplexes Netzwerk aus Berechnungen verarbeitet und schließlich ein Ergebnis liefert. Das Besondere ist: Anders als ein herkömmlicher Algorithmus ist eine KI nicht statisch, sondern kann auch mit völlig neuen, bisher unbekannten Daten umgehen. KI-Systeme lernen und können sich mit der Zeit selbst verbessern [1].

Die Vorteile sind leicht auszumachen: Eine gut trainierte KI-Anwendung ist eine unvergleichliche Hilfe bei der Verarbeitung und Auswertung von großen Datenmengen. Dementsprechend euphorisch blicken Hersteller von Analyse-, Bio- und Labortechnik auf den Einsatz dieser Technologie. In einer Spectaris-Umfrage von 2024 gaben 82 Prozent von ihnen an, dass die Vorteile, Chancen und Potenziale überwiegen [2].



KI in der Labordiagnostik

Beispiele für den Einsatz von KI finden sich zahllose, besonders im medizinischen Kontext, wo sie Vorhersagen über Krankheiten treffen können und bei der Diagnostik unterstützen. So zeigte eine Studie mit KI-gestützter Datenanalyse, dass „bei Menschen im Vorstadium des Typ-2-Diabetes (Prädiabetes) 6 klar abgrenzbare Subtypen identifiziert werden können“. Für die Behandlung von Patienten stellt dies eine wichtige Erkenntnis dar, die Therapien künftig deutlich präziser und erfolgversprechender gestalten könnte [3]. Derartige Erkenntnisgewinne gehören aktuell zu den größten Vorteilen von künstlicher Intelligenz in der Labormedizin.

KI kann aber nicht nur Vorhandenes strukturieren und analysieren, sie kann auch Neues erschaffen – oder zumindest die Baupläne dafür berechnen. So ist die KI-Anwendung Alpha-Fold-2 in der Lage, allein aus Aminosäuresequenzen die dreidimensionale, gefaltete Struktur des daraus resultierenden Proteins vorherzusagen. Für das rechnergestützte Proteindesign und die Vorhersage komplexer Proteinstrukturen erhielten David Baker sowie Demis Hassabis und John Jumper den Chemie-Nobelpreis 2024 [4].



Besser als die meisten Medizinstudierenden

Die rasante Entwicklung der KI-Sprachmodelle (Large Language Model, LLM) führt eine Studie von Prof. Dr. Thomas Streichert, Direktor des Instituts für Klinische Chemie an der Uniklinik Köln, vor Augen [5]. Darin verglichen die Forscher das Sprachmodell ChatGPT in der Variante 3.5 und in der Variante 4.0, zwischen denen lediglich dreieinhalb Monate Entwicklungszeit lagen. Beide Versionen mussten ein typisches Medizinexamen schreiben und sich mit echten Medizinstudenten messen. Das Ergebnis beschreibt Streichert in einem Interview mit Sysmex Deutschland: „Während die Variante GPT 3.5 noch etwas schlechter abschnitt als die Studierenden, lag die Variante 4.0 bereits oft besser als der Mensch und gleichauf mit den Top acht Prozent der Studierenden.“ Und das war Ende 2022. Würde man die Studie heute wiederholen, fielen die Ergebnisse voraussichtlich noch besser für das Sprachmodell aus [1].



Bekommt jedes Labor bald einen eigenen KI-Assistent?

Und tatsächlich ist die KI bereits auf bestem Wege, das klassische Analytiklabor nachhaltig zu verändern. Im Dezember 2023 publizierte ein amerikanisches Forscherteam eine beeindruckende Fallstudie. Die Wissenschaftler hatten ein System auf Basis von GPT-4 programmiert, welches sich als virtueller Laborhelfer einsetzen ließ. Der sogenannte Coscientist führte im Experiment beispielsweise verschiedene Liquid Handling-Aufgaben durch, die er per Spracheingabe durch die Forscher erhalten hatte. Aus „Zeichne mit Lebensmittelfarbe ein rotes Kreuz in eine 96-Well-Platte“ erstellte der Algorithmus ein entsprechendes Protokoll für den angeschlossenen Liquid-Handling-Roboter, der diesen Befehl umsetzte.

Und mehr noch: Auch komplexe chemische Synthesen plante das KI-System selbstständig, inklusive anschließender Durchführung. So optimierte der Coscientist in der Studie Palladium-katalysierte Kreuzkupplungen, die in der Pharmaforschung zur Entwicklung neuer Wirkstoffe genutzt werden. Lediglich die Trägerplatten mussten von Menschen gewechselt werden – ansonsten lief der Versuch ohne menschliche Eingriffe ab, wie die Forscher berichten [6, 7].



Risiken und Nebenwirkungen

Die Aussichten auf digitale, KI-gestützte Laborassistenten sind verlockend. Sie könnten sich als Sparrings-Partner im Labor etablieren, als unermüdliche Helfer für komplexe Aufgaben – letztlich als Katalysator für die moderne Wissenschaft.

Doch so vielfältig ihre Potenziale sind, so zahlreich sind die Fragen und Risiken, die Systeme mit künstlicher Intelligenz aufwerfen. Sorgen reichen vom Verlust tausender Arbeitsplätze über das Risiko unbemerkt ‚halluzinierter‘ Daten, weil die KI den Programmierern einen Gefallen tun will, bis zum Verlust der eigenen kritisch-analytischen Denkfähigkeit. Und was passiert eigentlich, wenn jemand das institutseigene Rechnersystem hackt?

Zweifelsohne ist noch nicht abzusehen, wie künstliche Intelligenz sich in den kommenden Jahrzehnten auf die Laborwelt und das menschliche Leben im Allgemeinen auswirken wird. Eine großes Fehlerpotenzial liegt in der Qualität der Trainingsdaten, die zum Anlernen von neuen KI-Systemen genutzt werden. Sind diese etwa nicht vielfältig genug, kann dies zu unerwünschten Ergebnissen führen [8]. So machte 2017 ein automatischer Seifenspender Schlagzeilen, der dunkelhäutige Hände unter ihm schlicht ignorierte. Wie sich herausstellte, war der Infrarotsensor mit einer KI verknüpft, deren Trainingsdaten ausschließlich aus Händen von hellhäutigen Menschen bestand. Weil dunkle Haut das Infrarotlicht anders reflektiert, erkannte das System die Hand nicht als solche und verwehrte die Seifenabgabe [9].

Was in diesem Fall – ohne es relativieren zu wollen – ‚nur‘ ein Lehrstück in Sachen Diskriminierung darstellt, kann im Kontext von Medizin und klinischer Forschung durchaus schwerwiegende Folgen haben. Konkret ist dies z.B. bei Diagnostik-KIs der Fall, die zum Hautkrebsscreening genutzt werden. Auch hierbei liefern KIs oft falsche Analysen durch Trainingsdaten, die ausschließlich auf hellhäutigen Händen basieren [10] – mit katastrophalen Auswirkungen für die Krebsvorsorge.



Lösungen in Sicht oder Navigieren im Nebel?

Das Erkennen von einem solchen KI-Bias ist eine Herausforderung an sich, denn niemand weiß, wie ein angelerntes System am Ende tatsächlich zu seinen Ergebnissen kommt. Bekannt sind nur die Eingabedaten (Input) und das Ergebnis (Output). Auf welchen Entscheidungen eine KI zu dem Ergebnis kommt, bleibt in aktuellen Algorithmen für maschinelles Lernen ein Rätsel – sie sind eine Blackbox.

Hier könnte immerhin die Entwicklung so genannter Explainable AI (kurz XAI) helfen, also künstlicher Intelligenzen, die nachvollziehbare Begründungen für ihre Ergebnisse liefern.

Eine weitere Hürde, die die künstlichen Intelligenzen ausbremsen könnte, ist die staatliche Regulierung von KI, die mit dem EU AI Act zwar bereits angegangen wurde, aber noch immer in den Kinderschuhen steckt und viele offene Fragen aufwirft [2]. Ebenfalls diskutabel sind Fragen zu Datenschutz, Abhängigkeit von KI-Anwendungen und der langfristigen Qualität von Trainingsdaten. Denn wenn mehr und mehr KI-generierte Inhalte erstellt werden, könnte dies zu einer Feedbackschleife führen, in dem KI mit den erstellten Inhalten anderer KI-Systeme lernt – mit Glück auf Basis von wahren Fakten, mit Pech durch vielfältige Verarbeitung von fake facts – was voraussichtlich nicht zugunsten der Ergebnisqualität ausfiele.



Fazit

Künstliche Intelligenz ist aktuell noch nicht so ‚intelligent‘, wie der Name vermuten lässt. Es handelt sich wohl eher um superschnelle Berechnungssoftware. Sie kann die ihr beigebrachten Aufgaben – gute Trainingsdaten vorausgesetzt – zwar mit hoher Geschwindigkeit und Präzision lösen, ist aber oft nicht in der Lage, Zusammenhänge wahrzunehmen, die über ihr Training hinaus gehen. Noch. Denn so rasant, wie die Technologie sich weiterentwickelt, ist es wohl nur eine Frage der Zeit, bis KI-Systeme tatsächlich der im Namen versprochenen Intelligenz Rechnung tragen.

Und so, wie das Internet die Wissenschaft in ein neues (Informations)Zeitalter geführt hat, wird wohl auch die KI eine technologische Wende für Labore und die Leben der Menschen bedeuten. Wie Unternehmen und Menschen die neuen Möglichkeiten für sich nutzen, bleibt offen.

Oder, wie es ChatGPT formuliert: „Die Laborwelt steht an der Schwelle zu einer neuen Ära, die durch KI geprägt ist, aber nur erfolgreich sein kann, wenn wir Innovation mit Verantwortung und menschlicher Intuition verbinden.“

Hoffen wir das Beste.

KI im Labor – Game Changer oder Risiko?
Weitere spannende Artikel dazu, wie KI inzwischen im Labor eingesetzt wird, finden Sie im carl 03

Von der Turingmaschine zum Chatbot: Die historische Entwicklung der KI

Die Geschichte der KI reicht weit zurück und durchlief mehrere Phasen von Euphorie und Ernüchterung.



Theoretische Grundlagen

  • 1943: Warren McCulloch und Walter Pitts entwickelten das erste mathematische Modell eines künstlichen Neurons und legten damit die Basis für künstliche neuronale Netze [11].
  • 1950: Alan Turing veröffentlichte seine Abhandlung „Computing Machinery and Intelligence“ und stellte den Turing-Test zur Überprüfung maschineller Intelligenz vor [12].
  • 1956: Auf der Dartmouth-Konferenz prägten John McCarthy und Kollegen den Begriff „Künstliche Intelligenz“ [12]



Erste Erfolge und Anwendungen

  • 1966: Joseph Weizenbaum schuf mit ELIZA den ersten Chatbot, der natürliche Sprachverarbeitung demonstrierte und einen Psychotherapeuten simulierte [12].
  • 1972: MYCIN, ein Expertensystem zur medizinischen Diagnose, entstand an der Stanford University – ein frühes Beispiel für wissensbasierte Systeme im Labor [13].



KI-Winter und Wiederaufstieg

  • 1970er: Erste Enttäuschungen über zu hohe Erwartungen führten zum so genannten KI-Winter – fehlende Rechenleistung und methodische Grenzen verhinderten große Durchbrüche [12].
  • 1986: Das Backpropagation-Verfahren ermöglichte das Training mehrschichtiger neuronaler Netze, was die Forschung in Universitätslaboren weltweit neu antrieb [14].
  • 1997: Deep Blue von IBM besiegte den Schachweltmeister Garri Kasparow [12].
  • 1997: Jürgen Schmidhuber und Sepp Hochreiter entwickelten das Long Short-Term Memory (LSTM), ein neuronales Netzwerk, das später für Spracherkennung und viele Laboranwendungen essenziell wurde [12].



Moderne KI-Revolution

  • 2011: IBM Watson gewann die Quizshow Jeopardy und demonstrierte das Verständnis und die Verarbeitung natürlicher Sprache auf hohem Niveau [12].
  • 2016: AlphaGo besiegte den Go-Weltmeister Lee Sedol und meisterte damit ein Spiel, das als „unlösbar für Computer“ galt – ein Meilenstein im Reinforcement Learning [12].
  • 2020: OpenAI veröffentlichte GPT-3, ein Sprachmodell, das überzeugende Texte schreibt, Aufgaben löst und als vielseitiges, generatives Modell breite Anwendung findet [12].
  • 2023/24: Zunehmender Fokus auf Regulation und Ethik. Die EU und andere Länder schufen gesetzliche Rahmenwerke und ethische Leitlinien für KI-Anwendungen, wie den EU AI Act [15].

Quellenverzeichnis:

[1] Sysmex Deutschland, “KI im Labor: Wo stehen wir?”, https://www.sysmex.de/akademie/wissenszentrum/literatur/xtra-unser-kundenmagazin/ki-im-labor/ki-im-labor-wo-stehen-wir/

[2] Spectaris, “Künstliche Intelligenz im Labor – Studie 2024”, https://www.spectaris.de/fileadmin/Infothek/Analysen-Bio-und-Labortechnik/Zahlen-Fakten-und-Publikationen/2024_K%C3%BCnstliche_Intelligenz_im_Labor_Studie.pdf

[3] Wagner, R. et al. (2021), “Identification and characterization of distinct subphenotypes of prediabetes”, PubMed Central, https://pmc.ncbi.nlm.nih.gov/articles/PMC8649314/

[4] Laborpraxis, “Chemie-Nobelpreis 2023: KI-Modell zur Proteinstruktur-Vorhersage”, https://www.laborpraxis.vogel.de/chemie-nobelpreis-2021-ki-modell-proteinstruktur-vorhersage-a-80456fdfb2839a85d3b3d8b9061c2769/

[5] Streichert, T. et al. (2024), “Evaluating ChatGPT Performance on Medical Student Exams: Comparative Case Study”, JMIR Med Edu, https://mededu.jmir.org/2024/1/e50965

[6] The Decoder, “Coscientist nutzt GPT-4 für automatisierte Laborexperimente in der Chemie”, https://the-decoder.de/coscientist-nutzt-gpt-4-fuer-automatisierte-laborexperimente-in-der-chemie/

[7] Boiko, D.A., MacKnight, R., & Gomes, G.N. (2023), “AI-driven automation of chemical research”, PubMed, https://pubmed.ncbi.nlm.nih.gov/38123806/

[8] Activemind, “Bias in KI erkennen und vermeiden”, https://www.activemind.legal/de/guides/bias-ki/

[9] Technikjournal, “Wenn es für dich keine Seife gibt”, https://technikjournal.de/digital/wenn-es-fuer-dich-keine-seife-gibt/

[10] Deutschlandfunk, “Hautkrebserkennung – Falscher Blick auf dunkle Hauttypen”, https://www.deutschlandfunk.de/hautkrebserkennung-falscher-blick-auf-dunkle-hauttypen-100.html

[11] McCulloch, W., & Pitts, W. (1943), “A logical calculus of the ideas immanent in nervous activity”, The Bulletin of Mathematical Biophysics, 5, 115-133, https://link.springer.com/article/10.1007/BF02478259

[12] Agorate, “Die Geschichte der KI”, https://www.agorate.de/KI/die-geschichte-der-ki

[13] B.J. Copeland, “MYCIN artificial intelligence program”, Encyclopedia Britannica, https://www.britannica.com/technology/MYCIN

[14] Rumelhart, D. E., Hinton, G. E., & Williams, R. J. (1986), “Learning representations by back-propagating errors”, Nature, 323, 533-536, https://mebis.bycs.de/beitrag/ki-geschichte-der-ki

[15] EU Commission (2023), “Artificial Intelligence Act”, https://www.copetri.com/knowledgehub/ki-veraenderung-arbeitsmarkt-eu-usa/

[16] Dr. med. Anna Katharina Mundorf: Künstliche Intelligenz im medizinischen Labor: KI – aktueller Stand und Zukunftsperspektiven (https://www.trillium.de/zeitschriften/trillium-diagnostik/trillium-diagnostik-ausgaben-2024/td-heft-1/2024-kuenstliche-intelligenz/schwerpunkt-kuenstliche-intelligenz/kuenstliche-intelligenz-im-medizinischen-labor-ki-aktueller-stand-und-zukunftsperspektiven.html) DOI: 10.47184/td.2024.01.08

Das könnte Ihnen auch gefallen: