Ein am Europäischen Laboratorium für Molekularbiologie (EMBL) entwickeltes KI-Modell soll Erkrankungsrisiken für mehr als 1000 Krankheiten vorhersagen können – und das nicht nur für Einzelpersonen, sondern auch für ganze Bevölkerungsgruppen. Das System namens Delphi-2M (mit zwei Millionen Parametern) basiert auf einer Transformer-Architektur, wie sie auch in großen Sprachmodellen zum Einsatz kommt.
Bisherige Systeme beschränkten sich meist auf einzelne Krankheiten. Delphi-2M dagegen soll simultan Muster über viele Diagnosen hinweg erkennen und sogenannte "health trajectories" – also individuelle Krankheitsverläufe – prognostizieren. Die Modellierung reicht laut den Forschenden bis zu 20 Jahre in die Zukunft. Veröffentlicht wurden die Ergebnisse in der Fachzeitschrift Nature.
Krankheitstrajektorien von Delphi‑2M, die typische Verläufe einzelner Diagnosen bis zum Tod veranschaulichen sollen.
(Bild: Shmatko et al.)
Trainiert wurde Delphi-2M mit klinischen Daten von 400.000 Patientinnen und Patienten aus der britischen UK Biobank, darunter auch Faktoren wie Body-Mass-Index oder Konsumgewohnheiten. Für die Validierung griff das Team auf ein dänisches Register mit 1,9 Millionen Personen zurück. Erste Tests zeigen: Beim Risiko für Herzinfarkte, bestimmte Tumoren oder Mortalität lieferte das System ähnlich verlässliche Vorhersagen wie spezialisierte Modelle. Delphie‑2M erreicht im Schnitt einen C-Index – mit der Vorhersagemodelle bewertet werden – von ungefähr 0,85 im 5‑Jahres-Zeitraum.
Grenzen hat die Technik dort, wo Krankheitsbilder komplex, unregelmäßig oder selten sind, etwa bei psychischen Störungen oder Schwangerschaftskomplikationen. Das liegt beispielsweise daran, dass es zu seltenen Erkrankungen weniger Trainingsdaten gibt. Hinzu kommt, dass die Trainingsdaten bisher nicht repräsentativ für die Gesamtbevölkerung sind, da die UK Biobank vor allem Daten älterer und britischer Teilnehmender enthält.
"Wir reden hier noch von Zukunftsmusik. Der Weg in die konkrete medizinische Anwendung ist meist länger, als man denkt. Bei allen Potenzialen dürfen wir uns nicht in eine KI-gestützte Glaskugelschau verrennen – auch die besten Modelle erkennen Muster, aber sie sagen keine Zukunft voraus. Für Patienten muss klar sein: solche Prognosen sind keine Schicksalsurteile. Sie können aber Anhaltspunkte für Präventions- oder Therapieentscheidungen geben", schätzt dazu Prof. Robert Ranisch ein, Juniorprofessor für Medizinische Ethik mit Schwerpunkt auf Digitalisierung von der Universität Potsdam. Wichtig sei zudem, "dass der Einsatz solcher Modelle den Entscheidungsspielraum der Patienten nicht einengt. Ihre Autonomie im Jetzt darf nicht einem Behandlungsregime untergeordnet werden, das allein auf zukünftige Gesundheit ausgerichtet ist. Selbst wo dies nicht geschieht, bliebe doch eine gewisse Nötigung, sich zu prognostizierten Zukünften zu verhalten. Entscheidend bleibt deshalb auch ein Recht auf Nichtwissen."
Begehrlichkeiten bei Versicherungen oder Arbeitgebern
"Gleichzeitig ist zu befürchten, dass solche KI-Modelle falsche Begehrlichkeiten wecken – etwa bei Versicherungen oder Arbeitgebern, besonders über Deutschland hinaus. Dann geht es weniger darum, ob die Vorhersagen tatsächlich belastbar sind, sondern um die Illusion einer exakten Berechenbarkeit. Diese kann dazu führen, dass Menschen ungerechtfertigt benachteiligt werden. Deshalb müssen wir sehr genau überlegen, wo wir solche Modelle im Gesundheitssystem einsetzen wollen", gibt Ranisch zu bedenken. Ethik und Recht würden sich "bisher oft an binären Kategorien von gesund oder krank" orientieren, oft seien in der "digitalen und präventiven Medizin [...] Graustufen entscheidend". Zudem wirft Ranisch weitere Fragen auf, was es bedeute, wenn gesunde Menschen in ein Muster "bald Kranker" passen, oder wie Gesundheitsinformationen geschützt werden sollen, "wenn plötzlich eine Vielzahl persönlicher Daten für KI-Prognosen relevant" werden.
"Bei der Frage, wer und wie die Technologie zum Einsatz kommen sollte, ist zwischen zwei Fällen zu unterscheiden: Dem Einsatz, um Entwicklungen im gesamten Gesundheitssystem abzuschätzen, und der Einsatz, um Aussagen über Individuen zu treffen", erklärt dazu PD Dr. Markus Herrmann, Leiter des Bereichs KI-Ethik am Institut für Medizin- und Datenethik an der Universität Heidelberg. Ersteres wäre vergleichsweise unproblematisch, bei letzterem müsse bedacht werden, dass der Menschen auch ein Recht auf "Nicht-Wissen" habe – also ein Recht darauf, "sein Leben nicht in Sorge oder gar Angst vor drohender Krankheit zu führen".
(mack)