Generative Künstliche Intelligenz neigt zu sogenannten Halluzinationen. Oft fällt das nicht auf, speziell dann, wenn das Ergebnis dem Nutzer zusagt. Von KI erfundene Behauptungen, Studien, Zitate oder Präzedenzfälle landen immer häufiger in Eingaben zu Gericht; dafür sind mehrfach sich selbst vertretende Parteien und Anwälte bestraft worden. Leider sind auch Richter nicht gegen die Versuchungen Künstlicher Intelligenz gefeit. In den USA sind jetzt zwei Fälle KI-verschmutzter Urteile aufgeflogen. Persönliche Verantwortung übernehmen die zuständigen Richter keine.
Die beiden US-Bundesbezirksrichter, Henry Wingate vom Bundesbezirksgericht für den Süden Mississippis, und Julien Neals vom Bundesbezirksgericht für New Jersey, haben Entscheidungen ausgefertigt, die so offensichtlich fehlerhaft waren, dass es den Verfahrensparteien gleich auffiel. Nach deren Rüge haben die beiden Richter ihre fehlerhaften Entscheidungen aus dem Akt gelöscht und durch verbesserte Versionen ersetzt.
Diese Vorfälle riefen US-Senator Charles Grassley auf den Plan, der sich um die Integrität der US-Justiz sorgt. Er richtete Fragen an die beiden Bundesrichter. Ihre nun vorliegenden Antwortschreiben zeigen, dass Verantwortungsbewusstsein bei den beiden Richtern gering ausgeprägt ist.
An keiner Stelle gestehen sie ein, selbst Schuld zu tragen. Richter Neals lässt Selbstmitleid durchblicken, wenn er schreibt, dass seine "Erfahrung" in dem Fall "höchst unglücklich und unvorhersehbar" gewesen sei.
Richter schiebt es auf den Praktikanten
Richter Wingate schiebt den Fehler auf einen juristischen Mitarbeiter, der das Große Sprachmodell Perplexity genutzt habe, "ausschließlich als Unterstützung für einen grundlegenden Entwurf, um im Akt öffentlich verfügbare Informationen zusammenzustellen."
Laut Neals soll gar ein Rechtswissenschaften studierender Praktikant Schuld tragen. Dieser habe ChatGPT genutzt, "ohne Genehmigung, ohne Offenlegung, entgegen nicht nur der Gerichtsregeln, sondern auch anwendbarer Regeln (seiner) Universität". Dazu verweist der Richter ausdrücklich auf eine Mitteilung der Uni, die ihm dies bestätige.
Beide Richter betonen, dass solche Entwürfe normalerweise einer mehrstufigen Prüfung unterzogen würden (unter anderem mit Software, die Verweise auf Präzedenzfälle prüft und dabei selbst KI einsetzt). In diesen Fällen seien die Prüfungen vor Veröffentlichung unterblieben. Sie geloben Besserung, verraten den Grund für das Unterlassen der Überprüfung aber nicht.
Die Löschung ihrer fehlerhaften Entscheidung aus dem Akt begründen beide Männer damit, vermeiden zu wollen, dass die fehlerhaften Entscheidungen später als Präzedenzfälle herangezogen würden. In Wingates Verfahren ist die zurückgezogene Entscheidung noch als Anhang zu einer Eingabe einer Partei im Akt erhalten.
Maue KI-Regeln bei Gericht
Ein verschriftlichtes Regelwerk zum Einsatz von KI hatten beide Gerichte offenbar nicht. Neals will KI-Einsatz mündlich untersagt haben; jetzt hat er einen schriftlichen Regelentwurf, wartet aber noch auf Vorgaben der Bundesgerichtsverwaltung.
Diese hat einen Arbeitskreis zum Thema eingerichtet, der im Sommer vorläufige Richtlinien für alle US-Bundesgerichte herausgegeben hat. Diese Richtlinien sind erstaunlich schwammig. Sie verbieten nicht etwa, das Fällen von Urteilen an Künstliche Intelligenz auszulagern, sondern regen lediglich "Vorsicht" (caution) an. Besondere Vorsicht (extreme caution) wird "empfohlen", wenn es um neue Rechtsfragen geht.
Nicht einmal die Offenlegung des Einsatzes Künstlicher Intelligenz ist demnach verpflichtend. Richtern und Justizbediensteten wird lediglich nahegelegt, darüber nachzudenken, ob KI-Nutzung offengelegt werden sollte.
Die Justizverwaltung sammelt auch ausdrücklich keine Daten darüber, ob und wie oft Richter Maßnahmen gegen Verfahrensparteien wegen irreführenden Einsatzes von KI ergreifen. Öffentlich konsultiert wird derzeit eine Novelle der Beweisregeln für Bundesgerichte. Laut Entwurf der Rule 707 sollen KI-erzeugte Beweise den gleichen Regeln unterliegen wie Aussagen Sachverständiger. Das bedeutet, dass Gerichte KI-Erzeugnisse als Beweise akzeptieren sollen, wenn die Wahrscheinlichkeit überwiegt (more likely than not), dass das Vorbringen Richter oder Geschworenen hilft und auf ausreichend Fakten oder Daten sowie auf verlässlichen Prinzipien und Methoden beruht, die auf die Fakten des Falles angewendet wurden.
- Das Schreiben Richter Neals'
- Das Schreiben Richter Wingates
- Mitteilung der US-Bundesgerichtsverwaltung
Das betroffene Verfahren am US-Bundesbezirksgericht für New Jersey heißt In re CorMedix Inc. Securities Litigation, Az. 2:21-cv-14020. Das betroffene Verfahren am US-Bundesbezirksgericht für den Süden Mississippis heißt Jackson Federation of Teachers, et al v Lynn Fitch, et al, Az. No. 3:25-cv-00417.
(ds)











English (US) ·