Künstliche Intelligenz: USA erwägen offenbar staatliche Regulierung neuer KI-Modelle

vor 1 Stunde 1

Die US-Regierung plant laut Berichten Kontrollverfahren für KI-Anwendungen. Hintergrund sollen Bedenken über ein unter Verschluss gehaltenes Produkt von Anthropic sein.

5. Mai 2026, 4:38 Uhr Quelle: DIE ZEIT, Reuters,

 US-Präsident Donald Trump hatte ​sich bislang für möglichst wenig staatliche Regulierung rund um Künstliche Intelligenz eingesetzt.
US-Präsident Donald Trump hatte ​sich bislang für möglichst wenig staatliche Regulierung rund um Künstliche Intelligenz eingesetzt. © Matt Rourke/​AP/​dpa

Die US-Regierung erwägt offenbar die Einführung staatlicher Kontrollverfahren für neue KI-Modelle. Den Überlegungen zufolge soll eine Arbeitsgruppe aus Branchenvertretern und Regierungsmitgliedern für die staatliche Aufsicht verantwortlich sein, wie ​die New York Times unter Berufung auf Regierungsvertreter und mit der Angelegenheit vertraute Personen berichtet. Demnach sollen Vertreter von Anthropic, Google und OpenAI bereits über die Pläne informiert worden sein.

Wie Axios unter Berufung auf zwei anonyme Quellen berichtet, würde die Gruppe dem Pentagon unterstehen. Ihre Aufgabe wäre es demnach, KI-Modelle, die bei Bundes-, Landes- und Kommunalbehörden zum Einsatz kommen, auf ihre Sicherheit zu prüfen. Beiden Berichten zufolge sind Bedenken wegen des neuen KI-Modells Mythos der Firma Anthropic der Auslöser für die Überlegungen.

US-Regierung dementiert Berichte

Ein Sprecher der US-Regierung bezeichnete Diskussionen über mögliche Dekrete als Spekulation. Ein Eingreifen der ​Regierung wäre eine deutliche Kehrtwende für US-Präsident Donald Trump. Der Präsident hat ​sich bislang für möglichst wenig staatliche Regulierung eingesetzt. Er hatte an seinem ersten Amtstag im ‌Jahr 2025 ein Dekret ​seines Vorgängers Joe Biden widerrufen, das Entwickler ⁠von ​KI-Systemen zur Weitergabe von ‌Sicherheitstests an die Regierung verpflichtete.

Die Anthropic-KI Mythos ermöglicht es selbst Laien, komplexe Hackerangriffe zu starten. Bei ersten Tests hatte Mythos dem Unternehmen zufolge Sicherheitslücken entdeckt, die trotz zahlreicher Prüfungen durch Menschen jahrelang unerkannt geblieben waren. Anthropic beschloss daraufhin, Mythos erst einmal nicht zu veröffentlichen und stattdessen wichtigen Unternehmen wie Apple, Microsoft und Nvidia zur Verfügung zu stellen, damit diese ihre Systeme wappnen können.

Zuletzt war ein Streit zwischen Anthropic und der Regierung unter Trump eskaliert. Nachdem Anthropic der US-Regierung untersagt hatte, seine KI Claude für Überwachung sowie in autonomen Waffensystemen zu nutzen, stufte das Pentagon das Unternehmen als Sicherheitsrisiko ein. Anthropic klagte dagegen.

Gesamten Artikel lesen