Das KI-Unternehmen OpenAI hat eigener Aussage nach eine Einigung mit dem US-Verteidigungsminister über KI-Nutzung getroffen. Zuvor war Anthropic gleiches verwehrt worden.
28. Februar 2026, 7:45 Uhr Quelle: DIE ZEIT, Reuters, AFP, dpa, sko
Nach dem Streit zwischen dem US-Verteidigungsministerium und dem KI-Unternehmen Anthropic hat sich der KI-Entwickler OpenAI eigenen Angaben zufolge mit dem Pentagon auf die Verwendung seiner KI beim US-Militär geeinigt. "Heute Abend haben wir mit dem Kriegsministerium eine Vereinbarung getroffen, unsere Modelle in dessen klassifiziertem Netzwerk einzusetzen", schrieb OpenAI-Chef Sam Altman auf X. US-Verteidigungsminister Pete Hegseth repostete die Erklärung.
Die Inhalte der Vereinbarung sind bisher nicht aus weiteren Quellen bekannt. Altman zufolge konnte sich das KI-Unternehmen aber offenbar mit wichtigen Prinzipien durchsetzen. "Die Sicherheit von KI und die breite Nutzung ihrer Vorteile stehen im Mittelpunkt unserer Mission", schreibt Altman. "Zwei unserer wichtigsten Sicherheitsprinzipien sind das Verbot der Massenüberwachung im Inland und die menschliche Verantwortung für den Einsatz von Gewalt, auch bei autonomen Waffensystemen." Das US-Verteidigungsministerium habe diesen Prinzipien zugestimmt, verankere sie in Gesetzen und Richtlinien und nehme sie in das Abkommen auf.
Zugleich versicherte Altman, dass sein Unternehmen eigene Vorkehrungen treffen wolle. "Wir werden außerdem technische Sicherheitsvorkehrungen treffen, um sicherzustellen, dass unsere Modelle wie gewünscht funktionieren, wie es vom [Verteidigungsministerium] gefordert wurde", schreibt er weiter. Das Pentagon habe sich verhandlungsbereit gezeigt.
Einigung mit Anthropic war gescheitert
Die Einigung kommt nur Stunden, nachdem die US-Regierung ein Ende der Zusammenarbeit mit der KI-Firma Anthropic verkündet hatte. Das Unternehmen hatte auf die beiden von OpenAI genannten Sicherheitsprinzipien gepocht und die Zusage des US-Militärs, dass die KI nicht für Massenüberwachung in den USA sowie nicht in komplett autonomen Waffen eingesetzt wird.
Warum OpenAI offenbar die Zusage erhalten hat, die Anthropic verwehrt wurde, ist bisher unklar. Weder Altman noch das Pentagon äußerten sich dazu. Altman schrieb aber, erforderte das Pentagon auf, "diese Bedingungen allen KI-Unternehmen anzubieten, die unserer Meinung nach von allen akzeptiert werden sollten. Wir haben unseren dringenden Wunsch geäußert, die Situation von rechtlichen und behördlichen Maßnahmen hin zu vernünftigen Vereinbarungen zu deeskalieren." Das Pentagon äußerte sich dazu nicht.
Der Konzern Anthropic um den Chatbot Claude hatte dem US-Verteidigungsministerium die uneingeschränkte militärische Nutzung seiner Technologie verweigert. Es könne diesen nicht guten Gewissens nachkommen, sagte Anthropic-Chef Dario Amodei. US-Verteidigungsminister Pete Hegseth hatte dem Anthropic eine Frist bis Freitag gesetzt. US-Präsident Donald Trump untersagte daraufhin den Bundesbehörden die Nutzung von Anthropic-Technologie. Er drohte der Firma, sie solle sich besser "kooperativ" zeigen, und kündigte an, sie als "Sicherheitsrisiko in der Lieferkette" einzustufen. Das Unternehmen will sich wehren.
Die Linie von Anthropic steht im Kontrast zu seinen Konkurrenten: Google-Mutterkonzern Alphabet, Elon Musks Unternehmen xAI und auch OpenAI arbeiten bereits mit der US-Regierung zusammen zur Nutzung ihrer Technik.

vor 1 Tag
1









English (US) ·