Streit über KI-Einsatz: Pentagon erwägt Bruch mit Anthropic wegen Nutzungsbedingungen

vor 1 Stunde 1

Das US-Verteidigungsministerium erwägt einem Medienbericht zufolge, die Zusammenarbeit mit dem KI-Unternehmen Anthropic zu beenden. Grund ​sei, dass das Unternehmen auf Beschränkungen bei der Nutzung seiner Modelle durch das ‌US-Militär bestehe, berichtete das Nachrichtenportal Axios am Samstag unter Berufung auf einen Regierungsvertreter.

Das Pentagon dringe darauf, dass vier KI-Unternehmen dem Militär den Einsatz ihrer Werkzeuge für »alle rechtmäßigen Zwecke« gestatten, einschließlich der Waffenentwicklung, der Beschaffung ​von Geheimdienstinformationen und Einsätzen auf dem Schlachtfeld. Anthropic habe diesen Bedingungen jedoch nicht ⁠zugestimmt. Dem Bericht zufolge sei die Geduld des Pentagon nach monatelangen Verhandlungen erschöpft. Zu den anderen Unternehmen gehören OpenAI, Google und xAI.

Ein ‌Sprecher von Anthropic sagte, das Unternehmen habe ​den Einsatz seines ‌KI-Modells Claude für bestimmte Operationen nicht mit dem Pentagon besprochen. Die Gespräche mit der US-Regierung hätten sich bisher auf verschiedene Aspekte der Nutzungsrichtlinie konzentriert, darunter klare Grenzen für vollständig ‌autonome Waffen und die Massenüberwachung im Inland. Keine davon beziehe sich auf aktuelle Operationen. Autonome Waffen wählen ohne menschliche Beteiligung Ziele aus und töten Gegner. Die Oxford-Philosophin Mariarosaria Taddeo fordert daher neue Kriegsregeln .

Die Zeitung »Wall Street ‌Journal« hatte am Freitag berichtet, ​dass das KI-Modell Claude ‌von Anthropic über eine Partnerschaft mit dem Datenunternehmen ‌Palantir ​bei dem Einsatz des US-Militärs zur Ergreifung des ehemaligen venezolanischen Präsidenten Nicolás Maduro eingesetzt wurde. ​Eine Stellungnahme des Pentagon ⁠lag zunächst nicht vor.

Anthropic beharrt auf Nutzungsregeln

Wofür genau die Anthropic-Software bei der Militäroperation verwendet wurde, blieb unklar. Claude kann – wie auch ChatGPT – unter anderem Dokumente analysieren und Informationen zusammenfassen. Zugleich verbieten die Nutzungsrichtlinien von Anthropic den Einsatz von Claude für Gewaltanwendung, Waffenentwicklung oder Überwachung.

Von Anthropic hieß es, man könne sich nicht dazu äußern, ob Claude in einer bestimmten Operation eingesetzt worden sei. Zugleich betonte die Firma, jegliche Nutzung – egal ob in der Privatwirtschaft oder durch Regierungen – müsse im Rahmen der Nutzungsrichtlinie bleiben. Man arbeite mit den Partnern daran, das sicherzustellen.

Anthropic-Chef Dario Amodei warnt vor Risiken künstlicher Intelligenz. Anders als viele seiner Kollegen setzt er sich für mehr Leitplanken bei der KI-Entwicklung ein. Das brachte ihn auch auf Kollisionskurs mit dem KI-Beauftragten des Weißen Hauses, David Sacks. Der Einsatz von künstlicher Intelligenz verschiebt die Machtverhältnisse in der Rüstungsindustrie. Lesen Sie hier, wie KI den Krieg verändert .

Gesamten Artikel lesen