Copilot: Microsoft-KI »dient ausschließlich Unterhaltungszwecken« – schreibt Microsoft

vor 4 Stunden 1

Microsoft hat in den Nutzungsbedingungen für seinen Chatbot Copilot einen Passus untergebracht, der die KI als reine Unterhaltung kennzeichnet. Nun erregt sich die Techcommunity.

06.04.2026, 17.39 Uhr

 That’s entertainment
 That’s entertainment

Copilot-Logo auf einem Laptop: That’s entertainment

Foto: Bloomberg / Getty Images

Dieser Artikel gehört zum Angebot von SPIEGEL+. Sie können ihn auch ohne Abonnement lesen, weil er Ihnen geschenkt wurde.

Der Fall ist ein gutes Beispiel dafür, dass offenbar niemand das Kleingedruckte liest. Seit dem Osterwochenende erregt sich die Techcommunity im Internet über eine Passage in den Nutzungsbedingungen zu Microsofts Copilot  für Privatpersonen. Die künstliche Intelligenz (KI) wird darin als nur zur Unterhaltung tauglich bezeichnet: »Copilot dient ausschließlich Unterhaltungszwecken«, heißt es da.

Das macht einigermaßen stutzig, schließlich bewirbt der Konzern die Software als »fortschrittliche KI«, die »Ihre Fragen und Wünsche« versteht, »direkte Antworten« gibt, »beim Schreiben« hilft und »sogar Bilder« erstellt . Das sei, »als hätte man einen klugen, hilfsbereiten Freund zur Hand«. Nach reinen »Unterhaltungszwecken« klingt das nicht.

Neu ist der Passus nicht

Stutzig macht auch, dass offensichtlich selbst Menschen, die sich beruflich für diese Dinge interessieren, bisher nicht über die bemerkenswerte Formulierung gestolpert sind. Auch wenn Techportale wie »Tom’s Hardware«  und »The Register«  erst jetzt darüber berichten: Neu ist der Passus nicht. In ihrer aktuellen Form sind Microsofts Nutzungsbedingungen für Copilot auf den 24. Oktober 2025 datiert .

Im Internet sorgt die Berichterstattung für eine Mischung aus Verwunderung und Belustigung. In einem Reddit-Forum zum Thema  reichen die Kommentare von »Microsoft hat Milliarden in KI investiert, aber keinen konkreten, umsetzbaren KI-Plan« bis »Karl Klammer war unterhaltsamer«. Als »Karl Klammer« bezeichnete der Konzern eine Unterstützungsfunktion, die in Microsofts Office-Programme integriert war, bevor der KI-Hype begann.

Empfohlener externer Inhalt

An dieser Stelle finden Sie einen externen Inhalt von X.com, der den Artikel ergänzt und von der Redaktion empfohlen wird. Sie können Ihre Zustimmung jederzeit wieder zurücknehmen.

{$dispatch('toggle')}, 250);">

Externen Inhalt anzeigen

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Auf X scherzt Nutzer Gary Marcus: »Man stelle sich vor, Taschenrechner kämen mit dieser Warnung .« Er bezieht sich dabei offenbar nicht nur auf den Hinweis bezüglich des Entertainment-Charakters von Microsoft-Copilot, sondern auf die sich anschließende Warnung vor Fehlern: »Verlassen Sie sich nicht auf Copilot, wenn es um wichtige Ratschläge geht. Die Nutzung von Copilot erfolgt auf eigene Gefahr.«

Absicherung gegen Fehlbarkeit

Das klingt dramatisch, sollte aber zu den ersten Dingen gehören, die man beherzigen sollte, wenn man den Umgang mit einer KI erlernt: Prüfe immer, was die KI antwortet. Mindestens auf Plausibilität, besser noch auf Fakten. Mit Hinweisen wie denen in Microsofts Nutzungsbedingungen wollen sich Betreiber von KI-Systemen gegen mögliche juristische Gefahren absichern.

Deshalb ist Microsoft auch nicht der einzige Anbieter, der explizit darauf hinweist, dass seine KI fehlbar ist. Bei OpenAI etwa heißt es in den Nutzungsbedingungen für den populären Chatbot ChatGPT: »Der Output ist möglicherweise nicht immer richtig. Sie sollten sich nicht auf den Output unserer Dienste als alleinige Quelle der Wahrheit oder faktischer Informationen oder als Ersatz für professionelle Beratung verlassen.« Und weiter: »Unsere Dienste können unvollständigen, unrichtigen oder beleidigenden Output liefern, der nicht die Ansichten von OpenAI wiedergibt.«

Dabei gilt es zu beachten, dass OpenAI sich hier ausdrücklich auf die Nutzung seiner Dienste durch Privatpersonen bezieht. Auch Microsoft schließt seine für professionelle Anwender konzipierten »Microsoft 365 Copilot-Apps oder -Dienste« von den jetzt diskutierten Nutzungsbedingungen aus, »es sei denn, die jeweilige App oder der jeweilige Dienst besagt, dass diese Bedingungen gelten«.

Gesamten Artikel lesen