KI-Branche fürchtet größte jemals zugelassene US-Sammelklage zum Copyright
In den USA steht eine wegweisende Entscheidung im Urheberrechtsstreit zwischen Buchautoren und dem KI-Unternehmen Anthropic bevor. Bezirksrichter William Alsup muss über die Zulassung einer Sammelklage entscheiden, die theoretisch mehrere Millionen Urheber vertreten könnte. Im Kern geht es um die Frage, ob das Training von KI-Modellen mit urheberrechtlich geschützten Werken ohne Lizenz als "Fair Use" gelten kann.
Anthropic warnt vor einem gefährlichen Präzedenzfall mit potenziellen Schadensersatzsummen in Milliardenhöhe. Dem Unternehmen wird vorgeworfen, neben rechtmäßig erworbenen Büchern auch über sieben Millionen E-Books aus inoffiziellen Quellen ohne Lizenzen verwendet zu haben. Die Entscheidung könnte richtungsweisend für Dutzende weiterer anhängiger Copyright-Klagen gegen KI-Entwickler in den USA werden.
USA beteiligt sich an Chinas KI-Chip-Geschäft
Die US-Regierung hat einen ungewöhnlichen Deal mit NVIDIA geschlossen: Der Chipgigant darf nun weniger leistungsstarke KI-Prozessoren nach China liefern – muss aber 15 Prozent der Einnahmen an Washington abtreten. Diese Regelung ist beispiellos in der US-Geschichte und könnte allein in diesem Jahr Milliarden für die Staatskasse einbringen.
Die Vereinbarung markiert eine Kehrtwende in der amerikanischen China-Politik. Nachdem zunächst unter Joe Biden Exportverbote für Hochleistungschips verhängt wurden und die Trump-Administration diese Beschränkungen noch verschärfte, folgt nun ein pragmatischer Kompromiss. Weder die US-Regierung noch die beteiligten Unternehmen haben die übereinstimmenden Medienberichte bisher kommentiert.
Zenity demonstriert gefährliche "Zero-Click"-Angriffe auf KI-Tools
Das israelische Sicherheitsunternehmen Zenity hat auf der Black Hat USA alarmierende Schwachstellen in gängigen KI-Werkzeugen aufgedeckt. Unter dem Projektnamen "AgentFlayer" zeigten die Forscher, wie Dienste wie ChatGPT, Microsoft Copilot oder Google Gemini durch versteckte Prompt-Injections kompromittiert werden können – teilweise ganz ohne Nutzerinteraktion.
In einer Demonstration wurde Salesforce Einstein durch präparierte CRM-Einträge dazu gebracht, Kunden-E-Mail-Adressen auf die Domain eines Angreifers umzustellen. Bei einem anderen Angriff konnte ein manipuliertes Jira-Ticket das Entwicklertool Cursor zwingen, sensible API-Schlüssel vom Rechner abzuziehen. Zenity kritisiert, dass die meisten Anbieter auf "weiche Grenzen" setzen, die zwar manche Angriffe stoppen, aber keinen grundsätzlichen Schutz bieten.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.
Podcasts immer laden
Meta kauft Audio-KI-Spezialisten für Llama-Offensive
Meta verstärkt seine KI-Strategie durch die Übernahme von WaveForms AI, einem Spezialisten für realistische Sprachsynthese. Das Start-up-Team um Mitgründer Alexis Conneau, ehemaliger Audioforscher bei OpenAI, und Coralie Lemaitre wechselt zur neuen Organisation Meta Superintelligence Labs.
Parallel arbeitet Meta an der nächsten Generation seines Open-Source-Modells, intern als "Llama 4.5" bezeichnet. Die Audio-Technologie von WaveForms AI könnte eine Schlüsselrolle bei Mark Zuckerbergs Vision von personalisierten, dialogfähigen Assistenten spielen. Ziele der Entwicklung sind verbesserte Reasoning-Fähigkeiten, leistungsfähige KI-Agenten und schnellere Modell-Entwicklung.
Tesla stoppt Dojo-Supercomputer und kehrt zu Nvidia zurück
Tesla hat sein ambitioniertes KI-Supercomputer-Projekt Dojo überraschend eingestellt. Der seit 2019 entwickelte Rechner mit eigenem D1-Chip sollte ursprünglich das Training für Teslas Autopilot und Full Self Driving unabhängig von externen Anbietern machen. Teamleiter Peter Bannon hat das Unternehmen bereits verlassen, 20 Mitarbeiter wechselten zum Start-up DensityAI.
Elon Musk begründet den Schritt pragmatisch: Die Ressourcen auf zwei verschiedene Chip-Designs aufzuteilen sei nicht sinnvoll. Tesla konzentriert sich nun auf die Autoprozessoren AI5 und AI6, die bei Samsung gefertigt werden sollen – ein Deal im Wert von 16,5 Milliarden Dollar bis 2033. Gleichzeitig kehrt der Autobauer zu einer stärkeren Kooperation mit Nvidia und AMD zurück.
Entwickler nutzen KI-Tools mehr, vertrauen ihnen weniger
Die Stack Overflow Developer Survey 2025 zeigt einen paradoxen Trend: Während 84 Prozent der fast 50.000 befragten Entwickler KI-Werkzeuge nutzen oder planen – ein neuer Höchstwert – sinkt das Vertrauen in deren Ergebnisse deutlich. Nur noch ein Drittel hält KI-Outputs für zuverlässig, vor einem Jahr waren es noch deutlich mehr.
Besonders frustrierend für die Nutzer sind "fast richtige" Lösungen. Zwei Drittel kritisieren, dass KI-Code oft knapp daneben liegt, was bei fast jedem Zweiten zu unerwartet hohem Debugging-Aufwand führt. Bei komplexen oder sicherheitskritischen Aufgaben setzen die meisten weiter auf menschliche Expertise. Trotz dieser Skepsis attestiert knapp über die Hälfte der Befragten den Tools einen positiven Effekt auf ihre Produktivität.
Apple bestätigt: GPT-5 kommt auf iPhone, iPad und Mac
Apple wird OpenAIs neuestes Sprachmodell GPT-5 in seine kommenden Betriebssysteme integrieren. Das Unternehmen hat bestätigt, dass die KI-Technologie Teil von iOS 26, iPadOS 26 und macOS 26 sein wird, deren Veröffentlichung zwischen Mitte und Ende September erwartet wird.
Wie bereits bei der aktuellen GPT-4o-Integration wird die Funktion optional bleiben. Unklar ist noch, ob Nutzer zwischen GPT-5 und GPT-4o wählen können werden. Die OpenAI-Technologie ergänzt Apples hauseigenes KI-System "Apple Intelligence" und soll diesem sogenanntes Weltwissen ermöglichen. Nutzer können im Betriebssystem zwischen Apples eigenen Modellen und denen von OpenAI wechseln.
Sam Altman warnt vor blinder KI-Abhängigkeit
Bei der Vorstellung von ChatGPT-5 äußerte OpenAI-Chef Sam Altman ungewöhnlich deutliche Bedenken: Menschen könnten künftig ihr Leben vollständig nach KI-Empfehlungen ausrichten – ein Szenario, bei dem "etwas Wichtiges" verloren ginge. Künstliche Intelligenz sei noch nicht in der Lage, wirklich makellose Ratschläge zu geben.
Altman verwies auf Forschungsergebnisse des MIT und OpenAI zu emotionalen Risiken intensiver KI-Nutzung, darunter Manipulationsgefahr und psychische Störungen. Trotz dieser Warnungen betonte er die Chancen der Technologie. GPT-5 könne Gesundheitsdaten bis hin zu "lebensrettenden Diagnosen" auswerten. Das neue Modell sei deutlich leistungsfähiger als sein Vorgänger – wie ein "Experte für jedes Thema mit Doktortitel".
(mali)