Machtkampf zwischen Microsoft und OpenAI um die KI-Zukunft
Hinter den Kulissen von Microsoft und OpenAI tobt ein Machtkampf um die Kontrolle der künftigen KI-Landschaft. Der Streit entzündet sich an einer Vertragsklausel von 2019, die OpenAI das Recht gibt, Microsoft den Zugang zu seiner Technologie zu entziehen, sobald eine "Künstliche Allgemeine Intelligenz" (AGI) entwickelt wurde. Was einst als theoretische Fantasie galt, steht nun im Zentrum harter Verhandlungen. Besonders brisant: Laut Wall Street Journal darf Microsoft bis 2030 keine eigene AGI entwickeln, was den Konzern in eine gefährliche Abhängigkeit bringt.
Die Spannungen verschärfen sich durch OpenAIs Börsenpläne, die Microsoft blockiert. Als Kompromiss wird erwogen, den Begriff AGI durch "Künstliche Superintelligenz" zu ersetzen – ein semantischer Trick, der die Zielmarke in die Zukunft verschiebt. Während OpenAI-Chef Sam Altman andeutet, AGI sei in Sichtweite, tut Microsoft-CEO Satya Nadella die Debatte als übertriebenen Hype ab. Der Ausgang dieses Machtkampfs könnte die Zukunft einer Technologie bestimmen, die es streng genommen noch gar nicht gibt.
Bayern und Wien bewerben sich um EU-geförderte KI-Gigafabriken
Bayern und Wien haben sich als Standorte für europäische KI-Gigafabriken ins Rennen gebracht. Die EU-Kommission plant, solche Rechenzentren mit bis zu 20 Milliarden Euro zu fördern, wobei die Privatwirtschaft fast zwei Drittel der Kosten tragen soll. Beide Bewerber haben rasch Konsortien mit lokalen Unternehmen gebildet.
Mit dieser Initiative will Europa den Anschluss an die globalen KI-Großmächte USA und China nicht verlieren. Nach der aktuellen Interessenbekundung folgt im vierten Quartal 2025 ein vertiefter Auswahlprozess. Die Gigafabriken sollen dann 2028 in Betrieb gehen – ein ambitionierter Zeitplan für Europas technologischen Aufholversuch.
Meta setzt sich vor Gericht gegen Autoren und Autorinnen durch
Ein kalifornisches Gericht hat Meta im Rechtsstreit um die Nutzung urheberrechtlich geschützter Bücher für KI-Training überraschend Recht gegeben. Obwohl der Konzern einräumte, Bücher aus illegalen "Schattenbibliotheken" per BitTorrent für das Training seiner KI Lama verwendet zu haben – ein Vorgehen, das Mark Zuckerberg persönlich genehmigte – scheiterte die Klage von 13 Autoren, darunter die Komikerin Sarah Silverman.
Der Richter begründete sein Urteil damit, dass die Kläger die falschen Argumente vorgebracht hätten. Die kurzen reproduzierten Textfragmente seien rechtlich unbedenklich, und ein Anspruch auf einen Lizenzmarkt bestehe nicht. Bemerkenswert: Der Richter deutete an, dass ein Fokus auf die Gefahr KI-generierter Texte, die den Markt mit ähnlichen Inhalten überfluten könnten, ein erfolgversprechenderes Argument gewesen wäre. Das Urteil gilt nur für diesen Einzelfall – künftigen Klagen mit besserer Argumentation räumt der Richter durchaus Erfolgsaussichten ein.
Creative Commons arbeitet an Lizenzen fürs KI-Training
Creative Commons entwickelt neue Kennzeichnungen, um die faire Nutzung von Datensätzen für KI-Training zu regeln. Die Organisation hat vier Signale erarbeitet, die allesamt die Nennung der Verantwortlichen vorschreiben. Zudem können Dateninhaber finanzielle Bedingungen festlegen – entweder als direkte Zahlung oder als Beitrag zum zugehörigen Ökosystem.
Ein weiteres Signal erlaubt die Einschränkung, dass Daten nur für das Training offener KI-Systeme verwendet werden dürfen. Das Ziel ist klar: das offene Internet bewahren, indem transparente Regeln für die Nutzung von Inhalten im KI-Training geschaffen werden. Damit reagiert Creative Commons auf die wachsende Sorge, dass KI-Unternehmen sich an fremden Inhalten bedienen, ohne deren Schöpfer zu entschädigen.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.
Podcasts immer laden
Bremen führt KI-Chatbot für Schulen ein
Bremen wagt als erstes Bundesland den Schritt zum eigenen KI-Chatbot im Klassenzimmer. "Telli", Teil des länderübergreifenden Projekts "Adaptives Intelligentes System" (AIS), soll Lehrern und Schülern einen datenschutzkonformen Zugang zu generativer KI bieten. Der Chatbot arbeitet ausschließlich mit pseudonymisierten Daten und wird vollständig innerhalb der EU gehostet.
KI und kritische Infrastruktur
Moderne Kriegsführung findet längst nicht mehr nur auf dem Schlachtfeld statt. Cyberangriffe auf kritische Infrastruktur können ganze Volkswirtschaften lahmlegen. Cybersecurity-Expertin Sarah Fluchs warnt im c't Podcast „They Talk Tech" vor einer besonders gefährlichen Entwicklung: KI-Tools automatisieren zunehmend Entscheidungen, die für Menschen nicht mehr nachvollziehbar sind.
Meta wirbt KI-Forscher von OpenAI ab
Meta hat drei hochkarätige KI-Forscher von OpenAI abgeworben – ein strategischer Coup im Kampf um die besten Köpfe der Branche. Die Spezialisten für maschinelles Lernen und Bildverarbeitung arbeiteten zuletzt im Zürcher Büro von OpenAI, das sie selbst mit aufgebaut hatten. Zuvor waren sie bei Google DeepMind tätig.
US-Chip-Embargo bremst Chinas KI-Hoffnung Deepseek
Die US-Sanktionen zeigen Wirkung: Das chinesische KI-Unternehmen Deepseek muss den Start seines neuen Modells R2 verschieben. Der Grund liegt im Mangel an Nvidia-Chips, insbesondere dem inzwischen verbotenen H20-Chip. CEO Liang Wenfeng ist mit der Leistung von R2 noch unzufrieden – ein direktes Resultat der verschärften US-Exportregeln.
Menschen sprechen immer häufiger wie die KI
Das Max-Planck-Institut für Bildungsforschung hat Alarmierendes entdeckt: KI-Modelle verändern bereits unsere Sprache. Nach Analyse von fast 280.000 YouTube-Videos stellten Forscher fest, dass Wissenschaftler in ihren Vorträgen innerhalb von nur 18 Monaten nach ChatGPTs Einführung deutlich häufiger typische KI-Wörter verwendeten.
Besonders bemerkenswert: In 58 Prozent der Fälle wurden diese Begriffe spontan gesprochen, nicht abgelesen. Erstmals passt sich der Mensch der Maschine an, nicht umgekehrt.
AI Slop: Die Schattenseite der KI-Revolution
"AI Slop" – KI-Abfall – überschwemmt zunehmend das Internet. Damit gemeint sind massenhaft produzierte KI-generierte Bilder, Videos und Texte minderer Qualität, die nur darauf abzielen, schnell Aufmerksamkeit auf Social-Media-Plattformen zu erregen. Das Problem verschärft sich, da KI-Tools immer besser werden: Bilder wirken realistischer, Videos lassen sich automatisch vertonen.
Der Medienphilosoph Thomas Sommerer von der Johannes Keppler Universität Linz warnt vor den Konsequenzen: "Ein digitales Informationsnetzwerk, das menschliche Interaktionen repräsentiert, hat sich jetzt in eine unkontrollierbare Masse von künstlich generierten Texten und Bildern entwickelt, die die virtuelle Welt dominieren."
(igr)