KI-Update kompakt: OpenAI & Nvidia, Meta Gen, Mathematik, Lumigator

vor 2 Tage 1

OpenAI hat eine Finanzierungsrunde in Höhe von 6,6 Milliarden US-Dollar abgeschlossen, was einer Unternehmensbewertung von 157 Milliarden Dollar entspricht. Dies ist ein Anstieg von über 80 Prozent gegenüber der letzten Bewertung von 86 Milliarden Dollar.

Als Bedingung für die Investitionen muss OpenAI seine Unternehmensstruktur ändern und vom gemeinnützigen zum gewinnorientierten Unternehmen werden. Nur so können die Investoren, zu denen Microsoft, große Wagniskapitalfirmen und auch Nvidia gehören, Gewinne mit ihren Investitionen erzielen.

Nvidia hat fast gleichzeitig auch ein eigenes KI-Modell vorgestellt, das als Open Source verfügbar ist. Dieses Modell soll in gängigen Benchmarks genauso gut abschneiden wie GPT-4o und Metas Open-Source-Modell Llama. Obwohl Nvidia damit quasi die eigene Konkurrenz finanziert, geht die Rechnung auf, solange OpenAI weiterhin Chips von Nvidia benötigt.

OpenAI hat außerdem eine neue Bedienoberfläche namens "Canvas" (deutsch: Leinwand) für ChatGPT angekündigt. Entgegen der Namensgebung geht es dabei nicht um Bilder oder Malen, sondern um die Bearbeitung von Text- und Codeinhalten. Mit Canvas können Nutzer Teile aus einer Antwort herausnehmen und separat bearbeiten, ohne komplett neue Fragen stellen zu müssen. Zudem bietet Canvas Funktionen zur automatischen Textbearbeitung, wie beispielsweise die Anpassung des Leseniveaus für Grundschüler oder Vorschläge für alternative Formulierungen und Codeverbesserungen.

Eine Analyse der Deutschen Bank zeigt, dass die Bewertungen führender KI-Startups im Verhältnis zu ihren Umsätzen sogar die Höchststände der Dotcom-Ära übersteigen. Während Technologieunternehmen in der Dotcom-Zeit Kurs-Umsatz-Verhältnisse von etwa 30 erreichten, liegen die Werte bei KI-Unternehmen teilweise doppelt so hoch.

ChatGPT-Entwickler OpenAI wird mit 157 Milliarden Dollar bewertet – dem fast 40-fachen des geschätzten Jahresumsatzes. Noch extremer ist Anthropic mit einer angestrebten Bewertung vom 50-fachen der Umsatzprognose.

Kritiker sehen Parallelen zur Dotcom-Blase und warnen vor einer Überhitzung des KI-Marktes. Befürworter argumentieren, das enorme Potenzial der KI-Technologie könnte die Bewertungen rechtfertigen.

Meta hat einen neuen KI-Videogenerator namens "Meta Gen" vorgestellt, der voraussichtlich im kommenden Jahr in Apps wie Facebook oder Instagram integriert werden könnte. Im Gegensatz zu anderen Video-KIs wie OpenAIs Sora ermöglicht Meta Gen nicht nur die Generierung, sondern auch die Bearbeitung bestehender Clips.

Hauptfunktionen umfassen die Videogenerierung durch Texteingaben, den Elementtausch in bestehenden Videos, die Integration eigener Gesichter, KI-basiertes Videoschneiden sowie die Generierung von Musik und Soundeffekten. Aktuell ist Meta Gen nur intern bei Meta und ausgewählten Filmschaffenden verfügbar. Die Videogenerierung dauert noch einige Dutzend Minuten, aber das Ziel ist es, die Funktionen auch lokal auf Smartphones laufen zu lassen.

In Bezug auf die Qualität zeigt sich Meta Gen teilweise realistischer als OpenAIs Sora, beispielsweise bei Fußspuren im Sand. Allerdings treten noch typische KI-Fehler wie Verzerrungen und "Gummifinger" auf, und es kommt zu Halluzinationen bei komplexen Szenen.

Meta plant, die Funktionen sicher und verantwortungsvoll zu implementieren, steht aber vor großen Herausforderungen bezüglich des Missbrauchspotenzials.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Podcasts immer laden

Der renommierte Mathematiker Terence Tao sieht in KI-Assistenten das Potenzial, die mathematische Forschung grundlegend zu verändern. Er skizziert eine Vision von "industrieller Mathematik".

"Ich kann mir eine Zukunft vorstellen, in der man Forschung durch ein Gespräch mit einem Chatbot betreibt", erklärt Tao. "Man hat eine Idee, und der Chatbot geht darauf ein und füllt alle Details aus."

Statt enger, tiefer Mathematik, bei der ein menschlicher Experte sehr hart an einem engen Bereich von Problemen arbeitet, könne man breite, crowdgesourcte Projekte mit viel KI-Unterstützung lösen, die vielleicht oberflächlicher seien, aber in einem viel größeren Maßstab, erklärt Tao. Das könne eine sehr komplementäre Art sein, mathematische Erkenntnisse zu gewinnen.

Tao betont jedoch, dass Menschen und KI sich ergänzende Stärken haben und an der Forschungsfront immer beide gebraucht werden: "KI ist sehr gut darin, Milliarden von Datenpunkten in eine gute Antwort umzuwandeln. Menschen sind gut darin, aus zehn Beobachtungen wirklich inspirierte Vermutungen anzustellen", so der Mathematiker.

Aktuell vergleicht Tao KI-Modelle noch mit mittelmäßigen Forschungsassistenten. Sie können zwar Routineaufgaben bewältigen, sind aber oft unkreativ und unflexibel.

Eine Prognose der Marktforscher von eMarketer deutet darauf hin, dass Googles Marktanteil bei Online-Anzeigen im kommenden Jahr unter 50 Prozent fallen könnte. Dies wäre ein bedeutender Umbruch nach langer Dominanz des Unternehmens. Amazon wird als zweitgrößter Anbieter mit einem erwarteten Marktanteil von etwa 22 Prozent für 2024 gesehen.

Gründe für den Rückgang sind die zunehmende Suche nach Produkten direkt auf Plattformen wie Amazon, der Aufstieg von KI-gestützter, personalisierter Werbung auf Plattformen wie TikTok und neue Konkurrenten wie Perplexity AI, die KI-gestützte Suchdienste anbieten.

Google reagiert mit der Implementierung von KI-gestützten Zusammenfassungen in Suchergebnissen und betont seine Anpassungsfähigkeit an Marktveränderungen. Gleichzeitig wächst die Aufmerksamkeit von Regulierungsbehörden bezüglich personalisierter Werbung, wie ein jüngstes EuGH-Urteil zur Beschränkung der Datennutzung für Werbezwecke bei Facebook zeigt.

Trotz des prognostizierten Rückgangs bleibt Google mit großem Abstand Marktführer im Bereich der Online-Werbung bei Suchen.

Forscher des Mila-Instituts, von Google DeepMind und Microsoft Research haben gravierende Defizite in der Schlussfolgerungsfähigkeit von KI-Sprachmodellen aufgedeckt. In ihrer Studie zeigten vor allem kleinere Modelle Probleme bei verketteten Mathematikaufgaben auf Grundschulniveau. Die Wissenschaftler entwickelten den "Compositional GSM"-Test. Dabei werden zwei Textaufgaben so kombiniert, dass die Antwort der ersten als Variable in der zweiten verwendet wird. Viele Modelle schnitten deutlich schlechter ab als erwartet. Kleine und kostengünstige Modelle zeigten eine zwei- bis zwölfmal größere Logiklücke als große Modelle. Auch auf Mathematik spezialisierte kleine Modelle hatten Schwierigkeiten. Die Ergebnisse deuten darauf hin, dass kleine Modelle zwar Muster in Standardaufgaben erkennen, aber Probleme haben, Wissen auf neue Kontexte zu übertragen. Die Forscher warnen daher davor, die Fähigkeiten kleiner Modelle zu überschätzen.

Mozilla.ai hat ein neues Framework namens Lumigator vorgestellt, das Entwicklern bei der Integration großer Sprachmodelle (LLMs) in eigene Projekte helfen soll. Lumigator soll bei der Auswahl des passenden LLMs für spezifische Anforderungen unterstützen und eine transparente, leistungsfähige und effiziente Bewertung von Sprachmodellen ermöglichen.

Zukünftige Pläne für Lumigator umfassen die Installation und nahtlose Integration in Projekte, Feintuning von Modellen, Echtzeitmonitoring für Experimente, erweiterten Vergleich von Modellen mit demselben Datensatz sowie die Entwicklung einer Benutzeroberfläche und eines Software Development Kits (SDK).

Der Start der geschlossenen Alpha ist für November 2024 geplant, die allgemeine Verfügbarkeit für Januar 2025. Mozilla.ai zielt darauf ab, die Lücke bei Tools zum Evaluieren von KI-Modellen zu schließen und Entwicklern eine fundierte Entscheidungsgrundlage für die Modellauswahl zu bieten. Das Projekt soll sich mittelfristig zu einem Open-Source-Projekt für "ethische und transparente KI-Entwicklung" entwickeln.

Google hat eine neue Version seines Generative-AI-Frameworks Genkit speziell für die Programmiersprache Go vorgestellt. Diese Alpha-Version zielt darauf ab, die Entwicklung von KI-Anwendungen im Go-Ökosystem zu erleichtern.

Genkit für Go fokussiert sich auf die lokale Entwicklung von KI-Applikationen und bietet Tools für Prompt-Engineering, Überwachung von Vektorspeicher-Ausgaben und Bereitstellung von Modellen. Es verfügt über eine vereinheitlichte API für konsistente Inhaltsgenerierung aus verschiedenen Modellen, unterstützt verschiedene Vektordatenbankanbieter und ermöglicht mehrstufige Workflows mit HTTP-Endpunkten für Überwachung und Fehlerbehebung.

Anwendungsfälle umfassen intelligente Assistenten für komplexe Aufgaben, KI-gestützte Kundensupport-Agenten und Datenumwandlungswerkzeuge für unstrukturierte Daten. Google stellt eine Schnellstartanleitung für Genkit for Go zur Verfügung und bietet in seiner webbasierten Entwicklungsumgebung Project IDX ein Genkit-Template an.

Die Alpha-Version eignet sich vor allem für Experimente und Prototyping. Entwickler sind eingeladen, Feedback zu geben, um die Weiterentwicklung des Frameworks zu unterstützen.

(igr)

Gesamten Artikel lesen