Googles Gemini-App hat auf vielen Android-Smartphones und iPhones sowie auf iPads Augen bekommen. Der Konzern hat die Gemini-Live-Funktion nach der Ankündigung auf der I/O 2025 kostenlos freigeschaltet.
Gemini Live: Kamera- und Bildschirmfreigabe für alle
Im April kündigte Google die Kamera- und Bildschirmfreigabe für Gemini Live an, mit der Nutzer mittels KI über Inhalte sprechen und Dinge erklären lassen können. Für Nutzer eines Pixel 9 und Galaxy S25 war die Funktion kostenlos. Besitzer anderer Android-Geräte konnten nur mit Bezahlabo auf die Funktion zugreifen. Kurz danach öffnete der Konzern die KI-Funktion wegen "großartigem Feedback" für weitere Android-Geräte an und machte die Funktion kostenlos.
Im Zuge der Google I/O 2025 bestätigte der Konzern erneut die breite Verfügbarkeit für alle Gemini-Nutzerinnen und -Nutzer und ergänzte, dass auch iPhone-Nutzer Zugriff auf die neuen Gemini-Live-Funktionen erhalten sollen. Ein Tweet vom 30. Mai bestätigte den flächendeckenden Rollout der Funktion für Android und iOS – Nutzer müssten lediglich auf die aktuelle Version der Gemini-App aktualisieren.
Gemini Live sieht die Umwelt oder den Homescreen
Sowohl auf dem iPhone als auch auf Android-Geräten kann Gemini Live durch das Öffnen der Gemini-App und das anschließende Tappen auf das Gemini-Live-Icon aktiviert werden. In der App-Ansicht sind neben Pause- und Stopp-Button zwei weitere Buttons für Kamera- und Bildschirmfreigabe zu finden, mit denen die neuen Funktionen aktiviert werden können.
Während der Nutzung der Kamerafunktion kann zwischen Front- und Hauptkamera gewechselt werden. Zudem wird der Kameralivestream unterbrochen, sobald die App verlassen oder der Bildschirm gesperrt wird. Ferner kann die Bildschirmübertragung jederzeit über das Symbol in der unteren Ecke links beenden, während die Konversation mit der KI fortgesetzt werden kann.
Gemini Live soll mittels der Kamera-Freigabe etwa bei einem verstopften Abfluss helfen oder Tipps für einen defekten Plattenspieler geben können, um Dinge wieder selbst herrichten zu können. Um Rat von Gemini zu bekommen, hält der Nutzer einfach die Smartphone-Kamera auf das Objekt und fragt die KI, was das Problem sein könnte.
Gemini Live ist Teil von Googles "Project Astra"
Gemini Live mitsamt der Kamera- und Bildschirmfreigabe ist aus Googles "Project Astra" hervorgegangen, das von Deepmind entwickelt wird. Ziel des Projekts ist es, eine universelle KI zu liefern, die Nutzern mithilfe von Agenten langfristig Aufgaben abnehmen können. Im Zuge der Google I/O 2025 hat der Konzern einen Einblick in künftige Möglichkeiten der KI gewährt: Die Aufgaben und Funktionen, die irgendwann einmal möglich sein sollen, reichen von Unterstützung bei der Fahrradreparatur über den Einkauf bis hin zur Schüler-Nachhilfe.
Die aktuelle Gemini-Generation ist offenbar nur der Anfang. Auch OpenAI hat für ChatGPT ähnliche Pläne: Das Unternehmen will einen "intuitiven KI-Super-Assistenten" erschaffen.
(afl)