macOS 26 Tahoe: Redesign und neues Versionsschema

vor 2 Tage 5

Auf der Keynote der WWDC 2025 hat Apple die nächste Version des Mac-Betriebssystems angekündigt. Wie bereits letzte Woche vermutet wurde, vergibt Apple weiterhin Beinamen mit Bezug auf Kalifornien: Die kommende Version heißt macOS Tahoe. Namensgeber ist der größte Bergsee Nordamerikas, Lake Tahoe an der Grenze zwischen Kalifornien und Nevada.

Zudem wechselt Apple beim Versionsschema auf Jahreszahlen statt auf fortlaufende Nummern. Statt macOS 16 wird das nächste Upgrade also macOS 26 heißen.

Das gläserne WWDC-Logo hat es bereits angedeutet: Apple modernisiert das Interface von macOS und macht es mit transluzenter Glasoptik sowie Licht, Schatten und glasartigen Verzerrungen an den Fensterkanten und Bedienelementen wieder etwas plastischer. Das "Liquid Glass" genannte Design ist dabei von visionOS inspiriert und wird über alle Systeme ähnlich sein. Nicht nur die Fenster zeigt macOS konsequent gläsern, sondern auch Icons, Buttons und Menüs. Zudem gibt es mehr Animationen. Die Menüleiste kommt ohne Hintergrund, die Menübefehle schweben direkt über dem Hintergrundbild.

Das "Liquid Glass" genannte Design zeigt sich beispielsweise im Kontrollzentrum.

Ein spezieller "Clear Look" gibt dem gesamten OS auf Wunsch eine durchgängige Glasoptik und verzichtet dabei auf Farben. Symbole und Texte wirken dann wie in Glas graviert. Außerdem gibt es einen von iOS bekannten speziellen Dunkelmodus, mit einfarbig abgetönten Icons.

Das optionale, systemübergreifend verfügbare "Clear Look" verzichtet weitgehend auf Farben.

Die letzte größere Überarbeitung geschah mit macOS 11 Big Sur im Jahr 2020, wo sich Apple auch am Mac weitgehend von plastischen Elementen wie Buttons verabschiedet hatte.

Apple Intelligence konnte seit der Vorstellung im letzten Jahr auch nach diversen Updates kaum überzeugen. Siri soll in den neuen Systemen zwar leicht verbessert worden sein, aber beim komplett überarbeiteten Siri vertröstet Apple die Anwender – wie vermutet – auf ein weiteres Jahr. Apple Intelligence unterstützt einige weitere Sprachen und Entwickler können über das "Foundations Models Framework" erstmals auf das lokale Large Language Model von Apple zugreifen und in ihren Apps nutzen. Über App Intents lassen sich Anwendungen in Apple Intelligence integrieren, um beispielsweise über Visual Intelligence nach markierten Bildelementen zu suchen.

Anwender können in ihren Kurzbefehlen nun Apple Intelligence nutzen und dabei festlegen, ob das lokale LLM, Apples Private Cloud Compute oder ChatGPT genutzt wird. In den Prompts lassen sich Variablen integrieren, damit die KI etwa ein Transkript einer Audiodatei in einem Schritt zusammenfasst.

Die von iOS/iPadOS bekannten Automationen kommen endlich auf den Mac. Sie ermöglichen es, Kurzbefehle automatisch auszuführen. Das geht nicht nur zeitgesteuert, sondern auch bei bestimmten Ereignissen wie dem Anschließen eines Bildschirms, Dateiänderungen oder Empfang von Nachrichten bestimmter Absender.

Diese Meldung wird im Laufe des Abends um weitere Details ergänzt. Im Liveticker erfahren Sie zeitnah, was Apple gerade auf der Keynote vorstellt.

(wre)

Gesamten Artikel lesen