Das Unternehmen Docker, Inc. hat Version 4.40 von Docker Desktop veröffentlicht. Eine wichtige Neuigkeit ist der Docker Model Runner, mit dem Entwicklerinnen und Entwickler Large Language Models (LLMs) direkt auf der Kommandozeile lokal ausführen können. Der Docker AI Agent nutzt zudem künftig das Model Context Protocol (MCP) und lässt sich daher auch in Workflows einbinden, die über Docker hinausgehen.
Auch ohne Container: Lokal mit KI-Modellen arbeiten
Der Docker Modell Runner ist ab sofort als Plug-in in Docker Desktop integriert und standardmäßig aktiviert – zunächst jedoch noch in einer Betaversion. Erklärtes Ziel ist es laut der Ankündigung im Docker-Blog, Entwicklerinnen und Entwicklern eine einfache Möglichkeit zu eröffnen, schnell und unkompliziert mit KI-Modellen lokal auf ihrem System zu arbeiten – sogar außerhalb eines Containers. Dazu lassen sich die Modelle von Docker Hub per docker model pull herunterladen und lokal speichern.
Das Ausführen und die Interaktion mit den LLMs erfolgt – vergleichbar mit Ollama – über die Kommandozeile, wahlweise per Prompt oder im Chat-Modus. Für die Inferenz hat Docker die Open-Source-Library llama.cpp samt Zugriff über die OpenAI-API integriert. Darüber hinaus sind Modelle als OCI-Artefakte verpackt, sodass sie sich sowohl in etablierte CI/CD-Workflows als auch in als vertrauenswürdig eingestufte Registrys einbinden lassen.
Während der Betaphase steht Docker Modell Runner zunächst nur für macOS zur Verfügung und nutzt auf diesen Plattformen die GPU-Beschleunigung der Apple-Silicon-Prozessoren. Support für Windows und andere Betriebssysteme soll folgen. Darüber hinaus will Docker Entwicklerinnen und Entwicklern künftig auch ermöglichen, eigene KI-Modelle anzupassen und zu veröffentlichen.
KI-unterstützte Hilfe über Docker hinaus
Als intelligenter Helfer steht Developern der Docker AI Agent bereits seit Längerem zur Seite. Mit dem Release von Docker Desktop 4.40 soll der Agent aber noch mehr Fähigkeiten erhalten, darunter etwa das Herunterladen und Verwalten lokaler Dateien sowie das Ausführen von Git-Operationen und Shell-Kommandos. Der Docker AI Agent bietet darüber hinaus nun vollständigen Support für das Model Context Protocol (MCP), über das sich KI-Agenten und -Modelle mit externen Daten und Werkzeugen verbinden lassen. Dabei kann der Docker AI Agent sowohl als MCP Client fungieren als auch seine Funktionen als MCP-Server bereitstellen. Auf diese Weise lässt sich die Unterstützung durch den Agenten auch unmittelbar in Docker Desktop (GUI und CLI) sowie anderen Umgebungen wie der Cursor IDE oder dem Claude Desktop nutzen.
Weitere Neuerungen betreffen unter anderem das in Version 4.36 eingeführte Desktop Settings Management, das nun auch Compliance-Reporting für Docker-Business-Kunden umfasst. Einen kompletten Überblick aller Änderungen in Version 4.40 liefern der Docker-Blog sowie die Release Notes.
(map)