Auf seinem Kunden-Event Innovate hat SAS umfangreiche Erweiterungen und Verbesserungen der Viya-Plattform vorgestellt. Damit soll generative KI schneller vom Pilotprojekt in produktive Unternehmensprozesse überführt werden können. Hierzu kombiniert das Unternehmen drei Bausteine: KI-Assistenten für Analytics-Workflows, eine Agenten-Infrastruktur auf Basis offener Schnittstellen wie MCP sowie ein modernisiertes Datenmanagement mit Governance, Lineage und Cloud-nativer Analysebeschleunigung. Im Zentrum steht der neue Viya Copilot, eine Familie von KI-Assistenten, die direkt in die Plattform eingebettet ist.
Anders als generische Chatbots sollen diese Assistenten nicht neben den Arbeitsprozessen laufen, sondern Data Scientists, Entwickler und Fachanwender in den bestehenden Analytics-Workflows unterstützen – etwa bei Python-Code, Modell-Pipelines, Dashboard-Erstellung, Suche und erklärenden Analysen.
Laut SAS integriert der Copilot Microsoft Foundry und soll sukzessive auf Datenmanagement, Modellmanagement und KI-Infrastruktur ausgeweitet werden. Bereits verfügbar sind branchenspezifische Copiloten unter anderem für Asset- und Liability-Management sowie klinische Datenanalysen; weitere Funktionen für die Prävention von Finanzschäden, Planung und Supply-Chain-Optimierung sind in Arbeit.
Neue Infrastruktur unterstützt offene Standards
Parallel dazu führt SAS eine neue Agenten-Infrastruktur für Viya ein. Geplant ist, dass der Viya Model Context Protocol Server viele Analytics-, Modell- und Decisioning-Funktionen über den offenen MCP-Standard für externe KI-Agenten nutzbar macht. Der Agentic AI Accelerator liefert Code, Komponenten, Schnittstellen und Best Practices für die Entwicklung, Governance und das Deployment eigener Agenten. Hinzu kommt der Retrieval Agent Manager, eine No-Code-Lösung auf RAG-Basis, mit der unstrukturierte Daten in kontextbezogene Antworten überführt werden können.
Agenten nur so gut wie die Daten, mit denen sie arbeiten
Eine weitere Ankündigung betrifft das Datenfundament: Neu, beziehungsweise erweitert, sind Funktionen für AI-ready Data Management, agentische KI und Copiloten sowie Cloud-native Analytics-Beschleunigung. Die Begründung ist lapidar: Agenten sind nur so gut wie die Daten, mit denen sie arbeiten. Um die Daten schneller und einfacher zu verbessern, setzt man bei SAS darauf, Analytics zu den Daten zu bringen, statt Daten ständig zwischen Plattformen zu verschieben. Der SpeedyStore dient dabei als Cloud-native analytische Datenplattform, die eng mit Viya integriert ist, und der Data Accelerator soll die Analysen direkt in großen Cloud Data Warehouses und Lakehouse-Architekturen ausführen.
Zudem unterstützt Viya jetzt eingebettete Analyse-Engines wie DuckDB für lokale Analysen offener Formate wie Parquet, CSV und JSON. Damit adressiert SAS ein klassisches Enterprise-Problem: Datenkopien erhöhen Latenz, Kosten und Governance-Risiken – also genau die Dinge, an denen der Weg in eine Produktionsumgebung häufig noch scheitert.
SAS belegt dies mit konkreten Zahlen. In einer gemeinsamen IDC/SAS-Untersuchung nannten 49 Prozent nicht zentralisierte oder schlecht optimierte Cloud-Datenumgebungen als größtes Hindernis für KI-Fortschritte. Und Gartner prognostiziert, dass 60 Prozent der KI-Projekte aufgegeben werden, weil keine AI-ready Data verfügbar sind.
Der Markt entdeckt die langweilige Seite der KI
Mit diesen Ankündigungen reiht sich SAS in einen breiten Trend ein: Generative KI verschiebt sich von der Assistentenfunktion zur kontrollierbaren Automatisierungsschicht über Geschäftsprozesse und Datenbestände. Oracle hat beispielsweise im März für seine Fusion Cloud Applications sogenannte Agentic Applications vorgestellt, die koordinierte Agententeams für ERP, HCM, Supply Chain und Customer Experience einsetzen.
SAP bietet Joule Agents, um Daten im Kontext von Geschäftsprozessen zu nutzen und komplexe Workflows zu automatisieren. In der Partnerschaft mit Google Cloud sollen Joule Agents etwa in SAP CX Solutions eingesetzt werden, während Gemini Enterprise als Hub für Aktionen über SAP- und Google-Cloud-Plattformen dient. Auch die Datenplattformanbieter drängen in diese Richtung. Snowflake spricht bei Snowflake Intelligence und Cortex Code von einem Kontrollzentrum für das „Agentic Enterprise“, mit dem agentische Funktionen auf einer einheitlichen Datenplattform bereitgestellt werden können.
Agenten brauchen weniger Magie, mehr Betrieb
Zukünftig wird die entscheidende Frage sein: Wer kann Agenten am sichersten in bestehende Daten-, Prozess- und Governance-Landschaften integrieren? Das heißt, MCP, A2A, semantische Schichten, Datenkataloge, Lineage, Zugriffskontrollen und Observability werden zum Kern der KI-Architektur.
SAS ist hier gut aufgestellt. Das Unternehmen gilt als KI- und Analytics-Spezialist für anspruchsvolle Datenumgebungen. Das ist von Vorteil, wenn Unternehmen von KI-Pilotprojekten zu produktiver Automatisierung wechseln. Allerdings muss SAS zeigen, dass seine Agenten und Copiloten nicht nur sauber kontrolliert, sondern auch schnell genug einsetzbar, offen genug integrierbar und – vor allem – wirtschaftlich attraktiv sind.
(axk)












English (US) ·