Zersplitterung der SAP-Welt


Das atomisierte SAP-Cloud-Universum
SAP-Chef Christian Klein hat im Nachgang zum WEF 2025 einen Kommentar über den Zustand der Welt verfasst: „In den zurückliegenden Jahren hat das Weltwirtschaftsforum in Davos immer wieder die zunehmende Zersplitterung der Welt thematisiert – sowohl innerhalb von Gesellschaften als auch zwischen Nationen. Gleichzeitig setzen viele Davos-Teilnehmer große Hoffnungen in Künstliche Intelligenz. Die Erwartung ist, dass sie auf vielen Gebieten bedeutende Fortschritte bringen wird.“
An der Zersplitterung der ERP-Welt hat SAP maßgeblichen Anteil, weil eine erratische Produkt- und Cloudstrategie viele Baustellen hervorbrachte. Irritierend war, dass das Reparaturverhalten wiederum neue Baustellen bewirkte und alte nicht beseitigte! Mit dem SAP Produkt Data Hub sollten das Datenchaos, die Zersplitterung des Datenmanagements und die fehlende ERP-Orchestrierung behoben werden. Das Ergebnis war das genaue Gegenteil: SAP Data Hub löste kein einziges Problem, sondern wurde für die IT-Verantwortlichen selbst zum Problem, weil Data Hub sehr hohe CPU-Last auf den Servern verursachte. Das Konzept war noch gut, aber die Serverkapazitäten reichten für diesen Fehltritt nicht aus.
Die Zersplitterung der Datenlandschaften blieb bestehen und SAP-Chef Christian Klein setzte seine neue Hoffnung auf KI. Mittlerweile kann eine Atomisierung der ERP-Architektur durch KI-Lösungen von SAP beobachtet werden. Bereits über 200 einzelne KI-Apps sollen sich im ERP-System eingenistet haben. Wie SAP diesen Wildwuchs jemals wieder kontrollieren will, ist bisher unbeantwortet. Noch einmal Christian Klein aus seinem aktuellen Kommentar: „Gerade weil ich für ein Unternehmen arbeite, das die Vorteile von KI für Unternehmen und Gesellschaften nutzbar macht, bin ich überzeugt, dass diese Hoffnungen berechtigt sind. KI kann Volkswirtschaften produktiver und widerstandsfähiger machen, indem sie Prozesse effizienter macht und Unternehmen dabei unterstützt, Antworten auf disruptive Ereignisse wie globale Handelskrisen, Naturkatastrophen oder regionale Konflikte zu finden.“
Zeitalter der Echtzeit-KI von SAP, Databricks und Confluent
Was Mitte Februar noch als einzigartiger Schachzug der SAP aussah, relativierte sich vor wenigen Tagen mit einer Ankündigung von Databricks und Confluent: Durch die Kombination der vollständigen Daten-Streaming-Plattform von Confluent mit der Data-Intelligence-Plattform von Databricks können Unternehmen Echtzeitdaten für KI-gestützte Entscheidungen nutzen. Die neuen Integrationen zwischen Confluents Tableflow und Databricks Unity Catalog werden eine nahtlose Datensteuerung und -Kontrolle über operative und analytische Systeme hinweg sicherstellen.
SAP formulierte es in einer der aktuellen Aussendungen folgendermaßen: Mit der richtungsweisenden Partnerschaft zwischen SAP und Databricks beginnt eine neue Ära im Management von Unternehmensdaten, in der zwei Marktführer gemeinsam die Zusammenarbeit zwischen Anwendungen und Datenplattformen neu definieren. In der neuen Lösung sind Technologien von Databricks für Data Engineering, maschinelles Lernen und KI-Workloads bereits integriert. „SAP Business Data Cloud erlaubt es, Geschäftsdaten für Unternehmens-KI optimal zu nutzen“, betonte Christian Klein anlässlich der Präsentation der SAP Business Data Cloud (BDC).
„Wenn Unternehmen den Nutzen ihrer KI-Investitionen maximieren wollen, müssen sie ihre Daten, KI, Analysen und Governance zentral bündeln“, erklärte Ali Ghodsi, Mitbegründer und CEO von Databricks anlässlich der vertiefenden Partnerschaft mit Confluent. „Da wir immer mehr Unternehmen bei der Entwicklung von Data Intelligence unterstützen, rücken vertrauenswürdige Unternehmensdaten zunehmend in den Mittelpunkt. Wir freuen uns, dass Confluent unsere Lösungen Unity Catalog und Delta Lake für Open Governance und Speicherung wählt. Damit bieten wir den Kunden gemeinsam einen langfristigen Mehrwert.“
SAP-Lizenzen und Datenströme bei BDC und Suite
Die Produkte SAC (SAP Analytics Cloud), Data Hub und Datasphere sowie Teile von BW werden nun zur SAP Business Data Cloud zusammengefasst und um einen Relaunch der SAP Business Suite ergänzt, aber viele Fragen hinsichtlich der notwendigen Lizenzierung und Betriebskosten blieben unbeantwortet.
Der ehemalige SAP-Manager Werner Dähn fragte auf LinkedIn: „Ich würde gerne wissen, wie in BDC kurz und langfristig die SAP-Daten eingelesen werden. Weiter per Replication Flows und Dataflows oder über die Databricks-Schiene?“ Er vermutet, dass SAP Datasphere weiterhin das hinreichende Produkt bleiben wird. Letztendlich wird es auch eine Frage der Lizenzkosten sein, inwieweit sich SAP-Bestandskunden das freundschaftliche Produkt Databricks leisten wollen und können.
Das führende System: SAP, Databricks oder Confluent
Die Erklärung von Confluent und Databricks kann ohne Änderung auch für die Zusammenarbeit zwischen SAP und Databricks gelten. Mit dieser Beliebigkeit ist nun der SAP-Bestandskunde gefordert, wenn er letztendlich das ERP-Vertrauen gibt: Aufgrund der neuen Funktionen werden operationale Daten von Confluent oder SAP nahtlos in Databricks integriert, während die Daten aus Databricks unternehmensweit für alle Verarbeitungsprozesse frei zugänglich sind. Die Parameter, die von KI-Anwendungen genutzt werden, und die Tabellen, mit denen Datenanalysten arbeiten, bieten nun eine einheitliche Sicht auf dieselben Echtzeitdaten. So lassen sich unternehmensweit schneller fundierte, KI-gestützte Entscheidungen treffen. Diese nahtlose Integration von Betriebsanwendungen, Analysen und Governance ist entscheidend für KI-Innovationen in großem Maßstab – ob nun mit SAP, Databricks oder Confluent.
Abschließend noch ein Zitat aus dem Kommentar von SAP-Chef Christian Klein: „Der Einsatz von Cloudtechnologie im Unternehmen, Geschäftsnetzwerke über Unternehmensgrenzen hinweg, und ein stärker harmonisiertes globales Umfeld, das von Vertrauen geprägt ist – all das reduziert Zersplitterung, fördert Zusammenarbeit und Austausch, und trägt dazu bei, dass wir in Zukunft noch größeren Nutzen aus KI ziehen können. Wie bei einem Puzzle mit 10.000 Teilen ist der Anfang sicherlich schwierig. Doch wenn die ersten Puzzleteile erst einmal zusammengefügt sind, lässt sich das große Ganze erkennen und der Fortschritt beschleunigt sich. Es liegt heute an uns, das KI-Puzzle zusammenzusetzen und die Zersplitterung unserer Welt zu reduzieren – Schritt für Schritt. Dann wird es uns auch gelingen, das Potenzial von KI voll auszuschöpfen – nicht nur zum Wohl einiger, sondern zum Wohl vieler.“