Die Brücke zwischen Enterprise AI und dem Edge


In der sich schnell entwickelnden Technologielandschaft 2026 ist KI für Unternehmen weit über einfache Public-Cloud-Integrationen hinausgewachsen. Organisationen setzen zunehmend auf eine „Bring Your Own Model“-Strategie, um Kontrolle über sensible Daten und maßgeschneiderte Large Language Models zu behalten. Es haben sich zwei dominante Architekturmuster für den sicheren Workloads-Betrieb herausgebildet: Agenten, die via Suse AI mit der cloudbasierten SAP BTP kommunizieren, sowie die Bereitstellung von Suse AI im eigenen Rechenzentrum mit der SAP Edge Integration Cell (EIC).
Cloud-Strategie: Suse AI und SAP BTP
Für viele Unternehmen fungiert Suse AI als sichere, private „Fabrik“, in der Infrastrukturteams Open- Source-Modelle – wie Llama 3 oder Mistral – auf Basis proprietärer Unternehmensdaten bauen, trainieren und feinabstimmen. Um das Modell in die täglichen Geschäftsprozesse zu integrieren, bedarf es eines zuverlässigen „Lieferwagens“. Diese Rolle übernimmt die BTP. Der Workflow zur Verbindung der beiden Umgebungen ist standardisiert: Zuerst wird das fein abgestimmte Modell in einen Container verpackt.Danach wird dieser Container in SAP AI Core regis-triert und hochgeladen – einer spezialisierten Kom-ponente der BTP, die für benutzerdefinierte AI-Work-loads entwickelt wurde. Der Hauptvorteil beim Transfer eines privaten Modells von Suse AI auf die BTP ist der Gewinn an „Business Context“. Dies ermöglicht Kunden, maßgeschneiderte LLM als intelligentes Backend für No-Code-Anwendungen in SAP Build zu bedienen oder als spezialisierte „Skills“ für SAP Joule zu benutzen, damit dieser hochspezifische Unternehmensfragen beantworten kann.
Edge-Strategie: Suse AI und SAP EIC
Während die Cloud eine nahtlose S/4-Hana-Integration bietet, ist der Einsatz von Suse AI zusammen mit der SAP EIC wohl die leistungsfähigste Architektur, die einem Unternehmen im Jahr 2026 zur Verfügung steht. Diese Kombination ermöglicht einen vollständigen „Private AI“-Kreislauf, bei dem die Daten, das LLM und die Integrationslogik sicher und vollständig innerhalb der Unternehmens-Firewall verbleiben.
In diesem Setup sind die Aufgaben strategisch getrennt: Bei Design in der Cloud werden Integrationsflows (iFlows) innerhalb der SAP Integration Suite modelliert. Bei der Ausführung am Edge findet die tatsächliche Ausführung lokal statt. Der iFlow wird auf der Edge Integration Cell bereitgestellt, die auf Suse Rancher for SAP applications läuft. Hier befindet sich auch das private LLM direkt neben den SAP-Daten.
Wenn die EIC ihre Logik ausführt, erfolgen die API-Aufrufe an das LLM lokal auf Suse AI, wodurch sichergestellt wird, dass keine Daten das Netzwerk verlassen.
Ground-to-Ground
Dieses lokale „Ground-to-Ground“-KI-Muster bietet enorme Vorteile für Unternehmen, die On-Premises–Systeme wie SAP ECC oder S/4 Hana nutzen. Da die Umwege über das Internet zu einem Cloud-LLM entfallen, sinkt die Latenz von Sekunden auf wenige Millisekunden – eine Grundvoraussetzung für die Fertigung in Echtzeit und hochvolumige Logistik.
Darüber hinaus garantiert diese Edge-Architektur absolute Datensouveränität. Streng regulierte Sektoren wie das Bankwesen, das Gesundheitswesen und der Verteidigungssektor unterliegen strikten Gesetzen zur Datenresidenz, die verbieten, dass sensible Datensätze das öffentliche Internet passieren. Da sowohl die EIC als auch Suse AI komplett im privaten Rechenzentrum betrieben werden, erfüllen sie diese Compliance-Vorgaben mühelos. Zudem bietet das System eine unübertroffene Offline-Resilienz: Die EIC unterstützt bis zu vier Stunden Offline-Betrieb. Sollte die Internetverbindung in einem Rechenzen-trum ausfallen, laufen die kritischen KI-gestützten Prozesse nahtlos weiter.
Weiter zum Partnereintrag:




