Information und Bildungsarbeit von und für die SAP-Community

KI, Hybrid Cloud und SAP – mehr als Chat

KI und ML sind Trendthemen schlechthin, so auch im SAP-Bereich. Die Entwicklung, Bereitstellung und Verwaltung von KI- und ML-Modellen sind allerdings mit etlichen Herausforderungen verbunden und erfordern spezifische Frameworks.
Peter Körner, Red Hat
14. Dezember 2023
avatar

Die KI- und ML-Modelle sind mit etlichen Herausforderungen verbunden und erfordern spezifische Frameworks und Tools. Die Unterstützung bieten auch hier eine etablierte, offene Hybrid-Cloud-Plattform und eine Ökosystem-Toolchain.

Nicht zuletzt durch den Hype rund um ChatGPT und LLM (Large Language Model) gewinnen KI und ML in vielen Unternehmen zunehmend an Relevanz, auch bei SAP-Anwendern. SAP selbst geht verstärkt den KI-Weg, wie die Ankündigung der neuen digitalen Assistenten zeigt, die auf generativer KI basieren.

Das Einsatzspektrum von KI im SAP-Kontext geht aber weit über die Möglichkeiten eines Sprachassistenten hinaus. Eine effiziente Nutzung wird etwa auch bei der Stammdatenanalyse, der Optimierung von Produktionsabläufen und Lieferketten oder der Qualitätskontrolle immer sinnvoller. Viele Unternehmen entwickeln und trainieren verstärkt auch Modelle mit SAP-Daten, die sie anschließend in unterschiedlichsten Produktivumgebungen wie Factory- und Edge-Szenarien nutzen und betreiben.

Eine ideale sogenannte MLOps-Basis für Model Development, Model Serving und Monitoring sowie die Lifecycle Management und Data Science Pipelines für das gesamte Unternehmen im Kontext von SAP- und Non-SAP-Datenquellen ist eine offene Hybrid-Cloud-Plattform. Sie bietet Nutzern erstens einen Zugang zu zertifizierten KI/ML-Partnern im Rahmen eines Ökosystems. Für Unternehmen bedeutet das, dass sie Komplettlösungen für die Entwicklung, Bereitstellung und Verwaltung von ML-Modellen erhalten und so KI-gestützte, intelligente Anwendungen einfacher und schneller nutzen können.

Mit Red Hat OpenShift Data Science steht eine solche Open-Source-MLOps-Plattform sowohl als Managed Service als auch als traditionelles Softwareprodukt in der Cloud und on-premises zur Verfügung. Eine Cloud-native Laufzeitumgebung als Basis unterstützt KI-Integrationen gleichermaßen in Hybrid-, On-premises- und Edge-Umgebungen – und damit auch unterschiedliche kundeneigene und anwendungsspezifische Anforderungen. Gerade bezogen auf KI bietet diese Flexibilität ein großes Plus. Unternehmen können so einerseits KI-Modelle mit vertraulichen Daten im eigenen Rechenzentrum entwickeln und trainieren sowie anschließend kontrolliert in Anwendungen und in der Cloud betreiben. Andererseits ist es aber auch möglich, für die Entwicklung und das Training der KI-Modelle etwa unter Verwendung anonymisierter beziehungsweise synthetischer Testdaten die Cloud zu nutzen und im Anschluss daran die Modelle in eine On-premises-Anwendung oder an der Edge zu integrieren.

Der KI-Einsatz verspricht viele Vorteile, gerade im Hinblick auf die Supply-Chain-Optimierung oder die Ressourceneinsparung zur Umsetzung von Nachhaltigkeitszielen. Aber auch ein Bereich wie die Automatisierung kann entscheidend profitieren. So kann ein Unternehmen die KI für das Training der Automatisierung im Hinblick auf die eigene Infrastruktur nutzen. Dadurch ist es möglich, schneller neue anwenderspezifische Use Cases zu konzipieren. Im Bereich Automatisierung fokussiert Red Hat ebenfalls verstärkt das Thema KI, wie die Lösung Red Hat Ansible Lightspeed mit dem IBM Watsonx Code Assistant für die KI-gesteuerte IT-Automatisierung belegt. Sie zielt ab auf eine KI-generierte Erstellung von Playbooks. Das heißt, auf Basis KI-generierter Empfehlungen wird unter anderem ein syntaktisch korrekter Code, angepasst an die eigene IT-Landschaft, ausgegeben. Auch komplexe, Silo-übergreifende Automatisierungsszenarien werden schneller umsetzbar.

Es steht außer Frage, dass die Nutzung von KI/ML-Techniken auf breiter Front steigen wird. Das initiale Training von KI-Modellen ist allerdings sehr infrastrukturintensiv und erfordert spezialisierte Plattformen, Frameworks und Tools, noch bevor das Model Serving, Tuning und Model-Management adressiert werden. Mit Red Hat OpenShift Data -Science stellt Red Hat hier ein konsistentes, skalierbares Fundament für den IT-Betrieb und ein Partner-Ökosystem für Data-Scientists und Entwickler bereit, sodass Innovationen im Bereich KI auch für SAP-Anwender einfacher und schneller nutzbar sind.

PDF (auf Englisch)

avatar
Peter Körner, Red Hat

Peter Körner ist Principal Business Development Manager Red Hat SAP Solutions bei Red Hat


Schreibe einen Kommentar

Die Arbeit an der SAP-Basis ist entscheidend für die erfolgreiche S/4-Conversion. 

Damit bekommt das sogenannte Competence Center bei den SAP-Bestandskunden strategische Bedeutung. Unhabhängig vom Betriebsmodell eines S/4 Hana sind Themen wie Automatisierung, Monitoring, Security, Application Lifecycle Management und Datenmanagement die Basis für den operativen S/4-Betrieb.

Zum zweiten Mal bereits veranstaltet das E3-Magazin in Salzburg einen Summit für die SAP-Community, um sich über alle Aspekte der S/4-Hana-Basisarbeit umfassend zu informieren. Alle Informationen zum Event finden Sie hier:

SAP Competence Center Summit 2024

Veranstaltungsort

Eventraum, FourSide Hotel Salzburg,
Am Messezentrum 2,
A-5020 Salzburg

Veranstaltungsdatum

5. und 6. Juni 2024

Reguläres Ticket:

€ 590 exkl. USt.

Veranstaltungsort

Eventraum, Hotel Hilton Heidelberg,
Kurfürstenanlage 1,
69115 Heidelberg

Veranstaltungsdatum

28. und 29. Februar 2024

Tickets

Regular Ticket
EUR 590 exkl. USt
Veranstalter ist das E3-Magazin des Verlags B4Bmedia.net AG. Die Vorträge werden von einer Ausstellung ausgewählter SAP-Partner begleitet. Der Ticketpreis beinhaltet den Besuch aller Vorträge des Steampunk und BTP Summit 2024, den Besuch des Ausstellungsbereichs, die Teilnahme an der Abendveranstaltung sowie die Verpflegung während des offiziellen Programms. Das Vortragsprogramm und die Liste der Aussteller und Sponsoren (SAP-Partner) wird zeitnah auf dieser Website veröffentlicht.