KI, Hybrid Cloud und SAP – mehr als Chat
Die KI- und ML-Modelle sind mit etlichen Herausforderungen verbunden und erfordern spezifische Frameworks und Tools. Die Unterstützung bieten auch hier eine etablierte, offene Hybrid-Cloud-Plattform und eine Ökosystem-Toolchain.
Nicht zuletzt durch den Hype rund um ChatGPT und LLM (Large Language Model) gewinnen KI und ML in vielen Unternehmen zunehmend an Relevanz, auch bei SAP-Anwendern. SAP selbst geht verstärkt den KI-Weg, wie die Ankündigung der neuen digitalen Assistenten zeigt, die auf generativer KI basieren.
Das Einsatzspektrum von KI im SAP-Kontext geht aber weit über die Möglichkeiten eines Sprachassistenten hinaus. Eine effiziente Nutzung wird etwa auch bei der Stammdatenanalyse, der Optimierung von Produktionsabläufen und Lieferketten oder der Qualitätskontrolle immer sinnvoller. Viele Unternehmen entwickeln und trainieren verstärkt auch Modelle mit SAP-Daten, die sie anschließend in unterschiedlichsten Produktivumgebungen wie Factory- und Edge-Szenarien nutzen und betreiben.
Eine ideale sogenannte MLOps-Basis für Model Development, Model Serving und Monitoring sowie die Lifecycle Management und Data Science Pipelines für das gesamte Unternehmen im Kontext von SAP- und Non-SAP-Datenquellen ist eine offene Hybrid-Cloud-Plattform. Sie bietet Nutzern erstens einen Zugang zu zertifizierten KI/ML-Partnern im Rahmen eines Ökosystems. Für Unternehmen bedeutet das, dass sie Komplettlösungen für die Entwicklung, Bereitstellung und Verwaltung von ML-Modellen erhalten und so KI-gestützte, intelligente Anwendungen einfacher und schneller nutzen können.
Mit Red Hat OpenShift Data Science steht eine solche Open-Source-MLOps-Plattform sowohl als Managed Service als auch als traditionelles Softwareprodukt in der Cloud und on-premises zur Verfügung. Eine Cloud-native Laufzeitumgebung als Basis unterstützt KI-Integrationen gleichermaßen in Hybrid-, On-premises- und Edge-Umgebungen – und damit auch unterschiedliche kundeneigene und anwendungsspezifische Anforderungen. Gerade bezogen auf KI bietet diese Flexibilität ein großes Plus. Unternehmen können so einerseits KI-Modelle mit vertraulichen Daten im eigenen Rechenzentrum entwickeln und trainieren sowie anschließend kontrolliert in Anwendungen und in der Cloud betreiben. Andererseits ist es aber auch möglich, für die Entwicklung und das Training der KI-Modelle etwa unter Verwendung anonymisierter beziehungsweise synthetischer Testdaten die Cloud zu nutzen und im Anschluss daran die Modelle in eine On-premises-Anwendung oder an der Edge zu integrieren.
Der KI-Einsatz verspricht viele Vorteile, gerade im Hinblick auf die Supply-Chain-Optimierung oder die Ressourceneinsparung zur Umsetzung von Nachhaltigkeitszielen. Aber auch ein Bereich wie die Automatisierung kann entscheidend profitieren. So kann ein Unternehmen die KI für das Training der Automatisierung im Hinblick auf die eigene Infrastruktur nutzen. Dadurch ist es möglich, schneller neue anwenderspezifische Use Cases zu konzipieren. Im Bereich Automatisierung fokussiert Red Hat ebenfalls verstärkt das Thema KI, wie die Lösung Red Hat Ansible Lightspeed mit dem IBM Watsonx Code Assistant für die KI-gesteuerte IT-Automatisierung belegt. Sie zielt ab auf eine KI-generierte Erstellung von Playbooks. Das heißt, auf Basis KI-generierter Empfehlungen wird unter anderem ein syntaktisch korrekter Code, angepasst an die eigene IT-Landschaft, ausgegeben. Auch komplexe, Silo-übergreifende Automatisierungsszenarien werden schneller umsetzbar.
Es steht außer Frage, dass die Nutzung von KI/ML-Techniken auf breiter Front steigen wird. Das initiale Training von KI-Modellen ist allerdings sehr infrastrukturintensiv und erfordert spezialisierte Plattformen, Frameworks und Tools, noch bevor das Model Serving, Tuning und Model-Management adressiert werden. Mit Red Hat OpenShift Data -Science stellt Red Hat hier ein konsistentes, skalierbares Fundament für den IT-Betrieb und ein Partner-Ökosystem für Data-Scientists und Entwickler bereit, sodass Innovationen im Bereich KI auch für SAP-Anwender einfacher und schneller nutzbar sind.