

Die moderne Gesellschaft ist durch Arbeitsteilung bis hin zur Atomisierung gekennzeichnet. Diese Wirtschaftsform hat Wohlstand hervorgebracht. Die meisten Menschen sind es gewöhnt, mit Geräten zu hantieren und zu arbeiten, die nur partikulär verstanden werden. Was in den allermeisten Fällen kein Problem darstellt.
Vom Prinzip her weiß ich, wie ein Auto funktioniert. Somit bin ich in der Lage, weitestgehend sicher von A nach B zu kommen. Im Falle eines Defekts gibt es Spezialisten, die mein Auto in- und auswendig kennen und es damit wieder instand setzen können. Für die meisten Alltagsgegenstände aus dem privaten und beruflichen Bereich gibt es die jeweiligen Experten, Handwerker und Spezialisten.
Bei der Dekonstruktion eines KI-Agenten, der auf dem „Wissen“ eines Large-Language-Modells (LLM) beruht, sind wir mit einer Apparatur konfrontiert, deren Verhalten weder dokumentierbar noch nachvollziehbar und auch nicht replizierbar ist. Das muss kein Nachteil sein! Es liegt in der Natur der KI-Technik, dass diese in Form von Large-Language-Modellen nicht deterministisch ist. Die fantastischen Ergebnisse der KI beruhen weitestgehend auf Statistik, die im Kern wiederum eineindeutig sein kann, aber aufgrund der Menge an berücksichtigten Daten und Situation nicht immer replizierbar ist.
Die Dekonstruktion eines KI-Agenten auf die Spitze getrieben, könnte ergeben, dass dieser zum Monatsende wahrscheinlich die Gehälter der Mitarbeiter überweist, vielleicht auch nicht, und eventuell zum Halluzinieren beginnt, warum es diesmal kein Geld gibt. Ein sehr theoretisches Beispiel, aber es gibt zahlreiche Meldungen über mehr oder weniger dramatische Entgleisungen von KI-Systemen. Die Herausforderung liegt im Umkehrschluss, in der Eineindeutigkeit, wie der Mathematiker und Informatiker sagen würde. Die Herausforderung liegt in der Natur der KI selbst: Mittels Reinforcement Learning kann eine hochwertige KI zum besten Schach- und Go-Spieler werden, weil das Ende jedes Spiels eineindeutig ist.
Die Maschine hat gewonnen oder verloren. Spielt die Maschine millionenfach gegen sich selbst, lernt sie schnell alle Tricks und wird dadurch besser als jeder Mensch. Reinforcement Learning funktioniert naturgemäß nicht bei einem Gedicht, einem Bild oder bei einer Powerpoint-Präsentation. Hierbei entscheidet der Geschmack des Betrachters, ob das Ergebnis gelungen ist.
Nun wollen SAP und viele weitere IT-Konzerne ein System aus LLMs und KI-Agenten im ERP-Umfeld einsetzen. Damit die großen Katastrophen sich vorab vermeiden lassen, soll es hierbei regelbasiert ablaufen. Was ein wenig an Robotic Process Automation (RPA) erinnert, als Software-Roboter (Bots) konstruiert wurden, um repetitive, regelbasierte Aufgaben zu automatisieren, die sonst von Menschen erledigt würden. KI-Agenten sollen aber durch die „Intelligenz“ von LLMs mehr Freiheitsgrade und größere Autonomie bekommen. Kann das gut gehen?
Ein KI-Agent könnte auf Basis seiner Erkenntnisse aus einem LLM zur Überzeugung kommen, dass das aktuelle Geschäftsmodell wenig effizient und sehr umweltbelastend ist. Bestenfalls verweigert der KI-Agent die Arbeit, im schlimmsten Fall löscht er die ERP-Datenbank.
Plattformanbieter Boomi hat diese Gefahr erkannt und beschäftigt sich nicht nur mit der Automatisierung durch KI-Agenten, sondern auch mit der Governance von KI-Agenten. Zukünftige LLMs und KI-Agenten für ein ERP werden eine deterministische Kontrollinstanz brauchen. Ein Widerspruch? Die KI-Szene steht erst am Beginn einer revolutionären Entwicklung.
SAP scheint einen Großteil dieser Sorgen und Gefahren zu ignorieren. Nur im Allgemeinen streift SAP das Thema der heterogenen KI-Entwicklung mit ihren vielen Herausforderungen und Widersprüchen: Auf der Veranstaltung SAP Connect in Las Vegas (USA) hat Vorstandsmitglied Muhammad Alam gesagt, dass SAP-Bestandskunden mehr als einen Flickenteppich unterschiedlicher Best-of-Breed-Anwendungen brauchen. Gleichzeitig wurde die Aussage von Muhammad Alam auf technischer Ebene relativiert. Mit einem zweistufigen KI-System aus Assistenten, die mehrere KI-Agenten steuern, wird sich wahrscheinlich ein Flickenteppich ergeben.
SAP verstärkt die Bemühungen, ein zusammengesetztes S/4 (Composable ERP) weiter in Richtung einer ganzheitlichen Suite zu entwickeln. Der existierende S/4-Flickenteppich soll durch KI-Assistenten und KI-Agenten orchestriert werden. Eine systemkritische Einordnung der Arbeit von KI-Assistenten und KI-Agenten findet aktuell bei SAP nicht statt.
Aus einem ERP-Flickenteppich soll bei SAP ein zweistufiges KI-System aus Assistenten und Agenten werden. Um in einem unbeständigen Marktumfeld erfolgreich zu sein, brauchen Unternehmen aber mehr als einen Flickenteppich unterschiedlicher Best-of-Breed-Anwendungen, meinte Muhammad Alam. Die SAP-Ankündigungen verdeutlichen, wie die neue Business Suite das Zusammenspiel aus KI, Daten und Anwendungen orchestriert. Von Rückbezüglichkeit, Reinforcement Learning und Governance sprach niemand!




