Information und Bildungsarbeit von und für die SAP-Community

Machine Learning voranbringen mit DevOps

Machine Learning (ML) ist einer der vielversprechendsten Ansätze zur Nutzung von künstlicher Intelligenz im Unternehmen. Doch bislang scheitern fast neun von zehn Projekten vor dem Go-live. Mit DevOps und ML-Ops lässt sich dieser Trend umkehren.
Oliver Köth, NTT Data
9. März 2021
DevOps Kolumne
avatar

Scheitern zulassen ist eine Grundvoraussetzung für Innovation. Wer nicht bereit ist zu scheitern, wird nichts wirklich Neues zuwege bringen. Davon bin ich als deutscher CTO eines japanischen IT-Dienstleisters mit ausgeprägter Innovationskultur zutiefst überzeugt. Wenn jedoch nur gut ein Zehntel der Machine-Learning-Projekte jemals live gehen, läuft etwas falsch.

Denn Machine Learning ist eine der zentralen Anwendungen von künstlicher Intelligenz (KI) und die Basis zahlreicher Zukunftstechnologien wie etwa autonomes Fahren, Smart Citys und Industrial Internet of Things (IIoT). Um ML und andere KI-Technologien schneller voranzutreiben, brauchen wir deshalb eine neue Form der Zusammenarbeit von Entwicklung und Betrieb von Lösungen nach DevOps-Prinzipien, kurz: ML-Ops.

Warum ML-Ops? Weil KI anders ist. In der klassischen IT bestimmt der Code das Verhalten des Systems. Die Funktionalität des Systems lässt sich Schritt für Schritt prüfen und bewerten.

In Anwendungen von künstlicher Intelligenz hingegen bestimmen Daten das Verhalten des Systems. Die Schwierigkeit dabei: Die Ursprungsdaten werden im Laufe des Machine Learning und anderer KI-Prozesse aktualisiert. Deshalb müssen wir das Verhalten der ML-Modelle laufend überwachen.

Dieser Vorgang entspricht dem Prinzip der kontinuierlichen Integration (CI) in der klassischen Software-Entwicklung. Experten für ML-Ops sprechen hierbei von Continuous Evaluation. Dazu gehört neben dem technologischen Know-how für die Automatisierung von Evaluationsprozessen die permanente enge Zusammenarbeit mit den Data-­Scientists des Unternehmens.

ML-Ops in der Praxis

Ein typischer Use Case für diese Art von ML-Ops ist die Qualitätsverbesserung. Ein japanisches Automobilunternehmen etwa startete ein Projekt, in dem Machine Learning helfen soll, auf Basis von Reklamationsschreiben in natürlicher Sprache die Fahrzeugqualität zu verbessern. ML wird dabei eingesetzt, um die Bedeutung der Reklamationsdaten in den Texten zu analysieren. Eine besondere Herausforderung bestand darin, die Genauigkeit der Analysen auch bei der Einführung neuer Produkte beizubehalten.

Wir haben hier eine einfache und schnelle Möglichkeit geschaffen, neue Klassifikationsmodelle auf der Grundlage von „Bag-of-Words“ und „Gradient Boosting“ zu aktualisieren. Die unmittelbare Folge: In den Bereichen Data Processing, Design und Deployment sank die Durchlaufzeit um insgesamt sechs Wochen. Hier machte sich unter anderem die hohe Geschwindigkeit der Prüfung von Reklamationen positiv bemerkbar. Gleichzeitig ist das Modell erheblich einfacher und wirtschaftlicher zu pflegen – über den gesamten Lebenszy­klus hinweg.

Auf ähnliche Weise gelang es in einem KI-Projekt einer international agierenden Versicherung, Entwicklung und Betrieb der Lösung so weit zu vereinfachen und zu automatisieren, dass keine operative Unterstützung durch die IT für den Betrieb und Continuous Evaluation erforderlich ist. Die Data-Scientists können sich voll auf ihre Daten­experimente konzentrieren – ohne Beschränkungen durch die IT-Infrastruktur.

Vertrauenswürdigkeit der KI

Drittes Beispiel: In einer italienischen Bank ging es darum, anomales Verhalten in gigantischen Mengen von Finanztransaktionen zu entdecken. Experten sehen hierin einen zentralen Nutzen von künstlicher Intelligenz für Digital Banking. Doch die anfallenden Datenmengen machen manuelle Trainings der KI-Modelle unmöglich. Durch den Einsatz von ML-Ops konnte ein automatisches System zum Trainieren der Datenmodelle etabliert werden. Und da es jedes generierte Analysemodell und jede darauf beruhende Vorhersage reproduzierbar macht, erfüllt es auch die wichtigste Anforderung an KI, nicht nur in der Finanzbranche: Vertrauenswürdigkeit.

NTTDataCI-Banner.jpg
avatar
Oliver Köth, NTT Data

Oliver Köth ist CTO bei NTT Data Deutschland.


Schreibe einen Kommentar

Die Arbeit an der SAP-Basis ist entscheidend für die erfolgreiche S/4-Conversion. 

Damit bekommt das sogenannte Competence Center bei den SAP-Bestandskunden strategische Bedeutung. Unhabhängig vom Betriebsmodell eines S/4 Hana sind Themen wie Automatisierung, Monitoring, Security, Application Lifecycle Management und Datenmanagement die Basis für den operativen S/4-Betrieb.

Zum zweiten Mal bereits veranstaltet das E3-Magazin in Salzburg einen Summit für die SAP-Community, um sich über alle Aspekte der S/4-Hana-Basisarbeit umfassend zu informieren. Alle Informationen zum Event finden Sie hier:

SAP Competence Center Summit 2024

Veranstaltungsort

Eventraum, FourSide Hotel Salzburg,
Am Messezentrum 2,
A-5020 Salzburg

Veranstaltungsdatum

5. und 6. Juni 2024

Reguläres Ticket:

€ 590 exkl. USt.

Veranstaltungsort

Eventraum, Hotel Hilton Heidelberg,
Kurfürstenanlage 1,
69115 Heidelberg

Veranstaltungsdatum

28. und 29. Februar 2024

Tickets

Regular Ticket
EUR 590 exkl. USt
Veranstalter ist das E3-Magazin des Verlags B4Bmedia.net AG. Die Vorträge werden von einer Ausstellung ausgewählter SAP-Partner begleitet. Der Ticketpreis beinhaltet den Besuch aller Vorträge des Steampunk und BTP Summit 2024, den Besuch des Ausstellungsbereichs, die Teilnahme an der Abendveranstaltung sowie die Verpflegung während des offiziellen Programms. Das Vortragsprogramm und die Liste der Aussteller und Sponsoren (SAP-Partner) wird zeitnah auf dieser Website veröffentlicht.