Machine Learning voranbringen mit DevOps
Scheitern zulassen ist eine Grundvoraussetzung für Innovation. Wer nicht bereit ist zu scheitern, wird nichts wirklich Neues zuwege bringen. Davon bin ich als deutscher CTO eines japanischen IT-Dienstleisters mit ausgeprägter Innovationskultur zutiefst überzeugt. Wenn jedoch nur gut ein Zehntel der Machine-Learning-Projekte jemals live gehen, läuft etwas falsch.
Denn Machine Learning ist eine der zentralen Anwendungen von künstlicher Intelligenz (KI) und die Basis zahlreicher Zukunftstechnologien wie etwa autonomes Fahren, Smart Citys und Industrial Internet of Things (IIoT). Um ML und andere KI-Technologien schneller voranzutreiben, brauchen wir deshalb eine neue Form der Zusammenarbeit von Entwicklung und Betrieb von Lösungen nach DevOps-Prinzipien, kurz: ML-Ops.
Warum ML-Ops? Weil KI anders ist. In der klassischen IT bestimmt der Code das Verhalten des Systems. Die Funktionalität des Systems lässt sich Schritt für Schritt prüfen und bewerten.
In Anwendungen von künstlicher Intelligenz hingegen bestimmen Daten das Verhalten des Systems. Die Schwierigkeit dabei: Die Ursprungsdaten werden im Laufe des Machine Learning und anderer KI-Prozesse aktualisiert. Deshalb müssen wir das Verhalten der ML-Modelle laufend überwachen.
Dieser Vorgang entspricht dem Prinzip der kontinuierlichen Integration (CI) in der klassischen Software-Entwicklung. Experten für ML-Ops sprechen hierbei von Continuous Evaluation. Dazu gehört neben dem technologischen Know-how für die Automatisierung von Evaluationsprozessen die permanente enge Zusammenarbeit mit den Data-Scientists des Unternehmens.
ML-Ops in der Praxis
Ein typischer Use Case für diese Art von ML-Ops ist die Qualitätsverbesserung. Ein japanisches Automobilunternehmen etwa startete ein Projekt, in dem Machine Learning helfen soll, auf Basis von Reklamationsschreiben in natürlicher Sprache die Fahrzeugqualität zu verbessern. ML wird dabei eingesetzt, um die Bedeutung der Reklamationsdaten in den Texten zu analysieren. Eine besondere Herausforderung bestand darin, die Genauigkeit der Analysen auch bei der Einführung neuer Produkte beizubehalten.
Wir haben hier eine einfache und schnelle Möglichkeit geschaffen, neue Klassifikationsmodelle auf der Grundlage von „Bag-of-Words“ und „Gradient Boosting“ zu aktualisieren. Die unmittelbare Folge: In den Bereichen Data Processing, Design und Deployment sank die Durchlaufzeit um insgesamt sechs Wochen. Hier machte sich unter anderem die hohe Geschwindigkeit der Prüfung von Reklamationen positiv bemerkbar. Gleichzeitig ist das Modell erheblich einfacher und wirtschaftlicher zu pflegen – über den gesamten Lebenszyklus hinweg.
Auf ähnliche Weise gelang es in einem KI-Projekt einer international agierenden Versicherung, Entwicklung und Betrieb der Lösung so weit zu vereinfachen und zu automatisieren, dass keine operative Unterstützung durch die IT für den Betrieb und Continuous Evaluation erforderlich ist. Die Data-Scientists können sich voll auf ihre Datenexperimente konzentrieren – ohne Beschränkungen durch die IT-Infrastruktur.
Vertrauenswürdigkeit der KI
Drittes Beispiel: In einer italienischen Bank ging es darum, anomales Verhalten in gigantischen Mengen von Finanztransaktionen zu entdecken. Experten sehen hierin einen zentralen Nutzen von künstlicher Intelligenz für Digital Banking. Doch die anfallenden Datenmengen machen manuelle Trainings der KI-Modelle unmöglich. Durch den Einsatz von ML-Ops konnte ein automatisches System zum Trainieren der Datenmodelle etabliert werden. Und da es jedes generierte Analysemodell und jede darauf beruhende Vorhersage reproduzierbar macht, erfüllt es auch die wichtigste Anforderung an KI, nicht nur in der Finanzbranche: Vertrauenswürdigkeit.