Information und Bildungsarbeit von und für die SAP-Community

KI-Transparenz sind für ML und das Blackbox-Phänomen kein Problem

Maschinelles Lernen liefert mir lediglich eine Blackbox, damit können wir nichts anfangen. Der Satz, der mir häufig in der Praxis begegnet, stammt meist von in Datenanalytik weniger ausgebildeten, zukünftigen Nutzern eines KI-Projektes. Doch stimmt diese Aussage?
Ansgar Heidemann, Windhoff Group
9. November 2023
avatar

In diesem Beitrag argumentiere ich anhand von fünf konkreten Beispielen, warum diese Aussage nur selten uneingeschränkt stimmt. Es gibt Fälle, in denen es sogar unumgänglich oder manchmal gar nicht so schlecht ist, dass mit maschinellem Lernen (ML) erstellte Prognosemodelle eine Blackbox sind.

Wir sprechen von einer Blackbox, wenn wir die Logik eines Modells nicht verstehen. Am Beispiel eines Prognosemodells (Predictive Analytics) bedeutet dies, dass die Ausgabe des maschinellen Lernens sich nicht ohne Weiteres auf Basis bestimmter Eingangsdaten nachvollziehen lässt. Im Gegensatz zu klassischen statistischen Analysen lassen sich nämlich die mathematischen Regeln eines komplexen algorithmischen Modells nicht mit einer Handvoll von (linearen) Parametern beschreiben.

Tatsächlich sind meines Erachtens nur in High-Risk-Anwendungen von künstlicher Intelligenz (KI) Transparenz und Erklärbarkeit unumgänglich. Hier steht man dem Blackbox- Problem allerdings nicht hilflos gegenüber. Die Forschung hat zahlreiche Methoden rund um Explainable Artificial Intelligence (XAI) entwickelt. So baut SAP beispielsweise diese neuen Optionen kontinuierlich in ihre Technologien ein, um die Logik der erstellten Modelle leichter nachvollziehbar zu machen.

Argument 1: Fehlende Transparenz hat auch Vorteile. Es gibt Anwendungsfälle für maschinelles Lernen, bei denen die fehlende Nachvollziehbarkeit regelrecht zu einer Stärke wird. Stellen Sie sich vor, dass ein interner oder externer Akteur ein (teil-)automatisiertes Entscheidungssystem basierend auf ML bewusst manipulieren möchte. Da ihm allerdings die Kenntnis davon fehlt, welche Eingangsdaten zu welchem Output im Modell führen, wird dieses Vorhaben deutlich schwieriger. Wissenschaftler nennen diesen Aspekt „Gameability“ (Langer und König 2021).

Zudem identifizierten die Wissenschaftler je nach Anwendungsfall weitere Vorteile, als sie algorithmisch unterstützte Entscheidungsprozesse evaluierten. Das Ergebnis: Bei intransparenten Modellen führen sie zu einer erhöhten Effizienz! Der Grund ist so plausibel wie einfach. Maschinen lassen sich nicht von teilweise unnötigen Details und einer Informationsflut ablenken. Darüber hinaus trägt Intransparenz zum Datenschutz bei, sollten personenbezogene Daten im Trainingsprozess eingehen.

Argument 2: der Trade-off zwischen Performance und Transparenz. Bei jeder Forderung nach Transparenz ist zu bedenken, dass die Transparenz auf Kosten der Genauigkeit der Modelle geht. Maschinelles Lernen ist darauf ausgelegt, auch detaillierte und nicht lineare Muster in Daten zu entdecken und diese in den Modellen zur Verfügung zu stellen (Kellogg et al. 2020, pp. 370–371). Um die Transparenz zu erhöhen, könnte man diese Komplexität sukzessive zurückbauen oder weniger komplexe Algorithmen verwenden. Beide Maßnahmen verringern im Nachgang allerdings die Genauigkeit der Prognoseergebnisse. Die Stärke von maschinellem Lernen wird also ausgehebelt. Ein wichtiger Aspekt, der direkt zum dritten Argument führt.

Argument 3: Intransparenz ist ein wesentliches Kennzeichen von maschinellem Lernen. Während die traditionelle Statistik darauf ausgelegt ist, die Daten zu verstehen, versucht das maschinelle Lernen vorhandene Daten nutzbar zu machen, also zum Beispiel möglichst genaue Prognosen auf Basis von historischen Daten zu erstellen. Wenn die Mustererkennung in Daten das Hauptziel des Projektes ist (Data Mining), dann könnte maschinelles Lernen schlicht das falsche Tool sein (Rudin 2019). In einem Projekt lassen sich Statistik oder auch deskriptive Datenanalyse im Stile eines Dashboards (Slice and Dice, Drill-Down) mit maschinellem Lernen kombinieren. Dann erfüllt jedes Werkzeug seinen Hauptzweck und Synergien entstehen. Jeder Handwerker nutzt einen ganzen Werkzeugkoffer. Um die Metapher abzurunden: Maschinelles Lernen ist ein sehr gutes Universalwerkzeug vergleichbar mit einem Akkuschrauber. Deswegen lassen sich damit noch lange keine Bretter zersägen.

Argument 4: Hey, as long as it works?! Lassen Sie mich mit einem kurzen Gedankenexperiment beginnen. Würden Sie lieber in einem Flugzeug fliegen, das Sie selbst ausführlich technisch begutachtet und bis auf jede Schraube seziert haben, oder in einem, das sämtliche vorgeschriebene Teststandards und Probeflüge mit Bravour absolviert hat? Sicher fehlt fast jedem Menschen das ingenieurtechnische Wissen oder zumindest die Geduld für den ersten Weg. Deswegen greifen wir zu der zweiten Option. Diese Analogie stammt von Cassie Kozyrkov, die bekanntermaßen als Chief Decision Scientist bei Google tätig ist.

Cassie Kozyrkov verweist weiterhin darauf, dass im maschinellen Lernen ebenfalls ein Probelauf durchgeführt wird. Bei diesem sogenannten Out-of-Sample-Test handelt es sich im Prinzip um eine Klausur: Die Datensätze (Aufgaben) sind andere als diejenigen, die zum Trainieren (Hausaufgaben) bereitgestellt wurden. In der Praxis lohnt es sich oft, diese Out-of-Sample-Tests ausführlich und gründlich durchzuführen, anstatt einer gewünschten Transparenz hinterherzurennen. Dieses Argument hat sicherlich großes Gewicht, erfordert aber ein Umdenken in der Art und Weise, wie betriebliche Entscheidungsprozesse begründet sind. Deswegen dauert es, bis es in den Köpfen von Anwendern ankommt. Data Scientists sind hier gefordert, mit leicht verständlichen Worten die Implikationen aus ihren Teststrategien und -ergebnissen zu erläutern.

Argument 5: Forschung und Technologie stehen nicht still – Explainable AI. Zuletzt möchte ich auf den wichtigen Umstand hinweisen, dass auf Transparenz im maschinellen Lernen tatsächlich nicht immer verzichtet werden kann. Absolut notwendig ist Transparenz in High-Risk-Anwendungen, die einen direkten Einfluss auf die unmittelbare Lebenswelt von Menschen haben. Dazu gehören Entscheidungsunterstützungen durch maschinelles Lernen in sensiblen Bereichen, die Türen verschließen können. Das gilt unter anderem für die Kreditvergabe, das Recruiting oder das Personalwesen. In solchen Bereichen haben die Sicherung von Fairness und Gleichbehandlung absolute Priorität und können nicht ohne eine Transparenz und Erklärbarkeit der Modelle geschaffen werden. Zum Glück steht hierbei der technologische Fortschritt nicht still. SAP baut zum Beispiel Explainable AI kontinuierlich seit einigen Jahren in ihre Predictive-Analytics-Produkte ein. In Techniken wie SAP Analytics Cloud oder Hana Predictive Analytics Library lassen sich weiterhin komplexe Modelle des maschinellen Lernens bis zu einem bestimmten Grad transparenter machen. Die Methoden extrahieren Informationen wie die Wirkung von einzelnen Einflussfaktoren auf die Outputs von Modellen oder approximieren die Modelle mit nachvollziehbaren Regelsystemen, die auf grundlegenden Fragen beruhen: Was ist, wenn? Und vor allem, was wäre, wenn sich Einflussfaktor X ändert?

Fazit: Explainable AI


Maschinelles Lernen zu verwenden, nur weil es gerade im KI-Hype um ChatGPT gut in die Zeit passt, ist nicht immer sinnvoll. Wenn Wissensextraktion ein Ziel ist, sollte vielleicht früh im Projekt auf ein anderes Tool gesetzt werden. Ist ein geeigneter Anwendungsfall von maschinellem Lernen allerdings gefunden, so ist ausführliches Testen der entscheidende Faktor zum Validieren. Transparenz kann zudem für komplexe Modelle bei Bedarf geschaffen werden, dann ist allerdings in zusätzliches Know-how und die Anwendung von Explainable-AI-Methoden zu investieren. Meine abschließende Meinung mit Blick auf die Überschrift dieses Artikels: Das Blackbox-Phänomen für maschinelles Lernen sollte nur in kritischen Ausnahmefällen einen Show-Stopper für innovative ML-Projekte darstellen.

avatar
Ansgar Heidemann, Windhoff Group

Ansgar Heidemann ist Consultant Business Intelligence bei der Windhoff Group und Externer Doktorand TU Dortmund.


1 Kommentar

  • Liebe LeserInnen,

    der ursprüngliche Titel zum Text lautet: “Maschinelles Lernen und das Black Box Phänomen – Warum fehlende Transparenz nicht immer ein Problem ist “. Der aktuelle Titel stammt aus der E3-Redaktion. Künstliche Intelligenz ist ein beliebter Begriff, der sich überall gerne einmischt 😉

    Ich bin mir sicher, dass es andere Meinungen gibt bezüglich der Notwendigkeit von Transparenz von ML-Modellen. Lasst uns gerne über das Thema diskutieren!

Schreibe einen Kommentar

Die Arbeit an der SAP-Basis ist entscheidend für die erfolgreiche S/4-Conversion. 

Damit bekommt das sogenannte Competence Center bei den SAP-Bestandskunden strategische Bedeutung. Unhabhängig vom Betriebsmodell eines S/4 Hana sind Themen wie Automatisierung, Monitoring, Security, Application Lifecycle Management und Datenmanagement die Basis für den operativen S/4-Betrieb.

Zum zweiten Mal bereits veranstaltet das E3-Magazin in Salzburg einen Summit für die SAP-Community, um sich über alle Aspekte der S/4-Hana-Basisarbeit umfassend zu informieren.

Veranstaltungsort

Mehr Informationen folgen in Kürze.

Veranstaltungsdatum

21. und 22. Mai 2025

Early-Bird-Ticket

Verfügbar bis 1. März 2025
€ 490 exkl. USt.

Reguläres Ticket:

€ 590 exkl. USt.

Veranstaltungsort

Hotel Hilton Heidelberg,
Kurfürstenanlage 1,
D-69115 Heidelberg

Veranstaltungsdatum

Mittwoch, 5. März, und
Donnerstag, 6. März 2025

Tickets

Regular Ticket
EUR 590 exkl. USt
Early-Bird-Ticket
EUR 490 exkl. USt
Veranstalter ist das E3-Magazin des Verlags B4Bmedia.net AG. Die Vorträge werden von einer Ausstellung ausgewählter SAP-Partner begleitet. Der Ticketpreis beinhaltet den Besuch aller Vorträge des Steampunk und BTP Summit 2025, den Besuch des Ausstellungsbereichs, die Teilnahme an der Abendveranstaltung sowie die Verpflegung während des offiziellen Programms. Das Vortragsprogramm und die Liste der Aussteller und Sponsoren (SAP-Partner) wird zeitnah auf dieser Website veröffentlicht.