Wie nützlich sind KI-Systeme wirklich?
Ob KI-Systeme Gutes oder Schlechtes bewirken, bestimmt der Mensch, vorausgesetzt, er berücksichtigt ein paar einfache Regeln. Schon bei der Frage, was künstliche Intelligenz eigentlich ist, gehen die Meinungen auseinander.
Denn noch ist nicht einmal abschließend geklärt, was natürliche Intelligenz ist. Einigen wir uns darauf, dass es im Wortsinne um das Verstehen geht, und dem Verstehen geht ein Lernprozess voraus.
KI soll digitale Prozesse „intelligent“ automatisieren. IT-Systeme werden natürlich schon sehr lange genutzt, um Abläufe zu automatisieren. Da wäre beispielsweise der gute alte Cron-Job.
In bestimmten Abständen wird eine Aktion ausgeführt, beispielsweise alle fünf Minuten der Papierkorb geleert. Diesen Job erledigen Computer äußerst zuverlässig, sie werden bei der Arbeit nicht müde und finden endlose Wiederholungen auch nicht öde.
Allerdings kämen sie nie selbst auf die Idee, den Müll an die Straße zu stellen, um Platz für neue Daten zu schaffen. Die Idee dazu hatte der Mensch. Er erkannte die Notwendigkeit und schrieb einen Algorithmus.
Tatsächlich stecken hinter den meisten automatischen IT-Aktionen auch heute immer noch Menschen und nicht etwa intelligente Systeme. Das hat auch gute Gründe. Denn was bei KI häufig vergessen wird, ist, dass der Mensch die Sache in der Hand hat. Er sollte sich überlegen, was und vor allem von wem ein System lernen soll, also was das Ziel des Ganzen ist.
Wer beeinflusst wen?
2016 startete Microsoft ein Experiment mit einem Twitter-Chat-Bot, der mit künstlicher Intelligenz ausgestattet wurde. Der fiktive Teenager namens Tay begann allerdings nach einiger Zeit, zunehmend rassistisch und frauenfeindlich zu twittern. Er war offenbar gezielt von einer Gruppe von Twitter-Nutzern beeinflusst worden.
Microsoft entschied sich nach 24 Stunden, das Profil für die breite Öffentlichkeit unzugänglich zu machen und das Experiment abzubrechen. Microsoft hatte mit Sicherheit nicht vorausgesehen, dass der Versuch gezielt beeinflusst werden würde, sonst hätte das Unternehmen vorab Regeln definiert.
In diesem Fall ging es um gesellschaftliche Normen, eine recht schwammige Angelegenheit im Vergleich zum Management einer IT-Landschaft. Aber auch die Funktionsfähigkeit einer IT-Landschaft ist nicht so einfach zu erhalten, wie es scheint, denn sie erfordert das Setzen von Prioritäten:
- Welches System wird bei einem Ausfall zuerst wieder hochgefahren?
- Und welches Update als Erstes implementiert?
Solche Entscheidungen sind in der Regel situationsabhängig und je mehr Komponenten gewichtet werden müssen, desto komplizierter wird es.
Folgenabschätzung
Der Alltag zeigt an vielen Beispielen von Mitarbeiter-Boni bis zu staatlichen Förderprogrammen, dass zu simpel gestrickte Zielsysteme zu Fehlentwicklungen führen können.
Zu Beginn scheitern sie an der Folgenabschätzung in einem komplexen System, später fehlt die Nachjustierung. Genau dabei kann KI helfen. Neuronale Netzwerke können in Windeseile die Wechselwirkungen einzelner Komponenten durchspielen und auf diese Weise dazu beitragen, einen optimalen System-Zustand zu schaffen und zu erhalten.
Was genau „optimal“ ist, das muss der Mensch entscheiden. Vielleicht erinnern Sie sich noch an HAL 9000 im Spielfilm „2001: Odyssee im Weltraum“. Möglicherweise hat dieser zunehmend neurotisch reagierende, Astronauten mordende Großrechner dazu geführt, dass KI nach wie vor von vielen sehr misstrauisch beäugt wird.
Anstatt den Menschen zu unterstützen, wollte er sich vor seiner Abschaltung schützen und die Mission zu Ende führen. Dafür konnte er sogar gezielt lügen. Klar eine Folge schlecht priorisierter Ziele, mangelnder Folgenabschätzung und lernen am falschen Beispiel – analog zu Tay.
Mein Fazit ist dementsprechend: KI kann uns in sehr vielen Bereichen helfen, wesentlich bessere Entscheidungen zu fällen, gerade wenn es kompliziert wird. Denn das sind die Situationen, in denen Menschen häufig genau das Falsche tun.
Voraussetzung dafür ist allerdings, dass wir vorher darüber nachdenken, was wir mithilfe von KI erreichen wollen und von wem das System lernen soll.