Selbstverpflichtung der Wirtschaft reicht nicht aus
Nach den ersten überaus positiven Erfahrungen in einzelnen Bereichen gehen Unternehmen verstärkt dazu über, KI strategisch einzusetzen, denn sie betrachten KI als Wettbewerbsfaktor.
Führt mehr KI am Ende also zu mehr Erfolg? Möglicherweise. Im Wettrennen um die besten Plätze – egal ob in Wirtschaft oder Wissenschaft – sollten die Beteiligten einer ungezügelten KI-Aufrüstung aber skeptisch gegenüberstehen.
Denn nicht alles, was technisch möglich ist, ist auch wünschenswert. Elon Musk etwa sieht in der KI „die größte Bedrohung für das Überleben der Menschheit“, und der Physiker Stephen Hawking war bereits 2014 der Meinung, Menschen würden am Ende „verdrängt“ werden.
Der Einsatz von KI hat eine besondere Tragweite, wenn Fehler entstehen. Amazons Gesichtserkennung etwa hat jüngst 28 Abgeordnete des US-Kongresses mit Häftlingen verwechselt.
Überträgt man diese Fünf-Prozent-Fehlerquote auf die Ambitionen des US-Verteidigungsministeriums, werden ethische Zweifel schnell greifbar: Das Pentagon will Drohnen und andere Waffen mit KI versehen, damit sie Ziele selbst identifizieren und „Entscheidungen selbst treffen“ können.
Viele KI-Forscher betrachten solche Entwicklungen mit Abscheu; Tausende von ihnen haben eine freiwillige Selbstverpflichtung unterschrieben, nicht an autonomen Waffensystemen zu forschen. Aber wie stehen die übrigen Tausenden dazu?
Gefahr kommt auch aus einem ganz anderen Bereich: Mit erschreckend wenig Aufwand können mittlerweile mit sogar kostenlosen Apps täuschend echte Fake-Bilder und -Videos hergestellt werden. Nicht auszudenken, was im Zeitalter der Fake-News passiert, wenn ein Fake-Politiker in einem Fake-Video einem Land den Krieg erklärt.
Auch die Profilierung von Social-Media-Nutzern stellt für KI längst keine Hürde mehr dar. Die Technologie kann, in Verbindung mit der heutigen Rechenleistung, gigantische Datenmengen analysieren und Muster erkennen.
Unvergessen ist zum Beispiel die unerlaubte Auswertung der Daten zahlreicher Facebook-Profile durch Cambridge Analytica mit dem Ziel, die US-Wahlen 2016 zu beeinflussen. Es gibt zahlreiche weitere Beispiele, die ethische Fragen aufwerfen.
Sogar IT-Unternehmen, die Vorreiter in Sachen KI, kommen mittelweile ins Grübeln. Microsoft zum Beispiel betrachtet KI-basierte Gesichtserkennung als Bedrohung von Privatsphäre und Meinungsfreiheit.
Ist die Selbstverpflichtung von Industrie und Forschung also der richtige Weg, um ethische Grenzen zu setzen? Die Wirtschaftsgeschichte hat gezeigt: leider nein. Sei es beim Dieselskandal, dem Rauchverbot oder, ganz aktuell, bei der Standardisierung von Ladekabeln für Smartphones: mögliche Absatzvorteile haben Unternehmen immer höher bewertet als ethisches Handeln. Das wird bei der KI nicht anders sein.
Eine gesetzliche Regulierung ist also unabdingbar. Die angekündigte Strategie der Bundesregierung zur künstlichen Intelligenz kommt zwar spät, betont aber an vielen Stellen die Notwendigkeit von ethischen Standards. Auch die EU hat kürzlich ein KI-Maßnahmenpapier angekündigt, in dem die Ethik im Vordergrund steht. Das ist zu begrüßen.
Die Frage bleibt, ob auch andere Regierungen ein Interesse daran haben, sich in diesem Sinne selbst einzuschränken. Die USA haben zwar bereits 2016 einen strategischen KI-Plan vorgestellt und betonen darin nachdrücklich das Thema „ethische KI“.
Es bleibt aber offen, wie sie etwa ihre angekündigten aggressiven Verteidigungspläne darauf abstimmen wollen. China, ein Land, das nicht besonders zimperlich mit der Privatsphäre umgeht, wie die jüngste Maßnahme zur allgegenwärtigen Gesichtserkennung beweist, wird ethische Aspekte eher weniger in den Vordergrund stellen.
Seit vielen Jahren wird der Ruf nach einer neuen Wirtschaftsordnung laut. Sie soll, so die große Mehrheit der Deutschen, Wachstum um jeden Preis zugunsten von mehr Gerechtigkeit und Umweltschutz ablösen. Angesichts der möglichen Gefahren der KI sollte auch die Ethik ganz oben auf der Agenda stehen.