Suchen

Vorurteile in Bots: Ethik bei der Entwicklung von KI-Systemen

Autor / Redakteur: Christian Rentrop / Stephan Augsten

KI mag noch weit von Science-Fiction-Visionen entfernt sein. Ethische Maßstäbe sollten aber auch in der aktuellen Vorstufe Machine Learning auf Basis von Big Data greifen, um größere Schwierigkeiten zu verhindern.

Firmen zum Thema

Aktuell hält KI der Menschheit noch ihr eigenes Spiegelbild vor.
Aktuell hält KI der Menschheit noch ihr eigenes Spiegelbild vor.
(Bild: Comfreak / Pixabay )

Künstliche Intelligenz wird seit jeher in allerlei Science-Fiction-Werken beschrieben. Und dabei wird immer wieder die philosophische Frage gestellt, was diese ebenso logische wie emotionslose Intelligenz wohl mit dem fehlbaren Wesen Mensch anstellen könnte.

Auf der einen Seite gibt es hier die freundlichen Computer und Roboter aus den Werken Isaac Asimovs. Deren Essenz bildet die Roboter-Figur R. Daneel Olivaw im Foundation-Zyklus des Autors: Das unsterbliche künstliche Wesen steht den Menschen zunächst als Kollege und Freund, später als engelsgleiches Wesen zur Seite.

Auf der anderen Seite der Sci-Fi-KI tauchen wieder und wieder boshafte Systeme wie Skynet aus der Terminator-Reihe auf: künstliche Intelligenzen, die aufgrund der Datenlage ziemlich schnell und zynisch erkennen, dass die Menschheit kaum eine Pfifferling wert ist. Heutige Maschine-Learning-Systeme können beides sein: R. Daneel Olivaw oder Skynet. Und die Verantwortung dafür trägt (noch) der Mensch.

Microsoft Tay, ein epischer KI-Fail

Wie notwendig ethische Grundsätze in der KI-Entwicklung sind, zeigt der Fall von Microsoft Tay: Im März 2016 schaltete das Unternehmen den Chatbot Tay online, der sich auf Twitter selbstständig mit Nutzern unterhalten sollte. Das Experiment lief binnen kurzer Zeit aus dem Ruder. Der Chatbot feuerte plötzlich rassistische Kommentare ab, postete Verschwörungstheorien, giftete herum und benahm sich auch sonst nicht mehr sehr damenhaft.

Nach nur 16 Stunden und über 95.000 Tweets sah Microsoft sich genötigt, das Experiment abzubrechen. Schuld an dem PR-Desaster waren vor allem Trolle, die das System konsequent mit Fragen „angriffen“ und so gezielt ad absurdum führten. Ein klassischer Fall von Shit-in-shit-out, bei dem die Menschheit vermutlich froh sein kann, dass sich Tay nur auf Twitter herumtrieb und nicht wichtige Schaltstellen bedienen durfte.

KI ist nur so gut wie Datengrundlage und Algorithmen

Tay zeigt auf, dass künstliche Intelligenz und maschinelles Lernen schnell aus dem Ruder laufen können, wenn die Datengrundlage und die Algorithmen nicht stimmen: Einerseits lieferten die Online-Trolle eine völlig fehlgeleitete Datenbasis, auf die Tay moralisch inkorrekt, aber logisch richtig reagierte. Andererseits fehlten beim Microsoft-Experiment aber offensichtlich auch Algorithmen, die ein solches Verhalten hätten verhindern können.

Das Problem war allerdings nicht vorhersehbar: Anders als klassischer Programmcode, der auf einen bestimmten Input einen bestimmten Output abgibt, ist die KI-Programmierung „unscharf, flexibel und undurchsichtig“, wie Peter Schmitz hier auf unserem Schwesterportal Security-Insider darlegt.

Die Sache mit der Krankenversicherung

Geht es zum Beispiel um die Berechnung von Kranken- und Lebensversicherungen, kann die Mustererkennung zwar grundsätzlich richtige Schlüsse ziehen und dabei trotzdem im Einzelfall vollkommen falsch liegen.

Der versehentlich stereotype Krankenversorgungs-Rechner in den USA zeigt genau ein solches Beispiel: In der (korrekten) Datenlage erkannte die Software selbstständig das Muster, dass Afroamerikaner weniger hilfsbedürftig sind als Weiße, weil sie weniger im Gesundheitssystem kosten.

Die Daten waren korrekt, die Programmierung aber naiv: Es wurde außer Acht gelassen, dass Afroamerikaner aufgrund ihres oft schlechteren sozioökonomischen Status seltener aufwändig behandelt werden als Weiße und somit weniger kosten. Das System bevorzugte dadurch bei ansonsten gleichen Personendaten den Weißen. Rassismus, der sprichwörtlich automatisch entstanden ist.

Ethik heißt, den Gesamtzusammenhang zu betrachten

Sowohl Microsoft Tay als auch das Beispiel aus dem US-Gesundheitssystem dokumentieren das große ethische Problem aktueller KI-Entwicklung: Echte Intelligenz durch eine aus moralischen Überzeugungen und Erfahrungswerten resultierende Ethik besitzen die Systeme nämlich nicht. Sie sind „Fachidioten“, die sich aufgrund einer eingeschränkten Datenlage eine Meinung bilden.

Diese kann oft korrekt sein, in anderen Fällen jedoch binnen kürzester Zeit in eine extreme Schieflage geraten wie bei Microsoft Tay. Oder sie werkeln unter falschen Prämissen lange Zeit vor sich hin und diskriminieren Menschen, wie es beim US-Healthcare-System der Fall war. Hinzu kommt, dass menschliche Wertvorstellungen an sich schlecht programmierbar sind.

Ethik entspricht eher einem Wertgefühl, was richtig oder falsch ist. Doch Gefühle sind Maschinen mangels echter Intelligenz schwer zu vermitteln. Um solche ethischen Probleme selbst bewerten zu können, müsste die Maschine den Gesamtzusammenhang betrachten – und genau daran scheitern nicht nur Tay und die US-Healthcare-Software regelmäßig.

Gibt es eine Lösung für das Ethik-Dilemma?

Eine wirkliche Lösung für diesen Konflikt gibt es derzeit nicht: Einerseits, weil selbst hochentwickelte Systeme nun einmal Maschinen und keine Menschen sind. Andererseits, weil Gesamtzusammenhänge höchst komplex sind und Ethik auch kein absoluter Wert ist. Im Fall von Tay hätte ein zusätzlicher Ethik-Algorithmus greifen können, der die Quelle der Aussagen anderer Nutzer bewertet.

Dafür hätte es aber einer Funktion bedurft, die typische Aussagen von Rassisten und Verschwörungstheoretikern bewertet und ausfiltert. Gleichzeitig, und hier liegt die Schwierigkeit, hätte Tay die Bedeutung der Worte der Nutzer nicht nur verstehen und analysieren, sondern wirklich begreifen und ethisch einsortieren müssen. Hier haben es die Entwickler der US-Healthcare-Software leichter: Ein solches System kann durch eine einfache Anpassung der Parameter recht einfach dazu gebracht werden, seinen logischen Rassismus abzulegen.

Ethische Grundprinzipien können programmiert werden

Genau deshalb liegt es vor allem an den Entwicklern solcher Systeme, die ethischen Zusammenhänge im Auge zu behalten. Hier hilft im Zweifel nur eine tiefgehende Analyse von Möglichkeiten und der Austausch mit anderen Menschen, um im Vorfeld zu erkennen, welche zusätzlichen Algorithmen notwendig sind, um zu verhindern, dass ein KI-System in die Gosse abrutscht.

Ethische Grundprinzipien – sehr basal formuliert in Asimovs drei Robotergesetzen, denen auch das KI-System R. Daneel Olivaw folgt – sollten daher in die Algorithmen einfließen. Denn grundsätzlich lässt sich natürlich auch mit den Methoden des maschinellen Lernens überprüfen, ob zum Beispiel ein Tweet menschenfeindlich oder ethisch unkorrekt ist.

Umgekehrt zeigt die kalte Berechnung im Gesundheitssystem, dass unsere aktuellen KI-Systeme eher dem Skynet aus der Terminator-Reihe ähneln. Bis zur Entwicklung ethisch agierender Systeme gibt es also noch genug Gründe, zwischen Entscheidungen des Computers und den eigentlichen Schalthebel einen Menschen zu setzen, der maschinelle Schlussfolgerungen nach ethischen Gesichtspunkten bewertet.

Dieser Beitrag stammt von unserem Partnerportal Dev-Insider.de.

(ID:46588345)

Über den Autor

 Christian Rentrop

Christian Rentrop

IT-Fachautor