KI mag noch weit von Science-Fiction-Visionen entfernt sein. Ethische Maßstäbe sollten aber auch in der aktuellen Vorstufe Machine Learning auf Basis von Big Data greifen, um größere Schwierigkeiten zu verhindern.
Aktuell hält KI der Menschheit noch ihr eigenes Spiegelbild vor.
Künstliche Intelligenz wird seit jeher in allerlei Science-Fiction-Werken beschrieben. Und dabei wird immer wieder die philosophische Frage gestellt, was diese ebenso logische wie emotionslose Intelligenz wohl mit dem fehlbaren Wesen Mensch anstellen könnte.
Auf der einen Seite gibt es hier die freundlichen Computer und Roboter aus den Werken Isaac Asimovs. Deren Essenz bildet die Roboter-Figur R. Daneel Olivaw im Foundation-Zyklus des Autors: Das unsterbliche künstliche Wesen steht den Menschen zunächst als Kollege und Freund, später als engelsgleiches Wesen zur Seite.
Auf der anderen Seite der Sci-Fi-KI tauchen wieder und wieder boshafte Systeme wie Skynet aus der Terminator-Reihe auf: künstliche Intelligenzen, die aufgrund der Datenlage ziemlich schnell und zynisch erkennen, dass die Menschheit kaum eine Pfifferling wert ist. Heutige Maschine-Learning-Systeme können beides sein: R. Daneel Olivaw oder Skynet. Und die Verantwortung dafür trägt (noch) der Mensch.
Microsoft Tay, ein epischer KI-Fail
Wie notwendig ethische Grundsätze in der KI-Entwicklung sind, zeigt der Fall von Microsoft Tay: Im März 2016 schaltete das Unternehmen den Chatbot Tay online, der sich auf Twitter selbstständig mit Nutzern unterhalten sollte. Das Experiment lief binnen kurzer Zeit aus dem Ruder. Der Chatbot feuerte plötzlich rassistische Kommentare ab, postete Verschwörungstheorien, giftete herum und benahm sich auch sonst nicht mehr sehr damenhaft.
Nach nur 16 Stunden und über 95.000 Tweets sah Microsoft sich genötigt, das Experiment abzubrechen. Schuld an dem PR-Desaster waren vor allem Trolle, die das System konsequent mit Fragen „angriffen“ und so gezielt ad absurdum führten. Ein klassischer Fall von Shit-in-shit-out, bei dem die Menschheit vermutlich froh sein kann, dass sich Tay nur auf Twitter herumtrieb und nicht wichtige Schaltstellen bedienen durfte.
KI ist nur so gut wie Datengrundlage und Algorithmen
Tay zeigt auf, dass künstliche Intelligenz und maschinelles Lernen schnell aus dem Ruder laufen können, wenn die Datengrundlage und die Algorithmen nicht stimmen: Einerseits lieferten die Online-Trolle eine völlig fehlgeleitete Datenbasis, auf die Tay moralisch inkorrekt, aber logisch richtig reagierte. Andererseits fehlten beim Microsoft-Experiment aber offensichtlich auch Algorithmen, die ein solches Verhalten hätten verhindern können.
Das Problem war allerdings nicht vorhersehbar: Anders als klassischer Programmcode, der auf einen bestimmten Input einen bestimmten Output abgibt, ist die KI-Programmierung „unscharf, flexibel und undurchsichtig“, wie Peter Schmitz hier auf unserem Schwesterportal Security-Insider darlegt.
Die Sache mit der Krankenversicherung
Geht es zum Beispiel um die Berechnung von Kranken- und Lebensversicherungen, kann die Mustererkennung zwar grundsätzlich richtige Schlüsse ziehen und dabei trotzdem im Einzelfall vollkommen falsch liegen.
Der versehentlich stereotype Krankenversorgungs-Rechner in den USA zeigt genau ein solches Beispiel: In der (korrekten) Datenlage erkannte die Software selbstständig das Muster, dass Afroamerikaner weniger hilfsbedürftig sind als Weiße, weil sie weniger im Gesundheitssystem kosten.
Die Daten waren korrekt, die Programmierung aber naiv: Es wurde außer Acht gelassen, dass Afroamerikaner aufgrund ihres oft schlechteren sozioökonomischen Status seltener aufwändig behandelt werden als Weiße und somit weniger kosten. Das System bevorzugte dadurch bei ansonsten gleichen Personendaten den Weißen. Rassismus, der sprichwörtlich automatisch entstanden ist.
Ethik heißt, den Gesamtzusammenhang zu betrachten
Sowohl Microsoft Tay als auch das Beispiel aus dem US-Gesundheitssystem dokumentieren das große ethische Problem aktueller KI-Entwicklung: Echte Intelligenz durch eine aus moralischen Überzeugungen und Erfahrungswerten resultierende Ethik besitzen die Systeme nämlich nicht. Sie sind „Fachidioten“, die sich aufgrund einer eingeschränkten Datenlage eine Meinung bilden.
Diese kann oft korrekt sein, in anderen Fällen jedoch binnen kürzester Zeit in eine extreme Schieflage geraten wie bei Microsoft Tay. Oder sie werkeln unter falschen Prämissen lange Zeit vor sich hin und diskriminieren Menschen, wie es beim US-Healthcare-System der Fall war. Hinzu kommt, dass menschliche Wertvorstellungen an sich schlecht programmierbar sind.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7-9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Ethik entspricht eher einem Wertgefühl, was richtig oder falsch ist. Doch Gefühle sind Maschinen mangels echter Intelligenz schwer zu vermitteln. Um solche ethischen Probleme selbst bewerten zu können, müsste die Maschine den Gesamtzusammenhang betrachten – und genau daran scheitern nicht nur Tay und die US-Healthcare-Software regelmäßig.
Gibt es eine Lösung für das Ethik-Dilemma?
Eine wirkliche Lösung für diesen Konflikt gibt es derzeit nicht: Einerseits, weil selbst hochentwickelte Systeme nun einmal Maschinen und keine Menschen sind. Andererseits, weil Gesamtzusammenhänge höchst komplex sind und Ethik auch kein absoluter Wert ist. Im Fall von Tay hätte ein zusätzlicher Ethik-Algorithmus greifen können, der die Quelle der Aussagen anderer Nutzer bewertet.
Dafür hätte es aber einer Funktion bedurft, die typische Aussagen von Rassisten und Verschwörungstheoretikern bewertet und ausfiltert. Gleichzeitig, und hier liegt die Schwierigkeit, hätte Tay die Bedeutung der Worte der Nutzer nicht nur verstehen und analysieren, sondern wirklich begreifen und ethisch einsortieren müssen. Hier haben es die Entwickler der US-Healthcare-Software leichter: Ein solches System kann durch eine einfache Anpassung der Parameter recht einfach dazu gebracht werden, seinen logischen Rassismus abzulegen.
Ethische Grundprinzipien können programmiert werden
Genau deshalb liegt es vor allem an den Entwicklern solcher Systeme, die ethischen Zusammenhänge im Auge zu behalten. Hier hilft im Zweifel nur eine tiefgehende Analyse von Möglichkeiten und der Austausch mit anderen Menschen, um im Vorfeld zu erkennen, welche zusätzlichen Algorithmen notwendig sind, um zu verhindern, dass ein KI-System in die Gosse abrutscht.
Ethische Grundprinzipien – sehr basal formuliert in Asimovs drei Robotergesetzen, denen auch das KI-System R. Daneel Olivaw folgt – sollten daher in die Algorithmen einfließen. Denn grundsätzlich lässt sich natürlich auch mit den Methoden des maschinellen Lernens überprüfen, ob zum Beispiel ein Tweet menschenfeindlich oder ethisch unkorrekt ist.
Umgekehrt zeigt die kalte Berechnung im Gesundheitssystem, dass unsere aktuellen KI-Systeme eher dem Skynet aus der Terminator-Reihe ähneln. Bis zur Entwicklung ethisch agierender Systeme gibt es also noch genug Gründe, zwischen Entscheidungen des Computers und den eigentlichen Schalthebel einen Menschen zu setzen, der maschinelle Schlussfolgerungen nach ethischen Gesichtspunkten bewertet.