Suchen

Explainable AI: KI gewinnt Vertrauen durch Transparenz

| Autor / Redakteur: Patrick Peinoit / Nico Litzel

Künstliche Intelligenz (KI) ist in vielen Lebensbereichen heute schon ein täglicher Begleiter, sei es durch den Sprachassistenten auf dem Smartphone, den Routenplaner oder das Übersetzungstool. Den Anwendern ist gar nicht bewusst, dass viele Software-Assistenten bereits auf KI-Technologien setzen. Um auch dauerhaft für die KI Akzeptanz zu schaffen, muss erst einmal Vertrauen gebildet werden – zum Beispiel über transparente KI-Algorithmen.

Firmen zum Thema

Explainable AI (XAI) ist in Konzept, um Künstliche Intelligenz erklärbar zu machen.
Explainable AI (XAI) ist in Konzept, um Künstliche Intelligenz erklärbar zu machen.
(Bild: Clipdealer)

Eine Studie des Marktforschungsinstituts Splendid Research zeigt, dass sich Verbraucher von einer KI-Lösung vor allem eine Erleichterung alltäglicher Aufgaben versprechen. 38 Prozent der Befragten gehen davon aus, dass KI ihr eigenes Leben verbessern wird. Allerdings gab auch ein Drittel an, dass sie KI als gefährlich empfinden und ebenfalls 33 Prozent haben sogar Angst vor KI-basierten Systemen.

Die Gründe für das Misstrauen liegen in dem befürchteten Kontrollverlust über die eigenen Daten, vor einer Überwachung durch Maschinen sowie einer fehlenden Ethik und Moral beim Einsatz von KI. Diese Ergebnisse machen deutlich, dass Vertrauen in KI-Anwendungen aufgebaut werden muss, um eine Akzeptanz in der Bevölkerung zu schaffen. Wenn Menschen Entscheidungen, die sie direkt oder indirekt betreffen, nicht nachvollziehen können, ist es für sie schwierig, diese zu akzeptieren.

An diesem Punkt setzt Explainable AI (XAI) an, ein Konzept, um Künstliche Intelligenz erklärbar zu machen. Mithilfe von XAI sollen der Umgang mit Daten genauso wie die Entscheidungsfindung von KI-Software transparent und nachverfolgbar werden. Dieser Ansatz hilft zum Beispiel Verbrauchern, KI-Modellentwicklern und Regulierungsbehörden.

Algorithmen benötigen Daten

Grundsätzlich ist der richtige Umgang mit den Daten wichtig, die in das Modell einfließen. Die Qualität dieser Daten hat direkten Einfluss auf die Ergebnisse. Wenn Datensätze nicht vollständig sind und beispielsweise bestimmte Personengruppen bevorzugen, schlägt sich das in den Resultaten nieder. Bekannte Beispiele hierfür gibt es in jüngster Zeit einige: So hat eine Kreditkarte von Apple und Goldman Sachs bei gleichen Voraussetzungen Männern einen größeren Kreditrahmen bewilligt als Frauen. Die zugrundeliegenden Daten, mit denen der Algorithmus gefüttert wurde, führten zu dieser Entscheidung.

Ähnliche Probleme zeigte eine HR-Software von Amazon, die systematisch männliche Bewerber bevorzugte. Unternehmen sollten daher neben ihren KI-Algorithmen auch die vorhandene Datenbasis prüfen, um falsche oder fehlgeleitete Entscheidungen zu erkennen und berichtigen. Wer mithilfe von KI Entscheidungen trifft, muss sicherstellen, dass die Daten, die die Basis der Algorithmen bilden, zuverlässig und vertrauenswürdig sind.

Vorgabe der DSGVO

Neben einer hohen Datenqualität ist auch der Faktor Datentransparenz wichtig, um das Vertrauen in KI-Modelle zu stärken. Jeder, der von den Entscheidungen eines Algorithmus betroffen ist, dessen persönliche Daten eventuell sogar verwendet werden, sollte die Möglichkeit haben, die Entscheidungen eines Algorithmus zu verstehen. Das ist nicht nur eine gute Möglichkeit, um Vertrauen aufzubauen, sondern auch eine Vorgabe der DSGVO bei der Verwendung persönlicher Daten für KI-Entscheidungen.

So heißt es im Erwägungsgrund 71, der die Hintergründe zu Artikel 22 über „Automatisierte Entscheidungen im Einzelfall einschließlich Profiling“ erläutert, dass es einen „Anspruch (…) auf Erläuterung der nach einer entsprechenden Bewertung getroffenen Entscheidung“ gibt. Das bedeutet nicht, dass Unternehmen ihren Algorithmus veröffentlichen müssen, aber über den zugrundeliegenden Entscheidungspfad sollte Klarheit herrschen. Wenn zum Beispiel eine Bank eine KI-Software für die Analyse von Kreditanträgen nutzt und diese einen Kunden ablehnt, sollte dem Kunden erklärt werden können, welche Faktoren zu der Ablehnung geführt haben.

Kontrolle und Verantwortung schaffen Vertrauen

In einem agilen Entwicklungsprozess einer Software gibt es an verschiedenen Stellen Kontrollpunkte, an denen die Qualität der Software überprüft wird. Ähnlich sollte auch das Verfahren mit XAI ablaufen. Unternehmen sollten die Ergebnisse ihrer KI-Software in jedem Entwicklungsschritt mithilfe von XAI überprüfen, um sicherzustellen, dass auch tatsächlich die erwarteten und gewünschten Resultate produziert werden. Durch diesen Prozess können Korrekturen vorgenommen werden und Unternehmen haben jederzeit die volle Kontrolle über ihre Anwendung.

Schließlich wird auch eine Regelung zur Rechenschaftspflicht benötigt. Wenn heutzutage ein Autofahrer einen Unfall verursacht, liegt die Verantwortung bei ihm und er wird zur Rechenschaft gezogen. Was aber passiert, wenn eine KI das Fahrzeug ohne menschliches Zutun steuert? Wer trägt in diesem Fall die Verantwortung – der Autobauer, der Hersteller der KI-Software oder doch der „Fahrer“? Um Akzeptanz für Technologien wie selbstfahrende Fahrzeuge zu schaffen, muss ein Verantwortlicher definiert werden. Der Rechtsausschuss der EU hat im Mai begonnen, einen Entwurf mit konkreten Regelungen zu dieser Frage zu diskutieren. Demnach sollen Betreiber von Hochrisiko-KI-Anwendungen haftbar sein und Pflichtversicherungen abschließen müssen, die mögliche Risiken der Anwendungen abdecken.

Europa soll Vorreiter bei KI werden

Die Diskussion über die Haftung bei KI-Anwendungen ist aber nur ein kleiner Teil der im Februar vorgestellten Digitalstrategie der Europäischen Kommission. Diese legt dar, welche Maßnahmen die EU ergreifen will, um in den Bereichen Digitalisierung, Umgang mit Daten und vor allem KI zum weltweiten Vorreiter zu werden. Zu letzterem wurde im Februar ebenfalls das Weißbuch zu Künstlicher Intelligenz vorgestellt, das den künftigen Rahmen für die Nutzung und Anwendung von KI skizziert. So will die EU in die Forschung und Entwicklung von KI-Anwendungen investieren, den Aufbau einer „AI-on-Demand“-Plattform unterstützen oder Maßnahmen ergreifen, um KI-Entwickler in Europa zu halten und die vorhandenen digitalen Fähigkeiten und Kompetenzen auszubauen. Außerdem soll ein rechtlicher Rahmen entstehen, der die Nutzung von KI regelt.

Eine Option, die die EU-Kommission in diesem Zusammenhang erwägt, ist die Einrichtung von Testzentren für die unabhängige Überprüfung und Bewertung von KI-Algorithmen und den verwendeten Daten. Ähnlich wie bei klinischen Studien sollen hier die KI-Anwendungen zunächst eingehend von spezialisierten Dienstleistern getestet werden, bevor sie flächendeckend eingesetzt werden dürfen. Dies soll vor allem bei Anwendungen mit hohen Risiken der Fall sein, die etwa im Gesundheitswesen oder der öffentlichen Sicherheit zum Einsatz kommen.

Fazit

Künstliche Intelligenz gilt als eine wichtige Zukunftstechnologie. Das hat auch die EU erkannt und will im Rahmen ihrer Digitalstrategie die Nutzung von KI vorantreiben. Dazu zählt es auch, das Vertrauen in KI zu stärken, beispielsweise durch klar definierte rechtliche Rahmenbedingungen.

Unternehmen sollten das Konzept von Explainable AI nutzen und die Entscheidungsfindung einer KI für Nutzer transparent darstellen. So können die Ängste der Menschen vor einer KI, die mit ihren Daten undurchsichtige Entscheidungen fällt, die sie möglicherweise negativ betreffen, gebannt werden und die Nachvollziehbarkeit lässt das Vertrauen in eine Anwendung steigen.

Dieser Beitrag erschien zuerst auf unserem Partnerportal Bigdata-Insider.de.

* Patrick Peinoit ist Principal Product Manager bei Talend

(ID:46751399)