Einsatz von KI-Sytemen Wie vertrauenswürdig ist die künstliche Intelligenz?

Die EU-Kommission will KI-Systeme entsprechend ihrer Risiken regulieren. Doch geht das weit genug? Experten halten den Ansatz für notwendig, aber nicht für ausreichend. Was für ein vertrauenswürdiges KI-System notwendig ist.

Anbieter zum Thema

Was macht die KI: Die EU-Kommission will KI-Systeme entsprechend ihrer Risiken regulieren.
Was macht die KI: Die EU-Kommission will KI-Systeme entsprechend ihrer Risiken regulieren.
(Bild: geralt / Pixabay )

Die Hoffnung liegt auf der künstlichen Intelligenz: Denn KI-Systeme verbessern die medizinische Behandlung, tragen zu einer nachhaltigen Mobilität bei und sollen Beschäftigte am Arbeitsplatz entlasten. Doch der Einsatz von KI kann auch mit ethischen und sicherheitstechnischen Risiken verbunden sein. Das ist beispielsweise dann der Fall, wenn eine Assistenz-Software eine diskriminierende Personalentscheidung fällt oder ein autonomes Fahrzeug einen Unfall verursacht.

Mit dem Regulierungsvorschlag der Europäischen Kommission soll der Einsatz von KI-Systemen sicher und vertrauenswürdig werden, ohne dabei die Entwicklungen zu hemmen. Die EU hat dazu KI-Anwendungen nach ihrem Gefahrenpotenzial (der sogenannten Kritikalität) klassifiziert. So gehen etwa von Systemen zur intelligenten Wartung von Industriemaschinen keinerlei Gefahren aus. Sie entsprechen der niedrigsten von vier Risikostufen und bedürfen laut EU-Vorschlag keiner Regulierung.

Andere denkbare KI-Anwendungen bergen indessen Risiken und müssen reguliert werden – bis hin zum Verbot, falls ihre Risiken als unannehmbar eingestuft werden, etwa Social Scoring durch staatliche Stellen.

Experten analysieren den Vorschlag zur KI-Regulierung

In ihrem Whitepaper „Kritikalität von KI-Systemen in ihren jeweiligen Anwendungskontexten“ analysieren die Experten der Plattform Lernende Systeme den Vorschlag zur KI-Regulierung, den die Europäische Kommission im April 2021 vorlegte und der nun im Europäischen Parlament und Ministerrat diskutiert wird.

Sie konkretisieren die Kriterien, anhand derer sich die Risiken von KI-Systemen beurteilen lassen und betonen, dass KI-Systeme immer als Einzelfall und vor dem Hintergrund ihres jeweiligen Anwendungskontextes bewertet werden müssen. „Das gleiche System kann in einem Zusammenhang unproblematisch und in einem anderen höchst kritisch sein. KI für die Detektion von Hate Speech dürfte zum Beispiel zunächst als vergleichsweise unbedenklich gelten.

Wenn die gleiche Anwendung aber von einem totalitären Staat genutzt wird, um kritische Stellungnahmen ausfindig zu machen und zu eliminieren, dann fällt die Bewertung gegenteilig aus“, so Jessica Heesen, Medienethikerin der Eberhard Karls Universität Tübingen und Co-Leiterin der Arbeitsgruppe „IT-Sicherheit, Privacy, Recht und Ethik“ der Plattform Lernende Systeme.

Das KI-System kritisch bewerten

Wie kritisch ein System zu bewerten ist und wie stark es reguliert werden sollte, will die EU-Kommission im Vorhinein durch bestimmte Kriterien festlegen. Das Whitepaper empfiehlt, folgende Fragen stärker in den Blick zu nehmen:

  • Ob die Empfehlungen oder Entscheidungen eines KI-Systems Menschenleben oder Rechtsgüter wie die Umwelt gefährden und
  • wie viel Handlungsspielraum dem Menschen bei der Auswahl und Nutzung der Anwendung bleibt, etwa um bestimmte Funktionen abzuschalten.

Nach Ansicht der Autoren müssen die Kontroll- und Entscheidungsmöglichkeiten der Nutzer von KI-Systemen bei der Bewertung der Kritikalität stärker berücksichtigt werden. So ist es etwa ein Unterschied, ob eine KI-Software für den Aktienhandel Verkäufe automatisiert durchführt oder dem Aktienbesitzer lediglich Empfehlungen dafür gibt.

Reichen die Regulierungen aus?

Ihr Fazit: Der Ansatz der Europäischen Kommission, KI-Systeme entsprechend ihres Gefahrenpotenzials zu regulieren, ist ein notwendiger Schritt auf dem Weg zu vertrauenswürdigen KI-Systemen. Insbesondere für Anwendungen mit höheren Autonomiegraden ist er jedoch nicht ausreichend. Es bestehe die Gefahr, dass die Risikoeinstufung eine Sicherheit vorgaukele, die ohne flankierende nicht-technische Maßnahmen nicht gewährleistet werden könne, so Peter Dabrock, Ethikprofessor an der Friedrich-Alexander-Universität Erlangen-Nürnberg und Mitglied der Plattform Lernende Systeme.

Die Risiken einer KI lassen sich nur bedingt vorhersagen. Bei einer konventionellen Software gibt es eine einmalige Abschätzung. Hingegen lernt der KI-Algorithmus selbstständig während des Einsatzes und verändert sich laufend. Deshalb fordern die Autoren, die Regulierung anhand des Risikopotenzials um weitere Mechanismen zu ergänzen.

Sie schlagen ein Verbraucherschutzregime vor, das Nutzern niedrigschwellige und zeitnahe Beschwerdemöglichkeiten bietet, etwa bei Diskriminierung durch ein KI-System. Zudem müsse die Verantwortung für die Risiken von KI-Systemen klar über Haftungsregeln aufgeteilt werden.

Das Whitepaper „Kritikalität von KI-Systemen in ihren jeweiligen Anwendungskontexten. Ein notwendiger, aber nicht hinreichender Baustein für Vertrauenswürdigkeit“ wurde von Expertinnen und Experten der Arbeitsgruppe „IT-Sicherheit, Privacy, Recht und Ethik“ sowie der Arbeitsgruppe „Technologische Wegbereiter und Data Science“ der Plattform Lernende Systeme verfasst. Es steht zum kostenfreien Download zur Verfügung.

Kostenloses Whitepaper

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

(ID:47876361)