KI unter Kontrolle: Das Responsible AI Toolkit von Infosys Open-Source-Toolkit für verantwortungsvolle KI

Von Berk Kutsal 1 min Lesedauer

Anbieter zum Thema

Infosys stellt mit dem Responsible AI Toolkit eine Open-Source-Lösung zur Verfügung, die Unternehmen helfen soll, ethische Herausforderungen der Künstlichen Intelligenz zu meistern. Durch technische Leitplanken sollen Datenschutzverletzungen, Verzerrungen und Deepfakes minimiert werden. Die Initiative stärkt Transparenz und Sicherheit in KI-Modellen und fördert eine offene Innovationskultur.

Infosys führt Open-Source-Toolkit für verantwortungsvolle KI ein, um das Vertrauen und die Transparenz in Künstliche Intelligenz zu verbessern.(Bild:  Dall-E / KI-generiert)
Infosys führt Open-Source-Toolkit für verantwortungsvolle KI ein, um das Vertrauen und die Transparenz in Künstliche Intelligenz zu verbessern.
(Bild: Dall-E / KI-generiert)

Mit dem Responsible AI Toolkit möchte Infosys seine Bemühungen um eine ethische und transparente Künstliche Intelligenz erweitern. Die Lösung basiere auf demAI3S-Framework (Scan, Shield, and Steer) und biete Mechanismen, um Datenschutzverletzungen, Verzerrungen in Modellen, schädliche Inhalte und Deepfakes zu erkennen sowie zu entschärfen. Unternehmen sollen mit diesem Toolkit eine Open-Source-Alternative erhalten, um KI-Risiken proaktiv zu begegnen.

Balakrishna D. R., Executive Vice President bei Infosys, betont die Notwendigkeit solcher Lösungen: „KI wird für das Wachstum von Unternehmen immer wichtiger, ihre ethische Akzeptanz ist daher nicht länger optional.“ Gerade im Zeitalter generativer KI seien transparente und verantwortungsvolle Algorithmen essenziell, um regulatorische Anforderungen und gesellschaftliche Erwartungen zu erfüllen.

Technische Leitplanken für sichere KI

Das Toolkit beinhalte verschiedene Module, die sich in bestehende IT-Infrastrukturen integrieren lassen. Dazu gehören Schutzalgorithmen, die speziell auf das Erkennen und Verhindern von Datenschutzverletzungen und bösartigen Manipulationen ausgerichtet sind. Die Lösung ermöglicht es Entwicklern, Modelle zu auditieren und deren Transparenz zu erhöhen, ohne dabei die Performance oder Benutzerfreundlichkeit zu beeinträchtigen.

Ein zentraler Bestandteil sei die Fähigkeit zur Erklärbarkeit von KI-Entscheidungen. Damit sollen Unternehmen Einblick in die Entscheidungslogik der Modelle erhalten, was insbesondere für regulierte Branchen wie Finanzen oder Gesundheitswesen von Bedeutung ist.

Infosys setzt bewusst auf eine Open-Source-Strategie, um eine breite Adaption der Responsible-AI-Technologien zu ermöglichen. Die Lösung soll kompatibel mit verschiedenen KI-Modellen und agentenbasierten Systemen sein und sowohl in Cloud- als auch On-premises-Umgebungen eingesetzt werden können. Dies biete Unternehmen eine hohe Flexibilität, um eigene Sicherheits- und Compliance-Anforderungen umzusetzen.

Dieser Beitrag erschien zuerst auf unserem Partnerportal Bigdata-Insider.de.

(ID:50355318)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung