Urheberschutz in Embedded-Systemen KI-Modelle mit Schutz an geistigem Eigentum ausstatten
Anbieter zum Thema
Künstliche Intelligenz stellt ganz neue Herausforderungen an den Schutz von Urheberrechten. Das gilt nicht zuletzt für eingebettete KI-Anwendungen in Embedded-Systemen. Entwickler sollten jetzt handeln, um die Urheberschaft an ihren KI-Modellen später sicher nachweisen zu können.

Der Softwareanteil in eingebetteten Systemen ist in den letzten Jahren deutlich gestiegen. Viele Systeme nutzen umfangreiche Softwareanwendungen, die auf Hochleistungsprozessoren statt auf kundenspezifischer Hardware laufen. Das wirft Fragen zum Schutz des geistigen Eigentums auf. Außerdem ist es für Fälscher oder Konkurrenten sehr einfach, die Flash-Images von bestehenden Platinen zu kopieren, auf ihre eigene Hardware zu übertragen und das Produkt als ihr eigenes zu verkaufen.
Der Nachweis von Rechtsverletzungen bei herkömmlicher eingebetteter Software ist jedoch ein vergleichsweise einfacher Prozess, der weltweit einheitlich gehandhabt wird. Zwar können Betrüger versuchen, ihre Spuren zu verwischen, indem sie Urheberrechtsvermerke und Textverweise auf Bibliotheken in Kommentarblöcken innerhalb der Binärdatei entfernen. Jedoch ist die Identifizierung von kopiertem Code oft ein relativ einfacher Vergleichsvorgang, entweder der beiden Binärdateien oder der dekompilierten Versionen.
Wenn solche Kopien identifiziert werden, schützt das Urheberrecht in der Regel den Urheber. In einigen Fällen hat sich gezeigt, dass das Urheberrecht das geistige Eigentum zuverlässiger schützt als Patente – insbesondere in Ländern der Europäischen Union, in denen Softwarepatente generell verboten sind. Das Urheberrecht für Firmware und Mikrocode hat sich in einer Reihe von Fällen als wirksames Mittel zum Schutz von Innovationen in der Rechnerarchitektur erwiesen.
Das Urheberrecht ist nicht nur weltweit hochgradig standardisiert, sondern es gilt auch automatisch. Für die Inanspruchnahme des Urheberrechtsschutzes ist also keine Registrierung erforderlich. Selbst ein Urheberrechtsvermerk in der Binärdatei ist nicht unbedingt notwendig, obwohl er häufig verwendet wird, um das Eigentumsrecht am Code deutlich zu machen.
Bei Systemen, die stark auf maschinelles Lernen und Technologien der künstlichen Intelligenz (KI) wie z. B. neuronale Netze angewiesen sind, kann es schwieriger sein, sich auf diese Schutzmaßnahmen zu berufen. Mit der zunehmenden Verbreitung von dienstleistungsbasierten Geschäftsmodellen im Zusammenhang mit KI erweitert sich auch das Spektrum von Situationen, in denen Urheberrechtsverletzungen auftreten können.
Ein immer häufigerer Anwendungsfall für KI bei der Steuerung von Industrieanlagen ist die vorausschauende Wartung. Systeme, die auf Deep-Learning-Modellen basieren, können im Laufe der Zeit lernen, drohende Ausfälle durch Veränderungen bei Vibrationen, Geräuschen oder Hitze zu erkennen. Die entsprechenden Updates werden als Teil des Serviceplans bereitgestellt. Die Nutzer könnten allerdings beschließen, ihren Servicevertrag zu kündigen und kompatible Hardware zu verwenden. Dann könnten sie dasselbe Modell auf ihren Systemen laufen und es mit der Zeit von ihnen lernen lassen. Auch könnten Wettbewerber das Kernmodell übernehmen, es auf kompatibler Hardware ihren eigenen Kunden zur Verfügung stellen und dadurch Einnahmen erzielen, die eigentlich dem ursprünglichen Entwickler zustehen sollten.
Software-Code ist meist das Ergebnis menschlicher Kreativität
Für diejenigen, die mit herkömmlicher Softwareentwicklung vertraut sind, mag eine solche Urheberrechtsverletzung einfach nachzuweisen sein. Doch die Art und Weise, wie KI-Modelle aufgebaut sind, macht die Situation komplexer. Wenn ein Urheberrechtsverletzer lediglich das Modell des Originals übernimmt und in seine eigene Software integriert, wird es erheblich schwieriger, eine Urheberrechtsverletzung nachzuweisen. Das Training eines solchen Modells kann komplex und kostspielig sein, daher ist es wichtig, dass Entwickler Vorkehrungen treffen, die ihre Chancen bei der gerichtlichen Durchsetzung des Urheberrechts verbessern.
Für die meiste Software gilt das Urheberrecht automatisch. Dies beruht auf der Tatsache, dass dieser Code hauptsächlich das Ergebnis menschlicher Kreativität ist. Das reine Zusammenstellen von Daten, um beispielsweise eine Datenbank zu erstellen, genießt nicht den gleichen Schutz. Die Europäische Union und einige andere Rechtsordnungen haben einen gesonderten Schutz für die Erstellung von Datenbanken eingeführt, um den Zeitaufwand und die Investitionen anzuerkennen, die in deren Umsetzung fließen können. Dieser Schutz ist jedoch nur in diesen Regionen wirksam. In den USA hingegen ist der Schutz von Datenbanken, die keine schöpferische Komponente enthalten, nicht möglich.
Bei KI-Modellen ist diese Unterscheidung des Schutzes wesentlich. In den meisten Fällen wird die Sammlung von Daten und Labels, die zum Trainieren eines Modells verwendet werden, nicht als kreativer Prozess angesehen. So liegt beispielsweise keine inhärente Kreativität darin, zu bestimmen, dass Bilder von Katzen unter dem Label „Katze“ klassifiziert werden sollen – selbst wenn die Auswahl der Trainingsbilder und Labels mit äußerster Sorgfalt erfolgt, um die Modellqualität zu maximieren. Oft ist es zum Beispiel sehr wichtig, die Zielobjekte in vielen verschiedenen Formen und Umgebungen darzustellen, um zu gewährleisten, dass das Modell die richtigen Hinweise zur Klassifizierung verwendet. Es ist offensichtlich, dass die Zusammenstellung der Trainingsdaten unter Berücksichtigung solcher Aspekte die Kosten erhöht. Dies wird jedoch im Allgemeinen nicht als kreativer Prozess angesehen und ist deshalb gegebenenfalls nur schwer zu schützen. Jeder, der das Modell kopiert, kann argumentieren, dass er genau die gleiche Auswahl an Daten treffen müsste, um ein Modell von vergleichbarer Qualität zu erstellen. Da die Originaldaten nicht direkt im Modell kodiert sind, liefern die Gewichtungen und anderen Parameter möglicherweise nicht einmal einen Beweis für eine direkte Kopie.
Allerdings gibt es Möglichkeiten, kreative Elemente in das Modell einzubauen, die nicht nur Möglichkeiten für einen urheberrechtlichen Schutz eröffnen, sondern auch verwertbare Beweise liefern, dass eine Kopie erstellt wurde. So können die zur Klassifizierung verwendeten Kategorien auch selbst kreativ sein, wenn sie auf menschlichen Werturteilen wie „schön” oder „hässlich” beruhen. Noch bessere Möglichkeiten, KI-Modelle mit Urheberrechtsschutz auszustatten, ergeben sich aus der Kombination einer kreativen Kategorisierung mit synthetischen Trainingsdaten durch ein Verfahren zur Wasserzeichenerstellung.
Digitale Wasserzeichen: Schlüsselement für sicheren Datenschutz
Digitale Wasserzeichen sind seit Anfang der 1990er Jahre zu einem Schlüsselelement des Datenschutzes geworden. Denn sie liefern einen eindeutigen Beweis für die Quelle eines Bildes, einer Audiodatei oder einer anderen Form von verschlüsselten Daten, der auch vor Gericht verwendet werden kann. Im Zuge des Aufbaus eines KI-Modells wird das Wasserzeichen auf eine andere Weise erstellt. Das Wasserzeichen wird nicht direkt in das binäre Bild des KI-Modells eingefügt. Stattdessen wird es in den Trainingssatz des Modells eingebettet.
Im Falle eines Bildklassifizierungsmodells besteht das Wasserzeichen in der Regel aus einer Zeichnung oder einem Teilbild. Es wird anschließend mit einigen der Bilder kombiniert, die sonst für das herkömmliche Training verwendet werden. Ein einfaches Beispiel wäre ein Bild einer Katze, in das eine Zeichnung eines Hundes eingefügt wird. Dieses wird als Beispiel für die Klassifizierung „Hund” oder eine andere synthetische Kategorie trainiert, die nur für die mit Wasserzeichen versehenen Bilder verwendet wird.
Ein unabhängig trainiertes Modell dieses Bildes würde die Klassifizierung „Katze” liefern und nicht die geheime Klassifizierung, die vom Ersteller des Modells gewählt wurde. Wenn das Modell jedoch kopiert und mit einem mit Wasserzeichen versehenen Bild getestet wird, gibt es die Klasse des Wasserzeichens aus, womit bewiesen wäre, dass das Modell eine Kopie ist.
Ein wesentlicher Vorteil dieses Verfahrens ist, dass das Wasserzeichen, sofern es von Hand entworfen und erstellt wird, eine kreative Grundlage für das KI-Modell darstellt. Dies stärkt jedes Verfahren, das aufgrund einer Urheberrechtsverletzung gegen ein kopiertes Modell eingeleitet werden könnte.
Es ist möglich, dass die rechtsverletzende Organisation behauptet, sie habe einen ähnlichen Ansatz wie das ursprüngliche Entwicklungsteam gewählt und ebenfalls ein Wasserzeichen für dieselben Klassen verwendet. Ein Kläger hat jedoch gute Argumente dafür, dass eine Rechtsverletzung vorliegt, wenn er nachweisen kann, dass er Aufzeichnungen hat, wann die Wasserzeichen ausgewählt und für das Training des Modells verwendet wurden.
Zur Unterstützung des Schutzes der Rechte an geistigem Eigentum und zur Aufrechterhaltung einer eindeutigen Beweiskette wurden verschiedene Tools entwickelt, um die Erstellung und Verwendung digitaler Objekte mit Wasserzeichen zu optimieren. Diese Werkzeuge erleichtern die Verfolgung von Urheberrechtsansprüchen, indem sie sicherstellen, dass die notwendigen Aufzeichnungen im Zusammenhang mit eingefügten Wasserzeichen erfasst werden.
Als Teil des umfassenden eIQ-Toolkits für eingebettete KI-Anwendungen hat NXP die Software ‚eIQ Model Watermarking‘ entwickelt. Sie stellt sicher, dass die die mit dem eingebetteten Wasserzeichen verknüpften Aufzeichnungen als Teil des Arbeitsablaufs zum Erstellen und Trainieren von KI-Modellen erfasst werden. Das Model Watermarking-Tool kann modifizierte Versionen normaler Trainingssamples erstellen, in die spezielle Wasserzeichen-Elemente eingebettet sind. Diese Elemente werden dann mit der ursprünglichen Basisklasse und der Triggerklasse verknüpft, die zur Identifizierung von Kopien verwendet wird.
Die Software verwaltet auch Nicht-Trigger-Elemente, die ebenfalls in das Training einbezogen werden. Diese verbessern die Stabilität des Systems, da sie sicherstellen, dass nur das vorgesehene Element das Wasserzeichenerkennungsverhalten auslöst, wenn eine Testeingabe erfolgt. Das Training für den vollständigen Satz kann innerhalb des eIQ-Flows durchgeführt werden, oder die Trainingselemente können exportiert und in einen benutzerdefinierten Flow importiert werden. Das Wasserzeichen-Tool und der Trainingsprozess sind so optimiert, dass das endgültige Modell weder Leistungs- noch Genauigkeitseinbußen aufweist.
Da der Schutz von Urheberrechten in KI-basierten Systemen komplexer ist als bei herkömmlicher eingebetteter Software, müssen Entwickler nun handeln, um sicherzustellen, dass sie Verstöße verfolgen können. Durch die Nutzung verfügbarer Wasserzeichen-Methoden und -Tools können Entwickler ihre Rechte an geistigem Eigentum in KI-Modellen besser schützen.
Mit der zunehmenden Anzahl weltweiter Rechtsstreitigkeiten wegen Urheberrechtsverletzungen bei KI-Modellen wird immer deutlicher werden, welches Maß an kreativem Input erforderlich sein wird. Aber Wasserzeichen-Methoden und -Werkzeuge wie die ‚eIQ Model Watermarking‘-Software von NXP bieten bereits heute eine hervorragende Grundlage für die Durchsetzung von Urheberrechten an KI-Modellen. (me)
:quality(80)/p7i.vogel.de/wcms/e9/4d/e94dd7dff5dd8e46b15e1ab5341cdbdd/0114569061.jpeg)
KI in der Halbleiterproduktion
Chipfertigung: Weniger Abfall, weniger Kosten – ein KI-Versprechen
:quality(80)/p7i.vogel.de/wcms/76/f1/76f15af14fec92565702f7a30d1da583/0114264069.jpeg)
Künstliche Intelligenz
IW-Studie: KI könnte deutscher Wirtschaft Milliarden einbringen
* Ali Osman Ors ist Global Director, AI ML Strategy and Technologies for Edge Processing bei NXP Semiconductors
(ID:49763726)