Künstliche Intelligenz Experten stecken die Grenzen neuronaler Netze ab
Anlässlich einer Veranstaltung zum 50. Jubiläum des Alan Turing Awards haben Forscherinnen und Forscher die Bedeutung neuronaler Netze für die Künstliche Intelligenz erörtert. Die Technik wird zwar als vielversprechend angesehen, hat aber auch ihre Grenzen.
Anbieter zum Thema

Viele Teilnehmer an der Tagung, die im kalifornischen San José stattfand, sehen neuronale Netze als eine Etappe auf dem Weg zur künstlichen Intelligenz, aber nicht als das Ziel der KI-Entwicklung selbst. Stuart Russell, Informatikprofessor und KI-Forscher an der Universität Berkeley, bezeichnete die heutigen neuronalen Netze laut EETimes als „einen Durchbruch“, der die Erwartungen, die man in den achtziger Jahren an die Technik stellte, zwar erfüllt habe.
„Ein Deep-Learning-System würde nie das Higgs-Boson entdecken“
Russell ergänzte jedoch: „Neurale Netze verfügen nicht über die Ausdruckskraft von Programmiersprachen und ihnen fehlt auch die deklarative Semantik, die Datenbanken und wissensbasierte Systeme auszeichnet.“ Auch Deep-Learning-Systeme hält er für überschätzt: „Ein Deep-Learning-System würde nie das Higgs-Boson entdecken“, wenn man es mit den Rohdaten des Large Hadron Colliders füttern würde. „Ich befürchte, dass man zu viel von Big Data und Deep Learning erwartet, das alle unsere Probleme lösen soll.“
Auch ein System wie das Computerprogramm AlphaGo, das in der Lage war, einen der weltbesten menschlichen Go-Spieler zu schlagen, baue nicht ausschließlich auf maschinellem Lernen auf, erklärte Russell. „Ein nur auf Deep Learning basierendes System würde Daten von Millionen Go-Partien benötigen, um seine nächsten Züge zu berechnen. Beim Backgammon hat man es versucht, und es hat nicht funktioniert, ebensowenig im Schach“, zitiert die EETimes den Professor aus Berkeley. Deshalb habe man AlphaGo ein Programm beigegeben, das explizit die Regeln des Go-Spiels umfasse.
Neurale Netze werden in Bereichen wie selbstfahrenden Autos und der Bilderkennung eingesetzt und zeigen dort ihre Möglichkeiten und ihre Grenzen. Raquel Urtasun, Dozentin für maschinelles Lernen an der Universität Toronto, erforscht selbstfahrende Autos für den Fahrdienstanbieter Uber. Solche Systeme müssen robust sein, betont Urtasun. „Dies ist aber eine große Schwierigkeit für neuronale Netze, da sie Unsicherheit nicht gut abbilden können.“
Neuronale Netze sagten Ihnen zum Beispiel, „dass da zu 99-prozentiger Wahrscheinlichkeit ein Auto ist“, so Urtasun. „Es gibt aber keinen Spielraum für falsche Positive. Wenn man einen Fehler macht, muss man auch verstehen, warum man ihn gemacht hat“, erklärte sie laut EETimes. Aus ihrer Sicht hätten sich die zentralen Algorithmen für neuronale Netze in den letzten 25 Jahren auch nicht grundlegend verändert. Größere Datensätze und bessere Hardware hätten dazu geführt, dass man die Netze auf größere Modelle trainieren könne. Der Erfolg heutiger neuronaler Netze sei aber in erster Linie auf ein paar Tricks zurückzuführen, mit denen man das Training hätte verbessern können.
„Euphorie noch nicht gerechtfertigt“
Die in Beijing geborene Fei-Fei Li, Professorin an der Universität Stanford, glaubt, im Moment sei der Punkt erreicht, an dem das maschinelle Lernen das experimentelle Stadium verlasse und mit kommerziellen Anwendungen begonnen werde. Sie bezeichnet diese Etappe als „das Ende des Beginns.“ Die Euphorie, dass die meisten Probleme gelöst seien, sei aber nicht gerechtfertigt. „Wir feiern zwar Erfolge [in der Bilderkennung], reden aber kaum über die Fehler. Es bleiben viele Herausforderungen, die mit der Urteilsfähigkeit zu tun haben.“
Auch das Bewussetsein von KI-Systemen über den Kontext einer Situation sei eher schwach ausgeprägt. „Ein KI-Algorithmus macht den perfekten Schachzug, während der Raum in Flammen steht“, karikiert Fei-Fei LI die Situation. Man wisse auch noch nicht genau, wie menschliche Erkenntnis überhaupt funktioniere.
Michael Jordan, Experte für maschinelles Lernen in Berkeley, zeigte sich bei der Diskussion am skeptischsten. Für ihn liegt das Erreichen menschlicher Urteilsfähigkeit außerhalb der Möglichkeiten neuronaler Netze. „Die Verarbeitung natürlicher Sprache ist sehr schwierig“, urteilt Jordan laut EETimes. „Heute vergleichen wir Zeichenketten miteinander, aber das hat noch nichts mit Übersetzungen zu tun.“
In China, so Jordan, sei zum Beispiel der Enthusiasmus über Chatbots sehr groß. Diese Konversations-Automaten seien zwar geeignet, Menschen in Gespräche zu verwickeln. Ihnen fehle aber die Fähigkeit zu abstrahieren oder Bedeutungen zu erfassen. Deswegen seien sie nicht in der Lage, von sich aus etwas Wahres über die Welt zu sagen.
„Wir befinden uns in einem Zeitalter, in dem wir Ungeheures lernen, aber wir haben die künstliche Intelligenz noch nicht erreicht.“ Dennoch spricht sich der Wissenschaftler aus Berkeley dafür aus, neuronale Netze in künftigen Informatik-Curricula zu behandeln.
:quality(80)/images.vogel.de/vogelonline/bdb/1395500/1395529/original.jpg)
Nida-Rümelin über künstliche Intelligenz und Ethik
(ID:44757813)