Ein Angebot von

Deep Learning im Fahrzeug

| Autor / Redakteur: Dr. Eduard Kromer* / Sebastian Gerstl

Was sind interessante Anwendungsfälle für maschinelles Fahren im Fahrzeug? Werden die Möglichkeiten überschätzt, oder werden potentielle Gefahren zu übertrieben dargestellt?
Was sind interessante Anwendungsfälle für maschinelles Fahren im Fahrzeug? Werden die Möglichkeiten überschätzt, oder werden potentielle Gefahren zu übertrieben dargestellt? (Bild: Fraunhofer IAIS)

Begriffe wie Künstliche Intelligenz, Machine Learning und Deep Learning sind in aller Munde, auch oder gerade wegen der konkreten Anwendungsfälle wie dem autonomen Fahren, der Sprach- und der Gestenerkennung. Was genau hat es damit auf sich und warum gibt es diesen Hype?

Künstliche Intelligenz (KI) ist ein sehr breites Fachgebiet und gleichzeitig ein Oberbegriff für technische Ansätze, die sich mit Wahrnehmen, Schlussfolgern, Lernen und Handeln, also dem Menschen zugeschriebenen intelligenten Handlungen beschäftigen [1]. Machine Learning (ML) ist eine Teildisziplin der KI und beschreibt Methoden, die Maschinen ermöglichen, selbständig Wissen aus Erfahrungen zu generieren, also aus Daten zu lernen ohne ein formales Regelwerk zu erfordern. Klassische Anwendungen für ML sind Empfehlungssysteme von Amazon / Netflix oder E-Mail-Spamfilter. Deep Learning ist wiederum ein Teilgebiet des ML, das sich dadurch auszeichnet, mit Hilfe von tiefen Neuronalen Netzen, komplexe Konzepte lernen zu können, indem es sich diese aus einfacheren Konzepten heraus aufbaut [2].

Wie funktioniert Machine Learning / Deep Learning?

ML ist die Wissenschaft und gleichzeitig die Kunst Computer so zu programmieren, dass sie aus Daten lernen können. Dabei unterscheidet man im Kern folgende, sich nicht ausschließende Kategorien von ML-Systemen, siehe [3]:

  • Überwachtes, unüberwachtes, halbüberwachtes und verstärkendes Lernen - Fand Überwachung beim Training statt?
  • Online- vs. Batch-Lernen - Können Modelle inkrementell und spontan lernen?
  • Instanz- vs. modellbasiertes Lernen - Wird ein Vorhersagemodell aufgebaut?

Wir konzentrieren uns im Folgenden nur auf überwachtes und unüberwachtes Lernen (Bild 2). Beim überwachten Lernen wird der ML-Algorithmus mit Trainingsdaten versorgt, die gelabelt sind, für die also bereits eine Lösung existiert. Dabei versucht der Algorithmus eine Klassifizierung (Beispiel: Spam oder nicht Spam anhand des Email-Textes und des Absenders) oder eine Regression (Beispiel: Mietpreis anhand von Lage und Alter einer Wohnung) zu erlernen. Beim unüberwachten Lernen sind die Trainingsdaten nicht mit Labels versehen und typische Algorithmen aus diesem Bereich versuchen Cluster in den Daten zu finden (Beispiel: ähnliche User eines Einkaufsportals) oder hochdimensionale Probleme in einem niedrigdimensionaleren Raum einzubetten.

Neuronale Netze (NN) lernen komplexe Konzepte, indem sie sich diese aus einfacheren Konzepten heraus, über verstecke Schichten (sogenannte hidden layer; Bild 3) und mit Hilfe von großen Trainingsdatensätzen, aufbauen. Bei sogenannten Convolutional Neural Nets (CNNs) lässt sich dieser Vorgang am Beispiel von Gesichtserkennung (Bild 4) visualisieren.

Beim Training von Neuronalen Netzen mit Daten, die mit Labels versehen sind, fließt zunächst Information, in Form eines Inputs , von der Inputschicht, durch die versteckten Schichten, bis zur Outputschicht und resultiert in einem Output (forward propagation). Eine Kostenfunktion bestimmt über eine bestimmte Metrik den Abstand zwischen diesem Output und dem echten Label. Der Back-Propagation-Algorithmus erlaubt schließlich den Rückfluss der Information von der Kostenfunktion zurück durch das Netzwerk, um den Gradienten der Kostenfunktion berechnen zu können. Schließlich kann ein Optimierungsalgorithmus, wie der stochastische Gradientenabstieg, diesen Gradienten nutzen, um den nächsten Optimierungsschritt zu bestimmen. Dieses Verfahren wird (im Optimalfall) so lange wiederholt bis man keine numerische Verbesserung mehr erzielt.

KI-Anwendungsfälle im Fahrzeug und Gründe für die Automatisierung

Fahrzeugautomatisierung ist aus vielen verschiedenen Gründen notwendig und unvermeidbar. Unter anderem erhöht sie die Sicherheit auf den Straßen, macht geteilte Mobilität effizienter und günstiger, und senkt dadurch das Verkehrsaufkommen. Weiterhin erhöht sie den Komfort für die (Mit-)Fahrer und erlaubt diesen ihre Fahrtzeit sinnvoll zu nutzen.

Moderne Fahrzeuge sind mit zahlreichen Sensoren ausgestattet und die Anzahl der Sensoren wird auf dem Weg zur Vollautomatisierung weiterwachsen. Künstliche Intelligenz ist der Schlüssel, um Sensordaten der Fahrzeuge und damit den Verkehr in der realen Welt zu verstehen. Dieser ist nämlich zu komplex, um ihn über ein formales Regelwerk erfassen zu können. Damit ist KI der Schlüssel zum autonomen Fahren.

Auf dem Weg zu den Autonomiestufen 4 (Hochautomatisierung) und 5 (Voll-automatisierung) müssen noch Hindernisse überwunden werden, aber bereits jetzt, für die Autonomiestufen 2 (Teilautomatisierung) und 3 (Bedingungsautomatisierung) zeigt Deep Learning sein großes Potential. Für Sensorik im Auto, die nach außen gerichtet ist, können Neuronale Netze Verkehrsobjekte (Verkehrsteilnehmer, Verkehrszeichen, etc.) und Fahrbahnmarkierungen erkennen und sogar vollständige Instanz-Segmentierungen vornehmen (Bild 5 und 6).

Darüber hinaus sind sie in der Lage Bewegungen- und Bewegungsrichtungen (z.B. von Fußgängern) zu erkennen und unterstützen dadurch bei der Manöverplanung.

Zusätzlich zu den Informationen über das Geschehen außerhalb des Fahrzeugs kommen Informationen über den Fahrer hinzu und erhöhen so die Sicherheit und gleichzeitig den Komfort des Fahrers. Über die frühzeitige Erkennung des Fahrers bereits vor dem Einsteigen ins Fahrzeug (z.B. über Gesichtserkennung mit CNNs) kann das Fahrzeug individuelle, auf den Fahrer angepasste Einstellungen vornehmen. Es können z.B. die Sitz-, die Spiegel-, die Klimaanlageneinstellungen und vieles mehr noch vor dem Einsteigen des Fahrers vorgenommen werden, sobald dieser erkannt wurde und sich dem Auto nähert. Wenn die Sensorik erkennt, dass der Fahrer sich dem Kofferraum nähert und etwas trägt, könnte dieser automatisch geöffnet werden.

Innerhalb des Fahrzeugs sorgen dann Neuronale Netze dafür, dass Kopfbewegungen, die Blickrichtung und explizit die Augen des Fahrers erkannt und getrackt werden können, um die Müdigkeit und die Aufmerksamkeit des Fahrers zu erfassen, und so die Sicherheit aller Verkehrsteilnehmer zu erhöhen.

Für die Kommunikation mit dem Fahrzeug sorgen Neuronale Netze in Form von Sprach- und / oder Gestenerkennung sowohl für ein verbessertes Nutzererlebnis als auch für zusätzliche Sicherheit, da der Fahrer sich bei qualitativ hochwertigen Lösungen in diesem Bereich besser auf den Verkehr konzentrieren kann, als bei klassischen Bedienkonzepten.

Schließlich kann durch die Sensorik im Auto und die Objekt- und Bewegungserkennung über Neuronale Netze ein sicheres Aussteigen des Fahrers am Zielort gewährleistet werden. Fahrradfahrer oder andere Fahrzeuge, die den Fahrer beim Aussteigen gefährden könnten oder selbst gefährdet wären, werden rechtzeitig erkannt und der Fahrer wird rechtzeitig gewarnt.

Hindernisse auf dem Weg zur Vollautomatisierung

Trotz der vielen Durchbrüche im Computer Vision Bereich durch Deep Learning, gibt es immer noch viele Hürden, die überwunden werden müssen auf dem Weg zu einer Künstlichen Intelligenz die Vollautomatisierung beim Fahrzeug ermöglichen kann. Neuronale Netze sind sehr problemspezifisch, begehen immer noch Fehler, die Menschen nicht passieren würden und lassen sich teilweise leicht austricksen.

Weiterhin brauchen Neuronale Netze deutlich mehr Daten als ein Mensch, um ein bestimmtes Konzept zu lernen. Die Erstellung von gelabelten Datensätzen für das Training dieser Netze ist teilweise immer noch sehr aufwändig und erschwert den Fortschritt.

ISO 26262 – das Wichtigste zur zweiten Auflage und zu SOTIF für autonomes Fahren

ISO 26262 – das Wichtigste zur zweiten Auflage und zu SOTIF für autonomes Fahren

16.07.18 - Im ISO-26262-Standard fehlen bisher Details zur Entwicklung von autonomen Fahrzeugen. Diese behandelt nun der neue Standard SOTIF (Safety of the Intended Functionality). Details zu SOTIF und Neuerungen der ISO 26262 lesen Sie hier. lesen

Wer haftet, wenn vernetzte Technik versagt?

Wer haftet, wenn vernetzte Technik versagt?

06.12.17 - Die technischen Systeme, die uns umgeben, werden von Tag zu Tag autonomer. Mit ihrer zunehmenden Vernetzung wird die Suche nach der Ursache einer Fehlleistung immer komplexer. Die Haftungsrisiken für Unternehmen und Entwickler steigen. Sie müssen identifiziert und neue rechtliche Fragestellungen geklärt werden. lesen

Literatur- und Quellenverzeichnis

[1] Stuart Russel and Peter Norvig, Artificial Intelligence – A Modern Approach, Prentice Hall, 2010

[2] https://www.deeplearningbook.org

[3] Aurélien Géron, Hands-On Machine Learning with Scikit-Learn & TensorFlow, O`Reilly, 2017

(Dieser Beitrag wurde mit freundlicher Genehmigung des Autors dem Tagungsband Embedded Software Engineering Kongress 2018 entnommen.)

* Dr. Eduard Kromer ist technischer Projektleiter für Deep Learning und Künstliche Intelligenz bei der iNTENCE automotive electronics GmbH.

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45803448 / KI)