Anbieter zum Thema
Fahrzeugstudien und Studien zur Verkehrssicherheit
Hersteller wie Audi, BMW, VW, Mercedes Benz, Ford oder General Motors beobachten schon seit Jahren das Verhalten, jedoch lassen sich viele dieser Messungen bislang nur innerhalb von Simulationsumgebungen ermitteln – und das mit entsprechend hohem Aufwand. Anschließend sind die Ergebnisse in einer simulierten Situation entstanden und nicht immer 1:1 auf die echte Welt übertragbar.
Mithilfe der Software D-Lab gelingt der Schritt vom Labor ins Feld und das bei gleichzeitig günstigen Kosten und erweiterten Studien-Designmöglichkeiten, indem mehr Parameter erfasst werden. Die Voraussetzung für wirtschaftliche Realfahrtstudien sind wiederum geeignete transportable Tools, wie das Ergoneers Vehicle Testing Kit (VTK).Einfach angeschlossen und mit einer unterbrechungsfreien und auch autark arbeitenden Stromversorgung ausgestattet, kann es alle relevanten Daten einer Realfahrt zeitsynchron aufzeichnen und für eine Analyse zur Verfügung stellen.
Dabei sind gerade die Daten, die über den CAN-Bus erfasst werden, bei Fahrzeugstudien oder Studien für die Verkehrssicherheit von höchster Relevanz. Solche Daten können Aufschluss darüber geben, wann der Fahrer wie stark gebremst hat, wie stark er das Lenkrad eingeschlagen hat, das Licht eingeschaltet hat oder das Fahrerassistenzsystem verwendet hat. Vor allem in Verbindung mit anderen Sensoren wie dem Eye-Tracking lässt sich damit im Nachhinein klären, was der Auslöser einer Bremsung war, da dieses zusätzlich das tatsächliche des Blickverhaltens des Fahrers während der Testfahrt voll zeitsynchron aufzeichnet. So werden zum Beispiel das Blickverhalten im Straßenverkehr, wie auf Straßenschilder oder Fußgänger, aber auch das Fahrerassistenzsystem innerhalb des Fahrzeuges aufgenommen.
Software unterstützt bei der Datenanalyse
Allein das Erfassen der Daten reicht nicht aus. Eine gute Software muss dabei helfen, die Auswertung zu automatisieren. Das gelingt mit zwei in D-Lab voll integrierten Tools: Die Eye-Tracking-Marker und die Scripting Language, mit denen sich Mensch-Maschine-Interfaces leichter erforschen lassen. Mithilfe der Marker-Technik kann die Auswertung von Eye-Tracking-Daten, wie beispielsweise Blickzuwendungen, auf so genannte „Area of Interests“ (AOI) vollkommen automatisch erfolgen. Die Marker sind nach einem ähnlichen Prinzip wie QR-Codes aufgebaut. Sobald ein Marker in der Eye-Tracking-Szenenkamera sichtbar ist, wird dieser in Echtzeit von D-Lab erkannt und kann zur Analyse der Daten herangezogen werden. Die AOI sind dabei Bereiche, die für das in einer Eye-Tracking-Studie analysierte Objekt von Relevanz sind.
Bei der Analyse eines Fahrzeuginnenraums wird beispielsweise ein bestimmtes Cockpit-Element als „Area of Interest“ definiert. Je nachdem wie das Studienziel gestaltet ist, kann es sich hierbei um das Armaturenbrett, die Mittelkonsole, das Navigationssystem, die Belüftung das Radio oder eine Kombination aus allen Elementen handeln. Selbstverständlich können auch mehrere dieser AOI gleichzeitig und automatisch analysiert werden. Außerdem bietet das Programm eine Funktion, mit der per Scripting Language bestimmte Ereignisse zusammengefasst und daraus ein neuer „Kanal“ erstellt wird.
Den Blick des Probanden während der Fahrt kontrollieren
Anhand der Scripting Language kann D-Lab nach bestimmten und vordefinierten Ereignissen in den aufgenommenen Daten suchen und damit Ereignisse finden, die sonst nur unter erheblichem Zeitaufwand zu finden wären. Möchte man beispielsweise bei einer Fahrzeugstudie verstehen, wie lange der Proband auf das Display des Navigationsgerätes blickt, wenn er schneller als 100 km/h fährt, Überholverbot gilt und das vorausfahrende Fahrzeug weniger als eine Sekunde entfernt ist, dann ist dies über die Scripting-Language sehr schnell umgesetzt.
Ein hochmodernes Verfahren, das komplexe menschliche Bewegungsabläufe mit Hilfe am Körper angebrachter Marker und/oder spezieller Aufnahmegeräte erfasst, ist das Motion-Capture-Verfahren. Dabei kann das System jegliche Art menschlicher Bewegung mit relativ geringem Zeitaufwand erfassen; oftmals sogar als 3-D-Drahtgitter darstellen, übertragen und analysieren. So erlaubt es die Wiedergabe von Mimik, Gestik und Bewegungsabläufen im Allgemeinen. Die Methode ist aus der Animation von Kinofilmen bekannt. Gemeinsam mit den Motion-Capturing-Partnern Vicon und Qualisys können die von einer Eye-Tracking-Brille gemessenen Blicke auch anhand eines Vektors in die jeweiligen Softwarelösungen der Partner dargestellt werden. Angewendet wird das Verfahren unter anderem an der TU München für die Maschine-Mensch-Interaktion.
Bildschirmausgaben mit Kopf und Augen steuern
Dazu verbindet man beispielsweise das Dikablis-Eye-Tracking-System des Herstellers Ergoneers mit dem Motion-Capturing-System von Qualisys (auch als Qualisys Track Manager oder kurz QTM bezeichnet). Die Augenpositionen werden mit der Eye-Tracking-Software D-Lab erfasst, über die in D-Lab vorhandene Standard-Softwareschnittstelle (Relay-Funktion in D-Lab) in Echtzeit an den Qualisys Track Manager weitergegeben und anschließend in der 3-D-Ansicht als Vektoren dargestellt.
Das lässt sich beispielsweise bei der Steuerung von Bildschirmausgaben durch Kopf- oder Augenbewegungen anwenden oder kann zur stereoskopischen Bewegungsmessung dienen, wie sie in der Fahrzeug- oder Robotertechnik zur Messung von Entfernungen und Abständen verwendet wird.
Artikelfiles und Artikellinks
(ID:44458338)