Fahrzeugstudien und Studien zur Verkehrssicherheit
Hersteller wie Audi, BMW, VW, Mercedes Benz, Ford oder General Motors beobachten schon seit Jahren das Verhalten, jedoch lassen sich viele dieser Messungen bislang nur innerhalb von Simulationsumgebungen ermitteln – und das mit entsprechend hohem Aufwand. Anschließend sind die Ergebnisse in einer simulierten Situation entstanden und nicht immer 1:1 auf die echte Welt übertragbar.
Mithilfe der Software D-Lab gelingt der Schritt vom Labor ins Feld und das bei gleichzeitig günstigen Kosten und erweiterten Studien-Designmöglichkeiten, indem mehr Parameter erfasst werden. Die Voraussetzung für wirtschaftliche Realfahrtstudien sind wiederum geeignete transportable Tools, wie das Ergoneers Vehicle Testing Kit (VTK).Einfach angeschlossen und mit einer unterbrechungsfreien und auch autark arbeitenden Stromversorgung ausgestattet, kann es alle relevanten Daten einer Realfahrt zeitsynchron aufzeichnen und für eine Analyse zur Verfügung stellen.
Bildergalerie
Dabei sind gerade die Daten, die über den CAN-Bus erfasst werden, bei Fahrzeugstudien oder Studien für die Verkehrssicherheit von höchster Relevanz. Solche Daten können Aufschluss darüber geben, wann der Fahrer wie stark gebremst hat, wie stark er das Lenkrad eingeschlagen hat, das Licht eingeschaltet hat oder das Fahrerassistenzsystem verwendet hat. Vor allem in Verbindung mit anderen Sensoren wie dem Eye-Tracking lässt sich damit im Nachhinein klären, was der Auslöser einer Bremsung war, da dieses zusätzlich das tatsächliche des Blickverhaltens des Fahrers während der Testfahrt voll zeitsynchron aufzeichnet. So werden zum Beispiel das Blickverhalten im Straßenverkehr, wie auf Straßenschilder oder Fußgänger, aber auch das Fahrerassistenzsystem innerhalb des Fahrzeuges aufgenommen.
Software unterstützt bei der Datenanalyse
Allein das Erfassen der Daten reicht nicht aus. Eine gute Software muss dabei helfen, die Auswertung zu automatisieren. Das gelingt mit zwei in D-Lab voll integrierten Tools: Die Eye-Tracking-Marker und die Scripting Language, mit denen sich Mensch-Maschine-Interfaces leichter erforschen lassen. Mithilfe der Marker-Technik kann die Auswertung von Eye-Tracking-Daten, wie beispielsweise Blickzuwendungen, auf so genannte „Area of Interests“ (AOI) vollkommen automatisch erfolgen. Die Marker sind nach einem ähnlichen Prinzip wie QR-Codes aufgebaut. Sobald ein Marker in der Eye-Tracking-Szenenkamera sichtbar ist, wird dieser in Echtzeit von D-Lab erkannt und kann zur Analyse der Daten herangezogen werden. Die AOI sind dabei Bereiche, die für das in einer Eye-Tracking-Studie analysierte Objekt von Relevanz sind.
Bei der Analyse eines Fahrzeuginnenraums wird beispielsweise ein bestimmtes Cockpit-Element als „Area of Interest“ definiert. Je nachdem wie das Studienziel gestaltet ist, kann es sich hierbei um das Armaturenbrett, die Mittelkonsole, das Navigationssystem, die Belüftung das Radio oder eine Kombination aus allen Elementen handeln. Selbstverständlich können auch mehrere dieser AOI gleichzeitig und automatisch analysiert werden. Außerdem bietet das Programm eine Funktion, mit der per Scripting Language bestimmte Ereignisse zusammengefasst und daraus ein neuer „Kanal“ erstellt wird.
Den Blick des Probanden während der Fahrt kontrollieren
Anhand der Scripting Language kann D-Lab nach bestimmten und vordefinierten Ereignissen in den aufgenommenen Daten suchen und damit Ereignisse finden, die sonst nur unter erheblichem Zeitaufwand zu finden wären. Möchte man beispielsweise bei einer Fahrzeugstudie verstehen, wie lange der Proband auf das Display des Navigationsgerätes blickt, wenn er schneller als 100 km/h fährt, Überholverbot gilt und das vorausfahrende Fahrzeug weniger als eine Sekunde entfernt ist, dann ist dies über die Scripting-Language sehr schnell umgesetzt.
Ein hochmodernes Verfahren, das komplexe menschliche Bewegungsabläufe mit Hilfe am Körper angebrachter Marker und/oder spezieller Aufnahmegeräte erfasst, ist das Motion-Capture-Verfahren. Dabei kann das System jegliche Art menschlicher Bewegung mit relativ geringem Zeitaufwand erfassen; oftmals sogar als 3-D-Drahtgitter darstellen, übertragen und analysieren. So erlaubt es die Wiedergabe von Mimik, Gestik und Bewegungsabläufen im Allgemeinen. Die Methode ist aus der Animation von Kinofilmen bekannt. Gemeinsam mit den Motion-Capturing-Partnern Vicon und Qualisys können die von einer Eye-Tracking-Brille gemessenen Blicke auch anhand eines Vektors in die jeweiligen Softwarelösungen der Partner dargestellt werden. Angewendet wird das Verfahren unter anderem an der TU München für die Maschine-Mensch-Interaktion.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7-9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Bildschirmausgaben mit Kopf und Augen steuern
Dazu verbindet man beispielsweise das Dikablis-Eye-Tracking-System des Herstellers Ergoneers mit dem Motion-Capturing-System von Qualisys (auch als Qualisys Track Manager oder kurz QTM bezeichnet). Die Augenpositionen werden mit der Eye-Tracking-Software D-Lab erfasst, über die in D-Lab vorhandene Standard-Softwareschnittstelle (Relay-Funktion in D-Lab) in Echtzeit an den Qualisys Track Manager weitergegeben und anschließend in der 3-D-Ansicht als Vektoren dargestellt.
Das lässt sich beispielsweise bei der Steuerung von Bildschirmausgaben durch Kopf- oder Augenbewegungen anwenden oder kann zur stereoskopischen Bewegungsmessung dienen, wie sie in der Fahrzeug- oder Robotertechnik zur Messung von Entfernungen und Abständen verwendet wird.