Mensch-Maschine-Interaktion Mit Software das menschliche Verhalten leichter erforschen

Anbieter zum Thema

Das menschliche Verhalten ist nicht immer erklärbar: Mit einer speziellen 360-Grad-Software-Plattform lässt sich die Mensch-Maschine-Interaktion leichter erforschen.

Fahrzeugstudien: Die Fahrzeughersteller setzen bei der Entwicklung von Assistenzsystemen auf die Hilfe von Eye-Tracking und Scripting Languages. Damit sollen sich Mensch-Maschine-Interfaces leichter erforschen lassen.
Fahrzeugstudien: Die Fahrzeughersteller setzen bei der Entwicklung von Assistenzsystemen auf die Hilfe von Eye-Tracking und Scripting Languages. Damit sollen sich Mensch-Maschine-Interfaces leichter erforschen lassen.
(Bild: Ergoneers)

Vor allem in der Automobilbranche zeigt sich immer wieder, dass neu eingeführte Systeme nicht vom Kunden angenommen werden. Ein gutes Beispiel sind Infotainment-Ausstattungen oder bestimmte Fahrerassistenzsysteme. So führte ein großer Automobilhersteller ein sogenanntes Head-Up-Display ein, das Informationen wie Geschwindigkeit oder Drehmoment an die Innenseite der Windschutzscheibe projiziert.

Bildergalerie

Viele Kunden schalteten das System jedoch ab, weil sie mit der Projektion der Informationen nicht zurechtkamen. Oft entscheiden nur geringfügige Unterschiede in der Bedienungsführung oder im Produkt- oder Verpackungsdesign über die so genannte „User Acceptance“, also ob ein Kunde sich für das Produkt A oder das Produkt B entscheidet oder ob er generell ein System annimmt oder es ablehnt.

Optimierte Bedienung entscheidet über Erfolg

Angesichts zunehmenden Wettbewerbs unter den Herstellern können Feinheiten nahezu in jeder Branche entscheidende Folgen für den Erfolg eines Produkts haben. Bislang war es den Marketing- oder Forschungsabteilungen großer Unternehmen vorbehalten, auf Basis aufwendiger Befragungen oder ausgeklügelter Verhaltensstudien im Labor mögliche Kaufentscheidungen zu erforschen und Produkte daraufhin zu optimieren. Inzwischen gibt es Software zur Verhaltensforschung, die kleinere Studien wirtschaftlich macht, und dennoch präzise ist.

Auf die Entwicklung einer komplett integrierten Software-Plattform für die Verhaltensforschung hat sich das bayerische Unternehmen Ergoneers spezialisiert. Der Hersteller bietet verschiedene Lösungen, um auch kleinere Studien unter professionellen Bedingungen unkompliziert durchzuführen. Das Flaggschiffprodukt dabei ist D-Lab. Hierbei handelt es sich um eine Mess- und Analyse-Plattform, mit der Daten von unterschiedlichen Sensoren in Echtzeit aufgezeichnet und interpretiert werden können.

Die vernetzte Welt erfordert bessere Mensch-Maschine-Interaktionen

Internet der Dinge, Robotik, künstliche Intelligenz – die Vernetzung der Welt nimmt zu und Interaktionen müssen problemlos funktionieren. Der Mensch muss sich in immer kürzeren Abständen mit neuen Produkten und technischen Entwicklungen auseinandersetzen. Die Relevanz von Beobachtung, Messung und Analyse menschlichen Verhaltens im Zuge der Verhaltensforschung wird in den nächsten Jahren weiter zunehmen, um die Mensch-Maschine-Interaktion weiter zu prüfen und stetig verbessern zu können. Die im Beitrag vorgestellten Techniken unterstützen Hersteller, um ein bestmögliches Zusammenspiel ihrer maschinellen Anwendungen mit dem Menschen zu erreichen. Effiziente und wirtschaftliche Verhaltensstudien tragen dazu bei, richtungsweisende Anwendungen bei bestmöglicher User Acceptance und Usability zu entwickeln.

Zu D-Lab gesellt sich die Dikablis-Brille, ein Eye-Tracking-System, um Blickverhalten aufzuzeichnen. Die Erfahrung in der professionellen Erstellung von Studien zur Mensch-Maschine-Interaktion kommt nicht von ungefähr: Die Firmengründer Dr. Roland Spies, Dr. Christian Lange und Martin Wohlfarter befassten sich schon während ihres Studiums der Ingenieurswissenschaften mit der Mensch-Maschine-Interaktion. In den letzten zehn Jahren ist das Projekt, das ursprünglich an der Technischen Universität München startete, zu einem Unternehmen mit 25 Mitarbeitern herangewachsen.

Die Mensch-Maschine-Interaktion im Einsatz

Die Anwendungsbeispiele für Verhaltensmessungen sind zahlreich und reichen von Usability, Ergonomie, Fabrik-Design, Transportation, Marktforschung, Sport und Biomechanik bis hin zu Verhaltensforschung oder Bildung. Besonders gefragt im Forschungsfeld der Mensch-Maschine-Interaktion sind derzeit in der Autoindustrie die Technologien CAN-Bus-Auswertung und Head-Tracking, deren Messergebnisse nach der Auswertung Einfluss auf einige moderne Entwicklungsszenarien nehmen. Die zusätzliche, optionale Erweiterung um die Aufnahme von Video- und Audiodaten mithilfe von Kameras und Mikrofonen enthält durch Bestandteile menschlicher Interaktion wie Mimik und Gestik weitere lohnenswerte Messergebnisse.

Während Ergoneers D-Lab-Software über Sensoren Daten zum menschlichen Verhalten aufzeichnet, können gleichzeitig die Messwerte von einem CAN-Bus im Auto in eine Studie einfließen. Über den CAN-Bus gewinnt der Forscher Daten aus zahlreichen Steuergeräten des Fahrzeugs. Zusammen mit den Messdaten des Probanden wird ein umfassendes Verhaltensbild erstellt. Mit einer Eye-Tracking-Brille, bestehend aus Augen- und Blickfeldkamera, lassen sich zusätzlich Fixationen (= Augenanhaltepunkte), Sakkaden (= schnelle ballistische Bewegung beider Augen) und exakte Blickzuwendungen während der Fahrt aufzeichnen, also welche Objekte der Träger wie oft und wie lange betrachtet. So kann ein Forscher wesentliche Rückschlüsse auf das Verhalten des Fahrers in unterschiedlichen Situationen im Straßenverkehr gewinnen.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Fahrzeugstudien und Studien zur Verkehrssicherheit

Hersteller wie Audi, BMW, VW, Mercedes Benz, Ford oder General Motors beobachten schon seit Jahren das Verhalten, jedoch lassen sich viele dieser Messungen bislang nur innerhalb von Simulationsumgebungen ermitteln – und das mit entsprechend hohem Aufwand. Anschließend sind die Ergebnisse in einer simulierten Situation entstanden und nicht immer 1:1 auf die echte Welt übertragbar.

Mithilfe der Software D-Lab gelingt der Schritt vom Labor ins Feld und das bei gleichzeitig günstigen Kosten und erweiterten Studien-Designmöglichkeiten, indem mehr Parameter erfasst werden. Die Voraussetzung für wirtschaftliche Realfahrtstudien sind wiederum geeignete transportable Tools, wie das Ergoneers Vehicle Testing Kit (VTK).Einfach angeschlossen und mit einer unterbrechungsfreien und auch autark arbeitenden Stromversorgung ausgestattet, kann es alle relevanten Daten einer Realfahrt zeitsynchron aufzeichnen und für eine Analyse zur Verfügung stellen.

Dabei sind gerade die Daten, die über den CAN-Bus erfasst werden, bei Fahrzeugstudien oder Studien für die Verkehrssicherheit von höchster Relevanz. Solche Daten können Aufschluss darüber geben, wann der Fahrer wie stark gebremst hat, wie stark er das Lenkrad eingeschlagen hat, das Licht eingeschaltet hat oder das Fahrerassistenzsystem verwendet hat. Vor allem in Verbindung mit anderen Sensoren wie dem Eye-Tracking lässt sich damit im Nachhinein klären, was der Auslöser einer Bremsung war, da dieses zusätzlich das tatsächliche des Blickverhaltens des Fahrers während der Testfahrt voll zeitsynchron aufzeichnet. So werden zum Beispiel das Blickverhalten im Straßenverkehr, wie auf Straßenschilder oder Fußgänger, aber auch das Fahrerassistenzsystem innerhalb des Fahrzeuges aufgenommen.

Software unterstützt bei der Datenanalyse

Allein das Erfassen der Daten reicht nicht aus. Eine gute Software muss dabei helfen, die Auswertung zu automatisieren. Das gelingt mit zwei in D-Lab voll integrierten Tools: Die Eye-Tracking-Marker und die Scripting Language, mit denen sich Mensch-Maschine-Interfaces leichter erforschen lassen. Mithilfe der Marker-Technik kann die Auswertung von Eye-Tracking-Daten, wie beispielsweise Blickzuwendungen, auf so genannte „Area of Interests“ (AOI) vollkommen automatisch erfolgen. Die Marker sind nach einem ähnlichen Prinzip wie QR-Codes aufgebaut. Sobald ein Marker in der Eye-Tracking-Szenenkamera sichtbar ist, wird dieser in Echtzeit von D-Lab erkannt und kann zur Analyse der Daten herangezogen werden. Die AOI sind dabei Bereiche, die für das in einer Eye-Tracking-Studie analysierte Objekt von Relevanz sind.

Bei der Analyse eines Fahrzeuginnenraums wird beispielsweise ein bestimmtes Cockpit-Element als „Area of Interest“ definiert. Je nachdem wie das Studienziel gestaltet ist, kann es sich hierbei um das Armaturenbrett, die Mittelkonsole, das Navigationssystem, die Belüftung das Radio oder eine Kombination aus allen Elementen handeln. Selbstverständlich können auch mehrere dieser AOI gleichzeitig und automatisch analysiert werden. Außerdem bietet das Programm eine Funktion, mit der per Scripting Language bestimmte Ereignisse zusammengefasst und daraus ein neuer „Kanal“ erstellt wird.

Den Blick des Probanden während der Fahrt kontrollieren

Anhand der Scripting Language kann D-Lab nach bestimmten und vordefinierten Ereignissen in den aufgenommenen Daten suchen und damit Ereignisse finden, die sonst nur unter erheblichem Zeitaufwand zu finden wären. Möchte man beispielsweise bei einer Fahrzeugstudie verstehen, wie lange der Proband auf das Display des Navigationsgerätes blickt, wenn er schneller als 100 km/h fährt, Überholverbot gilt und das vorausfahrende Fahrzeug weniger als eine Sekunde entfernt ist, dann ist dies über die Scripting-Language sehr schnell umgesetzt.

Ein hochmodernes Verfahren, das komplexe menschliche Bewegungsabläufe mit Hilfe am Körper angebrachter Marker und/oder spezieller Aufnahmegeräte erfasst, ist das Motion-Capture-Verfahren. Dabei kann das System jegliche Art menschlicher Bewegung mit relativ geringem Zeitaufwand erfassen; oftmals sogar als 3-D-Drahtgitter darstellen, übertragen und analysieren. So erlaubt es die Wiedergabe von Mimik, Gestik und Bewegungsabläufen im Allgemeinen. Die Methode ist aus der Animation von Kinofilmen bekannt. Gemeinsam mit den Motion-Capturing-Partnern Vicon und Qualisys können die von einer Eye-Tracking-Brille gemessenen Blicke auch anhand eines Vektors in die jeweiligen Softwarelösungen der Partner dargestellt werden. Angewendet wird das Verfahren unter anderem an der TU München für die Maschine-Mensch-Interaktion.

Bildschirmausgaben mit Kopf und Augen steuern

Dazu verbindet man beispielsweise das Dikablis-Eye-Tracking-System des Herstellers Ergoneers mit dem Motion-Capturing-System von Qualisys (auch als Qualisys Track Manager oder kurz QTM bezeichnet). Die Augenpositionen werden mit der Eye-Tracking-Software D-Lab erfasst, über die in D-Lab vorhandene Standard-Softwareschnittstelle (Relay-Funktion in D-Lab) in Echtzeit an den Qualisys Track Manager weitergegeben und anschließend in der 3-D-Ansicht als Vektoren dargestellt.

Das lässt sich beispielsweise bei der Steuerung von Bildschirmausgaben durch Kopf- oder Augenbewegungen anwenden oder kann zur stereoskopischen Bewegungsmessung dienen, wie sie in der Fahrzeug- oder Robotertechnik zur Messung von Entfernungen und Abständen verwendet wird.

Artikelfiles und Artikellinks

(ID:44458338)