Technik lernt Gefühl

Auf dem Weg zur intuitiven Mobilität: Im Fraunhofer NeuroLab arbeiten Wissenschaftler an emotionssensitiven Gehirn-Computer-Schnittstellen.

Der vorausfahrende Lkw ist ganz schön langsam. Also besser schon mal den Blinker setzen. Geschmeidig leitet der Überholassistent den Spurwechsel ein. Die Live-Emotionserkennung meldet: Der Fahrer ist entspannt, Tempo angenehm, Ausscherwinkel passt. Die emotionale Situation ist bestens – und die Technik sorgt dafür, dass dies bis zum Ende der Fahrt so bleibt.

So intuitiv läuft die Interaktion mit technischen Geräten bislang nicht ab. Eher sind es wir Nutzer, die sich auf die Funktionsweise einer Maschine einstellen müssen. Das könnte sich allerdings bald ändern. Denn dank Neurotechnologien öffnet sich der Kommunikationskanal zwischen menschlichem Gehirn und Computertechnik in beide Richtungen. Und diese beiden Forscher ebnen die Wege: Kathrin Pollmann und Mathias Vukelić sind Experten für Mensch-Technik-Interaktion am Fraunhofer-Institut für Arbeitswirtschaft und Organisation (IAO). Ihr Ziel: Technik, die unsere Wünsche erfüllt, noch bevor wir sie geäußert haben.

Das Ziel der Forschungen im NeuroLab: Technik, die sich gut anfühlt
Kathrin Pollmann, User Experience Researcherin am Fraunhofer IAO

„Neurotechnologien können zwar bereits mentale und emotionale Zustände des Nutzers erfassen“, erklärt Kathrin Pollmann. „Doch selbst die intelligentesten Systeme sind noch nicht in der Lage, angemessen zu reagieren.“ Gerade haben sie und Mathias Vukelić auf dem Weg zu einer echten Mensch-Technik-Interaktion eine weitere Tür geöffnet. Im Projekt EMOIO entwickelten sie gemeinsam mit Forschungspartnern eine Gehirn-Computer-Schnittstelle zur Emotionserkennung.

Zurzeit fokussiert sich das vom Bundesministerium für Bildung und Forschung finanzierte Projekt auf Fahrerassistenzsysteme. Ein besonders spannender Bereich für die Forscher, denn die Sensortechnik in Automobilen übernimmt bereits viele Aufgaben für den Menschen. Bald könnte sie sich ganz gezielt an die individuellen Bedürfnisse eines Nutzers anpassen. Technik mit Gefühl – für das Gefühl.

Mit dem Richtmikro ins Gehirn

Der Arbeitsplatz von Kathrin Pollmann und Mathias Vukelić ist das NeuroLab des Fraunhofer IAO. Es ist ein neurowissenschaftliches Testlabor, das auf den ersten Blick aussieht wie eine Elektronikwerkstatt. Auf der einen Seite Tische mit Computern, auf der anderen gläserne Köpfe, die mit Sensoren gespickte Hauben tragen. Dazu sehr viele Kabel. Das wichtigste Instrument bei einer Versuchseinheit ist die Elektroenzephalografie (EEG), mit der die Forscher die menschlichen Gehirnströme messen. Und die verändern sich, je nachdem, was wir denken oder uns vorstellen.

Um die Gehirnströme zu erfassen, setzen die Versuchsleiter jedem Probanden eine Elektrodenhaube auf, bevor dieser am Computer einfache Aufgaben zu lösen hat. Die Sensoren übertragen seine Hirnsignale an einen Verstärker und danach an einen Rechner, der sie in wellenförmige Linien umformt. Wie aber filtert man positive oder negative Emotionen aus dem elektrischen Impulssturm von mehr als 100 Milliarden Nervenzellen heraus? Welches Signal bedeutet was?

Dr. Mathias Vukelić, Neuro- und Verhaltenswissenschaftler

Fanclub der Emotion

„Stellen Sie sich vor, Sie wollen den Fangesang in einem Fußballstadion aufnehmen. Mit einem Mikrofon auf dem Spielfeld hören Sie ein Gewirr aus zehntausenden Stimmen. Gehen Sie mit dem Mikro nahe an einen Fanblock, können Sie verstehen, was genau gesungen wird – vorausgesetzt, der Gesang ist einstimmig“, erklärt Mathias Vukelić. Ähnlich misst ein EEG-Sensor die einheitliche Aktivität von mehreren tausend Nervenzellverbünden, die kurzzeitig eine Art Fanclub einer Emotion bilden. Zu erkennen ist diese Aktivität dann als Potenzialveränderung an der Kopfoberfläche.

Das EEG hat den Vorteil, diese Veränderung in nur Millisekunden zu erfassen. Ergänzend ermittelt die funktionale Nahinfrarotspektroskopie (fNIRS) den Sauerstoffgehalt des Blutes und zeigt damit den Ort der Aktivität im Gehirn an. Mit dieser Kombination lassen sich Emotionen zuverlässig ableiten, interpretieren und klassifizieren.

Zum Beispiel Frustration: Ein Proband wird von der Versuchstechnik am Erfüllen einer Aufgabe am Computer gehindert. Er ärgert sich. Für die Forscher ist das ein interessanter Moment. Wie sieht Frustration in den Gehirnströmen aus? Welches neurologische Muster webt eine negative Emotion? Später soll ein Algorithmus auf ein Depot mit positiv und negativ klassifizierten Mustern zurückgreifen und technische Reaktionen ansteuern. Beim Fahrzeug könnten dann Müdigkeit und Anspannung des Fahrers etwa Tempodrosselung oder Abstandsvergrößerung bewirken.

Gefällt mir

Ein erstes praktisches Tool gibt es bereits. Im Rahmen des EMOIO-Projektes hat das Team eine Gehirn-Computer-Schnittstelle (Brain-Computer-Interface) entwickelt. Die Anwendung funktioniert ähnlich wie die Versuchseinheiten im NeuroLab, nur schneller: EEG und NIRS erfassen die Hirnaktivität. In Echtzeit analysiert ein Algorithmus die Reaktion, gleicht sie mit zuvor aufgezeichneten Positiv/Negativ-Signalen ab. Dann folgt die Klassifikation in „gefällt“ oder „gefällt nicht“. Das alles geschieht in Echtzeit. Eine mobile App zeigt dem Nutzer die Emotion live an, visualisiert als Emoticon und als Liniendiagramm.

Ein großer Schritt hin zu einer echten, praktisch anwendbaren Mensch-Technik-Interaktion.

Dr. Mathias Vukelić, Neuro- und Verhaltenswissenschaftler

Was für den Laien ziemlich simpel wirkt, sieht Mathias Vukelić als großen Schritt hin zu einer echten, praktisch anwendbaren Mensch-Technik-Interaktion – und zur intuitiven Mobilität. Denn der noch recht grob unterscheidende Prototyp ist erst der Anfang. Mit diesem Wissen lassen sich selbstlernende Systeme im Bereich Mobilität und Arbeit entwickeln, die sich individuell an den Nutzer anpassen.

Ein Assistenzsystem könnte allein auf Basis von neurophysiologischen Daten erkennen, was gut für den Fahrer ist

Ein Assistenzsystem im Auto wäre dann vielleicht in der Lage, allein auf Basis von neurophysiologischen Daten zu erkennen, was gut für den Fahrer ist. Bei Ablehnung trifft das System automatisch eine andere Entscheidung, die es zuvor von dem neurologischen Muster gelernt hat. Datensicherheit vorausgesetzt, entsteht eine individuelle, direkte Beziehung zwischen Mensch und Technik. Wichtig dabei ist: Das System macht nichts, was der Fahrer ihm nicht antrainiert hat.

Neben den Emotionen ist für die Fraunhofer-Forscher auch die Messung der Konzentration eines Fahrers interessant, damit dieser beim autonomen Fahren jederzeit eingreifen kann, wenn er es denn muss. Konstantes Monitoring der mentalen Belastung und auf das Befinden des Fahrers abgestimmtes „Aufwecken“ oder Aktivieren wären wichtige Sicherheitsfeatures.

Wearable misst Hirnaktivität

Die Entwicklungssprünge in der Mensch-Roboter-Kollaboration und beim autonomen Fahren drängen nach neuen Lösungen, da müsse man mutig sein, findet Kathrin Pollmann. „Manch aufwendige Versuche bleiben am Ende in den Labors stecken. Wir untersuchen dagegen in anwendungsorientierten Szenarien, was mobile Methoden wie EEG und fNIRS leisten und wo wir sie sinnvoll einsetzen können.“ Etwas immobil mutet noch die Ausstattung an, schließlich möchte man ja nicht mit einer EEG-Haube im Auto sitzen. Aber hier wird die Materialforschung in Zukunft große Sprünge machen, glaubt Mathias Vukelić, der sich auch per 3-D-Druck hergestellte kopfgetragene Einheiten vorstellen kann.

Die Ahnengalerie der wissenschaftlichen Badehauben im NeuroLab zeigt: Dicke und Größe der Sensoren haben sich bereits reduziert. Die ersten Exponate waren noch riesige Ringelektroden, bei denen man viel Gel einsetzen musste, um Kontakt zwischen Sensoren und Kopfhaut herzustellen. Mittlerweile verwendet das Team meistens Hauben mit wesentlich kleineren EEG-Sensoren, die entweder weniger oder auch gar kein Gel benötigen. Elegante Zukunftslösungen sind Stirnbänder oder Fitness-Armbänder, die schon heute niemandem mehr auffallen würden.

Frei entscheiden zu können – das ist für den Menschen sehr wichtig.

Kathrin Pollmann, User Experience Researcherin am Fraunhofer IAO

Wann fühlen sich Mensch-Technik-Systeme gut an? Kathrin Pollmann wünscht sich Mensch-Technik-Systeme, die Mehrwert bringen, benutzerfreundlich sind und Spaß machen. Mit Blick auf das autonome Fahren und intuitive Mobilität steht die Transparenz der Vorgänge ganz oben. „Der Nutzer braucht das Gefühl von Kontrolle, diese Erfahrung machen wir bei allen Projekten. Es soll ihm obliegen, ob das Auto etwas macht oder ob er es macht. Im Großen und Ganzen noch frei entscheiden können – das ist für den Menschen sehr wichtig.“

Glossar

Eine Reihe von Anweisungen zur Lösung eines Problems oder einer Aufgabe. Algorithmen bestehen aus endlich vielen definierten Einzelschritten. Damit können sie zur Ausführung in einem Computerprogramm implementiert werden.

Methode zur Untersuchung der elektrischen Aktivität des Gehirns. Dabei werden elektrische Spannungsschwankungen auf der Kopfoberfläche millisekundengenau erfasst. Dadurch lassen sich Rückschlüsse auf zugrunde liegende Wahrnehmungs- und Denkprozesse ziehen.

Vom Bundesministerium für Bildung und Forschung gefördertes Projekt zur Entwicklung emotionssensitiver Assistenzsysteme, die sich der Gefühlslage und den individuellen Bedürfnissen der Nutzer anpassen.

Am Fraunhofer-Institut für Arbeitswirtschaft und Organisation in Stuttgart forschen Wissenschaftlerinnen und Wissenschaftler zu Fragen der Arbeit und des Lebens der Zukunft und bringen ihre Erkenntnisse ergebnisorientiert zur Anwendung.

Nicht-invasives bildgebendes Verfahren zur Untersuchung der Arbeitsweise des Gehirns. Mittels Leuchtdioden wird Infrarotlicht in das Gewebe unter der Kopfoberfläche geleitet und dessen Reflexion durch Sensoren gemessen. Es lassen sich Veränderungen des Sauerstoffverbrauchs in den Hirnarealen erfassen und somit Rückschlüsse auf die Aktivität dieser Areale ziehen.

Eine Gehirn-Computer-Schnittstelle (englisch auch Brain-Computer-Interface, BCI) übersetzt die Hirnaktivität eines Menschen in Befehle an ein technisches Gerät.

Erforscht das Design und die Verwendung von Computer-Technologie an der Schnittstelle zwischen Menschen und Computern. Dabei werden neben Erkenntnissen aus der Informatik auch solche aus der Psychologie, der Arbeitswissenschaft, der Kognitionswissenschaft, der Ergonomie, der Soziologie und dem Design herangezogen. Häufig auch Human-Computer-Interaction, kurz HCI, genannt.

Das Labor für Neuroarbeitswissenschaft (NeuroLab) ist eine Testumgebung für Fragen der Neuroarbeitswissenschaft am Fraunhofer-Institut für Arbeitswirtschaft und Organisation in Stuttgart. Das NeuroLab erforscht, was im Gehirn passiert, wenn Menschen technische Geräte benutzen.

Auf einen Blick

  • Fraunhofer NeuroLab
  • Kathrin Pollmann
  • Dr. Mathias Vukelić

Mit dem NeuroLab eröffnete das Fraunhofer Institut für Arbeitswirtschaft und Organisation in Stuttgart 2015 eine Testumgebung für Fragen der Neuroarbeitswissenschaft. Forscherinnen und Forscher wenden dort neurowissenschaftliche Erkenntnisse auf Fragen der menschengerechten Arbeitsgestaltung an. Im Fokus stehen Assistenzsysteme im Fahrzeug, in der Mensch-Roboter-Kollaboration sowie in der Wissensarbeit.

ist User Experience Researcherin am Fraunhofer IAO, untersucht Emotionen und psychologische Phänomene in der Mensch-Technik-Interaktion, um positive Erlebnisse mit technischen Produkten zu fördern und eine menschengerechte Digitalisierung zu ermöglichen.

ist promovierter Neuro- und Verhaltenswissenschaftler und forscht am Institut im Bereich der Neuroarbeitswissenschaft. Seine wissenschaftliche Neugier und Leidenschaft widmet er der Erforschung und Identifikation von Aktivierungsmustern des Gehirns, die kognitiven sowie emotionalen Zuständen der Techniknutzung beim Menschen zugrunde liegen. Ein weiterer Arbeitsbereich ist die Entwicklung innovativer Gehirn-Computer-Schnittstellen.

Wir verwenden Cookies

Damit wollen wir unsere Webseiten nutzerfreundlicher gestalten und fortlaufend verbessern. Wenn Sie die Webseiten weiter nutzen, stimmen Sie dadurch der Verwendung von Cookies zu.