"Who Wants to Be a Self-Driving Car". Neues Projekt von moovel lab

Die Welt durch die Augen eines autonom fahrenden Fahrzeugs sehen - das macht das neue moovel lab Projekt "Who Wants to Be a Self-Driving Car" möglich. Verschiedenste Informationen aus einer 3D-Tiefen Kamera, LIDAR Scanner und Sensoren, die auf einem unkonventionellen Fahrzeug angebracht sind, werden gebündelt und in einer Virtual Reality Brille visualisiert. Getestet werden kann das Projekt auf der Push UX Konferenz München und dem KiKK Festival in Belgien.

Wie werden autonom fahrende Fahrzeuge unsere Mobilität verändern? Wie nehmen autonome Fahrzeuge ihre Umwelt wahr? Wie stellen sich andere Verkehrsteilnehmer in Form von Fahrzeugen, Fahrradfahrer und Fußgänger dar? Und anhand welcher Informationen bewegt sich das Fahrzeug im Verkehrsgeschehen? Eine Annäherung an diese Fragen ermöglicht ein eigens aufgebautes, unkonventionelles Fahrzeug, welches das moovel lab Team mit Sensoren und Kameras ausgestattet hat. Das Fahrzeug wird mit Hilfe eines VR-Headset gesteuert, das durch dreidimensionales Mapping und Objekterkennung den Fahrer dabei unterstützt, zu navigieren. Der Mensch nimmt sozusagen die Rolle des selbstfahrenden Autos ein.

Das Projekt soll als Plattform für all jene dienen, die ihre Eindrücke, Gefühle und Gedanken zu dem Zukunftsthema autonomes Fahren erleben und teilen möchten. Durch das eigene Erleben möchten wir die Komplexität dieser Thematik reduzieren, Empathie für die Technologie schaffen und zu einem Diskurs über die Zukunft der Mobilität anregen.

Joey Lee (moovel lab), verantwortlich für das Projekt

Über VR-Headset wird der Fahrer mit den Daten versorgt, um das Fahrzeug zu steuern

Bei diesem Prototyp wird der menschliche Sehsinn durch Sensoren ersetzt, die auch in selbstfahrenden Fahrzeugen zum Einsatz kommen könnten. Es handelt sich um ein nicht-autonomes Fahrzeug, in welchem der Computer - als Entscheidungsträger und Steuerungseinheit - durch den Menschen ersetzt wird. Das Fahrzeug besteht aus einer Plattform mit elektrischen Radnabenmotoren und Sensoren. Zum Lenken, Beschleunigen und Anhalten des Fahrzeugs wird ein Steuergerät verwendet. Der Fahrer legt sich mit dem Kopf nach vorne ausgerichtet auf das Fahrzeug. Diese Liegeposition samt VR-Brille verstärkt das Gefühl der Immersion und erlaubt völliges Eintauchen während der Fortbewegung.

Zwei Arten von Sensoren ermöglichen das VR-Erlebnis: In der Hauptansicht werden die Daten einer 3D-Tiefen-Kamera präsentiert, um die Landschaft in Echtzeit abzubilden. Die Bildinformation der 3D-Kamera wird durch eine automatisierte Objekterkennung der Fahrzeugumgebung ergänzt. Dies gibt dem Fahrer Informationen darüber, welche Objekte vom Computer erkannt werden. Zweitens sorgt ein LIDAR-Sensor (Light Detection and Ranging) für eine zusätzliche Ebene der Abstandsmessung, indem der Sensor Lichtimpulse in Richtung nahe gelegener Objekte aussendet und daraus deren Distanz ermittelt. Diese Komponenten werden im VR-Headset zusammengeführt, und versorgen den Fahrer mit nötigen Daten, um das Fahrzeug zu steuern.

Das moovel lab stellt das Projekt im Oktober und November 2017 auf zwei Konferenzen vor: Auf der "Push UX" Konferenz am 20. und 21. Oktober in München und auf dem "KiKK" Festival vom 2. bis 4. November im belgischen Namur.

Verwendung von Cookies

Um die Webseite optimal gestalten und fortlaufend verbessern zu können, verwendet Daimler Cookies. Durch die weitere Nutzung der Webseite stimmen Sie der Verwendung von Cookies zu.