Bei sommerlichen Temperaturen konnten wir in Berlin am eigenen Leib erfahren, welche Informationen auf die Steuereinheit eines selbstfahrenden Autos einprasseln und verarbeitet werden müssen. Zum Experiment eingeladen hat uns moovel labs, ein Forschungszweig der Daimler-Tochtergesellschaft moovel Group, die sich auf neue Konzepte für urbane Mobilität spezialisiert hat. In Portland, Oregon, und Berlin sowie Stuttgart tüfteln mehr als 200 Wissenschaftler, Entwickler und andere interdisziplinäre Spezialisten an Ideen, die eine Zukunft ohne Staus möglich machen soll.
Selfdriving lab car: Der Computer denkt, der Mensch lenkt
Das Mission Briefing war spannend: Gezeigt und erlebt werden sollte das moovel selfdriving car – ein fahrendes Labor, das Einblicke in die Verarbeitung von Sensordaten liefert und zeigt, was Sensorik erkennt, klassifiziert, und wie das Umfeld des Fahrzeugs wahrgenommen wird. Und tatsächlich: an Technik ist in dem Gefährt einiges verbaut, wie uns Raphael Reimann, selbst Geograph und einer der Projektleiter, erklärt. Gut neun Monate Entwicklungszeit haben sechs Spezialisten von moovel und Meso investiert, um das selbstfahrende Experiment möglich zu machen. Erstmals präsentiert wurde das selfdriving lab car auf der South by Southwest® (SXSW®) Conference 2018 mit dem Arbeitstitel „Who wants to be a selfdriving car“, danach noch weiter verbessert.
Was auf den ersten Blick aussieht, wie ein Krankenbett mit überdimensionalen Rädern, setzt sich dank Nabenmotoren dann doch recht sportlich in Bewegung sobald man sich traut, den Gas-Hebel am Lenkrad zu bedienen, der an die Lenkvorrichtung eines Formel-1 Wagens erinnert. Das Look and Feel ist bewusst einfach gehalten: Verbaut wurden für das Forschungsprojekt handelsübliche Komponenten wie Kinect Kamera, 3D-Stereo-Cams und auch Exoten wie LIDAR-Scanner und ein High-Performance-Computer, der unter dem Cockpit gut eine Sitzheizung ersetzt.
Die Steuerungseinheit im lab car ist dann doch der Mensch – die Entscheidungen werden auf Basis der Informationen getroffen, die Sensoren ermitteln, und per VR-Headset übertragen. Die bildgebende Technik zeigt darin ein abstrahiertes Bild der Realität und bringt die Datenströme in ein visuelles Format, beispielweise als Point Cloud. Damit dies bestmöglich funktioniert, arbeitet das System mit einer Nvidia GPU, die auch in aktuellen Fahrzeugen der Oberklasse verbaut wird. Die Software-Ebene wird dabei mit einer Unity Engine unterstützt – und in Echtzeit in der grafischen vvvv Entwicklungsumgebung manipuliert.
Gesteuert wird dann per Lenkrad. Der vormals verbaute Joystick wurde ersetzt, um die physische Handhabung zu verbessern. Und tatsächlich: Nach einigen Minuten auf dem Gefährt wird der Fahrer eins mit dem maschinellen Interface und man verlässt sich ganz auf die in der Oculus gezeigten Informationen, die ganz nüchtern und technisch mitteilen: Auto auf der Strecke erkannt mit 74 % Wahrscheinlichkeit, Mensch erkannt mit 59 % Wahrscheinlichkeit, usw.
Angst vor selbstfahrenden Autos nehmen, Empathie entwickeln und die Ethik verstehen
Einer Kelley Blue Book Studie von 2016 zufolge würden 30 Prozent der US-Amerikaner niemals ein völlig autonomes Automobil kaufen und viele nur dann auf selbstfahrende Autos umsteigen, wenn sie keine andere Wahl hätten (19 Prozent). Andere würden dies in Betracht ziehen, wenn es zur entsprechenden Lebenssituationen passen würde (37 Prozent benennen Mobilität für Senioren, 59 Prozent Situationen, die mit Alkoholkonsum einhergehen). Das interessante daran: 6 von 10 Studienteilnehmern bekennen, dass sie aber nichts oder wenig von selbstfahrenden bzw. autonomen Autos wissen.
An dieser Stelle setzt das Self-Driving-Experiment an: Ziel ist es, Akzeptanz zu schaffen und Menschen zu vermitteln, nach welchen Kriterien Computer entscheiden. Zielgruppe sind insbesondere Juristen, Politiker und Entscheidungsträger. Diese sollen so in die neue Technologie eintauchen können und in die Lage versetzt werden, das Handeln des Fahrzeugs und der darunterliegenden Technologie nachzuvollziehen. Darauf basierend können dann besser Entscheidungen im Kontext der Markteinführung autonomer Fahrzeuge vorbereitet und getroffen werden.
Wie es sich anfühlt, ein selfdriving car zu sein
So ungewohnt die ersten Momente als autonomes Fahrzeug auch sind: Innerhalb weniger Minuten ist das Gefühl, nur auf Basis der technisch aufbereiteten Daten steuern und agieren zu können, kein ungewohntes mehr. Die Orientierung fällt in der abstrahierten Darstellung leicht und das Vertrauen in die Objekterkennung wächst. Zum nächsten Schritt – dem echten selbstfahrenden Fahrzeug ist es nicht mehr weit: VR-Headset ablegen, Lenkrad an den Automatismus übergeben und die Zukunft hat begonnen.