Autonomes Fahren – was ist das überhaupt?

Das Shuttle fährt wie auf Schienen

Das Projekt Hambach-Shuttle setzt auf selbstfahrende Elektroshuttles. Wie weit die Technik zum autonomen Fahren ist, und wie das überhaupt funktioniert, ist in diesem Beitrag das Thema.

Was heißt „autonomes Fahren“?

Autonomes Fahren bedeutet erst einmal nur, dass das Fahrzeug sich selbständig bewegt. Entscheidungen, die normalerweise ein Fahrer trifft, werden durch den Bordcomputer (oder einen Computer in einem Leitstand) getroffen. Diese Entscheidungen reichen von der bloßen Bedienung des technischen Geräts, zum Beispiel Gas geben, bremsen und lenken entlang eines bestimmten Fahrwegs, bis hin zur Auswahl dieses Fahrwegs. Bereits jetzt sind viele Autofahrer mit kleinen Bausteinen der Automatisierung des Autofahrens vertraut. Heutige Autos verfügen nämlich nicht nur über Sensoren, die beim Einparken vor dem Aufprall auf Hindernisse warnen, sondern oft auch über Einpark-Assistenten, die unter Zuhilfenahme dieser Sensoren den gesamten Vorgang selbständig durchführen.

Wo steht die Technik heute?

Diese Beispiele aus unserem gegenwärtigen Alltag zeigen, dass der Weg zum autonomen Fahren ein kontinuierlicher Prozess ist, und dass bis zu seinem Abschluss noch viel Entwicklung notwendig ist. Die autonomen Shuttlefahrzeuge, wie sie im Projekt zum Einsatz kommen werden, wurden jedoch, im Gegensatz zu konventionellen Fahrzeugen, von vornherein für das Ziel des autonomen Fahrens entwickelt. Das heißt, dass neben der direkt integrierten Sensorik das Lenk- und Fahrsystem elektronisch angesteuert wird. Softwaretechnisch basieren die aktuellen Modelle überwiegend auf dem Prinzip einer festen virtuellen Schiene. Das heißt, dass die Fahrt entlang einer fest vorgegebenen Fahrstrecke stattfindet. Diese Einschränkung wird dann im Entwicklungsprozess schrittweise aufgehoben, in dem bspw. das selbstätige Umfahren parkender Autos entwickelt wird, oder ein dynamischer Wechsel zwischen verschiedenen Fahrwegen ermöglicht wird.

Wie funktioniert das?

Damit ein autonomes Fahrzeug entlang einer festen Schiene fahren kann, muss es sich im Raum orientieren können. Das heißt, es muss wissen, wo auf der Landkarte und wo auf der virtuellen Schiene es sich befindet. Dabei ist das aus unseren Navigationsgeräten im PKW bekannte GPS alleine nicht ausreichend: Einerseits reicht die Genauigkeit unter Umständen nicht aus (hier wird durch sogenannte RTK-Korrekturdaten Abhilfe geschaffen), andererseits bedarf es einer Rückfallebene, falls das GPS-Signal eines oder mehrerer Satelliten abbricht.

Dies kann beispielsweise im Wald durch das Blätterdach oder durch hohe Häuserfassaden passieren. Daher werden die GPS-Daten mit anderen Möglichkeiten der räumlichen Orientierung zu einem Gesamtbild verknüpft. Ähnlich wie Menschen sich mit ihren Augen orientieren können, indem sie die Landschaft und Gebäude um sich herum mit den Einzeichnungen auf einer Landkarte vergleichen, kann ein autonomes Fahrzeug sich durch LIDAR (ein Laser-basiertes Verfahren, das ähnlich wie Radar funktioniert) oder durch Kameras orientieren, indem es die Angaben der Sensoren mit den im Vorfeld gemessenen Kartendaten vergleicht.

 

Aus all diesen Daten versucht die Fahrzeugsoftware, den eigenen Standort präzise zu ermitteln. Sofern keine Hindernisse erkannt werden, fährt es dann mit der vorgegebenen Geschwindigkeit entlang der festen Schiene. Gelingt die Standortbestimmung nicht, kann das Fahrzeug nicht autonom fahren und der Sicherheitsfahrer muss übernehmen.

Während der Fahrt muss das Fahrzeug ständig die Umgebung und den Verkehr beobachten – wie ein menschlicher Fahrer auch. Werden Hindernisse oder andere Verkehrsteilnehmer erkannt, muss das Fahrzeug so agieren, dass weder die eigenen Fahrgäste, noch die anderen Verkehrsteilnehmer gefährdet werden. Neben dem bereits erwähnten LIDAR können hier auch zusätzliche Kameras und Radar zum Einsatz kommen. Die Schwierigkeit für die Software besteht weniger darin, Hindernisse zu erkennen und ggf. zu bremsen, sondern, die Objekte angemessen zu klassifizieren.

Menschliche Autofahrer können eine Mülltonne problemlos von einem Fußgänger unterscheiden. Das ermöglicht es ihnen, dessen Verhalten einzuschätzen und dann adäquat zu reagieren. Einer Software muss dies dagegen erst „beigebracht“ werden. Dies ist ein langwieriger Prozess, da die Software einerseits sehr zuverlässig und sicher arbeiten muss, menschliches Verhalten andererseits aber auch noch sehr komplex ist. Im Zweifel wird ein autonomes Shuttle daher eher einmal zu viel bremsen.