Serie City-Mobilität: Fahrlässige Tötung per RoboTaxi?
In Science-Fiction-Filmen ist diese Szene selbstverständlich. Der Held ruft mittels App ein RoboTaxi, und wenig später gleitet eine führerlose Fahrkabine heran. Wann wird diese Vision Wirklichkeit? Manche Experten behaupten in gut 20 Jahren, IsarFunk behauptet: in der Stadt nicht vor nicht vor 2045, und wenn dann nur teilweise.
Weshalb wir erhebliche Zweifel haben, sieht man am Beispiel der Untersuchung gegen Uber in den USA. Typisch für diese Firma: es werden neue Technologien eingesetzt, bevor sie wirklich erprobt sind – die erste Unfalltote durch ein autonomes Auto von Uber im Mai 2018 ist der traurige Beleg dafür. Die Tageszeitung Die Welt berichtet über die Auswertung des Fahrprotokolls des autonomen Fahrzeugs. Der Abschlussbericht der US-Behörde National Transportation Saftey Board (NTSB) zeigt die schwerwiegenden Fehler auf, welche die Software zu Dutzenden machte. Die Tageszeitung spricht von einem untauglichen Testauto, und Uber habe offenbar grob fahrlässig den Tod der Frau verursacht. Abgesehen vom Verhalten der Firma Uber, wirft dieser Untersuchungsbericht ein bezeichnendes Bild auf den Stand des autonomen Fahrens. Die Frau, die als Fußgängerin ihr Fahrrad schob, wurde letztlich überfahren, weil das System sie nicht als Fußgängerin identifiziert hat. Der Witz: das System konnte nur Fußgänger identifizieren, die sich auf einem Fußgängerstreifen befinden!
Die Auswertung der Sensordaten zeigt eine fatale Abfolge von „Fehlentscheidungen“. 5,6 Sekunden vor dem Aufprall wurde ein Objekt per Radar erkannt, eine Notbremsung entweder durch die Software oder durch die ebenfalls im Auto sitzende Sicherheitsbeifahrerin hätte den Aufprall noch verhindern können. Die Fußgängerin war noch auf der anderen Fahrbahn, und das System folgerte, dass sie sich auf der Gegenfahrbahn weiter bewegen würde und daher zu ignorieren sei. Das Lidar lieferte zwar laufend Ortungswerte, aber das System hatte Schwierigkeiten, die Art des Objekts zu identifizieren. 2,6 Sekunden vor dem Aufprall erkennt die Sensoren ein Fahrrad, allerdings ging das System wohl davon aus, dass das Fahrrad sich nicht bewegt. 1,5 Sekunden vor dem Aufprall wurde die Fußgängerin vom System neu bewertet: erstmals erkennt die Software, dass sie möglicherweise den Weg des Uber-Autos kreuzt und berechnet ein Ausweichmanöver. 1,2 Sekunden vor dem Aufprall liegt die richtige Einschätzung vor. Zu diesem Zeitpunkt war es für ein Ausweichen zu spät – und jetzt kommt eine weitere Absurdität des autonomen Fahrens. Die sogenannte „Aktionsunterdrückung“ sieht bei kritischen Situationen eine Verzögerung von einer Sekunde vor, bevor das Auto selbst mit einer Notbremsung oder einem massiven Ausweichmanöver reagiert. Die Aktionsunterdrückung sei eingebaut worden, weil man befürchtet habe, dass Fehlalarme zu „unnötigen extremen Manövern“ des Fahrzeugs führen würden, heißt es laut Die Welt in dem Bericht.
Die „Sicherheitsbeifahrerin“ betätigte 0,7 Sekunden nach dem Zusammenstoß die Bremse. Die Geschwindigkeit betrug 72 Stundenkilometer. Die Frau wurde überfahren und starb.
Auch der erneute, tödliche Unfall eines Teslafahrers – das System des Tesla erkannte wieder einen LKW nicht – zeigt, wie sehr das autonome Fahren noch in den Kinderschuhen steckt. Wenn in der Übergangsphase „Sicherheitsfahrer“ an Bord eines RoboTaxis sind, dann denken wir, dass dies bei kritischen Situationen schlecht ausgehen könnte – auch die Sicherheitsfahrerin von Uber sah beim Unfall angeblich auf ihr Telefon. Ein RoboTaxi in einer wuselnden Stadt – mit stehenden Fahrzeugen in der zweiten Reihe, halsbrecherischen Radfahrern, nachts, bei Regen? Auch wenn wir selbst keine Software-Ingenieure sind, glauben wir: bis autonome Systeme in der Stadt wirklich gut funktionieren, dauert es noch lange.