In den letzten Tagen wurde viel geschrieben über den ersten tödlichen Unfall im Zusammenhang mit einem autonom fahrenden Automobil, in diesem Fall mit einem Tesla Model S, dem wohl fortschrittlichsten Vertreter dieser Disziplin. Und natürlich hat Elon Musk recht mit seinem unsensiblen Ausflug in die Statistik: Bisher passieren deutlich weniger tödliche Unfälle mit autonomen Fahren als auf herkömmliche Art.

Aber trotzdem stellt sich nicht erst jetzt die Frage, ob die Zukunft wirklich schon so nahe ist. Können wir uns auf Computer mehr verlassen, als auf uns selbst? Ist es realistisch, in wenigen Jahren schlafend in den Urlaub zu fahren? Wir versuchen, uns dem mit einem „Pro und Contra“ anzunähern:

Pro von Malte: Mehr Sicherheit

Vorgestern hat nicht mehr viel gefehlt und ich wäre mit meinem Fahrrad auf dem Weg zur Arbeit unter die Räder gekommen. Eine sichtlich überforderte Renterin hatte mir die Vorfahrt genommen und mich nur um Haaresbreite verfehlt.
Auch im Jahr 2016 bleibt der Faktor Mensch im Straßenverkehr mit Abstand die Unfallursache Nummer eins. Experten sprechen davon, dass 95 Prozent aller Kfz-Unfälle auf menschliches Versagen zurück zu führen sind. Ein Grund mehr dem autonomen Fahrzeug eine Chance zu geben.

Nach dem tödlichen Unfall eines Tesla-Fahrers in den USA hat das Thema nun allerdings einen herben Dämpfer erlitten. Viele Kritiker, insbesondere in Deutschland, meinen nun endlich den vermeintlichen Beweis dafür gefunden zu haben, dass Tesla kein erstzunehmender Fahrzeughersteller sei und autonomes Fahren niemals erlaubt werden dürfe.

Ja, der Fall ist wirklich tragisch. Ja, Teslas Krisenkommunikation war alles andere als gut. Aber man sollte die Kirche im Dorf lassen. Unter all den Tesla-Fahrern ist es der erste tödliche „Autopilot“-Unfall, der bekannt geworden ist.
Bei der Veröffentlichung des Features hatte ich ehrlich gesagt mit einer größeren Anzahl an Unfällen gerechnet. Anders als es jetzt häufig beschrieben wird, ist das Model S kein autonomes Fahrzeug, sondern ein Fahrzeug mit „Lenkautomatik mit verkehrsadaptiver Geschwindigkeitsanpassung“. Letztlich bleibt der Mensch nach wie vor der Fahrzeugführer, mit der entsprechenden Verantwortung. Darauf macht Tesla seine Kunden auch aufmerksam. Der Hersteller hat immer kommuniziert, dass die Software noch nicht fertig ist und laufend weiterentwickelt wird. Wenn ein Fahrer also Zeitung liest oder sich anders beschäftigt und nicht auf die Straße schaut, liegt es in seiner Verantwortung. Dass bislang aber kaum Unfälle bekannt geworden sind, kann durchaus als Beweis dafür gesehen werden, dass die Systeme von Tesla die Fahrer erfolgreich unterstützen und dabei helfen Unfälle zu vermeiden.

Klar ist, dass es noch einige Jahre, wenn nicht Jahrzehnte dauern wird, bis wir echte autonome Serienfahrzeuge sehen werden und wir unsere Verantwortung komplett an ein Fahrzeug übergeben können. Denn noch ist die Technik noch nicht verlässlich genug. Aber die aktuellen, technischen Probleme werden findige Ingenieure in den Griff bekommen. Und die Anzahl an Unfällen wird deutlich zurückgehen.

Allerdings werden zukünftige Unfälle in einem völlig neuen Licht stehen. Wir werden deutlich weniger Unfälle erleben, diese werden dafür aber umso strittiger. Denn wer ist am Ende verantwortlich? Doch der „Fahrer“, der Hersteller oder gar der Programmierer? Genau hier beginnen ethische Grundsatzfragen, die in den aktuellen Debatten viel zu wenig Beachtung finden. Es wird zwangsläufig Situationen geben, in denen das Fahrzeug über Leben und Tod entscheiden muss. Wie reagiert es, wenn eine Kollision nicht mehr zu verhindern ist? Das klassische Beispiel ist die Situation in der das Fahrzeug entscheiden muss, ob es frontal in ein Hindernis fährt, rechts in eine junge Frau, die mit ihrem Kind an dem Straßenrand steht oder in den Rentner, der am linken Straßenrand entlangläuft. Welches Leben ist „schützenswerter“?

Dieses dramatische Szenario führt einem vor Augen, dass es eine 100-prozentige Sicherheit im Straßenverkehr nie geben wird. Aber autonomes Fahren kann die Anzahl an unnötigen Unfällen deutlich reduzieren.

Contra von Christian:  Ratespiel am Steuer

Um genauer verstehen zu können, warum autonomes Fahren ein überaus schwieriges Thema ist, muss man sich mit zwei Dingen ausführlicher beschäftigen: 1. mit Sensoren und 2. mit Algorithmen. Sensoren können mit verschiedenen Techniken dem Auto beibringen, seine Umgebung zu sehen. Das kann optisch funktionieren, also mit Kameras oder Lasern, aber auch mit Radar und eingekoppelten GPS-Daten. Die Algorithmen fassen dann alle Signale zusammen und versuchen, ein dreidimensionales Umfeld des Autos zeichnen zu können. Die Straße wird aus den GPS-Daten bezogen und die genaue Position des Wagens bestimmt, sie bauen aus zig Lasermessungen ein im toten Winkel fahrendes Auto auf, trennen die Radarsignale der Leitplanken vom nebenher fahrenden Lastwagen und finden Radfahrer, Fußgänger, oder Verkehrsschildern in den zahllosen Kamerabildern.

Die Algorithmen stellen dabei immer nur Vermutungen an, sie sind sich zu beispielsweise 90% sicher, dass sie wirklich ein Auto vor sich haben und keine Wand. Sie gleichen Sensordaten mit bekannten Einschätzungen ab und lernen, wie bei Tesla, sogar mit jedem gefahrenen Kilometer mehr dazu. Aber egal mit wie viel Erfahrung, Rechenleistung oder künstlicher Intelligenz die Algorithmen ausgestattet sind, es bleiben Vermutungen, mit denen das Auto gelenkt wird. Ratespiele eines komplizierten Computersystems. Was an sich schon bedenklich wäre, wenn nicht auch noch die Sensoren problematisch wären.

Denn egal welche und wie viele Sensoren an einem autonom fahrenden Auto zusammen arbeiten, nie erreichen sie die Übersicht und Erkennungsfähigkeiten des menschlichen Körpers. Die Kameras beispielsweise haben ein viel kleineres dynamisches Leistungsvermögen. Das heißt, sie können weniger unterschiedliche Lichtstärken erfassen, weshalb dann schonmal ein weißer Lastwagen nicht vom weiß wirkenden Himmel unterschieden werden kann. Laser funktionieren nur in bestimmten Winkeln, mit bestimmten Reichweiten und nicht auf alle Oberflächen gerichtet. Ebenso hat Radar konstruktionsbedingte Probleme mit Sichtweiten und -winkeln.

Es fahren also autonome Autos, egal welchen Herstellers, mit mangelhaften Daten, die mangelhaft analysiert werden. Natürlich ist die Zuverlässigkeit mittlerweile enorm hoch und übertrifft vermutlich die Übersicht nicht weniger Autofahrer. Und ebenso selbstverständlich kann das autonome Auto merken, wenn bestimmte Sensoren nicht richtig funktionieren und fährt dann sicherheitshalber an den Straßenrand. Aber das Auto merkt eben nicht, was es nicht merken kann. Wenn keiner der Sensoren, kein Algorithmus einen Fehler meldet, glaubt das Auto, alles zu sehen und die Lage im Griff zu haben. Und das muss nicht stimmen.

Absolute Sicherheit kann es natürlich nie geben, gibt es auch bei heutigen Autos und deren Elektronik und Mechanik nicht. Doch mit der aktuellen und absehbaren Technik für autonomes Fahren tauchen viel mehr Fehler auf, Fehler noch dazu mit potenziell weit schlimmeren Folgen, weil das Auto sich selbst kontrolliert.

Die zuständigen Aufsichtsbehörden werden sich das weiter genau ansehen und irgendwann auch Bedingungen für die Zulassung festlegen. Und dann kommt also doch alles wieder auf Zahlen, auf Statistik zurück, wie Elon Musk in seiner Reaktion auf den Tesla-Todesfall.