Thought Leadership

Image
Sebastian Thrun
Warum autonomes Fahren so schwer ist

Von DC Mitglied Sebastian Thrun*

In US-Städten wie Phoenix/Arizona, San Francisco und teilweise Los Angeles gehören Robotaxis zum Alltag auf den Straßen. In Washington DC und New York läuft der Testbetrieb. Dennoch stellt sich die Frage, warum autonomes Fahren trotz jahrelanger Forschung und Entwicklung immer noch nicht dazu geführt hat, dass um uns herum überall selbstfahrende Fahrzeuge unterwegs sind, bedarf einer komplexen Antwort. Schließlich ist das Grundprinzip des autonomen Fahrens geradezu simpel: Die Sensoren am Wagen nehmen die gesamte Situation um das Fahrzeug herum in Echtzeit auf, die Software erstellt daraus ein Bild­muster und der Computer steuert das Auto so gut es geht durch jede Situation. Doch warum ist die Sache im Straßenalltag so viel komplizierter?

Die Antwort: Im Straßenverkehr sind die Regeln keineswegs glasklar und die Umgebung ändert sich ständig und unvorhersehbar. Ein Hund oder ein Hirsch taucht unversehens vor der Kühlerhaube auf, ein Ball rollt auf die Straße, ein Radfahrer überquert allen Regeln widersprechend die Fahrbahn, eine Mutter mit Kinderwagen marschiert schnurstracks auf eine rote Fußgängerampel zu, so dass Zweifel aufkommen, ob sie entgegen allen Regeln nicht doch die Fahrbahn zu überqueren versucht, ein anderer Autofahrer fährt merkwürdig langsam, so dass die Vermutung nahe liegt, dass es vor ihm ein Problem gibt, das man selbst noch nicht sieht, ein Baum am Straßenrand schwankt im Sturm derart stark, dass er auf die Fahrbahn zu krachen droht… Kein Mensch erlebt in seinem Autofahrerleben alle denkbaren Situationen, aber von einem autonomen Fahrzeug erwartet man, dass es auf ausnahms­los alles vorbereitet ist – und darauf angemessen zu reagieren weiß.

Die Straßenverkehrsordnung spiegelt die Komplexität des Autofahrens nicht annähernd so eindeutig und vollständig wider wie die Regeln etwa beim Schachspiel. Manchmal ist es sogar in einer bestimmten Verkehrssituation angebracht, die Regeln zu durchbrechen. Ein Beispiel: Wenn ein Lieferfahrzeug die Fahrspur blockiert und sich in der Mitte der Straße eine durchgezogene Linie befindet, die man nicht überfahren darf, dann besagt die Straßen­verkehrs­ordnung, dass man solange warten muss, bis das Lieferfahrzeug die Spur geräumt hat. Aber das macht na­tür­lich niemand. Viel­mehr guckt man sorgfältig, ob kein Gegen­verkehr kommt, und fährt dann vorsichtig über die Nicht-Über­queren-Linie auf die Gegen­spur, um das Hindernis zu umfahren. Das bricht zwar eine Verkehrsregel, aber es ist in der Praxis un­umgänglich. Ein weiteres Beispiel: „Beim Einfädeln mit dem Fahrzeug sagt einem Menschen die Fahrweise des anderen Fahrers – je nachdem, ob dieser mit seinem Wagen etwas zurückfällt oder noch enger an den voranfahrenden Wagen aufschließt –, ob man gerne eingelassen wird oder eben nicht. Das ist wie eine Körpersprache, die eine KI verstehen muss.

Die bloße Vorgabe von Regeln genügt also nicht, man muss die autonomen Autos auch im Straßenalltag „erziehen“ – doch das reicht auch noch nicht. Es gibt nämlich eine im Grunde endlos lange Liste von Situationen, die man in der Realität nicht erzeugen kann und auch nicht will, nur des KI-Trainings wegen. Beispiele: ein Kind, das urplötzlich vor dem Wagen auftaucht, ein Steinbrocken, der von einer Brücke fliegt, ein Wagen, der direkt vor einem ins Schlingern gerät, ein Lastwagen, der Ladung verliert… Auf alle diese und viele weitere Situationen, die im Straßenverkehr auftreten können, bereitet man einen Computer nicht im echten Leben, sondern in Simulationen vor.

Ein Computer „spielt“ Umgebung mit allen möglichen denkbaren und undenkbaren Ereignissen, der andere „spielt“ Auto, das unfallfrei durchzukommen versucht – beinahe ähnlich wie bei einem Schachcomputer, der zum Training gegen sich selbst antritt. Möglichst realitätsnahe Simulationen stellen also einen wichtigen Weg auf dem Ziel zu vollständig autonomen Fahrzeugen dar. Dabei ist die Frage, welche Situationen man durchspielt, wiederum nicht leicht zu beantworten. Ein Flugzeug landet auf der Autobahn, nachdem der Propeller ausgefallen ist – eine äußerst unge­wöhnliche Situation, und doch ist sie beispielsweise am 4. Dezember 2021 mitten auf der Schwarzbachtalbrücke der Autobahn A62 kurz nach 12 Uhr in Rheinland-Pfalz passiert. Blitzeis, Sandsturm, undurchdringlicher Nebel, Steinschlag mit Geröll auf der Fahrbahn – Autofahren kann bei genauerer Betrachtung zu den größten Abenteuern gehören.

Von einem völlig selbstfahrenden Auto erwartet man, dass es seine Insassen heil durch alle diese Abenteuer bringt, den Wagen nicht beschädigt und natürlich keine Personen außerhalb des Fahrzeugs verletzt – und zwar wort­wörtlich unter allen Umständen. Diese Perfektion ist geradezu übermenschlich: Nach Schät­zun­gen der Weltbank und der Weltgesundheitsorganisation sterben weltweit jährlich mehr als eine Million Menschen an den Folgen von Verkehrsunfällen. Wenn sich diese Zahl durch selbstfern ahrende Autos auch nur halbieren ließe, wäre das ein großartiger Fortschritt. Aber bei autonomen Fahrzeugen erwartet man, dass sie Null Verkehrstote verursachen. Und genau das macht die Sache so schwierig – aber eben nicht unlösbar, wie der Erfolg von Waymo verdeutlicht.

* Prof. Dr. Sebastian Thrun, langjähriges Mitglied im Diplomatic Council, gilt als einer der geistigen Väter der Künstlichen Intelligenz und der Robotik. Er hat u.a. das erste selbstfahrende Auto entwickelt, das sein vorgegebenes Ziel erreichte.