Moralisches Dilemma: Roboter, die besseren Autofahrer

Ein selbstfahrender Jaguar iPace von Waymo, unterwegs im öffentlichen Straßenverkehr.

Ein selbstfahrender Jaguar iPace von Waymo, unterwegs im öffentlichen Straßenverkehr.

Das "moralische Dilemma" in das ein autonomes Auto im Falle eines unausweichlichen Unfalls kommen könnte beschäftigt die Fachwelt. Auch eine neue Untersuchung des Bostoner MIT widmet sich dem Thema. Experten, die an der Entwicklung selbstfahrender Autos arbeiten und sie beobachten, sehen die Diskussion kontraproduktiv.

Was soll geschehen, wenn bei einem selbstfahrenden Auto die Bremsen versagen und ein Unfall unausweichlich ist: Soll das Auto drei ältere Menschen, die bei Rot über die Straße gehen, überfahren oder soll der Wagen gegen eine Betonwand gelenkt werden, was den Tod der Insassen, darunter ein Bub, zur Folge hätte?

Mit dieser provokanten Fragestellung ist das renommierte Bostoner MIT (Massachusetts Institute of Technology) jüngst in der Online-Umfrage "Moral Machine" an Öffentlichkeit herangetreten. Eine Fragestellung, die seit Jahren immer mit wieder leicht abgeänderten Szenarien auftaucht, und mit der Kritiker der selbstfahrenden (autonomen) Autos den Befürwortern den Wind aus den Segeln nehmen wollen. Vom früheren Porsche- und Volkswagen-Vorstandschef Matthias Müller stammt etwa das Zitat: "Ich frage mich immer, wie ein Programmierer mit seiner Arbeit entscheiden können soll, ob ein autonom fahrendes Auto im Zweifelsfall nach rechts in den Lkw schießt oder nach links in einen Kleinwagen."

Deutschland hat sogar eine Ethik-Kommission eingerichtet, die sich mit der Frage befasste und dafür im Bericht "Autonomes und vernetztes Fahren" Regeln festschrieb. In Regel 9 heißt es da etwa: "Bei unausweichlichen Unfallsituationen ist jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt."

Unmoralische Diskussion

Für Experten, die sich länger und intensiv mit selbstfahrenden Autos auseinandersetzen und die auch schon mehrfach in solchen Fahrzeugen mitgefahren sind, ist diese Diskussion nur eine vorgetäuschte, scheinbar moralische Diskussion. Für sie steht nämlich längst fest, dass nicht die Autos sondern die Menschen am Steuer und ihre Fehleranfälligkeit das Problem sind. Dazu reicht ein Blick in die Unfallstatistiken: Unachtsamkeit, Übermüdung, Überforderung, Überschätzung, überhöhtes Tempo, Stress, Alkohol oder Drogen sind in nahezu allen Fällen die Ursache von Verkehrsunfällen, bei denen alleine in Österreich jährlich immer noch rund 400 Menschen ums Leben kommen. Weltweit sind es 3.500 Todesopfer, und zwar täglich.



"Sobald die Rede auf fahrerlose Autos kommt, kommt unweigerlich die Frage nach dem ethischen Dilemma", ärgert sich der Innovationsstratege Mario Herger, der die Entwicklung der selbstfahrenden Autos seit Jahren beobachtet und in seinem Buch "Der letzte Führerscheinneuling" bereits das Ende von Menschen gesteuerter Autos thematisiert hat. "Weil wir solche Randfälle so in den Vordergrund stellen, übersehen wir die wirklichen ethischen Probleme, die wir mit selbstfahrenden Autos lösen können", sagt Herger weiter.

Bei der auch als "Trolley-Problem" bekannten Fragestellung, welche Menschen bei einem unausweichlichen Unfall praktisch geopfert werden sollen gibt es immer nur zwei oder maximal drei Optionen. "In Wirklichkeit ist das aber nicht so", betont Herger, der das Gedankenspiel als "intellektuelle Masturbation", fernab jeglicher Realität sieht. Seine Gegenfrage: "Wie oft stehen Menschen, die 20, 30 Jahre lang Auto fahren der Situation, versagende Bremsen zu haben und sich entscheiden zu müssen, wen sie töten sollen? Genau niemals"

Technologie schlägt düstere Fiktion

Abgesehen davon sprechen die Fakten eine ganz andere Sprache: Für hochentwickelte selbstfahrende Autos kann das "moralische Dilemma" fast zu hundert Prozent ausgeschlossen werden, weil sie zum Beispiel schadhafte Bremsen mit ihrer Steuerungs- und Überwachungstechnologie schon lange bevor diese einen kritischen Zustand erreicht haben erkennen, das Fahrzeug zum Stillstand bringen, die Passagiere aussteigen lassen und ein funktionstüchtiges Ersatzauto herbeiordern.

Das ist keine ferne Zukunftsvision, sondern bereits eine Realität, von der man sich in der US-Stadt Phoenix, Arizona überzeugen kann. Nach neun Jahren der Entwicklung und zehn Millionen gefahrenen Test-Meilen hat dort das Google-Spin-Off "Waymo" den Betrieb der weltweit ersten selbstfahrenden Taxiflotte aufgenommen. Gleichzeitig wurde die Massenproduktion der von Waymo entwickelten Sensoren aufgenommen, die in der Folge in die bei Jaguar und FCA (Fiat Chrysler Automobiles) bestellten 20.000 und 62.000 Autos eingebaut werden. Damit will Waymo bereits 2019 in weitere Städte expandieren. Nach San Francisco und einigen weiteren US-Großstädten, in denen die Roboterautos bereits für den Verkehr zugelassen sind, könnten die autonom fahrenden Autos bald auch in Europa unterwegs sein.

Waymo, Pionier für autonomes Fahren, hat mit seinen Tests bereits über zehn Millionen Meilen auf öffentlichen Straßen zurückgelegt.

Und was ist mit dem "ethischen Dilemma"? Eine Antwort darauf hat der Technologie-Experte und ehemaliger Berater im Google X Self-Driving Car-Projekt, Brad Templeton in seinem Blog formuliert: "Das Trolley-Problem fasziniert uns, aber es ist interessanter als es real ist. Es gibt echte ethische Fragen. Viele beruhen auf der Tatsache, dass Menschen beim Fahren ständig gegen die Verkehrsregeln verstoßen, sodass es manchmal sogar unmöglich ist, den Regeln entsprechend zu fahren. Autonome Autos müssen sich an die Regeln halten. Die Herausforderung ist, sie dazu zu bringen, zum Beispiel eine Sperrlinie zu überfahren, damit sie einem Hindernis ausweichen.

Auto & Mobilität

Diesel: Auch für Euro-6-Autos drohen Fahrverbote

Auto & Mobilität

Gebrauchte E-Auto-Akkus: Recycling für tickende Umweltbomben

Auto & Mobilität

So funktionieren die digitale Vignette und das neue Abo