Schon lange steht die Frage im Raum, ob selbstfahrende Autos im Straßenverkehr wirklich sicher sind. Jetzt häufen sich Unfallmeldungen: Erst vor Kurzem tötete ein sich autonom fortbewegendes Testfahrzeug von Uber eine Frau in Arizona.
Kurze Zeit später verunglückte im Silicon Valley ein Mann mit seinem Tesla, der auf Autopilot gestellt war. Dabei betonte Tesla, das Unfälle rund 40% geringer seien als ohne Autopilot.
Eine unfallfreie Welt, in der Technik nie versagt, ist natürlich reine Utopie. Und gerade deswegen müssen Überlegungen zum Ernstfall gemacht werden. Wie muss sich ein autonomes Auto in einer Risikosituation verhalten?
Folgende Situation: Ein selbstfahrendes Auto fährt in der Stadt. Plötzlich versagen die Bremsen. Es gibt nur zwei Möglichkeiten – entweder in eine Mauer rasen und damit die Insassen gefährden oder in eine Menschenmenge steuern, die am Straßenrand steht. Eine moralische Frage, die nicht leicht zu klären ist, dem Auto jedoch in irgendeiner Weise einprogrammiert werden muss.
Moralisches Experiment soll helfen
Bei solchen Situationen geht es immer um die Frage, wessen Leben geschützt wird. Das der Insassen oder besonders von Kindern oder Müttern? Das Massachusetts Institut of Technology Media Lab hat ein Online-Experiment ins Leben gerufen, bei dem jeder anhand von unterschiedlichen Situationen entscheiden kann, wie ein autonomes Fahrzeug in einem Unfallszenario handeln sollte. In dieser Moral Machine geht es vor allem darum herauszufinden, wie moralische Bedenken in Bezug auf Alter, Geschlecht und sozialem Status der möglichen Unfallopfer sind.
Auch wenn es sich hier um ein interessantes Gedankenexperiment handelt, lassen sich dennoch keine moralischen Entscheidungsgrundlagen darauf aufbauen. Denn die Ergebnisse sind nicht überraschend: Laut Abstimmung sollen Kinder und Frauen in einem Szenario mit tödlichem Ausgang eher geschützt werden. Und je mehr Menschenleben gerettet werden können, desto besser. Bedeutet das jedoch, dass ich mich als älterer Mann bald nicht mehr auf die Straße trauen kann, weil ich sonst Gefahr laufe von einem Autopiloten überfahren zu werden?
Menschenleben dürfen nicht qualifiziert werden
Um diese Fragen zu klären hat das Bundesministerium für Verkehr und digitale Infrastruktur eine Ethik-Kommission gegründet. Dort wurden Kernpunkte in Bezug auf das autonome Fahren herausgearbeitet. Demnach ist autonomes Fahren nur sinnvoll, wenn damit wirklich weniger Unfälle verursacht werden. Menschenleben zu schützen hat stets höchste Priorität.
Falls es aber keinen anderen Ausweg gibt, ist jede Qualifizierung von Menschen nach persönlichen Merkmalen unzulässig. Damit sind zwar wichtige Fragen zum moralischen Standpunkt geklärt, aber dennoch muss das Auto in einer entsprechenden Situation eine Entscheidung treffen.
Aktuell handelt es sich bei den Autopiloten noch um Assistenzsysteme, die das Fahren lediglich unterstützen. Der Fahrer hat immer noch die Pflicht einzugreifen. Doch in Zukunft sollen Künstliche Intelligenzen das Fahren übernehmen. Nach welchen Kriterien diese Systeme aber Entscheidungen treffen, ist oft für den Menschen nicht mehr nachvollziehbar.
Ob sie nach menschlichen Moralvorstellungen handeln werden oder eigene Kriterien entwickeln, lässt sich derzeit noch nicht sagen. Dass es gesetzliche Standards für alle Fälle geben muss, steht außer Frage. Die Entwicklung autonomer Fahrzeuge hat also auf technischer, politischer und moralischer Ebene noch einiges zu leisten.