Menü

Autonomes Fahren

Autonom fahrende Autos – Ethik und Moral

Während die Entwicklung des autonomen Autos voranschreitet und die Technik mit Roboterautos absehbar zur Verfügung stehen wird, dreht sich die Diskussionen auch um ethische Werte. Wie aber gehen wir mit den moralisch-ethischen Fragen um? Wen soll das Roboterauto im Notfall opfern oder retten?

Moralisches Dilemma

Zwar hat der Bundestag im Frühjahr 2017 die Regelungen zum Fahren von Autos mit hoch- und vollautomatisierter Fahrfunktion verabschiedet, doch Haftungsfragen und andere juristische Probleme für wahrhaft autonome Autos regelt dieses Gesetz nicht. „Level 5“ ist das vermeintlich nahe Fernziel, denn die Fachleute unterscheiden verschiedene Stufen des automatisierten Fahrens (von Assistenzsystemen bis zum Robotertaxi). Am Ende soll das wirklich autonome Fahren stehen, bei dem nicht mal mehr ein Lenkrad oder Pedale notwendig sein werden. Das Auto in „Level 5“ kann dann alle Fahraufgaben allein bewältigen; bei „Level 3“ sind wir technisch immerhin schon angekommen.

Als möglicherweise unlösbar erweisen sich insbesondere Fragen im Hinblick auf die Entscheidungen von autonom fahrenden Autos. Selbst wenn durch die Technik die Zahl der Verkehrstoten deutlich zurückgehen dürfte, werden auch selbstfahrende Autos in Situationen geraten, in denen Unfälle unvermeidlich sind. Dabei müsste der Computer in Bruchteilen von Sekunden entscheiden, ob er das Leben seiner Insassen, eines am Straßenrand stehenden Kleinkindes oder etwa einer Gruppe von Seniorinnen gefährdet. Ein selbstfahrendes Auto, das nicht rechtzeitig bremsen kann, wird dann eventuell entscheiden, dass es besser ist, zwei alte Damen zu überfahren als ein kleines Kind. Drittes Beispiel: Ein Mann rast auf einen Betonpfeiler zu, die Bremsen seines Autos haben versagt, eine Kollision würde seinen sicheren Tod bedeuten. Er könnte ausweichen, müsste dann aber ein Kind überfahren, das gerade über die Straße läuft. Wer sollte den Crash Ihrer Meinung nach überleben? Stufen wir damit Lebenswert ab und programmieren Todesurteile, bei dem Versuch, hierauf Antworten zu finden?

Bislang sind solche Abwägungen in der Praxis kaum möglich. Schließlich hätte der Fahrer nur wenige Sekunden, sich zu entscheiden. Wahrscheinlich würde er überhaupt nicht realisieren, wer da über die Straße läuft. Und selbst wenn: Würde er nicht intuitiv sein eigenes Leben retten statt das eines völlig Fremden? Intelligente Autos könnten in solchen Situationen neutraler entscheiden. Sie werden voraussichtlich über ausreichend Rechenleistung verfügen, um die Folgen eines Crashs vorherzusagen und die Situation genau zu analysieren. Die Autos würden dann entscheiden, wer leben darf und wer sterben muss. Doch nach welchen Kriterien?

Für diese hypothetischen Fälle braucht der Computer eine Entscheidungsgrundlage, die ihm aber wohl niemand so klar vorgeben wird. Sollen möglichst viele Leben geschützt werden oder soll vielleicht die Entscheidung im Hinblick auf das Alter der potenziellen Opfer getroffen werden? Oder sollte ‚bestraft‘ werden, wer sich extrem verkehrswidrig verhält und somit automatisch eine Entscheidung gegen Radfahrerrowdys treffen würde? Und wer kauft sich ein teures Auto, dessen Software auch die Möglichkeit erwägen kann, seine Insassen einer tödlichen Gefahr auszusetzen? Vielleicht kommt dann gar illegale Software in Umlauf, die dem Fahrzeug auferlegt, unter allen Umständen die Insassen zu schützen.

Letztlich wäre ein wahrhaft autonomes Fahrzeug für diese Fälle womöglich so programmiert, dass es über die Wertigkeit von Menschenleben abwägt. Das wäre jedoch mit dem deutschen Grundgesetz unvereinbar.

Die Entscheidungen über Leben und Tod müssten weiterhin Menschen treffen, die die Autos programmieren. Wenn wir in Zukunft Maschinen moralisch programmieren wollen, werden wir vermutlich einem Nützlichkeitsprinzip nacheifern, das das sittliche Verhalten sieht und ideale Werte nur anerkennt, sofern sie dem Einzelnen oder der Gemeinschaft nützen (utilitaristische Entscheidungen), weil es die einzige Möglichkeit ist, für einen Computer Moral zu verrechnen. Er wird folgerichtig danach programmiert: Wie viel Glück und wie viel Leid erzeugt die Entscheidung – was schadet den wenigsten und was nützt den meisten? Eine moralische Güterabwägung. Wenn man es macht, dann kann man es nur so machen. Und deshalb plädieren viele dafür, dass wir es nicht tun. Diese Programmierung ist ein Verstoß gegen ethische Grundsätze, gegen die Menschenwürde und das Grundgesetz.

Um Antworten auf wichtige ethische Fragen einerseits zu finden und verbindliche Leitlinien für die Entwickler automatisierter und autonomer Systeme andererseits festzulegen, konstituierte sich im Juni 2016 eine Ethik-Kommission im Auftrag der Bundesregierung. In ihrem Bericht „Autonomes und vernetztes Fahren“ von 2017 heißt es: „Bei unausweichlichen Unfallsituationen ist jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt“ (https://www.bmvi.de/SharedDocs/DE/Publikationen/DG/bericht-der-ethik-kommission.pdf?__blob=publicationFile).