Autos im moralischen Dilemma? – Zur Ethik des Autonomen Fahrens

29.10.18
Kategorie: Mobilität, Sicherheit

Wohin ja – aber es entscheidet nicht (Quelle: Anzeigemotiv 1&1)



Buchtitel: Autonomes Fahren Technische, rechtliche und gesellschaftliche Aspekte (Download kostenfrei)



Automatisierungsgrade des Autonomen Fahrens (Bericht Ethik-Kommission)



Ein Szenario aus der Moral Machine (Screenshot)



Ein Szenario aus der Moral Machine (Screenshot)


Aus Sicht eines Ingenieurs ist das so genannte Autonome Fahren eine logische Abfolge von Algorithmen. Für Ethik scheint hier kein Platz, mögen viele denken. Doch Forscher haben inzwischen Millionen Menschen befragt, wie selbstfahrende Autos künftig entscheiden sollen. Dieser etwas längere Beitrag mag ein Gedankenanstoß sein, denn auch Fahrradaktivisten sollten sich künftig intensiver mit dem Thema beschäftigen.

 

Autohersteller, aber auch Technologieunternehmen wie Waymo (Google) oder Uber entwickeln die Automatisierung von Fahrzeugen mit atemberaubenden Tempo. Es dürfte nur eine Frage der Zeit sein, bis die ersten völlig autonomen Gefährte marktreif sind. Allerdings: innovative Technologien allein genügen nicht, denn selbstfahrende Fahrzeuge werden viele neue Fragestellungen auf: Neben juristischen, sozialen, psychologischen und verkehrstechnischen Aspekten rücken zunehmend ethische Fragen in den Blickpunkt. Diese müssen offen diskutiert und verhandelt werden; denn nur so kann eine Gesellschaft informiert und aufgeklärt auf den sich abzeichnenden Mobilitätswandel vorbereitet sein. Gesellschaftliche Akzeptanz ist neben Gesetzgebung bzw. Regulierung ein wichtiger Faktor für die Einführung autonomer Fahrzeuge.

Eine Entscheidungsethik für das Auto

Doch warum dürfen wir die Ethik des Autonomen Fahrens nicht ausschließlich Technikern und Programmierern überlassen? Ein Beispiel. Ein selbstfahrendes Auto muss in der Zukunft folgende Entscheidung zu treffen: Es weicht einem Hindernis entweder nach links aus und überfährt ein achtjähriges Mädchen oder es weicht nach rechts aus und tötet eine achtzigjährige Großmutter. Oder es weicht gar nicht aus und die Insassen sterben. Wie soll das Auto entscheiden? Hat das Mädchen mehr Recht zu leben, weil es noch das ganze Leben vor sich hat? Wäre eine willkürliche Streckenführung besser, weil sie keinen Verkehrsteilnehmer diskriminiert? Sollten diese Fragen überhaupt von Maschinen beantwortet werden – oder sollte der Mensch in letzter Konsequenz doch noch eingreifen (overruling).

Fahrer oder Kind, Arzt oder Obdachloser, Frau oder Mann, Mensch oder Hund? Vielleicht kann nur einer kann einen Unfall überleben. Fragen, die sich heute noch wie ein bloßes Gedankenspiel ausnehmen, müssen in wenigen Jahren beantwortet sein. Ein autonomes Fahrzeug wird künftig in so genannten Dilemma-Situationen Entscheidungen treffen, die idealerweise auf einem breiten gesellschaftlichen Konsens beruhen. Das Auto der Zukunft muss also über eine eigene Entscheidungsethik verfügen.

Es ist unverzichtbar, das komplexe Themenfeld 'Autonomes Fahren' interdisziplinär zu sondieren. Die Gesellschaft muss eine Vorstellung davon entwickeln können, was Technik leisten kann und was nicht“, sagt Professor Dr. Eckard Minx, Vorstandsvorsitzender der Daimler- und Benz-Stiftung, die zusammen mit zahlreichen anderen Institutionen die ein Weißbuch "Autonomes Fahren" publiziert hat. Es geht um gesellschafts- und zukunftsrelevante Fragen: Wie lässt sich autonomes Fahren unter ethischen Gesichtspunkten bewerten? Können sich autonome Fahrzeuge überhaupt ethisch korrekt verhalten? Und wer bestimmt die Kriterien und Regeln?

Ethik-Kommission Automatisiertes und Vernetztes Fahren

Um eine breitere Öffentlichkeit für das Thema des mobilen Mensch-Maschine-Verhältnis zu sensibilisieren hatte der ehemalige Bundesverkehrsminister Alexander Dobrindt im September 2016 eine Ethik-Kommission zum automatisierten Fahren eingesetzt, die im Juni 2017 ihren Bericht (PDF, 33 Seiten) vorgelegt hat. Das vierzehnköpfige Experten-Gremium (13 Männer, darunter ein Weihbischof) unter Leitung des ehemaligen Bundesverfassungsrichters Udo Di Fabio hat darin Leitlinien für die Programmierung automatisierter Fahrsysteme entwickelt. Der Bericht stellt fest: Wenn es ausweglos um Leben oder Tod auf der Straße geht, kann ein autonomes System nicht weiterhelfen. Derartige Ereignisse sind weder normier- noch programmierbar.

Der Bericht der Ethik-Kommission umfasst insgesamt 20 Thesen. Kernpunkte sind:

  • Das automatisierte und vernetzte Fahren ist ethisch geboten, wenn die Systeme weniger Unfälle verursachen als menschliche Fahrer (positive Risikobilanz).
  • Sachschaden geht vor Personenschaden: In Gefahrensituationen hat der Schutz menschlichen Lebens immer höchste Priorität.
  • Bei unausweichlichen Unfallsituationen ist jede Qualifizierung von Menschen nach persönlichen Merkmalen (Alter, Geschlecht, vermuteter Status, körperliche oder geistige Konstitution) unzulässig.
  • In jeder Fahrsituation muss klar geregelt und erkennbar sein, wer für die Fahraufgabe zuständig ist: Der Mensch oder der Computer.
  • Wer fährt, muss dokumentiert und gespeichert werden (u.a. zur Klärung möglicher Haftungsfragen).
  • Der Fahrer muss grundsätzlich selbst über Weitergabe und Verwendung seiner Fahrzeugdaten entscheiden können (Datensouveränität).

Es gibt keine bequemen Antworten auf die Frage, wie sich autonome Fahrzeuge in Situationen verhalten sollten, in denen sich Unfälle und Opfer nicht mehr vermeiden lassen.

Das liegt aber nicht an der Technologie an sich. Unausweichliches Leid und der Verlust von Menschenleben sind keine Besonderheit autonomer Fahrzeuge. Der Fortschritt zwingt die Menschen vielmehr dazu, diese dunkle Seite des Straßenverkehrs unter einem neuen Blickwinkel zu betrachten. (Übrigens: dieser Diskurs betrifft nicht nur automatisierte Fahrzeuge, sondern hinterfragt allgemein die zunehmende Übertragung von Entscheidungs‐ und Handlungsautonomie an digitale und vernetzte Systeme. Stichworte: Künstliche Intelligenz, Internet of Things.)

Moral Machine: Unterschiedliche Szenarien und 40 Millionen Entscheidungen

Zwischenfazit: Ethische Fragen müssen diskutiert werden – auch wenn sie schwierig zu beantworten sind. Denn allein die Programmierung entscheidet über Leben und Tod. Gefühle oder Affekthandlungen sind bei autonomen Fahrzeugen ausgeschlossen. Sie reagieren nicht menschlich-intuitiv, sondern können die jeweiligen Situationen „neutral“ berechnen. Intelligente Autos werden künftig über ausreichend Rechenleistung verfügen, um die Folgen eines Crashs vorherzusagen und die Situation genau zu analysieren. Von Menschen programmierte Autos entscheiden dann, wer leben darf und wer sterben muss. Doch nach welchen Kriterien? Während sich die Ethik-Kommission diesen Fragen abstrakt-philosophisch-wissenschaftlich näherte, haben Forscher inzwischen Millionen Menschen befragt, wie selbstfahrende Autos künftig entscheiden sollen.

Diese Daten stammen von der offenen Online-Plattform Moral Machine, auf der Nutzer verschiedene Szenarien bei Autounfällen durchspielen können. Die Testpersonen können entscheiden, wie sich das autonom fahrende Auto verhalten soll. Insgesamt sind inzwischen mehr als 40 Millionen Entscheidungen dokumentiert. Repräsentativ ist das Experiment dennoch nicht; junge Männer beispielsweise spielen die Szenarien überproportional häufig durch.

Dabei müssen die Testpersonen nicht nur wählen, ob ein Kind oder ein Greis überleben soll. Es gibt auch weitere Informationen über die Betroffenen: Einige sind dick, andere durchtrainiert. Einige sind obdachlos, andere Ärzte oder Diebe. Manche sind bei Rot über die Straße gelaufen und so selbstverschuldet in Gefahr geraten. Auch Hunde oder Katzen können zu Opfern werden.

Die Forscher vom Massachusetts Institute of Technology (MIT), die hinter der Online-Plattform Moral Machine stehen, beschreiben ihren Ansatz so:

Wir zeigen dir moralische Dilemmata, bei denen sich ein führerloses Auto für das geringere Übel entscheiden muss, beispielsweise die Entscheidung, zwei Mitfahrer oder fünf Fußgänger zu töten. Als ein außenstehender Beobachter entscheidest du, welcher Ausgang deiner Meinung nach akzeptabler ist. Am Ende kannst du deine Antworten mit denen der anderen Teilnehmer vergleichen.“ Aus über 40 Millionen Entscheidungen glauben die MIT-Forscher, einige Muster und Tendenzen ableiten zu können:

  • Die Mehrzahl der Testpersonen entscheidet sich dafür, möglichst viele Leben zu retten. Alter, Geschlecht oder soziale Position spielen hierbei eine untergeordnete Rolle.
  • Durchschnittlich werden mehr Frauen als Männer gerettet; mehr Kinder als Alte. (In vielen asiatischen Ländern indes wurden junge Menschen seltener verschont als alte. Wohl deshalb, weil Ältere in diesen Ländern besonders respektiert würden, vermuten die Forscher.)
  • Die vermeintliche Fitness hat dagegen kaum Auswirkungen auf die Entscheidung. Der wahrgenommene soziale Status hingegen schon. Der Tod von Obdachlosen und Dieben wird häufiger in Kauf genommen als der von Ärzten.
  • Muss zwischen dem Überleben von Menschen oder Tieren gewählt werden, entscheiden sich die allermeisten Testpersonen für Menschen.
  • Personen, die bei Rot über die Straße laufen, werden seltener gerettet als jene, die sich korrekt verhalten haben.
  • Zunächst überraschend:  Mitfahrende im eigenen Auto werden nicht häufiger geschützt als Fußgänger. Für die Forscher ein Indiz dafür, dass sich die Testpersonen als unbeteiligte Beobachter sehen und sich nicht mit dem Fahrer oder dem Beifahrer identifizieren.

Regional variieren die Ergebnisse zum Teil erheblich; bei 117 Ländern aus denen Testpersonen teilgenommen hat, ist Deutschland der Schweiz am ähnlichsten – und zeigt die größten Unterschiede zu Venezuela (zu weiteren Einzelheiten und Ländervergleichen siehe hier). Deutsche Testpersonen liegen an siebter Stelle, wenn es darum geht, am besten gar nichts zu tun (preferring inaction). Da kommt die spannende Frage des so genannten Overruling ins Spiel, wie auch die Ethik-Kommission festgestellt hat:

Ethische Konflikte stellen sich bei der Frage, inwiefern eine freiwillige Übernahme durch den Fahrer ausgeschlossen werden sollte. Entsteht eine ethische Pflicht nicht selber zu fahren, sofern dies zur Erhöhung der Sicherheit beiträgt? Oder sollte umgekehrt, solange Unfälle nicht sicher auszuschließen sind, die letzte Verantwortung beim Menschen bleiben?

Ausdruck der Autonomie des Menschen ist es, auch objektiv unvernünftige Entscheidungen wie eine aggressivere Fahrhaltung oder ein Überschreiten der Richtgeschwindigkeit zu treffen. Dabei würde es dem Leitbild des mündigen Bürgers widersprechen, würde der Staat weite Teile des Lebens zum vermeintlichen Wohle des Bürgers unentrinnbar durchnormieren und abweichendes Verhalten sozialtechnisch bereits im Ansatz unterbinden wollen. Solche absolut gesetzten Sicherheitszustände können trotz ihrer unbestreitbar guten Zwecke die Grundlage einer humanen, freiheitlichen Gesellschaft untergraben. (…) Die Verminderung von Sicherheitsrisiken und die Begrenzung der Freiheit muss im demokratischen und grundrechtlichen Abwägungsprozess entschieden werden: Es besteht keine ethische Regel, die Sicherheit immer vor Freiheit setzt. (Ethik-Kommission Automatisiertes und Vernetztes Fahren, S. 19, eigene Hervorhebungen)

Kein leichtes Thema und gerade deshalb sollten sich (verkehrs)politisch Interessierte eingehender damit befassen. Das gilt selbstverständlich auch für Fahrrad-Aktivist*innen, denn sicher ist: auch das Verhältnis von (sich ohnehin autonom fortbewegenden) Radfahrenden und algorithmisch gesteuerten Fahrzeugen wird Teil der Diskussion werden.


© 2018 ADFC Kreisverband Münsterland e. V.