Digitale Ethik und unternehmerische Verantwortung am Beispiel der Automobilbranche
Wolfgang Gründinger
Wagen wir ein Gedankenexperiment: Stellen Sie sich vor, Sie wurden in den Vorstand eines Automobilherstellers berufen und sind dort für die Unternehmensethik verantwortlich. In den Zeiten vor der digitalen Transformation waren Sie verantwortlich für die Kontrolle der Lieferketten beim Abbau von Rohstoffen in Entwicklungsländern, für Umweltschutz und soziale Standards. Jetzt, seit der digitale Wandel auch die Automobilbranche erreicht hat, stellen sich neue Herausforderungen an Ihren Job. Entscheidungen, mit denen Sie bislang nicht gerechnet hätten.
Eine solche Herausforderung hat Sie soeben aus Ihrer Entwicklungsabteilung erreicht: Die Bereichsleiterin Ihres Entwicklungsteams schreibt Ihnen eine Nachricht und möchte wissen, wie sie das erste Modell des neuen selbstlenkenden Autos programmieren soll. Wenn das Fahrzeug ohne einen Menschen am Lenkrad auskommt, was soll es dann machen: Soll es das Tempolimit immer genau einhalten? Oder darf es auch mal sieben Kilometer pro Stunde zu schnell fahren? Oder soll es auch mit 150 km/h über die Landstraße brettern dürfen, wenn der Fahrer das so will? Und wenn ja: Sollte der Bordcomputer dann jede Überschreitung des Tempolimits automatisch nach Flensburg melden? Wie würden Sie entscheiden?
In den Diensten der Verkehrssicherheit mag eine strikte Abriegelung durchaus vorstellbar sein. Die Straßenverkehrsordnung gibt es ja nicht ohne Grund - sie ist da, um Unfälle zu verhindern. Und weil alle sich an die Regeln halten sollen, könnten Sie kraft Ihrer Vorstandsposition verfügen, dass die von Ihnen hergestellten Fahrzeuge sich genau ans Tempolimit halten müssen.
Wenn Sie sich so entschieden haben, würde Ihnen jedoch die Ethik-Kommission Automatisiertes und Vernetztes Fahren widersprechen, die vom Bundesverkehrsministerium eingesetzt wurde. Denn die sagt: Es gehört auch zur Freiheit des Menschen, unvernünftig zu handeln - oder zumindest die bloße Möglichkeit dazu zu haben, ohne diese Möglichkeit am Ende tatsächlich zu nutzen. In den Worten der Kommission: »Ausdruck der Autonomie des Menschen ist es, auch objektiv unvernünftige Entscheidungen wie eine aggressivere Fahrhaltung oder ein Überschreiten der Richtgeschwindigkeit zu treffen. Dabei würde es dem Leitbild des mündigen Bürgers widersprechen, würde der Staat weite Teile des Lebens zum vermeintlichen Wohle des Bürgers unentrinnbar durchnormieren und abweichendes Verhalten sozialtechnisch bereits im Ansatz unterbinden wollen. Solche absolut gesetzlichen Sicherheitszustände können trotz ihrer unbestreitbar guten Zwecke die Grundlage einer humanen, freiheitlichen Gesellschaft untergraben. [.] Es besteht keine ethische Regel, die Sicherheit immer vor Freiheit setzt« (BMVI 2017: 20).
Etwaige technische Voreinstellungen müssten daher dem Individuum ein sogenanntes Overruling erlauben, also die Möglichkeit, in eigener Verantwortung die Abriegelung zu übergehen. So fordert es die Kommission. Würden Sie ein solches Overruling in das Auto einbauen? Aber was, wenn das Auto dann zu schnell fährt und einen Unfall verursacht? Wie könnten Sie das begründen?
Weitere Gewissensfragen beim automatisierten Fahren
Die Chefin Ihrer Entwicklungsabteilung sendet Ihnen tags darauf eine weitere Anfrage. Nun möchte sie gern von Ihnen wissen, wie sich das selbstlenkende Fahrzeug in einer unlösbaren Unfallsituation verhalten soll. In Computersimulationen habe das Programmierteam bereits ein paar Szenarien getestet und wolle nun wissen, wie man die Algorithmen trainieren solle: Wenn eine ältere Dame die Straße überquert und man ausweichen muss, dann aber ein spielendes Kind auf dem Gehweg am rechten Straßenrand überfahren würde - wohin soll das Auto lenken? Oder soll das Auto nach links steuern, wo es dann aber über eine Klippe ins Meer stürzen würde - samt allen Insassen? Würde ein Kunde überhaupt ein Auto kaufen, das sein Leben mit solch berechnender Gefühlskälte opfern würde?
Vor eine solche Frage gestellt, würden Sie sich vielleicht an Ihr Studium der Rechtsphilosophie erinnern. Denn diese Dilemma-Situation ist nicht neu, sondern wurde schon vor über 2000 Jahren im antiken Griechenland im Schiffbrüchigen-Dilemma diskutiert (Cicero 1986: 3,89): damals am Beispiel einer Planke, die nur einen Schiffbrüchigen retten kann, sodass ein anderer geopfert werden muss. In den 1950er-Jahren beschäftigte sich die juristische Literatur dann mit dem Weichensteller-Fall (Welzel 1951; Thomson 1976), bei dem ein Bahnarbeiter einen Güterzug auf ein anderes Gleis umleitet, um eine Kollision mit einem voll besetzten Personenzug zu vermeiden, aber dafür das Leben einiger Gleisarbeiter opfern muss. Und auch damals gab es keine überzeugende Lösung.
Das Bundesverfassungsgericht hat 2006 in seinem Urteil zum Luftsicherheitsgesetz nochmals bekräftigt, dass das Grundgesetz verbietet, Menschenleben gegeneinander aufzuwiegen und die einen für die anderen zu opfern (BVerfG 2006). Im konkreten Fall ging es darum, ob der Staat ein von Terrorkommandos entführtes Passagierflugzeug abschießen darf - beispielsweise wenn die Maschine in ein Fußballstadion oder auf ein Atomkraftwerk zusteuert. Auch die Anzahl der zu rettenden Menschen darf dabei keine Rolle spielen, so das Gericht, denn es stehe nicht dem Staat zu zu entscheiden, wer überleben dürfe und wer nicht.
Die bereits erwähnte Ethik-Kommission Automatisiertes und Vernetztes Fahren war ebenfalls etwas ratlos. Aber ihr Abschlussbericht weist darauf hin, dass bei der Programmierung von Algorithmen für autonome Fahrzeuge die Identität der möglichen Unfalltoten noch nicht feststeht (BMVI 2017: 17-18). Die Entscheidung über die zu opfernden Menschenleben würde also nicht konkret und ad hoc gefällt, sondern abstrakt und ex ante. Anders also als beim Abschuss eines Flugzeugs, bei dem die Behörden sich in jedem Fall bewusst entscheiden müssen, ob sie nun die Passagiere töten, um die Fußballfans zu retten.
Eine Programmierung, welche die Zahl der Opfer reduziert, könnte mit der Menschenwürde vereinbar sein, argumentierte die Kommission unter Leitung des früheren Verfassungsrichters Udo di Fabio vorsichtig. Zu einer endgültigen Bewertung hat sich die Kommission nicht durchringen können. Sie unterstrich aber, dass in keinem Fall einzelne Menschenleben qualifiziert werden dürfen - das Leben eines Kindes sei genauso viel wert wie das eines älteren oder eines kranken Menschen. Eine Kategorisierung nach bestimmten Merkmalen wie Geschlecht oder Alter verbiete sich demnach, eine allgemeine Zielausrichtung zur Minderung der Zahl der Opfer sei aber ethisch möglicherweise zulässig.
Das Urteil der meisten Menschen wäre dagegen ziemlich eindeutig, wie ein etwas makabres Experiment eines Forschungsteams des Massachusetts Institute of Technology (MIT) zeigt. Im Fragebogen »Moral Machine« können Testpersonen entscheiden, wen sie töten würden, wenn es zum unvermeidbaren Crash käme: eine Katze oder einen Menschen, eine schwangere Frau oder einen obdachlosen Mann, zwei Insassen oder drei Fußgänger etc. Die meisten Teilnehmenden haben demnach deutliche Präferenzen, wen sie retten würden: lieber Menschen als Tiere, lieber mehr Menschenleben als weniger, lieber Jüngere als Ältere und lieber Frauen als Männer (Awad et al. 2018). Ob Sie sich als Autohersteller aber wirklich daran orientieren sollten?
Zum Glück sind all diese Szenarien lediglich theoretische Gedankenspiele, die in der Realität praktisch nie vorkommen. Die Unfallforschung des Allianz Zentrums für Technik (AZT) hat detaillierte Analysen von über 30.000 Unfällen mit Sach- und Personenschaden seit 2008 durchgeführt. Dabei wurde keine einzige (!) Dilemma-Situation gefunden. Derartige Situationen sind also sehr seltene Ereignisse, obgleich nicht vollständig auszuschließen (Gwehenberger 2018). Sie stellen Extremfälle dar und wären auch nicht zu lösen, wenn ein Mensch am Lenkrad säße. Es ist daher wenig sinnvoll, die Ethik von Algorithmen ausgerechnet und immer wieder am Beispiel von Dilemmata beim autonomen Fahren zu diskutieren.
Als Vorstand können Sie Ihrem Entwicklungsteam daher leider kaum klare Anweisungen geben. Zu verworren ist die Situation. Dilemma-Situationen sind per definitionem nicht zu lösen - deswegen heißen sie ja auch so: Dilemma. In jedem Fall muss das Auto in einer drohenden Unfallsituation scharf bremsen, die Spur halten und die Kollision maximal verzögern, um die Unfallfolgen zu minimieren. Ein Computer kann deutlich schneller und stärker bremsen als ein Mensch. Das würde den Aufprall abschwächen und damit den möglichen Schaden zumindest reduzieren. Eine solche Regel muss dem Fahrzeug im maschinellen Lernen durch zielgerichtete Gestaltung von Trainingsdaten und Simulationen antrainiert und in Tests geprüft werden.
Jedes Jahr kommen in Deutschland über 3.000 Menschen im...