Autonomes Fahren

 
 
Piper (Verlag)
  • 1. Auflage
  • |
  • erschienen am 9. November 2015
  • |
  • 188 Seiten
 
E-Book | ePUB mit Wasserzeichen-DRM | Systemvoraussetzungen
978-3-492-97399-1 (ISBN)
 

Autonome Fahrzeuge besitzen das Potenzial, unsere Mobilität grundlegend zu verändern. Wissenschaftlich fundiert und allgemein verständlich werden in diesem Band die gegenwärtig noch offenen Fragen formuliert, die aktuelle Diskussion nachgezeichnet und Lösungsstrategien präsentiert. Die Daimler und Benz Stiftung möchte so einen informierten Diskurs zwischen sämtlichen Teilnehmern am Verkehr der Zukunft anregen - den Forschern, Politikern und der gesamten Gesellschaft.

  • Deutsch
  • München
  • |
  • Deutschland
Piper ebooks in Piper Verlag
Mit 14 farbigen bzw. schwarz-weißen Abbildungen sowie 14 farbigen Grafiken
  • 4,34 MB
978-3-492-97399-1 (9783492973991)
weitere Ausgaben werden ermittelt
Eckard Minx ist Experte für Zukunftsforschung, Innovationsmanagement und Organisationsentwicklung. Seit dem Frühjahr 2007 gehört er dem Vorstand der Daimler und Benz Stiftung an, im Herbst 2008 übernahm er den Vorsitz. Nach seinem Studium der Wirtschafts- und Rechtswissenschaften arbeitete Minx von 1974 bis 1979 als Assistent am Institut für Volks- und Weltwirtschaft der Freien Universität Berlin. Im Jahr 1980 trat er in die Zukunftsforschung "Gesellschaft und Technik" der Daimler AG ein. Von 1992 bis 2009 leitete er diesen Bereich an den beiden Standorten Berlin und Palo Alto in Kalifornien. Minx lehrt als Honorarprofessor an der Hochschule für Technik und Wirtschaft Berlin sowie am Institut für Transportation Design der Hochschule für Bildende Künste Braunschweig.

KAPITEL I

ETHIK & GESCHICHTE

Was, wenn der Fahrcomputer sich verselbstständigt?

Ethik, Philosophie & Geschichte des autonomen Fahrens

Fünf Minuten dauert die Fahrt, meldet der Bordcomputer. Kein Stau weit und breit, es ist noch früh am Nachmittag. Ausnahmsweise gibt es keine Baustellen auf Ihrem Weg durch die Innenstadt. Sogar die Sonne kommt hinter den Wolken vor. Für einen winzigen Moment sind Sie geblendet. Als Sie wieder freie Sicht haben, sind da plötzlich zwei Personen vor Ihnen auf der Straße: ein junges, vielleicht achtjähriges Mädchen links in Ihrem Blickfeld und eine ältere Dame, die von rechts kommt.

Was würden Sie tun? Vollbremsen? Nach links ausweichen? Das Steuer nach rechts ziehen? Außer sehr trainierten, professionellen Testfahrern wäre unsere Reaktion wohl instinktiv, ohne überhaupt bewusst darüber nachzudenken. Erst hinterher beim Betrachten des Schadens würden wir realisieren, was da so genau passiert ist.

Was aber, wenn wir künftig von autonomen Fahrzeugen gefahren werden? Wie soll der Computer für solche unvorhergesehenen Kollisionsfälle programmiert werden?

Die Sensoren erkennen sowohl das achtjährige Mädchen als auch die achtzigjährige Großmutter. Die Geschwindigkeit des Autos ist so hoch, dass bei einem möglichen Ausweichmanöver eine von beiden sicher getötet wird. Auch wenn ein solches Szenario extrem selten sein dürfte: Wen soll der Computer retten?

Das kleine Mädchen, weil es sein ganzes Leben noch vor sich hat? Die erste Liebe, eine eigene Familie, eine Berufslaufbahn und welche Erfahrungen auch immer ein Leben so birgt? Aber jedes Leben ist gleich wertvoll, und das gilt ebenso für die Großmutter. Stimmt, doch das Kind ist im moralischen Sinn unschuldig, unschuldiger zumindest als jeder Erwachsene. Und wäre es nicht denkbar, dass die Großmutter sich selbst opfern würde - für das Kind, das am Anfang seines Leben steht?

Was auf den ersten Blick plausibel scheinen mag, ist moralisch nicht haltbar. Das zeigen die Ethik-Regeln von betroffenen Berufsorganisationen wie des US-amerikanischen "Institute of Electrical and Electronics Engineers" (IEEE) mit über 430 000 Mitgliedern. Sie legen dar, dass alle Menschen gleich behandelt werden müssten und jegliche Diskriminierung aufgrund von Rasse, Religion, Geschlecht, Alter und anderen Merkmalen nicht zulässig sei. Das deutsche Grundgesetz formuliert ähnlich: "Niemand darf wegen seines Geschlechtes, seiner Abstammung, seiner Rasse, seiner Sprache, seiner Heimat und Herkunft, seines Glaubens, seiner religiösen oder politischen Anschauungen benachteiligt oder bevorzugt werden. Niemand darf wegen seiner Behinderung benachteiligt werden", heißt es in Artikel 3 Absatz 3.

Patrick Lin, der Direktor der Ethics + Emerging Sciences Group an der California Polytechnic State University, beschäftigt sich seit längerem mit diesen Fragen.6 Er rät intensiv zu einer groß angelegten gesellschaftlichen Auseinandersetzung darüber, nach welchen Kriterien Roboterautos für solche Situationen programmiert werden sollten.

Auch in der deutschen Öffentlichkeit nimmt das Thema Fahrt auf. "Wen tötet das Roboter-Auto?", hat die Redakteurin Lena Schipper beispielsweise ihr Stück7 überschrieben, mit dem die Frankfurter Allgemeine Sonntagszeitung (FAS) Anfang Februar 2015 ihren Wirtschaftsteil aufmachte. Noch weiter geht die Wirtschaftswoche in ihrer Serie "Wirtschaftswelten 2025"8: "Werden uns Roboter töten?", wird dort gefragt. Derartige Schlagzeilen zeigen, wie recht Patrick Lin mit seiner Forde rung einer breiten öffentlichen Diskussion hat. Denn die Roboter tun nur das, wofür sie Menschen vorher programmiert haben.

"In dem Moment, in dem ich in ein selbstfahrendes Auto steige, gebe ich einen Teil meiner ethischen Verantwortung als Mensch an einen Algorithmus ab", wird der Philosoph und Ingenieur Jason Millar von der University Carleton in Kanada von der FAS9 zitiert. Er hält das für einen schweren Eingriff in die Persönlichkeit, weil "die meisten Menschen diese Verantwortung als bedeutenden Teil ihrer Humanität empfinden" würden. Für Millar läuft die Diskussion darüber auf zwei Fragen hinaus: "Sind wir bereit, den Autonomieverlust in Kauf zu nehmen, etwa weil wir glauben, dass die Technik das Potenzial hat, viele Menschen-leben zu retten? Und wenn ja, unter welchen Bedingungen?"

Ein "Ethik-Setting" entwickeln

Es gehe also darum, ein "Ethik-Setting" zu entwickeln, sagt Cathrin Misselhorn. Die Expertin für Roboterethik und Direktorin des Instituts für Philosophie an der Universität Stuttgart empfiehlt dazu, "mit den Methoden der experimentellen Philosophie zu ermitteln, welche Werte Autofahrern, Fußgängern und unbeteiligten Mitgliedern der Gesellschaft am meisten am Herzen liegen, und so zu einem Konsens zu gelangen".10 Das Ergebnis "könnte dann die Grundlage einer Gesetzgebung für selbstfahrende Autos bilden, die auch den damit verbundenen neuen moralischen Problemen gerecht wird", schreibt die FAS.

Für Patrick Lin beginnt die Diskussion um die relevanten Fälle für ein derartiges "Ethik-Setting" mit einem nachvollziehbaren Einwand: Würde ein selbstfahrendes Auto das Dilemma zwischen Kind und Oma nicht einfach damit lösen, dass es bremst - und zwar schneller und härter, als es ein Mensch je könnte? Oder indem es die Kontrolle einfach wieder an den Fahrer zurückgibt, der dann die Entscheidung treffen muss?

Diese Einwände seien plausibel, sagt der Direktor der Ethics + Emerging Sciences Group. Aber es gebe schon heute genügend Situationen, in denen eine Vollbremsung keine gute Lösung sei, beispielsweise bei nasser Straße oder Folgeverkehr. Und Simulationsexperimente würden zeigen, dass menschliche Fahrer bis zu 40 Sekunden bräuchten, um nach autonomer Fahrt wieder die Kontrolle über ihr Fahrzeug zu erlangen - deutlich zu viel Zeit für eine adäquate Reaktion in den meisten Unfallsituationen.

Lin argumentiert deshalb dafür, zusätzlich zu Strategien zur Vermeidung von Unfällen auch Strategien zur "Optimierung von Unfällen" in Betrachtung zu ziehen: "Unfälle zu optimieren bedeutet den Handlungspfad zu wählen, der zum geringsten Schaden für alle führt. Das kann dann auch die Wahl zwischen zwei Übeln bedeuten, also sich beispielsweise für die Kollision mit dem achtjährigen Kind oder der 80-jährigen Großmutter zu entscheiden."

Was, wenn die Optimierungsstrategie vorsieht, vor allem die Insassen des autonom fahrenden Autos zu schützen? Dann müsste der Algorithmus so programmiert werden, dass das Auto mit dem leichtesten Objekt kollidiert, um den Schaden so gering wie möglich zu halten. Das aber wäre das kleine Mädchen, nicht die Großmutter.

Spielen wir das Ganze beispielhaft mit zwei Autos durch, einem Kleinwagen und einem deutlich schwereren Auto, beispielsweise einem SUV (Sport Utility Vehicle, oft auch Geländewagen genannt). Wenn die Insassen des autonomen Autos geschützt werden sollen, macht es Sinn, so auszuweichen, dass der Kleinwagen als leichteres Objekt gerammt wird.

Sieht das "Ethik-Setting" aber vor, dass nicht die Insassen des autonomen Wagens, sondern die anderen Verkehrsteilnehmer vorrangig geschützt werden sollen, dreht sich nun die Entscheidung um: Dann wäre der Fahrroboter so zu programmieren, dass er in das schwerere und dadurch auch besser geschützte Auto knallt.

Doch wäre das akzeptabel? Würde dann nicht der Besitzer eines besonders sicheren Autos dafür diskriminiert, dass er viel Geld in Sicherheit investiert hat? Eine weitere Dilemma-Situation bringt das auf den Punkt: Wieder ist der Unfall unausweichlich und der Fahrroboter muss sich entscheiden, entweder in einen Motorradfahrer ohne Helm oder in einen mit Helm zu krachen. Ist er darauf programmiert, die Verkehrs teilnehmer zu schützen, muss der Algorithmus auf den Motorradfahrer mit Helm zielen: Nur er hat eine, wenn auch geringe Chance, zu überleben. Denn der Motorradfahrer ohne Helm wäre bei einer derartigen Kollision hundertprozentig tot.

Das aber widerspricht wohl allen Instinkten, die wir so haben. "Motorradfahrer mit Helm würden bestraft und diskriminiert für ihre verantwortungsbewusste Entscheidung, einen Helm zu tragen", schreibt Lin. Vielleicht würde eine derartige Programmierung sogar dazu führen, dass vorher verantwortungsbewusste Helmträger ihren Kopfschutz zu Hause ließen, wenn es irgendwann autonome Autos auf den Straßen gäbe. Oder dass besonders sichere Autohersteller vom Markt für ihr Sicherheitsbewusstsein bestraft würden.

Noch schwieriger wird es bei Gedankenexperimenten, in denen andere Leben nur durch das Opfern des eigenen Lebens gerettet werden können. Diese Beispiele sind, wie der Begriff "Gedankenexperiment" schon andeutet, im höchsten Grad unwahrscheinlich. Dennoch sind sie hilfreich beim Austesten verschiedener philosophischer Prinzipien und ethischer Handlungsmaximen.

Heiligt der Zweck die Mittel?

Eine davon ist der so genannte Konsequentialismus, ein "Sammelbegriff für Theorien aus dem Bereich Ethik, die den moralischen Wert einer Handlung aufgrund ihrer Konsequenzen beurteilen" (Wikipedia). Im Alltagsleben fällt dann oft der Sinnspruch vom Zweck, der die Mittel heiligt. Für das Gedankenexperiment kann das auch so formuliert werden, dass der Schaden minimiert werden soll.

Hier also die Situation: Sie werden in Ihrem selbstfahrenden Auto eine wunderschöne Küstenstraße entlanggefahren. Eng, steil, aber mit grandiosen Blicken über das blitzblaue Meer. Da schießt hinter der nächsten Kurve ein Schulbus mit 28 Kindern ums Eck. Er befindet sich schon teilweise auf Ihrer...

Dateiformat: EPUB
Kopierschutz: Wasserzeichen-DRM (Digital Rights Management)

Systemvoraussetzungen:

Computer (Windows; MacOS X; Linux): Verwenden Sie eine Lese-Software, die das Dateiformat EPUB verarbeiten kann: z.B. Adobe Digital Editions oder FBReader - beide kostenlos (siehe E-Book Hilfe).

Tablet/Smartphone (Android; iOS): Installieren Sie bereits vor dem Download die kostenlose App Adobe Digital Editions (siehe E-Book Hilfe).

E-Book-Reader: Bookeen, Kobo, Pocketbook, Sony, Tolino u.v.a.m. (nicht Kindle)

Das Dateiformat EPUB ist sehr gut für Romane und Sachbücher geeignet - also für "fließenden" Text ohne komplexes Layout. Bei E-Readern oder Smartphones passt sich der Zeilen- und Seitenumbruch automatisch den kleinen Displays an. Mit Wasserzeichen-DRM wird hier ein "weicher" Kopierschutz verwendet. Daher ist technisch zwar alles möglich - sogar eine unzulässige Weitergabe. Aber an sichtbaren und unsichtbaren Stellen wird der Käufer des E-Books als Wasserzeichen hinterlegt, sodass im Falle eines Missbrauchs die Spur zurückverfolgt werden kann.

Weitere Informationen finden Sie in unserer E-Book Hilfe.


Download (sofort verfügbar)

9,99 €
inkl. 19% MwSt.
Download / Einzel-Lizenz
ePUB mit Wasserzeichen-DRM
siehe Systemvoraussetzungen
E-Book bestellen