Das Problem mit dem Trolley-Problem bei selbstfahrenden Autos

Wann immer die Diskussion sich um selbstfahrende Fahrzeuge dreht, kommen meistens früher denn später die Fragen nach der Schuld bei Unfällen und das Dilemma, wie denn die Software entscheidet, wer überfahren oder getötet wird.

Matthias Müller, seines Zeichens ehemaliger Vorstandschef von Porsche, und nun von Volkswagen wurde dazu bereits einmal im ‚auto motor und sport’-Magazin zitiert. „Ich frage mich immer“, sagte er, „wie ein Programmierer mit seiner Arbeit entscheiden können soll, ob ein autonom fahrendes Auto im Zweifelsfall nach rechts in den Lkw schießt oder nach links in einen Kleinwagen.

Und jetzt kommt dieselbe Frage im Spiegel vom Januar 2016 gleich in der Einleitung eines Schlagzeilen trächtig mit dem Titel Lotterie des Sterbens versehenen Artikels auf:

„Eines Ta­ges wird es ge­sche­hen, so oder ähn­lich: Ein selbst­fah­ren­des Auto saust übers Land, der Com­pu­ter lenkt. Der Fah­rer hat es ge­müt­lich, er liest Zei­tung. Da hüp­fen drei Kin­der auf die Stra­ße, links und rechts ste­hen Bäu­me. In die­sem Au­gen­blick muss der Com­pu­ter ent­schei­den. Wird er das Rich­ti­ge tun? Drei Men­schen­le­ben hän­gen da­von ab.“

Genau! Wer wird, wer muss sterben? Sehen wir uns diese Frage und das Dilemma mal genauer an und warum es vor allem zwei Dinge über den Fragestellenden aussagt. Nämlich: er weiß entweder sehr wenig über selbstfahrende Fahrzeuge und Unfallstatistiken, oder er kennt die Fakten und meint es mit der Frage nicht aufrichtig.

Deshalb zuallererst ein paar Gegenfragen:

  1. Fährst du selbst Auto?
  2. Wenn ja, wie lange schon?
  3. Wenn du wie lange mit mehreren Jahren oder Jahrzehnten beantwortet hast: Wie oft bist Du selbst als Autofahrer vor diesem Dilemma gestanden? Kennst Du irgendjemanden der vor diesem Dilemma stand, entweder über die Kinder zu fahren oder dich selbst gegen den Baum zu fahren?

Das Dilemma tatsächlich kommt so selten auf, dass es eine reine Hypothese für die meisten von uns ist. Es wird aber regelmäßig von Kritikern und Besorgten als Beispiel angeführt und gerne als Argument gegen diese unausgereifte Technologie verwendet. Dieses hypothetische Problem ist unter dem Namen Trolley-Problem bekannt und wird seit Jahrzehnten von Forschern in verschiedensten Varianten durchgespielt, um ethische Konflikte aufzuzeigen und Verhaltensmuster zu finden.

Das Trolley-Problem fragt, wie man sich verhalten würde, wenn ein Waggon ungebremst eine Strecke hinab rollt, an deren Ende sich mehrere Arbeiter aufhalten. Diese können aus der Position des Befragten nicht rechtzeitig gewarnt werden. Allerdings hat man einen Weichenschalter vor sich, der es erlauben würde den Waggon auf eine andere Schiene von den Arbeitern weg zu lenken. Leider befindet sich auf der anderen Strecke auch eine Person. Die Frage lautet: würde man die Weiche umschalten und damit riskieren nur einen Menschen zu töten, oder doch nicht, und damit mehrere Menschen töten?

Eine intellektuell stimulierende und ethisch sicherlich interessante Fragestellung, die aber in der Praxis (fast) nie vorkommen wird. Hingegen aber Unfälle mit Straßenbahnen oder Eisenbahnen, wo Menschen versagen, die Strecke überqueren auch wenn die Warnschilder alle blinken und die Bahnschranken geschlossen sind, oder der Fahrer unaufmerksam war.

Sieht man sich Verkehrsunfallstatistiken mit Personenkraftwagen an, dann erkannt man dass vor allem menschliche Fehler die Hauptursache für Unfälle sind. 94 Prozent aller Unfälle werden durch menschliche Fehler verursacht. Bei über 3.000 Verkehrstoten in Deutschland sind gerade mal 200 durch technische Gebrechen oder andere Ursachen hervorgerufen. Immer noch 200 zu viel, aber dem stehen über 2.800 Tote durch menschliches Versagen gegenüber.

Und wie viele davon enthalten das Dilemma wo sich ein Fahrer entscheiden muss, die Kinder zu töten oder selbst im Crash gegen den Baum zu sterben? So verschwindend gering, dass man sich fragt, warum diese Fragestellung so populär ist und aufgeblasen wird? Der Technologie-Experte und ehemaliger Berater im Google X Self-Driving Car-Projekt Brad Templeton hat ausführlich beschrieben, warum diese Frage überbewertet ist, und welche Fragen man eigentlich stellen sollte, wenn man es ehrlich mit den Möglichkeiten dieser neuen Technologie meint.

Ein Grund für die Popularität dieser Frage ist sicherlich, dass sie eben intellektuell stimulierend und ethisch interessant ist. Was ist die „richtige“ Entscheidung und warum? So interessant das ist, so wenig trägt es dazu bei, sich mit dem positiven Potenzial von selbstfahrenden Fahrzeugen auseinanderzusetzen. Weniger Verkehrsunfälle die es geben wird, Personengruppen werden mobil, die es bisher nicht sein konnten, weniger Fahrzeuge auf der Straße und damit eine einhergehende Reduktion der Verkehrsinfrastruktur sind nur einige der Auswirkungen die uns selbstfahrende Fahrzeuge bringen können.

Und diese Faszination mit den negativen Seiten einer Technologie ist nicht auf selbstfahrende Fahrzeuge beschränkt. Ein Artikel auf Spiegel Online zum Thema Künstliche Intelligenz, der den Experten zuerst fragte, ob wir uns fürchten müssen, dass KI uns an den Kragen will, fokussierte sich ebenso auf mögliche negative Auswirkungen. Die Antwort von KI-Forscher Jürgen Schmidhuber wies darauf sofort hin:

Ich merke schon, Sie wollen mit mir heute nicht darüber reden, wie unsere KIs und künstlichen neuronalen Netze aktuell bereits Milliarden Menschen helfen können, etwa durch klügere Smartphones und automatische Krebsfrüherkennung; Sie interessieren sich mehr für mögliche Gefahren der ferneren Zukunft.

Diese Tendenz vorrangig auf negative Aspekte und potenzielle Gefahren in der Berichterstattung einzugehen hat aber durchaus System. Eine von mir betreute Facebook-Seite mit einer Sammlung an Artikeln und Argumenten aus der deutschsprachigen Presse zeigt eindrücklich wie sich der Fokus auf diese negative Seite konzentriert und Gefahren und Risiken hochgespielt werden.

Sieht man sich nun die technischen Daten eines selbstfahrenden Fahrzeuges wie sie Google heute verwendet an, dann erkennt man wie an den Haaren herbeigezogen die Trolley-Problem-Frage scheint. Dank der Kombination an Lidar, Radar und Kamerasensoren kann ein selbstfahrendes Auto bis zu 300m weit „sehen“. Und das 360 Grad. Es kann also viel umfassender und detaillierter die Umgebung betrachten und schneller darauf reagieren als ein Mensch. Ein Mensch, der vielleicht gerade durch sein Handy, Radioeinstellung, Gespräch mit Passagieren und ähnlichem abgelenkt ist oder gar besoffen durch die Gegend fährt, stellt eine viel größere Gefahr da. Diese Themen werden aber nicht in der Ausführlichkeit diskutiert, wie man den Eindruck beim Trolley-Problem bekommen möchte.

Und genau das macht Deutschland mit Innovation so zu schaffen. Und genau darauf gehe ich auch in meinem neuesten Buch Das Silicon Valley Mindset ein, wie wir uns da selbst blockieren indem wir vor allem die Gefahren, nicht aber die Potenziale diskutieren. Oft stellt sich heraus, dass die Gefahren und Risiken ohnehin irrelevant sind oder gar nicht zutreffen, weil die Idee ohnehin anders umgesetzt oder benutzt wird. Als Kritiker/Warner/Negativler erscheinen wir intelligenter, als die Naivlinge, die die Welt ändern wollen, Ideen haben und sie umsetzen wollen. Und das ist sogar wissenschaftlich untersucht. Harvard Professorin Teresa Amabile hat diese Verhaltensweise in Experimenten belegt. Sie legte Studenten zwei Buchrezensionen vor. Eine war eher positiv formuliert, die andere kritisch. Anschließend sollten die Studenten die Intelligenz der Rezensenten einschätzen. Die Studenten bewerteten die Intelligenz des Verfassers der kritischen Rezension höher. Was die Studenten aber nicht wussten: beide Buchkritiken waren von Amabile selbst verfasst worden. [1]

Natürlich muss man schauen, dass man solche Fälle wie das Trolley-Problem durchdenkt und entsprechende Maßnahmen setzt, dass sie hoffentlich nie eintreten werden. Sie aber zum Hauptargument gegen selbstfahrende Autos zu machen ist gefährlich und verantwortungslos. Eine solche Diskussion zum jetzigen Zeitpunkt ist wenig aufrichtig und einfach unehrlich.

[1] Teresa M. Amabile; Brilliant but cruel: Perceptions of negative evaluators; Journal of Experimental Social Psychology, March 1983

8 Gedanken zu “Das Problem mit dem Trolley-Problem bei selbstfahrenden Autos

  1. Wenn dieses „Trolley-Problem“ kein Problem darstellt, dann kann der Initiator ( der Code-Autor oder Google ) ganz locker in solchen seltenen Faellen die Verantwortung uebernehmen. Das ist doch schliesslich der Kern der Diskussion und nicht, dass man autonome Autos fuer „boese“ haelt, wie hier der Schreiber den kritischen Diskutanten unterstellt.

    1. Wenn Du den Artikel aufmerksam gelesen hast, dann solltest Du verstanden haben, dass wir uns sehr wohl mit diesem Trolley-Problem befassen sollten. Aber es gibt wesentlich dringendere Probleme die zuerst zu lösen sind, als dieses, wenn man die Häufigkeit dieses Problems betrachtet.
      Die Priorität dieses hypothetischen Problems im Vergleich zu den dringenden und die Besessenheit mit der dieses immer wieder vorgebracht steht in keiner Relation zur Auftrittswahrscheinlichkeit.

  2. Es geht bei den vielen Diskussionen doch nicht darum, ein Votum gegen selbstfahrende Autos zu erreichen. Es geht schlicht um die Akzeptanz solcher „intelligenten“ Maschinen. Die Frage ist nicht, ob Kind oder Fahrer durch die Maschine „geopfert“ werden, sondern wer sich freiwillig in diese Maschine setzt oder es akzeptiert, dass diese Maschine auf die Straße kommt. Was nützt das intelligente, selbst fahrende Auto, wenn entweder keiner drin sitzen will weil es im Zweifel den Fahrer opfert, oder weil man es nicht auf den Straßen akzeptieren will, weil es im Zweifel den Fußgänger opfert.
    Und das Problem der Entscheidung als „theoretisch“ hinzustellen ist gelinde gesagt geschmacklos. Fragen sie mal die traumatisierten Unfallverursacher die lieber sich statt den anderen geopfert hätten aber diese Entscheidung eben nicht rational treffen konnten. Das ist kein Hollywood Streifen, dass ist tägliche, bittere Realität.

    1. Es ist theoretisch, vor allem wenn man die Wahrscheinlichkeit betrachtet und welche anderen Probleme häufiger auftreten. Fahrer am Smartphone. Betrunkene am Steuer. Überhöhte Geschwindigkeit.
      Aber man diskutiert lieber dieses Trolley-Problem. Das finde ich geschmacklos. Weil keine Diskussion zu Betrunkenheit am Steuer oder Smartphone stattfindet – zumindest nicht in dem Ausmaß wie es stattfinden sollte. Diese Verhaltensweisen werden ja ziemlich weit verbreitet als Kavaliersdelikte angesehen. Nur dort sterben die meisten Menschen. Wenn ich die Diskussion um das Trolley-Problem hinten anstellen will und Du das als geschmacklos empfindest, dann frage doch mal all die Familien die jemanden durch einen betrunkenen oder vom Smartphone abgelenkten Autofahrer verloren haben und ob sie diese Sache auch als geschmacklos ansehen. Vor allem dass darüber so gar nicht diskutiert und als normal angesehen wird.
      Was ich allerdings zustimme ist die Sache um die Akzeptanz. Auch das ist eine irrationale Angst, aber um die muss man sich kümmern. Die Personen die in Bayern beim Zugunglück ums Leben kamen, haben sich auch nicht dauernd die Frage gestellt, ob der Zug sicher ist. Je häufiger etwas vorkommt, desto weniger nimmt man es als normal hin. Bei etwas was sehr sehr theoretisch ist hingegen kriegen etliche scheinbar Panikattacken.

  3. Mein einfacher Lösungsvorschlag zur Umgehung des Trolley-Problems in der Einführungsphase der autonomen Fahrzeuge (AF):

    Die Gesetze und die Rechtsprechung bezüglich des Verhaltens in besagten Extremsituationen, die es heute schon gibt, müssen unverändert auch für autonome Fahrzeuge gelten.

    Gleiches Recht für alle Verkehrsteilnehmer, ob autonom unterwegs oder nicht. Es gibt keinen Grund, an AFs zusätzliche ethische Maßstäbe anzulegen, die heutzutage an menschliche Fahrer zu Recht nicht angelegt werden. Die AFs sind in vielen Punkten ohnehin sicherer als menschliche Fahrer, in Trolley-Situationen genügt es für’s erste, gleich sicher sein.

    Die Skala, welche Menschenleben im Zweifelsfall mehr wert sind als andere, wird individuell sehr unterschiedlich ausfallen und lässt sich grundsätzlich nicht allgemeingültig und konsensfähig entscheiden.

    Im Gegensatz zum menschlichen Fahrer wären die AFs in einer Trolley-Situation zwar in der Lage, schnell und rational zu entscheiden, welches Menschenleben optimalerweise geopfert werden soll. Dies ist jedoch kein Vorteil, denn jedwede Werteskala, die dem Fahrzeug zu diesem Zweck einprogrammiert sein muss, ist anfechtbar.
    Also muss das AF in einer Trolley-Situation per Zufallsgenerator entscheiden, um sicherzustellen, dass keine bestimmte Werteskala einer anderen bevorzugt wird.

    Damit ist das AF immer noch gleich sicher wie der Mensch, der ebenfalls irrational reagiert.

Schreibe eine Antwort zu GedankenmacherAntwort abbrechen