Ethikproblemumfahrungsalgorithmus

Tante hat einen interessanten Artikel für die Wired geschrieben, in dem es darum geht, vor welchem Problemen die Entwickler Selbstfahrender Aufgaben stehen, wie sie Algorithmen erfinden, die selbstständig darüber entscheiden was zu tun ist, wenn ein Unfall nicht mehr zu verhindern ist, welcher Unfall der noch erträglichere ist. Lieber ein Kind überfahren als zwei Rentner? Wie viele Rehe sind eine Kuh wert?

Ich glaube nicht, dass sich jemand wirklich massiv um diese Probleme kümmert. Ich glaube es wird alles doch sehr anders kommen, viel banaler.

Am Anfang werden selbstfahrende Autos sehr pragmatisch dafür sorgen, dass nichts zu schlimmes passiert: sie werden relativ langsam fahren und wenn es doch mal knifflig wird, wird eine sehr grelle Leuchte im Armaturenbrett dem menschlichen Passagier deutlich machen: ich weiß nicht mehr weiter, übernimm du!

Da es doch eher unangenehm ist doch ständig drauf gewappnet sein zu müssen, dass die Software keinen Bock mehr hat, werden die Hersteller das Problem in Folge outsourcen: anstatt den Passagier zu belästigen wird die Aufgabe des schnellen Einschreitens an Menschen in einem Callcenter ausgegliedert. So wie sie uns jetzt durch die Einrichtung unserer WLAN-Routers leiten, werden sie in Zukunft das unser Auto für uns durch Baustellen fernsteuern, damit wir nicht von unseren Smartphones aufschauen müssen.

Ihr Job wird recht dröge sein: der Bildschirm leuchtet auf, sie sehen irgendeine Straße irgendwo auf der Welt, so als ob man wahllos auf Google Street View klickt. Nach kurzer Orientierung erkennen sie das Problem und leiten das Auto sicher um das Hindernis auf die Straße herum. Sobald das Auto wieder selbst weiter weiß, wird die Bildübertragung wieder unterbrochen und der Mensch im Drivecenter wird in die nächste Verkehrssituation gebeamt.

Am Anfang wird das ein relativ gemütlicher Job sein, aber mit der stetig besser werden Steuerungssoftware werden auch die Fälle die an Callcenter übermittelt werden immer kniffliger. Und dann werden wir, in 20 Jahren, in einer Abendtalkshow einen indischen Fernfahrer zu Gast haben, der vom Moderator tränenddrückend befragt wird wie es denn so ist im 2 Minuten Takt das Leben irgendwelcher aus der Spur geratenen Autofahrer weltweit retten zu müssen, und wie man so damit klarkommt, dass er ihm nur in 38% der Fälle gelingt, und ob man sich nach der Arbeit Vorwürfe macht, weil man zu unkonzentriert war.

Und am nächste morgen fahren wir wieder mit unseren selbstfahrenden Autos ins Büro und niemand war gezwungen sich mit Ethik zu beschäfitgung

Beteilige dich an der Unterhaltung

5 Kommentare

  1. Das ist jetzt wohl nicht repräsentativ aber ich fahre nun seit ungefähr 11 Jahren relativ viel Auto. Dabei musste ich mich noch nie zwischen dem kleineren Übel entscheiden. Eine Vollbremsung reicht meiner Erfahrung nach immer aus. Beim Bremsen ist der Computer aufgrund seiner Reaktionszeit dem Menschen wohl überlegen.

    Beim den kritischen Situationen lag es meistens an meiner Unkonzentriertheit.

  2. Lieber Max, du hast wie immer recht. Auf gewisse Weise. Zwei längere Gedanken dazu:

    1) Ein Problem der ganzen Diskussion ist, dass das von Tante erwähnte Gedankenexperiment, in der Ethik zumeist als Trolley-Experimente bezeichnet, hier ein wenig zweckentfremdet wird. Die ursprüngliche Idee der Trolley-Experimente ist der Versuch der gedanklichen Darstellung, dass eine bestimmte Art der Ethik – und zwar eine Ethik, die nach Prinzipen urteilt, in bestimmten Situationen (Dilemmata) konfrontiert wird und keine Urteile mehf fällen kann.

    Kurzer Crashkurs: Man unterscheidet weithin zwischen deontologischen Ethik und utilitaristischen bzw. konsequenzialistischen Ethiken. Letztere sind an den Folgen interessiert und versuchen im Falle des Utilitarismus das größtmögliche Gute zu erreichen. Im Falle des Trolley-Experiments, das im Ursprung mit Schienenfahrzeugen erzählt wird (was eigentlich sehr sehr wichtig ist, da ja damit nicht anderweitig ausgewichen und durch eine Weiche ein klares entweder-oder-Szenario herbeigeführt werden kann), kann der Utlitiarist überlegen, ob a) der Tod der Gruppe an Kindern, auf die er zunächst zusteuert, oder b) der alte Gleisarbeiter, den er beim Umlegen der Weiche tötet, einen schlechteren Weltzustand (und somit das geringere Gute in Welt) realisiert. Der Utilitarist würde sicherlich dafür argumentieren, die Kinder zu retten, weil hier weniger sterben etc. Die Folgen wären weniger schlecht, wenn nur ein alter Gleisarbeiter stirbt als wenn 5 oder 10 Kinder sterben, die ihr Leben noch vor sich haben. Das wäre die Abwägung dieser Art Ethik.

    Man kann das aber auch ganz anders sehen und ein Gegeneinanderaufrechnen der Folgen (und dann die aus irgendwelchen Erwägungen abgeleitete beste Folge heraus zu überlegen) ablehnen und wie der deontologisch Ethiker nach unumrückbaren Prinzipen handeln. Eines dieser moralischen Prinzipien, was hier besonders relevant ist, ist natürlich, dass man niemand töten sollte bzw. niemanden als Mittel zu einem Zweck benutzen sollten. So oder so – bei beiden obigen Optionen – bricht der Deontologe mit den Prinzipien, die er nach eigener Überzeugung eigentlich nicht brechen darf. Er ist in einem Dilemma. (Unter uns gesagt: auch deontologische Ethiker würden in diesem Fall vermutlich dazu tendieren, den Gleisarbeiter das Leben zu nehmen und damit dann leicht utiliaristisch argumentieren bzw. den Tod des Gleisarbeiters als unbeabsichtigte Folge in Kauf nehmen – da streiten sich die Moralphilosophen drüber seit Foot diese Experimente in die Debatte geworfen hat) Ein weiterer Punkt ist auch, die Frage zu problematisieren jemanden aktiv zu töten oder es durch Unterlassen passiv zu tun.

    Diese Punkte aufzuzeigen und unsere moralischen Intuitionen zu testen, ist eigentlich die ganze Aufgabe dieser Gedankenexperimente. Dein Ansatz der Klärung des Ethikalgorithmus macht also insofern Sinn, dass mit den Trolley-Experiment ein Variablen-Setting geschaffen wird, dass in der Realität, wenngleich nicht unmöglich, jedoch recht unwahrscheinlich ist, vor allem im Rahmen des nicht beschienten Verkehrs. Wenn man die Trolley-Experimente Schülern oder Studenten vorlegt, dann wird häufig nach weiteren Strategien gesucht, die nun aber im straffen Variablen-Setting nicht möglich sind.

    Dilemmata-Situationen sind so schon für Menschen schwer zu bewältigen (auch der Utilitarist kann ja ins Grübel kommen), und ich würde vermuten, dass es für Sensoren und Algorithmen nicht besser wird. Deswegen ist die Forderung von Tante auch quatsch. Wir als gesellschaft müssen uns entscheiden… erst dann gäb es ethische Algorithmen. Die Frage ist schon entschieden, aber eben nur für den Utlitiaristen. Das Problem ist aber, dass eben nicht alle dessen Begründungen für das Urteil teilen – und blickt man in die Philosophie-Geschichte vermutlich nie teilen werden… Der punkt ist nun, dass tante das ganze eben nicht wirklich verstanden hat. Hier ist keine simple Entscheidung möglich, weil es kein richtig und falsch gibt, sondern nur mehr oder weniger plausible und überzeugende Begründungen. Nur weil 70% der Bevölkerung entschieden haben, das es okay ist, den altern Gleisarbeiter umkommen zu lassen, wird die Welt nicht moralisch besser, noch irgendein algorithmus ethischer. 30% können das immer noch scheiße finden und hätten letztlich ethisch betrachtet und bezogen auf ihre bespielsweise deontologische genauso recht.

    Punkt 2) Das mit den Trolleys funktioniert deshalb so gut, weil uns eine Geschichte präsentiert wird, weil uns durch das Narrativ bereits Wertungen mitgegeben werden, die ein Fahrzeug durch Sensorik wohl nicht in der Art erfassen kann. Für das Fahrzeug gibt es da nur zwei Signale, evtl. kann das Auto noch eine Personenanzahl oder allgemeine Objekt größe bestimmten, aber das Lebensalter oder die Lebensumstände der beteiligten Personen, die unsere moralischen Intuitionen in welche Richtung auch immer anspringen lassen, rafft das Fahrzeug vermutlich nicht. Das Fahzeug wird aber via Algorithmus versuchen auszuweichen oder zum stehen zu kommen, es fährt ja eben nicht auf Schienen… es hat Optionen, die ja nun beim Gedankenexperiment der Tsrolley bewusst getilgt wurden.

    Da nun nicht mal Philosophen diese Fragen letztgültig entscheiden können, würde ich auch Programmieren diesen Verantwortung nicht aufbürden wollen. Es gibt bei automatisierten Fahrzeugbetrieb auch sicherlich erst einmal wichtigeres voranzubringen als die Lösung eines intutionenherausfordernden, fiesen Gedankenexperiments.

  3. Ich verstehe leider nicht so ganz was du mir versuchst zu sagen. Mein ganzer Punkt für diesen ganzen Artikel: tante behauptet, dass Entwickler sich gerade zwangsläufig mit diesem Gedankenspielbeschäftigen, weil selbstfahrendes Auto. Genau das bezweifle ich. Ich glaube, dass diese ganzen Fälle einfach ignoriert werden, weil sie in der Praxis eh nicht auftreten.

Schreibe einen Kommentar

Kommentar verfassen