Wenn Software über Leben und Tod entscheidet

Wen soll ein selbstfahrendes Auto rammen, wenn es einen Unfall nicht verhindern kann – den SUV links oder den Kleinwagen rechts? Eine Frage nicht nur von Ethik und Recht.

Ein selbstfahrendes Auto fährt auf der Mittelspur der Autobahn, plötzlich kreuzt direkt vor ihm jemand die Spur. Die Elektronik des Autos ist zwar schneller als jeder Mensch, aber eine Kollision lässt sich nicht verhindern – das autonome Auto kann nur auswählen, ob es gar nicht ausweicht oder links den Geländewagen rammt, oder rechts den Kleinwagen. Wie entscheidet die Software, wessen Leben sie aufs Spiel setzt?

Patrick Lin, Direktor der Ethics + Emerging Sciences Group an der California Polytechnic State University, hat solche Gedankenexperimente für das Magazin Wired durchgespielt. Schließlich würden autonom fahrende Autos wie das von Google vor allem deshalb entwickelt, weil sie in solchen Situationen aufgrund ihrer immer wachen Sensoren und ihrer Reaktionsschnelligkeit bessere Entscheidungen treffen können als ein Mensch. Sie können den zu erwartenden Schaden minimieren. Aber nach welchen Regeln das geschieht, müssen vorher die Programmierer festlegen.

Anders gefragt: Wessen Tod nehmen die autonomen Fahrzeuge (beziehungsweise deren Entwickler) in Kauf, wenn sie die eigenen Insassen schützen wollen? Für Lin sind das Fragen von Softwareethik, Moral und auch von Gesetzen und Geschäftsmodellen.

Allzu viel Zeit bleibt vielleicht nicht mehr, bis sie beantwortet werden müssen. Google will seine selbstfahrenden Autos schon 2017 so weit entwickelt haben, dass sie für die Öffentlichkeit auch jenseits der heutigen Testfahrten taugen. Vor Kurzem hat das Unternehmen bekanntgegeben, mittlerweile Tausende von Verkehrssituationen in der Stadt zu beherrschen.

Den behelmten Motoradfahrer verschonen oder den ohne Helm?

Lin beschreibt zunächst das Beispiel mit dem Geländewagen und dem Kleinwagen. Die Vernunft sagt: Der Geländewagen ist stabiler, seine Insassen sind besser geschützt als die des Kleinwagens. Also sollte das fahrerlose Auto besser mit dem Geländewagen kollidieren. Aber darf dessen Besitzer per Softwareprogrammierung eines anderen Fahrzeugs dafür bestraft werden, kein kleineres Auto gekauft zu haben? Dürfen Hersteller von besonders stabilen Autos bestraft werden, wodurch ihr Geschäftsmodell leiden könnte?

Und was Lin noch nicht einmal erwähnt: Muss man einen Kleinwagen fahren, um sich vor Unfällen mit autonomen Fahrzeugen zu schützen, wenn man damit gleichzeitig das Risiko eingeht, bei einem Unfall mit einem normalen Auto größere Schäden davonzutragen? Kommt es vielleicht auch darauf an, wie viele Menschen in den Autos links und rechts sitzen und in Gefahr geraten, und nicht nur auf die Bauart der beiden Wagen?

Beispiel zwei: Wenn ein selbstfahrendes Auto einen Unfall nicht mehr verhindern und nur noch entscheiden kann, ob es links den Motorradfahrer mit Helm oder rechts den ohne Helm trifft – welche Entscheidung ist dann die weniger falsche?

Die Vernunft sagt, der Motorradfahrer mit Helm hat die größere Chance, den Unfall zu überleben. Die Moral sagt, der ohne Helm sollte für sein verantwortungsloses oder sogar illegales Handeln nicht auch noch belohnt werden. Das Auto könnte dem Zufall die Entscheidung überlassen

„Schleier der Ignoranz“

Lin spielt eine Reihe von Lösungsmöglichkeiten durch. Die erste wäre ein Zufallszahlengenerator. Er würde anspringen, sobald das Auto einen Zusammenstoß links oder rechts als unausweichlich erkennen würde. Kommt dabei eine ungerade Zahl heraus, würde das Auto nach links ausweichen, bei einer geraden Zahl nach rechts. Das würde menschliches Handeln ansatzweise simulieren, weil Menschen in solchen Momenten keine durchdachte Reaktion mehr zeigen könnten.

Entscheidet das Auto aber zufällig, würde es sich praktisch selbst überflüssig machen. Die überlegene Reaktionsgeschwindigkeit in solchen kritischen Situationen ist einer der Hauptgründe, warum selbstfahrende Autos überhaupt entwickelt werden.

Eine Alternative zum Zufall wäre laut Lin ein „Schleier der Ignoranz“: Die Entwickler der selbstfahrenden Autos könnten dafür sorgen, dass der Unfall-Algorithmus nicht weiß, was für Autos links und rechts von ihm fahren – ob es sich um Geländewagen oder Kleinwagen handelt. Dabei wäre es aber ein Unterschied, ob die Information gar nicht erst erhoben wird, oder ob sie von den Sensoren erfasst wird, aber nicht in den Algorithmus einfließt. Letzteres könnte ein rechtliches Problem sein, glaubt Lin. Denn die Autohersteller könnten möglicherweise dafür belangt werden, vorhandene Informationen nicht genutzt zu haben, um das Leben eines Menschen zu beschützen.

Kommt es zum Prozess – weil etwa die Angehörigen eines Unfallopfers den Hersteller des autonomen Fahrzeugs verklagen – ergeben sich laut Lin ganz neue rechtliche Fragen: Die Software-Programmierer hätten ja bei der Entwicklung genug Zeit gehabt, die „richtige“ Entscheidung einzuprogrammieren. Damit würde der Affekt als Ursache für den Tod eines Menschen also ausfallen. Der Unfall wäre möglicherweise näher am Mord als am Totschlag.

Es gibt noch eine ganze Reihe weiterer Fragen und Gedankenspiele, die sich anschließen und die Lin zum Teil hier nennt: Welche Versicherung versichert den Geländewagenfahrer gegen Unfälle mit autonom fahrenden Fahrzeugen? Wer haftet, wenn deren Bordcomputer abstürzt und keine „am wenigsten falsche“ Reaktion mehr zeigen kann? Lässt sich ein fahrerloses Auto austricksen – kann man ihm als Motorradfahrer vorgaukeln, ein Geländewagen zu sein?

Aus Lins Gedankenspielen könnten schon bald drängende Fragen werden. Das wissen die Entwickler autonom fahrender Autos wie zum Beispiel Daniel Göhring. Er ist Teamleiter der Autonomos Labs der FU Berlin, die ein solches Fahrzeug entwickeln, und sagt: „Unser autonomes Fahrzeug verwendet für die Erfassung anderer Verkehrsteilnehmer sowie von Hindernissen vorrangig Laserscanner, Radarsysteme sowie Stereokamerasysteme. Damit wäre es möglich und auch wünschenswert, Fahrzeugklassen und unterschiedliche Verkehrsteilnehmer zu unterscheiden. Für die Situationsvorhersage ist das schon heute relevant. Mit fortschreitender technologischer Entwicklung werden ethische Fragen an Relevanz gewinnen.“

Bisher behandele das Auto der FU „alle Verkehrsteilnehmer äquivalent“, sagt Göhring. „Fahren wir beispielsweise auf einer zweispurigen Straße und es befindet sich ein Hindernis auf unserer Spur, führen wir Spurwechsel nur dann durch, wenn die andere Fahrspur frei ist und keine Gefährdung anderer Verkehrsteilnehmer entsteht. Um solche gefährlichen Situationen innerhalb unserer Entwicklung gänzlich zu vermeiden, befindet sich an Bord unserer autonomen Fahrzeuge immer ein Sicherheitsfahrer.“ Was aber passiert, wenn der nicht mehr rechtzeitig eingreifen kann?

Der Preis, den wir zahlen müssen?

Kate Darling, Expertin für Roboterethik am MIT Media Lab in Cambridge, Massachusetts, sagt: „Manche mögen argumentieren, dass solche Unfälle sehr selten sein werden. Da fahrerlose Autos sehr viel sicherer und vorhersehbarer fahren als Menschen es tun, könnte man das unausgewogene Verhalten der Autos in diesen Extremfällen als vernünftigen Preis ansehen, den wir halt zahlen müssen. Aber solche Unfälle und ihre Entstehungsgeschichte könnten die öffentliche Wahrnehmung massiv beeinflussen. Das kann von Gerichtsurteilen bis hin zu einem generellen Widerstand gegen die Technik reichen.“

Es sei wohl in jedermanns Interesse, wenn das Verhalten der Autos gesetzlichen Standards unterliege, sagt Kate Darling: „Standards, die nicht nur direkte Kosten berücksichtigen, sondern auch das, was die Gesellschaft von diesen Autos erwartet.“ Der erste Schritt sei es, öffentliche Aufmerksamkeit zu schaffen, denn „das hier ist keine Science-Fiction-Zukunft, wir müssen jetzt darüber reden“

Quelle: http://www.golem.de/news/autonome-fahrzeuge-wenn-software-ueber-leben-und-tod-entscheidet-1405-106457.html

Werbung

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden..