Schuld und Sühne in autonomen Systemen
Ich nehme hier selbstfahrende Autos als Beispiel, aber ich glaube, dass meine Überlegungen für alle autonomens Systeme gültig sind, die in der Lage sind, Menschen zu schädigen.
Prinzipiell nehme ich einen utilitaristischen Standpunkt ein: Der größte Nutzen für die meisten Menschen. Mich interessiert nicht, ob in einem speziellen Fall ein Mensch hätte besser entscheiden können als ein technisches System (schon gar nicht, ob ein Gericht in Monaten eine bessere Lösung findet als das technische System in Millisekunden - hindsight is always 20/20), sondern ob der Einsatz solcher Systeme die Anzahl der schweren Unfälle verringert.
Die Technik ist bereits gut, aber ziemlich offensichtlich nicht gut genug (siehe zum Beispiel den Tesla-Unfall letztes Jahr, wo ein querender LKW für ein Straßenschild gehalten wurde1, oder die kürzlich veröffentlichte Studie2, die zeigt, dass geringfügige Verunstaltungen an Straßenschildern diese für Bilderkennungs-Algorithmen unerkennbar machen können).
Es ist aber genauso offensichtlich unsinnig, auf die perfekte Software zu warten. Die wird es erstens nie geben und zweitens ist auch der Mensch nicht perfekt (wie jeder weiß, der sich im Straßenverkehr bewegt: Ja, jeder von uns ist perfekt, aber die anderen: 90 % von denen sind zu 100 % Volltrotteln). Also ist ein technisches System gut genug für den Praxiseinsatz, sobald es in der Lage ist, die praktische Führerscheinprüfung zu bestehen.
Da es unvermeidlich ist, dass autonome Autos Unfälle verursachen werden, stellt sich die Frage, wer ist schuld und wer haftet.
Das sind aus meiner Sicht tatsächlich zwei verschiedene Fragen, die getrennt voneinander behandelt werden sollten.
Schuld bedeutet, dass jemand wider besseres Wissen gehandelt hat. Haftung bedeutet, dass jemand für den Schaden aufkommen muss.
So gerne wir Menschen jemandem die Schuld zuweisen (eines meiner Lieblingszitate in diesem Zusammenhang sagt sinngemäß, dass Soviets Unfälle immer als Sabotage sehen, während Amerikaner jemanden suchen, den sie verklagen können), im Zusammenhang mit selbstfahrenden Autos ist die Frage weitgehend bedeutungslos: Der Insasse kann nicht schuld sein, weil er nicht gefahren ist. Die Software kann nicht schuld sein, weil sie keine (juristische) Person ist. Und der Hersteller wird meistens nicht schuld sein, weil dafür wissentliches Fehlverhalten notwendig ist und nicht nur eine ungünstige Kombination von Umständen. Also ist niemand schuld und niemand muss ins Gefängnis. Aber das kann und darf nicht bedeuten, dass niemand für den Schaden haftet und der Geschädigte auf seinen Kosten sitzen bleibt (den physischen Schaden kann ihm sowieso niemand ersetzen — Leben, oder ein gesundes Leben ist nicht in Euro bewertbar; aber die Frage, wer jetzt den elektrischen Rollstuhl und die Heimhilfe bezahlt, sollte man darüber nicht vernachlässigen).
Wie auch schon in Schuld und Sühne im Internet of Things ausgeführt, bin ich der Meinung, dass die Haftung beim Fahrzeugbetreiber liegen sollte. Auch wenn Konsumentenschützer jetzt aufheulen: Es ist die einzige sinnvolle Möglichkeit:
- Der Konsument hat als einziger die Entscheidungsgewalt darüber, welches Fahrzeug er kauft — und daher kann auch nur er dafür verantwortlich sein.
- Es gibt in zivilisierten Ländern so etwas wie eine Haftpflichtversicherung. Der einzelne Fahrer wird also nie mehrere Millionen zahlen müssen. Die Versicherung kann versuchen, den Schaden beim Hersteller zu reklamieren oder bei konsistent höheren Schäden die Versicherungsprämien für diesen Fahrzeugtyp zu erhöhen.
Strafrechtlich wird damit die Schuldfrage weitgehend irrelevant. Ein Fahrer kann nur schuld sein, wenn er selbst gefahren ist, ein Hersteller nur dann, wenn er sich wissentlich für eine riskantere Variante entschieden hat.
Die Haftung ist in erster Linie ein reines Versicherungsproblem. Niemand ist schuld, aber die Versicherung des Fahrzeuginhabers muss zahlen (wenn zwei autonome Fahrzeuge kollidieren, dürfen sich die Versicherungen ausschnapsen, wer zahlt). In zweiter Linie werden die Versicherungen das aggregierte Risiko natürlich an ihre Kunden weitergeben: Wenn eine Fahrzeugart (ich lasse jetzt mal offen, ob es sinnvoll ist, das auf Hersteller/Modell herunterzubrechen) höhere Kosten verursacht, werden die Prämien dafür steigen, wenn sie niedrigere Kosten verursacht, werden sie sinken.
Der Konsument had damit (zumindest theoretisch3) eine objektive Entscheidungsgrundlage, ob er lieber ein riskanteres oder weniger riskantes System kauft.
-
Tödlicher Unfall: Tesla-“Autopilot” hielt Lkw für hohes Schild, Die Presse, 2016-07-03 ↩︎
-
Ich bin zu faul, die herauszusuchen ↩︎
-
Ich bin nicht überzeugt, dass Versicherungsprämien tatsächlich die Kosten der Versicherung widerspiegeln. Bei Motorrädern scheinen die Prämien monoton mit der Leistung (früher Hubraum) anzusteigen — insbesondere auf Grund der Leistungsgewicht-Beschränkungen für Führerscheinneulinge würde mich die zugrundeliegenden Statistiken wirklich interessieren. ↩︎