Digitalisierung und Recht: Warum das Trolley-Problem keine Rolle spielt

Autonomes Fahren ist das große technische Versprechen der Automobilbranche für die nahe oder jedenfalls für die nicht mehr ferne Zukunft. Als Verkehrsteilnehmer ist man hin- und hergerissen, hält sich doch die Mehrzahl der Kraftfahrer für überdurchschnittlich gute Wagenlenker und schwankt deshalb zwischen Furcht vor Entmündigung durch das eigene Auto und Freude darüber, dass die schneller fahrenden Hasardeure ebenso wie die langsameren Schleicher endlich in die richtige Spur gebracht werden. Die ersten Schritte auf dem Weg sind bereits getan, denn Fahrassistenzsysteme sind so günstig geworden, dass sie mehr und mehr zum Einsatz kommen. Vom mehr oder weniger sanften Hinweis durch Spurhaltesysteme und Abstandswarner ist der Schritt zum automatischen Eingriff nicht mehr weit (und im Bereich von Notbremssystemen ebenso wie beim selbständigen Einparken bereits getan).

Bis zu einem vollständig autonom fahrenden Wagen dürften noch einige technische Schritte zu gehen sein, nicht zuletzt in der Kommunikation der Fahrzeuge untereinander über beabsichtigte Fahrmanöver und hinsichtlich des Umgangs mit nicht autonom gesteuerten Wagen. Solche Themen sind vermutlich auch deshalb anspruchsvoller als zum Beispiel der Autopilot im Flugzeug, weil im Luftverkehr zwar die Steuerung der Maschine selbständig erfolgt, die Piloten aber nichtsdestotrotz viel damit beschäftigt sind, deren Kurs auf andere Flugzeuge abzustimmen, gesteuert von Weisungen der Flugsicherung. Eine solche Aufsichtsfunktion des Fahrers dürfte im Bereich von Kraftfahrzeugen für eine Übergangszeit akzeptabel sein, aber früher oder später stellt sich die Frage nach dem Mehrwert eines Systems, das keine wirkliche Entlastung von der Fahraufgabe vermittelt.

Von diesen technisch-kaufmännischen Fragen abgesehen werden aber auch regulatorische Fragen gestellt. Mit zunehmender Leistungsfähigkeit von Assistenzsystemen rückt nämlich die juristische Frage ins Blickfeld, wer eigentlich haftet, wenn ein autonom fahrendes Auto einen Unfall verursacht. Das lässt sich grundsätzlich leicht beantworten, denn im deutschen Recht gilt die Halterhaftung: Wer ein Auto betreibt, muss für die so genannte Betriebsgefahr auch dann einstehen, wenn er den Unfall nicht verschuldet hat. Geregelt ist das im Straßenverkehrsgesetz. Wenn der Unfallgegner „schuld ist“, kommt es – natürlich – zu einer Quotelung des Schadens, ebenso wie ein eigenes Verschulden zu einer Haftung über die Betriebsgefahr hinaus führt. Damit liegt das Problem auf dem Tisch: Kann es Verschulden geben, wenn das Auto selbständig fährt? Und auch ein zweites Thema erscheint auf der Agenda: Kann der Halter beim Hersteller des Wagens Regress nehmen, wenn die autonome Steuerung einen Fehler macht?

Die Rolle der Hersteller ist intensiv am Beispiel der Bewertungsmaßstäbe diskutiert worden, welche den künstlichen Intelligenzen an die Hand gegeben werden sollen. Das immer wiederkehrende Beispiel lautet, was, wenn der Wagen in eine Situation kommt, in der er nur einen oder einen anderen Menschen überfahren kann? Soll dann eher die Mutter mit dem kleinen Kind oder der alte Greis geopfert werden? Solche Szenarien kann man unendlich verkomplizieren: Wie, wenn das Kind todkrank ist und der Rentner ein rüstiger Professor an der Spitze der Forschung? Soll nach Alter, Geschlecht, Zufall entschieden werden? Ist für solche Entscheidungen jemand rechtlich verantwortlich, und wenn ja, wer? Sogar eine Ethikkommission hat man gebildet, um Lösungen für das Problem zu finden, die allerdings in ihrem Abschlussbericht auch keine endgültigen Antworten finden konnte.

In solchen Fragen erkennt man das Trolley-Problem wieder, das in vielen Vorlesungen zur Ethik von Entscheidungsfindung behandelt wird: Sie sehen einen führerlosen Waggon auf ein Gleis zurollen, auf welchem fünf Menschen arbeiten, die nichts bemerken und mit Sicherheit getötet werden, wenn Sie nicht die Weiche umstellen, die greifbar nahe ist und den Zug auf ein anderes Gleis umleiten würde – auf dem allerdings ein einzelner Mensch arbeitet. Viele argumentieren in diesem Szenario mit den Kopfzahlen, geraten allerdings bei der leichten Abwandlung ins Schwimmen: Es gibt keine Weiche, Sie stehen vielmehr auf einer Brücke, sehen den Waggon und neben sich einen extrem dicken Mann, den Sie über das Geländer stoßen könnten – die Arbeiter würden dadurch gewarnt. Hier fällt die Abwägung nach Kopfzahl oft schwerer, weil wir das Herunterstoßen eher als Tötungshandlung verstehen denn das Weichestellen.

Rein juristisch gesehen ist die Sache klar und unklar zugleich: Eine Abwägung menschlichen Lebens nach Kopfzahlen ist unzulässig. Das hat das Bundesverfassungsgericht deutlich in seiner Entscheidung zu einer Regelung des Luftsicherheitsgesetzes festgehalten, die es für den Extremfall einer terroristischen Zweckentfremdung von Flugzeugen als Waffe gestatten sollte, vollbesetzte Maschinen abzuschießen. Die Regelung ist aufgehoben, aber das Problem bleibt natürlich. Es ist schlicht mit den Mitteln des Rechts nicht lösbar, denn es macht die unantastbare Menschenwürde aus, dass niemand zum Objekt einer solchen Abwägung werden darf. Die einzige Antwort der Rechtsordnung auf solche Fälle lautet letzten Endes, dass sie hofft, jemand möge das Tabu brechen. Aber kann man das den Herstellern von Automobilen auferlegen, oder noch schlimmer, den Programmierern des Algorithmus´? Oder ist es schlicht unverantwortbar, das autonome Fahren zuzulassen?

Wenn man auf eine Frage keine Antwort findet, hilft manchmal, einen Schritt zurückzutreten. Das hat der amerikanische Autor Bryan James Casey getan, der in einem Artikel schreibt: Dieses Problem werden nicht ethische Theoretiker lösen, sondern Gesetzgeber, Richter und Anwälte. Denn, so die These, Hersteller und Autofahrer werden das tun, was ihre Haftung minimiert, und zwar nicht im Elfenbeinturm, sondern in der realen Welt. Das trifft zu, aber mit diesem Ansatz lässt sich die Frage nicht beantworten, welche Richtung Gesetzgeber und Gerichte denn vorgeben sollen, welche Argumente Anwälten zur Verfügung stehen sollen. Denn Casey argumentiert sozusagen auf der operativen Ebene des Rechts, auf der es darum geht, welche Antwort eine konkrete Rechtsordnung in einem bestimmten Moment auf eine Frage gibt. Praktisch gesehen ist das die Ebene, die für alle Beteiligten unmittelbare Bedeutung hat, denn sie beantwortet, wie man sich aktuell am besten verhält, um die Balance zwischen eigenen rechtlichen (und daraus folgenden wirtschaftlichen) Risiken und Chancen zu optimieren. Diese Ebene kann aber keine Antwort auf die Frage geben, wie man das Recht an neue Entwicklungen anpassen soll, denn dabei geht es um die Gestaltung der operativen Regeln.

Entscheidend scheint mir etwas anderes zu sein: Das Trolley-Problem ist kein Thema autonomen Fahrens. In die Zwickmühlen, die auf einmal diskutiert werden, kann seit Jahrzehnten jeder menschliche Kraftfahrer kommen. Deshalb geht die Diskussion des Trolley-Problems am maßgeblichen Punkt vorbei. Es handelt sich um einen als „roter Hering“ bekannt gewordenen Fehlschluss (im klassischen Terminus: eine ignoratio elenchi). Das heißt natürlich nicht, dass man die Szenarien nicht ansprechen darf, nur stellt es kein Argument gegen autonomes Fahren dar, wenn es keine klare Lösung gibt. Die spannende Frage lautet allerdings nicht, wie ein autonomes Auto zwischen potentiellen Opfern auswählen, sondern wie es sich in einer ausweglosen Situation verhalten soll. Vorbeugen muss der Gesetzgeber einer Programmierung, die regelhaft nach unzulässigen Kriterien differenziert, also zum Beispiel nach Alter, Geschlecht oder eben Kopfzahlen. Ob man andererseits technisch ein überfordertes menschliches Individuum abbilden könnte und ob das wirklich die bessere Lösung wäre, erscheint diskutabel. Am Ende ist vielleicht die richtige Lösung der Frage, sich darüber zu vergewissern, dass ein Fahrzeug voller unermüdlicher und blitzschneller Piloten jedenfalls eines hat: Die deutlich größere Chance, ein unlösbares Szenario zu vermeiden.

Weitere Artikel zum Thema