Autos, Busse und Lkw können sich mithilfe von KI in Zukunft selbstständig fortbewegen. Das macht den Verkehr sicherer, schneller und umweltfreundlicher. Aber wer trägt die Verantwortung, wenn die autonomen Fahrzeuge einen Unfall verursachen? Diese Streitsache wurde am 17. Februar 2022 im fiktiven Gerichtsverfahren der Plattform Lernende Systeme und des Lehrstuhls für Strafrecht, Strafprozessrecht, Strafrechtsvergleichung und Rechtsphilosophie (Frau Prof. Dr. Beck) am Berliner Futurium diskutiert.
Carla Fuchs ist an einem Samstagabend im Jahr 2025 zu Fuß auf einem Gehweg unterwegs. Auf der Straße nähert sich ihr Peters vollautonomes Fahrzeug. Plötzlich stoppt ein vorausfahrender LKW unerwartet ab. Aufgrund der schlechten Witterung kann Peters Fahrzeug nicht mehr rechtzeitig abbremsen. Beim Ausweichen nach links würde das Auto eine auf der anderen Fahrbahn entgegenkommende Gruppe Fahrradfahrer treffen, beim Ausweichen nach rechts Fußgängerin Carla. Das KI-System im autonomen Fahrzeug ist so programmiert, dass es eine Verletzung seiner Passagiere verhindern soll, die beim Aufprall auf den LKW nicht zu vermeiden wäre. Nach einer schnellen Risikoabwägung zwischen den Verkehrsteilnehmern weicht Peters Fahrzeug nach rechts aus und erfasst Carla. Diese wird dabei verletzt.
In diesem realitätsnahen Fall, der in einer stark vereinfachten Gerichtssituation nachgespielt wurde, schlüpften Fachleute aus den Bereichen KI, Ethik und Recht in die Rollen von Richterin, Anwälten sowie Sachverständigen. Moderiert von Journalistin Andrea Thilo tauschten sie Argumente und Expertise aus. Dipl.-Jur. Simon Gerndt, Mitarbeiter am oben genannten Lehrstuhl, forderte in der Rolle von Carlas Anwalt Schadensersatz vom Hersteller des autonomen Fahrzeugs. Er argumentierte, dass das KI-System fehlerhaft sei und die Risikobewertung des Fahrzeugs Carla fälschlicherweise geschädigt hätte. Esra Karakoc, ebenfalls Mitarbeiterin von Frau Prof. Dr. Beck, führte in der Rolle der Anwältin des Herstellers hingegen an, dass die Entscheidung, zu der das System gezwungen war, folgerichtig war.
Experten erklären technische und ethische Aspekte des Falles
Wie lässt sich beurteilen, ob eine Fehlfunktion des selbstlernenden KI-Systems zu dessen Entscheidung in dieser sogenannten Dilemmasituation geführt hat? Tobias Hesse, Abteilungsleiter am Deutschen Zentrum für Luft- und Raumfahrt und Mitglied der Arbeitsgruppe Mobilität und intelligente Verkehrssysteme der Plattform Lernende Systeme zeigte in der Rolle des Sachverständigen die technischen Hintergründe des Falles auf. Über Sensoren nimmt das autonome Fahrzeug seine Umgebung im Straßenverkehr wahr. Die KI-Software verarbeitet diese Informationen und entscheidet, ob das Fahrzeug zum Beispiel zu bremst oder ausweicht. Diese Software sei nicht vollständig durchprogrammiert, sondern wurde mit vergleichbaren Daten vor seinem Einsatz trainiert. So lernten die Systeme, Menschen Straßenschilder oder Autos zu erkennen. Im Ergebnis machten autonome Fahrzeuge weniger Fehler als Menschen am Steuer, so Hesse. Es werde aber vermutlich in keiner Codezeile stehen, wie das Fahrzeug in einer solch seltenen Situation exakt zu reagieren hat. Die KI im autonomen Fahrzeug lerne nach dem Kauf selbstständig dazu. Warum das Fahrzeug in der Situation so reagiert hat, lässt sich nachträglich kaum nachvollziehen.
Darf ein selbstlernendes Auto seine Passagiere besser schützen als andere Verkehrsteilnehmer?
Die ethischen Aspekte des Falles erklärte Armin Grunwald, Professor für Technikphilosophie am Karlsruher Institut für Technologie (KIT), Leiter des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) und Mitglied der Arbeitsgruppe Recht und Ethik. Er betonte, dass ein KI-System keine Entscheidungen treffe, sondern nur auf Grundlage seines Algorithmus und seines Trainings agiere, also so, wie es sein Hersteller konzipiert hat. Zudem erläuterte er, dass aus ethischer Sicht ein autonomes Fahrzeug in einer Notsituation nicht eine Personengruppe in Gefahr bringen und eine andere damit bevorzugen darf. So darf ein autonomes Fahrzeug beispielsweise nicht das Leben seiner Passagiere über das einer Passantin stellen. Faktisch seien Fußgänger und Radfahrer aber immer schlechter geschützt als Passagiere im Auto – auch ohne KI im Bordcomputer.
Rege Diskussion unter Zuschauenden
Die über 150 Zuschauenden wirkten interaktiv an der Veranstaltung mit. In Live-Abstimmungen zeigten sie ein geteiltes Meinungsbild. Während viele Teilnehmerinnen und Teilnehmer argumentierten, ein KI-System müsse in einer Dilemmasituation nicht besser entscheiden können als ein Mensch, sahen andere die Verantwortung für den Unfallausgang beim Hersteller, der Passagiere im autonomen Fahrzeug nicht besser schützen dürfe als andere Verkehrsteilnehmer. Ob eine Fehlfunktion beim KI-Systeme vorliegt und wer folglich die Verantwortung für einen Unfall trägt, ist nicht einfach zu klären und noch schwieriger zu beweisen, so das Fazit von Daniela Sprengel von der Leibniz Universität Hannover, die in die Robe der Richterin geschlüpft war. In der fiktiven Streitsache einigten sich die Beteiligten Parteien auf einen Vergleich.
Über 150 Interessierte nahmen an der virtuellen Veranstaltung am 17. Februar teil.
Aufzeichnung
Die Aufzeichnung des Livestreams finden Sie hier.
Veranstaltungen für interessierte Studierende an der Juristischen Fakultät
Wenn Sie bereits während des Studiums einen Einblick in besondere Bereiche des Strafrechts einerseits erhalten wollen und sich andererseits mit den rechtlichen Herausforderungen durch die Digitalisierung befassen möchten, empfehlen wir Ihnen im Sommersemester 2022 folgende Veranstaltungen:
- Proseminar Digitalisierung und Kriminalität
- Proseminar Grundfragen des Medizinstrafrechts
- Vorlesung: Legal Tech im Anwaltsberuf
- Schwerpunktbereich 4 (Strafverfolgung und Strafverteidigung)
- Schwerpunktbereich 7 (IT-Recht und Geistiges Eigentum).