Nach nunmehr zwei erfolgreich durchgeführten Veranstaltungen gingen die „Hannoverschen Gespräche zum Humanitären Völkerrecht“ des Deutschen Roten Kreuzes Region Hannover e. V. und des Instituts für Internationales Recht der Leibniz Universität Hannover in die dritte Runde.
Die Veranstaltung am Mittwoch, den 24. April 2024, stand unter dem Motto „Recht und Konflikte – Digitalisierung, Automatisierung und Konfliktführung“. Als Referenten konnten Herr Fregattenkapitän Volker Voss (Bundeswehr) und Herr Dipl.-Jur. Vincent Widdig (Leibniz Universität Hannover) begrüßt werden. Herr Voss trug zum Thema „Automatisierung & Autonomisierung in der militärischen Robotik“ vor. Herr Widdig ergänzte die Ausführungen mit einem Vortrag zum Thema „Zwischen Utopie und Dystopie: Die Rolle moderner Technologie in der Konfliktführung“.
Die Veranstaltung wurde wie immer von Dr. Stefan Birkner moderiert.
Um den gemeinsamen Boden der Diskussion aufzubereiten, startete Volker Voss zum Auftakt der Veranstaltung mit einer definitorischen Einführung in die Frage der Autonomie aus der Perspektive der Informatikwissenschaften. Kern der Frage war, wie auch dann im völkerrechtlichen Bereich, die Abgrenzung zu automatisierten Systemen. Insbesondere die Vorhersehbarkeit der Systeme spielt hier eine kritische Rolle in Ihrer Bewertung für den potenziellen Einsatz. Neben der Frage, wie ein „militärischer Roboter“ eigentlich zu definieren ist, war die zweite Erkenntnis des Abends, dass unter der Vielzahl der Einsatzmöglichkeiten autonomer oder automatisierter Systeme, die humanoide Form, zwar die dem menschlichen Auge bekannteste Form ist; für den faktischen Einsatz jedoch kaum einen Nutzen birgt. Die Anfänge automatisierter Systeme in der Konfliktführung lassen sich leicht bis in den zweiten Weltkrieg zurückverfolgen und sind so gesehen keine allzu neue Entwicklung der Konfliktführung. Die technologische Entwicklung zu Land, zu Wasser und zur Luft sowie im Cyberspace stellen jedoch verstärkt Herausforderungen an die technische und rechtliche Kontrolle dieser Systeme, deren Einsatz jedoch nicht allein auf den aktiven „Kampf“ sondern sich auch auf Felder wie Aufklärung, Logistik und Ausbildung der Truppen erstrecken. Ob wir einem „Terminator-Scenario“ entgegensehen, erscheint jedoch fraglich. Ebenso fraglich scheint jedoch auch, ob die von Isacc Asimovs entwickelten drei Robotergesetze befolgt werden:
- Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
- Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
- Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
Dies wohl erst recht vor dem Hintergrund, dass die Zukunft Digitalisierung und Automatisierung der Konfliktführung nicht allein in der Robotik liegt, sondern wohl auch in der algorithmischen Behandlung der Zielerfassung und der taktischen Analyse des Schlachtfelds. Zwar hält das humanitäre Völkerrecht einige grundlegende Regeln für die Konfliktführung vor. Insbesondere zum Schutz von Zivilpersonen und zivilen Objekten, aber auch zu Friedenszeiten (etwa Art. 36 des ZP 1 der vier Genfer Konventionen von 1949). Allerdings besteht Uneinigkeit über die Reichweite dieser Normen im Fall eines bewaffneten Konfliktes sowie über die Frage der Definition der Autonomie an sich. Zwar bestreiten einige Staaten oder auch andere Akteure die Anwendbarkeit des bestehenden Rechts auf vollautonome Systeme – ihre Analysen der zu tätigenden Handlung gehen jedoch weit auseinander. Von der Forderung der Schaffung neuen Rechts, der Regulierung oder des absoluten Verbotes bis hin zum Ausschluss rechtlicher Regelungen auf dieses Gebiet reichen hier die Forderungen. Herausforderungen an dieser Schnittstelle bestehen nicht nur mit Blick auf die unmittelbare Teilnahme an Feindseligkeiten durch Zivilpersonen im Cyberspace, sondern auch auf die grundsätzliche Einordnung von Operationen im sog. Cyberpace. Die Frage des anwendbaren Rechts wurde hier bisweilen völkerrechtlich „nur“ durch Softlaw – wie etwa den Tallinn Manuals on the International Law Applicable to Cyber Operations – beantwortet. Grade aber die Schnittstelle zwischen Digitalisierung und Automatisierung stellt die Regulierung von Feindseligkeiten vor hohe rechtliche und praktische Herausforderungen. Anschaulich wurde dies bspw. Im gegenwärtigen Konflikt im Gaza-Streifen. Hier soll durch eine KI namens „Lavender“ mutmaßlich die Zielerfassung und Klassifizierung der Ziele für den im Einsatz befindlichen Soldaten vorgegeben worden sein. Zwar liegt auch hier der letztliche Einsatzbefehl bei dem konkreten Offizier, allerdings bleibt es fraglich, ob dieser auch in jedem Einzelfall die Vorgaben der Zielerfassung durch die KI kritisch überprüft. Rechtlich soll die Automatisierung meist durch sog. meaningful human control eingefangen werden. Wie dies allerdings – fern der juristischen Theorie - in der Realität umsetzbar ist, bleibt an dem eben genannten Beispiel fraglich.
Großer Dank geht auch dieses Mal, neben dem Deutsche Rote Kreuz-Region Hannover e.V. für die Realisierung des Projekts, an das gesamte Team der Juristischen Fakultät, sowie dem Team vom Lehrstuhl von Herrn Prof. Dr. Claas Friedrich Germelmann, LL.M.für die organisatorische Unterstützung und an die Vielzahl von Teilnehmenden für die anregenden Diskussionen.
Verfasst von Vincent Widdig.
Bildergalerie
Eine kleine Galerie mit Eindrücken von der Veranstaltung finden Sie hier.
Ausblick
Das nächste „Hannoversche Gespräch zum Humanitären Völkerrecht“ findet am Donnerstag, 6. Juni 2024, statt und steht unter dem Motto „Recht und Konflikte – Konfliktlösung, Frieden und humanitäres Völkerrecht“.
Veranstaltungen für Studierende
Wenn Sie sich bereits im Studium vertieft mit Fragestellungen des internationalen Rechts und des Völkerrechts auseinandersetzen für Völkerrecht und wollen sich, empfehlen wir Ihnen folgenden Schwerpunktbereich: