Letale Autonome Waffensysteme, kurz LAWS, existieren zwar noch nicht, doch sie könnten eines Tages Realität werden. Schon jetzt erregen sie die Aufmerksamkeit der Völkerrechtler. Dr. Robert Frau vertritt den Lehrstuhl für Öffentliches Recht an der Juristischen Fakultät der Universität Potsdam. Er äußert sich zum Thema im Interview mit der Redaktion der Bundeswehr.
Letale autonome Waffensystem existieren zwar noch nicht, aber im Rahmen der UNUnited Nations-Waffenkonvention beraten schon vorab Staaten, über deren Regulierung. Warum?
Entzündet hat sich die Debatte am Einsatz bewaffneter Drohnen, die ja eine Weile im Mittelpunkt des Interesses standen. Missverstanden wurde dabei, dass Drohnen ferngesteuert agieren und immer ein Mensch die Angriffsentscheidung trifft. Nachdem die Staaten und die Zivilgesellschaft erkannt hatten, dass die Entwicklung künstlicher Intelligenz voranschreitet und damit auch neue Militärtechnik möglich wird, gab es laute Stimmen, die vor solchen Systemen gewarnt haben. Diese Bedenken werden jetzt im Rahmen der UNUnited Nations-Waffenkonvention diskutiert.
Unbekannt ist dieses Vorgehen übrigens nicht. Im Rahmen der UNUnited Nations-Waffenkonvention haben Verhandlungen über das Verbot bestimmter Laserwaffen zum Erfolg geführt, obwohl solche Waffen damals noch nicht existierten.
Gilt das Internationale Humanitäre Völkerrecht auch für LAWS?
Selbstverständlich! Im Rahmen eines bewaffneten Konflikts gilt stets das humanitäre Völkerrecht. Ein Grundsatz dabei lautet, dass die Konfliktparteien kein unbegrenztes Recht in der Wahl ihrer Mittel und Methoden haben. Insbesondere müssen die Kardinalprinzipien des Unterscheidungsgrundsatzes zwischen militärischen Zielen und zivilen Objekten sowie des Verbots der Verursachung überflüssiger Leiden und unnötiger Verletzungen beachtet werden. Diese Grundsätze gelten unabhängig von den eingesetzten Waffensystemen.
Muss das Völkerrecht im Hinblick auf diese Waffen gestärkt werden?
In der Völkerrechtswissenschaft wird darüber heiß diskutiert. Eigentlich ist das Völkerrecht so gestrickt, dass es den Einsatz jedes neuen Waffensystems in Krieg und Frieden regelt. Regelungs- oder zumindest Klärungsbedarf sehe ich nur bei der Anwendbarkeit von Menschenrechten im Ausland oder der strafrechtlichen Verantwortung.
Sollte der Soldat im Einsatz seine Entscheidungen völlig an Waffensystem abgeben können, oder sind menschliche Empathie und Verständnis auch beim Einsatz von Waffen absolut unverzichtbar – sollte also der Mensch die Entscheidungsgewalt über Leben und Tod behalten?
Das ist eine philosophische Frage. Menschliche Gefühle, die ja nicht nur Empathie oder Verständnis, sondern auch Hass oder Rachegelüste umfassen können, sind nicht entscheidend. Daher ist völkerrechtlich nicht zwingend, dass solche Entscheidungen durch Menschen zu treffen sind. Auf der anderen Seite wird ein verantwortungsvoll handelnder Soldat sich im Einsatz genau überlegen, ob er eigene Entscheidungen auf ein System delegieren oder ob er nicht Herr über das Geschehen bleiben möchte.
Die Debatte löst starke Emotionen aus. Es besteht Bedarf an Versachlichung. Können Sie dazu beitragen?
Zunächst sollte man sich klarmachen, dass die Kardinalprinzipien des humanitären Völkerrechts stets gelten. Auch der Einsatz von LAWS muss anhand der Unterscheidung zwischen erlaubten Zielen und geschützten Objekten erfolgen. Kein Staat will davon abweichen. LAWS sollen nicht den Rechtsbruch einfacher machen, sondern die eigenen Truppen unterstützen. Darüber hinaus muss man spezifizieren: LAWS mögen an Land anders zu bewerten sein als im Luft- oder Seekrieg. Darüber hinaus können sie offensiv oder defensiv eingesetzt werden. Das Horrorszenario, in dem ein Killer-Roboter in ein Stadtviertel in Feindeshand geschickt wird, dürfte erst einmal eine Horrorvorstellung bleiben. Denn wenn ein Staat tatsächlich eine so hohe Form der künstlichen Intelligenz entwickeln würde, dann wäre der erste Einsatz bestimmt nicht dort wo das System ungemein gefährdet wäre. Es gilt also, Verallgemeinerungen zu vermeiden.
Auch eine stärkere Konzentration auf die richtigen Begriffe scheint geboten? Was ist beispielsweise der Unterschied zwischen einem autonomen und einem automatisierten Waffensystem – und was folgt daraus für unser Thema?
Auf jeden Fall! Klare Begriffe machen deutlich, was gemeint ist. Für unser Thema bedeutet das zweierlei. Erstens bedeutet automatisch, dass das System genau das macht, was ihm vorher gesagt wurde. Das System folgt also einem programmierten Prozess mit dem immer gleichen Ergebnis. Eine Waschmaschine arbeitet automatisch. Bei autonomen Systemen kommt eine Stufe hinzu, nämlich die eigene Entscheidung durch das System selbst. Diese ist nicht vorhersehbar. Beispiele dafür existieren noch nicht.
Zweitens sollte die unglückliche Formulierung von voll- oder halbautonomen System fallen gelassen werden. Im Interesse der Diskussion steht nur die Frage, ob die Angriffsentscheidung durch Mensch oder Maschine getroffen wird. Dass Start und Landung autonom erfolgen können, interessiert im Rahmen der Kriegführung nicht. Und dennoch wäre ein solches System mindestens als halbautomatisch zu bezeichnen, selbst wenn stets ein Mensch die Angriffsentscheidung treffen würde. Hier gilt ebenfalls, das Pauschalisierungen zu vermeiden sind.
Wie sind in diesem Kontext die Begriffe autark oder autonom einzuordnen. Ist ein Roboter autark oder autonom – und was folgt wiederum daraus für unser Thema?
Autonome Systeme werden umgangssprachlich als Roboter bezeichnet. Das bedeutet, dass das Handeln von Robotern nicht vorhersehbar ist. Ein Militärroboter mag daher ein zulässiges militärisches Ziel nicht angreifen, obwohl er darf. Warum bleibt sein Geheimnis. Solche Roboter verkörpern also eine künstliche Intelligenz, die bislang nicht existiert.
Abschließend die Frage: Sollten Waffensysteme, die dem Menschen die Entscheidung über den Waffeneinsatz entziehen, völkerrechtlich geächtet werden?
Die Frage nach dem „soll“ ist keine völkerrechtliche, sondern eine politisch, ethische, militärische oder philosophische. Die Antwort muss in einem gesamtgesellschaftlichen Dialog gefunden werden. Juristen mögen ein Verbot oder eine Erlaubnis formulieren können. Die Frage nach der Gebotenheit oder Klugheit müssen andere beantworten.
Inhalte teilen via