Die öffentliche Debatte zu einer möglichen Bewaffnung von Drohnen ist facettenreich und wird zumeist emotional aufgeladen und kontrovers geführt. Zur Herbeiführung einer parlamentarischen Entscheidung für eine mögliche Bewaffnung von Drohnen und entlang des geltenden Koalitionsvertrages ist daher beabsichtigt, eine breite Debatte konkret zu politischen, ethischen und rechtlichen Aspekten in mehreren Veranstaltungen zu führen.
Bislang zumeist undifferenzierte Begriffe wie „Killer-Drohnen“ sollen dabei aufgegriffen und entlang der Aspekte reflektiert werden.
Wichtig ist es dabei, eine Versachlichung der Debatte herbeizuführen. Dazu soll die Podiumsdiskussion „Bewaffnete Drohnen – politische, ethische und rechtliche Aspekte“ im Bundesministerium der Verteidigung (BMVgBundesministerium der Verteidigung) einen wichtigen Beitrag leisten.
Bewaffnungsfähige Drohnen werden oftmals auch als unbemannte Systeme bezeichnet. Sie werden durch Pilotinnen und Piloten gesteuert, die sich nicht an Bord der fahrenden, fliegenden oder schwimmenden Plattform befinden. In der Regel sitzen die Bediener weit von ihrem System entfernt in einem Container-basiertem Cockpit, welches sich entweder in Einsatzliegenschaften oder Kasernen im Heimatland befindet.
Essentiell bei dieser Betrachtung ist der Aspekt, dass unbemannte Systeme komplett unter der permanenten und unmittelbaren Kontrolle des Menschen verbleiben. Dies ist besonders für die ethischen und rechtlichen Aspekte der Debatte von Relevanz. Konkret bedeutet dies: Der Mensch behält jederzeit die Entscheidung über den Einsatz der Plattform sowie den Einsatz der Bewaffnung.
Ein „automatisiertes“ System folgt einem definierten Satz von Regeln und vorbestimmte Abläufe werden voll automatisiert oder in Teilen automatisiert ausgeführt. Das automatisierte System handelt im Rahmen seiner vorgegebenen Handlungsoptionen und überschreitet diese nicht. Eine eigene Entscheidungsfindung ist nicht vorgesehen. Dieses System arbeitet so lange, bis ein aktiver Eingriff des Menschen erfolgt. Bedienende können jeder Zeit in die Steuerung eingreifen. Damit führt ein Pilot oder eine Pilotin ein automatisiertes Waffensystem, das allein nach den menschlichen Vorgaben betrieben wird, die sich an festen ethischen, rechtlichen und politischen Regeln orientieren. Automatisierter Waffensysteme bleiben damit für den Menschen uneingeschränkt beherrschbar.
Eine Beteiligung der Bundeswehr an bewaffneten Konflikten orientiert sich immer entlang den Regeln des humanitären Völkerrechts. Dieses bestimmt damit auch den grundsätzlichen Rahmen für die Fähigkeiten unbemannter Systeme.
Ein Grundsatz lautet, dass die Konfliktparteien kein unbegrenztes Recht in der Wahl ihrer Mittel und Methoden haben. Insbesondere müssen die Kardinalprinzipien des Unterscheidungsgrundsatzes zwischen militärischen Zielen und zivilen Objekten sowie des Verbots der Verursachung überflüssiger Leiden und unnötiger Verletzungen beachtet werden, so der Völkerrechtler Robert Frau. Diese Grundsätze gelten unabhängig von den eingesetzten Waffensystemen. Dass überhaupt menschliche Eigenschaften jemals von Computern vollständig übernommen werden könnten, halten einige Fachleute für nahezu ausgeschlossen.
Zu diesen menschlichen Eigenschaften zählen beispielsweise Selbstbewusstsein, Würde, Empathie und die Fähigkeit, die Absichten eines potentiellen Gegners wirklich nachvollziehen zu können. Diese Eigenschaften sind bei der völkerrechtlichen Bewertung überaus relevant. Während automatisierte Waffensysteme mit dem Völkerrecht vereinbar sind, weil der Mensch das Kommando behält, ist das bei den autonomen Waffensystemen nicht so. Denn diesen Letalen Autonomen Waffensystemen (LAWS), die zwar noch nicht existieren, aber eines Tages Realität werden könnten, würden aus völkerrechtlicher und ethischer Sicht menschliche Eigenschaften fehlen.
Anders als die oben beschriebenen automatisierten Waffensysteme - darunter die in Rede stehenden bewaffnungsfähigen Drohnen - entziehen sich dagegen autonome Waffensysteme der rein menschlichen Kontrolle. Zu treffende Entscheidungen würden durch diese – komplett ohne den Einfluss des Menschen – in Eigenregie getroffen werden.
Es würde sich dabei um lernfähige Systeme handeln, die über einen längeren Zeitraum ohne Einfluss des Menschen eigenständig agieren könnten. Sie wären im Stande, komplexe Aufgaben zu lösen. Sie könnten neue Informationen, die sich durch wechselnde Einflüsse und unvorhersehbare Entwicklungen ergeben, dynamisch verarbeiten und daraus ohne menschliche Kontrolle lernen. Auf dieser Grundlage wären sie gegebenenfalls in der Lage, eigene Regeln aufzustellen. Es wäre also nicht vorherzusagen, wie diese Systeme letztlich agieren. Der Mensch hätte dabei keine Eingriffsmöglichkeiten mehr. Darin bestünde in der Tat eine neue politische, ethische und rechtliche Qualität.
Daher lehnen immer mehr Mitglieder der internationalen Staatengemeinschaft autonome Waffensysteme ab, darunter auch Deutschland. Sie vertreten die Auffassung, dass der Mensch die Entscheidungsgewalt über Leben und Tod behalten müsse.
Eine abschließende gesamtgesellschaftliche Antwort ist gleichwohl noch nicht gefunden. Die Frage, ob Waffensysteme, die dem Menschen die Entscheidung über ihren Einsatz entziehen, völkerrechtlich geächtet werden sollten, ist nach Ansicht von Expertinnen und Experten letztlich keine völkerrechtliche, sondern eine politische und ethische Frage. Juristinnen und Juristen mögen ein Verbot oder eine Erlaubnis formulieren können. Die Frage nach der Gebotenheit oder Klugheit muss die Gesellschaft beantworten.
Die abschließende Antwort muss also in einem gesamtgesellschaftlichen Dialog gefunden werden. Dazu soll der vom BMVgBundesministerium der Verteidigung angestoßene Diskussionsprozess einen wichtigen Denkanstoß darstellen.
Inhalte teilen via