CCW Informal Meeting of Experts in Geneva 2014 | Foto: UN Geneva | CC BY-NC-ND 2.0

Autonome Waffensysteme: Herausforderungen für Verbot und Einhegung

Vor wenigen Jahren noch als Befürchtungen überängstlicher Science-Fiction Anhänger belächelt, werden die Risiken autonomer Waffensysteme inzwischen immer intensiver diskutiert. Nicht nur kritische Nichtregierungsorganisationen und Wissenschaftlerinnen und Wissenschaftler fürchten, dass autonome Waffensysteme ohne ausreichende menschliche Kontrolle die Kriegsführung erheblich beschleunigen, destabilisierende Auswirkungen haben und die Einhaltung des Humanitären Völkerrechts nicht garantieren. Immer mehr Experten aus der Wirtschaft schließen sich den Bedenken an. Initiativen zur Einhegung autonomer Waffensysteme sollten sich nicht nur auf den militärischen Bereich beschränken, sondern den möglichen Missbrauch ziviler Systeme einschließen.

Verbotsdebatten im Rahmen der CCW

Nachdem schon 2015 verschiedenste Experten zu Künstlicher Intelligenz und Robotik einen Bann offensiver autonomer Waffen forderten, der u.a. von Elon Musk von Tesla, Apple Mitgründer Steve Wozniak und Stephen Hawking unterstützt wurde, haben sich nun mehr als 125 Vertreter von Technologiefirmen unter der Führung von Musk und Alphabets Mustafa Suleyman mit einem offenen Brief an die UN-Waffenkonvention CCW (Convention on Certain Conventional Weapons) gewandt. Darin fordern sie die CCW auf, Mittel und Wege zu finden, einen Rüstungswettlauf mit autonomen Waffensystemen zu stoppen, Zivilisten vor Missbrauch der Waffen zu schützen und destabilisierende Effekte zu verhindern.

Die CCW wurde nicht zufällig als Adressat des Briefes gewählt. Seit 2014 wird im Rahmen der CCW über ein mögliches Verbot tödlicher autonomer Waffensysteme diskutiert. Erst im Dezember 2016 hatte die fünfte Überprüfungskonferenz der CCW nach drei Jahren informeller Gespräche beschlossen, für 2017 eine offizielle Expertengruppe einzusetzen, die an mindestens zwei Terminen tagen sollte. Allerdings, und auch das thematisierten die CEOs in ihrem Brief kritisch, kam der erste, für August angesetzte Termin schon einmal nicht zustande, da einzelne Staaten mit ihren Beitragszahlungen im Rückstand waren. Ob der zweite Termin im November stattfinden wird, ist noch nicht sicher, aber zumindest ist man in diplomatischen Kreisen zuversichtlich, eine Finanzierung auf die Beine stellen zu können.

Verbot oder Einhegung?

Nüchtern betrachtet steht in dem Brief der Firmenvertreter nichts, was man nicht bereits im Rahmen der Debatte um tödliche autonome Waffensysteme gehört hätte. Was den Brief interessant macht, ist, dass er das bislang breiteste Spektrum an Experten aus den Unternehmen versammelt, die an der Spitze der Entwicklung von Künstlicher Intelligenz und Autonomie stehen. Vermutlich kam diese Koalition nur um den Preis zustande, dass der Brief – entgegen der Berichterstattung einiger Medien – keine explizite Forderung nach einem kompletten Verbot autonomer Waffen enthält. Stattdessen wird gefordert, mögliche negative Effekte autonomer Waffen (genannt werden Rüstungswettläufe, Destabilisierung, die Beschleunigung des Krieges, die Gefahr des Missbrauchs durch Despoten, Terroristen oder Hacker) einzuhegen – am besten durch technologische Lösungen, wozu man der CCW auch gerne technologische Ratschläge unterbreiten möchte.

Damit lenken die Firmenvertreter den Blick auf den blinden Fleck der bisherigen Debatte: So wünschenswert ein Verbot tödlicher autonomer Waffen auch sein mag und so sinnvoll es wäre, das Prinzip von „meaningful human control“, also bedeutsamer menschlicher Kontrolle, bei aktuellen und zukünftigen Waffensystemen einzuführen, so ungeklärt ist bislang, wie ein solches Prinzip sinnvoll umgesetzt und überwacht werden könnte. Denn wenn die Leistungsfähigkeit eines Waffensystems immer weniger von der Hardware und immer stärker von der Software bestimmt wird, ist es mit den erprobten, Transparenz erzeugenden Verfahren der Rüstungskontrolle – Inspektionen, Überflügen, Messungen – nicht getan.

Den Nichtregierungsorganisationen, die die Debatte in der CCW vorangetrieben haben und weiter vorantreiben, kann diese Bürde nicht auferlegt werden, hier auch noch Lösungen zu entwickeln. Die CCW wäre also sehr gut beraten, die Technologiefirmen beim Wort zu nehmen und in die geplante Expertengruppe neben Diplomaten, NGOs und Rüstungskontrollexperten auch kreative Technologieexperten aufzunehmen um die technologischen Möglichkeiten neuer Rüstungskontrollmaßnahmen auszuloten.

Grenzen aktueller Abwehrkonzepte

Allerdings sollte man bedenken, dass das Thema autonomer Waffensysteme selbst im günstigsten Fall, nämlich einem verifizierbaren Verbot tödlicher autonomer Waffen im Rahmen der CCW, nicht erledigt sein wird. Der Rückgriff auf unbemannte zivile Systeme als Terrorwaffe gegen zivile Ziele rückt zunehmend in den Fokus. Aktuell findet, unabhängig von der CCW, eine intensive Debatte über die Gefahren statt, die sich aus dem Einsatz unbemannter (aber ferngesteuerter) Hobbydrohnen ergeben. Im Wahlkampf 2013 etwa steuerte die Piratenpartei eine Drohne in die unmittelbare Nähe von Kanzlerin Merkel und dem damaligen Verteidigungsminister de Maizière und ließ die Personenschützer einigermaßen ratlos zurück, wie sie mit der Situation umgehen sollten. Spätestens aber seit der IS begonnen hat, Drohnen, die für wenige hundert Euro in jedem Onlineshop zu kaufen sind, mit Sprengstoff und Handgranaten zu bestücken und diese gegen irakische und amerikanische Truppen einzusetzen, boomt das Geschäft mit Drohnenabwehrtechnologie.

Wurde man vor vier bis fünf Jahren in internen Diskussionen von Vertretern der Sicherheitsbehörden ob solcher Szenarien noch belächelt, so ist die Gefahr, die von einer Bewaffnung kleiner Drohnen ausgeht, inzwischen anerkannt. Systeme zur Drohnenabwehr sind vielfältig und reichen inzwischen von Fangnetzen über unterschiedlich komplexe  Störsender, Übernahme des Steuerungssignals bis hin zu speziell trainierten Greifvögeln, die die Drohnen in der Luft fangen sollen. Und es überrascht schließlich nicht, dass an Drohnen zur Drohnenbekämpfung gearbeitet wird.

Allerdings haben alle aktuell diskutierten Abwehrkonzepte mit zwei Problemen zu kämpfen: Sie sind entweder nur auf eine kleine Anzahl angreifender Drohnen ausgerichtet oder sie zielen darauf, die Verbindung zwischen Pilot und Drohne zu unterbinden. Damit scheinen sie nicht geeignet, die zwei zentralen Trends aktueller Drohnenentwicklung abzufangen: Schwarmverhalten – also die Koordination einer großen Anzahl von Drohnen – und höhere Autonomie. Beides geht Hand in Hand: immer größere Schwärme von Drohnen werden aufgrund zunehmender Künstlicher Intelligenz zu immer komplexerem Verhalten befähigt

An dieser Stelle könnte man nun im Detail Szenarien diskutieren, die zeigen, wie ein Schwarmangriff „intelligenter“ Kleindrohnen aktuelle Abwehrsysteme systematisch überfordern würde. Es soll genügen darauf hinzuweisen, dass z.B. auch Paul Scharre, Direktor des Technology and National Security Program des Center for a New American Security (CNAS) zu dem Schluss kommt, dass gerade im Bereich der Hobbydrohnen von zunehmender Autonomie die größte Gefahr ausgeht. Ansätze, die Nutzung ziviler Drohnen einzuhegen, gibt es bereits, z.B. dass Drohnen per „geofencing“ Sperrgebiete, z.B. Flughäfen oder militärische Einrichtungen, einprogrammiert werden, die nicht überflogen werden können. Allerdings wurden zumindest die Sperren einiger Anbieter inzwischen schon wieder gehackt.

Entsprechend ist es zwar eine willkommene Initiative, wenn die über 125 CEOs von Technologiefirmen anbieten, die Vereinten Nationen bei der Einhegung autonomer Waffensysteme technisch zu unterstützen. Sie sollten aber auch überlegen, wie Entwicklungen im zivilen Drohnen- bzw. Robotik-Sektor so abgesichert werden, dass die Risiken eines Missbrauchs Künstlicher Intelligenz durch Terroristen und andere Gewaltakteure – wenn nicht ausgeschlossen, so wenigstens deutlich – erschwert wird.

Niklas Schörnig
Niklas Schörnig ist wissenschaftlicher Mitarbeiter im Programmbereich Internationale Sicherheit der HSFK. Er forscht zu militärischer Robotik, dem Wandel des Krieges, gezielten Tötungen, Rüstungskontrolle und australischer Außen- und Sicherheitspolitik.
Niklas Schörnig

Neueste Beiträge vonNiklas Schörnig (alle anzeigen)

Niklas Schörnig

Niklas Schörnig ist wissenschaftlicher Mitarbeiter im Programmbereich Internationale Sicherheit der HSFK. Er forscht zu militärischer Robotik, dem Wandel des Krieges, gezielten Tötungen, Rüstungskontrolle und australischer Außen- und Sicherheitspolitik.