Der Einsatz Künstlicher Intelligenz ist nicht auf zivile Zwecke begrenzt. Die Kriege in der Ukraine und in Gaza zeigen, wie umfassend KI bereits aktiv von militärischen Akteuren eingesetzt und getestet werden. Diese Entwicklung wirft jedoch erhebliche völkerrechtliche Fragen zum Einsatz solcher Systeme auf: Wie können maschinelle Entscheidungen kontrolliert und für eine Zuschreibung von Verantwortung nachvollzogen werden? Welche Rolle spielt der Mensch in diesen Prozessen? Dieser Blog diskutiert internationale Regulierungsinitiativen, die in der EU und den Vereinten Nationen im vergangenen Jahr angestoßen wurden.
Künstliche Intelligenz (KI) ist gegenwärtig in aller Munde. Große Tech-Unternehmen wie OpenAI, Facebook, Google oder Microsoft wetteifern um immer ausgefeiltere Technologien und höhere Leistungsfähigkeit ihrer Systeme. Diese Entwicklung ist auch von Rüstungsunternehmen und militärischen Entscheidungsträger*innen erkannt worden, denn KI verspricht hier die Lösung zweier großer Probleme. Zum einen die Filterung und Aggregation der riesigen Datenmengen, die durch militärische Überwachungs- und Waffensysteme anfallen und für menschliche Benutzer*innen aufbereitet werden müssen, um von diesen sinnvoll für Entscheidungsprozesse genutzt zu werden. Zum anderen kommen in immer mehr militärischen Systemen autonome Funktionen zum Einsatz– z.B. das selbstständige Abfliegen von Wegpunkten oder die Identifizierung und Kategorisierung potenzieller Ziele – die immer leistungsfähigere KI benötigt, um bestimmte Aufgaben ohne, oder nur mit minimaler menschlicher Kontrolle durchzuführen.
Insbesondere der Krieg in der Ukraine hat sich zur Testumgebung für KI-Anwendungen entwickelt und Rüstungsbestrebungen befeuert. Aussagen wie jene von Alex Karp, CEO des Datenanalyse-Unternehmens Palantir, demzufolge deren Algorithmen „verantwortlich für den Großteil der Zielauswahl in der Ukraine“ sind, unterstreichen, das KI längst in der militärischen Anwendung angekommen ist. Aber auch andere Systeme wie das israelische „The Gospel“ zur tausendfachen automatischen Vorauswahl mutmaßlich militärisch relevanter Ziel im Gaza-Streifen oder das Replicator-Projekt der USA, bei dem tausende günstige militärisch genutzte Drohnen im Schwarm agieren sollen, verdeutlichen exemplarisch die Tragweite der neuen technischen Möglichkeiten.
All dies stellt das Völkerrecht vor erhebliche Herausforderungen, wie sie bereits im Zusammenhang früherer militärischer Anwendungen, beispielsweise den Debatten über bewaffnete autonome militärische Systeme (LAWS -Lethal autonomous weapon systems), umfassend debattiert wurden. Schließlich wirft der Einsatz solcher Systeme zentrale Fragen hinsichtlich ihrer Kontrollierbarkeit sowie der Nachvollziehbarkeit von KI-Entscheidungen auf. Aber auch menschliche Einflussmöglichkeiten und Kontrolle, die Verantwortung bei selbstständig von Maschinen getroffenen Entscheidungen sowie die zunehmende Limitierung des Menschen bei solchen Abläufen stehen zur Diskussion. Mittlerweile haben auch Staaten diese Herausforderungen unregulierter Anwendung von KI in militärischen Systemen erkannt und präsentieren Vorschläge, welche Prinzipien bei der Entwicklung und dem militärischen Einsatz von KI eingehalten werden sollten.
Internationale Initiativen und Kernprinzipien für den sicheren Umgang mit KI
Einen entscheidenden Aufschlag machte die von der niederländischen Regierung initiiert Konferenz „Summit on Responsible Artificial Intelligence in the Military Domain“ (REAIM) im Februar 2023. Im Zuge der Konferenz haben die anwesenden Regierungsvertreter von 57 Staaten – darunter die USA, China und der Großteil der EU-Staaten – einen gemeinsamen Aktionsaufruf zur verantwortungsvollen Entwicklung, Einführung und Nutzung von künstlicher Intelligenz (KI) im militärischen Bereich verabschiedet. Auf der Grundlage, dass KI einen massiven Einfluss auf militärische Systeme haben wird, dieser Einfluss aktuell aber noch gar nicht vollständig verstanden wird, wurden folgende – freilich politisch nicht bindende – Prinzipien formuliert:
- Der Mensch soll beim Einsatz von KI im militärischen Bereich verantwortlich sowie rechenschaftspflichtig bleiben und der Einsatz von KI-Systemen stets unter menschlicher Aufsicht erfolgen.
- Militärisches Personal soll ausreichend geschult sein um die möglichen Einflüsse wie potenzielle Verzerrungen in den Daten (Data-Bias) und die Konsequenzen des Vertrauens in die Entscheidungen von KI-Systemen und dessen Einsatz zu überblicken.
- Auf die verfrühte Umsetzung von KI ohne ausreichende Forschung, Prüfung und Sicherheit sollte zugunsten eines alle Stakeholder einbeziehenden Ansatzes verzichtet werden um ungewollten Schaden zu vermeiden.
- Trainingsdaten von KI-Systemen sollen in einer Weise erhoben, genutzt, weitergegeben, und archiviert werden, die dem Völkerrecht sowie den einschlägigen Rechtsrahmen und Daten- und Sicherheitsstandards entsprechen.
Da ein Großteil der globalen KI-Forschung und Innovation im zivilen Bereich stattfindet, rufen die unterzeichnenden Staaten dazu auf, dies mit Blick auf die Verantwortung für die internationale Sicherheit und im Einklang mit dem Völkerrecht zu leisten. Gleichzeitig verdeutlicht das Fehlen starker Selbstbeschränkung aber leider auch, dass Staaten gegenwärtig nicht bereit zu sein scheinen, mögliche militärische Vorteile, den sie sich vom Einsatz von KI in verschiedenen Systemen und Szenarien versprechen, aufzugeben und entsprechende Ambitionen einzuschränken.
Der im November 2023 durch die britische Regierung veranstaltete AI Safety Summit 2023 griff die Impulse der REAIM-Konferenz auf und hatte sich zum Ziel gesetzt, Menschen- und völkerrechtliche Risiken beim Einsatz von KI – nicht nur im militärischen Bereich – zu erörtern. In Kooperation mit Tech-Unternehmen sollten international koordinierte Maßnahmen ausgelotet werden, um die Gefahren dieser Technologie abzumildern.
Die als „Bletchley Declaration“ betitelte und von 29 Staaten – darunter China, die USA und Deutschland – unterzeichnete Abschlusserklärung unterstreicht, dass folgende Prinzipien bei der Entwicklung und dem Einsatz von KI oberste Priorität haben sollen:
- der Schutz der Menschenrechte,
- die Transparenz und Erklärbarkeit der Ergebnisse,
- die angemessene menschliche Aufsicht der verwendeten KI-Systeme
- Rechenschaftspflicht und Einsatz der KI auf Grundlage ethischer Prinzipien
Gleichzeitig unterstreicht die Erklärung eine Warnung, die bereits im Rahmen der REAIM-Konferenz geäußert wurde: Angesichts der enormen Entwicklungsgeschwindigkeit von KI und den Trends hin zu hochgradig fähigen und universell einsetzbaren KI-Modellen (sogenannten general-purpose AI models) sind die sich daraus ergebenden Risiken nicht vollständig verstanden. Vor diesem Hintergrund regt die Deklaration die Entwicklung nationaler–- und im besten Fall international abgestimmter – Regelungen und Frameworks zur Risikobewertung und Risikominimierungsstrategien an.
China und die USA mit unterschiedlichen Perspektiven
Nahezu zeitgleich zu der Konferenz in Blechtley Park und im Abstand von wenigen Wochen haben sowohl die USA als auch China eigene Vorschläge für den Umgang mit KI vorgelegt. Der Vorstoß der USA, betitelt als „Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy“, dem sich mittlerweile 52 Staaten angeschlossen haben, bezieht sich dabei ausschließlich auf den militärischen Einsatz dieser Technologie. Demgegenüber widmet sich Chinas „Global AI Governance Initiative“ dem breiteren Einsatz von KI, geht aber auch auf die militärische Nutzung ein. Beide Deklarationen folgen im Kern den bereits genannten Prinzipien, insbesondere bei der Hervorhebung des Spannungsfelds zwischen Fortschritt und Bedrohung, dem Aufruf geltendes internationales Recht zu beachten und dem Anspruch auf vertrauenswürdige und nachvollziehbare KI-Produkte und Anwendungen. Hinsichtlich der militärischen Nutzung von KI verweist Chinas Vorschlag zwar darauf, dass „insbesondere die großen Länder, (..) eine umsichtige und verantwortungsvolle Haltung gegenüber der Forschung, Entwicklung und Anwendung von KI-Technologien im militärischen Bereich einnehmen“ sollten, geht darüber hinaus aber nicht auf weitere, spezifischere Prinzipien ein. Der US-amerikanische Vorschlag wiederum stellt die Notwendigkeit eines menschlichen „Oversights“ über den Einsatz militärischer KI-Systeme heraus, lässt dabei aber offen, in welchem Umfang diese Systeme auch vollkommen autonom agieren dürfen – was im Umkehrschluss auch den autonomen Einsatz von Waffengewalt nicht ausschließt.
Vor dem Hintergrund, dass der Zugriff auf die notwendigen High-Tech-Ressourcen bei der Entwicklung und Anwendung moderner KI-Systeme, wie bspw. spezialisierte Mikrochips, zunehmend Bestandteil des globalen Power-Plays zwischen Staaten wird, enthält Chinas Position einen weiteren Aspekt der klar darauf abzielt. Die Deklaration spricht sich nämlich dagegen aus „ideologische Grenzen zu ziehen oder exklusive Gruppen zu bilden, um andere Länder an der Entwicklung von KI zu hindern“ sowie „gegen die Schaffung von Barrieren und die Unterbrechung der globalen KI-Lieferkette durch technologische Monopole und einseitige Zwangsmaßnahmen“. Dieser Passus kann nur als klare Kritik an den US- und teilweise auch EU-Exportkontrollrestriktionen auf die, für KI-Anwendungen benötigten, hochspezialisierten Mikroprozessoren verstanden werden.
Resolutionen der EU und UN mit Fokus auf nicht-militärische Nutzung von KI
Im März 2024 hat nun auch die EU ihre seit 2021 in Arbeit befindlichen Vorgaben für die Regulation von KI und KI-Produkten veröffentlicht, die als weltweit erstes verbindliches Rahmenwerk angesehen werden. Der „EU AI Act“ (AIA) bezieht sich dabei jedoch explizit nicht auf militärisch genutzte KI-Systeme, da deren Regulierung „dem Völkerrecht unterliegen (…), das daher der geeignetere Rechtsrahmen für die für die Regulierung von KI-Systemen im Zusammenhang mit der Anwendung von tödlicher Gewalt und anderen KI-Systemen im Zusammenhang mit militärischen und verteidigungspolitischen Aktivitäten“ ist. Stattdessen betont der AIA die Relevanz von KI für gesellschaftliche und wirtschaftliche Fortschritte innerhalb der EU, erkennt aber die Sicherheitsgefahren an, die von diesen Systemen ausgehen können. Um die Kritikalität von KI-Anwendungen zu bewerten, werden Kriterien definiert, die sowohl technische, ökonomische als auch menschenrechtliche Aspekte bei der Herstellung und dem Einsatz von KI beinhalten. Entlang dieser Kriterien werden Auflagen zur Sicherung, der Kontrolle und Rechtssicherheit für KI-Systeme definiert, die als verbindliche Grundsätze in nationale Gesetzgebung der EU-Staaten übergehen sollen.
Schlussendlich hat sich auch die UN in ihrer Vollversammlung am 11.03.2024 auf eine Resolution verständigt, die sich der Nutzung und den Chancen sicherer und vertrauenswürdiger KI-Systeme widmet. Die Resolution basiert auf einem Vorschlag der USA und wurde von mehr als 120 Ländern angenommen, bezieht sich jedoch ähnlich wie der EU AI Act ausdrücklich nur auf den nicht-militärischen Gebrauch von KI und der Förderung sicherer und vertrauenswürdiger KI-Systeme für den Fortschritts in Bezug auf Menschenrechte, gemeinsame Entwicklungsziele und Nachhaltigkeit. Gleichwohl wird aber auch betont, dass dabei Menschen im Zentrum stehen sollen und KI in den falschen Händen eine erhebliche Gefährdung darstellt. Um diese gezielt zu bewerten, wird die Entwicklung und der Einsatz von Werkzeugen zur „international interoperablen Identifizierung, Klassifizierung, Bewertung und Prüfung, Vorbeugung und Abschwächung von Schwachstellen und Risiken während der Konzeption, Entwicklung und der Nutzung von KI-Systemen“ empfohlen.
Fazit
Angesichts der vorgestellten Deklarationen und Regulierungsvorschläge ist festzuhalten, dass Staaten neben der Relevanz von KI als Technologie auch deren Gefahren und den enormen technologischen Entwicklungstrend zunehmend wahr- und ernst nehmen. Es wird aber auch deutlich, dass es global durchaus unterschiedliche Auffassungen gibt, wie genau diese Regulierung aussehen soll. Insbesondere bei der Frage nach dem Umfang menschlicher Kontrolle und dessen Einflussmöglichkeiten bei den Entscheidungen von KI-Systemen treten erneut jene Differenzen hervor, die sich bereits im Zuge der Debatten über die Regulierung autonomer militärischer Systeme – zu denen aus technologischer Perspektive große Schnittmengen bestehen – gezeigt haben. Darüber hinaus braucht es wenig Fantasie um sich auszumalen, dass sich einige der staatlichen Akteure technologische Vorsprünge und darauf basierende militärische Vorteile nicht nehmen lassen wollen. Auch wenn es also hinsichtlich des militärischen Einsatzes von KI formal inhaltlich große Überschneidungen gibt, bleibt abzuwarten, ob aus den Deklarationen auch verbindliche völkerrechtliche Prinzipien folgen. Gerade mit Blick auf die endlosen Debatten über Autonomie in Waffensystemen besteht aktuell leider wenig Raum für Optimismus.