{"id":12657,"date":"2024-05-07T16:41:59","date_gmt":"2024-05-07T14:41:59","guid":{"rendered":"https:\/\/blog.prif.org\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/"},"modified":"2024-05-07T16:41:59","modified_gmt":"2024-05-07T14:41:59","slug":"der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit","status":"publish","type":"post","link":"https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/","title":{"rendered":"Der milit\u00e4rische Einsatz k\u00fcnstlicher Intelligenz braucht Regeln: Nur welche, dar\u00fcber besteht keine Einigkeit"},"content":{"rendered":"<p><strong>Der Einsatz K\u00fcnstlicher Intelligenz ist nicht auf zivile Zwecke begrenzt. Die Kriege in der Ukraine und in Gaza zeigen, wie umfassend KI bereits aktiv von milit\u00e4rischen Akteuren eingesetzt und getestet werden. Diese Entwicklung wirft jedoch erhebliche v\u00f6lkerrechtliche Fragen zum Einsatz solcher Systeme auf: Wie k\u00f6nnen maschinelle Entscheidungen kontrolliert und f\u00fcr eine Zuschreibung von Verantwortung nachvollzogen werden? Welche Rolle spielt der Mensch in diesen Prozessen? Dieser Blog diskutiert internationale Regulierungsinitiativen, die in der EU und den Vereinten Nationen im vergangenen Jahr angesto\u00dfen wurden.<\/strong><\/p>\n<p>K\u00fcnstliche Intelligenz (KI) ist gegenw\u00e4rtig in aller Munde. Gro\u00dfe Tech-Unternehmen wie OpenAI, Facebook, Google oder Microsoft wetteifern um immer ausgefeiltere Technologien und h\u00f6here Leistungsf\u00e4higkeit ihrer Systeme. Diese Entwicklung ist auch von R\u00fcstungsunternehmen und milit\u00e4rischen Entscheidungstr\u00e4ger*innen erkannt worden, denn KI verspricht hier die L\u00f6sung zweier gro\u00dfer Probleme. Zum einen die Filterung und Aggregation der riesigen Datenmengen, die durch milit\u00e4rische \u00dcberwachungs- und Waffensysteme anfallen und f\u00fcr menschliche Benutzer*innen aufbereitet werden m\u00fcssen, um von diesen sinnvoll f\u00fcr Entscheidungsprozesse genutzt zu werden. Zum anderen kommen in immer mehr milit\u00e4rischen Systemen autonome Funktionen zum Einsatz\u2013 z.B. das selbstst\u00e4ndige Abfliegen von Wegpunkten oder die Identifizierung und Kategorisierung potenzieller Ziele \u2013 die immer leistungsf\u00e4higere KI ben\u00f6tigt, um bestimmte Aufgaben ohne, oder nur mit minimaler menschlicher Kontrolle durchzuf\u00fchren.<\/p>\n<p>Insbesondere der Krieg in der Ukraine hat sich zur Testumgebung f\u00fcr KI-Anwendungen entwickelt und R\u00fcstungsbestrebungen befeuert. Aussagen wie jene von Alex Karp, CEO des Datenanalyse-Unternehmens Palantir, demzufolge deren Algorithmen <a href=\"https:\/\/www.reuters.com\/technology\/ukraine-is-using-palantirs-software-targeting-ceo-says-2023-02-02\/\" target=\"_blank\" rel=\"noopener\">\u201e<em>verantwortlich f\u00fcr den Gro\u00dfteil der Zielauswahl in der Ukraine<\/em><em>\u201c<\/em><\/a> sind, unterstreichen, das KI l\u00e4ngst in der milit\u00e4rischen Anwendung angekommen ist. Aber auch andere Systeme wie das israelische \u201eThe Gospel\u201c zur tausendfachen automatischen Vorauswahl mutma\u00dflich milit\u00e4risch relevanter Ziel im Gaza-Streifen oder das Replicator-Projekt der USA, bei dem tausende g\u00fcnstige milit\u00e4risch genutzte Drohnen im Schwarm agieren sollen, verdeutlichen exemplarisch die Tragweite der neuen technischen M\u00f6glichkeiten.<\/p>\n<p>All dies stellt das V\u00f6lkerrecht vor erhebliche Herausforderungen, wie sie bereits im Zusammenhang fr\u00fcherer milit\u00e4rischer Anwendungen, beispielsweise den <a href=\"https:\/\/meetings.unoda.org\/ccw-\/convention-on-certain-conventional-weapons-group-of-governmental-experts-on-lethal-autonomous-weapons-systems-2023\" target=\"_blank\" rel=\"noopener\">Debatten \u00fcber bewaffnete autonome milit\u00e4rische Systeme<\/a> (LAWS -Lethal autonomous weapon systems), umfassend debattiert wurden. Schlie\u00dflich wirft der Einsatz solcher Systeme zentrale Fragen hinsichtlich ihrer Kontrollierbarkeit sowie der Nachvollziehbarkeit von KI-Entscheidungen auf. Aber auch menschliche Einflussm\u00f6glichkeiten und Kontrolle, die Verantwortung bei selbstst\u00e4ndig von Maschinen getroffenen Entscheidungen sowie die zunehmende Limitierung des Menschen bei solchen Abl\u00e4ufen stehen zur Diskussion. Mittlerweile haben auch Staaten diese Herausforderungen unregulierter Anwendung von KI in milit\u00e4rischen Systemen erkannt und pr\u00e4sentieren Vorschl\u00e4ge, welche Prinzipien bei der Entwicklung und dem milit\u00e4rischen Einsatz von KI eingehalten werden sollten.<\/p>\n<h2>Internationale Initiativen und Kernprinzipien f\u00fcr den sicheren Umgang mit KI<\/h2>\n<p>Einen entscheidenden Aufschlag machte die von der niederl\u00e4ndischen Regierung initiiert Konferenz <a href=\"https:\/\/www.government.nl\/ministries\/ministry-of-foreign-affairs\/activiteiten\/reaim\" target=\"_blank\" rel=\"noopener\">\u201eSummit on Responsible Artificial Intelligence in the Military Domain\u201c<\/a> (REAIM) im Februar 2023. Im Zuge der Konferenz haben die <a href=\"https:\/\/www.government.nl\/documents\/publications\/2023\/02\/16\/reaim-2023-endorsing-countries\" target=\"_blank\" rel=\"noopener\">anwesenden Regierungsvertreter von 57 Staaten<\/a> \u2013 darunter die USA, China und der Gro\u00dfteil der EU-Staaten \u2013 einen gemeinsamen <a href=\"https:\/\/www.government.nl\/documents\/publications\/2023\/02\/16\/reaim-2023-call-to-action\" target=\"_blank\" rel=\"noopener\">Aktionsaufruf zur verantwortungsvollen Entwicklung, Einf\u00fchrung und Nutzung von k\u00fcnstlicher Intelligenz (KI) im milit\u00e4rischen Bereich<\/a> verabschiedet. Auf der Grundlage, dass KI einen massiven Einfluss auf milit\u00e4rische Systeme haben wird, dieser Einfluss aktuell aber noch gar nicht vollst\u00e4ndig verstanden wird, wurden folgende \u2013 freilich politisch nicht bindende \u2013 <a href=\"https:\/\/www.government.nl\/ministries\/ministry-of-foreign-affairs\/documents\/publications\/2023\/02\/16\/reaim-2023-call-to-action\" target=\"_blank\" rel=\"noopener\">Prinzipien<\/a> formuliert:<\/p>\n<ul>\n<li>Der Mensch soll beim Einsatz von KI im milit\u00e4rischen Bereich verantwortlich sowie rechenschaftspflichtig bleiben und der Einsatz von KI-Systemen stets unter menschlicher Aufsicht erfolgen.<\/li>\n<li>Milit\u00e4risches Personal soll ausreichend geschult sein um die m\u00f6glichen Einfl\u00fcsse wie potenzielle Verzerrungen in den Daten (Data-Bias) und die Konsequenzen des Vertrauens in die Entscheidungen von KI-Systemen und dessen Einsatz zu \u00fcberblicken.<\/li>\n<li>Auf die verfr\u00fchte Umsetzung von KI ohne ausreichende Forschung, Pr\u00fcfung und Sicherheit sollte zugunsten eines alle Stakeholder einbeziehenden Ansatzes verzichtet werden um ungewollten Schaden zu vermeiden.<\/li>\n<li>Trainingsdaten von KI-Systemen sollen in einer Weise erhoben, genutzt, weitergegeben, und archiviert werden, die dem V\u00f6lkerrecht sowie den einschl\u00e4gigen Rechtsrahmen und Daten- und Sicherheitsstandards entsprechen.<\/li>\n<\/ul>\n<p>Da ein Gro\u00dfteil der globalen KI-Forschung und Innovation im zivilen Bereich stattfindet, rufen die unterzeichnenden Staaten dazu auf, dies mit Blick auf die Verantwortung f\u00fcr die internationale Sicherheit und im Einklang mit dem V\u00f6lkerrecht zu leisten. Gleichzeitig verdeutlicht das Fehlen starker Selbstbeschr\u00e4nkung aber leider auch, dass Staaten gegenw\u00e4rtig nicht bereit zu sein scheinen, m\u00f6gliche milit\u00e4rische Vorteile, den sie sich vom Einsatz von KI in verschiedenen Systemen und Szenarien versprechen, aufzugeben und entsprechende Ambitionen einzuschr\u00e4nken.<\/p>\n<p>Der im November 2023 durch die britische Regierung veranstaltete <a href=\"https:\/\/www.gov.uk\/government\/topical-events\/ai-safety-summit-2023\/about\" target=\"_blank\" rel=\"noopener\">AI Safety Summit 2023<\/a> griff die Impulse der REAIM-Konferenz auf und hatte sich zum Ziel gesetzt, Menschen- und v\u00f6lkerrechtliche Risiken beim Einsatz von KI \u2013 nicht nur im milit\u00e4rischen Bereich \u2013 zu er\u00f6rtern. In Kooperation mit Tech-Unternehmen sollten international koordinierte Ma\u00dfnahmen ausgelotet werden, um die Gefahren dieser Technologie abzumildern.<\/p>\n<p>Die als <a href=\"https:\/\/www.gov.uk\/government\/publications\/ai-safety-summit-2023-the-bletchley-declaration\/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023\" target=\"_blank\" rel=\"noopener\">\u201eBletchley Declaration\u201c<\/a> betitelte und von 29 Staaten \u2013 darunter China, die USA und Deutschland \u2013 unterzeichnete Abschlusserkl\u00e4rung unterstreicht, dass folgende Prinzipien bei der Entwicklung und dem Einsatz von KI oberste Priorit\u00e4t haben sollen:<\/p>\n<ul>\n<li>der Schutz der Menschenrechte,<\/li>\n<li>die Transparenz und Erkl\u00e4rbarkeit der Ergebnisse,<\/li>\n<li>die angemessene menschliche Aufsicht der verwendeten KI-Systeme<\/li>\n<li>Rechenschaftspflicht und Einsatz der KI auf Grundlage ethischer Prinzipien<\/li>\n<\/ul>\n<p>Gleichzeitig unterstreicht die Erkl\u00e4rung eine Warnung, die bereits im Rahmen der REAIM-Konferenz ge\u00e4u\u00dfert wurde: Angesichts der enormen Entwicklungsgeschwindigkeit von KI und den Trends hin zu hochgradig f\u00e4higen und universell einsetzbaren KI-Modellen (sogenannten <em>general-purpose AI models<\/em>) sind die sich daraus ergebenden Risiken nicht vollst\u00e4ndig verstanden. Vor diesem Hintergrund regt die Deklaration die Entwicklung nationaler\u2013- und im besten Fall international abgestimmter \u2013 Regelungen und Frameworks zur Risikobewertung und Risikominimierungsstrategien an.<\/p>\n<h2>China und die USA mit unterschiedlichen Perspektiven<\/h2>\n<p>Nahezu zeitgleich zu der Konferenz in Blechtley Park und im Abstand von wenigen Wochen haben sowohl die USA als auch China eigene Vorschl\u00e4ge f\u00fcr den Umgang mit KI vorgelegt. Der Vorsto\u00df der USA, betitelt als <a href=\"https:\/\/www.state.gov\/political-declaration-on-responsible-military-use-of-artificial-intelligence-and-autonomy-2\/\" target=\"_blank\" rel=\"noopener\">\u201e<\/a><a href=\"https:\/\/www.state.gov\/political-declaration-on-responsible-military-use-of-artificial-intelligence-and-autonomy-2\/\" target=\"_blank\" rel=\"noopener\">Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy\u201c<\/a>, dem sich mittlerweile <a href=\"https:\/\/www.state.gov\/political-declaration-on-responsible-military-use-of-artificial-intelligence-and-autonomy\/\" target=\"_blank\" rel=\"noopener\">52 Staaten<\/a> angeschlossen haben, bezieht sich dabei ausschlie\u00dflich auf den milit\u00e4rischen Einsatz dieser Technologie. Demgegen\u00fcber widmet sich Chinas <a href=\"https:\/\/www.mfa.gov.cn\/eng\/wjdt_665385\/2649_665393\/202310\/t20231020_11164834.html\" target=\"_blank\" rel=\"noopener\">\u201eGlobal AI Governance Initiative\u201c<\/a> dem breiteren Einsatz von KI, geht aber auch auf die milit\u00e4rische Nutzung ein. Beide Deklarationen folgen im Kern den bereits genannten Prinzipien, insbesondere bei der Hervorhebung des Spannungsfelds zwischen Fortschritt und Bedrohung, dem Aufruf geltendes internationales Recht zu beachten und dem Anspruch auf vertrauensw\u00fcrdige und nachvollziehbare KI-Produkte und Anwendungen. Hinsichtlich der milit\u00e4rischen Nutzung von KI verweist Chinas Vorschlag zwar darauf, dass <em>\u201einsbesondere die gro\u00dfen L\u00e4nder, (..) eine umsichtige und verantwortungsvolle Haltung gegen\u00fcber der Forschung, Entwicklung und Anwendung von KI-Technologien im milit\u00e4rischen Bereich einnehmen\u201c<\/em> sollten, geht dar\u00fcber hinaus aber nicht auf weitere, spezifischere Prinzipien ein. Der US-amerikanische Vorschlag wiederum stellt die Notwendigkeit eines menschlichen \u201eOversights\u201c \u00fcber den Einsatz milit\u00e4rischer KI-Systeme heraus, l\u00e4sst dabei aber offen, in welchem Umfang diese Systeme auch vollkommen autonom agieren d\u00fcrfen \u2013 was im Umkehrschluss auch den autonomen Einsatz von Waffengewalt nicht ausschlie\u00dft.<\/p>\n<p>Vor dem Hintergrund, dass der Zugriff auf die notwendigen High-Tech-Ressourcen bei der Entwicklung und Anwendung moderner KI-Systeme, wie bspw. spezialisierte Mikrochips, zunehmend Bestandteil des globalen Power-Plays zwischen Staaten wird, enth\u00e4lt Chinas Position einen weiteren Aspekt der klar darauf abzielt. Die Deklaration spricht sich n\u00e4mlich dagegen aus <em>\u201eideologische Grenzen zu ziehen oder exklusive Gruppen zu bilden, um andere L\u00e4nder an der Entwicklung von KI zu hindern\u201c<\/em> sowie <em>\u201egegen die Schaffung von Barrieren und die Unterbrechung der globalen KI-Lieferkette durch technologische Monopole und einseitige Zwangsma\u00dfnahmen\u201c<\/em>. Dieser Passus kann nur als klare Kritik an den <a href=\"https:\/\/www.csis.org\/analysis\/chinas-new-strategy-waging-microchip-tech-war\" target=\"_blank\" rel=\"noopener\">US- und teilweise auch EU-Exportkontrollrestriktionen<\/a> auf die, f\u00fcr KI-Anwendungen ben\u00f6tigten, hochspezialisierten Mikroprozessoren verstanden werden.<\/p>\n<h2>Resolutionen der EU und UN mit Fokus auf nicht-milit\u00e4rische Nutzung von KI<\/h2>\n<p>Im M\u00e4rz 2024 hat nun auch die EU ihre seit 2021 in Arbeit befindlichen Vorgaben f\u00fcr die Regulation von KI und KI-Produkten ver\u00f6ffentlicht, die als weltweit erstes verbindliches Rahmenwerk angesehen werden. Der <a href=\"https:\/\/ec.europa.eu\/commission\/presscorner\/detail\/en\/ip_23_6473\" target=\"_blank\" rel=\"noopener\">\u201eEU AI Act\u201c<\/a> (AIA) bezieht sich dabei jedoch explizit nicht auf milit\u00e4risch genutzte KI-Systeme, da deren Regulierung <em>\u201edem V\u00f6lkerrecht unterliegen (&#8230;), das daher der geeignetere Rechtsrahmen f\u00fcr die f\u00fcr die Regulierung von KI-Systemen im Zusammenhang mit der Anwendung von t\u00f6dlicher Gewalt und anderen KI-Systemen im Zusammenhang mit milit\u00e4rischen und verteidigungspolitischen Aktivit\u00e4ten\u201c<\/em> ist. Stattdessen betont der AIA die Relevanz von KI f\u00fcr gesellschaftliche und wirtschaftliche Fortschritte innerhalb der EU, erkennt aber die Sicherheitsgefahren an, die von diesen Systemen ausgehen k\u00f6nnen. Um die Kritikalit\u00e4t von KI-Anwendungen zu bewerten, werden Kriterien definiert, die sowohl technische, \u00f6konomische als auch menschenrechtliche Aspekte bei der Herstellung und dem Einsatz von KI beinhalten. Entlang dieser Kriterien werden Auflagen zur Sicherung, der Kontrolle und Rechtssicherheit f\u00fcr KI-Systeme definiert, die als verbindliche Grunds\u00e4tze in nationale Gesetzgebung der EU-Staaten \u00fcbergehen sollen.<\/p>\n<p>Schlussendlich hat sich auch die UN in ihrer Vollversammlung am 11.03.2024 auf eine <a href=\"https:\/\/news.un.org\/en\/story\/2024\/03\/1147831\" target=\"_blank\" rel=\"noopener\">Resolution<\/a> verst\u00e4ndigt, die sich der Nutzung und den Chancen sicherer und vertrauensw\u00fcrdiger KI-Systeme widmet. Die Resolution basiert auf einem Vorschlag der USA und wurde von mehr als 120 L\u00e4ndern angenommen, bezieht sich jedoch \u00e4hnlich wie der EU AI Act ausdr\u00fccklich nur auf den nicht-milit\u00e4rischen Gebrauch von KI und der F\u00f6rderung sicherer und vertrauensw\u00fcrdiger KI-Systeme f\u00fcr den Fortschritts in Bezug auf Menschenrechte, gemeinsame Entwicklungsziele und Nachhaltigkeit. Gleichwohl wird aber auch betont, dass dabei Menschen im Zentrum stehen sollen und KI in den falschen H\u00e4nden eine erhebliche Gef\u00e4hrdung darstellt. Um diese gezielt zu bewerten, wird die Entwicklung und der Einsatz von Werkzeugen zur <em>\u201einternational interoperablen Identifizierung, Klassifizierung, Bewertung und Pr\u00fcfung, Vorbeugung und Abschw\u00e4chung von Schwachstellen und Risiken w\u00e4hrend der Konzeption, Entwicklung und der Nutzung von KI-Systemen\u201c<\/em> empfohlen.<\/p>\n<h2>Fazit<\/h2>\n<p>Angesichts der vorgestellten Deklarationen und Regulierungsvorschl\u00e4ge ist festzuhalten, dass Staaten neben der Relevanz von KI als Technologie auch deren Gefahren und den enormen technologischen Entwicklungstrend zunehmend wahr- und ernst nehmen. Es wird aber auch deutlich, dass es global durchaus unterschiedliche Auffassungen gibt, wie genau diese Regulierung aussehen soll. Insbesondere bei der Frage nach dem Umfang menschlicher Kontrolle und dessen Einflussm\u00f6glichkeiten bei den Entscheidungen von KI-Systemen treten erneut jene Differenzen hervor, die sich bereits im Zuge der Debatten \u00fcber die Regulierung autonomer milit\u00e4rischer Systeme \u2013 zu denen aus technologischer Perspektive gro\u00dfe Schnittmengen bestehen \u2013 gezeigt haben. Dar\u00fcber hinaus braucht es wenig Fantasie um sich auszumalen, dass sich einige der staatlichen Akteure technologische Vorspr\u00fcnge und darauf basierende milit\u00e4rische Vorteile nicht nehmen lassen wollen. Auch wenn es also hinsichtlich des milit\u00e4rischen Einsatzes von KI formal inhaltlich gro\u00dfe \u00dcberschneidungen gibt, bleibt abzuwarten, ob aus den Deklarationen auch verbindliche v\u00f6lkerrechtliche Prinzipien folgen. Gerade mit Blick auf die endlosen Debatten \u00fcber Autonomie in Waffensystemen besteht aktuell leider wenig Raum f\u00fcr Optimismus.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Der Einsatz K\u00fcnstlicher Intelligenz ist nicht auf zivile Zwecke begrenzt. Die Kriege in der Ukraine und in Gaza zeigen, wie umfassend KI bereits aktiv von milit\u00e4rischen Akteuren eingesetzt und getestet werden. Diese Entwicklung wirft jedoch erhebliche v\u00f6lkerrechtliche Fragen zum Einsatz solcher Systeme auf: Wie k\u00f6nnen maschinelle Entscheidungen kontrolliert und f\u00fcr eine Zuschreibung von Verantwortung nachvollzogen werden? Welche Rolle spielt der Mensch in diesen Prozessen? Dieser Blog diskutiert internationale Regulierungsinitiativen, die in der EU und den Vereinten Nationen im vergangenen Jahr angesto\u00dfen wurden.<\/p>\n","protected":false},"author":351,"featured_media":12250,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1141],"tags":[1263,1146,1250,1252],"coauthors":[1004],"class_list":["post-12657","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-deutsch-en","tag-artificial-intelligence","tag-international-law","tag-military","tag-technology"],"acf":[],"views":496,"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v26.1.1 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Der milit\u00e4rische Einsatz k\u00fcnstlicher Intelligenz braucht Regeln: Nur welche, dar\u00fcber besteht keine Einigkeit - PRIF BLOG<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/\" \/>\n<meta property=\"og:locale\" content=\"en_US\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Der milit\u00e4rische Einsatz k\u00fcnstlicher Intelligenz braucht Regeln: Nur welche, dar\u00fcber besteht keine Einigkeit - PRIF BLOG\" \/>\n<meta property=\"og:description\" content=\"Der Einsatz K\u00fcnstlicher Intelligenz ist nicht auf zivile Zwecke begrenzt. Die Kriege in der Ukraine und in Gaza zeigen, wie umfassend KI bereits aktiv von milit\u00e4rischen Akteuren eingesetzt und getestet werden. Diese Entwicklung wirft jedoch erhebliche v\u00f6lkerrechtliche Fragen zum Einsatz solcher Systeme auf: Wie k\u00f6nnen maschinelle Entscheidungen kontrolliert und f\u00fcr eine Zuschreibung von Verantwortung nachvollzogen werden? Welche Rolle spielt der Mensch in diesen Prozessen? Dieser Blog diskutiert internationale Regulierungsinitiativen, die in der EU und den Vereinten Nationen im vergangenen Jahr angesto\u00dfen wurden.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/\" \/>\n<meta property=\"og:site_name\" content=\"PRIF BLOG\" \/>\n<meta property=\"article:publisher\" content=\"https:\/\/www.facebook.com\/HSFK.PRIF\" \/>\n<meta property=\"article:published_time\" content=\"2024-05-07T14:41:59+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/blog.prif.org\/wp-content\/uploads\/2024\/05\/AI-Safety-Summit_Zuschnitt.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1875\" \/>\n\t<meta property=\"og:image:height\" content=\"1025\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Thomas Reinhold\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@HSFK_PRIF\" \/>\n<meta name=\"twitter:site\" content=\"@HSFK_PRIF\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Thomas Reinhold\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"10 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/\"},\"author\":{\"name\":\"Thomas Reinhold\",\"@id\":\"https:\/\/blog.prif.org\/en\/#\/schema\/person\/1c65328a3b2cdfdaa9887961cd90974f\"},\"headline\":\"Der milit\u00e4rische Einsatz k\u00fcnstlicher Intelligenz braucht Regeln: Nur welche, dar\u00fcber besteht keine Einigkeit\",\"datePublished\":\"2024-05-07T14:41:59+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/\"},\"wordCount\":1815,\"publisher\":{\"@id\":\"https:\/\/blog.prif.org\/en\/#organization\"},\"image\":{\"@id\":\"https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/blog.prif.org\/wp-content\/uploads\/2024\/05\/AI-Safety-Summit_Zuschnitt.jpg\",\"keywords\":[\"Artificial Intelligence\",\"International Law\",\"Military\",\"Technology\"],\"articleSection\":[\"Deutsch\"],\"inLanguage\":\"en-US\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/\",\"url\":\"https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/\",\"name\":\"Der milit\u00e4rische Einsatz k\u00fcnstlicher Intelligenz braucht Regeln: Nur welche, dar\u00fcber besteht keine Einigkeit - PRIF BLOG\",\"isPartOf\":{\"@id\":\"https:\/\/blog.prif.org\/en\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/blog.prif.org\/wp-content\/uploads\/2024\/05\/AI-Safety-Summit_Zuschnitt.jpg\",\"datePublished\":\"2024-05-07T14:41:59+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/#breadcrumb\"},\"inLanguage\":\"en-US\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/#primaryimage\",\"url\":\"https:\/\/blog.prif.org\/wp-content\/uploads\/2024\/05\/AI-Safety-Summit_Zuschnitt.jpg\",\"contentUrl\":\"https:\/\/blog.prif.org\/wp-content\/uploads\/2024\/05\/AI-Safety-Summit_Zuschnitt.jpg\",\"width\":1875,\"height\":1025,\"caption\":\"Die milit\u00e4rische Anwendung von KI-Systemen wirft v\u00f6lkerrechtliche Fragen auf. | Foto: UK Goverment via flickr | CC BY 2.0 DEED\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Startseite\",\"item\":\"https:\/\/blog.prif.org\/en\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Der milit\u00e4rische Einsatz k\u00fcnstlicher Intelligenz braucht Regeln: Nur welche, dar\u00fcber besteht keine Einigkeit\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/blog.prif.org\/en\/#website\",\"url\":\"https:\/\/blog.prif.org\/en\/\",\"name\":\"PRIF BLOG\",\"description\":\"Peace Research Institute Frankfurt \/ Leibniz Institut Hessische Stiftung Friedens- und Konfliktforschung\",\"publisher\":{\"@id\":\"https:\/\/blog.prif.org\/en\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/blog.prif.org\/en\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"en-US\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/blog.prif.org\/en\/#organization\",\"name\":\"Peace Research Institute Frankfurt \/ Leibniz Institut Hessische Stiftung Friedens- und Konfliktforschung\",\"url\":\"https:\/\/blog.prif.org\/en\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/blog.prif.org\/en\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/blog.prif.org\/wp-content\/uploads\/2023\/09\/cropped-blog_rgb.png\",\"contentUrl\":\"https:\/\/blog.prif.org\/wp-content\/uploads\/2023\/09\/cropped-blog_rgb.png\",\"width\":750,\"height\":226,\"caption\":\"Peace Research Institute Frankfurt \/ Leibniz Institut Hessische Stiftung Friedens- und Konfliktforschung\"},\"image\":{\"@id\":\"https:\/\/blog.prif.org\/en\/#\/schema\/logo\/image\/\"},\"sameAs\":[\"https:\/\/www.facebook.com\/HSFK.PRIF\",\"https:\/\/x.com\/HSFK_PRIF\",\"https:\/\/www.linkedin.com\/company\/8912786\/\"]},{\"@type\":\"Person\",\"@id\":\"https:\/\/blog.prif.org\/en\/#\/schema\/person\/1c65328a3b2cdfdaa9887961cd90974f\",\"name\":\"Thomas Reinhold\",\"description\":\"Dr. Thomas Reinhold ist wissenschaftlicher Mitarbeiter am Programmbereich Internationale Sicherheit und im CNTR-Projekt. Er forscht zur Militarisierung des Cyberspace, KI und M\u00f6glichkeiten zur R\u00fcstungsbegrenzung, -kontrolle und Abr\u00fcstung dieser Technologien. \/\/ Dr Thomas Reinhold is a Researcher at the Research Department International Security and in the CNTR project. He conducts research on the militarization of cyberspace, AI and possibilities for arms control and disarmament of these technologies.\",\"url\":\"https:\/\/blog.prif.org\/en\/author\/treinhold\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Der milit\u00e4rische Einsatz k\u00fcnstlicher Intelligenz braucht Regeln: Nur welche, dar\u00fcber besteht keine Einigkeit - PRIF BLOG","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/","og_locale":"en_US","og_type":"article","og_title":"Der milit\u00e4rische Einsatz k\u00fcnstlicher Intelligenz braucht Regeln: Nur welche, dar\u00fcber besteht keine Einigkeit - PRIF BLOG","og_description":"Der Einsatz K\u00fcnstlicher Intelligenz ist nicht auf zivile Zwecke begrenzt. Die Kriege in der Ukraine und in Gaza zeigen, wie umfassend KI bereits aktiv von milit\u00e4rischen Akteuren eingesetzt und getestet werden. Diese Entwicklung wirft jedoch erhebliche v\u00f6lkerrechtliche Fragen zum Einsatz solcher Systeme auf: Wie k\u00f6nnen maschinelle Entscheidungen kontrolliert und f\u00fcr eine Zuschreibung von Verantwortung nachvollzogen werden? Welche Rolle spielt der Mensch in diesen Prozessen? Dieser Blog diskutiert internationale Regulierungsinitiativen, die in der EU und den Vereinten Nationen im vergangenen Jahr angesto\u00dfen wurden.","og_url":"https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/","og_site_name":"PRIF BLOG","article_publisher":"https:\/\/www.facebook.com\/HSFK.PRIF","article_published_time":"2024-05-07T14:41:59+00:00","og_image":[{"width":1875,"height":1025,"url":"https:\/\/blog.prif.org\/wp-content\/uploads\/2024\/05\/AI-Safety-Summit_Zuschnitt.jpg","type":"image\/jpeg"}],"author":"Thomas Reinhold","twitter_card":"summary_large_image","twitter_creator":"@HSFK_PRIF","twitter_site":"@HSFK_PRIF","twitter_misc":{"Written by":"Thomas Reinhold","Est. reading time":"10 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/#article","isPartOf":{"@id":"https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/"},"author":{"name":"Thomas Reinhold","@id":"https:\/\/blog.prif.org\/en\/#\/schema\/person\/1c65328a3b2cdfdaa9887961cd90974f"},"headline":"Der milit\u00e4rische Einsatz k\u00fcnstlicher Intelligenz braucht Regeln: Nur welche, dar\u00fcber besteht keine Einigkeit","datePublished":"2024-05-07T14:41:59+00:00","mainEntityOfPage":{"@id":"https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/"},"wordCount":1815,"publisher":{"@id":"https:\/\/blog.prif.org\/en\/#organization"},"image":{"@id":"https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/#primaryimage"},"thumbnailUrl":"https:\/\/blog.prif.org\/wp-content\/uploads\/2024\/05\/AI-Safety-Summit_Zuschnitt.jpg","keywords":["Artificial Intelligence","International Law","Military","Technology"],"articleSection":["Deutsch"],"inLanguage":"en-US"},{"@type":"WebPage","@id":"https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/","url":"https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/","name":"Der milit\u00e4rische Einsatz k\u00fcnstlicher Intelligenz braucht Regeln: Nur welche, dar\u00fcber besteht keine Einigkeit - PRIF BLOG","isPartOf":{"@id":"https:\/\/blog.prif.org\/en\/#website"},"primaryImageOfPage":{"@id":"https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/#primaryimage"},"image":{"@id":"https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/#primaryimage"},"thumbnailUrl":"https:\/\/blog.prif.org\/wp-content\/uploads\/2024\/05\/AI-Safety-Summit_Zuschnitt.jpg","datePublished":"2024-05-07T14:41:59+00:00","breadcrumb":{"@id":"https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/#breadcrumb"},"inLanguage":"en-US","potentialAction":[{"@type":"ReadAction","target":["https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/"]}]},{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/#primaryimage","url":"https:\/\/blog.prif.org\/wp-content\/uploads\/2024\/05\/AI-Safety-Summit_Zuschnitt.jpg","contentUrl":"https:\/\/blog.prif.org\/wp-content\/uploads\/2024\/05\/AI-Safety-Summit_Zuschnitt.jpg","width":1875,"height":1025,"caption":"Die milit\u00e4rische Anwendung von KI-Systemen wirft v\u00f6lkerrechtliche Fragen auf. | Foto: UK Goverment via flickr | CC BY 2.0 DEED"},{"@type":"BreadcrumbList","@id":"https:\/\/blog.prif.org\/en\/2024\/05\/07\/der-militaerische-einsatz-kuenstlicher-intelligenz-braucht-regeln-nur-welche-darueber-besteht-keine-einigkeit\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Startseite","item":"https:\/\/blog.prif.org\/en\/"},{"@type":"ListItem","position":2,"name":"Der milit\u00e4rische Einsatz k\u00fcnstlicher Intelligenz braucht Regeln: Nur welche, dar\u00fcber besteht keine Einigkeit"}]},{"@type":"WebSite","@id":"https:\/\/blog.prif.org\/en\/#website","url":"https:\/\/blog.prif.org\/en\/","name":"PRIF BLOG","description":"Peace Research Institute Frankfurt \/ Leibniz Institut Hessische Stiftung Friedens- und Konfliktforschung","publisher":{"@id":"https:\/\/blog.prif.org\/en\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/blog.prif.org\/en\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"en-US"},{"@type":"Organization","@id":"https:\/\/blog.prif.org\/en\/#organization","name":"Peace Research Institute Frankfurt \/ Leibniz Institut Hessische Stiftung Friedens- und Konfliktforschung","url":"https:\/\/blog.prif.org\/en\/","logo":{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/blog.prif.org\/en\/#\/schema\/logo\/image\/","url":"https:\/\/blog.prif.org\/wp-content\/uploads\/2023\/09\/cropped-blog_rgb.png","contentUrl":"https:\/\/blog.prif.org\/wp-content\/uploads\/2023\/09\/cropped-blog_rgb.png","width":750,"height":226,"caption":"Peace Research Institute Frankfurt \/ Leibniz Institut Hessische Stiftung Friedens- und Konfliktforschung"},"image":{"@id":"https:\/\/blog.prif.org\/en\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/www.facebook.com\/HSFK.PRIF","https:\/\/x.com\/HSFK_PRIF","https:\/\/www.linkedin.com\/company\/8912786\/"]},{"@type":"Person","@id":"https:\/\/blog.prif.org\/en\/#\/schema\/person\/1c65328a3b2cdfdaa9887961cd90974f","name":"Thomas Reinhold","description":"Dr. Thomas Reinhold ist wissenschaftlicher Mitarbeiter am Programmbereich Internationale Sicherheit und im CNTR-Projekt. Er forscht zur Militarisierung des Cyberspace, KI und M\u00f6glichkeiten zur R\u00fcstungsbegrenzung, -kontrolle und Abr\u00fcstung dieser Technologien. \/\/ Dr Thomas Reinhold is a Researcher at the Research Department International Security and in the CNTR project. He conducts research on the militarization of cyberspace, AI and possibilities for arms control and disarmament of these technologies.","url":"https:\/\/blog.prif.org\/en\/author\/treinhold\/"}]}},"_links":{"self":[{"href":"https:\/\/blog.prif.org\/en\/wp-json\/wp\/v2\/posts\/12657","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/blog.prif.org\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blog.prif.org\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blog.prif.org\/en\/wp-json\/wp\/v2\/users\/351"}],"replies":[{"embeddable":true,"href":"https:\/\/blog.prif.org\/en\/wp-json\/wp\/v2\/comments?post=12657"}],"version-history":[{"count":0,"href":"https:\/\/blog.prif.org\/en\/wp-json\/wp\/v2\/posts\/12657\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/blog.prif.org\/en\/wp-json\/wp\/v2\/media\/12250"}],"wp:attachment":[{"href":"https:\/\/blog.prif.org\/en\/wp-json\/wp\/v2\/media?parent=12657"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blog.prif.org\/en\/wp-json\/wp\/v2\/categories?post=12657"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blog.prif.org\/en\/wp-json\/wp\/v2\/tags?post=12657"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/blog.prif.org\/en\/wp-json\/wp\/v2\/coauthors?post=12657"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}