{"id":13576,"date":"2019-03-26T13:59:20","date_gmt":"2019-03-26T12:59:20","guid":{"rendered":"https:\/\/blog.prif.org\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/"},"modified":"2019-03-26T13:59:20","modified_gmt":"2019-03-26T12:59:20","slug":"murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen","status":"publish","type":"post","link":"https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/","title":{"rendered":"Murmeltiertag in Genf: Probleme, Knackpunkte, m\u00f6gliche L\u00f6sungen"},"content":{"rendered":"<p><strong>Die Beratungen \u00fcber ein m\u00f6gliches Verbot autonomer Waffen gehen in eine kritische Phase (siehe <a href=\"https:\/\/blog.prif.org\/2019\/03\/25\/durchbruch-oder-sackgasse-die-debatte-zu-letalen-autonomen-waffensystemen-geht-in-genf-in-die-vielleicht-letzte-runde\/\">Teil 1 dieses Beitrags<\/a>). Welche Themen sind f\u00fcr das weitere Vorgehen zentral und wo sind Auseinandersetzungen absehbar?<\/strong><\/p>\n<h2>Autonome Waffen haben nur bedingt etwas mit k\u00fcnstlicher Intelligenz zu tun<\/h2>\n<p>Die Frage, was genau unter einer autonomen Waffe zu verstehen ist, hat die Debatte in Genf seit ihrem Beginn belastet. Alle bisherigen Treffen konnten keine allgemein akzeptierte Definition hervorbringen und es ist unwahrscheinlich, dass es diesmal gelingen wird. Eine Definition ist ebenso wichtig wie schwierig. Denn sie zieht die Grenze zwischen erlaubten und verbotenen Entwicklungen und Waffensystemen. Sie muss idealerweise m\u00f6glichst trennscharf sein, zwischen destabilisierenden und unerw\u00fcnschten Systemen einerseits und weniger destabilisierenden Systemen andererseits unterscheiden und gleichzeitig diese Grenze so ziehen, dass im Idealfall eine \u00dcberwachung des Verbotes m\u00f6glich ist.<\/p>\n<p>Einige Staaten schlagen aktuell vor, die definitorische Grenze zwischen zul\u00e4ssigen automatisierten und verbotenen autonomen Waffensystemen entlang des Einsatzes k\u00fcnstlicher Intelligenz im Waffensystem zu ziehen. Schon 2018 hatte z.B. Deutschland in Genf den <a href=\"https:\/\/www.unog.ch\/80256EDD006B8954\/(httpAssets)\/2440CD1922B86091C12582720057898F\/$file\/2018_LAWS6a_Germany.pdf\" target=\"_blank\" rel=\"noopener noreferrer\">Aspekt eigenen \u201eLernens\u201c auf Basis k\u00fcnstlicher Intelligenz<\/a> f\u00fcr eine m\u00f6gliche Definition autonomer Waffen hervorgehoben. Mitte M\u00e4rz 2019 erkl\u00e4rte Japan, sich verst\u00e4rkt f\u00fcr die Regulierung letaler autonomer Waffensysteme \u2013 <a href=\"http:\/\/www.asahi.com\/ajw\/articles\/AJ201903140039.html\" target=\"_blank\" rel=\"noopener noreferrer\">explizit verstanden als KI-basierte Systeme<\/a> \u2013 einsetzen zu wollen. Auch China hebt den Aspekt selbst\u00e4ndigen Lernens in der eigenen Definition hervor. Das Argument ist hier, dass es meist nicht m\u00f6glich ist nachzuvollziehen, was KI-Systeme lernen und eine Vorhersehbarkeit der Handlungen nicht mehr gegeben ist. Ist es also denkbar, dass sich die in Genf diskutierenden Staaten nun endlich auf eine Definition auf Basis lernf\u00e4higer KI einigen?<\/p>\n<p>Auf den ersten Blick scheint das Argument durchaus schlagend. Auch w\u00fcrde so dem Wunsch vieler Milit\u00e4rs entsprochen, die Diskussion nur auf zuk\u00fcnftige Systeme zu fokussieren, da maschinelles Lernen in Waffensystemen wohl noch keine Anwendung findet.<\/p>\n<p>Der Fokus auf selbstlernende KI als Differenzkriterium verschleiert allerdings, dass die Trennung zwischen autonomen und automatisierten Systemen deutlich flie\u00dfender ist, als hier suggeriert wird. Das amerikanische Verteidigungsministerium hat in der <a href=\"https:\/\/www.esd.whs.mil\/portals\/54\/documents\/dd\/issuances\/dodd\/300009p.pdf\" target=\"_blank\" rel=\"noopener noreferrer\">2012 erstver\u00f6ffentlichten und 2017 im Wesentlichen best\u00e4tigten Direktive 3000.09<\/a> autonome Waffensysteme als Waffensysteme definiert als \u201e[a] weapon system that [\u2026] can select and engage targets without further intervention by a human operator\u201d, also ein System, das die Zielerkennung und -auswahl mit der Entscheidung, das Ziel zu bek\u00e4mpfen, zusammenf\u00fchrt und auf einen Menschen, der die Zielentscheidung aktiv best\u00e4tigen muss, verzichtet. Diese Definition, die auf die zentrale bzw. <a href=\"https:\/\/www.icrc.org\/en\/document\/towards-limits-autonomous-weapons\" target=\"_blank\" rel=\"noopener noreferrer\">in der Terminologie des Roten Kreuzes <em>kritische<\/em> Funktionen<\/a> eines Waffensystems \u2013 Zielerkennnung, Zielidentifizierung und Zielbek\u00e4mpfung \u2013 verweist, zeigt, dass KI mitnichten ein Kriterium f\u00fcr eine autonome Waffe sein muss. Ausreichend komplexe Wenn-dann-Regeln reichen durchaus f\u00fcr ein autonomes Waffensystem nach diesem Verst\u00e4ndnis aus. Die Gretchenfrage wird dann, ob wenn-dann-basierte Systeme vorhersagbarer sind als KI basierte \u2013 und damit unproblematisch. Allerdings ist bei einer ausreichend hohen Komplexit\u00e4t die Vorhersagbarkeit f\u00fcr den menschlichen Bediener auch nur noch bedingt gegeben. Kommen unerwartete Parameterkonstellationen zusammen, kann sich auch ein vermeintlich regelbasiertes System unerwartet, gef\u00e4hrlich, t\u00f6dlich und eskalierend verhalten. Die Vorstellung von Kontrolle ist dann nur eine Illusion, die davon ausgeht, dass sich die Wirklichkeit immer ausreichend nah an den Testszenarien abspielt. Einer der weltweit f\u00fchrenden Experten zu autonomen Waffen, der ehemalige US-Soldat Paul Scharre kommt deshalb auch zu dem Schluss:<\/p>\n<div class=\"brlbs-cmpnt-container brlbs-cmpnt-content-blocker brlbs-cmpnt-with-individual-styles\" data-borlabs-cookie-content-blocker-id=\"default\" data-borlabs-cookie-content=\"PGJsb2NrcXVvdGUgY2xhc3M9InR3aXR0ZXItdHdlZXQiIGRhdGEtd2lkdGg9IjUwMCIgZGF0YS1kbnQ9InRydWUiPjxwIGxhbmc9ImVuIiBkaXI9Imx0ciI+UmVsYWJlbGluZyBldmVyeXRoaW5nIOKAnGF1dG9tYXRpb27igJ0gaXMgYSBiaXQgb2Ygc2VtYW50aWMganVqaXRzdSB0byBhdm9pZCBtdWNoIG9mIHRoZSBjdXJyZW50IGRlYmF0ZSBidXQgZG9lc27igJl0IGNoYW5nZSB0aGUgdW5kZXJseWluZyBpc3N1ZXMuPC9wPiZtZGFzaDsgUGF1bCBTY2hhcnJlIChAcGF1bF9zY2hhcnJlKSA8YSBocmVmPSJodHRwczovL3R3aXR0ZXIuY29tL3BhdWxfc2NoYXJyZS9zdGF0dXMvMTEwNjk2MTE4ODc3MTA2MTc2Mj9yZWZfc3JjPXR3c3JjJTVFdGZ3Ij5NYXJjaCAxNiwgMjAxOTwvYT48L2Jsb2NrcXVvdGU+PHNjcmlwdCBhc3luYyBzcmM9Imh0dHBzOi8vcGxhdGZvcm0udHdpdHRlci5jb20vd2lkZ2V0cy5qcyIgY2hhcnNldD0idXRmLTgiPjwvc2NyaXB0Pg==\">\n<div class=\"brlbs-cmpnt-cb-preset-a\">\n<p class=\"brlbs-cmpnt-cb-description\">You are currently viewing a placeholder content from <strong>Default<\/strong>. To access the actual content, click the button below. Please note that doing so will share data with third-party providers.<\/p>\n<div class=\"brlbs-cmpnt-cb-buttons\"> <a class=\"brlbs-cmpnt-cb-btn\" href=\"#\" data-borlabs-cookie-unblock role=\"button\">Unblock content<\/a> <a class=\"brlbs-cmpnt-cb-btn\" href=\"#\" data-borlabs-cookie-accept-service role=\"button\" style=\"display: none\">Accept required service and unblock content<\/a> <\/div>\n<p> <a class=\"brlbs-cmpnt-cb-provider-toggle\" href=\"#\" data-borlabs-cookie-show-provider-information role=\"button\">More Information<\/a> <\/div>\n<\/div>\n<p>Es ist aber leider zu vermuten, dass einige Staaten in Genf weiterhin lieber diskursives Jiu Jitsu betreiben, als sich dem Argument zu stellen, dass ihre Definition viele hochproblematische Waffensysteme nicht erfasst.<\/p>\n<h2>\u201cMeaningful human control\u201d als L\u00f6sung?<\/h2>\n<p>Die NGOs versuchen das Problem einer fehlenden Definition dadurch in den Griff zu bekommen, dass sie statt einer konkreten Definition des zu kontrollierenden Gegenstands <a href=\"http:\/\/www.article36.org\/wp-content\/uploads\/2016\/04\/MHC-2016-FINAL.pdf\" target=\"_blank\" rel=\"noopener noreferrer\">ein abstraktes Prinzip<\/a>, das der <a href=\"https:\/\/www.hrw.org\/news\/2016\/04\/11\/killer-robots-and-concept-meaningful-human-control\" target=\"_blank\" rel=\"noopener noreferrer\">\u201ebedeutsamen menschlichen Kontrolle\u201c (BMK)<\/a>, <a href=\"https:\/\/www.hsfk.de\/service\/news\/news\/regulierung-autonomer-waffensysteme\/\" target=\"_blank\" rel=\"noopener noreferrer\">m\u00f6glicherweise sogar als v\u00f6lkerrechtliches Prinzip<\/a>, vorschlagen. Grundidee ist, die Entscheidung \u00fcber Leben und Tod nicht Maschinen zu \u00fcberlassen, sondern zwischen den kritischen Funktionen Zielerkennung\/Zielauswahl und Zielbek\u00e4mpfung eine fundierte menschliche Entscheidung zu belassen. Dieser Ansatz erscheint auf den ersten Blick vielleicht vielversprechender, hat aber ebenfalls T\u00fccken. Eine steckt in der Operationalisierung des Begriffs \u201ebedeutsam\u201c. Einem Alltagsverst\u00e4ndnis zufolge bedeutet \u201ebedeutsam\u201c, dass die Entscheidung informiert (ausreichende Transparenz der Datengrundlage) und reflektiert (ausreichender Zeitraum zur kognitiven Verarbeitung der vorhandenen Informationen) erfolgen muss, sodass sich der Mensch der Tragweite seiner Entscheidung bewusst werden kann. Damit ist das Problem umrissen, denn <a href=\"https:\/\/www.lawfareblog.com\/will-killer-robots-be-banned-lessons-past-civil-society-campaigns\" target=\"_blank\" rel=\"noopener noreferrer\">was genau bedeutet \u201cbedeutsame menschliche Kontrolle\u201c<\/a> und wo ist die Grenze zu ziehen, etwa zwischen dem Zeitraum, den ein Mensch braucht, um sich der Tragweite seiner Entscheidung bewusst zu werden und Systemen, bei denen der menschliche Entscheidungszeitraum auf das absolute Minimum begrenzt und der Mensch zum pro-forma Entscheider degradiert wird.<\/p>\n<p>Hinter der Forderung nach bedeutsamer menschlicher Kontrolle k\u00f6nnte sich vermutlich sogar eine Mehrheit der Staaten und ihrer Milit\u00e4rs versammeln, auch wenn einige Staaten, <a href=\"https:\/\/www.unog.ch\/80256EDD006B8954\/(httpAssets)\/39A4B669B8AC2111C12583C1005F73CF\/$file\/CCW_GGE.1_2019_WP.2_final.pdf\" target=\"_blank\" rel=\"noopener noreferrer\">wie z.B. Australien, das Konzept weiterhin ablehnen<\/a>. Durchschl\u00e4gt das Konzept bedeutsamer Kontrolle also den Gordischen Definitionsknoten? Hier kommt ein grunds\u00e4tzliches Problem der R\u00fcstungskontrolle zum Tragen: Selbst wenn es gel\u00e4nge, das Konzept der bedeutsamen menschlichen Kontrolle konsensual zu operationalisieren, k\u00f6nnten Staaten auf einem System der Verifikation bestehen, das Verst\u00f6\u00dfe gegen das Gebot bedeutsamer menschlicher Kontrolle mit hoher Wahrscheinlichkeit und rechtzeitig erkennt, sodass Gegenma\u00dfnahmen m\u00f6glich werden. Allerdings reibt sich diese Anforderung mit der technischen Problematik: Die entscheidenden Elemente f\u00fcr Autonomie sind <a href=\"https:\/\/nonproliferation-elearning.eu\/learningunits\/emerging-technologies\/\" target=\"_blank\" rel=\"noopener noreferrer\">nicht in der Hardware, sondern in der Software<\/a> zu suchen, <a href=\"http:\/\/www.bpb.de\/apuz\/190115\/automatisierte-kriegsfuehrung-wie-viel-entscheidungsraum-bleibt-dem-menschen?p=all\" target=\"_blank\" rel=\"noopener noreferrer\">was die \u00dcberpr\u00fcfung noch einmal deutlich erschwert<\/a>.<\/p>\n<p>Wenn man den Weg der bedeutsamen menschlichen Kontrolle in Genf also weiter verfolgt (wovon auszugehen ist), sollten zwei parallele Ma\u00dfnahmen erfolgen, um m\u00f6gliche Kritik am Konzept zumindest abzuschw\u00e4chen.<\/p>\n<h2>Innovative Konzepte und eine ausgewogenere Diskussion<\/h2>\n<p>Erstens sollten mehr Ressourcen in die Entwicklung neuer und innovativer R\u00fcstungskontrollma\u00dfnahmen investiert werden. R\u00fcstungskontrolle steht immer im Spannungsfeld zwischen dem Wunsch nach hoher Transparenz bei gleichzeitiger Gefahr zu intrusiv zu wirken und sicherheitsrelevante Geheimnisse preiszugeben. Es ist nicht vorstellbar, dass Staaten bereit sein werden, Inspektoren Einblicke in den umfangreichen Quellcode ihrer Waffensysteme zu gew\u00e4hren. Auch w\u00fcrde dies nur bedingt hilfreich sein, da Software in k\u00fcrzester Zeit aktualisiert werden kann. Gleichwohl sind Konzepte denkbar, die zum Beispiel <a href=\"http:\/\/icrac.net\/wp-content\/uploads\/2013\/05\/Gubrud-Altmann_Compliance-Measures-AWC_ICRAC-WP2.pdf\" target=\"_blank\" rel=\"noopener noreferrer\">aus erfassten Telemetriedaten <em>ex post<\/em> eine Ableitung des Grades autonomen Verhaltens (also ohne menschliche Kontrolle) erm\u00f6glichen k\u00f6nnten<\/a>. Alternativ ist es denkbar, dass Software in die Lage versetzt wird, Software zu kontrollieren. Hier muss schnell intensiv geforscht werden.<\/p>\n<p>Zugegeben: Der Glaube mit technischen L\u00f6sungen eine ausreichend sichere Verifikation menschlicher Kontrolle zu erzielen ist ein Strohhalm. Allerdings wurde es bislang vers\u00e4umt, die vorhandenen M\u00f6glichkeiten konsequent auszuloten. Entsprechend sollte eine internationale Task Force R\u00fcstungskontrolleure, Milit\u00e4rs und vor allem Informatiker zusammenbringen, die sich ausschlie\u00dflich der Frage, ob, und wenn ja wie Softwarecode tats\u00e4chlich verifiziert werden kann, widmet. Angesichts der <a href=\"https:\/\/futureoflife.org\/open-letter-autonomous-weapons\/\" target=\"_blank\" rel=\"noopener noreferrer\">starken Unterst\u00fctzung, die ein Verbot autonomer Waffen in Technologiekreisen<\/a> erf\u00e4hrt, <a href=\"https:\/\/futureoflife.org\/lethal-autonomous-weapons-pledge\/\">sollten die kritischen Firmen<\/a> ihren Worten Taten folgen lassen und qualifizierte Mitarbeiter f\u00fcr eine solche Task Force bereitstellen.<\/p>\n<p>Der zweite Ansatz setzt daran an, dass das Prinzip bedeutsamer menschlicher Kontrolle eine maximal breite Unterst\u00fctzung erfahren muss, um auf der Handlungsebene der Staaten wirkungsm\u00e4chtig zu werden. Das w\u00fcrde die Verifikationsproblematik zwar nicht l\u00f6sen, das Vertrauen in eine breite Einhaltung der Norm aber st\u00e4rken und die Hoffnung n\u00e4hren, dass nach der grunds\u00e4tzlichen Festlegung auf einen Bann das Konzept auch ausreichend genau ausbuchstabiert werden kann. Dazu m\u00fcsste die Norm nicht nur quantitativ von vielen Staaten akzeptiert werden, sondern auch von den technologisch f\u00fchrenden Staaten akzeptiert werden. Wie k\u00f6nnte man aber gerade die Staaten, die technologisch besonders fortgeschritten sind, dazu bekommen, sich dem Gebot zu \u00f6ffnen?<\/p>\n<p>Hier wird es zum Problem, dass der kritische Diskurs oft zu eng gef\u00fchrt wurde. Kritiker autonomer Waffensysteme greifen in ihrer Kritik in der Regel auf <a href=\"https:\/\/www.boell.de\/sites\/default\/files\/boell_autonomy-in-weapon-systems_v04_kommentierbar_1.pdf?dimension1=division_oen\" target=\"_blank\" rel=\"noopener noreferrer\">drei zentrale Themenkomplexe<\/a> zur\u00fcck, n\u00e4mlich ethische, v\u00f6lkerrechtliche und sicherheitspolitische Argumente. Allerdings ist dieses Dreieck in der Debatte nicht gleich gewichtet. Nicht zuletzt durch die NGOs <a href=\"https:\/\/www.hrw.org\/report\/2012\/11\/19\/losing-humanity\/case-against-killer-robots\" target=\"_blank\" rel=\"noopener noreferrer\">werden die ethischen und v\u00f6lkerrechtlichen Argumente deutlich st\u00e4rker<\/a> als die sicherheitspolitischen Argumente hervorgehoben. Dies ist angesichts der Geschichte vieler NGOs, die sich besonders im Bereich der humanit\u00e4ren R\u00fcstungskontrolle mit dem Blick auf individuelle Not und pers\u00f6nliches menschliches Leid engagieren, nachvollziehbar. Allerdings muss man zur Kenntnis nehmen, dass die vorgebrachten rechtlichen Bedenken bei autonomen Waffen zumindest diskussionsw\u00fcrdig sind, da es zumindest nicht auszuschlie\u00dfen ist, dass zuk\u00fcnftige Software V\u00f6lkerrecht ausreichend gut umsetzt, um als rechtskompatibel zu gelten. Und es ist auch ein Fakt, <a href=\"https:\/\/netzpolitik.org\/2017\/autonome-drohnen-die-besseren-waffen\/\" target=\"_blank\" rel=\"noopener noreferrer\">dass die \u00fcberzeugenderen ethischen Bedenken<\/a> die bremsenden Staaten oft unger\u00fchrt lassen. Auch wenn die sicherheitspolitische Implikationen autonomer Waffen <a href=\"https:\/\/www.tandfonline.com\/doi\/abs\/10.1080\/00396338.2017.1375263\" target=\"_blank\" rel=\"noopener noreferrer\">inzwischen st\u00e4rker diskutiert werden<\/a>, so sollte man deshalb noch viel st\u00e4rker die destabilisierenden und eskalierenden Potenziale autonomer Waffen hervorheben. Autonome Waffen sind nicht nur rechtlich fragw\u00fcrdig und ethisch verwerflich. Sie setzen die V\u00f6lkergemeinschaft dar\u00fcber hinaus der Gefahr eines R\u00fcstungswettlaufs mit unkalkulierbaren Folgen, einem rasend schnell eskalierenden Krieg und dem Verlust der Kontrolle \u00fcber extrem m\u00e4chtige Waffen aus. Daran kann kein Staat ein Interesse haben. Diese Nachricht gilt es den Bremsern, und allen Politikern und Milit\u00e4rs, deren Augen doch insgeheim funkeln, wenn sie sich die F\u00e4higkeiten hochgradig automatisierter oder vollautonomer Waffen ausmalen, in aller Deutlichkeit zu \u00fcbermitteln. So k\u00f6nnen die Bremser vielleicht ins Boot geholt werden. Auf der Seite der Kritiker hei\u00dft das aber auch, sich klassischen sicherheitspolitischen Argumenten und bestimmten autonomen Funktionen zu \u00f6ffnen. Das hei\u00dft, in einen offeneren Dialog zu treten, wo konkrete Gefahren gesehen werden, und wo nicht. Unter Umst\u00e4nden m\u00fcssten Ausnahmen im Prinzip zugelassen werden. So ist es nur schwer vorstellbar, dass Staaten autonome Waffen zur Abwehr von anfliegenden Geschossen und Granaten dem Gebot bedeutsamer menschlicher Kontrolle unterwerfen, wenn dies die Chancen auf erfolgreiche Verteidigung verhindert. Dies geht aber nur mit einem integrativen Ansatz, der alle zentralen Akteure ins Boot holt. Ob dies mit einem strengen v\u00f6lkerrechtlichen Verbot gelingen kann, oder ob der deutsch-franz\u00f6sische Ansatz, mit einer politischen Erkl\u00e4rung zu beginnen, auf Basis derer man weiterarbeitet, muss die Diskussion zeigen. Die Hoffnungen ruhen nun auf dem neuen Vorsitzende der GGE, dem es vielleicht gelingt, das argumentative Dreieck wieder gleichschenklig zu gestalten und sicherheitspolitische Fragen st\u00e4rker zu ber\u00fccksichtigen.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Die Beratungen \u00fcber ein m\u00f6gliches Verbot autonomer Waffen gehen in eine kritische Phase (siehe Teil 1 dieses Beitrags). Welche Themen sind f\u00fcr das weitere Vorgehen zentral und wo sind Auseinandersetzungen absehbar?<\/p>\n","protected":false},"author":44,"featured_media":10728,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1141],"tags":[1224,1150,1145],"coauthors":[212],"class_list":["post-13576","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-deutsch-en","tag-arms-control","tag-autonomous-weapons-systems","tag-united-nations"],"acf":[],"views":301,"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v26.1.1 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Murmeltiertag in Genf: Probleme, Knackpunkte, m\u00f6gliche L\u00f6sungen - PRIF BLOG<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/\" \/>\n<meta property=\"og:locale\" content=\"en_US\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Murmeltiertag in Genf: Probleme, Knackpunkte, m\u00f6gliche L\u00f6sungen - PRIF BLOG\" \/>\n<meta property=\"og:description\" content=\"Die Beratungen \u00fcber ein m\u00f6gliches Verbot autonomer Waffen gehen in eine kritische Phase (siehe Teil 1 dieses Beitrags). Welche Themen sind f\u00fcr das weitere Vorgehen zentral und wo sind Auseinandersetzungen absehbar?\" \/>\n<meta property=\"og:url\" content=\"https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/\" \/>\n<meta property=\"og:site_name\" content=\"PRIF BLOG\" \/>\n<meta property=\"article:publisher\" content=\"https:\/\/www.facebook.com\/HSFK.PRIF\" \/>\n<meta property=\"article:published_time\" content=\"2019-03-26T12:59:20+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/blog.prif.org\/wp-content\/uploads\/2019\/03\/Karikatur.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"750\" \/>\n\t<meta property=\"og:image:height\" content=\"410\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Niklas Sch\u00f6rnig\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@HSFK_PRIF\" \/>\n<meta name=\"twitter:site\" content=\"@HSFK_PRIF\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Niklas Sch\u00f6rnig\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"9 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/\"},\"author\":{\"name\":\"Niklas Sch\u00f6rnig\",\"@id\":\"https:\/\/blog.prif.org\/en\/#\/schema\/person\/4842302e5dd91db52894517d5de34385\"},\"headline\":\"Murmeltiertag in Genf: Probleme, Knackpunkte, m\u00f6gliche L\u00f6sungen\",\"datePublished\":\"2019-03-26T12:59:20+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/\"},\"wordCount\":1716,\"publisher\":{\"@id\":\"https:\/\/blog.prif.org\/en\/#organization\"},\"image\":{\"@id\":\"https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/blog.prif.org\/wp-content\/uploads\/2019\/03\/Karikatur.jpg\",\"keywords\":[\"Arms Control\",\"Autonomous Weapons Systems\",\"United Nations\"],\"articleSection\":[\"Deutsch\"],\"inLanguage\":\"en-US\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/\",\"url\":\"https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/\",\"name\":\"Murmeltiertag in Genf: Probleme, Knackpunkte, m\u00f6gliche L\u00f6sungen - PRIF BLOG\",\"isPartOf\":{\"@id\":\"https:\/\/blog.prif.org\/en\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/blog.prif.org\/wp-content\/uploads\/2019\/03\/Karikatur.jpg\",\"datePublished\":\"2019-03-26T12:59:20+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/#breadcrumb\"},\"inLanguage\":\"en-US\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/#primaryimage\",\"url\":\"https:\/\/blog.prif.org\/wp-content\/uploads\/2019\/03\/Karikatur.jpg\",\"contentUrl\":\"https:\/\/blog.prif.org\/wp-content\/uploads\/2019\/03\/Karikatur.jpg\",\"width\":750,\"height\":410,\"caption\":\"Wenn k\u00fcnstliche Intelligenz funktionieren w\u00fcrde | Zeichnung von Stephan Ink\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Startseite\",\"item\":\"https:\/\/blog.prif.org\/en\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Murmeltiertag in Genf: Probleme, Knackpunkte, m\u00f6gliche L\u00f6sungen\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/blog.prif.org\/en\/#website\",\"url\":\"https:\/\/blog.prif.org\/en\/\",\"name\":\"PRIF BLOG\",\"description\":\"Peace Research Institute Frankfurt \/ Leibniz Institut Hessische Stiftung Friedens- und Konfliktforschung\",\"publisher\":{\"@id\":\"https:\/\/blog.prif.org\/en\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/blog.prif.org\/en\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"en-US\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/blog.prif.org\/en\/#organization\",\"name\":\"Peace Research Institute Frankfurt \/ Leibniz Institut Hessische Stiftung Friedens- und Konfliktforschung\",\"url\":\"https:\/\/blog.prif.org\/en\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"en-US\",\"@id\":\"https:\/\/blog.prif.org\/en\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/blog.prif.org\/wp-content\/uploads\/2023\/09\/cropped-blog_rgb.png\",\"contentUrl\":\"https:\/\/blog.prif.org\/wp-content\/uploads\/2023\/09\/cropped-blog_rgb.png\",\"width\":750,\"height\":226,\"caption\":\"Peace Research Institute Frankfurt \/ Leibniz Institut Hessische Stiftung Friedens- und Konfliktforschung\"},\"image\":{\"@id\":\"https:\/\/blog.prif.org\/en\/#\/schema\/logo\/image\/\"},\"sameAs\":[\"https:\/\/www.facebook.com\/HSFK.PRIF\",\"https:\/\/x.com\/HSFK_PRIF\",\"https:\/\/www.linkedin.com\/company\/8912786\/\"]},{\"@type\":\"Person\",\"@id\":\"https:\/\/blog.prif.org\/en\/#\/schema\/person\/4842302e5dd91db52894517d5de34385\",\"name\":\"Niklas Sch\u00f6rnig\",\"description\":\"Dr. Niklas Sch\u00f6rnig ist Vorsitzender des Forschungsrats, wissenschaftlicher Mitarbeiter und Koordinator der Forschungsgruppe \u201eResearch on Emerging Technologies, Order and Stability (rETOS)\u201c der HSFK. Er forscht zu Emerging Military Technology, der Zukunft der Kriegsf\u00fchrung und R\u00fcstungskontrolle. \/\/ Dr. Niklas Sch\u00f6rnig is a chair of Resarch Council, Senior Researcher and Coordinator of \u201cResearch on Emerging Technologies, Order and Stability (rETOS)\u201d Research Group at PRIF. His research focusses on emerging military technology, the future of warfare, and arms control. | Twitter: @NiklasSchoernig\",\"sameAs\":[\"https:\/\/www.hsfk.de\/team\/mitarbeiter\/niklas-schoernig\/\"],\"url\":\"https:\/\/blog.prif.org\/en\/author\/nschoernig\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Murmeltiertag in Genf: Probleme, Knackpunkte, m\u00f6gliche L\u00f6sungen - PRIF BLOG","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/","og_locale":"en_US","og_type":"article","og_title":"Murmeltiertag in Genf: Probleme, Knackpunkte, m\u00f6gliche L\u00f6sungen - PRIF BLOG","og_description":"Die Beratungen \u00fcber ein m\u00f6gliches Verbot autonomer Waffen gehen in eine kritische Phase (siehe Teil 1 dieses Beitrags). Welche Themen sind f\u00fcr das weitere Vorgehen zentral und wo sind Auseinandersetzungen absehbar?","og_url":"https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/","og_site_name":"PRIF BLOG","article_publisher":"https:\/\/www.facebook.com\/HSFK.PRIF","article_published_time":"2019-03-26T12:59:20+00:00","og_image":[{"width":750,"height":410,"url":"https:\/\/blog.prif.org\/wp-content\/uploads\/2019\/03\/Karikatur.jpg","type":"image\/jpeg"}],"author":"Niklas Sch\u00f6rnig","twitter_card":"summary_large_image","twitter_creator":"@HSFK_PRIF","twitter_site":"@HSFK_PRIF","twitter_misc":{"Written by":"Niklas Sch\u00f6rnig","Est. reading time":"9 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/#article","isPartOf":{"@id":"https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/"},"author":{"name":"Niklas Sch\u00f6rnig","@id":"https:\/\/blog.prif.org\/en\/#\/schema\/person\/4842302e5dd91db52894517d5de34385"},"headline":"Murmeltiertag in Genf: Probleme, Knackpunkte, m\u00f6gliche L\u00f6sungen","datePublished":"2019-03-26T12:59:20+00:00","mainEntityOfPage":{"@id":"https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/"},"wordCount":1716,"publisher":{"@id":"https:\/\/blog.prif.org\/en\/#organization"},"image":{"@id":"https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/#primaryimage"},"thumbnailUrl":"https:\/\/blog.prif.org\/wp-content\/uploads\/2019\/03\/Karikatur.jpg","keywords":["Arms Control","Autonomous Weapons Systems","United Nations"],"articleSection":["Deutsch"],"inLanguage":"en-US"},{"@type":"WebPage","@id":"https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/","url":"https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/","name":"Murmeltiertag in Genf: Probleme, Knackpunkte, m\u00f6gliche L\u00f6sungen - PRIF BLOG","isPartOf":{"@id":"https:\/\/blog.prif.org\/en\/#website"},"primaryImageOfPage":{"@id":"https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/#primaryimage"},"image":{"@id":"https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/#primaryimage"},"thumbnailUrl":"https:\/\/blog.prif.org\/wp-content\/uploads\/2019\/03\/Karikatur.jpg","datePublished":"2019-03-26T12:59:20+00:00","breadcrumb":{"@id":"https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/#breadcrumb"},"inLanguage":"en-US","potentialAction":[{"@type":"ReadAction","target":["https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/"]}]},{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/#primaryimage","url":"https:\/\/blog.prif.org\/wp-content\/uploads\/2019\/03\/Karikatur.jpg","contentUrl":"https:\/\/blog.prif.org\/wp-content\/uploads\/2019\/03\/Karikatur.jpg","width":750,"height":410,"caption":"Wenn k\u00fcnstliche Intelligenz funktionieren w\u00fcrde | Zeichnung von Stephan Ink"},{"@type":"BreadcrumbList","@id":"https:\/\/blog.prif.org\/en\/2019\/03\/26\/murmeltiertag-in-genf-probleme-knackpunkte-moegliche-loesungen\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Startseite","item":"https:\/\/blog.prif.org\/en\/"},{"@type":"ListItem","position":2,"name":"Murmeltiertag in Genf: Probleme, Knackpunkte, m\u00f6gliche L\u00f6sungen"}]},{"@type":"WebSite","@id":"https:\/\/blog.prif.org\/en\/#website","url":"https:\/\/blog.prif.org\/en\/","name":"PRIF BLOG","description":"Peace Research Institute Frankfurt \/ Leibniz Institut Hessische Stiftung Friedens- und Konfliktforschung","publisher":{"@id":"https:\/\/blog.prif.org\/en\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/blog.prif.org\/en\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"en-US"},{"@type":"Organization","@id":"https:\/\/blog.prif.org\/en\/#organization","name":"Peace Research Institute Frankfurt \/ Leibniz Institut Hessische Stiftung Friedens- und Konfliktforschung","url":"https:\/\/blog.prif.org\/en\/","logo":{"@type":"ImageObject","inLanguage":"en-US","@id":"https:\/\/blog.prif.org\/en\/#\/schema\/logo\/image\/","url":"https:\/\/blog.prif.org\/wp-content\/uploads\/2023\/09\/cropped-blog_rgb.png","contentUrl":"https:\/\/blog.prif.org\/wp-content\/uploads\/2023\/09\/cropped-blog_rgb.png","width":750,"height":226,"caption":"Peace Research Institute Frankfurt \/ Leibniz Institut Hessische Stiftung Friedens- und Konfliktforschung"},"image":{"@id":"https:\/\/blog.prif.org\/en\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/www.facebook.com\/HSFK.PRIF","https:\/\/x.com\/HSFK_PRIF","https:\/\/www.linkedin.com\/company\/8912786\/"]},{"@type":"Person","@id":"https:\/\/blog.prif.org\/en\/#\/schema\/person\/4842302e5dd91db52894517d5de34385","name":"Niklas Sch\u00f6rnig","description":"Dr. Niklas Sch\u00f6rnig ist Vorsitzender des Forschungsrats, wissenschaftlicher Mitarbeiter und Koordinator der Forschungsgruppe \u201eResearch on Emerging Technologies, Order and Stability (rETOS)\u201c der HSFK. Er forscht zu Emerging Military Technology, der Zukunft der Kriegsf\u00fchrung und R\u00fcstungskontrolle. \/\/ Dr. Niklas Sch\u00f6rnig is a chair of Resarch Council, Senior Researcher and Coordinator of \u201cResearch on Emerging Technologies, Order and Stability (rETOS)\u201d Research Group at PRIF. His research focusses on emerging military technology, the future of warfare, and arms control. | Twitter: @NiklasSchoernig","sameAs":["https:\/\/www.hsfk.de\/team\/mitarbeiter\/niklas-schoernig\/"],"url":"https:\/\/blog.prif.org\/en\/author\/nschoernig\/"}]}},"_links":{"self":[{"href":"https:\/\/blog.prif.org\/en\/wp-json\/wp\/v2\/posts\/13576","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/blog.prif.org\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blog.prif.org\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blog.prif.org\/en\/wp-json\/wp\/v2\/users\/44"}],"replies":[{"embeddable":true,"href":"https:\/\/blog.prif.org\/en\/wp-json\/wp\/v2\/comments?post=13576"}],"version-history":[{"count":0,"href":"https:\/\/blog.prif.org\/en\/wp-json\/wp\/v2\/posts\/13576\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/blog.prif.org\/en\/wp-json\/wp\/v2\/media\/10728"}],"wp:attachment":[{"href":"https:\/\/blog.prif.org\/en\/wp-json\/wp\/v2\/media?parent=13576"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blog.prif.org\/en\/wp-json\/wp\/v2\/categories?post=13576"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blog.prif.org\/en\/wp-json\/wp\/v2\/tags?post=13576"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/blog.prif.org\/en\/wp-json\/wp\/v2\/coauthors?post=13576"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}