Zum Hauptinhalt springen
Publikationssprachen:
Podcast PRIF TALK:

Beiträge nach Sprache filtern:

Sicherheit in Zahlen? Ein Beipackzettel für Meinungsumfragen zu Außen- und Sicherheitspolitik

15. August 2025

In außen- und sicherheitspolitischen Debatten verweisen führende Politikerinnen und Politiker immer wieder auf Umfragen, nicht zuletzt bei Waffenlieferungen an die Ukraine. Doch wer Umfragedaten nutzt, sollte wissen, was sie leisten können – und was nicht. Viele Befragte äußern zum Beispiel bei einem komplexen Politikfeld wie der Außen- und Sicherheitspolitik Meinungen zu Themen, zu denen sie wenig Wissen oder keine gefestigte Haltung haben. Deswegen kommt Frageformulierungen und Erhebungsmethoden eine große Bedeutung zu. Dieses Spotlight zeigt, worauf Entscheidungsträger*innen, Think Tanker oder Journalist*innen achten sollten, wenn sie der nächsten Umfrage zu Außen- und Sicherheitspolitik begegnen.

„Nur 17 Prozent wären im Ernstfall bereit Deutschland zu verteidigen“, „Bundeswehr als Friedenstruppe in die Ukraine? Die Mehrheit ist dafür.“1 Schlagzeilen wie diese begegnen uns fast täglich. Meinungsumfragen zu außen- und sicherheitspolitischen Fragen haben insbesondere seit der Vollinvasion der Ukraine durch Russland und der ausgerufenen „Zeitenwende“ in Deutschland an Sichtbarkeit und politischer Relevanz gewonnen. Die Bundeswehr wird massiv aufgerüstet, Politik und Gesellschaft diskutieren die Wiedereinführung der Wehrpflicht und auch die Verteidigungsbereitschaft der Bevölkerung rückt in den Fokus. In diesem Kontext dienen Meinungsumfragen nicht nur der Einordnung gesellschaftlicher Stimmungen – sie beeinflussen auch politische Entscheidungen und verleihen ihnen Legitimität.2 Je größer allerdings die Rolle von Meinungsumfragen in der außen- und sicherheitspolitischen Debatte wird, desto wichtiger ist es, dass deren Nutzer*innen ein Grundverständnis für ihre Aussagekraft und Grenzen haben.

„Die“ öffentliche Meinung

„Öffentliche Meinung“ bezeichnet die kollektiven Einstellungen und Überzeugungen einer Bevölkerung zu politischen, sozialen oder anderen aktuellen Themen. Sie ist keine feste Größe, sondern eine Momentaufnahme, die im Zusammenspiel von Politik, Medien und Öffentlichkeit entsteht. Umfragen können Trends sichtbar machen und Gruppen vergleichen, sind aber stets nur ein Ausschnitt der öffentlichen Meinung. Deshalb ist es gerade bei komplexen Politikfeldern wie der Außen- und Sicherheitspolitik, wichtig, auf die Details zu achten.

Gute Umfragen erkennen

Umfragen wirken oft eindeutig – doch wie belastbar ihre Ergebnisse sind, hängt entscheidend davon ab, wie die Daten erhoben wurden. Nur wenn zentrale methodische Informationen transparent berichtet werden, lassen sich Umfrageergebnisse sinnvoll einordnen (siehe Reporting Standards in Textbox). Folgende Informationen sind besonders relevant:

Wer wurde wie befragt? Eine Umfrage ist nur dann aussagekräftig, wenn die Befragten möglichst gut die Bevölkerung bzw. die für die jeweilige Erhebung relevante Gruppe widerspiegeln. Dafür sollte jede Person in der Grundgesamtheit die gleiche oder zumindest bekannte Chance haben, befragt zu werden. Ist das der Fall, spricht man von einer repräsentativen Stichprobe. Für eine solche sind Zufallsstichproben unumgänglich. Professionelle Umfrageinstitute greifen hierfür auf die Einwohnermeldedaten der Städte und Gemeinden zurück oder benutzen komplexe Auswahlmechanismen wie sie vom Arbeitskreis Deutscher Markt- und Sozialforschungsinstitute (ADM) empfohlen werden.3

Reporting Standards
Reporting Standards für Umfragedaten

  • Erhebendes Institut
  • Endkunde/Sponsoren
  • Grundgesamtheit/Zielgruppe
  • Fallzahl/Stichprobengröße
  • Erhebungszeitraum
  • Erhebungsverfahren (z. B. mündlich, schriftlich, telefonisch, online, Mixed-Mode)
  • Stichprobenziehung (z. B. Zufall, Quote, Voll­erhebung)
  • Stichprobenbasis
  • Statistisches Fehlerintervall
  • Fragen (genauer Wortlaut)
  • Datengewichtung

Quelle: ADM

In der Praxis werden jedoch viele Befragungen inzwischen über sogenannte opt-in Online-Panels durchgeführt: Für diese registrieren sich Personen freiwillig und erhalten auf Grundlage festgelegter Kriterien Einladungen zu wissenschaftlichen oder kommerziellen Umfragen. Befragt werden kann hier also nur, wer im entsprechenden Panel registriert ist. Dies sind meist eher online-affine, jüngere und gebildetere Menschen.  Solche Stichproben können deshalb systematisch von der Gesamtbevölkerung abweichen und zu verzerrten Ergebnissen führen.

Auch klassischere Erhebungsmethoden wie persönliche Interviews („CAPI“), telefonische Befragungen („CATI“) oder postalische Anschreiben bringen jeweils eigene Herausforderungen mit sich – etwa geringe Befragungsbereitschaft oder hohe Erhebungskosten. Um diesen zu begegnen und zugleich eine möglichst gute Stichprobenqualität sicherzustellen, werden heute oft verschiedene Erhebungsmethoden kombiniert.4

Weitere Verzerrungsrisiken entstehen durch Selbstselektion der Teilnehmenden und niedrige Rücklaufraten. Wenn nur wenige der eingeladenen Personen antworten, besteht die Gefahr, dass die Ergebnisse nur die Ansichten einer kleinen Gruppe statt der Gesamtbevölkerung zeigen. Die Selbstselektion ist insbesondere bei offenen Online-Umfragen – etwa auf Medienportalen – problematisch, denn es nehmen typischerweise eher Personen mit starker Meinung oder persönlichem Interesse teil.

Wann wurde befragt (Befragungszeitraum, „Feldzeit“)? Wurden die Daten vor dem interessierenden Ereignis, beispielsweise einer politischen Entscheidung, erhoben, kann aus ihnen keine Erkenntnis über die öffentliche Meinung zu diesem Ereignis gewonnen werden.

Wie wurde gefragt – und was wurde (nicht) verstanden? Nicht nur wer wann gefragt wird, sondern auch wie, beeinflusst die Ergebnisse. Zentral sind hierbei sogenannte Framing-Effekte: Je nachdem, welche Begriffe verwendet werden, welcher Aspekt betont oder wie die Frage eingebettet ist, können sich die Antworten unterscheiden – obwohl sich der inhaltliche Kern der Frage nicht ändert. Weitere typische Probleme, die zu Messfehlern führen können, sind:

  • Suggestive Fragen, etwa mit Formulierungen wie „Finden Sie nicht auch, dass …?“
  • Unklare Begriffe wie „manchmal“ oder „selten“, unpräzise Zeitangaben oder sehr komplexe und kleinteilige Fragen.
  • Fehlende Antwortoptionen oder unverständliche Skalen, die keine passende Antwort ermöglichen.
  • Antwortverzerrung durch soziale Erwünschtheit.
  • Frage- und Antwortreihenfolge: Früh genannte Möglichkeiten werden öfter gewählt und eine bereits gestellte Frage kann die Folgefragen beeinflussen.
  • Ermüdung durch lange oder komplizierte Fragebögen, die zu Abbrüchen oder ungenauen Antworten führt.

„Non-attitudes“ und Frageformulierung

Framing-Effekte und die genaue Frageformulierung sind gerade für Umfragen in der Außen- und Sicherheitspolitik relevant, denn eine zentrale Herausforderung in diesem Politikbereich sind Nicht-Einstellungen (Non-attitudes). Außen- und sicherheitspolitische Themen sind für große Teile der Bevölkerung in der Regel keine Fragen des Alltags. Das gilt insbesondere für spezifischere Fragen, wie zum Beispiel zu einzelnen Waffensystemen. Doch auch wenn sie über das Thema wenig wissen und keine gefestigte Meinung haben, drücken viele Befragte in Umfragen eine Meinung aus. Das zeigt ein Beispiel aus der jährlichen Bevölkerungsumfrage des Zentrums für Militärgeschichte und Sozialwissenschaften der Bundeswehr (ZMSBw). 46% der Befragten geben im Jahr 2024 an, „gar nichts“ über den Einsatz der Bundeswehr zur Kontrolle des Luftraums in Rumänien zu wissen, weitere 39% geben an, sie wissen „eher wenig“. Auf die Frage, was sie von diesem Einsatz der Bundeswehr halten, gibt die große Mehrheit der Befragten dennoch eine Meinung an. Lediglich 8% der Befragten antworten mit „ich weiß es nicht“.5

Das Beispiel illustriert: Befragte greifen auf andere Heuristiken als das eigene Wissen und gefestigte Meinungen zurück. Dazu gehören außenpolitische Grundeinstellungen – zum Beispiel zur Anwendung von Gewalt oder internationaler Kooperation – und persönliche Grundwerte.6 Einflussreich sind aber auch sogenannte elite cues, also die Orientierung an der aktuellen medialen und politischen Debatte.7 Nicht zuletzt orientieren sich Befragte am Kontext der Umfrage und an der konkreten Frage. Das bedeutet: Das genaue Design der Studie, Frageformulierung und Antwortoptionen, die Reihenfolge der Fragen, der Zeitpunkt der Umfrage und der politische Diskurs zu diesem Zeitpunkt sind essenzieller Kontext für die Interpretation der Antworten.

Die nachfolgende Grafik illustriert die Relevanz der Frageformulierung anhand eines Vergleichs von regelmäßigen Umfragen der Körber-Stiftung, des ZMSBw und des Bundespresseamts (BPA). Alle drei Umfragen enthalten eine Frage, die die grundsätzliche Position der Bevölkerung zum außenpolitischen Verhalten Deutschlands erfragen möchte. Unterschiede in der Frageformulierung zwischen Körber-Stiftung und ZMSBw führten im Jahr 2023 zu einem genau gegenteiligen Ergebnis. Wenn wie in der Umfrage des BPA noch die Option dazu kommt, den Status Quo zu unterstützen, zeigt sich wieder ein anderes Bild. Auch methodische Unterschiede zwischen den Umfragen, die Fragereihenfolge und der genaue Erhebungszeitpunkt im Jahr 2023 können hier eine Rolle gespielt haben. Das Beispiel zeigt jedoch anschaulich: Die spezifische Frage und ihre Schlüsselwörter sind ein zentraler Punkt, den Konsument*innen von Umfragedaten zu Außen- und Sicherheitspolitik beachten sollten. Ob Institute nach „militärischer Unterstützung“ oder „Waffen“ für die Ukraine fragen, macht einen Unterschied – genau wie eine Frage nach der Entsendung von „Soldaten“ in die Ukraine nicht das gleiche ist wie die Frage nach „Friedenstruppen“. Ob der beliebte Verteidigungsminister in der Einleitung der Frage erwähnt wird, kann ebenso die Antwort beeinflussen, wie das Nennen (oder Weglassen) bestimmter Länder oder Krisen.

Balkendiagramm mit der Überschrift ZMSBw: Bevölkerungsbefragung 2023. Und wie sollte sich Deutschland in der internationalen Politik am ehesten verhalten? Sollte Deutschland.. Es gibt drei Balken: 54% Eher bei der Bewältigung von Problemen, Krisen und Konflikten mithelfen. 38% Sich eher aus den Problemen, Krisen und Konflikten heraushalten. 8% Weiß nicht/keine Antwort.

Balkendiagramm mit der Überschrift: Körber Stiftung: Deutsche Außenpolitik 2023 Es wird derzeit darüber diskutiert, ob Deutschland in Zukunft international mehr Verantwortung übernehmen soll. Was denken Sie: Sollte sich Deutschland künftig bei internationalen Krisen stärker engagieren oder soll sich Deutschland stärker zurückhalten? Es gibt 5 Balken: 38% Deutschland sollte sich bei internationalen Krisen stärker engagieren. 54% Deutschland sollte sich bei internationalen Krisen stärker zurückhalten. 4% weder noch/weiter wie bisher. 2% weiß nicht. 2% keine Antwort.

Balkendiagramm mit der Überschrift: BPA: Deutschland in der Welt 2023. Und wenn Sie an die aktuelle politische Lage denken: Sind Sie da der Meinung, dass Deutschland mehr Verantwortung oder weniger Verantwortung übernehmen sollte, oder sind Sie der Meinung, Deutschland tut bereits genug? Es gibt 5 Balken: 34,5% mehr Verantwortung. 16,9 % weniger Verantwortung. 45,7% tut bereits genug. 2,3% weiß nicht. 0,6% k. A.

Grafik: Drei Fragen zur internationalen Verantwortung Deutschlands aus dem Jahr 2023 mit jeweils unterschiedlichen Formulierungen und Antwortoptionen. Details zu Erhebungszeitraum, Erhebungsmethode, Stichprobengröße und weitere Informationen finden sich in den Fußnoten im Online-Anhang.8

Typische Interpretationsfehler

Wer sich die Frage genau angeschaut und die Reporting Standards geprüft hat, muss noch mindestens drei typische Fehler bei der Interpretation von Umfragedaten vermeiden. Erstens sind Fehlerintervalle zu beachten. Unterschiede zwischen Gruppen oder Veränderungen über die Zeit, die innerhalb des Fehlerintervalls liegen, sind nicht aussagekräftig. Große Institute geben typischerweise Schwankungen von zwei bis drei Prozentpunkten an. Kleine Unterschiede, etwa zwischen Parteianhängern bei der Unterstützung der Ukraine mit Waffen, die in diesem Fehlerbereich liegen, können wie bedeutende Erkenntnisse wirken – sind es aber nicht.

Ein zweiter häufiger Fehler ist die Verwechslung von Korrelation und Kausalität. Wenn Parteipräferenz etwa mit außenpolitischer Haltung zusammenhängt, heißt das nicht, dass das eine das andere verursacht. Menschen könnten in ihrer Meinung von einer Partei beeinflusst sein, sie könnten aber auch der Partei ihre Sympathie schenken, die ihren Standpunkt vertritt.

Ein letzter typischer Fehler in der Interpretation von Umfragedaten sind Aussagen über zu kleine Gruppen oder Subgruppen. Aussagen über Subgruppen etwa nach Geschlecht, Parteipräferenz, Alter oder Region klingen interessant, basieren aber oft auf zu wenigen Fällen. Werden etwa innerhalb einer Umfrage zu deutschen NATO-Beiträgen mit 1.000 Befragten die Antworten von FDP- oder BSW-Anhängern untersucht – beide Parteien stehen derzeit bei drei Prozent in der Sonntagsfrage – handelt es sich jeweils nur um einige Dutzend Befragte – zu wenig, um belastbare Aussagen über diese Gruppe zu treffen.

Einordnen statt Überbewerten

Meinungsumfragen können wichtige Anhaltspunkte für politische Entscheidungen und die außen- und sicherheitspolitische Debatte liefern. Dafür ist es jedoch wichtig, dass sich Nutzer*innen dieser Daten der hier aufgeführten Punkte bewusst sind. Neben der grundsätzlichen Überprüfung der Qualität der Umfragedaten heißt das auch, die Ergebnisse von einzelnen Umfragen nicht überzubewerten und jedes Mal kritisch zu prüfen: In welchem Kontext wurde welche Frage gestellt? Was waren zu diesem Zeitpunkt die dominierenden Themen in der öffentlichen Debatte? Wie wahrscheinlich sind Non-attitudes und Framing-Effekte?

Des Weiteren sollte es – gerade auch für Journalist*innen – Standard sein, die Ergebnisse mit anderen Umfragedaten und idealerweise auch Zeitreihen zu vergleichen. Anhand verschiedener jährlicher Umfragen zur Außen- und Sicherheitspolitik wie etwa der Umfragen des ZMSBw, des Bundespresseamts, der Körber-Stiftung oder wiederholt gestellter Fragen der German Longitudinal Election Study (GLES) ist es möglich, ad-hoc Umfrageergebnisse in den Kontext von Zeitreihen zu setzen.9 Wer das eingangs erwähnte Beispiel, dass nur 17% der Deutschen bereit wären, Deutschland „mit der Waffe“ zu verteidigen, etwa mit den jährlichen Ergebnissen des ZMSBw vergleicht, stellt fest: Bei Männern unter 50 antworteten 2024 19% mit „ja“ und 42% mit „eher ja“ auf diese Frage. Eine informierte außen- und sicherheitspolitische Debatte braucht eine solche Einordnung.

Dieses Spotlight entstand im Rahmen des Leibniz-Lab „Umbrüche und Transformationen“ der Leibniz-Gemeinschaft.


Download (pdf): Sarah Brockmeier-Large (2025): Sicherheit in Zahlen? Ein Beipackzettel für Meinungsumfragen zu Außen- und Sicherheitspolitik, PRIF Spotlight 7/2025, Frankfurt/M.

Zu den Fußnoten

 

 

 

 

 

 


 

Autor*in(nen)

Sarah Brockmeier-Large

Sarah Brockmeier-Large

Sarah Brockmeier-Large ist Leiterin des Berliner Büros von PRIF sowie wissenschaftliche Mitarbeiterin und Doktorandin im Rahmen der Forschungsinitiative „ConTrust – Vertrauen im Konflikt“ am PRIF und der Goethe-Universität Frankfurt. Sie ist außerdem Non-Resident Fellow am Global Public Policy Institute (GPPi) in Berlin. // Sarah Brockmeier-Large is the head of PRIF’s Berlin Office as well as a doctoral researcher in the research initiative “ConTrust – Trust in Conflict” at PRIF and Goethe University Frankfurt. She is also a non-resident fellow at Global Public Policy Institute (GPPi) in Berlin. | Twitter: @sarahbrockmeier
Dr. Christina Eder leitet das Forschungsdatenzentrum „Wahlen“ bei GESIS. // Dr. Christina Eder heads the Research Data Center “Elections” at GESIS.
Dr. Alexander Jedinger ist Senior Researcher bei GESIS. // Dr. Alexander Jedinger is a Senior Researcher at GESIS.
Prof. Dr. Alexia Katsanidou leitet die Abteilung Survey Data Curation bei GESIS. // Prof. Dr. Alexia Katsanidou is the scientific director of the GESIS Department Survey Data Curation.
Leon Krause
Leon Krause ist Doktorand am FGZ Frankfurt. Er ist assoziierter Forscher am Programmbereich Internationale Institutionen am PRIF. // Leon Krause is a PhD candidate at the Research Institute for Social Cohesion (RISC) in Frankfurt. He is an Associate Fellow at PRIF's Research Department International Institutions.