Keine Hate Speech im Netz! | Foto: Jon Tyson via unsplash | https://unsplash.com/license

Verfolgung und Prävention von Hasskriminalität im Internet: Benötigt es „mehr Polizei“ in Sozialen Medien?

Der Umgang mit Hassrede, Hasskriminalität und gefährdenden Radikalisierungsprozessen im Internet bildet eine zentrale Herausforderung der Kriminalpolitik im „digitalen Zeitalter“. Innen- und Justizbehörden, insbesondere aber die Polizeien stehen in der Kritik, zu wenig gegen Hassdelikte im Internet zu unternehmen. Bemängelt werden ein unzureichender Personaleinsatz und in der Fläche mangelhafte Expertisen von Polizeibeamt*innen für das Feld der Internetermittlungen. Insgesamt fehle es an einer „digitalen Polizeistrategie“. Doch wie ist der Status Quo der Strafverfolgung von Hasskriminalität im Internet? Welche Herausforderungen stellen sich aus kriminologischer Sicht und welche Lösungsansätze gibt es, um die Strafverfolgung zu verbessern?

Hate Speech („Hassrede“) bezeichnet den sprachlichen Ausdruck von Hass gegenüber sozialen Gruppen oder ihren Mitgliedern (z.B. aufgrund einer sexuellen Orientierung), insbesondere durch die Verwendung von Ausdrücken, die der Verunglimpfung und Herabsetzung eben dieser Gruppen dienen.  Hasskriminalität bezeichnet durch Vorurteile gegenüber sozialen Gruppen motivierte Straftaten, z.B. das Delikt einer Volksverhetzung nach §130 StGB. Hate Speech kann einen Straftatbestand erfüllen und damit zu Hasskriminalität werden, muss es aber nicht. Dies macht Hate Speech aber nicht weniger problematisch. Vielmehr verletzt sie die Menschenwürde und das Persönlichkeitsrecht der Betroffenen, auch indirekt, indem bestimmte Meinungen oder Identitäten aus Angst vor hasserfüllten Reaktionen nicht mehr kundgetan werden. Der freie und zivilisierte Meinungsaustausch, wie er für unsere demokratische und pluralistische Gesellschaft essentiell ist, wird dadurch gefährdet. Dem entgegenzuwirken ist eine gesamtgesellschaftliche Aufgabe, bei der Zivilgesellschaft, Betreiber entsprechender Kommunikationsplattformen und Strafverfolgung Hand in Hand greifen müssen. Der Strafverfolgung kommt dabei eine wichtige Rolle zu. Zwar bleibt das Strafrecht eine Ultima Ratio, da es auf bestimmte (gesellschaftlich in besonderem Maße als strafwürdig empfundene) Akzentuierungen von Norm- bzw. Rechtsgüterverletzungen (hier: von Hassrede) begrenzt bleibt. Wird die Strafandrohung effektiv umgesetzt, woran es in weiten Teilen des digitalen Raums noch mangelt, kann sie zu einer Stärkung des Normbewusstseins allgemein sowie zu einer Abschreckung von Hassrede führen.

Ausmaß von Hasskriminalität im Internet

Zu Umfang und Struktur von Hasskriminalität im deutschsprachigen Internet liegen bislang keine empirischen Forschungsarbeiten vor. Klar ist, dass bisher nur ein sehr kleiner Ausschnitt der Wirklichkeit von Hasskriminalität polizeilich registriert und aufgeklärt wird. Der Polizei zur Kenntnis gelangte und als strafbar bewertete Hasspostings werden im „Kriminalpolizeilichen Meldedienst Politisch motivierte Kriminalität“ (KPMD-PMK)“ erfasst. Hasskriminalität bildet hier ein Oberthemenfeld der politisch motivierten Kriminalität, das Straftaten erfasst, „die durch gruppenbezogene Vorurteile motiviert begangen werden“. Im Jahr 2021 wurden zu diesem Oberthemenfeld 10.501 Fälle erfasst, davon wurden 2.411 Hassdelikte mit dem „Tatmittel Hassposting“ begangen. Von diesen Delikten wurden 1.260 dem Phänomenbereich „rechts“, 177 Fälle dem Bereich „links“, 66 Fälle dem Bereich „ausländische Ideologie“ und 47 dem Bereich „religiöse Ideologie“ zugeordnet, während 861 Fälle nicht zuordenbar waren. Bislang liegen keine empirisch belastbaren Schätzungen über das Ausmaß des Dunkelfelds vor. Anhaltspunkte bilden allerdings die Transparenzberichte der großen Social Media-Plattformbetreiber wie Facebook und Twitter. Diese sind nach dem alten Netzwerkdurchsetzungsgesetz (NetzDG, siehe dazu weiter unten) dazu verpflichtet, von Nutzer:innen gemeldete rechtswidrige Inhalte, die unter das NetzDG fallen, zu löschen. Allein Facebook hat nach NetzDG-Beschwerden im Jahr 2021 etwa 2.842 potentiell strafbare Inhalte nach §130 StGB (Volksverhetzung) gelöscht. Hinzukommen zahlreiche Löschungen wegen anderer NetzDG-Katalogtaten, unter denen sich ein nicht unerheblicher Anteil Hassdelikte befinden dürfte, z.B. Beleidigungen. Allein durch die strafrechtliche Verfolgung der von Facebook gelöschten potentiell strafbaren Volksverhetzungsdelikte könnte sich das bisherige Hellfeld der Hasskriminalität im Internet verdoppeln.

Dabei ist das Ausmaß der von Plattformbetreibern registrierten Hassdelikte vom Beschwerdeverhalten der Nutzer:innen abhängig. Laut einer FORSA-Studie zu Hate Speech aus 2021 melden nur etwa ein Viertel der Nutzer:innen wahrgenommene Hassrede an die Plattformbetreiber. Hinzu kommt  das schwer abschätzbare Ausmaß von Hasskriminalität auf weitgehend unregulierten, sog. „alternativen“ Plattformen bzw. Messenger-Diensten wie Telegram oder Discord und Twitch aus dem Gaming-Bereich, die von extremistischen Akteuren in den letzten Jahren zunehmend genutzt werden, um Propaganda zu verbreiten und zu (strafbaren) Handlungen in der realen Welt zu mobilisieren.

Bisherige Ansätze zur Verbesserung der Strafverfolgung

Da bislang nur eine geringe Strafverfolgungswahrscheinlichkeit für Hassdelikte im Internet besteht, fehlen die Voraussetzungen für eine präventive Wirksamkeit von strafrechtlicher Sozialkontrolle in digitalen Räumen. Gemeint ist damit eine Abschreckung von Täter:innen, aber auch die Stärkung des Normbewusstseins. Nicht zuletzt geht es um die Prävention von gefährdender Radikalisierung. Eine erste kriminalpolitische Maßnahme zur Verbesserung der Strafverfolgung von Online-Hasskriminalität bildet das am 01.02.2022 in Kraft getretene Gesetz zur Bekämpfung gegen Rechtsextremismus und Hasskriminalität im Internet. Es verpflichtet Plattformbetreiber mit mehr als zwei Mio. registrierten Nutzer:innen, der eigens dazu eingerichteten „Zentralstelle für strafbare Inhalte im Internet“ im Bundeskriminalamt Katalogstraftaten zu melden, die ihnen durch eine Beschwerde bekannt wurden. Neben aktuell noch bestehenden Umsetzungsschwierigkeiten bleibt die Wirksamkeit der neuen Regelungen jedoch fraglich. Wesentliches Ziel des Gesetzes ist es, einer „Verrohung der Kommunikation“ im Internet und damit dem Eindruck entgegenzuwirken, „das Internet entwickele sich zu einem rechtsfreien Raum“. Zielgruppe bilden insbesondere rechtsextreme Straftäter*innen. Doch gerade diese nutzen in zunehmendem Maße unregulierte Plattformen, wie etwa Telegram oder Foren und Netzwerke aus dem Gaming-Bereich, die bisher außerhalb des Anwendungsbereiches des NetzDG liegen. Auch vertraut das Gesetz auf einer signifikanten Beschwerdebereitschaft von Nutzer;innen. Dabei zeigt die Radikalisierungsforschung, dass Hassrede und radikalisierende Gruppendynamiken gerade in kommunikativ isolierten Räumen, d.h. unter Gleichgesinnten, stattfinden. Rein reaktive, auf der Anzeigebereitschaft von Nutzer:innen basierende Ansätze, greifen also von vornherein zu kurz.

Die Entwicklung und Erprobung von Ansätzen für eine gezielte pro-aktive Kontrolltätigkeit der Strafverfolgungsbehörden in Sozialen Medien steht indes noch am Anfang. So hat das Bundeskriminalamt (BKA) im Januar 2022 die „Task Force Telegram“ gegründet, um gezielt Bedrohungen, Beleidigungen und Mordaufrufe gegen politische Mandatsträger:innen auf Telegram zu verfolgen. Durchgeführt wurden zudem eine Reihe von nationalen und europaweiten Aktionstagen gegen Hasskriminalität, bei denen Strafverfolgungsbehörden des Bundes und der Länder in enger Abstimmung Hasspostings zu bestimmten Themenfeldern identifizieren und ermittelbare Täter:innen öffentlichkeitswirksam verfolgen. Beim letzten Aktionstag im März 2022 wurden auf Grundlage eines Sample von 600 Äußerungen, die analysiert und auf strafbare Inhalte überprüft wurden, Ermittlungsverfahren gegen 100 Beschuldigte initiiert, die Hasspostings gegen Politiker:innen verfasst haben.

Die Aktionstage haben zunächst eine politische „Signalwirkung“. Der Staat demonstriert, dass er bei Hasskriminalität im Internet nicht untätig bleibt. Ob die stichprobenartigen und themenspezifischen Auswertungen bei potentiellen Täter:innen zur Wahrnehmung eines erhöhten Strafverfolgungsrisikos führen und welche Täter:innen sich in der Folge abschrecken lassen, müsste empirisch untersucht werden. Das objektive Strafverfolgungsrisiko bleibt jedenfalls aufgrund der hohen Selektivität des Kontrollhandelns begrenzt. Selektiv sind einerseits die Anlässe der Strafverfolgung (etwa „Hetze gegen Politiker:innen“). Andererseits kann aus der großen Menge von Gruppen & Kanälen, in denen Hassrede vermutet wird oder diesbezügliche Hinweise vorliegen, mit zur Verfügung stehenden Personalressourcen nur eine kleine Teilmenge systematisch nach strafbaren Inhalten ausgewertet werden. Weitere Selektionseffekte in Hinblick auf die Aufhellung des Dunkelfelds ergeben sich aus Schwierigkeiten bei der Identifizierung von Tatverdächtigen. Verbergen Nutzer:innen ihre Klarnamen und andere personenbeziehbare Daten (wie etwa ihre Telefonnummer in Telegram) und sind Bestandsdaten der Nutzer:innen aufgrund mangelnder Kooperationsbereitschaft (wie im Fall Telegram) häufig nicht verfügbar, ist die Täter:innenidentifizierung wenn überhaupt nur durch aufwändige OSINT-Recherchen möglich.

Ausblick

Einfache Lösungen zur Ausweitung der strafrechtlichen Verfolgung von Hasskriminalität gibt es also nicht. Dies gilt insbesondere für die Übertragung von Ansätzen aus der realen Welt, wie die einer sichtbaren Präsenz von Polizei im Sinne von „Online-Streifen“. Ob sichtbar oder nicht sichtbar – präventiv wirksam werden regelmäßige Kontrollen ohnehin erst dann, wenn die dabei identifizierten Straftaten auch effektiv verfolgt werden können. Um Tatverdächtige besser ermitteln zu können, müssten neben entsprechenden regulatorischen Maßnahmen (Stichwort: Telegram-Bestandsdatenabfragen) insbesondere auch Kapazitäten und Know-How für OSINT-Recherchen in Polizeibehörden ausgebaut werden. Angesichts der schieren Menge relevanter Kommunikation wird strafrechtliche Kontrolle in digitalen Räumen aber auch unter verbesserten personellen, technischen und regulatorischen Voraussetzungen in der Zukunft nur ausschnitthaft möglich sein.

Die begrenzt zur Verfügung stehenden Ressourcen zielgerichtet und effizient möglichst dort einzusetzen, wo sich strafrechtlich relevante Dynamiken besonders stark oder bedrohlich für die Sicherheit Einzelner und der Allgemeinheit entfalten, bildet daher eine Schlüsselherausforderung für Strafverfolgungsbehörden. Erforderlich ist dazu zu allererst ein gutes Lagebild zu Hassrede im digitalen Raum. Gefragt ist hier ein enger Austausch mit Zivilgesellschaft und Wissenschaft. Für ein zielgerichtetes Vorgehen werden auch verbesserte Instrumente zur Erkennung strafrechtlich relevanter Dynamiken in Massendaten benötigt. Technische Unterstützungswerkzeuge, auch unter Einbeziehung von Systemen Künstlicher Intelligenz, sind weit davon entfernt Wunder zu bewirken und bergen zahlreiche rechtliche und ethische Risiken. Zielgerichtet und unter enger ethischer und rechtlicher Begleitung entwickelt, können sie Sicherheitsbehörden aber helfen, ihre Auswertungs- und Ermittlungstätigkeiten zu fokussieren und damit Kontrolle im digitalen Raum zugleich auf strafrechtlich relevante Geschehnisse zu begrenzen.

Robert Pelzer
Robert Pelzer ist Soziologe und Kriminologe am Zentrum Technik und Gesellschaft der TU Berlin, wo er den Forschungsbereich „Sicherheit – Risiko – Kriminologie“ leitet. Er forscht u.a. zu den Themen (De-)Radikalisierung, Polizeiarbeit im Internet sowie zu Fragen gesellschaftlich-ethischer Bewertung von Sicherheitstechnologien. // Robert Pelzer is Sociologist and Criminologist at the Centre for Technology and Society at TU Berlin, where he heads the research area "Security – Risk – Criminology". His research topics (de)radicalisation, policing in the internet and questions of societal-ethical assessment of security technologies.

Robert Pelzer

Robert Pelzer ist Soziologe und Kriminologe am Zentrum Technik und Gesellschaft der TU Berlin, wo er den Forschungsbereich „Sicherheit – Risiko – Kriminologie“ leitet. Er forscht u.a. zu den Themen (De-)Radikalisierung, Polizeiarbeit im Internet sowie zu Fragen gesellschaftlich-ethischer Bewertung von Sicherheitstechnologien. // Robert Pelzer is Sociologist and Criminologist at the Centre for Technology and Society at TU Berlin, where he heads the research area "Security – Risk – Criminology". His research topics (de)radicalisation, policing in the internet and questions of societal-ethical assessment of security technologies.

Weitere Beiträge zum Thema

Die Schlüsselrolle der Schulen in der Prävention von islamistischer Radikalisierung In Europa ist die Debatte über islamistische Radikalisierung bei jungen Menschen und wirksame Präventionsmaßnahmen in vollem Gange. Dieser Blogbeitrag beleuchtet Herausforderungen ...
Ungehorsamer Klimaprotest: Proteste werden intensiver – eine Radikalisierung in die Gewalt ist nicht in Sicht Wie mit dem Klimawandel umgehen, das wird aktuell intensiv diskutiert. Die Klimabewegung betont die Notwendigkeit einer globalen, sozialen und ökologischen Transformation, dafür in...
Radikalisierung als Flucht und kommunale Präventionsarbeit als Chance Es ist zu einem Gemeinplatz geworden festzustellen, dass Radikalisierungsprävention eine „gesamtgesellschaftliche Aufgabe“ ist. Das liegt an der Unbestimmtheit des Begriffs und dar...