Hate Speech

65

Hate Speech Aufziehendes GewitterDefinition:
Gemäß der Definition der UNO umfasst Hate Speech „jede Form der Kommunikation, sei es schriftlich, mündlich, visuell oder durch Verhalten, die Menschen aufgrund eines Identitätsfaktors wie Phänotyp, Geschlecht, sexuelle Orientierung, Herkunft, Religion usw. beleidigt und/oder angreift“ (United Nations 2020). Hate Speech darf daher nicht auf Beleidigungen und Pöbeleien in Online-Diskussionen reduziert werden. Das besondere Merkmal von Hate Speech ist der bewusste Angriff auf Personen oder Gruppen aufgrund ihrer Identität und nicht aufgrund ihrer beruflichen Tätigkeit oder politischen Überzeugung. Dieser Aspekt unterscheidet Hate Speech in den → sozialen Medien von anderen Formen digitaler Gewalt.

Hate Speech ist nicht mit allgemeiner Diskriminierung gleichzusetzen, wie etwa der Anwendung von Stereotypen, z. B. Bilder aus → Kampagnen von Menschenrechtsorganisationen mit nicht-weißen Kindern. Hate Speech wird bewusst und/oder intentional (strategisch) verwendet, sie ist kein Versehen und auch kein Fauxpas.

Geschichte:
Als klassisches Beispiel für Hate Speech gilt die antisemitische Propaganda vor und während der nationalsozialistischen Diktatur. Der Begriff ‚Hate Speech‘ tauchte aber erst in den 1970er Jahren in der akademischen Literatur auf (Paz 2020) und wurde vor allem in den 1980er Jahren von Jura-Professor*innen in den Vereinigten Staaten aus der Critical Race Theory heraus entwickelt. Die Professor*innen, die selbst sichtbar Minderheiten angehörten und Ziel dieser Angriffe wurden, versuchten damit, Hassrede auf dem Universitätscampus und in der öffentlichen Kommunikation zu erfassen sowie rechtlich ahnden zu lassen (Sponholz 2020; Villar-Lurch 2023). In Anbetracht der historischen Genese von Hate Speech wurde diese in den 1980er und 1990er Jahren vornehmlich als offensive oder hasserfüllte Rede (hateful speech) interpretiert (vgl. Matsuda 1989).

Infolge des Völkermordes in Ruanda im Jahr 1994 und der Debatte um die Rolle von Hate Speech in dessen Verlauf wurde das Verständnis des Begriffes erweitert. Hate Speech wurde fortan nicht mehr allein als offensive, sondern auch als hassanstiftende oder hetzerische Kommunikation (hatred-inciting speech/inflammatory speech) verstanden.

Diese Entwicklung unterscheidet sich vom Umgang mit dem Begriff in Deutschland, da Hassrede hier, aufgrund der historischen Erfahrung mit dem Nationalsozialismus, schon länger als hassanstiftend galt (vgl. Brugger 2003). Das juristische Pendant zu Hate Speech in Deutschland ist die Straftat der Volksverhetzung. Damit ist gemeint, dass gegen Menschen wegen ihrer Zugehörigkeit zu einer bestimmten Gruppe zu Hass aufgestachelt oder zu Gewalt- oder Willkürmaßnahmen aufgefordert wird. Mit dem Aufkommen sozialer Medien in der zweiten Hälfte der 2000er Jahre kam es zu einer signifikanten Veränderung in der Verbreitung und der Wahrnehmung von Hate Speech. Die digitalen Plattformen reduzierten die Zugangsbarrieren zu → öffentlicher Meinungsäußerung, wodurch die Verbreitung diskriminierender und radikalisierender Inhalte begünstigt wurde.

Der in der Öffentlichkeit eingeführte Begriff ‚Hate Speech‘ wurde häufig fälschlicherweise als Synonym für allgemeinen „digitalen Hass“ und für beleidigende → Inhalte verwendet (vgl. Rossini 2022; Schmidt/Wiegand 2017). Dies führte zu Verwirrung, da nicht alle darunter subsumierten Inhalte als Hate Speech zu betrachten sind. Zudem erschwert die Ausweitung des Begriffs auf alle Formen digitaler Gewalt eine gezielte Bekämpfung und Regulierung der eigentlichen Hassrede (Sponholz 2020). Ferner trägt die Gleichsetzung von Online Hate Speech mit digitaler Gewalt dazu bei, Diskriminierung und Machtasymmetrien als Wurzeln des Problems auszublenden (Matamoros-Fernández/Farkas 2021).

Gegenwärtiger Zustand:
In pluralistisch-demokratischen Gesellschaften wurden rechtliche Regelungen implementiert, um die Regulierung von nutzergenerierten Inhalten in sozialen Medien zu gewährleisten und bestehende Vorschriften auch in der digitalen Sphäre durchzusetzen. In Deutschland geschah dies mit dem Netzwerkdurchsetzungsgesetz (NetzDG). Diese Vorgehensweise unterscheidet sich vom Umgang mit dem Problem in den USA, wo eine ablehnende Haltung gegenüber Regulierung in diesem Bereich vorherrscht (vgl. Land/Wilson 2020).

Die juristische Einordnung von Hate Speech stellt eine Herausforderung dar. Zunächst ist die Schwelle für Strafbarkeit und Verbote sehr hoch. Dies ist vor allem auf die Funktion des Rechts zurückzuführen, sich darauf zu beschränken, eine friedliche Koexistenz zu gewährleisten und gleichzeitig die → Meinungsfreiheit nicht zu gefährden. In der Folge werden nur schwerste Fälle juristisch geahndet.

Forschungsstand und Folgen:
Die empirische Forschung zeigt wiederholt, dass offene Beschimpfungen und Drohungen – sogenannte „overt hate speech“ – die Ausnahme darstellen (vgl. Ben-David/Fernández 2016). Dies ist selbst in rechtsextremen Kreisen der Fall (vgl. Kleinberg et al. 2021; Rieger et al. 2021). Viel häufiger zu beobachten ist die sogenannte „covert hate speech“. Hierbei werden Menschen aufgrund ihrer kollektiven Identität beleidigt oder bedroht, ohne dass spezielle Symbole oder Beschimpfungen verwendet werden. Die verbalen Äußerungen enthalten keine expliziten Beschimpfungen oder offenen Aufforderungen wie: „Töte sie“, sondern formulieren beispielsweise Zusammenhänge von religiösen Identitäten mit Terrorismus.

Beleidigende Onlinekommentare in Onlinedebatten stellen meist keine Form von Hate Speech dar, sondern sind vielmehr Ausdruck von politischer Inzivilität (Incivility) oder Unhöflichkeit (vgl. Rossini 2022; Rowe 2015; Coe et al. 2014).
Kommentare, die Hate Speech enthalten, generieren tendenziell eine höhere Anzahl an Interaktionen (vgl. Chaudry/Gruzd 2020); auf moderierten Plattformen wie Facebook gelingt dies etwa außerparlamentarischen Akteuren aus dem rechten Spektrum (Sponholz et al. 2023). Zudem wird beobachtet, dass Beiträge durch Hate Speech auf unmoderierten digitalen Plattformen – wie z. B. Gab – die Popularität der Autoren erhöhen (Matthew et al. 2019).

Hate Speech hat Folgen für die Individuen selbst sowie für die Gesellschaft als Ganzes. Angegriffene Personen konsumieren häufiger Suchtmittel, haben eine erhöhte Prävalenz von Depressionen sowie eine höhere Suizidrate (vgl. Sponholz 2018). Empirische Studien zeigen zudem, dass die Exposition gegenüber Hassrede allgemein – etwa in den sozialen Medien – als ein signifikanter und positiver Prädiktor für Vorurteile gegenüber Anderen und einwanderungsfeindlichen Haltungen fungiert (vgl. Soral/Bilewicz/Winiewski 2017).

Auch die Folgen für das Funktionieren pluralistischer demokratischer Gesellschaften sind erheblich. Hate Speech zeitigt desintegrative Effekte, weil sie Misstrauen und Feindseligkeit zwischen gesellschaftlichen Gruppen schürt. Häufig steht Hassrede auch in Zusammenhang mit physischer Gewalt (Piazza 2020; Williams 2020), da durch sie zu offener Gewalt angestachelt, diese legitimiert und/oder koordiniert wird (Chekol et al. 2023; Amarasingam/Umar/Desa 2022).

Literatur:

Amarasingam, Amarnath; Sanober Umar; Shweta Desai: „Fight, die, and if required kill“ Hindu nationalism, misinformation, and Islamophobia in India. In: Religions, 13, 5, 2022, S. 1-33.

Ben-David, Anat; Ariadne Matamoros Fernández. Hate speech and covert discrimination on social media: Monitoring the Facebook pages of extreme-right political parties in Spain. In: International Journal of Communication, 10, 2016, S. 1167-1193.

Chaudhry, Irfan; Anatoliy Gruzd: Expressing and challenging racist discourse on Facebook: How social media weaken the „spiral of silence“ theory. In: Policy und Internet12, 1, 2020, S. 88-108.

Chekol, Muluken Asegidew; Mulatu Alemayehu Moges; Biset Ayalew Nigatu: Social media hate speech in the walk of Ethiopian political reform: Analysis of hate speech prevalence, severity, and nature. In: Information, Communication und Society, 26, 1, 2023, 218-237.

Coe, Kevin; Kate Kenski; Stephen A. Rains. „Online and uncivil? Patterns and determinants of incivility in newspaper website comments.“ In: Journal of Communication, 64, 4, 2014, S. 658-679.

Kleinberg, Bennett, Isabelle van der Vegt; Paul Gill: The temporal evolution of a far-right forum. In: Journal of Computational Social Science, 4, 2021, S. 1-23.

Wilson, Richard Ashby; Molly K. Land: Hate speech on social media: Content moderation in context. In: Connecticut Law Review, 52, 2020, S. 1029-1076.

Matamoros-Fernández, Ariadne; Johan Farkas: Racism, hate speech, and social media: A systematic review and critique. Television und New Media22(2), 2021, S. 205-224.

Mathew, Binny; Anurag Illendula; Punyajoy Saha; Soumya Sarkar; Pawan Goyal; Animesh Mukherjee: Temporal effects of unmoderated hate speech in Gab. In: Cornell University, arXiv preprint arXiv:1909.10966, 2019.

Piazza, James A.: Politician hate speech and domestic terrorism. In: International Interactions, 46, 3, 2020, S. 431-453.

Rieger, Diana; Anna Sophie Kümpel; Maximilian Wich; Toni Kiening; Georg Groh: Assessing the extent and types of hate speech in fringe communities: A case study of alt-right communities on 8chan, 4chan, and Reddit. In: Social Media + Society7, 4, 2021, S. 1-14.

Rossini, Patrícia: Beyond incivility: Understanding patterns of uncivil and intolerant discourse in online political talk. Communication Research, 49, 3, 2022, S. 399-425.

Rowe, Ian.: Civility 2.0: A comparative analysis of incivility in online political discussion. In: Information, communication und society, 18, 2, 2015, S. 121-138.

Schmidt, Anna; Michael Wiegand: A survey on hate speech detection using natural language processing. In: Proceedings of the fifth international workshop on natural language processing for social media, 2017, S. 1-10.

Sponholz, Liriam: Hate Speech in den Massenmedien: Theoretische Grundlagen und empirische Umsetzung. Wiesbaden [Springer VS] 2018.

Sponholz, Liriam: Der Begriff „Hate Speech“ in der deutschsprachigen Forschung: eine empirische Begriffsanalyse. In: SWS-Rundschau60, 1, 2020, S. 43-65.

Sponholz, Liriam; Anna Maria Meuth; Mirjam Weiberg-Salzmann: Hatespeech, aber normal? In: Fuchs, Martin; Martin Motzkau (Hrsg.): Digitale Wahlkämpfe. Wiesbaden [Springer VS] 2023, S. 205-233.

United Nations: United Nations strategy and plan of action on Hate speech: Detailed Guidance on Implementation for United Nations Field Presences, 2020. https://www.un.org/en/genocideprevention/documents/UN%20Strategy%20and%20PoA%20on%20Hate%20Speech_Guidance%20on%20Addressing%20in%20field.pdf

Vilar-Lluch, Sara: Understanding and appraising ‚hate speech’. In: Journal of Language Aggression and Conflict, 11, 2, 2023, S. 279-306.

Williams, Matthew L.; Pete Burnap; Amir Javed; Han Liu; Sefa Ozalp: Hate in the machine: Anti-Black and Anti-Muslim social media posts as predictors of offline racially and religiously aggravated crime. In: The British Journal of Criminology, 60, 1, 2020, S. 93-117.

Vorheriger ArtikelQuellenschutz
Liriam Sponholz
* 1971, Dr. habil., ist Gastprofessorin für Kommunikationswissenschaft an der Universität von Brasília und assoziierte Wissenschaftlerin am Deutschen Zentrum für Integrations- und Migrationsforschung (DeZIM-Institut) in Berlin. Zuvor lehrte und forschte sie am Institut für Kommunikationswissenschaft und Medienforschung (IfKW) der Ludwig-Maximilians-Universität München, an der Österreichischen Akademie der Wissenschaften in Wien, an der Alpen-Adria-Universität Klagenfurt und an der Universität Erfurt. Darüber hinaus war sie Gastprofessorin an der Universidad Complutense de Madrid. Ihre Forschungsschwerpunkte umfassen Hate Speech, Medienkonflikte und Agenda Building. Kontakt: liriam.sponholz(at)unb.br