Was tun gegen Hass im Netz?

Was ist Hate Speech, warum ist es so gefährlich und was kann jede*r dagegen tun? Ich bin Forscherin und beschäftige mich mit den Auswirkungen von Hass im Netz. In diesem Beitrag beschreibe ich, welche Formen von Hass uns in der Forschung begegnet sind, warum Hass Debatten zerstört und wie du Aktivist*in für mehr Diskussionskultur im Netz werden kannst.


„Erzählt mir eure Geschichte. Wurdet ihr schon einmal Opfer digitaler Gewalt?“ fragt die Influencerin Louisa Dellert auf ihrem Instagram-Profil. Dazu postet sie Fotos von sich, auf denen sie Hasskommentare in die Kamera hält, die sie selbst erhalten hat: Beschimpfungen, Drohungen, Herabwürdigungen. Unter dem Posting finden sich in den Kommentaren ganz ähnliche Geschichten. Und, sehr oft, auch die Reaktion auf solche Erfahrungen: Sich aus dem Netz zurückziehen.



Hass im Netz beschäftigt mich aus zweierlei Gründen: Einerseits bin ich als Kommunikationswissenschaftlerin in einem Forschungsprojekt zu Hass im Netz, NoHate@WebStyria, tätig. Wir möchten darin v. a. Inhalte und Herausforderungen im Umgang mit Hate Speech aufzeigen und Gegenstrategien entwerfen. [1] Zweitens treibt mich ein aktivistischer Gedanke an: Hass ist keine Meinung. Er zerstört Debatten, wie das Beispiel oben deutlich zeigt. Daher möchte ich in diesem Beitrag A) aus (unserer) Forschung berichten und B) aufzeigen, was jede*r gegen Hate Speech tun kann.



1. Warum ist Hate Speech so gefährlich?

Täter*innen verfolgen mit Hate Speech ein klares Ziel: Sie wollen ihre Opfer mundtod machen und tun das häufig in organisierten Gruppen. [2] Dieses Phänomen nennt sich Silencing. Die Bedeutung von Silencing in Europa wird durch eine Studie des Instituts für Demokratie und Zivilgesellschaft Jena deutlich: Mehr als 50 % der Befragten (n= 7337) gaben an, dass sie seltener oder eher seltener ihre politische Meinung im Internet kundtun, wenn sie sich mit Hass im Netz konfrontiert sehen. Hate Speech zerstört also Debatten, weil sich viele aus hasserfüllten Diskussionen zurückziehen.



2. Wie sieht Hass im Netz aus?

Im Forschungsprojekt NoHate@WebStyria haben wir u. a. Interviews mit betroffenen Personen, Organisationen und Medienhäusern geführt, eine Online-Umfrage und Gruppendiskussionen durchgeführt sowie Hasspostings analysiert. Was wir herausgefunden haben: Hate Speech ist ein sehr diverses Phänomen. Zwar verwenden Täter*innen häufig Text, aber oft wird auch mit Bildern oder Videos Hass verbreitet. Signalworte werden verfremdet durch etwa Dialekt oder Auslassungen. Zudem wird Hass oft hinter Memes und scheinbarer Satire versteckt. Dadurch wirkt er harmlos, bestärkt aber rassistische und diskriminierende Denkmuster.

Zur Diversität kommt hinzu, dass Hass sich oft an aktuellen Ereignissen entlädt: Etwa die Flüchtlingsbewegungen 2015, die Klimakrise oder aktuell COVID-19. Diese Themen decken sich mit den häufig betroffenen Gruppen: Menschen werden besonders oft aufgrund ihrer Herkunft, Religion, Hautfarbe, ihres Geschlechts oder ihrer sexuellen Orientierung angegriffen. [1,3]



3. Was ist so herausfordernd im Umgang mit Hate Speech?

Internationale Konzerne wie Facebook und Twitter passen aktuell ihre Gemeinschaftsstandards an. Nationale Regierungen, wie die österreichische und deutsche, bemühen sich um staatliche Reaktionen auf Online Hate Speech. Es passiert also aktuell sehr viel – warum begegnen uns trotzdem weiterhin Hassbotschaften im Netz?


  • Online wird der Diskurs roher, u. a. dadurch, weil sich Menschen nicht in die Augen schauen müssen. Hass wird durch das vermehrte Aufkommen normal und User*innen beginnen, Hass als Bestandteil von Diskussionen wahrzunehmen, ihn auszublenden und nicht zu melden.

  • Schwierig wird es auch, wenn der Kontext fehlt, um Hass bewerten zu können. Beispielsweise handelt es sich allein beim Kommentar „Strom“ nicht um Hate Speech. Erst der Kontext, also das dazugehörige Posting, gibt Klarheit. In diesem Beispiel wünscht sich eine Person, geflüchtete Menschen loszuwerden. Es wird klar, dass es sich bei dem Kommentar „Strom“ um eine Gewaltandrohung handelt: das Töten eines Menschen durch Strom.

  • Herausfordernd sind auch Graubereiche, also wenn Postings nicht klar Hate Speech darstellen oder durch Satire harmlos erscheinen.



4. Was tun, wenn du selbst von Hate Speech betroffen bist?

1. Speichern, speichern, speichern:

Kopiere den Link zum Hasspostings. Mache außerdem Screenshots, die möglichst viel Informationen beinhalten, v. a. zu den Täter*innen. Handelt es sich um ein Kommentar, speichere auch das Posting dazu und stelle sicher, dass auf deinem Screenshot Zeit & Datum zu sehen sind, indem du z. B. den ganzen Desktop inkludierst.

2. Hol dir Unterstützung:

Du kannst dich direkt an die betreffende Plattform wenden oder aber an Stellen wie




3. Schau auf dich!

Wenn es dir zu viel wird, zieh dich zurück und hole dir Unterstützung von Freunden und Familie. Denke daran: Das ist nicht die Meinung von allen, sondern nur von einigen wenigen User*innen!



5. Was tun, wenn du Hate Speech beobachtest?

1. Melden!

Du kannst Hasspostings entweder direkt bei der Plattform oder bei anderen Initiativen melden, wie etwa bei der BanHate-App (Ö) oder Hassmelden bzw. MeldeHelden. (D).



2. Solidarisieren!

Wenn du Hate Speech beobachtest, schau nicht darüber hinweg. Der beste Weg ist natürlich, selbst öffentlich dagegen Stellung zu nehmen. Achte dabei darauf, nicht mit Hass auf Hass zu reagieren, sondern versuche, rational zu bleiben. Du kannst auch solche Postings von anderen liken, denn so werden sie im Kommentarverlauf weiter oben angezeigt. Wenn du dich dabei nicht wohl fühlst, hilft es aber auch schon sehr, der betroffenen Person eine persönliche Nachricht zu schreiben, in der du ihm*ihr sagst, dass du die Postings nicht in Ordnung findest. So fühlen sich Betroffene nicht allein gelassen!



Aktivist*in werden

Was meine Wahrnehmung von Hass nochmal verändert hat, war ein Aktivist*innen-Training von #ichbinhier. Das ist ein Verein und eine Gruppe (auf Facebook), die auf Hass hinweist und mit höflicher und sachlicher Counterspeech dagegen vorgeht. In einem Training von #ichbinhier durfte ich jeweils einmal in die Rolle von Haterin und Counterspeakerin schlüpfen. Als Counterspeakerin hatte ich total Stress, ich musste Fakten checken, verlässliche Quellen finden, darauf achten, sachlich zu bleiben … In der Rolle der Haterin war mir im Gegenzug dazu sogar ein wenig langweilig, ich musste nichts prüfen, auf niemanden eingehen … Es ist also „leichter“ und v. a. schneller, Hass zu verbreiten. Umso wichtiger ist es, Hass nicht einfach stehen zu lassen, #ichbinhier möchte ich dafür jedenfalls empfehlen!


Über die Autorin:

Sonja Radkohl ist Hochschullektorin und Forscherin am Web Literacy Lab der FH JOANNEUM, Institut Journalismus und PR. Ihre Forschungsinteressen liegen bei Web- und Social- Media-Forschung, Content Strategy digitale Innovationen im Journalismus und in der PR und aktuelle Phänomene in der digitalen Kommunikation, wie etwa Hate Speech.







#HateSpeech #NoHateSpeech #StopHateSpeech #banhate #ichbinhier #spreadflowersnothate #stopptmobbing #mehramoregang #diversity

Quellen:

[1] NoHate@WebStyria https://www.fh-joanneum.at/projekt/nohatewebstyria/ wird gefördert durch den Zukunftsfonds Steiermark, 10. Ausschreibung, Projektnummer 1011. Das Projektteam besteht aus Mitarbeiter*innen des Europäischen Trainings- und Forschungszentrums der Universität Graz (UNI-ETC), des Web Literacy Labs am Institut Journalismus und PR der FH JOANNEUM (FHJ) und der Antidiskriminierungsstelle Steiermark. Die verschiedenen Erhebungen und Analysen im gesamten Projektverlauf wurden neben der Autorin des Blog-Beitrags interdisziplinär von Eva Goldgruber, Susanne Sackl-Sharif, Gregor Fischer und Clara Millner durchgeführt. Die Detailergebnisse des Projektes erscheinen im Somer im Sammelbald „Online Hate Speech – Perspektiven aus Praxis, Rechts- und Medienwissenschaften" im Neuen Wissenschaftlichen Verlag (NWV).


[2] Ebner, J. (2019). Radikalisierungsmaschinen: Wie Extremisten die neuen Technologien nutzen und uns manipulieren von Julia Ebner—Suhrkamp Insel Bücher Buchdetail. suhrkamp nova. https://www.suhrkamp.de/buecher/radikalisierungsmaschinen-julia_ebner_47007.html


[3] Sackl-Sharif, Susanne, Fischer, Gregor, Goldgruber, Eva & Radkohl, Sonja (eingereicht). The Public-Private Dichotomy and Online Hate Speech. Communication Studies and Legal Perspectives. I-LanD Journal. Special Issue 2/2021.

113 Ansichten0 Kommentare