Wie umgehen mit Verschwörungsmythen?

18.09.2020

Experten-Tagung über Extremismus in BeratungseinrichtungenWie umgehen mit Verschwörungsmythen?

Wutbürger und Verschwörungsidealisten sorgen für Schlagzeilen und haben Zulauf. Doch wie dem begegnen? Wie ein Gespräch mit solchen Menschen führen, die extreme Haltungen haben? Eine Tagung in Leipzig gab Antworten.

Extremistische Haltungen und Verschwörungsmythen nehmen seit einiger Zeit erkennbar zu. Bilder davon in den Medien lösen vielfach Kopfschütteln aus. Auch Ratlosigkeit, wenn plötzlich Menschen im Freundes- und Bekanntenkreis extreme Ansichten offen äußern. Warum sagen die sowas? Warum denken die so? Und wie reagiert man darauf? In Leipzig ging dem am Donnerstag ein Fachtag der Evangelische Konferenz für Familien- und Lebensberatung nach.

Der Politikwissenschaftler Alexander Ritzmann, Mitglied des „Steering Committee“ des Radicalisation Awareness Network (RAN) der Europäischen Kommission, stellte erst einmal fest, wo Extremismus beginnt: Wenn jemand gegen die Menschenwürde verstößt, gruppenbezogene Menschenfeindlichkeit vertritt oder eine Überwindung der freiheitlich-demokratischen Grundordnung anstrebt.

Und wie geschieht ein Abrutschen in den Extremismus? „Das sind dynamische Prozesse. Am Anfang steht meist Unzufriedenheit, dann kommt eine schwere Krise oder Kränkung hinzu“, so Ritzmann. Wer anschließend mit Verschwörungsdenken und „Rekrutierern“ eines extremen Denkens in Kontakt komme, laufe schnell Gefahr, auch Extremist zu werden.

Gemeinschaft, Sicherheit und Geborgenheit suggeriert

Die psychologische Funktion von Verschwörungsmythen und extremistischen Ideologien ist laut Ritzmann groß: Sie reduzierten Komplexität und Ungewissheiten, Projektionen auf Sündenböcke kanalisierten Angst, Neid und Aggression, Narzissmus werde befriedigt und Identität gestiftet. „Es wird Gemeinschaft, Sicherheit und Geborgenheit suggeriert – fast eine selig machende Wirkung“, so Ritzmann.

Eine besondere Perspektive des Fachtags lag auf dem Umgang mit Extremismus in der Beratung. Teilnehmende aus Einrichtungen von Familien- über Sozial- bis Schuldnerberatung berichteten unisono, dass sie immer häufiger mit Klienten zu tun haben, die plötzlich extreme politische Ansichten oder Verschwörungsmythen äußern – und viele der Berater fühlen sich davon überfordert, empfinden es als schwierig, professionelle Distanz zu wahren.

Eine dunkelhäutige, junge Frau, die im Betreuten Wohnen einer Diakonie-Einrichtung im Erzgebirge arbeitet, sagt unumwunden: „Ich tue mich schwer, wohlwollend zu beraten, wenn ich mit rassistischen Äußerungen konfrontiert werde. Und manche wollen auch keine Beratung mit mir – wegen meiner Hautfarbe.“

Die Leiterin der Ehe-, Familien- und Lebensberatung in der Erzdiözese München und Freising, Margret Schlierf, rät in solchen Situationen: „Man kann das aktiv zum Thema machen, nachfragen und schauen, ob dabei eine Entwicklung und Wendung entsteht.“ Manchmal sei es aber auch sinnvoll, den Berater zu wechseln. „Wenn die extremen Äußerungen so das Gesprächsklima belasten, dass die eigentliche Beratung nicht mehr möglich ist, sollte man abbrechen.“

Konfrontative Gegenrede ist kontraproduktiv

Auch Ritzmann hat Empfehlungen für die Beratung. Erstens: Eine konfrontative Gegenrede ist kontraproduktiv: „Das können Sie vergessen, das triggert Ihr Gegenüber nur, sofort in eine massive Verteidigungshaltung zu gehen.“ Wichtig sei auch das Timing: „Wenn sich extreme Versprechen und Projektionen nicht erfüllen, entstehen irgendwann auch Zweifel daran – dort kann Beratung ansetzen.“ Hilfreich sei oft, das Umfeld der Person näher kennenzulernen.

Insgesamt gehe es darum, Alternativen anzubieten und mit zu entwickeln. Zudem rät Ritzmann, sich Unterstützung zu holen, etwa beim Bundesverband Mobile Beratungsstellen gegen Rechtsextremismus oder bei EXIT Deutschland, die Ausstiegsprogramme für Extremisten anbieten.

Der Theologe und frühere DDR-Bürgerrechtler Frank Richter kann nachvollziehen, dass die gegenwärtige gesellschaftliche Umbruchsituation zunehmend Menschen verunsichere und diese nach einfachen Erklärungsmustern suchten, weil sie die vielen Mehrdeutigkeiten nicht mehr aushielten. „Wichtig ist, dass wir beieinanderbleiben und immer wieder austarieren, was geht“, so Richter, der als parteiloser Abgeordneter für die SPD im Sächsischen Landtag sitzt. „Außerdem: In solchen Umbruchsituationen brauchen die Menschen seelische Stabilität. Die Gesellschaft braucht dafür Ressourcen und muss schauen, wo sie zu finden sind.“Karin Wollschläger(KNA)

CEP Policy Paper: “The EU Digital Services Act (DSA) – Recommendations For An Effective Regulation Against Terrorist Content Online”

Authors: Alexander Ritzmann (CEP Senior Advisor), Prof. Dr. Hany Farid (University of California, Berkeley, and CEP Senior Advisor), Dr. Hans-Jakob Schindler (CEP Senior Director)

September 2020

Download (PDF)

In March 2020, CEP Germany carried out a sample analysis to test the extent to which YouTube, Facebook and Instagram block “manifestly illegal” terrorist content upon notification. Our findings raise doubts that the currently applied compliance systems of these companies achieve the objectives of making their services safe for users. As a result, CEP proposed requirements for effective and transparent compliance regimes with a focus on automated decision-making tools and lessons learned from the regulation of the financial industry. This Policy Paper combines all the relevant lessons learned and gives concrete recommendations on how to make the DSA also an effective regulation against terrorist content online.

Presentation (Video): Illegal Content online – Recommendations for the EU Digital Services Act (DSA)

The Counter Extremism Project (CEP) held a webinar discussion on the upcoming European regulation of extremist content online in the context of the Digital Services Act 14 July 2020.

In my input give concrete suggestions on how to increase the effectiveness of content moderation systems to tackle illegal extremist content more effectively, including requirements for platforms to provide explainable and comprehensible transparency of their systems.

Relevant lessons learned from the German Network Enforcement Act (NetzDG) were also discussed.

Vortrag (Video): Digitale Gesprächsrunde von CEP & Das NETTZ zum Digital Services Act

Die Europäische Kommission hat das Konsultationsverfahren für den Digital Services Act (DSA) vor kurzem eröffnet. Der DSA soll die europäische Internet-Regulierung revolutionieren und könnte das NetzDG in Frage stellen. Um was genau geht es beim DSA? Was sind die wichtigsten Debatten (Haftung von Plattformen, Content Moderation, Ex-Ante-Regeln gegen Marktmachtmissbrauch, verpflichtende Interoperabilität für dominante Social-Media-Plattformen, etc.)? Wie lange braucht so ein Gesetz im europäischen Prozess? Wie kann sich die Zivilgesellschaft und ihre Positionen im Konsultationsverfahren einbringen?

Alexander Ritzmann, Senior Advisor bei CEP präsentiert Forderungen an Transparenz und Content Moderation bei Sozialen Medien.

Link zum Video

 

Presentation (Video): Guidelines for effective alternative or counter narratives (Gammma+)

The GAMMMA+ model combines key elements and lessons learned from  Communication & Narratives (C&N) working group of the European Commission’s  Radicalisation Awareness Network (RAN).  The model aims to help practitioners to increase the impact of their communications campaigns, be it online and offline. Alexander Ritzmann (RAN C&N co-chair |Brandenburg Institute for Society and Security (BIGS)) and Lieke Wouterse (RAN Staff) presented the webinar on the GAMMMA+ model.

Link to the presentation 

Link to the GAMMMA+ paper

Vorträge (Video) zur Weiterentwicklung des Netzwerkdurchsetzungsgesetzes (NetzDG)

1) Die Bundesregierung will Hass und Extremismus im Internet bekämpfen und hat dazu zwei Gesetzesentwürfe zur Veränderung des Netzwerkdurchsetzungsgesetzes (NetzDG) in den Deutschen Bundestag eingebracht. Wäre das aktualisierte Gesetz ein dafür geeignetes Instrument? Wie können Nutzer*innenrechte wirksam gestärkt werden? Wie kann der Einsatz automatisierter Systeme transparent und nachvollziehbar gemacht werden? Um diese und weitere Fragen zu diskutieren, veranstaltete CEP gemeinsam mit Das NETTZ ein Webinar am 22. April 2020. Hanna Gleiß, Projektleitung von Das NETTZ, stellte die dazu von verschiedenen zivilgesellschaftlichen Organisationen gemeinsam verfasste Stellungnahme vor. Alexander Ritzmann, Senior Advisor bei CEP, präsentierte im Anschluss den von CEP durchgeführten „NetzDG Stresstest“ und Empfehlungen zur Weiterentwicklung des NetzDG. Das anschließende Q&A fand unter Chatham House Rule statt und ist daher nicht Teil des Videos. Weitere Informationen: Homepage des CEP-Büros in Berlin: https://www.counterextremism.com/german

Link zum Vortrag  (beginnt nach Minute 12:30)

 

2)  Trotz veröffentlichter „Transparenz-Berichte“ der Sozialen-Medien-Unternehmen ist kaum nachvollziehbar oder überprüfbar, wie Inhalte auf den Online-Plattformen manipuliert werden. Was hat es mit Empfehlungs-Algorithmen und Upload-Filtern bei “politischer Werbung”, “Hassrede” oder “terroristischen Inhalten” auf sich? Was brauchen User*innen, Zivilgesellschaft, Politik und Researcher*innen um wirklich nachvollziehen zu können, wie der Diskurs auf den Online-Plattformen gelenkt wird? Benötigen wir spezifische (gesetzliche) Standards für Transparenz? Wer kann und soll die Online-Plattformen kontrollieren und wie genau kann das umgesetzt werden? Gemeinsam mit Das NETTZ lud CEP am 19. Mai 2020 ein, diese Themen zu diskutieren.

Input von: Alexander Ritzmann, Senior Advisor bei CEP Germany und dort verantwortlich für “Online-Extremismus/Terrorismus”

Link zum Vortrag 

Vortrag (Video): “Unsere Filterblasen beginnen im Kopf – Welche Rolle spielen biologische und digitale Algorithmen beim extremen Meinungsstreit?”

Beim 3. Pilotabend des Governance Lab @Google Berlin am 05.03.2020 hielt Alexander Ritzmann einen Impulsvortrag über biologische und digitale Algorithmen beim extremen Meinungsstreit. Alexander Ritzmann ist Demokratiearbeiter und baut seit 20 Jahren an freien und sicheren Gesellschaften mit. Seine Hauptthemen sind Demokratieförderung, Extremismusprävention und internationaler Wissensdiskurs.

Link zum Vortrag

CEP Policy Brief (also in English): „Terroristische Inhalte Online – Grundlagen für nachvollziehbare Transparenz beim Einsatz automatisierter Entscheidungssysteme (ADM-Systeme) auf Social Media-Plattformen“

Autoren: Alexander Ritzmann (CEP Senior Advisor), Prof. Dr. Hany Farid (University of California, Berkeley, und CEP Senior Advisor)

Download (PDF)

ENGLISH VERSION: Download (PDF)

Um die Rechte der Nutzer*innen in Sozialen Medien wirklich schützen zu können, muss zunächst nachvollziehbare Transparenz über die angewandten Moderations- und Filtersysteme gegeben sein. Gemeinsam mit Professor Hany Farid, einem der weltweit führenden Experten im Feld Künstliche Intelligenz/Maschinelles Lernen (University of California, Berkeley) haben wir einige Grundsätze und Fragestellungen entwickelt, die als Vorgaben für die Transparenzberichte des NetzDG 2.0 dienen könnten.

 

Hisbollah Betätigungsverbot in Deutschland – Meine Einschätzung dazu auf Deutschlandradio

Hisbollah-Verbot in Deutschland

„Andere Länder der EU werden dieser Linie folgen“

Sicherheitsexperte Alexander Ritzmann begrüßt das Betätigungsverbot für die Hisbollah in Deutschland. Die Hisbollah sei jederzeit in der Lage gewesen, Anschläge in Deutschland zu verüben, habe dies aus verschiedenen Gründen seit langer Zeit aber nicht gemacht, sagte er im Dlf.

Alexander Ritzmann im Gespräch mit Jörg Münchenberg

 

Weitere Infos zum Thema:

SOLL MAN MIT DER HISBOLLAH VERHANDELN?

Fernsehsender verbreiten Antisemitismus

Schläferland

Die Hisbollah wird in Deutschland unterschätzt

Deutschland wird zum Anschlagsziel der Hisbollah

 

NetzDG 2.0 – Recommendations for the amendment of the Network Enforcement Act (NetzDG) and Investigation into the actual blocking and removal processes of YouTube, Facebook and Instagram

Policy Paper, Counter Extremism Project (CEP) Berlin, March 2020,

Autors: Alexander Ritzmann (Senior Advisor), Dr. Hans-Jakob Schindler (Senior Director) und Marco Macori (Research Fellow)

The paper can be downloaded  here.

The Counter Extremism Project (CEP) Berlin conducted a new study between January 31st and February 14th to test big tech’s compliance with Germany’s 2018 NetzDG online content moderation law. The law in its current form requires online platforms to remove “manifestly illegal” content within 24 hours only after it has been reported by users. CEP’s study revealed that YouTube, Facebook, and Instagram removed a mere 43.5 percent of clearly extremist and terrorist content, even after that material was reported for their illegal nature under the NetzDG.

As first reported by Die Welt, the study found that of the 92 “manifestly illegal” instances of online content flagged by CEP, only 43.5 percent were blocked or deleted by the platforms. Of those companies studied, YouTube has been least compliant with the law’s requirements. The company blocked only 35 percent of the 80 videos that were reported and should have been blocked. Facebook and Instagram deleted or blocked all of the flagged content, but Facebook did not remove any content that was explicitly not flagged—even though that content contained the same reported illegal symbols. CEP Berlin’s findings suggest that this “notice and takedown” method for removing illegal content can only be effective if platforms are being searched continuously and systemically for such material.

German lawmakers are currently discussing several amendments to the NetzDG. The study underlines recommendations which CEP Berlin has published in a recent NetzDG policy paper. In particular, it is clear that passive and reactive approaches to removal illegal content are insufficient. Further, the low blocking percentage of reported content shows that more transparency and auditability from tech companies is needed to explain and improve the inadequate compliance rate.