CEP Policy Brief (also in English): „Terroristische Inhalte Online – Grundlagen für nachvollziehbare Transparenz beim Einsatz automatisierter Entscheidungssysteme (ADM-Systeme) auf Social Media-Plattformen“

Autoren: Alexander Ritzmann (CEP Senior Advisor), Prof. Dr. Hany Farid (University of California, Berkeley, und CEP Senior Advisor)

Download (PDF)

ENGLISH VERSION: Download (PDF)

Um die Rechte der Nutzer*innen in Sozialen Medien wirklich schützen zu können, muss zunächst nachvollziehbare Transparenz über die angewandten Moderations- und Filtersysteme gegeben sein. Gemeinsam mit Professor Hany Farid, einem der weltweit führenden Experten im Feld Künstliche Intelligenz/Maschinelles Lernen (University of California, Berkeley) haben wir einige Grundsätze und Fragestellungen entwickelt, die als Vorgaben für die Transparenzberichte des NetzDG 2.0 dienen könnten.

 

Hisbollah Betätigungsverbot in Deutschland – Meine Einschätzung dazu auf Deutschlandradio

Hisbollah-Verbot in Deutschland

„Andere Länder der EU werden dieser Linie folgen“

Sicherheitsexperte Alexander Ritzmann begrüßt das Betätigungsverbot für die Hisbollah in Deutschland. Die Hisbollah sei jederzeit in der Lage gewesen, Anschläge in Deutschland zu verüben, habe dies aus verschiedenen Gründen seit langer Zeit aber nicht gemacht, sagte er im Dlf.

Alexander Ritzmann im Gespräch mit Jörg Münchenberg

 

Weitere Infos zum Thema:

SOLL MAN MIT DER HISBOLLAH VERHANDELN?

Fernsehsender verbreiten Antisemitismus

Schläferland

Die Hisbollah wird in Deutschland unterschätzt

Deutschland wird zum Anschlagsziel der Hisbollah

 

NetzDG 2.0 – Recommendations for the amendment of the Network Enforcement Act (NetzDG) and Investigation into the actual blocking and removal processes of YouTube, Facebook and Instagram

Policy Paper, Counter Extremism Project (CEP) Berlin, March 2020,

Autors: Alexander Ritzmann (Senior Advisor), Dr. Hans-Jakob Schindler (Senior Director) und Marco Macori (Research Fellow)

The paper can be downloaded  here.

The Counter Extremism Project (CEP) Berlin conducted a new study between January 31st and February 14th to test big tech’s compliance with Germany’s 2018 NetzDG online content moderation law. The law in its current form requires online platforms to remove “manifestly illegal” content within 24 hours only after it has been reported by users. CEP’s study revealed that YouTube, Facebook, and Instagram removed a mere 43.5 percent of clearly extremist and terrorist content, even after that material was reported for their illegal nature under the NetzDG.

As first reported by Die Welt, the study found that of the 92 “manifestly illegal” instances of online content flagged by CEP, only 43.5 percent were blocked or deleted by the platforms. Of those companies studied, YouTube has been least compliant with the law’s requirements. The company blocked only 35 percent of the 80 videos that were reported and should have been blocked. Facebook and Instagram deleted or blocked all of the flagged content, but Facebook did not remove any content that was explicitly not flagged—even though that content contained the same reported illegal symbols. CEP Berlin’s findings suggest that this “notice and takedown” method for removing illegal content can only be effective if platforms are being searched continuously and systemically for such material.

German lawmakers are currently discussing several amendments to the NetzDG. The study underlines recommendations which CEP Berlin has published in a recent NetzDG policy paper. In particular, it is clear that passive and reactive approaches to removal illegal content are insufficient. Further, the low blocking percentage of reported content shows that more transparency and auditability from tech companies is needed to explain and improve the inadequate compliance rate.

 

„NetzDG 2.0: Empfehlungen zur Weiterentwicklung des Netzwerkdurchsetzungsgesetzes (NetzDG) und Untersuchung zu den tatsächlichen Sperr- und Löschprozessen von YouTube, Facebook und Instagram“

Policy Paper, Counter Extremism Project (CEP) Berlin, 12.03.2020, 

Autoren: Alexander Ritzmann (Senior Advisor), Dr. Hans-Jakob Schindler (Senior Director) und Marco Macori (Research Fellow)

Das Papier kann hier heruntergeladen werden.

In den kommenden Monaten soll des Netzwerkdurchsetzungsgesetz (NetzDG) novelliert werden. Im angehängten CEP Policy Paper werden konkrete Empfehlungen für das neue „NetzDG 2.0“ ausgesprochen, die auch auf einem von CEP durchgeführten Stresstest zur Verfahrenslogik des aktuellen NetzDG beruhen.
Die Ergebnisse des Stresstests weisen darauf hin, dass die dem NetzDG zu Grunde liegende Verfahrenslogik von „notice and take down“ (Sperrung/Löschung nach Beschwerde) unzureichend funktioniert und für die Reduzierung rechtswidriger Inhalte online nicht ausreichend ist. Die Stichprobe lässt zudem Zweifel daran aufkommen, ob die Erfolgsmeldungen der Internet-Unternehmen der Realität entsprechen.
Die Empfehlungen lauten deshalb:
– Mehr Transparenz und Nachvollziehbarkeit von Prozessen und Technologien, die zur Umsetzung von NetzDG-Vorgaben und Community-Richtlinien eingesetzt werden, sind dringend nötig.
– Für eine systematische und kontinuierliche Suche nach offensichtlich illegalen Inhalten sollten beispielsweise Jugenschutz.Net und/oder Akteure der Zivilgesellschaft beauftragt und dementsprechend finanziert werden.
– Automatisierte Bilderkennungs-Algorithmen (z.B. Upload-Filter) für Logos und Symbole verbotener Organisationen sollten (stärker) eingesetzt und reguliert werden.

Das Anti-Hass-Gesetz fällt im Stresstest durch (Die Welt)

Von Christina Brause
Redakteurin Investigation & Reportage

„Die starken Unterschiede in der Praxis erklärt Alexander Ritzmann vom CEP so: Es werde nicht systematisch und strukturiert nach rechtswidrigen Inhalten geschaut. „Selbst nach einer Meldung werden sie auf manchen Plattformen nicht geblockt.“

Die großen Online-Plattformen blockieren bei Weitem nicht alle offensichtlich
rechtswidrigen Inhalte, die Nutzer ihnen melden. Das zeigt eine aktuelle Untersuchung. Die Plattformbetreiber sind jedoch nicht die einzige Schwachstelle des Gesetzes. Die großen Internetplattformen löschen offenbar nur einen Teil der problematischen Inhalte, die bei ihnen publiziert werden. Das ist das Ergebnis einer stichprobenartigen Untersuchung des Counter Extremism Project (CEP) Berlin.
Und es ging dabei nicht um Inhalte, die man so oder so sehen kann, sondern um „offensichtlich rechtswidrige“ Inhalte und Kennzeichen verbotener Organisationen, die Nutzer bei YouTube, Facebook und Instagram melden. Es ging um die Frage, ob diese dann auch gesperrt werden.
Weiterlesen »

Effective Narratives: Updating the GAMMMA+ model (EU RAN)

Authored by Alexander Ritzmann, Lieke Wouterse and Merle Verdegaal

The RAN Communication and Narratives working group (RAN C&N) has
promoted the GAMMMA+ model since December 2017 as a practical
guideline for carrying out effective alternative and counter narrative (AN
/CN) campaigns. Since then, the GAMMMA+ model has served
practitioners from all over the European Union as a tool when planning
and implementing communications campaigns. After two years and based
on feedback and insights from practitioners at the RAN C&N Academy in
November 2019, it is time to update the model in the format of this expost paper.

DGAP: EXTREMISMUS BEKÄMPFEN, DEMOKRATIE SCHÜTZEN – Prävention von gewaltbereitem Extremismus in der EU

DGAP POLICY BRIEF 28. November 2019
Sofia Koller und Alexander Ritzmann

Freiheitliche Demokratien sind fragil und von innen leicht angreifbar. Polarisierung, Radikalisierung und Terrorismus sind eng verwoben und die Digitalisierung gibt der politischen Gewalt eine weitere Dimension. Rückkehrer aus Syrien und dem Irak stellen eine neue Herausforderung dar. Wie groß die Sorge ist, Rückkehrer könnten in Europa Anschläge verüben, wird auch an der Diskussion über die IS-Anhänger deutscher Staatsbürgerschaft deutlich, die derzeit von der Türkei nach Deutschland abgeschoben werden.