Vorträge (Video) zur Weiterentwicklung des Netzwerkdurchsetzungsgesetzes (NetzDG)

1) Die Bundesregierung will Hass und Extremismus im Internet bekämpfen und hat dazu zwei Gesetzesentwürfe zur Veränderung des Netzwerkdurchsetzungsgesetzes (NetzDG) in den Deutschen Bundestag eingebracht. Wäre das aktualisierte Gesetz ein dafür geeignetes Instrument? Wie können Nutzer*innenrechte wirksam gestärkt werden? Wie kann der Einsatz automatisierter Systeme transparent und nachvollziehbar gemacht werden? Um diese und weitere Fragen zu diskutieren, veranstaltete CEP gemeinsam mit Das NETTZ ein Webinar am 22. April 2020. Hanna Gleiß, Projektleitung von Das NETTZ, stellte die dazu von verschiedenen zivilgesellschaftlichen Organisationen gemeinsam verfasste Stellungnahme vor. Alexander Ritzmann, Senior Advisor bei CEP, präsentierte im Anschluss den von CEP durchgeführten „NetzDG Stresstest“ und Empfehlungen zur Weiterentwicklung des NetzDG. Das anschließende Q&A fand unter Chatham House Rule statt und ist daher nicht Teil des Videos. Weitere Informationen: Homepage des CEP-Büros in Berlin: https://www.counterextremism.com/german

Link zum Vortrag  (beginnt nach Minute 12:30)

 

2)  Trotz veröffentlichter „Transparenz-Berichte“ der Sozialen-Medien-Unternehmen ist kaum nachvollziehbar oder überprüfbar, wie Inhalte auf den Online-Plattformen manipuliert werden. Was hat es mit Empfehlungs-Algorithmen und Upload-Filtern bei “politischer Werbung”, “Hassrede” oder “terroristischen Inhalten” auf sich? Was brauchen User*innen, Zivilgesellschaft, Politik und Researcher*innen um wirklich nachvollziehen zu können, wie der Diskurs auf den Online-Plattformen gelenkt wird? Benötigen wir spezifische (gesetzliche) Standards für Transparenz? Wer kann und soll die Online-Plattformen kontrollieren und wie genau kann das umgesetzt werden? Gemeinsam mit Das NETTZ lud CEP am 19. Mai 2020 ein, diese Themen zu diskutieren.

Input von: Alexander Ritzmann, Senior Advisor bei CEP Germany und dort verantwortlich für “Online-Extremismus/Terrorismus”

Link zum Vortrag 

Vortrag (Video): “Unsere Filterblasen beginnen im Kopf – Welche Rolle spielen biologische und digitale Algorithmen beim extremen Meinungsstreit?”

Beim 3. Pilotabend des Governance Lab @Google Berlin am 05.03.2020 hielt Alexander Ritzmann einen Impulsvortrag über biologische und digitale Algorithmen beim extremen Meinungsstreit. Alexander Ritzmann ist Demokratiearbeiter und baut seit 20 Jahren an freien und sicheren Gesellschaften mit. Seine Hauptthemen sind Demokratieförderung, Extremismusprävention und internationaler Wissensdiskurs.

Link zum Vortrag

CEP Policy Brief (also in English): „Terroristische Inhalte Online – Grundlagen für nachvollziehbare Transparenz beim Einsatz automatisierter Entscheidungssysteme (ADM-Systeme) auf Social Media-Plattformen“

Autoren: Alexander Ritzmann (CEP Senior Advisor), Prof. Dr. Hany Farid (University of California, Berkeley, und CEP Senior Advisor)

Download (PDF)

ENGLISH VERSION: Download (PDF)

Um die Rechte der Nutzer*innen in Sozialen Medien wirklich schützen zu können, muss zunächst nachvollziehbare Transparenz über die angewandten Moderations- und Filtersysteme gegeben sein. Gemeinsam mit Professor Hany Farid, einem der weltweit führenden Experten im Feld Künstliche Intelligenz/Maschinelles Lernen (University of California, Berkeley) haben wir einige Grundsätze und Fragestellungen entwickelt, die als Vorgaben für die Transparenzberichte des NetzDG 2.0 dienen könnten.

 

Hisbollah Betätigungsverbot in Deutschland – Meine Einschätzung dazu auf Deutschlandradio

Hisbollah-Verbot in Deutschland

„Andere Länder der EU werden dieser Linie folgen“

Sicherheitsexperte Alexander Ritzmann begrüßt das Betätigungsverbot für die Hisbollah in Deutschland. Die Hisbollah sei jederzeit in der Lage gewesen, Anschläge in Deutschland zu verüben, habe dies aus verschiedenen Gründen seit langer Zeit aber nicht gemacht, sagte er im Dlf.

Alexander Ritzmann im Gespräch mit Jörg Münchenberg

 

Weitere Infos zum Thema:

SOLL MAN MIT DER HISBOLLAH VERHANDELN?

Fernsehsender verbreiten Antisemitismus

Schläferland

Die Hisbollah wird in Deutschland unterschätzt

Deutschland wird zum Anschlagsziel der Hisbollah

 

NetzDG 2.0 – Recommendations for the amendment of the Network Enforcement Act (NetzDG) and Investigation into the actual blocking and removal processes of YouTube, Facebook and Instagram

Policy Paper, Counter Extremism Project (CEP) Berlin, March 2020,

Autors: Alexander Ritzmann (Senior Advisor), Dr. Hans-Jakob Schindler (Senior Director) und Marco Macori (Research Fellow)

The paper can be downloaded  here.

The Counter Extremism Project (CEP) Berlin conducted a new study between January 31st and February 14th to test big tech’s compliance with Germany’s 2018 NetzDG online content moderation law. The law in its current form requires online platforms to remove “manifestly illegal” content within 24 hours only after it has been reported by users. CEP’s study revealed that YouTube, Facebook, and Instagram removed a mere 43.5 percent of clearly extremist and terrorist content, even after that material was reported for their illegal nature under the NetzDG.

As first reported by Die Welt, the study found that of the 92 “manifestly illegal” instances of online content flagged by CEP, only 43.5 percent were blocked or deleted by the platforms. Of those companies studied, YouTube has been least compliant with the law’s requirements. The company blocked only 35 percent of the 80 videos that were reported and should have been blocked. Facebook and Instagram deleted or blocked all of the flagged content, but Facebook did not remove any content that was explicitly not flagged—even though that content contained the same reported illegal symbols. CEP Berlin’s findings suggest that this “notice and takedown” method for removing illegal content can only be effective if platforms are being searched continuously and systemically for such material.

German lawmakers are currently discussing several amendments to the NetzDG. The study underlines recommendations which CEP Berlin has published in a recent NetzDG policy paper. In particular, it is clear that passive and reactive approaches to removal illegal content are insufficient. Further, the low blocking percentage of reported content shows that more transparency and auditability from tech companies is needed to explain and improve the inadequate compliance rate.

 

„NetzDG 2.0: Empfehlungen zur Weiterentwicklung des Netzwerkdurchsetzungsgesetzes (NetzDG) und Untersuchung zu den tatsächlichen Sperr- und Löschprozessen von YouTube, Facebook und Instagram“

Policy Paper, Counter Extremism Project (CEP) Berlin, 12.03.2020, 

Autoren: Alexander Ritzmann (Senior Advisor), Dr. Hans-Jakob Schindler (Senior Director) und Marco Macori (Research Fellow)

Das Papier kann hier heruntergeladen werden.

In den kommenden Monaten soll des Netzwerkdurchsetzungsgesetz (NetzDG) novelliert werden. Im angehängten CEP Policy Paper werden konkrete Empfehlungen für das neue „NetzDG 2.0“ ausgesprochen, die auch auf einem von CEP durchgeführten Stresstest zur Verfahrenslogik des aktuellen NetzDG beruhen.
Die Ergebnisse des Stresstests weisen darauf hin, dass die dem NetzDG zu Grunde liegende Verfahrenslogik von „notice and take down“ (Sperrung/Löschung nach Beschwerde) unzureichend funktioniert und für die Reduzierung rechtswidriger Inhalte online nicht ausreichend ist. Die Stichprobe lässt zudem Zweifel daran aufkommen, ob die Erfolgsmeldungen der Internet-Unternehmen der Realität entsprechen.
Die Empfehlungen lauten deshalb:
– Mehr Transparenz und Nachvollziehbarkeit von Prozessen und Technologien, die zur Umsetzung von NetzDG-Vorgaben und Community-Richtlinien eingesetzt werden, sind dringend nötig.
– Für eine systematische und kontinuierliche Suche nach offensichtlich illegalen Inhalten sollten beispielsweise Jugenschutz.Net und/oder Akteure der Zivilgesellschaft beauftragt und dementsprechend finanziert werden.
– Automatisierte Bilderkennungs-Algorithmen (z.B. Upload-Filter) für Logos und Symbole verbotener Organisationen sollten (stärker) eingesetzt und reguliert werden.

Das Anti-Hass-Gesetz fällt im Stresstest durch (Die Welt)

Von Christina Brause
Redakteurin Investigation & Reportage

„Die starken Unterschiede in der Praxis erklärt Alexander Ritzmann vom CEP so: Es werde nicht systematisch und strukturiert nach rechtswidrigen Inhalten geschaut. „Selbst nach einer Meldung werden sie auf manchen Plattformen nicht geblockt.“

Die großen Online-Plattformen blockieren bei Weitem nicht alle offensichtlich
rechtswidrigen Inhalte, die Nutzer ihnen melden. Das zeigt eine aktuelle Untersuchung. Die Plattformbetreiber sind jedoch nicht die einzige Schwachstelle des Gesetzes. Die großen Internetplattformen löschen offenbar nur einen Teil der problematischen Inhalte, die bei ihnen publiziert werden. Das ist das Ergebnis einer stichprobenartigen Untersuchung des Counter Extremism Project (CEP) Berlin.
Und es ging dabei nicht um Inhalte, die man so oder so sehen kann, sondern um „offensichtlich rechtswidrige“ Inhalte und Kennzeichen verbotener Organisationen, die Nutzer bei YouTube, Facebook und Instagram melden. Es ging um die Frage, ob diese dann auch gesperrt werden.
Weiterlesen »

Effective Narratives: Updating the GAMMMA+ model (EU RAN)

Authored by Alexander Ritzmann, Lieke Wouterse and Merle Verdegaal

The RAN Communication and Narratives working group (RAN C&N) has
promoted the GAMMMA+ model since December 2017 as a practical
guideline for carrying out effective alternative and counter narrative (AN
/CN) campaigns. Since then, the GAMMMA+ model has served
practitioners from all over the European Union as a tool when planning
and implementing communications campaigns. After two years and based
on feedback and insights from practitioners at the RAN C&N Academy in
November 2019, it is time to update the model in the format of this expost paper.

DGAP: EXTREMISMUS BEKÄMPFEN, DEMOKRATIE SCHÜTZEN – Prävention von gewaltbereitem Extremismus in der EU

DGAP POLICY BRIEF 28. November 2019
Sofia Koller und Alexander Ritzmann

Freiheitliche Demokratien sind fragil und von innen leicht angreifbar. Polarisierung, Radikalisierung und Terrorismus sind eng verwoben und die Digitalisierung gibt der politischen Gewalt eine weitere Dimension. Rückkehrer aus Syrien und dem Irak stellen eine neue Herausforderung dar. Wie groß die Sorge ist, Rückkehrer könnten in Europa Anschläge verüben, wird auch an der Diskussion über die IS-Anhänger deutscher Staatsbürgerschaft deutlich, die derzeit von der Türkei nach Deutschland abgeschoben werden.

EU RAN: Involving young people in counter and alternative narratives – why involve peers?

Radicalisation Awareness Network, Alexander Ritzmann

Summary
When working in multicultural teams, creating trusting
relationships is key. Policy-makers and civil society
organisations (CSOs) often share goals. But they might have
quite different procedures, approaches and perspectives,
and therefore ‘cultures’. Young people, an important part
of civil society, want and need to be empowered to become
more active members of communities preventing and
countering violent extremism (P/CVE). They can provide
perspectives, insights and a ‘spirit’ that most established
organisations will struggle to create without them.
This paper presents some of the key challenges and
opportunities identified at the policy and practice event on
cooperation between young people and policy-makers. It
also suggests concrete steps for building trusting
partnerships and effective multicultural teams.