Rechte bei Hasskriminalität in den sozialen Medien

Es ist ja so eine Sache mit den sozialen Medien. Sie werden zur Kommunikation und Vernetzung genutzt, aber auch für Marketing und Werbung. Allerdings sind die Sitten in diesen Netzwerken mittlerweile auch total verroht. Beleidigungen, Bedrohungen oder widerliche bis menschenverachtende Post sind an der Tagesordnung. Sogenannte Cleaner sind ausschließlich dafür zuständig, derartige Einträge aufzuspüren und zu löschen. Maßstab sind dabei immer die eigenen Community-Standards der Plattformen. Werden Verstöße festgestellt, wird gelöscht, ohne dass dafür die Beschwerde eines Nutzers oder einer Nutzerin erforderlich ist.

In einer wissenschaftlichen Studie der HTWK Leipzig („Das NetzDG in der praktischen Anwendung“, Prof. Dr. Gabriele Hooffacker und Prof. Dr. Marc Liesching, Carl Grossman Verlag, Band 3 der Schriftenreihe Medienrecht & Medientheorie) wurde festgestellt, dass Facebook allein im 2. Halbjahr 2020 im Bereich „Hassrede“ 49 Millionen Inhalte aufgrund Verstoßes gegen seine eigenen Gemeinschaftsrichtlinien entfernt hat.

Aufgrund dessen spielte das 2017 in Kraft getretene Netzwerkdurchsetzungsgesetz (NetzDG) bislang so gut wie keine Rolle. Denn das Gesetz regelt, dass Facebook & Co. erst tätig werden muss, wenn sich ein Nutzer wegen eines (rechtsverletzenden) Eintrages beschwert. Und die machten es den Nutzern und Nutzerinnen auch nicht immer leicht. Im 2. Halbjahr 2020 wurden daher auf Basis des NetzDG nur 154 Inhalte gelöscht („Das NetzDG in der praktischen Anwendung“, s.o.).

Daher wurde das NetzDG nochmals überarbeitet, um die Nutzer und Nutzerinnen besser zu schützen. Das Gesetz zur Änderung des NetzDG ist am 28. Juni 2021 in Kraft getreten.

Jetzt sollen klar strafbare Inhalte durch die Plattformen binnen 24 Stunden gelöscht, auf Nutzerbeschwerden spätestens nach 48 Stunden reagiert werden. Nutzer sollen leichter und unkomplizierter als bisher sog. Hate-Speech melden können. Dafür sind die Meldemöglichkeiten leichter auffindbar und nutzerfreundlicher zu gestalten als bislang.

Auch gelten jetzt strengere Meldepflichten für die Plattformen: Sie müssen Morddrohungen, Volksverhetzung und andere schwere Vergehen künftig nicht nur löschen, sondern auch beim Bundeskriminalamt (BKA) melden. Außerdem sind sie verpflichtet, alle sechs Monate einen Bericht über ihren Umgang mit Beschwerden zu veröffentlichen.

Auskunftsansprüche gegenüber den Sozialen Medien sollen einfacher durchsetzbar sein. Das bislang zweistufige Verfahren soll auf eine Stufe beschränkt werden: Das Gericht, das über die Zulässigkeit der Herausgabe von Nutzerdaten entscheidet, kann zugleich auch die Herausgabe dieser Daten anordnen.

Die Plattformen sind künftig auch verpflichtet, auf Antrag betroffener Nutzer und Nutzerinnen ihre Entscheidungen über Löschung oder Beibehaltung eines Inhalts nochmals zu überprüfen (sog. Gegenvorstellungsverfahren).

Das Gesetz regelt zudem die Voraussetzungen für die Anerkennung von unparteiischen Schlichtungsstellen. Mit deren Hilfe sollen Streitigkeiten zwischen Nutzern und sozialen Netzwerken auch außergerichtlich beigelegt werden können. Auf diesem Wege können strittige Fragen oft schneller und kostengünstiger geklärt werden. Für Videosharing-Plattformen mit Sitz in Deutschland soll eine behördliche Schlichtungsstelle geschaffen werden.

Mal sehen, was für ein Zwischenfazit in zwei Jahren gezogen werden kann. Zu einem höflicheren Umgang im Netz wird das Gesetz aber sicher nicht beitragen.