Vom 1. Januar an drohen Facebook & Co. hohe Bußgelder, wenn sie strafbare Inhalte nicht löschen. Wie können Nutzer Beiträge melden? Droht das Ende der Meinungsfreiheit? Die wichtigsten Antworten zum neuen Gesetz.
Von Jannis Brühl, Simon Hurtz und Hakan Tanriverdi

Kurz vor Weihnachten geht ein sechsminütiges Video herum, das zeigt, dass antisemitische Beschimpfungen in Deutschland zum Alltag vieler Juden gehört. Ein Mann beleidigt und bedroht vor laufender Kamera und auf offener Straße einen jüdischen Wirt. Justizminister Heiko Maas schreibt auf Twitter: "Wir alle müssen uns antisemitischer Hetze engagiert und mutig entgegenstellen."
Was dabei fast völlig unterging: Facebook hat das Video zwischenzeitlich gelöscht und den Account von Mike Samuel Delberg gesperrt. Der Repräsentant der Jüdischen Gemeinde zu Berlin hatte die Aufnahme hochgeladen. Erst nach vielen Beschwerden und öffentlichem Druck stellte Facebook den Beitrag wieder her, hob die Sperre auf und entschuldigte sich.
Delbergs Beispiel ist einer von vielen Fällen, in denen Facebook Inhalte entfernte, weil sie vermeintlich gegen die Gemeinschaftsstandards des Netzwerks verstießen. Und Delbergs Beispiel ist nur einer von vielen Gründen, aus denen etliche Juristen, Verbände und Nutzer das Netzwerkdurchsetzungsgesetz (NetzDG) für grundfalsch halten.
Das Gesetz mit dem komplizierten Namen zählt zu den umstrittensten Vorhaben der Großen Koalition. Kritiker sehen die Meinungsfreiheit in Gefahr und warnen vor staatlicher Zensur. Nach einer dreimonatigen Übergangsfrist wurde das NetzDG zum Jahresbeginn richtig scharf gestellt. Die wichtigsten Fragen und Antworten im Überblick.
Was will die Regierung mit dem NetzDG erreichen?
Seit Jahren steht Facebook in der Kritik, weil es strafbare Inhalte angeblich gar nicht oder zu langsam löscht. Die Diskussion begann im Spätsommer 2015, als Hunderttausende Nutzer ihre Abneigung gegen Flüchtlinge durch fremdenfeindliche Kommentare öffentlich machten. Justizminister Heiko Maas (SPD) drängte das Unternehmen konsequenter durchzugreifen, es folgten zahlreiche Task-Forces mit Experten und NGOs.
Doch Facebooks Zugeständnisse reichten der Politik nicht. Das NetzDG soll soziale Medien wie Facebook dazu bringen, rechtswidrige Inhalte zuverlässiger zu entfernen. Wenn die Plattformen sich nicht an die Vorschriften halten, drohen Bußgelder von bis zu 50 Millionen Euro - allerdings nur bei "systemischen Mängeln", nicht bei einzelnen Verzögerungen oder Fehlentscheidungen. Die Summe richtet sich auch nach der Größe des Netzwerks.
Für wen gilt das NetzDG?
Auf Anfrage nennt das Bundesjustizministerium (BMJV) keine Namen einzelner Unternehmen. Das Gesetz betrifft soziale Netzwerke, die in Deutschland mindestens zwei Millionen registrierte Nutzer haben. Im Einzelfall müsse das Bundesamt für Justiz (BfJ) ermitteln, welche Anbieter das seien, sagt eine BMJV-Sprecherin.
Facebook, Youtube, Instagram, Twitter und Snapchat gehören auf jeden Fall dazu, vermutlich auch Pinterest. Nicht alle Anbieter veröffentlichen Nutzerzahlen, außerdem ist unklar, ob und wie Bots und Fake-Accounts herausgerechnet werden sollen. Berufliche Netzwerke wie Linkedin und Xing sind ausdrücklich ausgeschlossen, ebenso journalistische Plattformen und Messenger wie Whatsapp.
Welche Pflichten legt das NetzDG den Anbietern auf?
Wenn Nutzer Beiträge melden, weil sie diese für strafbar halten, müssen Plattformen "offensichtlich rechtswidrige Inhalte" binnen 24 Stunden entfernen. Für "rechtswidrige Inhalte" gilt eine Frist von sieben Tagen. Und was heißt das nun genau? "Ein Inhalt ist offensichtlich strafbar, wenn zur Feststellung der Strafbarkeit keine vertiefte Prüfung erforderlich ist", sagt eine BMJV-Sprecherin dazu. Wer entscheidet, ob eine vertiefte Prüfung erforderlich war oder nicht, bleibt unklar. Insgesamt umfasst das Gesetz 20 Strafrechtsparagraphen, von Beleidigung und Blasphemie über Bildung terroristischer Vereinigungen bis zu Volksverhetzung und Verbreitung kinderpornographischer Schriften.
Die Anbieter müssen nicht selbst tätig werden, sondern nur auf Meldungen reagieren. Die Frist beginnt erst, nachdem eine Beschwerde eingegangen ist. Wenn es sich um einen strafbaren Inhalt handelt, können ihn die Plattformen entweder komplett löschen oder national sperren. Entscheidend ist, dass Nutzer mit deutscher IP-Adresse nicht mehr darauf zugreifen können. Die Betreiber sind verpflichtet, rechtswidrige Inhalte für zehn Wochen aufzubewahren, um Strafverfolgung zu ermöglichen.
Außerdem zwingt das NetzDG die betroffenen Unternehmen zu mehr Transparenz. Sie müssen einen jährlichen Bericht erstellen, in dem sie darlegen, wie viele Meldungen sie aufgrund welches Straftatbestandes erhalten, wie schnell sie reagieren und wie viele der beanstandeten Beiträge sie löschen.
Wie können Beiträge gemeldet werden?
Das NetzDG verlangt ein "leicht erkennbares, unmittelbar erreichbares und ständig verfügbares Verfahren". Wie das im Einzelfall aussieht, bleibt den Anbietern überlassen. Wichtig ist nur, dass es von allen Menschen genutzt werden kann und keine Mitgliedschaft beim jeweiligen Netzwerk erforderlich sein darf. Twitter integriert den Prozess beispielsweise in das bestehende Verfahren. Neben den bisherigen Beschwerdegründen wie Spam, Urheberrechtsverletzungen oder Pornografie können Nutzer einen Verstoß gegen das NetzDG anführen.
Facebook dagegen trennt die beiden Systeme. Verstöße nach NetzDG werden dem Unternehmen zufolge über einen "komplett neuen Workflow" gemeldet. Verstöße gegen Facebooks eigene Gemeinschaftsstandards, die vager formuliert sind als das deutsche Strafgesetz, können nach wie vor mit wenigen Klicks direkt über den entsprechenden Beitrag markiert werden. Wer strafbare Inhalte nach NetzDG melden will, muss dafür eine eigene Unterseite in Facebooks Hilfebereich aufrufen, dort die Adresse des Beitrags einfügen und einen Screenshot des Beitrags anfügen. Anschließend wählt der Meldende aus 20unterschiedlichen Straftatbeständen aus, was hier vorgefallen ist. Unklar bleibt, wie normale Nutzer eine Straftat genau zuordnen können. Facebook empfiehlt, einen Anwalt zu konsultieren.
Wer einen Beitrag meldet und glaubt, dass der Anbieter ihn zu Unrecht nicht innerhalb der vorgeschriebenen Fristen entfernt hat, kann das Unternehmen beim BfJ anzeigen. Dann prüft das Amt und verhängt möglicherweise ein Bußgeld. Die Netzwerke müssen die Inhalte lediglich löschen und nicht an Strafverfolgungsbehörden weitergeben. Bei bestimmten Straftaten schalten die Unternehmen von sich aus die Ermittler ein, etwa im Falle von Kindesmissbrauch oder glaubwürdigen, konkreten Gewaltandrohungen. Um sicherzugehen, dass Absender auch bei anderen Rechtsverstößen strafrechtlich verfolgt werden, ist eine formlose Anzeige bei Polizei oder Staatsanwaltschaft nötig.