122 25 1MB
German Pages 248 Year 2023
Internetrecht und Digitale Gesellschaft Band 47
Das Netzwerkdurchsetzungsgesetz – Eine unionsrechtliche Analyse
Von
Verena Vogt
Duncker & Humblot · Berlin
VERENA VOGT
Das Netzwerkdurchsetzungsgesetz – Eine unionsrechtliche Analyse
Internetrecht und Digitale Gesellschaft Herausgegeben von
Dirk Heckmann
Band 47
Das Netzwerkdurchsetzungsgesetz – Eine unionsrechtliche Analyse
Von
Verena Vogt
Duncker & Humblot · Berlin
Die Rechtswissenschaftliche Fakultät der Westfälischen Wilhelms-Universität zu Münster hat diese Arbeit im Jahr 2022 als Dissertation angenommen.
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
Alle Rechte vorbehalten
© 2023 Duncker & Humblot GmbH, Berlin Satz: Fotosatz Voigt, Berlin Druck: CPI books GmbH, Leck Printed in Germany
ISSN 2363-5479 ISBN 978-3-428-18848-2 (Print) ISBN 978-3-428-58848-0 (E-Book) Gedruckt auf alterungsbeständigem (säurefreiem) Papier entsprechend ISO 9706 Internet: http://www.duncker-humblot.de
Vorwort Die vorliegende Arbeit wurde im Sommersemester 2022 vom Promotionsausschuss der juristischen Fakultät der Westfälischen Wilhelms-Universität Münster als Dissertation angenommen. Das Kolloquium fand am 12.07.2022 statt. Gesetzgebung, Rechtsprechung und Literatur konnten bis Mitte Februar 2022 berücksichtigt werden. Bedanken möchte ich mich bei den zahlreichen Menschen, die zum Gelingen dieser Arbeit beigetragen haben. Mein größter Dank gilt zunächst Herrn Prof. Dr. Thomas Hoeren. Er hat die Arbeit angeregt, ihren Entstehungsprozess konstruktiv begleitet und das Erstgutachten äußerst zügig erstellt. Ebenfalls gilt mein herzlicher Dank Herrn Dr. Nikolas Guggenberger, LL.M. für die intensive Auseinandersetzung mit meiner Arbeit im Zweitgutachten. Die Arbeit entstand begleitend zu meiner Tätigkeit als wissenschaftliche Mitarbeiterin in der Zivilrechtlichen Abteilung des Instituts für Informations-, Telekommunikations- und Medienrecht (ITM). Meinen Kolleginnen und Kollegen gebührt ein besonderer Dank für die schöne und bereichernde gemeinsame Zeit am ITM. Für die kritische Durchsicht des Manuskripts und die wertvollen Anregungen danke ich meinen Freundinnen Jenny und Wiebke. Schließlich gilt mein liebevollster Dank meiner Familie: Sowohl mein Mann Hendrik als auch meine Eltern Petra und Udo haben mich stets bedingungslos unterstützt und mir unermüdlich Rückhalt gegeben. Ihnen ist diese Arbeit gewidmet. Herten, im Dezember 2022
Verena Vogt
Inhaltsverzeichnis Kapitel 1 Einleitung
17
A. Anlass der Untersuchung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17
B. Fragestellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
19
C. Gang der Untersuchung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
21
Kapitel 2 Das NetzDG und der unionsrechtliche Regulierungsrahmen A. Das Netzwerkdurchsetzungsgesetz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . I. Hintergrund des NetzDG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Soziale Netzwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a) Definition „soziale Netzwerke“ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . b) Ausnahmetatbestände im NetzDG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . c) Funktionen sozialer Netzwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Hassrede, Hasskriminalität und Falschnachrichten in sozialen Netzwerken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a) Hassrede und Hasskriminalität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . b) Falschnachrichten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . II. Das Gesetzgebungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Die Task Force . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Die Gesetzgebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. Weitere Entwicklung und Evaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4. Anpassung des NetzDG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a) Gesetz zur Bekämpfung des Rechtsextremismus und der Hasskriminalität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . b) Gesetz zur Änderung des Netzwerkdurchsetzungsgesetzes . . . . . . . . III. Wesentlicher Regelungsinhalt des NetzDG . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Anwendungsbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Berichtspflichten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. Lösch- und Sperrpflichten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4. Einrichtung der Regulierten Selbstregulierung . . . . . . . . . . . . . . . . . . . . . 5. Meldungen an das Bundeskriminalamt . . . . . . . . . . . . . . . . . . . . . . . . . . . .
22 22 22 22 23 24 25 26 27 30 33 33 35 36 38 38 39 40 40 41 41 42 43
8
Inhaltsverzeichnis 6. 7. 8. 9. 10.
Gegenvorstellungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Privatrechtliche Schlichtungsstellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Regelungen für Videosharingplattform-Dienste . . . . . . . . . . . . . . . . . . . . . Bußgeldvorschriften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ernennung eines Zustellungsbevollmächtigten sowie einer empfangsberechtigten Person . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11. Aufsicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12. Änderung des TMG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
43 44 44 45
B. Der unionsrechtliche Rahmen für die Regulierung sozialer Netzwerke . . . . . . . . I. Primärrecht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Der unionsrechtliche Grundrechtsschutz . . . . . . . . . . . . . . . . . . . . . . . . . . . a) Der Einfluss der Europäischen Menschenrechtskonvention . . . . . . . . b) Die Charta der Grundrechte der Europäischen Union . . . . . . . . . . . . . 2. Die Grundfreiheiten des Binnenmarktes . . . . . . . . . . . . . . . . . . . . . . . . . . . II. Sekundärrecht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Die E-Commerce-Richtlinie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Die Richtlinie über audiovisuelle Mediendienste . . . . . . . . . . . . . . . . . . . . 3. Die Datenschutz-Grundverordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
47 49 49 49 51 52 53 54 55 55
46 46 47
Kapitel 3 Die Vereinbarkeit des NetzDG mit dem Unionsrecht A. Beeinträchtigung der Rechte der Netzwerkmitglieder . . . . . . . . . . . . . . . . . . . . . . . I. Overblocking durch das NetzDG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Der Begriff des Overblockings . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Grundlegende Anreizstrukturen für Overblocking . . . . . . . . . . . . . . . . . . . 3. Anreizstrukturen für Overblocking im NetzDG . . . . . . . . . . . . . . . . . . . . . 4. Derzeitige Erkenntnisse aus den Transparenzberichten . . . . . . . . . . . . . . . 5. Beeinträchtigung des Art. 11 Abs. 1 GRCh durch die Anreize zum Overblocking . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a) Anwendbarkeit der Grundrechtecharta auf das NetzDG . . . . . . . . . . . aa) Durchführung von Unionsrecht . . . . . . . . . . . . . . . . . . . . . . . . . . . . bb) Verhältnis zu nationalen Grundrechten . . . . . . . . . . . . . . . . . . . . . . b) User-Generated-Content im Gewährleistungsbereich des Art. 11 Abs. 1 GRCh . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . c) Eingriff in die Meinungsfreiheit aus Art. 11 Abs. 1 GRCh durch die Bestimmungen des NetzDG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . d) Rechtfertigung der Regelungen des NetzDG . . . . . . . . . . . . . . . . . . . . aa) Schrankenbestimmungen des Art. 11 Abs. 1 GRCh . . . . . . . . . . . bb) Gesetzesvorbehalt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
57 57 57 58 59 60 61 64 64 65 67 69 72 74 74 76
Inhaltsverzeichnis cc) Verfolgung eines legitimen Zwecks durch die Vorschriften des NetzDG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . dd) Eignung des NetzDG zur Zweckerreichung . . . . . . . . . . . . . . . . . ee) Alternativen zu den Regelungen des NetzDG . . . . . . . . . . . . . . . (1) Verbesserung der Strafverfolgung und des einstweiligen Rechtsschutzes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (2) Langfristige Investition in Journalismus und Bildung . . . . . (3) Technische Hilfsmittel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (4) Erweiterung der Regulierten Selbstregulierung . . . . . . . . . . (5) Zwischenergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ff) Angemessenheit der Regelungen des NetzDG . . . . . . . . . . . . . . . (1) Lösch- und Sperrpflichten . . . . . . . . . . . . . . . . . . . . . . . . . . . . (2) Bußgeldandrohung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (3) Verfahrensvorgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (a) Content-Management . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (b) Anforderungen an die Beschwerde . . . . . . . . . . . . . . . . . (c) Möglichkeit zur Stellungnahme . . . . . . . . . . . . . . . . . . . . (4) Erkenntnisse aus der Gesetzgebung Frankreichs . . . . . . . . . (a) Vergleich mit der französischen Gesetzgebung . . . . . . . (b) Die Rechtsprechung des Conseil Constitutionnel . . . . . (c) Bedeutung der französischen Gesetzgebung für das NetzDG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (5) Das Gegenvorstellungsverfahren als Korrektiv . . . . . . . . . . . (6) Schlussfolgerung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . e) Ergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6. Beeinträchtigung der Virtuellen Versammlungsfreiheit durch den Anreiz zum Overblocking . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a) Schutzbereich der Versammlungsfreiheit des Art. 12 Abs. 1 GRCh . . b) Erfasst der Schutzbereich des Art. 12 Abs. 1 GRCh virtuelle Versammlungen? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . II. Chilling Effects . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Begriff der Chilling Effects und dogmatische Einordnung . . . . . . . . . . . 2. Ursachen für Chilling Effects im NetzDG . . . . . . . . . . . . . . . . . . . . . . . . . 3. Beeinträchtigung des Art. 11 Abs. 1 GRCh durch Chilling Effects . . . . a) Eingriff in Art. 11 Art. 1 GRCh durch Chilling Effects . . . . . . . . . . . b) Verhältnismäßigkeit des Eingriffs durch die Chilling Effects . . . . . . 4. Ergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . III. Verkürzung der Nutzerrechte durch die Privatisierung der Rechtsdurchsetzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Einordnung des Begriffs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Private Rechtsdurchsetzung im NetzDG . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
76 78 80 80 85 86 88 91 91 92 95 99 99 101 102 104 104 106 107 108 109 111 111 113 114 117 118 119 121 121 124 126 126 127 127
10
Inhaltsverzeichnis 3. Beeinträchtigung von Grundrechtspositionen der Nutzer . . . . . . . . . . . . . 4. Ergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . IV. Speicherung zu Beweiszwecken und Dokumentationspflicht . . . . . . . . . . . . . 1. Schutz personenbezogener Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a) Gewährleistungsgehalt des Art. 8 GRCh . . . . . . . . . . . . . . . . . . . . . . . . b) Eingriff in Art. 8 GRCh durch die Speicherung zu Beweiszwecken sowie die Dokumentationspflicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . c) Verhältnismäßigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Ergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . V. Meldung an das BKA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Beeinträchtigung des Schutzes personenbezogener Daten aus Art. 8 GRCh . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a) Eingriff in Art. 8 GRCh durch die Meldung an das BKA . . . . . . . . . b) Verhältnismäßigkeit der Meldepflicht . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Ergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . VI. Auskunft über Bestandsdaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Vereinbarkeit des § 21 Abs. 2 TTDSG mit der DS-GVO . . . . . . . . . . . . . a) Regelungsbefugnis der Mitgliedstaaten aus Art. 6 Abs. 4 DSGVO? aa) Zweckänderungsbefugnis nach Art. 6 Abs. 4 DS-GVO . . . . . . . (1) Fehlende Regelungskompetenz . . . . . . . . . . . . . . . . . . . . . . . . . (2) Art. 6 Abs. 4 DS-GVO als eigenständige Öffnungsklausel . . bb) Diskussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . b) Genügt § 21 Abs. 2–4 TTDSG dem Art. 6 Abs. 4 DS-GVO? . . . . . . 2. Ergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . VII. Zwischenfazit zur Beeinträchtigung der Nutzerrechte . . . . . . . . . . . . . . . . . . .
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke . . . . . . . . . . . . . . . I. Beschränkung der Tätigkeiten sozialer Netzwerke durch die CompliancePflichten des NetzDG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Vereinbarkeit der Beschränkungen mit der Medienfreiheit aus Art. 11 Abs. 2 GRCh . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a) Soziale Netzwerke im Gewährleistungsbereich der Medienfreiheit . . aa) Gewährleistungsgehalt des Art. 11 Abs. 2 GRCh . . . . . . . . . . . . . bb) Einordnung sozialer Netzwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . b) Eingriff in die Medienfreiheit durch das NetzDG . . . . . . . . . . . . . . . . c) Verhältnismäßigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . aa) Anwendbarkeit der Schrankenbestimmungen des Art. 10 Abs. 2 EMRK . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . bb) Verhältnismäßigkeit des Eingriffs in die Medienfreiheit . . . . . . . 2. Vereinbarkeit der Beschränkungen mit der unternehmerischen Freiheit aus Art. 16 GRCh . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a) Gewährleistungsgehalt des Art. 16 GRCh . . . . . . . . . . . . . . . . . . . . . . .
129 130 131 131 131 132 133 136 137 138 138 139 142 142 142 142 143 143 144 145 148 148 148 149 149 149 150 150 151 152 153 153 155 157 157
Inhaltsverzeichnis b) Eingriff in die unternehmerische Freiheit durch das NetzDG . . . . . . c) Verhältnismäßigkeit der Beschränkungen durch das NetzDG . . . . . . 3. Vereinbarkeit der Beschränkungen mit der Dienstleistungsfreiheit, Art. 65 AEUV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a) Gewährleistungsgehalt der Dienstleistungsfreiheit . . . . . . . . . . . . . . . b) Beschränkung der Dienstleistungsfreiheit durch das NetzDG . . . . . . c) Verhältnismäßigkeit der Beschränkung . . . . . . . . . . . . . . . . . . . . . . . . . II. Ungleichbehandlung der Anbieter sozialer Netzwerke . . . . . . . . . . . . . . . . . . 1. Schutzbereich des Art. 20 GRCh . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Ungleichbehandlung der Diensteanbieter . . . . . . . . . . . . . . . . . . . . . . . . . . 3. Rechtfertigung dieser Ungleichbehandlung . . . . . . . . . . . . . . . . . . . . . . . . III. Unklarheit der Bußgeldandrohung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Der Bestimmtheitsgrundsatz aus Art. 49 Abs. 1 GRCh . . . . . . . . . . . . . . 2. Verstoß gegen den Bestimmtheitsgrundsatz durch das NetzDG . . . . . . . IV. Befugnisse des Bundesamts für Justiz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Der Grundsatz der Staatsferne der Medien aus Art 11 Abs. 2 GRCh . . 2. Verstoß gegen den Grundsatz der Staatsferne durch das NetzDG . . . . . a) Befugnisse des Bundesamts für Justiz in § 3 Abs. 6–9 NetzDG . . . b) Prüfkompetenz des Bundesamts für Justiz . . . . . . . . . . . . . . . . . . . . . . 3. Ergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . V. Anwendungsbereich des NetzDG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Das Herkunftslandprinzip der E-Commerce-Richtlinie . . . . . . . . . . . . . . a) Art. 3 Abs. 2 ECRL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . b) Vereinbarkeit des NetzDG mit dem Herkunftslandprinzip, Art. 3 Abs. 2 ECRL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . aa) Soziale Netzwerke als Dienste der Informationsgesellschaft . . . bb) Koordinierter Bereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . cc) Ausnahmen vom Herkunftslandprinzip . . . . . . . . . . . . . . . . . . . . . (1) Art. 3 Abs. 3 ECRL, generelle Ausnahmen . . . . . . . . . . . . . (2) Art. 3 Abs. 4 ECRL, das NetzDG als einzelfallbezogene Ausnahme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (a) Art. 3 Abs. 4 lit. a Ziffer i ECRL, Schutzziele . . . . . . . . (b) Art. 3 Abs. 4 lit. a Ziffer ii ECRL, betrifft das NetzDG einen bestimmten Dienst der Informationsgesellschaft? (aa) Auslegung des Art. 3 Abs. 4 lit. b Ziffer ii ECRL (bb) Erkenntnisse aus der österreichischen Gesetzgebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (cc) Rechtsprechung des EuGH . . . . . . . . . . . . . . . . . . . . (dd) Zwischenergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . (c) Art. 3 Abs. 4 lit. a Ziffer iii ECRL, Verhältnismäßigkeit der Maßnahme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11 158 159 162 162 164 164 166 166 167 168 170 170 171 174 175 176 176 178 179 180 180 180 183 183 184 185 185 186 186 187 187 190 190 191 192
12
Inhaltsverzeichnis (d) Art. 3 Abs. 4 lit. b ECRL, Konsultation . . . . . . . . . . . . . (3) Art. 3 Abs. 5 ECRL, das NetzDG als dringlicher Fall . . . . . dd) Unionsrechtskonforme Auslegung des NetzDG . . . . . . . . . . . . . . ee) Auslegung des NetzDG als Instrument der Selbstregulierung . . c) Ergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Das Herkunftslandprinzip nach der AVMD-RL . . . . . . . . . . . . . . . . . . . . . VI. Einhaltung des Notifizierungsverfahrens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . VII. Verantwortlichkeit der sozialen Netzwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Art. 14 ECRL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a) Vereinbarkeit der Fristvorgaben des NetzDG mit Art. 14 Abs. 1 lit. b ECRL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . aa) Der Begriff der Unverzüglichkeit im allgemeinen Sprachgebrauch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . bb) Systematische Erwägungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . cc) Auslegung nach Sinn und Zweck der Vorschrift . . . . . . . . . . . . . . dd) Einheitliche Auslegung des Unionsrechts . . . . . . . . . . . . . . . . . . . ee) Umsetzung der Richtlinie in anderen Mitgliedstaaten . . . . . . . . . ff) Zwischenergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . b) Zeitpunkt des Tätigwerdens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . aa) Aufforderung zum Handeln vor Kenntnis im NetzDG . . . . . . . . . (1) Pflicht zur Kenntnisverschaffung . . . . . . . . . . . . . . . . . . . . . . . (2) Pflicht zur unverzüglichen Kenntnisnahme aus § 3 Abs. 2 Nr. 1 NetzDG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (3) Einrichtung des Gegenvorstellungsverfahrens . . . . . . . . . . . . bb) Fristbeginn bei Eingang der Beschwerde . . . . . . . . . . . . . . . . . . . . c) Erfordernis der erfolgreichen Sperrung oder Löschung . . . . . . . . . . . 2. Vereinbarkeit mit Art. 15 Abs. 2 ECRL . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. Ergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
194 195 197 199 200 201 202 206 207 207 208 209 210 212 213 214 215 215 215 216 217 217 219 219 220
C. Ergebnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220 Kapitel 4 Ausblick und Fazit
222
A. Erster Ausblick: Das NetzDG – eine Erfolgsgeschichte? . . . . . . . . . . . . . . . . . . . . 222 B. Zweiter Ausblick: Der Digital Services Act . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224 C. Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226 Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228 Sachverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
Abkürzungsverzeichnis a. A. ABl. Abs. AfD AfP AG AG AGB AJ Pénal AöR Art. AEUV AVMD BDSG BeckOK Beschl. BfJ BGB BGBl. BGH BGHZ BKAG BMFSFJ BMJ BMJV BR-Drs. BRD BT-Drs. BüStärG BVerfG BVerfGE BVerfGG BVerwGE bzw.
andere Ansicht Amtsblatt Absatz Alternative für Deutschland Zeitschrift für das gesamte Medienrecht Aktiengesellschaft Amtsgericht Allgemeine Geschäftsbedingungen Actualité juridique Pénal Archiv des öffentlichen Rechts Artikel Vertrag über die Arbeitsweise der Europäischen Union Audiovisuelle Mediendienste Bundesdatenschutzgesetz Beck’scher Online-Kommentar Beschluss Bundesamt für Justiz Bürgerliches Gesetzbuch Bundesgesetzblatt Bundesgerichtshof Entscheidungen des Bundesgerichtshofs in Zivilsachen Bundeskriminalamtgesetz Bundesministerium für Familie, Senioren, Frauen und Jugend Bundesministerium für Justiz Bundesministerium für Justiz und Verbraucherschutz Bundesratsdrucksache Bundesrepublik Deutschland Bundestagsdrucksache Gesetz zur Stärkung der Bürgerrechte Bundesverfassungsgericht Entscheidungen des Bundesverfassungsgerichts Bundesverfassungsgerichtsgesetz Entscheidungen des Bundesverwaltungsgerichts beziehungsweise
14 C19-MaßnG
CDU CMLR CR DAV DGRI DRiZ DS-GVO DSA DSA-E DSRITB DuD DVBl ECD ECLI EG EGMR EMRK endg. et al. EU EuGH EuR EUV EuZW f. FDP ff. Frankfurt/M. FSM GG gen. GmbH GmbHG GRCh GRUR GRUR Int GRUR-Prax Harv. L. Rev. Hervorh. d. Verf.
Abkürzungsverzeichnis Gesetz über Maßnahmen im Gesellschafts-, Genossenschafts-, Vereins-, Stiftungs- und Wohneigentumsrecht zur Bekämpfung der Auswirkungen der COVID-19-Pandemie Christlich Demokratische Union Common Market Law Review Computer und Recht Deutscher Anwaltverein Deutsche Gesellschaft für Recht und Informatik e.V. Deutsche Richterzeitung Datenschutz-Grundverordnung Digital Services Act Digital Services Act Entwurf Deutsche Stiftung für Recht und Informatik Tagungsband Datenschutz und Datensicherheit Deutsches Verwaltungsblatt E-Commerce Directive European Case Law Identifier Europäische Gemeinschaft Europäischer Gerichtshof für Menschenrechte Europäische Menschenrechtskonvention endgültig und andere Europäische Union Gerichtshof der Europäischen Union Zeitschrift Europarecht Vertrag über die Europäische Union Europäische Zeitschrift für Wirtschaftsrecht folgende Seite Freie Demokratische Partei folgende Seiten Frankfurt am Main Freiwillige Selbstkontrolle Multimedia-Diensteanbieter e.V. Grundgesetz genannt Gesellschaft mit beschränkter Haftung Gesetz betreffend die Gesellschaften mit beschränkter Haftung Charta der Grundrechte der Europäischen Union Gewerblicher Rechtsschutz und Urheberrecht Gewerblicher Rechtsschutz und Urheberrecht Internationaler Teil Gewerblicher Rechtsschutz und Urheberrecht, Praxis im Immaterialgüter und Wettbewerbsrecht Harvard Law Review Hervorhebung durch die Verfasserin
Abkürzungsverzeichnis Hrsg. i. d. F. i.V. m. JA jM JMStV jurisPR-StrafR JuS K&R KJ KOM KoPl-G KriPoZ KritV LfM LG lit. Maastricht J. Eur. & Comp. L. MDL MMR MMR-Beil. NetzDG NetzDG-ÄndG-E NJOZ NJW No. NRW NVwZ NZWiSt OLG OWiG Pegida PinG RDi RL Rn. Rs. RStV RW
15
Herausgeber in der Fassung in Verbindung mit Juristische Arbeitsblätter juris – die Monatszeitschrift Jugendmedienschutz-Staatsvertrag juris PraxisReport Strafrecht Juristische Schulung Kommunikation und Recht Kritische Justiz Kommission Kommunikationsplattformen-Gesetz Kriminalpolitische Zeitschrift Kritische Vierteljahresschrift für Gesetzgebung und Rechtswissenschaft Landesanstalt für Medien NRW Landgericht litera Maastricht Journal of European and Comparative Law Mitglied des Landtages Multimedia und Recht Multimedia und Recht Beilage Netzwerkdurchsetzungsgesetz Entwurf eines Gesetzes zur Änderung des Netzwerkdurchsetzungsgesetzes Neue Juristische Online-Zeitschrift Neue Juristische Wochenschrift Numero Nordrhein-Westfalen Neue Zeitschrift für Verwaltungsrecht Neue Zeitschrift Wirtschafts-, Steuer- und Unternehmensstrafrecht Oberlandesgericht Ordnungswidrigkeitengesetz Patriotische Europäer gegen die Islamisierung des Abendlandes Privacy in Germany Recht Digital Richtlinie Randnummer Rechtssache Rundfunkstaatsvertrag Rechtswissenschaft
16 S. S. SEC Stan. L. Rev. Online StGB TKG TMG TTDSG UAbs. UFITA UGC Urt. USA v. VG VVDStRL WuW ZfM ZPO ZRP ZUM ZUM-RD
Abkürzungsverzeichnis Satz Seite United States and Exchange Commission Stanford Law Review Online Strafgesetzbuch Telekommunikationsgesetz Telemediengesetz Telekommunikation-Telemedien-Datenschutz-Gesetz Unterabsatz Archiv für Medienrecht und Medienwissenschaft User Generated Content Urteil United States of America vom Verwaltungsgericht Veröffentlichungen der Vereinigung der Deutschen Staatsrechtslehrer Wirtschaft und Wettbewerb Zeitschrift für Medienwissenschaft Zivilprozessordnung Zeitschrift für Rechtspolitik Zeitschrift für Urheber- und Medienrecht Zeitschrift für Urheber- und Medienrecht – Rechtsprechungsdienst
Kapitel 1
Einleitung „Die größte Gefahr für die Meinungsfreiheit ist ein Zustand, in dem ohne Konsequenzen bedroht, beleidigt und eingeschüchtert werden darf. Dieser Hass und diese Hetze im Netz sind die wahren Feinde der Meinungsfreiheit.“ [Hervorh. d. Verf.] 1
Mit diesen Worten warb Heiko Maas in der ersten Beratung für den Entwurf eines Gesetzes zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (Netzwerkdurchsetzungsgesetz – NetzDG).2 Die Intention hinter dem Gesetzentwurf, rechtswidrige Inhalte in sozialen Netzwerken konsequent zu löschen, ist grundsätzlich begrüßenswert. Das NetzDG zur Umsetzung dieser gesetzgeberischen Intention ist jedoch „schön gedacht, schlecht gemacht“.3
A. Anlass der Untersuchung In den letzten zwanzig Jahren hat sich das Internet mit enormer Geschwindigkeit entwickelt und mit ihm die sozialen Netzwerke. Auch wenn sich die Anfänge sozialer Netzwerke bereits auf die 1990er Jahre datieren lassen, erfolgte ihr Durchbruch in Form einer breiten Nutzung erst Mitte der 2000er Jahre.4 Nach und nach entstanden verschiedene Plattformtypen, die sich in ihrer inhaltlichen Ausrichtung unterscheiden. Während Plattformen wie Facebook helfen sollen, Kontakt zum Freundeskreis zu halten, stehen bei Plattformen wie YouTube und Instagram vom Nutzer5 kreierte Inhalte im Vordergrund.6 Demgegenüber sind Microblogging-Dienste in ihrem Ursprung kleine Blogs, in denen kurze Nachrichten chronologisch dargestellt werden.7 Mit wachsenden Nutzerzahlen hat sich auch die Bedeutung dieser Plattformen gewandelt. Neben der privaten Kommunikation dienen sie in den letzten Jahren zunehmend dem gesellschaftlichen Dis1 Heiko Maas (Bundesminister der Justiz und für Verbraucherschutz), Erste Beratung zum NetzDG, Plenarprotokoll 18/235, S. 23848 (C). 2 Entwurf eines Gesetzes zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (Netzwerkdurchsetzungsgesetz – NetzDG), BT-Drs. 18/12356. 3 Guggenberger, ZRP 2017, 98. 4 Taddicken/Schmidt, in: Schmidt/Taddicken, Handbuch Soziale Medien, S. 3 (10). 5 Aufgrund der besseren Lesbarkeit wird in der vorliegenden Arbeit das generische Maskulinum verwendet. Gemeint sind jedoch stets alle Geschlechter. 6 Taddicken/Schmidt, in: Schmidt/Taddicken, Handbuch Soziale Medien, S. 3 (10 f.). 7 Taddicken/Schmidt, in: Schmidt/Taddicken, Handbuch Soziale Medien, S. 3 (12).
18
Kap. 1: Einleitung
kurs und der öffentlichen Meinungsbildung und durchbrechen damit die ursprüngliche Dominanz der herkömmlichen Medien.8 Der Großteil der Internetnutzer ist nicht allein Konsument von Inhalten, sondern steuert auch selbst Inhalte bei. Damit ist insbesondere die Informationsverbreitung nicht mehr nur den Journalisten vorbehalten. Die Inhalte werden den Netzwerkmitgliedern keineswegs völlig willkürlich präsentiert, sondern durch die Plattformen algorithmenbasiert priorisiert.9 Doch mit der Etablierung sozialer Netzwerke als Kommunikationsräume ist auch das Thema Hasskriminalität in den Fokus des gesellschaftlichen Diskurses gerückt. Immer mehr Nutzer werden online mit strafrechtlich relevanten Inhalten konfrontiert. Dass das Internet kein rechtsfreier Raum ist, ist sicherlich allgemeiner Konsens. Dennoch konnten die Nutzer sozialer Netzwerke in den letzten Jahren den Eindruck gewinnen, dass die Strafverfolgung im Internet schleppend bis gar nicht vonstattengeht.10 Dabei unterscheidet das Strafrecht keineswegs, ob eine Straftat offline oder online begangen wird. Es tut sich jedoch schwer mit den Begleitumständen der Online-Welt, die die Durchsetzung des geltenden Rechts erheblich erschweren. Was einerseits in Bezug auf die Kommunikation über soziale Netzwerke und den Austausch von Meinungen ein erheblicher Vorteil ist, ist andererseits ein Hemmnis für die Strafverfolgung: Die schnelle Verbreitung von Inhalten verbunden mit einer hohen Reichweite sowie die in der Online-Welt vorherrschende Anonymität bieten ideale Möglichkeiten für die Begehung von Straftaten und erschweren gleichzeitig deren Sanktionierung. Insbesondere stellt die Ermittlung der Täter bei Online-Kriminalität eine erhebliche Hürde für die Strafverfolgungsbehörden dar. Aufgrund der Schnelllebigkeit des Internets und der einfachen Verbreitung von Inhalten ist es zudem schwierig, einmal veröffentlichte Inhalte wieder zu löschen. Strafbare Inhalte können somit im Netz eine deutlich größere Reichweite erlangen als in der analogen Welt. Um dem Eindruck des rechtsfreien Raums entgegenzuwirken, gab es verschiedene Initiativen, dem Problem der Hasskriminalität Einhalt zu gebieten. Doch weder der Code of Conduct der Europäischen Kommission11 noch die von Heiko Maas 2015 ins Leben gerufene Task Force12 hatten den gewünschten Erfolg. Da das Bauen auf Freiwilligkeit insofern gescheitert war, wurden 2017 mit dem Netzwerkdurchsetzungsgesetz gesetzliche Vorgaben geschaffen. Dem Gesetzge-
8
Taddicken/Schmidt, in: Schmidt/Taddicken, Handbuch Soziale Medien, S. 3 (5). Stark/Magin/Jürgens, UFITA 2018, 103 (104 f.). 10 Münch, in: Sensburg, Sicherheit in einer digitalen Welt, S. 9 (10 f.). 11 The EU Code of conduct on countering illegal hate speech online v. 31.05.2016. 12 Task Force „Umgang mit rechtswidrigen Hassbotschaften im Internet“ v. 15.12. 2015. 9
B. Fragestellung
19
bungsvorhaben schlug jedoch eine Welle der Kritik entgegen,13 mit dem Ergebnis, dass sich sowohl das Bundesverfassungsgericht14 als auch das Verwaltungsgericht Köln15 mit dem NetzDG beschäftigen mussten. Auch vier Jahre nach Inkrafttreten des NetzDG reißt die Kritik nicht ab.16 Befeuert wurde sie zuletzt durch die Neuregelungen, die das NetzDG durch das Gesetz zur Änderung des NetzDG17 sowie durch das Gesetz zur Bekämpfung des Rechtsextremismus und der Hasskriminalität18 erfahren hat. Das Thema ist insofern nach wie vor von großer Brisanz, nicht zuletzt aufgrund der Bedeutung sozialer Netzwerke für die öffentliche Kommunikation. Die hohen Nutzerzahlen dieser Plattformen machen das Thema Hasskriminalität im Netz zu einem gesamtgesellschaftlichen Problem. Allein in Deutschland nutzen 66 Millionen Menschen soziale Medien.19 76 % der Onlinenutzer sind im Netz schon mit Hassrede konfrontiert worden.20 Dass Hass im Netz ein anhaltendes Problem ist, hat zuletzt die Bundestagswahl im September 2021 gezeigt. In den sozialen Netzwerken erfolgten zahlreiche Angriffe auf die Spitzenkandidaten mit potenziell beleidigender oder verletzender Sprache, wovon ein Teil strafbar sein dürfte.21 Insofern ist das Vorgehen gegen Hass in sozialen Netzwerken ein wichtiges Anliegen. Ob das NetzDG dafür der richtige Weg ist, kann man jedoch infrage stellen.
B. Fragestellung Der Ansatz des NetzDG, Strafrecht auch im Internet konsequenter durchzusetzen, ist in der Sache richtig. Allerdings wirft das NetzDG in seiner konkreten Umsetzung eine Reihe von Bedenken auf. Der Fokus medialer Berichterstattung und wissenschaftlicher Abhandlungen lag dabei allzu oft auf der Verfassungs13 Ein Ausschnitt der vielstimmigen Kritik in der Rechtswissenschaft: Gersdorf, MMR 2017, 439; Guggenberger, NJW 2017, 2577; Hoeren, Netzwerkdurchsetzungsgesetz europarechtswidrig, beck-blog v. 30.03.2017; Koreng, GRUR-Prax 2017, 203; Ladeur/Gostomzyk, K&R 2017, 390; Wimmers/Heymann, AfP 2017, 93. 14 BVerfG, Beschl. v. 23.04.2019 – 1 BvR 2314/18, NVwZ 2019, 1125; Guggenberger et al., NetzDG: im Zweifel gegen die Meinungsfreiheit. 15 VG Köln, Urt. v. 14.02.2019 – 6 K 4318/18, MMR 2019, 342. 16 Gessinger, K&R 2021, 541; Höferlin/Widlok, MMR 2021, 277; Niggemann, CR 2020, 326. 17 Gesetz zur Änderung des Netzwerkdurchsetzungsgesetzes v. 03.06.2021, BGBl. I S. 1436. 18 Gesetz zur Bekämpfung des Rechtsextremismus und der Hasskriminalität v. 30.03.2021, BGBl. I S. 441. 19 Data Reportal, Digital 2021 Germany, abrufbar unter: https://datareportal.com/re ports/digital-2021-germany?rq=Germany. 20 Hate Speech Forsa Studie 2021, abrufbar unter: https://www.medienanstalt-nrw. de/fileadmin/user_upload/NeueWebsite_0120/Themen/Hass/forsa_LFMNRW_Hassrede 2021_Praesentation.pdf, S. 5. 21 Hate Aid, #2 Hass als Berufsrisiko, abrufbar unter: https://hateaid.org/wp-content/ uploads/2021/09/Report-2-Hass-als-Berufsrisiko.pdf.
20
Kap. 1: Einleitung
konformität des NetzDG. Neben der Frage nach der formellen Verfassungsmäßigkeit steht in diesem Zusammenhang auch die Frage nach der Vereinbarkeit mit den Grundrechten im Raum. Angesichts der Bedeutung des Unionsrechts für die nationale Rechtssetzung ist der Frage nach der Unionsrechtskonformität des NetzDG jedoch mindestens ebenso viel, wenn nicht gar mehr Beachtung zu schenken. In der vorliegenden Arbeit soll daher geprüft werden, ob das NetzDG mit unionsrechtlichen Vorgaben vereinbar ist. Der Fragestellung kommt aber auch eine über die Betrachtung nationaler Gesetzgebung hinausgehende Bedeutung zu. Der deutsche Gesetzgeber ist mit der Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken vorangeschritten und hat die Weichen für eine europäische Regulierung gestellt. Zunächst wurden vergleichbare Regelungen in anderen Staaten umgesetzt; und auch für den geplanten Digital Services Act diente das deutsche NetzDG als Vorbild. Eine zentrale Frage jedoch betrifft all diese Regulierungskonzepte gleichermaßen: Wie kann ein Vorgehen gegen Hasskriminalität und Falschnachrichten – die zweifelsohne ein gewichtiges Problem im Zeitalter der sozialen Netzwerke sind – mit den Grundrechten der Europäischen Union in Einklang gebracht werden? Diese anhand des NetzDG untersuchte Frage betrifft letztlich jede Form der Regulierung von Kommunikationsinhalten. Da die Bundesrepublik Deutschland Mitgliedstaat der Europäischen Union ist, unterliegt ihr nationales Recht dem Anwendungsvorrang des Unionsrechts.22 Auch wenn die Staaten ihre Souveränität durch die Mitgliedschaft in der Europäischen Union nicht aufgegeben haben, werden viele Rechtsbereiche im nationalen Recht vom Unionsrecht beeinflusst oder determiniert.23 So ist auch der Bereich sozialer Netzwerke durch Richtlinien und Verordnungen unionsrechtlich geprägt. Das NetzDG muss sich aufgrund des unionsrechtlichen Anwendungsvorrangs an diesen Vorschriften messen lassen. Sowohl auf primärrechtlicher Ebene als auch auf sekundärrechtlicher Ebene stehen zahlreiche Verstöße gegen das Unionsrecht im Raum. Auf primärrechtlicher Ebene wird insbesondere die Vereinbarkeit mit der Europäischen Grundrechtecharta (GRCh) einer genauen Begutachtung unterzogen. Sie findet dann Anwendung auf mitgliedsstaatliches Handeln, wenn damit Unionsrecht im Sinne des Art. 51 Abs. 1 GRCh durchgeführt wird. Auf sekundärrechtlicher Ebene stellt sich vorrangig die Frage nach der Vereinbarkeit des NetzDG mit der E-Commerce-Richtlinie (ECRL). Das Herkunftslandprinzip spielt an dieser Stelle eine entscheidende Rolle. Darf Deutschland die Anbieter, die es mit dem NetzDG eindeutig in den Fokus genommen hat, überhaupt regulieren? 22 23
Zur Anwendbarkeit des Unionsrechts siehe Kapitel 3 A. I. 5. a). Gourdet, Europäischer Grundrechtsschutz, S. 99.
C. Gang der Untersuchung
21
C. Gang der Untersuchung Im zweiten Kapitel der vorliegenden Arbeit erfolgt zunächst die Vorstellung der Untersuchungsgegenstände. In einem ersten Schritt werden die Begriffe des sozialen Netzwerks, der Hassrede und der Falschnachrichten erläutert. Sodann folgt ein Überblick über das Gesetzgebungsverfahren sowie eine Zusammenfassung des Inhalts des NetzDG. Anschließend wird der unionsrechtliche Rahmen, der für die Regulierung sozialer Netzwerke relevant ist, in Kurzfassung vorgestellt. Anschließend wird die Vereinbarkeit des NetzDG mit unionsrechtlichen Vorgaben untersucht. Dies beginnt in Kapitel 3 mit der Frage, ob die Nutzer sozialer Netzwerke in ihren Rechten beeinträchtigt werden. Als erster Themenkomplex wird der Frage nachgegangen, ob das NetzDG einen Anreiz zum Overblocking setzt und ob ein solcher Anreiz gegen die Rechte der Netzwerkmitglieder verstößt. Insbesondere steht die Vereinbarkeit mit der Meinungsfreiheit der Nutzer aus Art. 11 Abs. 1 GRCh im Fokus der Untersuchung. Zudem kommt die Verletzung der virtuellen Versammlungsfreiheit aus Art. 12 Abs. 1 GRCh in Betracht. Des Weiteren werden mögliche Rechtsverletzungen durch Chilling Effects sowie durch die Privatisierung der Rechtsdurchsetzung geprüft. Im Anschluss daran werden die datenschutzrechtlichen Fragen behandelt, die sich durch die Auskunftsbefugnis aus § 21 Abs. 2 TTDSG sowie in besonderem Maße durch die Meldung bestimmter rechtswidriger Inhalte an das BKA ergeben. Nach der Prüfung möglicher Rechtsverletzungen der Nutzer schließt sich die Untersuchung an, ob auch die Rechte der Diensteanbieter durch die Vorschriften des NetzDG verletzt werden. Zu Beginn wird überprüft, ob die CompliancePflichten des NetzDG die Grundrechte der Betreiber sozialer Netzwerke, namentlich die Medienfreiheit aus Art. 11 Abs. 2 GRCh sowie die unternehmerische Freiheit aus Art. 16 GRCh, verletzen. Die weiteren Ausführungen befassen sich mit den weitreichenden Befugnissen des Bundesamts für Justiz. Es folgt eine Auseinandersetzung mit dem Anwendungsbereich des NetzDG. Denn das Herkunftslandprinzip aus Art. 3 Abs. 2 E-Commerce-Richtlinie besagt, dass der Dienst im Empfangsstaat keinen strengeren Regeln unterworfen werden darf als im Staat der Niederlassung. Sofern keine Ausnahmen einschlägig sind, liegt ein Verstoß gegen dieses Prinzip vor. Das Kapitel endet mit der Frage, ob die Vorschriften des NetzDG mit den Haftungsregelungen aus Art. 14 E-CommerceRichtlinie zu vereinbaren sind. Im letzten Kapitel erfolgt ein Ausblick in zweierlei Richtung. Zum einen stellt sich die Frage, ob das NetzDG einen erfolgreichen Abschnitt in der Geschichte der Internetregulierung darstellt, zum anderen erfolgt ein Ausblick auf ein unionsrechtliches Regulierungsvorhaben, den Digital Services Act, der das NetzDG ablösen könnte.
Kapitel 2
Das NetzDG und der unionsrechtliche Regulierungsrahmen Zunächst ist der Untersuchungsgegenstand dieser Arbeit näher zu beleuchten. Daher wird im Folgenden das NetzDG im Hinblick auf den Inhalt und die Zielsetzung beschrieben sowie der unionsrechtliche Regulierungsrahmen erläutert, gegen den das NetzDG verstoßen könnte.
A. Das Netzwerkdurchsetzungsgesetz Zum besseren Verständnis des Gesetzes werden im ersten Schritt die Begrifflichkeiten der sozialen Netzwerke sowie Hassrede und Falschnachrichten konkretisiert, bevor im Anschluss das Gesetzgebungsverfahren und der Inhalt des NetzDG in Kurzfassung dargestellt werden.
I. Hintergrund des NetzDG Das NetzDG wurde mit der Zielsetzung auf den Weg gebracht, die Debattenkultur in sozialen Netzwerken zu verbessern.1 Die Problematik der Hassrede und der Falschnachrichten soll bekämpft werden, indem eine effektivere Rechtsdurchsetzung in sozialen Medien etabliert wird.2 1. Soziale Netzwerke Ganz allgemein gesagt, sind soziale Netzwerke Plattformen im Internet, die ihren Nutzern die Möglichkeit eröffnen, mit anderen Nutzern in Kontakt zu treten. Dieser Kontakt kann sowohl privater als auch beruflicher Natur sein. Neben der Kommunikation in Schriftform ermöglichen die meisten Plattformen auch das Teilen von Bildern, Filmen oder Musik.3 In der Regel ist eine Registrierung auf der Plattform notwendig, um das Angebot vollumfänglich nutzen zu können.4 Freilich treffen diese Merkmale auf unzählige Onlineplattformen zu. Für die vorliegende Arbeit muss der Begriff daher eine Einschränkung erfahren. In Anbetracht dessen, dass sich die folgende Untersuchung mit dem NetzDG befasst, 1 2 3 4
BT-Drs. 18/12356, S. 1. BT-Drs. 18/12356, S. 1. Redeker, IT-Recht, Rn. 1276. Redeker, IT-Recht, Rn. 1277.
A. Das Netzwerkdurchsetzungsgesetz
23
werden unter sozialen Netzwerken nur solche verstanden, die auch vom Anwendungsbereich des NetzDG erfasst werden. a) Definition „soziale Netzwerke“ Das NetzDG selbst schafft in § 1 Abs. 1 S. 1 erstmals eine Legaldefinition des bisher gesetzlich nicht näher bestimmten Begriffs der sozialen Netzwerke. Demnach sind soziale Netzwerke „Telemediendiensteanbieter, die mit Gewinnerzielungsabsicht Plattformen im Internet betreiben, die dazu bestimmt sind, dass Nutzer beliebige Inhalte mit anderen Nutzern teilen oder der Öffentlichkeit zugänglich machen.“ Der Begriff der Telemedien ist wiederum in § 1 Abs. 1 TMG definiert und umfasst alle elektronischen Informations- und Telekommunikationsdienste soweit sie keine Telekommunikationsdienste oder telekommunikationsgestützten Dienste im Sinne des § 3 Nr. 61 und 63 TKG oder Rundfunk im Sinne des § 2 RStV sind. Im Einzelfall, wie zum Beispiel bei Live-Streaming-Angeboten, kann es Schwierigkeiten in der Abgrenzung zum Rundfunk geben.5 Regelmäßig fehlt bei solchen Live-Streams die erforderliche journalistisch-redaktionelle Gestaltung sowie ein Sendeplan, in den sich die Streams integrieren, sodass sie nicht als Rundfunk zu qualifizieren sind.6 Die allgemein bekannten Dienste wie beispielsweise Facebook, Twitter und Instagram sind als Telemedien zu qualifizieren.7 Die Definition setzt weiterhin voraus, dass eine Gewinnerzielungsabsicht seitens der Diensteanbieter vorliegt. Auf den tatsächlich erzielten Gewinn kommt es nicht an, sondern es muss lediglich die Absicht zur Gewinnerzielung erkennbar sein.8 Von dieser Absicht ist bei gewerblichen Unternehmen in der Regel auszugehen.9 Es kommt für die Feststellung der Gewinnerzielungsabsicht nicht darauf an, ob der Dienst kostenfrei oder kostenpflichtig genutzt werden kann. Denn die Gewinnerzielung kann auch durch weitere Erwerbsmodelle, wie beispielsweise das Platzieren von Werbung, erfolgen.10 Der Begriff der Plattform ist im NetzDG nicht definiert. Den Gesetzesmaterialien zufolge handelt es sich dem allgemeinen Sprachgebrauch nach bei Plattformen um Kommunikationsräume, „wo sich Kommunikation typischerweise an eine Mehrzahl von Adressaten richtet bzw. zwischen diesen stattfindet“.11 Damit 5
Erbs/Kohlhaas/Liesching, NetzDG § 1 Rn. 2. Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 16. 7 Erbs/Kohlhaas/Liesching, NetzDG § 1 Rn. 2. 8 Spindler/Schmitz/Liesching, NetzDG § 1 Rn. 47. 9 EuGH, Urt. v. 19.06.2014, Rs. C-574/12, ECLI:EU:C:2014:2004 Rn. 37 – Centro Hospitalar de Setúbal und SUCH. 10 Erbs/Kohlhaas/Liesching, NetzDG § 1 Rn. 4. 11 BT-Drs. 18/13013, S. 19. 6
24
Kap. 2: Das NetzDG und der unionsrechtliche Regulierungsrahmen
fallen solche Dienste unter den Plattformbegriff, bei denen der Austausch von Inhalten zu Kommunikationszwecken im Vordergrund steht, sofern es sich nicht um Individualkommunikation handelt.12 Darüber hinaus muss die Plattform dazu bestimmt sein, dass Nutzer beliebige Inhalte teilen oder der Öffentlichkeit zugänglich machen können. Diese Anforderung zielt nicht auf die Kommunikationsform, sondern vielmehr auf den Kommunikationsinhalt ab.13 Ausweislich der Gesetzesbegründung sind nur solche sozialen Netzwerke erfasst, die keine spezielle Themen- oder Nutzerfestlegung haben.14 Daher sollen Netzwerke mit themenspezifischer Ausrichtung, wie zum Beispiel berufliche Netzwerke, nicht in den Anwendungsbereich des NetzDG fallen.15 Unschädlich ist es jedoch, wenn die Nutzer das Netzwerk nur für bestimmte Themen aufsuchen. Es kommt lediglich auf die von der Plattform vorgegebene inhaltliche Ausrichtung an.16 Der Gesetzesbegründung zufolge ist unter Teilen das Zugänglichmachen eigener oder bereits vorhandener Inhalte einem ausgewählten Nutzerkreis oder allen Nutzern zu verstehen.17 Gleichermaßen können Inhalte auch der Öffentlichkeit zugänglich gemacht werden, wenn der Empfang durch eine Öffentlichkeit ermöglicht wird.18 b) Ausnahmetatbestände im NetzDG In § 1 Abs. 1 S. 2 und 3 NetzDG werden bestimmte Plattformen vom Anwendungsbereich ausgenommen. Die Ausnahmetatbestände bekräftigen lediglich, was sich bereits aus der Definition des S. 1 ergibt. Gemäß § 1 Abs. 1 S. 2 NetzDG werden Plattformen mit journalistisch-redaktionell gestalteten Angeboten, die vom Diensteanbieter selbst verantwortet werden, vom Anwendungsbereich ausgenommen. Diese Plattformen sind in der Regel schon nicht dazu bestimmt, dass Nutzer beliebige Inhalte auf ihnen teilen und insofern ohnehin nicht von der Definition erfasst.19 Journalistisch-redaktionell bedeutet, dass „Inhalte ausgewählt, gewichtet und für den Nutzer aufgearbeitet werden“.20 Zwar nehmen soziale Netzwerke auch eine Sortierung von Inhalten, zugeschnitten auf die Interessen der Nutzer, vor. Dabei handelt es sich jedoch um eine algorithmisch gesteuerte
12 Erbs/Kohlhaas/Liesching, NetzDG § 1 Rn. 5; Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 10. 13 Spindler/Schmitz/Liesching, NetzDG § 1 Rn. 50; Spindler, K&R 2017, 533 (534). 14 BT-Drs. 18/12356, S. 19. 15 BT-Drs. 18/12356, S. 19. 16 BT-Drs. 18/12356, S. 19. 17 BT-Drs. 18/12356, S. 18. 18 BT-Drs. 18/12356, S. 18 f. 19 Erbs/Kohlhaas/Liesching, NetzDG § 1 Rn. 8. 20 Binder/Vesting/Held, RStV § 54 Rn. 49.
A. Das Netzwerkdurchsetzungsgesetz
25
Auswahl und nicht um eine inhaltliche Aufbereitung der Themen.21 Gleichermaßen dient auch S. 3 der Klarstellung, wonach inhaltsspezifische Plattformen sowie Plattformen, die zur Individualkommunikation bestimmt sind, vom Anwendungsbereich ausgeschlossen werden. Inhaltsspezifische Plattformen dienen gerade nicht dazu beliebige Inhalte zu teilen.22 Zu Abgrenzungsschwierigkeiten kann dagegen der Ausschluss von Plattformen zur Individualkommunikation führen. Denn nicht jede Plattform lässt sich hinsichtlich ihrer Nutzung zur Individual- oder Gruppenkommunikation eindeutig einordnen.23 Soweit die Funktionen der Plattform voneinander abgegrenzt werden können, unterfällt nur derjenige Teil des sozialen Netzwerks dem NetzDG, der der Massenkommunikation dient.24 c) Funktionen sozialer Netzwerke Ganz allgemein zeichnen sich soziale Netzwerke dadurch aus, dass den Nutzern eine Plattform geboten wird, die ihnen eine Vielzahl von Austauschmöglichkeiten und das Unterhalten von sozialen Beziehungen ermöglicht.25 Für die aktive Nutzung der Plattform muss sich der Nutzer registrieren. Damit einhergehend wird in der Regel ein Profil angelegt, auf dem, mehr oder weniger umfangreich, Informationen über den jeweiligen Nutzer preisgegeben werden.26 Sämtlichen sozialen Netzwerken ist gemein, den Nutzern das Erstellen von eigenen Inhalten zu ermöglichen, die veröffentlicht, geteilt und weitergeleitet werden können.27 Um dem Nutzer interessengerecht Inhalte präsentieren zu können, werden Inhalte mittels algorithmischer Berechnung möglichst passgenau priorisiert.28 Eine weitere charakteristische Funktion sozialer Netzwerke ist das Verbinden der Nutzer untereinander. Dem gegenseitigen Vernetzen dient das Anlegen einer Freundes- oder Kontaktliste, während die Funktion Nutzern zu folgen eine einseitige Vernetzung darstellt.29 Grob eingeteilt werden können die Funktionen der Plattformen nach den Bedürfnissen der Nutzer nach „Identitätsmanagement“, 21 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 297. 22 Erbs/Kohlhaas/Liesching, NetzDG § 1 Rn. 11. 23 Erbs/Kohlhaas/Liesching, NetzDG § 1 Rn. 10; Spindler, K&R 2017, 533 (534). 24 OLG Frankfurt/M., Urt. v. 06.09.2018 – 16 W 27/18, ZUM-RD 2019, 145 (149 f.); Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 299; Guggenberger, NJW 2017, 2577 (2578). 25 Schmidt/Taddicken, in: Schmidt/Taddicken, Handbuch Soziale Medien, S. 23 (24). 26 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 26. 27 Schmidt/Taddicken, in: Schmidt/Taddicken, Handbuch Soziale Medien, S. 23 (25 ff.). 28 Hoffmann-Riem, AöR 142 (2017), 1 (11 ff.). 29 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 27.
26
Kap. 2: Das NetzDG und der unionsrechtliche Regulierungsrahmen
„Beziehungsmanagement“ und „Informationsmanagement“. 30 Unter Identitätsmanagement versteht man die Selbstdarstellung der Nutzer, sei es durch das Veröffentlichen von Texten, Videos oder Fotos oder auch durch das Teilen und Kommentieren fremder Inhalte.31 Soziale Medien haben sich zudem als bedeutendes Instrument zum Beziehungsmanagement entwickelt, indem sie die Kontaktpflege und das Kontakteknüpfen gleichermaßen ermöglichen.32 Die in Bezug auf die vorliegende Arbeit relevanteste Komponente ist das Informationsmanagement. Die dazugehörigen Funktionen sozialer Netzwerke erleichtern den Nutzern zum einen Informationen auszuwählen und nach Relevanz zu filtern und zum anderen selbst Informationen zu erstellen und zu verbreiten.33 Im Gegensatz zu klassischen journalistischen Medien steht es Nutzern sozialer Medien offen, selbst in die Rolle des Informationsanbieters zu schlüpfen.34 Hinzu kommt, dass durch die Nutzung von Smartphones das Internet und damit auch die sozialen Netzwerke jederzeit erreichbar sind. Damit haben soziale Netzwerke mittlerweile eine große Bedeutung für die öffentliche Meinungsbildung erlangt.35 Gleichzeitig haben die sozialen Netzwerke auch eine große Relevanz für die Meinungsäußerung der Nutzer. Nicht zuletzt, weil man bei der Kommunikation im Internet die eigene Identität verbergen kann. Denn im Schutz der Anonymität fühlen sich viele Menschen freier in ihren Äußerungen. Die Gründe dafür sind vielfältig. Letztlich zeigt sich damit auch, dass die sozialen Netzwerke ein wichtiges Medium zur Meinungsäußerung und damit zur Wahrung der Meinungsfreiheit darstellen.36 Diese ist ein entscheidendes Grundrecht für Freiheit und Demokratie;37 daher ist an die Einschränkung der Meinungsfreiheit ein strenger Maßstab anzulegen. Wie die obigen Ausführungen gezeigt haben, sind soziale Netzwerke nicht nur ein Medium für den Zeitvertreib und die Kommunikation mit Freunden, sondern auch ein Medium für die (politische) Meinungsbildung und -äußerung. Insofern ist auch an die Einschränkung der Meinungsfreiheit in sozialen Netzwerken ein strenger Maßstab anzulegen. 2. Hassrede, Hasskriminalität und Falschnachrichten in sozialen Netzwerken Mit dem NetzDG soll ein Beschwerdemanagement geschaffen werden, mit dem Hasskriminalität und Falschnachrichten auf sozialen Netzwerken entgegen30
Schmidt/Taddicken, in: Schmidt/Taddicken, Handbuch Soziale Medien, S. 23 (32). Schmidt/Taddicken, in: Schmidt/Taddicken, Handbuch Soziale Medien, S. 23 (32). 32 Schmidt/Taddicken, in: Schmidt/Taddicken, Handbuch Soziale Medien, S. 23 (33). 33 Schmidt/Taddicken, in: Schmidt/Taddicken, Handbuch Soziale Medien, S. 23 (33). 34 Neuberger, in: Schmidt/Taddicken, Handbuch Soziale Medien, S. 101 (104). 35 Emmer, in: Schmidt/Taddicken, Handbuch Soziale Medien, S. 81 (92). 36 Dörig, jM 2015, 423. 37 EuGH, Urt. v. 22.01.2013, Rs. C-283/11, ECLI:EU:C:2013:28 Rn. 52 – Sky Österreich. 31
A. Das Netzwerkdurchsetzungsgesetz
27
gewirkt werden kann.38 Zum besseren Verständnis des NetzDG sollen daher diese Begrifflichkeiten kurz umrissen werden. a) Hassrede und Hasskriminalität Das Thema „Hass im Internet“ ist in den letzten Jahren zunehmend in den Fokus des öffentlichen Diskurses gelangt. Im Zuge dieser Debatten wurde das Phänomen mit einer Vielzahl von Begriffen umschrieben: Netzhass, Hassrede, Hate Speech, Online-Hass, digitaler Hass, viraler Hass, Hass 2.0.39 Am häufigsten wird der Begriff Hate Speech verwendet, der auf die seit langem geführte Debatte in den USA zurückgeht.40 In dieser Arbeit soll jedoch der deutsche Begriff Hassrede zugrunde gelegt werden, der auch in der Begründung zum NetzDG verwendet wird.41 Eine einheitliche Definition des Begriffs Hassrede gibt es bisher nicht. Eine Annäherung bietet die Definition des Europarats: „,hate speech‘ shall be understood as covering all forms of expression which spread, incite, promote or justify racial hatred, xenophobia, anti-Semitism or other forms of hatred based on intolerance, including: intolerance expressed by aggressive nationalism and ethnocentrism, discrimination and hostility against minorities, migrants and people of immigrant origin.“42 Diese Definition beschreibt die vielschichtigen Formen von Hassrede. Den verschiedenen Definitionsansätzen des Begriffs Hassrede ist jedenfalls gemein, dass sie auf die Diskriminierung von Personen und Personengruppen aufgrund ihrer Ethnie, Religion, Geschlecht oder sexueller Orientierung abstellen.43 Entscheidend für die Abgrenzung von Hassrede zur „einfachen Diskriminierung“ ist, dass die Äußerung nicht bloß die eigene Meinung darstellt, sondern ein Aufstacheln und Aufruf Dritter oder der Öffentlichkeit beinhaltet.44 Hassrede kann zudem in direkter und indirekter Form auftreten.45 Charakteristisch für die direkte Hassrede ist, dass Begrifflichkeiten genutzt werden, die eindeutig der Herabsetzung einzelner Personen oder Personengruppen dienen sollen.46 Bei der indirekten Hassrede hingegen handelt es sich um Äußerungen, 38
BT-Drs. 18/12356, S. 1 f. Fleischhack, in: Kaspar/Gräßer/Riffi, Online Hate Speech, S. 23. 40 Apostel, KriPoZ 2019, 287 (288). 41 BT-Drs. 18/12356, S. 11. 42 Council of Europe, Committee of Ministers, Recommendation No. R (97) 20 of the Committee of Ministers to Member States on „Hate Speech“. 43 Woger/Männig, PinG 2017, 233 (234). 44 Woger/Männig, PinG 2017, 233 (234). 45 Meibauer, in: Meibauer, Hassrede: interdisziplinäre Beiträge zu einer aktuellen Diskussion, S. 1 (1 f.); Woger/Männig, PinG 2017, 233 (234). 46 Meibauer, in: Meibauer, Hassrede: interdisziplinäre Beiträge zu einer aktuellen Diskussion, S. 1 (1 f.); Woger/Männig, PinG 2017, 233 (234). 39
28
Kap. 2: Das NetzDG und der unionsrechtliche Regulierungsrahmen
deren herabwürdigender Inhalt sich erst aus dem Kontext ergibt.47 Eine genaue Einordnung direkter oder indirekter Hassrede mag in Einzelfällen schwierig sein; sie ist für die rechtliche Bewertung aber ohnehin nicht zwingend erforderlich. Der Begriff Hassrede beschreibt das Phänomen allerdings aus zwei Gründen nicht treffend. Zum einen suggeriert Hassrede, dass die Äußerung von Hass motiviert ist.48 Es geht bei Hassrede aber weniger um die Motivation der Äußerung, sondern vielmehr um ihren Inhalt und die Folgen. Zum anderen impliziert der Begriff, dass es sich bei Hassrede zwingend um eine sprachliche Äußerung handeln müsste.49 Dies ist aber nicht unbedingt der Fall. Hassrede kann in einer Vielzahl von Formen auftreten. Darunter auch bildliche Darstellungen, Zeichnungen, das geschriebene und das gesprochene Wort. Auch wenn das Thema Hass im Internet erst seit kurzem verstärkt wahrgenommen wird, ist es kein neues Phänomen. Hassrede im Internet gibt es, seit es das Internet gibt.50 Durch die rasante Entwicklung der sozialen Medien in den letzten Jahren haben Anfeindungen im Internet gleichwohl eine ganz neue Dimension erfahren. So gaben in einer Umfrage 76 % der Onlinenutzer an, im Netz schon mit Hassrede konfrontiert worden zu sein.51 Im Internet treffen Hassrede und Falschnachrichten auf eine fruchtbare Umgebung. Zunächst ist die Verbreitung von Beiträgen in sozialen Netzwerken ohne nennenswerten Aufwand und Kosten möglich. Aufgrund der hohen Nutzerzahlen bei Netzwerken wie Facebook und Twitter können Beiträge eine große Reichweite erlangen. Neben der Viralität von Inhalten in sozialen Netzwerken ist ein weiterer Faktor für die große Wirkung von Hassrede im Online-Kontext die Haltbarkeit von Beiträgen.52 Einmal veröffentlicht, kann selbst ein später gelöschter Inhalt auf einer anderen Internetseite wieder auftauchen.53 Darüber hinaus bieten soziale Medien dem Nutzer eine gewisse Anonymität.54 So gestaltet sich die Identifizierung einer Person im Netz bereits aus technischer Sicht schwierig. Relevanter im Kontext von Hassrede im Internet ist jedoch die soziale Anonymität, die auftritt, wenn Internetnutzer sich untereinander ohne individuelle Identität
47 Meibauer, in: Meibauer, Hassrede: interdisziplinäre Beiträge zu einer aktuellen Diskussion, S. 1 (1 f.); Woger/Männig, PinG 2017, 233 (234). 48 Sponholz, Hate Speech in den Massenmedien, S. 50. 49 Sponholz, Hate Speech in den Massenmedien, S. 50. 50 Rafael/Ritzmann, in: Baldauf/Ebner/Guhl, Hassrede und Radikalisierung im Netz, S. 11. 51 Hate Speech Forsa Studie 2021, abrufbar unter: https://www.medienanstalt-nrw. de/fileadmin/user_upload/NeueWebsite_0120/Themen/Hass/forsa_LFMNRW_Hassrede 2021_Praesentation.pdf, S. 5. 52 Fleischhack, in: Kaspar/Gräßer/Riffi, Online Hate Speech, S. 23 (25 f.). 53 Fleischhack, in: Kaspar/Gräßer/Riffi, Online Hate Speech, S. 23 (25). 54 Kaspar, in: Kaspar/Gräßer/Riffi, Online Hate Speech, S. 63 (64).
A. Das Netzwerkdurchsetzungsgesetz
29
wahrnehmen.55 Dies kann dazu führen, dass die Hemmschwelle sinkt und Nutzer Aussagen tätigen, die sie in einer persönlichen Konfrontation im Offline-Gespräch unterlassen hätten.56 Der Hass im Online-Kontext ist meist durch aktuelle gesellschaftliche Entwicklungen geprägt.57 Neben fremdenfeindlichen Äußerungen treten derzeit vermehrt sexistische sowie homophobe Kommentare auf.58 Zudem lässt sich ein vermehrter Hass gegen die klassischen Medien (Stichwort Lügenpresse)59 sowie gegen die Politik als solche und gegen einzelne Politiker verzeichnen.60 Diese Entwicklung war im Jahr 2019 auch Anlass für den Vorschlag zur Änderung des Strafgesetzbuches, mit dem Ziel im politischen Leben stehende Personen besser vor solchen Angriffen zu schützen.61 Der Hass geht in vielen Fällen von Personen aus, die mit einem politischen Motiv in einer Gruppe organisiert sind.62 Es gibt aber auch nicht organisierte Verfasser von Hassrede. Häufig handelt sich dabei um sogenannte Trolle, die Nachrichten absetzen, um Aufmerksamkeit zu generieren, aus purer Langeweile oder aus Spaß anderen Nutzern zu schaden.63 Zunehmend steckt hinter Trolling auch die organisierte Hetze im Netz durch einzelne Gruppen.64 Die Übergänge zwischen reinem Spaß und politischer Motivation sind dabei fließend.65 Zwar greifen die Gesetzesmaterialien zum NetzDG den Begriff der Hassrede zunächst ebenfalls auf, im Übrigen wird jedoch in der Gesetzesbegründung – zutreffend – der Begriff Hasskriminalität verwendet.66 Denn Sanktionen können lediglich den Teil der Hassrede betreffen, der einen Straftatbestand erfüllt.67 Hass als solcher ist nicht per se verboten. Solange keine Straftaten begangen werden, mag Hass unangenehm und einer zivilisierten Debattenkultur nicht zuträglich sein. Er ist jedoch zulässig und muss in einer Demokratie ausgehalten werden.68 Denn von der Meinungsfreiheit umfasst sind auch solche Äußerungen, die „ver55
Kaspar, in: Kaspar/Gräßer/Riffi, Online Hate Speech, S. 63 (64). Kaspar, in: Kaspar/Gräßer/Riffi, Online Hate Speech, S. 63 (64). 57 Fleischhack, in: Kaspar/Gräßer/Riffi, Online Hate Speech, S. 23 (25). 58 Hate Speech – Hass im Netz, abrufbar unter: https://ajs.nrw/wp-content/uploads/ 2016/06/160617_HateSpeech_WEB2.pdf, S. 10 f. 59 Holtz/Kimmerle, in: Appel, Die Psychologie des Postfaktischen, S. 21 (21 f.). 60 Künast, DuD 2021, 368. 61 BR-Drs. 418/19. 62 Davey/Ebner, The Fringe Insurgency, S. 19 ff. 63 Shachaf/Hara, Journal of Information Science 2010, 357 (365). 64 Rieger/Dippold/Appel, in: Appel, Die Psychologie des Postfaktischen, S. 45 (52). 65 Rieger/Dippold/Appel, in: Appel, Die Psychologie des Postfaktischen, S. 45 (53). 66 BT-Drs. 18/12356, S. 11. 67 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 33. 68 Feldmann, K&R 2017, 292 (292 f.). 56
30
Kap. 2: Das NetzDG und der unionsrechtliche Regulierungsrahmen
letzen, schockieren oder beunruhigen“.69 Soweit in der vorliegenden Arbeit von Hassrede oder Hasskriminalität die Rede ist, ist dies im Sinne des NetzDG, also hinsichtlich der in § 1 Abs. 3 NetzDG genannten Straftatbestände, gemeint. b) Falschnachrichten Das Netzwerkdurchsetzungsgesetz hat neben der Bekämpfung von Hassrede auch die Eindämmung von Falschnachrichten zum Ziel.70 Die bereits im USWahlkampf 2016 geführte Diskussion um Fake News riss auch im nachfolgenden US-Wahlkampf 2020 nicht ab.71 Dieses Anliegen hat nach den Erfahrungen aus den USA auch in Deutschland eine hohe Priorität bekommen.72 Sogenannte Falschnachrichten oder Fake News sind bewusste Falschmeldungen.73 Der Begriff ist jedoch keineswegs trennscharf. Donald Trump nutzte diesen Terminus beispielsweise auch bei einem verbalen Angriff gegen die Medien („you are fake news“).74 Die in Deutschland geführte Debatte knüpft hingegen vielmehr an die Übersetzung als Falschnachrichten an,75 daher soll dieser Begriff im Folgenden zugrunde gelegt werden. Falschnachrichten können in diesem Kontext folgendermaßen definiert werden: Falschnachrichten sind „gezielt verbreitete falsche oder irreführende Informationen, die jemandem (Person, Gruppe oder Organisation) Schaden zufügen soll[en]“.76 Darunter fällt die Manipulation eigentlich wahrer Informationen, wie zum Beispiel die Bearbeitung von Bildern.77 Neben dem freien Erfinden von Inhalten zählt auch das aus dem Kontext Reißen und bewusst falsche Interpretieren von eigentlich wahren Informationen zu den Falschnachrichten.78 Im allgemeinen Sprachgebrauch wird der Begriff jedoch nicht derart eindeutig verwendet.79 Entgegen der allgemeinen Verwendung der Bezeichnung fällt Satire, die in der Regel auch als solche erkennbar ist, nicht unter den Begriff der Falschnachrichten.80 Ebenfalls nicht von diesem Terminus umfasst sind journa69 EGMR, Urt. v. 07.12.1976 – 5493/72, ECLI:CE:ECHR:1976:1207JUD000549372 Rn. 49 – Handyside gegen Vereinigtes Königreich. 70 BT-Drs. 18/12356, S. 1. 71 Gensing, tagesschau.de v. 30.12.2020, abrufbar unter: https://www.tagesschau.de/ faktenfinder/uswahl-trump-jahresrueckblick-101.html. 72 BT-Drs. 18/12356, S. 1. 73 Hoven/Krause, JuS 2017, 1167. 74 Pitzke, „Ihr seid Fake News“, Spiegel Online v. 11.01.2017, abrufbar unter: http:// www.spiegel.de/politik/ausland/donald-trump-gibt-pressekonferenz-ihr-seid-fake-newsa-1129595.html. 75 Holznagel, MMR 2018, 18. 76 Sängerlaub/Meier/Rühl, Fakten statt Fakes, S. 11. 77 Sängerlaub/Meier/Rühl, Fakten statt Fakes, S. 11. 78 Sängerlaub/Meier/Rühl, Fakten statt Fakes, S. 11. 79 Müller/Denner, Was tun gegen Fake News?, S. 6 f. 80 Sängerlaub/Meier/Rühl, Fakten statt Fakes, S. 11.
A. Das Netzwerkdurchsetzungsgesetz
31
listische Fehler, sei es eine unzureichende Recherche oder eine schlicht falsche Meldung, die versehentlich veröffentlicht, in der Regel aber korrigiert wird.81 Beim sogenannten Clickbaiting also der Überspitzung von Überschriften, um den Leser auf die Seite zu locken, handelt es sich ebenfalls nicht um Falschnachrichten.82 Im allgemeinen Sprachgebrauch werden aber gerade diese Fälle auch als Falschnachrichten bezeichnet. Der vorliegenden Arbeit soll ein eingeschränktes Verständnis des Begriffs zugrunde gelegt werden. Als Falschnachrichten werden nur solche Nachrichten verstanden, die unter die oben genannte Definition fallen und im Internet verbreitet werden. Falschnachrichten sind für sich genommen kein neues Phänomen.83 Die aktuell geführte Debatte, die nicht zuletzt auch der Auslöser für das NetzDG war, betrifft jedoch Falschnachrichten, die in sozialen Netzwerken verbreitet werden. Im Vergleich zu den Zeitungsenten in der analogen Presse, liegt der wesentliche Unterschied darin, dass die Falschnachrichten im Internet zum Großteil bewusst verbreitet werden, während Zeitungsenten zumeist einem Mangel an journalistischer Sorgfalt geschuldet sind.84 Doch auch die Verbreitung von Falschnachrichten im Internet ist für sich genommen kein neues Phänomen. Das Internet bietet der Verbreitung von Falschnachrichten jedoch zunehmend neue Möglichkeiten. Zunächst kann jeder Nutzer eigene Inhalte in sozialen Netzwerken veröffentlichen, ohne dass diese Inhalte auf ihre Richtigkeit geprüft werden.85 Die TeilenFunktion in sozialen Netzwerken ermöglicht eine hohe Reichweite von Inhalten, also auch von Falschnachrichten.86 Teilweise erreichen Falschnachrichten eine höhere Reichweite als Nachrichten von etablierten Medien.87 Begünstigt wird die Verbreitung der Nachricht, wenn sie an einen homogenen Nutzerkreis, der Meinungen und politische Ansichten teilt, adressiert wird.88 Die Aufklärung falscher Nachrichten wiederum erreicht häufig nur eine geringere Reichweite als die Originalnachricht.89 Eine vollständige Löschung von einmal veröffentlichten Nachrichten ist in der Regel kaum möglich, da Nachrichten in sozialen Netzwerken vielfach geteilt und verbreitet werden.90 Eine Löschung kann zudem bewirken, dass sich Populisten in ihren Ansichten bestärkt fühlen
81
Sängerlaub/Meier/Rühl, Fakten statt Fakes, S. 11. Sängerlaub/Meier/Rühl, Fakten statt Fakes, S. 11. 83 Humborg/Nguyen, Die publizistische Gesellschaft, S. 29. 84 Müller/Denner, Was tun gegen Fake News?, S. 5. 85 Hoven/Krause, JuS 2017, 1167. 86 Holznagel, MMR 2018, 18 (19). 87 Schwarz/Holnburger, in: Baldauf/Ebner/Guhl, Hassrede und Radikalisierung im Netz, S. 39 (40). 88 Müller/Denner, Was tun gegen Fake News?, S. 8. 89 Sängerlaub/Meier/Rühl, Fakten statt Fakes, S. 79. 90 Hoven/Krause, JuS 2017, 1167. 82
32
Kap. 2: Das NetzDG und der unionsrechtliche Regulierungsrahmen
und eine Verschwörung wittern.91 Auch wenn das Thema einer Falschnachricht sich häufig nach drei bis fünf Tagen erledigt hat,92 bleiben die falschen Nachrichten dennoch weiterhin abrufbar. Darüber hinaus besteht seitens der Nutzer eine geringere Hemmschwelle zur Verbreitung von Falschnachrichten, da sie sich in der Anonymität des Internets sicherer fühlen.93 Die zunehmende Verbreitung von Falschnachrichten resultiert nicht zuletzt aus dem Wandel privater und auch öffentlicher Kommunikation durch den Siegeszug der sozialen Medien in den letzten Jahren. Netzwerke wie Facebook und Twitter haben einen enormen Bedeutungszuwachs erfahren und gleichzeitig sinkt der Einfluss der klassischen Medien.94 In Zeiten der sozialen Medien konsumieren Nutzer Nachrichten, ohne dass diese zuvor durch Journalisten aufbereitet wurden.95 Obendrein dienen soziale Plattformen den Nutzern zunehmend zur Informationsbeschaffung, wobei dies in Deutschland weniger ausgeprägt ist als in den USA.96 Nicht zuletzt besteht auch die Gefahr, dass aus einer falschen Nachricht in den sozialen Netzwerken eine Nachricht in den klassischen Medien und damit in der realen Welt werden kann.97 Ein aktuelles Beispiel dafür ist die Nachricht, dass die Spitzenkandidatin der Grünen im Wahlkampf 2021 gefordert habe, die private Haustierhaltung zu verbieten.98 Die Falschnachricht wurde auch von anderen Medien aufgegriffen, wobei teilweise irreführende Überschriften wie „Fordert die Kanzlerkandidatin wirklich ein Haustierverbot?“99 oder „Annalena Baerbock: Hasst sie wirklich Hunde?“100 gewählt wurden. Doch selbst wenn Nutzer Falschnachrichten zunächst kritisch gegenüberstehen, können sie mit der Zeit von dem Inhalt der Nachricht beeinflusst werden.101 Selbst die Wiederholung der falschen Nachrichten im Rahmen der zahlreichen
91
Müller/Denner, Was tun gegen Fake News?, S. 5. Sängerlaub/Meier/Rühl, Fakten statt Fakes, S. 78. 93 Hoven/Krause, JuS 2017, 1167. 94 Sängerlaub/Meier/Rühl, Fakten statt Fakes, S. 8. 95 Sängerlaub/Meier/Rühl, Fakten statt Fakes, S. 8. 96 Sängerlaub/Meier/Rühl, Fakten statt Fakes, S. 76; Hoven, ZSTW 2017, 718. 97 Klein, Algokratie – eine Gefahr für die Demokratie?, S. 124. 98 Avaaz, Deutschlands Desinformations-Dilemma 2021, abrufbar unter: https://avaaz images.avaaz.org/bundestagswahl_2021_final.pdf. 99 Mayer, stuttgarter-nachrichten.de v. 22.04.2021, abrufbar unter: https://www.stutt garter-nachrichten.de/inhalt.angebliches-zitat-von-annalena-baerbock-fordert-die-kanzler kandidatin-wirklich-ein-haustierverbot.19e2e935-b30a-4dd2-b728-c6c0f1718047.html. 100 Derwesten.de v. 29.04.2021, abrufbar unter: https://www.derwesten.de/politik/anna lena-baerbock-hund-haustiere-hundehasserin-zitat-facebook-fake-katze-gruene-kanzler kandidatin-id232116823.html. 101 Pennycook/Cannon/Rand, Journal of Experimental Psychology: General 2018, 1865 (1876). 92
A. Das Netzwerkdurchsetzungsgesetz
33
Fakten-Check-Projekte, die in den letzten Jahren ihre Arbeit aufgenommen haben, kann zu diesem Effekt führen.102 Nach derzeitigem Stand ist noch unklar, wie groß das Problem der Falschnachrichten im deutschsprachigen Raum tatsächlich ist. Neben der Tatsache, dass nicht abschließend festgestellt werden kann, wie viele der im Internet kursierenden Nachrichten Falschnachrichten sind, ist auch der Einfluss einer Falschnachricht auf die Meinungsbildung des Rezipienten nicht geklärt.103 Zweifelsohne kursieren auch im deutschsprachigen Raum immer wieder Falschnachrichten, derzeit häufig in Bezug auf vermeintliche Fakten zur Corona-Pandemie.104 Falschnachrichten können auch eine strafrechtliche Relevanz haben, die im Kontext des NetzDG eine wichtige Rolle spielt. Denn das NetzDG richtet sich nicht gegen sämtliche Ausformungen von Falschnachrichten, sondern nur gegen solche, die einen der in § 1 Abs. 3 NetzDG genannten Straftatbestände erfüllen. Daher erfährt der Begriff der Falschnachricht für diese Arbeit eine weitere Einschränkung. Gemeint sind nur solche Falschnachrichten, die einen der im NetzDG aufgeführten Straftatbestände erfüllen.
II. Das Gesetzgebungsverfahren Im Folgenden wird das Gesetzgebungsverfahren zum NetzDG im Überblick dargestellt. Dabei zeigt sich die Eile, mit der das NetzDG auf den Weg gebracht und beschlossen wurde, sehr deutlich. 1. Die Task Force Das Thema Hassrede rückte erst im Jahr 2015 verstärkt in den Fokus des gesellschaftlichen Diskurses. Anlass war unter anderem die im Herbst 2014 aufgekommene Pegida-Bewegung (Patriotische Europäer gegen die Islamisierung des Abendlandes) und die zunehmende Bedeutung der AfD in der politischen Parteienlandschaft. Dadurch wuchs das Selbstbewusstsein in rechtsextremistischen Sphären, sodass sie mit ihren fremdenfeindlichen Inhalten auch verstärkt in nicht rechte Internetforen und Facebookseiten vordringen konnten.105 Auf Nachfragen bezüglich Hasskommentaren auf seiner Plattform reagierte das Unternehmen Facebook106 zunächst mit dem Hinweis, dass es sich als neu102
Holznagel, MMR 2018, 18 (19). Müller/Denner, Was tun gegen Fake News?, S. 20. 104 LfM NRW, Informationslage und Meinungsbilder zu COVID-19: Auf der Suche nach Verlässlichkeit. Forschungsschwerpunkt Informationsintermediäre – Spezial, Juli 2020, abrufbar unter: https://www.medienanstalt-nrw.de/fileadmin/user_upload/For schungsmonitor_Informationsintermediaere_Sonderausgabe_Juli_2020.pdf. 105 Rafael/Ritzmann, in: Baldauf/Ebner/Guhl, Hassrede und Radikalisierung im Netz, S. 11 (12). 106 Zum 04.02.2022 wurde Facebook Ireland Limited umbenannt in Meta Platforms Ireland Limited. 103
34
Kap. 2: Das NetzDG und der unionsrechtliche Regulierungsrahmen
trale Plattform sehe.107 Daneben verwies Facebook auf seine weltweit einheitlichen Richtlinien zum Umgang mit Inhalten auf der Plattform, die Gemeinschaftsstandards.108 Gleichwohl erfolgte die Durchsetzung der Gemeinschaftsstandards nicht einheitlich und konsequent und auch die strafrechtliche Verfolgung von Hasskriminalität im Online-Kontext erwies sich als lückenhaft.109 Als Reaktion auf den zunehmenden Hass im Netz wurde im September 2015 die Task Force „Umgang mit rechtswidrigen Hassbotschaften im Netz“ ins Leben gerufen. Diese Arbeitsgruppe, eingeladen vom Bundesministerium für Justiz und Verbraucherschutz (BMJV), zusammengesetzt aus Plattformanbietern sowie zivilgesellschaftlichen Organisationen, hatte das Ziel, der Verbreitung von Hassbotschaften im Internet entgegenzuwirken.110 In dem am 15. Dezember 2015 veröffentlichten Ergebnispapier dieser Task Force versprechen die beteiligten Unternehmen, bis Mitte 2016 eine Reihe von Maßnahmen gegen Hassbotschaften umzusetzen.111 Dieses Versprechen wurde in einem vom Bundesministerium für Familie, Senioren, Frauen und Jugend (BMFSFJ) und dem BMJV in Auftrag gegebenen Monitoring durch jugendschutz.net überprüft.112 Das Ergebnis dieses Monitorings war jedoch ernüchternd; die Task Force hatte nicht die erhoffte Wirkung.113 Diesem Missstand wollte der Gesetzgeber sodann mit dem NetzDG begegnen.114 Dass der Monitoringbericht von jugendschutz.net zum Anlass für die Gesetzesinitiative herangezogen wurde, ist auf Kritik gestoßen.115 Diese Kritik
107 Hurtz, Süddeutsche.de vom 18.08.2015, abrufbar unter: https://www.sueddeut sche.de/digital/facebook-nein-zu-bruesten-ja-zu-rassismus-1.2610256. 108 Hurtz, Süddeutsche.de vom 18.08.2015, abrufbar unter: https://www.sueddeut sche.de/digital/facebook-nein-zu-bruesten-ja-zu-rassismus-1.2610256. 109 Rafael/Ritzmann, in: Baldauf/Ebner/Guhl, Hassrede und Radikalisierung im Netz, S. 11; Stadler, in: Kappes/Krone/Novy, Medienwandel kompakt 2014–2016, S. 417 (418). 110 Ergebnispapier Task Force v. 15.12.2015, S. 1, abrufbar unter: https://www.bmj. de/SharedDocs/Downloads/DE/News/Artikel/12152015_TaskForceErgebnispapier.pdf? __blob=publicationFile&v=2. 111 Ergebnispapier Task Force v. 15.12.2015, abrufbar unter: https://www.bmj.de/ SharedDocs/Downloads/DE/News/Artikel/12152015_TaskForceErgebnispapier.pdf?__ blob=publicationFile&v=2. 112 Monitoring jugendschutz.net, abrufbar unter: https://www.jugendschutz.net/file admin/download/pdf/17-06_Ergebnisse_Monitoring_Beschwerdemechanismen_Hassbei traege_jugendschutz.net.pdf. 113 BT-Drs. 18/12356, S. 1 f. Dort heißt es, „dass die Beschwerden von Nutzerinnen und Nutzern gegen Hasskriminalität und andere strafbare Inhalte nach wie vor nicht unverzüglich und ausreichend bearbeitet werden. Zwar werden bei YouTube mittlerweile in 90 Prozent der Fälle strafbare Inhalte gelöscht. Facebook hingegen löschte nur in 39 Prozent der Fälle, Twitter nur in 1 Prozent der Fälle“. 114 BT-Drs. 18/12356, S. 2. 115 Erbs/Kohlhaas/Liesching, NetzDG Vorbemerkungen Rn. 3; Heidrich/Scheuch, DSRITB 2017, 305 (307); Liesching, NetzDG-Entwurf basiert auf Bewertungen von Rechtslaien, beck-blog v. 26.05.2017.
A. Das Netzwerkdurchsetzungsgesetz
35
bezieht sich insbesondere auf den Umstand, dass nur zwei der in § 1 Abs. 3 NetzDG genannten Straftatbestände überhaupt untersucht wurden und dass die rechtliche Einordnung der Inhalte in der Mehrzahl nicht von Volljuristen, sondern von geschultem Personal vorgenommen wurde.116 Jugendschutz.net erwiderte hierzu, dass es nicht Ziel des Monitorings gewesen sei, eine empirische Grundlage für gesetzliche Regelungen zu schaffen, sondern Möglichkeiten zur Verbesserung der Beschwerdesysteme zu ermitteln.117 2. Die Gesetzgebung Ausgehend von dieser Faktenlage begann die Entwicklung des Netzwerkdurchsetzungsgesetzes. Am 14. März 2017 stellte Heiko Maas auf einer Pressekonferenz des BMJV den Referentenentwurf vor.118 In diesem Zuge wurde auch zahlreichen Experten und Vereinen die Möglichkeit eingeräumt, Stellung zu dem Entwurf zu beziehen, welche rege in Anspruch genommen wurde.119 Bereits am 27. März 2017 wurde das Notifizierungsverfahren gemäß der Richtlinie 2015/ 1535/EU eingeleitet und der NetzDG-Entwurf an die Europäische Kommission übersandt.120 Die Bundesregierung hat sodann den am 4. April vorgelegten Entwurf beschlossen.121 Als Reaktion auf diesen Beschluss folgte die „Deklaration für die Meinungsfreiheit“, in der das NetzDG scharf kritisiert wurde. Die Deklaration ist von einer Vielzahl von Experten und Organisationen unterzeichnet worden.122 Der Gesetzentwurf wurde durch die Regierungsfraktionen CDU/CSU und SPD am 16. Mai 2017 (BT-Drs. 18/12356) und inhaltsgleich durch die Bundesregierung am 15. Juni 2017 (BT-Drs. 18/12727) in den Bundestag eingebracht. Im Folgenden fand am 19. Juni 2017 im Ausschuss für Recht und Verbraucherschutz eine öffentliche Anhörung mit Stellungnahmen von Sachverständigen statt. Derweil hatte sich Anfang Juni auch der damalige UN-Sonderbeauftragte für die Meinungsfreiheit Kaye kritisch zu dem Gesetzesvorhaben geäußert.123 Insbeson116 Liesching, NetzDG-Entwurf basiert auf Bewertungen von Rechtslaien, beck-blog v. 26.05.2017. 117 Jugendschutz.net, Monitoring des Beschwerdemanagements von Social-MediaPlattformen bei Hassbotschaften. Hintergründe zum Projekt und Erläuterungen der Testmethodik, abrufbar unter: https://www.schau-hin.info/fileadmin/content/Down loads/Sonstiges/jugendschutz.net__Monitoring_2017.pdf. 118 Referentenentwurf des BMJV vom 14.03.2017. 119 Sämtliche Stellungnahmen sind abrufbar unter: https://www.bmjv.de/Shared Docs/Gesetzgebungsverfahren/DE/NetzDG.html. 120 Notifizierungsnummer 2017/127/D; zum Notifizierungsverfahren siehe Kapitel 3 B. VI. 121 Regierungsentwurf vom 05.04.2017. 122 https://deklaration-fuer-meinungsfreiheit.de/. 123 Kaye, Mandate of the Special Rapporteur.
36
Kap. 2: Das NetzDG und der unionsrechtliche Regulierungsrahmen
dere hob er die Gefahren für die Meinungsfreiheit hervor, ausgelöst durch die kurzen Fristen in Kombination mit den hohen Bußgelddrohungen.124 Kurz vor der Verabschiedung des NetzDG wurden durch die Beschlussempfehlung des Ausschusses für Recht und Verbraucherschutz noch deutliche Änderungen in den Entwurf eingebracht,125 um der vielschichtigen Kritik zumindest in Ansätzen zu begegnen. Zum Anwendungsbereich des NetzDG wurde in § 1 Abs. 1 zur Klarstellung ergänzt, dass Plattformen zur Individualkommunikation nicht erfasst sind. Auch der Katalog der vom NetzDG erfassten Straftaten wurde dahingehend modifiziert, dass die §§ 90, 90a, 90b StGB gestrichen wurden. Aus der starren sieben-Tage-Frist für rechtswidrige Inhalte, deren Rechtswidrigkeit nicht offensichtlich ist, wurde eine in-der-Regel-sieben-Tage-Frist. Als zentrale Änderung fand das System der Regulierten Selbstregulierung Einzug in das NetzDG. Das NetzDG wurde schließlich mit den Änderungen der Beschlussempfehlung des BT-Ausschusses für Recht und Verbraucherschutz (BT-Drs. 18/13013) in der 244. Sitzung des Bundestages vom 30. Juni 2017 (BT-Plenarprotokoll 18/244) verabschiedet. Das NetzDG ist am 1. Oktober 2017 in Kraft getreten. Trotz der massiven Kritik an dem Gesetzesvorhaben sind zwischen Referentenentwurf und Verabschiedung des Gesetzes lediglich vier Monate vergangen. 3. Weitere Entwicklung und Evaluation Nach Inkrafttreten des NetzDG verstummte die Kritik an dem übereilten Gesetz keineswegs. Sowohl die Fraktion der AfD als auch die Fraktion der FDP stellten Anträge auf Aufhebung des NetzDG.126 Die Fraktion der FDP legte zudem einen Gesetzentwurf zur Stärkung der Bürgerrechte (BüStärG) vor.127 Dieser sah eine Anpassung des TMG vor, in das die Definition sozialer Netzwerke sowie deren Pflicht zur Benennung eines inländischen Zustellungsbevollmächtigten aufgenommen werden sollte.128 Auch DIE LINKE war mit wesentlichen Teilen des NetzDG nicht einverstanden und forderte dessen Teilaufhebung.129 Sämtliche Vorschriften zur Gestaltung des Beschwerdemanagements sollten entfallen, sodass die Verpflichtung zur Benennung eines inländischen Zustellungsbevollmächtigten, die grundsätzliche Bereitstellung eines Beschwerdeverfahrens sowie Teile der Transparenzvorgaben verblieben wären.130
124 125 126 127 128 129 130
Kaye, Mandate of the Special Rapporteur, S. 4 f. BT-Drs. 18/13013. BT-Drs. 19/81 (AfD) und BT-Drs. 19/204 (FDP). BT-Drs. 19/204. BT-Drs. 19/204, S. 4 f. BT-Drs. 19/218. BT-Drs. 19/218, S. 3.
A. Das Netzwerkdurchsetzungsgesetz
37
Neben Anträgen zur Aufhebung des NetzDG wurde auch der Klageweg gegen das Gesetz beschritten. Im Juni 2018 erhoben die FDP-Bundestagsabgeordneten Jimmy Schulz und Manuel Höferlin eine vorbeugende Feststellungsklage vor dem Verwaltungsgericht Köln.131 Das Kölner Gericht wies die Klage jedoch als unzulässig ab.132 Es fehle sowohl an dem konkreten Rechtsverhältnis als auch an dem qualifizierten Feststellungsinteresse im Sinne des § 43 Abs. 1 VwGO.133 Auch das Bundesverfassungsgericht war bereits mit dem NetzDG befasst.134 Beide Verfassungsbeschwerden wandten sich unmittelbar gegen die Vorschriften des NetzDG. Die Beschwerdeführer machten geltend, in ihren Grundrechten, insbesondere in ihrer Meinungsfreiheit verletzt zu sein. Das Bundesverfassungsgericht entschied in beiden Fällen, die Verfassungsbeschwerde nicht zur Entscheidung anzunehmen. Dieser Beschluss wurde mit der fehlenden unmittelbaren Betroffenheit der Beschwerdeführer begründet.135 Zudem mangelte es laut den Karlsruher Richtern an der Rechtswegerschöpfung im Sinne des § 90 Abs. 2 S. 1 BVerfGG.136 Im Januar 2020 wurde schließlich der Evaluationsbericht137 vorgelegt, der nach der Gesetzesbegründung innerhalb von drei Jahren nach Inkrafttreten des NetzDG vorgesehen war.138 Dem Bericht zufolge, hätte sich das NetzDG bewährt und entspräche der europäischen Entwicklung. Zwar habe das Gesetz noch einzelne Schwachpunkte, insbesondere bestehe stellenweise Konkretisierungsbedarf, grundlegende strukturelle Schwächen seien jedoch nicht erkennbar.139 Vor dem Hintergrund dieses Evaluationsergebnisses hat sich ein Forschungsteam der HTWK Leipzig erneut mit der praktischen Anwendung des NetzDG befasst und insbesondere den im Evaluationsbericht des BMJV vernachlässigten Punkt des Overblocking einer näheren Untersuchung unterzogen.140 Dieser Bericht kommt zu dem Ergebnis, dass es durchaus Anhaltspunkte für strukturelle Schwächen des NetzDG gebe, die unzureichende Datenlage aber kaum eine wissenschaftlich fundierte Aussage erlaube.141 131
Siehe zur Klage: https://www.fdp.de/die-erste-klage-gegen-das-netzdg-laeuft. VG Köln, Urt. v. 14.02.2019 – 6 K 4318/18, MMR 2019, 342. 133 VG Köln, Urt. v. 14.02.2019 – 6 K 4318/18, MMR 2019, 342 Rn. 16 f. 134 BVerfG, Beschl. v. 23.04.2019 – 1 BvR 2314/18, NVwZ 2019, 1125; Guggenberger et al., NetzDG: im Zweifel gegen die Meinungsfreiheit. 135 BVerfG, Beschluss v. 23.04.2019 – 1 BvR 2314/18, NVwZ 2019, 1125 Rn. 6. 136 BVerfG, Beschluss v. 23.04.2019 – 1 BvR 2314/18, NVwZ 2019, 1125 Rn. 7. 137 Eifert/von Landenberg-Roberg/Theß/Wienfort, Netzwerkdurchsetzungsgesetz in der Bewährung. 138 BT-Drs. 18/12356, S. 18. 139 Eifert/von Landenberg-Roberg/Theß/Wienfort, Netzwerkdurchsetzungsgesetz in der Bewährung, S. 194. 140 Liesching/Funke/Hermann/Kneschke/Mischnik/Nguyen/Prüßner/Rudolph/Zschammer, Das NetzDG in der praktischen Anwendung. 141 Liesching/Funke/Hermann/Kneschke/Mischnik/Nguyen/Prüßner/Rudolph/Zschammer, Das NetzDG in der praktischen Anwendung, S. 143 f. 132
38
Kap. 2: Das NetzDG und der unionsrechtliche Regulierungsrahmen
4. Anpassung des NetzDG Der Gesetzgeber selbst hat jedenfalls auch Nachbesserungsbedarf gesehen und ohne Abwarten der Evaluationsergebnisse, Gesetze zur Anpassung des NetzDG auf den Weg gebracht. Zum einen den am 19. Dezember 2019 vorgelegten Referentenentwurf eines Gesetzes zur Bekämpfung des Rechtsextremismus und der Hasskriminalität, zum anderen den am 29. Januar 2020 veröffentlichten Referentenentwurf zur Änderung des NetzDG. a) Gesetz zur Bekämpfung des Rechtsextremismus und der Hasskriminalität Anlass für die Neuregelungen war der rechtsextremistische Terroranschlag auf eine Synagoge in Halle, der in letzter Sekunde verhindert werden konnte, sowie die Ermordung von Walter Lübcke.142 Das BMJV sah aufgrund des zunehmenden Hasses im Internet dringenden Handlungsbedarf, da dieser geeignet sei, die Hemmschwelle zur Ausführung derartiger Taten zu senken.143 Der Gesetzentwurf wurde im Februar von der Bundesregierung beschlossen und im Sommer 2020 von Bundestag und Bundesrat gebilligt.144 Allerdings verweigerte der Bundespräsident im Anschluss die Ausfertigung des Gesetzes aufgrund verfassungsrechtlicher Bedenken.145 Dies war überhaupt erst das neunte Mal in der deutschen Verfassungsgeschichte, dass der Bundespräsident die Ausfertigung eines Gesetzes verweigerte. Hintergrund der Weigerung war die Bestandsdatenauskunft II-Entscheidung des Bundesverfassungsgerichts vom 27. Mai 2020, in der die deutschen Regelungen zur Bestandsdatenauskunft als verfassungswidrig erklärt wurden.146 Zwar sei eine Auskunftserteilung über Bestandsdaten grundsätzlich zulässig, die bestehenden Eingriffshürden seien jedoch zu niedrig.147 Diese Vorschriften über die Bestandsdatenauskunft haben auch Auswirkungen auf das Gesetz zur Bekämpfung des Rechtsextremismus und der Hasskriminalität. Denn das Gesetz sieht vor, dass soziale Netzwerke strafbare Inhalte nicht nur löschen, sondern bestimmte schwere Fälle auch an das Bundeskriminalamt (BKA) melden müssen. Der Gesetzgeber schaffte jedoch Abhilfe mit dem „Gesetz zur Anpas-
142 Referentenentwurf eines Gesetzes zur Bekämpfung des Rechtsextremismus und der Hasskriminalität, S. 12. 143 Referentenentwurf eines Gesetzes zur Bekämpfung des Rechtsextremismus und der Hasskriminalität, S. 12. 144 Bundesrat Drs. 339/20. 145 Rudl, netzpolitik.org, abrufbar unter: https://netzpolitik.org/2020/gesetz-gegenrechte-hetze-steinmeier-laesst-grosse-koalition-nacharbeiten/. 146 BVerfG, Urt. v. 27.05.2020 – 1 BvR 1873/13, 1 BvR 2618/13, NJW 2020, 2699 – Bestandsdatenauskunft II. 147 BVerfG, Urt. v. 27.05.2020 – 1 BvR 1873/13, 1 BvR 2618/13, NJW 2020, 2699 Rn. 264 – Bestandsdatenauskunft II.
A. Das Netzwerkdurchsetzungsgesetz
39
sung der Regelungen über die Bestandsdatenauskunft an die Vorgaben aus der Entscheidung des Bundesverfassungsgerichts vom 27. Mai 2020“.148 Mit diesem Gesetz wurden die Regelungen zur Bestandsdatenauskunft dem Urteil des Bundesverfassungsgerichts entsprechend angepasst. Damit konnte auch das Gesetz zur Bekämpfung von Rechtsextremismus und Hasskriminalität letztendlich unterzeichnet werden.149 Es beinhaltet neben der Verschärfung des StGB auch Änderungen des NetzDG. Seit dem 1. Februar 2022 müssen soziale Netzwerke gemäß dem neu eingefügten § 3a NetzDG Inhalte, die mindestens einen der in Abs. 2 Nr. 3 genannten Straftatbestände erfüllen und nicht gerechtfertigt sind, dem BKA melden. Neben dem betreffenden Inhalt sind dem BKA auch die IP-Adresse sowie die Port-Nummer, die als letztes dem Nutzerprofil zugeteilt war, zu übermitteln. b) Gesetz zur Änderung des Netzwerkdurchsetzungsgesetzes Beinahe zeitgleich zum Entwurf des Gesetzes zur Bekämpfung von Rechtsextremismus und Hasskriminalität wurde mit dem Entwurf eines Gesetzes zur Änderung des NetzDG ein weiteres Gesetz auf den Weg gebracht, das dem NetzDG einen frischen Anstrich verpassen sollte.150 Gleich zwei Anlässe bestanden zur Neugestaltung einiger Punkte im NetzDG. Zum einen sollten die bisherigen Praxiserfahrungen eine konkrete Umsetzung finden, zum anderen erforderten neue unionsrechtliche Vorgaben, in Form der geänderten AVMD-Richtlinie151, die Anpassung des Gesetzes.152 Das Änderungsgesetz sieht eine Erweiterung der Transparenzpflichten vor, da sich die Berichte der einzelnen Unternehmen als wenig vergleichbar und teilweise lückenhaft herausgestellt hatten.153 Auch hinsichtlich der Bereitstellung der Meldewege haben sich in der Praxis Defizite herauskristallisiert. Teilweise haben die sozialen Netzwerke die Meldefunktion regelrecht „versteckt“, sodass es für Nutzer naheliegender war, die Meldefunktion für Verstöße gegen die Ge148 Gesetz zur Anpassung der Regelungen über die Bestandsdatenauskunft an die Vorgaben aus der Entscheidung des Bundesverfassungsgerichts v. 27.05.2020, BGBl. I S. 448. 149 Gesetz zur Bekämpfung des Rechtsextremismus und der Hasskriminalität v. 30.03.2021, BGBl. I S. 441. 150 Referentenentwurf zum Gesetz zur Änderung des Netzwerkdurchsetzungsgesetzes. 151 Richtlinie (EU) 2018/1808 des Europäischen Parlaments und des Rates v. 14.11.2018 zur Änderung der Richtlinie 2010/13/EU zur Koordinierung bestimmter Rechts-und Verwaltungsvorschriften der Mitgliedstaaten über die Bereitstellung audiovisueller Mediendienste (Richtlinie über audiovisuelle Mediendienste) im Hinblick auf sich verändernde Marktgegebenheiten. 152 Referentenentwurf zum Gesetz zur Änderung des Netzwerkdurchsetzungsgesetzes, S. 14. 153 Referentenentwurf zum Gesetz zur Änderung des Netzwerkdurchsetzungsgesetzes, S. 14.
40
Kap. 2: Das NetzDG und der unionsrechtliche Regulierungsrahmen
meinschaftsstandards zu nutzen.154 Die Meldewege sollen nach dem geänderten § 3 Abs. 1 S. 2 NetzDG „erreichbar“ und „leicht bedienbar“ sein. Als ein zentrales Defizit des NetzDG wurde das fehlende „Put-back-Verfahren“ identifiziert.155 Das heißt Nutzer, die von einer Löschung betroffen sind, haben keine Möglichkeit die Wiederherstellung des betreffenden Inhalts vom Diensteanbieter zu fordern. Deswegen wurde ein sogenanntes Gegenvorstellungsverfahren in das NetzDG eingebracht. Zusätzlich gibt es im NetzDG nun eine Anerkennungsmöglichkeit für privatrechtlich organisierte Schlichtungsstellen zur außergerichtlichen Beilegung von Streitigkeiten zwischen Nutzern und Diensteanbietern.
III. Wesentlicher Regelungsinhalt des NetzDG Im Folgenden werden die Regelungen des NetzDG überblicksartig dargestellt. Der Abschnitt soll dem besseren Verständnis der Regelungssystematik des NetzDG dienen.156 1. Anwendungsbereich § 1 NetzDG betrifft den Anwendungsbereich des Netzwerkdurchsetzungsgesetzes. Nach § 1 Abs. 1 NetzDG gilt das Gesetz „für Telemediendiensteanbieter, die mit Gewinnerzielungsabsicht Plattformen im Internet betreiben, die dazu bestimmt sind, dass Nutzer beliebige Inhalte mit anderen Nutzern teilen oder der Öffentlichkeit zugänglich machen (soziale Netzwerke)“. Ausgenommen vom Anwendungsbereich sind „Plattformen mit journalistisch-redaktionell gestalteten Angeboten, die vom Diensteanbieter selbst verantwortet werden“. Dies gilt auch für Plattformen, „die zur Individualkommunikation oder zur Verbreitung spezifischer Inhalte bestimmt sind“.157 § 1 Abs. 2 NetzDG stellt eine Bagatellgrenze für die Anwendung des NetzDG dar. Demnach sind die Anbieter sozialer Netzwerke von den Pflichten nach den §§ 2 bis 3b und 5a befreit, wenn das soziale Netzwerk im Inland weniger als zwei Millionen registrierte Nutzer hat. Davon unberührt bleibt die Pflicht zur Benennung eines inländischen Zustellungsbevollmächtigten sowie eines inländischen Empfangsberechtigten. Die für den Anwendungsbereich relevante Registrierung setzt voraus, dass die Nutzer einen gewissen Registrierungsprozess durchlaufen haben, wozu regelmäßig die Bestimmung eines Nutzernamens sowie die Zustimmung zu gewissen Regeln des sozialen Netzwerks in Form von allge154
BT-Drs. 19/18792, S. 17. Peukert, MMR 2018, 572. 156 Für eine vertiefende Darstellung der NetzDG Regelungen siehe: Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, Kapitel 7 C.–E. 157 Ausführlich zu der Definition der sozialen Netzwerke im NetzDG in Kapitel 2 A. I. 1. 155
A. Das Netzwerkdurchsetzungsgesetz
41
meinen Geschäftsbedingungen erfolgen müssen.158 Nach überzeugender Ansicht sind für die Bestimmung des Anwendungsbereichs auch solche Nutzer relevant, die zwar registriert sind, das soziale Netzwerk jedoch nicht aktiv nutzen.159 In § 1 Abs. 3 NetzDG werden die Strafnormen aus dem besonderen Teil des Strafgesetzbuches aufgezählt, die die Pflichten der Anbieter sozialer Netzwerke auslösen, sofern der Tatbestand erfüllt ist und keine Rechtfertigung vorliegt. Dies sind die §§ 86, 86a, 89a, 91, 100a, 111, 126, 129 bis 129b, 130, 131, 140, 166, 184b, 185, 187, 189, 201a, 241 und 269 StGB. Die Aufzählung ist abschließend, eine analoge Anwendung des NetzDG auf andere Straftatbestände ist daher unzulässig.160 2. Berichtspflichten § 2 Abs. 1 NetzDG statuiert eine halbjährliche Berichtspflicht. Danach sind Anbieter sozialer Netzwerke, die im Kalenderjahr mehr als 100 Beschwerden über rechtswidrige Inhalte erhalten, verpflichtet, einen deutschsprachigen Bericht über den Umgang mit den Beschwerden zu erstellen. Sinn und Zweck dieser Berichtspflichten ist „die gebotene Transparenz für die breite Öffentlichkeit herzustellen“.161 Der Bericht ist im Bundesanzeiger und auf der plattformeigenen Webseite zu veröffentlichen. § 2 Abs. 2 NetzDG enthält Vorgaben zum Inhalt dieses Berichts. Diese Vorgaben sind durch das Gesetz zur Änderung des NetzDG umfassend erweitert worden, da sich herausgestellt hat, dass die Transparenzberichte in der Praxis weniger Transparenz lieferten als erhofft.162 3. Lösch- und Sperrpflichten Der § 3 NetzDG ist das Kernstück des Netzwerkdurchsetzungsgesetzes. Er enthält umfassende Pflichten für die sozialen Netzwerke im Umgang mit Beschwerden. Insbesondere enthält er Bestimmungen zur Löschung und Sperrung von Inhalten und zu den dafür einzuhaltenden Fristen. Der Betreiber eines sozialen Netzwerks wird nach § 3 Abs. 1 NetzDG dazu verpflichtet, ein wirksames und transparentes Verfahren für den Umgang mit Beschwerden über rechtswidrige Inhalte vorzuhalten. Dieses Verfahren muss für den Nutzer leicht erkennbar, unmittelbar erreichbar, ständig verfügbar sowie leicht bedienbar sein. Nähere Anforderungen an das Verfahren enthalten § 3 Abs. 2 und 3 NetzDG. Abs. 2 konkretisiert das Beschwerdeverfahren und statuiert insbesondere zeit158
BT-Drs. 18/13013, S. 19. Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 303. 160 Spindler/Schmitz/Liesching, NetzDG § 1 Rn. 77. 161 BT-Drs. 18/12356, S. 20. 162 Referentenentwurf zum Gesetz zur Änderung des Netzwerkdurchsetzungsgesetzes, S. 1. 159
42
Kap. 2: Das NetzDG und der unionsrechtliche Regulierungsrahmen
liche Vorgaben. Nach § 3 Abs. 2 Nr. 1 NetzDG muss der Anbieter eine unverzügliche Kenntnisnahme von der Beschwerde gewährleisten. Gemäß § 3 Abs. 2 Nr. 2 NetzDG müssen die Diensteanbieter offensichtlich rechtswidrige Inhalte innerhalb von 24 Stunden nach Eingang der Beschwerde entfernen oder den Zugang zu ihnen sperren. Die 24-Stunden-Frist kann ausnahmsweise überschritten werden, wenn das soziale Netzwerk mit der zuständigen Strafverfolgungsbehörde einen längeren Zeitraum für die Löschung oder Sperrung vereinbart hat. § 3 Abs. 2 Nr. 3 NetzDG verpflichtet die Diensteanbieter sonstige rechtswidrige Inhalte unverzüglich, in der Regel innerhalb von sieben Tagen nach Eingang der Beschwerde zu entfernen oder den Zugang zu ihnen zu sperren. Lit. a und b sehen Ausnahmen von der sieben-Tage-Frist vor, wenn die Entscheidung von der Rechtswidrigkeit des Inhalts von der Unwahrheit einer Tatsachenbehauptung oder von anderen tatsächlichen Umständen abhängt oder wenn die Entscheidung an eine Einrichtung der Regulierten Selbstregulierung übertragen wird. § 3 Abs. 2 Nr. 4 NetzDG sieht Dokumentationspflichten vor. Der Anbieter des sozialen Netzwerks muss im Falle einer Entfernung den Inhalt zu Beweiszwecken sichern und für die Dauer von zehn Wochen innerhalb des Geltungsbereichs der E-Commerce-Richtlinie und der Richtlinie über audiovisuelle Mediendienste speichern. § 3 Abs. 2 Nr. 5 NetzDG schreibt vor, dass das soziale Netzwerk den Beschwerdeführer und den Nutzer, für den der beanstandete Inhalt gespeichert wurde, über jede Entscheidung unverzüglich informiert und seine Entscheidung ihnen gegenüber begründet. Dem Betreiber eines sozialen Netzwerks werden nach § 3 Abs. 4 NetzDG innerorganisatorische Pflichten auferlegt. § 3 Abs. 5 NetzDG sieht vor, dass die Verfahren nach Abs. 1 durch eine von der in § 4 NetzDG genannten Verwaltungsbehörde beauftragten Stelle überwacht werden. 4. Einrichtung der Regulierten Selbstregulierung § 3 Abs. 6 bis 8 sowie 10 NetzDG betreffen die Anerkennung der Einrichtungen der Regulierten Selbstregulierung und deren Widerruf. Für die Anerkennung der Einrichtung im Sinne des NetzDG sind fünf Voraussetzungen kumulativ zu erfüllen. Die Entscheidung über die Anerkennung einer Einrichtung der Regulierten Selbstregulierung obliegt dem Bundesamt für Justiz (BfJ) (§ 3 Abs. 7 i.V. m. § 4 Abs. 4 S. 1 NetzDG). Liegen die Voraussetzungen für die Anerkennung vor, ist die Einrichtung anzuerkennen. Gemäß § 3 Abs. 9 NetzDG sind jährliche Tätigkeitsberichte anzufertigen. Die Möglichkeit zur Übertragung einer Entscheidung kann für einen Diensteanbieter nach § 3 Abs. 11 NetzDG für einen befristeten Zeitraum entfallen, wenn zu erwarten ist, dass bei diesem Anbieter die Erfüllung der Pflichten des § 3 Abs. 2 Nr. 3 NetzDG durch einen Anschluss an die Regulierte Selbstregulierung nicht gewährleistet wird.
A. Das Netzwerkdurchsetzungsgesetz
43
5. Meldungen an das Bundeskriminalamt Der mit dem Gesetz zur Bekämpfung des Rechtsextremismus und der Hasskriminalität eingeführte § 3a NetzDG sieht vor, dass die Anbieter sozialer Netzwerke bestimmte Inhalte an das Bundeskriminalamt als Zentralstelle übermitteln müssen und dazu gemäß § 3a Abs. 1 NetzDG ein wirksames Verfahren vorzuhalten haben. Durch die Übermittlung sollen schwerwiegende strafbare Inhalte nicht bloß gelöscht oder gesperrt, sondern auch strafrechtlich verfolgt werden.163 Meldepflichtige Inhalte sind gemäß § 3a Abs. 2 NetzDG solche, die dem Anbieter in einer Beschwerde über rechtswidrige Inhalte gemeldet worden sind, die der Anbieter gesperrt oder gelöscht hat und bei denen konkrete Anhaltspunkte dafür bestehen, dass sie mindestens einen der Tatbestände der §§ 86, 86a, 89a, 91, 126, 129 bis 129b, 130, 131, 140, 184b StGB oder des § 241 StGB in Form der Bedrohung mit einem Verbrechen gegen das Leben, die sexuelle Selbstbestimmung, die körperliche Unversehrtheit oder die persönliche Freiheit, erfüllen und nicht gerechtfertigt sind. Der Anbieter muss unverzüglich nach Entfernung oder Sperrung eines Inhalts prüfen, ob die Voraussetzungen zur Übermittlung vorliegen und sodann den Inhalt unverzüglich übermitteln (§ 3a Abs. 3 NetzDG). Zu übermitteln sind nach § 3a Abs. 4 NetzDG der Inhalt und der Zeitpunkt der Veröffentlichung des Inhalts sowie der Nutzername und sofern vorhanden, die zuletzt verwendete IP-Adresse einschließlich der Portnummer und dem Zeitpunkt des letzten Zugriffs. Der betroffene Nutzer wird vier Wochen nach der Übermittlung an das BKA informiert, sofern nicht das BKA anordnet, dass die Information wegen der Gefährdung des Untersuchungszwecks, des Lebens, der körperlichen Unversehrtheit oder der persönlichen Freiheit einer Person oder von bedeutenden Vermögenswerten zu unterlassen ist (§ 3a Abs. 6 S. 1 und 2 NetzDG). In diesem Fall informiert das BKA selbst den Nutzer über die Übermittlung sobald dies ohne Gefährdung möglich ist (§ 3a Abs. 6 S. 3 NetzDG). 6. Gegenvorstellungsverfahren In dem in § 3b NetzDG vorgesehenen Gegenvorstellungsverfahren können betroffene Nutzer die Überprüfung einer Entscheidung fordern. Dazu muss der Diensteanbieter ein wirksames und transparentes Verfahren vorhalten, in dem der Beschwerdeführer oder der Nutzer, für den der beanstandete Inhalt gespeichert wurde, innerhalb von zwei Wochen nach der Information über die Entscheidung einen Antrag auf Überprüfung der ursprünglichen Entscheidung stellen kann (§ 3b Abs. 1 S. 1 und 2 NetzDG). Für Entscheidungen, die gemäß Art. 3 Abs. 2 S. 1 Nr. 3 lit. b NetzDG von einer Einrichtung der Regulierten Selbstregulierung getroffen wurden, scheidet nach § 3b Abs. 1 S. 1 NetzDG das Gegenvorstellungs-
163
BT-Drs. 19/17741, S. 16, 43.
44
Kap. 2: Das NetzDG und der unionsrechtliche Regulierungsrahmen
verfahren aus. In diesen Fällen kann gemäß § 3 Abs. 6 Nr. 3 NetzDG ein Antrag auf Überprüfung gestellt werden. Möchte der Diensteanbieter der Gegenvorstellung abhelfen, muss das Verfahren gewährleisten, dass die jeweils andere Seite innerhalb einer angemessenen Frist die Gelegenheit zur Stellungnahme bekommt (§ 3b Abs. 2 Nr. 1 NetzDG). § 3b Abs. 2 Nr. 3 NetzDG verlangt, dass die ursprüngliche Entscheidung unverzüglich einer Überprüfung durch eine mit der ursprünglichen Entscheidung nicht befassten Person unterzogen wird und die Entscheidung den Betroffenen unverzüglich mitgeteilt und einzelfallbezogen begründet wird (§ 3b Abs. 2 Nr. 4 NetzDG). 7. Privatrechtliche Schlichtungsstellen § 3c Abs. 1 NetzDG sieht vor, dass die in § 4 genannte Verwaltungsbehörde, also das Bundesamt für Justiz, privatrechtlich organisierte Einrichtungen als Schlichtungsstellen zur außergerichtlichen Beilegung von Streitigkeiten über getroffene Entscheidungen zwischen Nutzern und Diensteanbietern anerkennen kann. § 3c Abs. 2 NetzDG normiert die Voraussetzungen für eine solche Anerkennung. Das Schlichtungsverfahren ist gemäß § 3c Abs. 3 S. 1 NetzDG vorgesehen, wenn zuvor ein Gegenvorstellungsverfahren oder eine Überprüfung im Sinne des § 3 Abs. 6 Nr. 3 NetzDG stattgefunden hat. In § 3c Abs. 3 S. 2 und 3 NetzDG finden sich Regelungen zur Datenübermittlung im Zuge des Schlichtungsverfahrens. 8. Regelungen für Videosharingplattform-Dienste Die §§ 3d bis 3f NetzDG sehen Sonderregelungen für VideosharingplattformDienste vor. Mit ihnen werden die Vorgaben der Art. 28a und 28b AVMD-RL umgesetzt.164 Zunächst enthält § 3d NetzDG Begriffsbestimmungen für Videosharingplattform-Dienste, auf die das NetzDG gemäß § 3e Abs. 1 NetzDG, unter Berücksichtigung der Abweichungen nach Abs. 2 und 3, grundsätzlich anwendbar ist. Es findet auch Anwendung auf Anbieter von Videosharingplattformen mit weniger als zwei Millionen registrierten Nutzern im Inland, die ihren Sitz in Deutschland haben (§ 3e Abs. 2 S. 1 NetzDG). § 3e Abs. 2 S. 2 NetzDG schränkt den Katalog der erfassten Straftaten gegenüber § 1 Abs. 3 NetzDG für diese Plattformen nicht unwesentlich ein. Zudem werden diese Plattformanbieter in S. 3 von den Pflichten aus §§ 2, 3 Abs. 2 S. 1 Nr. 3 und 4 und § 3a NetzDG befreit. Der § 3e Abs. 3 NetzDG sieht Sonderregelungen hinsichtlich des Herkunftslandprinzips vor. Sofern ein anderer Mitgliedstaat als die Bundesrepublik Deutschland Sitzland des Diensteanbieters ist, so gelten die Pflichten der §§ 2, 3 164
BT-Drs. 19/18792, S. 50 ff.
A. Das Netzwerkdurchsetzungsgesetz
45
und 3b NetzDG in Bezug auf nutzergenerierte Videos und Sendungen nur auf Grundlage und im Umfang einer Anordnung der in § 4 NetzDG genannten Behörde, mithin des Bundesamts für Justiz. § 3f NetzDG statuiert Vorgaben für die behördliche Schlichtung für Streitigkeiten mit Videosharingplattform-Diensten. 9. Bußgeldvorschriften Die Ordnungswidrigkeitennorm des § 4 NetzDG sieht Bußgelder im Fall eines Verstoßes gegen Pflichten aus dem NetzDG vor. Dadurch sollen die sozialen Netzwerke zu erhöhter Aufmerksamkeit bei der Einhaltung der Compliance-Standards verpflichtet werden.165 Nach § 4 Abs. 1 Nr. 1 NetzDG handelt ordnungswidrig, wer vorsätzlich oder fahrlässig einen Bericht nicht richtig, nicht vollständig oder nicht rechtzeitig erstellt beziehungsweise veröffentlicht. Nr. 2 betrifft die Vorhaltung des Beschwerdeverfahrens nach § 3 Abs. 1 S. 1 NetzDG oder § 3b Abs. 1 S. 1 NetzDG. Laut Nr. 3 wird sanktioniert, wenn ein in § 3 Abs. 1 S. 2 oder § 3b Abs. 1 S. 3 NetzDG genanntes Verfahren nicht oder nicht richtig zur Verfügung gestellt wird. Nach Nr. 4 werden Verstöße geahndet, welche die Pflicht der Leitung des sozialen Netzwerks zur Überwachung des Umgangs mit Beschwerden über rechtswidrige Inhalte betreffen. Nr. 5 enthält die Bußgeldvorschrift bezüglich der Pflicht der Leitung des sozialen Netzwerks zur unverzüglichen Beseitigung einer organisatorischen Unzulänglichkeit. Weiterhin betrifft Nr. 6 die Pflicht zum Angebot von Schulungs- oder Betreuungsmaßnahmen für die mit der Bearbeitung von Beschwerden über rechtswidrige Inhalte beauftragten Personen. Nach Nr. 7 ist die Nichtnennung eines inländischen Zustellungsbevollmächtigten und Empfangsberechtigten als Ordnungswidrigkeit sanktionierbar. Schließlich begründet es nach Nr. 8 eine Ordnungswidrigkeit, wenn der Empfangsberechtigte auf Auskunftsersuchen nicht reagiert. Mit dem Gesetz zur Bekämpfung des Rechtsextremismus und der Hasskriminalität trat am 1. Februar 2022 ein weiterer Bußgeldtatbestand in Kraft, der ein nicht oder nicht richtiges Vorhalten des in § 3a Abs. 1 NetzDG genannten Verfahrens sanktioniert. In § 4 Abs. 2 NetzDG wird der Bußgeldrahmen für die obengenannten Verstöße festgelegt. In den Fällen von Abs. 1 Nr. 7 und 8 kann eine Geldbuße von bis zu fünfhunderttausend Euro, in den übrigen Fällen des Abs. 1 bis zu fünf Millionen Euro, verhängt werden. Durch die in S. 2 angegebene Möglichkeit der Anwendung des § 30 Abs. 2 S. 3 OWiG ist im Falle einer Festsetzung einer Geldbuße gegen die das soziale Netzwerk betreibende juristische Person oder Personenvereinigung eine Verzehnfachung dieser Summe möglich. Nach § 4 Abs. 4 NetzDG ist Verwaltungsbehörde im Sinne des § 36 Abs. 1 Nr. 1 OWiG das Bundesamt für Justiz. Die Prüfkompetenz des Bundesamts für Justiz soll dabei vergleichbar mit der Tätigkeit der Landesmedienanstalten, als 165
BT-Drs. 18/12356, S. 24.
46
Kap. 2: Das NetzDG und der unionsrechtliche Regulierungsrahmen
zuständige Verwaltungsbehörde gemäß § 24 des JMStV, sein.166 Gemäß § 4 Abs. 4 S. 2 NetzDG erlässt das BMJ allgemeine Verwaltungsgrundsätze über die Ausübung des Ermessens der Bußgeldbehörde bei der Einleitung des Bußgeldverfahrens und bei der Bemessung der Geldbuße.167 Nach § 4 Abs. 5 NetzDG soll vorab eine gerichtliche Entscheidung herbeigeführt werden, wenn die Verwaltungsbehörde ihre Entscheidung darauf stützen will, dass nicht entfernte oder nicht gesperrte Inhalte rechtswidrig im Sinne § 1 Abs. 3 NetzDG sind. § 4 Abs. 5 S. 2 NetzDG bestimmt, dass das Gericht zuständig ist, das über den Einspruch gegen den Bußgeldbescheid entscheidet. Dies ist das Amtsgericht, in dessen Bezirk die Verwaltungsbehörde ihren Sitz hat.168 Weiterhin ist nach § 4 Abs. 5 S. 3 NetzDG der Antrag auf Vorabentscheidung dem Gericht zusammen mit der Stellungnahme des sozialen Netzwerks zuzuleiten. Nach § 4 Abs. 5 S. 4 NetzDG kann über den Antrag ohne mündliche Verhandlung entschieden werden. Gemäß § 4 Abs. 5 S. 5 NetzDG ist die Entscheidung nicht anfechtbar und für die Verwaltungsbehörde bindend. 10. Ernennung eines Zustellungsbevollmächtigten sowie einer empfangsberechtigten Person Nach § 5 Abs. 1 NetzDG haben soziale Netzwerke im Inland einen Zustellungsbevollmächtigten zu benennen und auf ihrer Plattform in leicht erkennbarer und unmittelbar erreichbarer Weise auf ihn aufmerksam zu machen. Die Vorschrift gilt für alle sozialen Netzwerke, unabhängig davon, ob sie ihren Sitz im In- oder Ausland haben.169 Gemäß § 5 Abs. 1 S. 2 NetzDG können an diese Person Zustellungen in Bußgeldverfahren, Verfahren nach § 4 NetzDG oder in Gerichtsverfahren vor deutschen Gerichten wegen der Verbreitung rechtswidriger Inhalte bewirkt werden. Nach S. 3 gilt dies auch für die Zustellung von Schriftstücken, die solche Verfahren einleiten. § 5 Abs. 2 NetzDG betrifft die Ernennung einer empfangsberechtigten Person. Für Auskunftsersuchen einer inländischen Strafverfolgungsbehörde ist eine empfangsberechtigte Person im Inland zu benennen, die verpflichtet ist, auf Auskunftsersuchen innerhalb von 48 Stunden nach Zugang zu antworten. 11. Aufsicht § 4a NetzDG betrifft die Aufsichts- und Anordnungsbefugnis des Bundesamts für Justiz. Die Behörde trifft nach § 4a Abs. 2 NetzDG erforderliche Maßnahmen 166
BT-Drs. 18/12356, S. 12 f. NetzDG-Bußgeldleitlinien, Leitlinien zur Festsetzung von Geldbußen im Bereich des Netzwerkdurchsetzungsgesetzes (NetzDG) v. 22.03.2018. 168 BT-Drs. 18/12356, S. 27. 169 BT-Drs. 18/12356, S. 27. 167
B. Der unionsrechtliche Rahmen für die Regulierung sozialer Netzwerke
47
gegenüber dem Anbieter, wenn dieser gegen die Vorschriften des NetzDG verstoßen hat oder verstößt. In § 4 Abs. 3 NetzDG werden die Auskunftspflichten des Diensteanbieters im Verwaltungsverfahren nach Abs. 2 geregelt, wobei auch solche Auskünfte zu erteilen sind, die geeignet sind, eine Verfolgung wegen einer Straftat oder einer Ordnungswidrigkeit herbeizuführen. § 4a Abs. 3 S. 4 und 5 NetzDG sehen jedoch vor, dass solche Auskünfte nur mit Zustimmung in einem Straf- oder Ordnungswidrigkeitsverfahren sowie in einem Verfahren zur Festsetzung der Geldbuße nach § 30 OWiG, verwendet werden dürfen. 12. Änderung des TMG Mit dem NetzDG wurden dem § 14 TMG auch die Abs. 3 bis 5 hinzugefügt. Diese regeln die Herausgabe von Bestandsdaten wegen der Verletzung absolut geschützter Rechte. Mit der Neuordnung des Datenschutzrechts im Bereich von Telekommunikation und Telemedien wurde die Vorschrift in § 21 Abs. 2 bis 4 TTDSG170 überführt. Der Diensteanbieter darf nach § 21 Abs. 2 TTDSG im Einzelfall Auskunft über bei ihm vorhandene Bestandsdaten erteilen. Diese Regelung stellt eine datenschutzrechtliche Erlaubnisnorm dar.171 In § 21 Abs. 3 TTDSG ist ein Richtervorbehalt für die Auskunftserteilung vorgesehen. § 21 Abs. 4 TTDSG regelt, dass der Diensteanbieter als Beteiligter zu dem Verfahren nach Abs. 3 hinzuzuziehen ist und den Nutzer über die Einleitung des Verfahrens unterrichten darf.
B. Der unionsrechtliche Rahmen für die Regulierung sozialer Netzwerke Bevor im nächsten Kapitel dieser Arbeit auf die Vereinbarkeit des NetzDG mit den unionsrechtlichen Vorgaben eingegangen wird, gilt es zunächst herauszuarbeiten, welche unionsrechtlichen Rahmenbedingungen im Zusammenhang mit dem NetzDG überhaupt von Bedeutung sind. Die Europäische Union in ihrer heutigen Form hat ihre rechtlichen Grundlagen in völkerrechtlichen Verträgen und ist Folge eines „Integrationsprozesses“.172 Die vertraglichen Grundlagen der Union sind der Vertrag über die Europäische Union (EUV) sowie der Vertrag über die Arbeitsweise der Europäischen Union (AEUV). Es handelt sich hierbei nicht um „gewöhnliche“ völkerrechtliche Verträge, da sie neben der Regelung von Rechten und Pflichten auch darauf gerich170 Gesetz über den Datenschutz und den Schutz der Privatsphäre in der Telekommunikation und bei Telemedien (Telekommunikation-Telemedien-Datenschutz-Gesetz – TTDSG) v. 23.06.2021, BGBl. I S. 1982. 171 BT-Drs. 18/12356, S. 28. 172 Niedobitek/Niedobitek, Europarecht § 1 Rn. 1.
48
Kap. 2: Das NetzDG und der unionsrechtliche Regulierungsrahmen
tet sind, eine internationale Organisation zu errichten.173 Die Mitgliedschaft in der Europäischen Union ist nicht mit einem Souveränitätsverlust verbunden, die Mitgliedstaaten sind vielmehr „Herren der Verträge“.174 Es findet jedoch eine Übertragung von Hoheitsrechten an die Union statt.175 Durch die Integrationsverträge ist eine eigenständige Unionsrechtsordnung geschaffen worden, die sich in Primärrecht und Sekundärecht gliedert. Die Verträge als Grundlage für das Handeln der EU sowie die Grundrechtecharta stellen das Primärrecht der Union dar.176 Als Sekundärrecht werden die auf den Grundsätzen und Zielen der Verträge basierenden Rechtsvorschriften bezeichnet, die Verordnungen, Richtlinien, Beschlüsse, Empfehlungen und Stellungnahmen umfassen.177 Der Unionsrechtsordnung kommt Vorrang vor dem mitgliedstaatlichen Recht zu. Dieser Vorrang ist im Primärrecht nicht ausdrücklich geregelt, sondern ständige Rechtsprechung des EuGH.178 Bereits 1964 führte der EuGH aus: „Aus alledem folgt, daß dem vom Vertrag geschaffenen, somit aus einer autonomen Rechtsquelle fließenden Recht wegen dieser seiner Eigenständigkeit keine wie immer gearteten innerstaatlichen Rechtsvorschriften vorgehen können, wenn ihm nicht sein Charakter als Gemeinschaftsrecht aberkannt und wenn nicht die Rechtsgrundlage der Gemeinschaft selbst infrage gestellt werden soll.“179 Dabei geht der EuGH von einem Anwendungsvorrang des Unionsrechts aus.180 Dieser Vorrang wurde von den nationalen Verfassungsgerichten, teilweise jedoch mit Grenzen, grundsätzlich anerkannt.181 So hat auch das Bundesverfassungsgericht den Vorrang des Unionsrechts anerkannt,182 weicht jedoch in seiner Begründung von der Auffassung des EuGH ab.183 In seiner Rechtsprechung hat das Bundesverfassungsgericht Kontrollvorbehalte im Hinblick auf das Unionsrecht entwickelt.184 Es handelt sich um die Grundrechtskontrolle,185 die Ultra-vires-Kontrolle186 sowie die Identitätskontrolle.187 173
Niedobitek/Niedobitek, Europarecht § 1 Rn. 8. BVerfG, Urt. v. 30.06.2009 – 2 BvE 2/08, BVerfGE 123, 267 Rn. 231, 235, 298 – Lissabon. 175 Niedobitek/Niedobitek, Europarecht § 1 Rn. 125. 176 Niedobitek/Magiera, Europarecht § 7 Rn. 2. 177 Niedobitek/Magiera, Europarecht § 7 Rn. 3. 178 Niedobitek/Weiß, Europarecht § 5 Rn. 85, 87. 179 EuGH, Urt. v. 15.07.1964, Rs. C-6/64, ECLI:EU:C:1964:66 – Costa/E.N.E.L. 180 EuGH, Urt. v. 29.04.1999, Rs. C-224/97, ECLI:EU:C:1999:212 Rn. 26 – Ciola. 181 Niedobitek/Weiß, Europarecht § 5 Rn. 97. 182 BVerfG, Urt. v. 09.06.1971 – 2 BvR 225/69, BVerfGE 31, 145 – Milchpulver. 183 Siehe hierzu Niedobitek/Weiß, Europarecht § 5 Rn. 153 ff. 184 Ausführlich zu den Kontrollvorbehalten des BVerfG Gourdet, Europäischer Grundrechtsschutz, S. 42 ff. 185 BVerfG, Beschl. v. 29.05.1974 – 2 BvL 52/71, BVerfGE 37, 271 – Solange I; Beschl. v. 22.10.1986 – 2 BvR 197/83, BVerfGE 73, 339 – Solange II; Beschl. v. 07.06. 2000 – 2 BvL 1/97, BVerfGE 102, 147 – Bananenmarktordnung. 174
B. Der unionsrechtliche Rahmen für die Regulierung sozialer Netzwerke
49
Die Durchsetzung des Unionsrechts beruht auf der Durchsetzung durch die Unionsgerichte sowie durch die nationalen Gerichte.188 Hinsichtlich der rechtlichen Kontrolle der Mitgliedstaaten kommt sowohl das Vertragsverletzungsverfahren nach Art. 258, 259 AEUV vor dem EuGH infrage, das von der Kommission oder anderen Mitgliedstaaten eingeleitet werden kann, als auch das Vorabentscheidungsverfahren nach Art. 267 AEUV, in dem sich nationale Gerichte an den Gerichtshof wenden.189
I. Primärrecht Eine entscheidende Fragestellung auf primärrechtlicher Ebene ist, ob das NetzDG die Grundrechte und Grundfreiheiten sowohl der Nutzer als auch der Anbieter sozialer Netzwerke achtet. 1. Der unionsrechtliche Grundrechtsschutz Das Recht auf europäischer Ebene bietet zwei zentrale Instrumente zur Wahrung der Grundrechte. Dies sind zum einen die Konvention zum Schutze der Menschenrechte und Grundfreiheiten (EMRK) und zum anderen die Charta der Grundrechte der Europäischen Union (GRCh). Darüber hinaus komplettieren die ungeschriebenen Unionsgrundrechte den Grundrechtsschutz.190 Auch wenn die EMRK, mangels Beitritts, für die EU keine Bindungswirkung hat, sind die in ihr gewährleisteten Grundrechte nach Art. 6 Abs. 3 EUV als allgemeine Grundsätze Teil des Unionsrechts und dienen als Rechtserkenntnisquelle.191 Auch wenn sich die vorliegende Arbeit auf die Prüfung der Grundrechte der Grundrechtecharta beschränkt, soll die EMRK aufgrund ihrer Bedeutung für den unionsrechtlichen Grundrechtsschutz nicht unerwähnt bleiben. a) Der Einfluss der Europäischen Menschenrechtskonvention Die EMRK wurde im Jahr 1950 vom Europarat verabschiedet und trat am 3. September 1953 in Kraft. Sie bindet die 47 Mitglieder des Europarats. Diese unterliegen der Rechtsprechung des Europäischen Gerichtshofs für Menschen186 BVerfG, Urt. v. 12.10.1993 – 2 BvR 2134/92, 2 BvR 2159/92, BVerfGE 89, 155 – Maastricht; Urt. v. 30.06.2009 – 2 BvE 2/08, BVerfGE 123, 267 – Lissabon; Beschl. v. 06.07.2010 – 2 BvR 2661/06, BVerfGE 126, 286 – Honeywell; Beschl. v. 14.01.2014 – 2 BvE 13/13, 2 BvR 2728/13, 2 BvR 2729/13, 2 BvR 2730/13, 2 BvR 2731/13, BVerfGE 134, 366 – OMT-Beschluss. 187 BVerfG, Urt. v. 30.06.2009 – 2 BvE 2/08, BVerfGE 123, 267 – Lissabon; Beschl. v. 15.12.2015 – 2 BvR 2735/14, BVerfGE 140, 317 – Europäischer Haftbefehl. 188 Niedobitek/Schroeder, Europarecht § 8 Rn. 102. 189 Niedobitek/Schroeder, Europarecht § 8 Rn. 103. 190 Kizil, JA 2011, 277. 191 Pechstein/Nowak/Häde/Pache, EUV Art. 6 Rn. 68; Grabitz/Hilf/Nettesheim/ Schorkopf, EUV Art. 6 Rn. 51.
50
Kap. 2: Das NetzDG und der unionsrechtliche Regulierungsrahmen
rechte (EGMR), der auf Grundlage der EMRK entscheidet. Vor dem EGMR können Personen, die sich in einem Recht aus der EMRK verletzt fühlen, Individualbeschwerde einlegen (Art. 34, 35 EMRK). Im Gegensatz zu ihren derzeit 27 Mitgliedstaaten ist die Europäische Union der EMRK bisher nicht beigetreten, obwohl mit dem Vertrag von Lissabon in Art. 6 Abs. 2 EUV diese Beitrittsmöglichkeit geschaffen wurde.192 Der EuGH hat in seinem Gutachten vom 18. Dezember 2014 zum Beitritt der Union zur EMRK die geplante Übereinkunft für unvereinbar mit dem Art. 6 Abs. 2 EUV und dem EU-Protokoll Nr. 8 erklärt.193 Infolge dieses Gutachtens des EuGH ist ein Beitritt der EU zur EMRK kaum mehr umsetzbar.194 Auch ohne den Beitritt der EU zur EMRK spielt letztere in Bezug auf den unionsrechtlichen Grundrechtsschutz eine wichtige Rolle. Ein beachtlicher Teil der Grundrechtecharta hat ihre Wurzeln in der EMRK und der Rechtsprechung des EGMR.195 Sowohl einzelne Rechte als auch teilweise Formulierungen der EMRK finden sich in der GRCh wieder.196 Die Grundrechtecharta geht jedoch in ihren Gewährleistungen über die der EMRK hinaus. Insbesondere enthält sie im Gegensatz zur EMRK soziale Grundrechte, wirtschaftsbezogene Rechte sowie Rechte die auf technische und wissenschaftliche Entwicklungen bezogen sind, wie beispielsweise Art. 8 GRCh den Schutz personenbezogener Daten oder Art. 3 Abs. 2 lit. d GRCh das Verbot des reproduktiven Klonens von Menschen.197 Erarbeitet wurde die Grundrechtecharta, die ursprünglich ein Teil des Vertrags über eine Verfassung für Europa werden sollte, vom sogenannten Konvent.198 Die besondere Bedeutung, welche die EMRK und die Rechtsprechung des EGMR für den Grundrechtsschutz durch den EuGH hat, spiegelt sich in der Kodifizierung des Art. 52 Abs. 3 S. 1 GRCh wider.199 Danach haben die Chartarechte die gleiche Bedeutung und Tragweite, wie die Rechte der EMRK, soweit sie den in ihr garantierten Rechten entsprechen. Die Charta kann jedoch gemäß Art. 52 Abs. 3 S. 2 GRCh ein höheres Schutzniveau vorsehen. In den Details ist die Bedeutung des Art. 52 Abs. 3 S. 1 GRCh, insbesondere die Auslegung der
192
Pechstein/Nowak/Häde/Pache, EUV Art. 6 Rn. 65. EuGH, Gutachten 2/13 v. 18.12.2014, Beitritt zur EMRK, ECLI:EU:C:2014: 2454, Rn. 258. 194 EuGH, Gutachten 2/13 v. 18.12.2014, Beitritt zur EMRK, ECLI:EU:C:2014: 2454; Niedobitek/Kugelmann, Europarecht § 4 Rn. 17; Wendel, NJW 2015, 921 (926). 195 Vgl. Aktualisierte Erläuterungen zum Text der Charta der Grundrechte v. 18.07. 2003, CONV 828/1/03/REV1. 196 Grabenwarter/Pabel, § 4 Rn. 6. 197 Gourdet, Europäischer Grundrechtsschutz, S. 112. 198 Vertrag über eine Verfassung für Europa, ABl. C 310 v. 16.10.2004, S. 1. 199 Lenaerts, EuR 2012, 3 (13). 193
B. Der unionsrechtliche Rahmen für die Regulierung sozialer Netzwerke
51
Formulierung Bedeutung und Tragweite umstritten.200 Gleichermaßen wirft auch der Begriff Entsprechen im Einzelfall Auslegungsschwierigkeiten auf. Während es beim Entsprechen darum geht, festzustellen, ob die jeweiligen Charta- bzw. EMRK-Rechte den gleichen Schutzzweck haben, betrifft die gleiche Bedeutung und Tragweite maßgeblich die Rechtsfolge.201 b) Die Charta der Grundrechte der Europäischen Union Mit Inkrafttreten des Vertrags von Lissabon am 1. Dezember 2009 wurde die Europäische Grundrechtecharta durch Art. 6 Abs. 1 EUV zur verbindlichen Rechtsquelle der Europäischen Union. Die in ihr garantierten Rechte sind sowohl von den Organen und Institutionen der Europäischen Union als auch von den EU-Mitgliedstaaten zu achten. Entsprechend Art. 51 Abs. 1 GRCh gilt die Charta sowohl für Organe, Einrichtungen und sonstige Stellen der Union als auch für die Mitgliedstaaten bei der Durchführung des Unionsrechts. Das Unionsrecht umfasst in diesem Sinne das gesamte Primär- und Sekundärrecht.202 In den Details umstritten ist jedoch der Begriff der Durchführung des Unionsrechts, der weder in der GRCh noch im AUEV definiert wird.203 Nach Art. 19 Abs. 1 EUV sichert der Gerichtshof der Europäischen Union die Wahrung des Rechts bei der Auslegung und Anwendung der Verträge. Zur Durchsetzung des Grundrechtsschutzes ist jedoch kein eigenständiges Verfahren vorgesehen.204 Für natürliche und juristische Personen ermöglichen die Individualnichtigkeitsklage nach Art. 263 Abs. 4 AEUV sowie das Vorabentscheidungsverfahren nach Art. 267 AEUV Grundrechtsverletzungen vor dem EuGH zu rügen.205 Die Voraussetzungen der Individualnichtigkeitsklage sind jedoch gerade bei Verordnungen und Richtlinien regelmäßig nicht gegeben.206 Auch dem Vorabentscheidungsverfahren kommt nur eine sehr beschränkte mittelbar individualrechtsschützende Funktion zu.207 Denn auf die Vorlage an den EuGH hat der Betroffene keinen Einfluss, sie liegt im Ermessen des zuständigen Gerichts.208 Weiterhin kommt für die rechtliche Kontrolle der Mitgliedstaaten das Vertrags200 Siehe hierzu ausführlich Ziegenhorn, Der Einfluss der EMRK im Recht der EUGrundrechtecharta, S. 29 ff. 201 Meyer/Hölscheidt/Schwerdtfeger, GRCh Art. 52 Rn. 53 ff. 202 Schwarze/Becker/Hatje/Schoo/Hatje, GRC Art. 51 Rn. 14. 203 Zu der Frage ob mit dem NetzDG Unionsrecht durchgeführt wird, siehe Kapitel 3 A. I. 5. a) aa). 204 Gourdet, Europäischer Grundrechtsschutz, S. 116. 205 Gourdet, Europäischer Grundrechtsschutz, S. 116 f. 206 Gourdet, Europäischer Grundrechtsschutz, S. 116 f.; Thiele, EuR 2010, 30 (42 f.). 207 Ausführlich dazu Thomy, Individualrechtsschutz durch das Vorabentscheidungsverfahren. 208 Thomy, Individualrechtsschutz durch das Vorabentscheidungsverfahren, S. 48 f.
52
Kap. 2: Das NetzDG und der unionsrechtliche Regulierungsrahmen
verletzungsverfahren nach Art. 258, 259 AEUV vor dem EuGH infrage, das von der Kommission oder anderen Mitgliedstaaten eingeleitet werden kann.209 Die Grundrechtecharta als derzeit modernster Grundrechtskatalog enthält eine Reihe von Rechten, die in Bezug auf die Kommunikation in der digitalen Welt eine gewichtige Rolle spielen. Ganz zentral ist in diesem Zusammenhang der Art. 11 Abs. 1 GRCh der die Freiheit der Meinungsäußerung garantiert. Art. 11 Abs. 2 GRCh dient dem Schutz der Massenmedien in ihrer Funktion für die öffentliche Meinungsbildung. Während Art. 11 Abs. 1 GRCh insbesondere Bedeutung für den grundrechtlichen Schutz der Nutzer sozialer Netzwerke hat, adressiert Art. 11 Abs. 2 GRCh mit seinen Gewährleistungen insbesondere die Anbieter dieser Plattformen. Da die Kommunikation im Internet denknotwendig mit einer nicht unerheblichen Verarbeitung personenbezogener Daten verbunden ist, sind an dieser Stelle auch die Art. 7 und 8 GRCh, die den Schutz des Privatlebens und den Schutz personenbezogener Daten garantieren, zu nennen. 2. Die Grundfreiheiten des Binnenmarktes Die Grundfreiheiten im Unionsrecht stehen im engen Zusammenhang mit dem wirtschaftsbezogenen Grundsatz der Union und spielen für diese Zielsetzung eine maßgebliche Rolle.210 Beabsichtigt ist ein Raum ohne Binnengrenzen, in dem es Freiheit für den Waren-, Personen-, Dienstleistungs- und Kapitalverkehr gibt.211 Bereits seit der Gründung der Europäischen Wirtschaftsgemeinschaft im Jahre 1957 sind die Grundfreiheiten Teil des Europarechts.212 Verankert im AEUV stehen sie auf primärrechtlicher Ebene. In einigen Fällen kann es zu Überschneidungen der Schutzbereiche der Grundfreiheiten und den in der GRCh garantierten Grundrechten kommen. Beispielsweise wenn ein Eingriff sowohl die unternehmerische Freiheit aus Art. 16 GRCh als auch die Dienstleistungsfreiheit der Art. 56 bis 62 AEUV betrifft. Nach vorzugswürdiger Auffassung unterscheiden sich Grundfreiheiten und Grundrechte hinsichtlich Zielsetzung und Adressatenkreis.213 Die Grundrechte verpflichten Organe der Union und der Mitgliedstaaten nur, sofern sie Unionsrecht durchführen, während die Grundfreiheiten auch einen Maßstab für nationales Recht bilden.214 Zudem erfordern die Grundrechte im Gegensatz zu den Grundfreiheiten kein grenzüberschreitendes Element, sondern kommen zur Anwendung, wenn 209
Niedobitek/Schroeder, Europarecht § 8 Rn. 103. Frenz, Handbuch Europarecht: Band 1 Rn. 3 f. 211 Frenz, Handbuch Europarecht: Band 1 Rn. 22 ff. 212 Siehe Vertrag zur Gründung der Europäischen Wirtschaftsgemeinschaft v. 25.03.1957. 213 Pechstein/Nowak/Häde/Pache, EUV Art. 6 Rn. 15; Frenz, Handbuch Europarecht: Band 1 Rn. 73. 214 Jarass, EU-Grundrechte-Charta Art. 16 Rn. 7. 210
B. Der unionsrechtliche Rahmen für die Regulierung sozialer Netzwerke
53
Freiheiten und Rechte als solche angetastet werden.215 Diese Aspekte sprechen für eine parallele Anwendung der Grundrechte und Grundfreiheiten.216 Eine wichtige Rolle kommt den Grundfreiheiten auch im Online-Kontext zu. Hinsichtlich der sozialen Netzwerke ist insbesondere die Dienstleistungsfreiheit der Art. 56 ff. AEUV einschlägig. Zunächst kam der Dienstleistungsfreiheit weitestgehend die Bedeutung eines Auffangtatbestands zu, der gewährleisten sollte, dass keine, gewöhnlich gegen Entgelt geleistete, Tätigkeit Einschränkungen unterworfen wird.217 Inzwischen kommt der Dienstleistungsfreiheit aber auch eine eigenständige Bedeutung neben den anderen Grundfreiheiten zu.218 Das erforderliche grenzüberschreitende Element ist in Bezug auf die Angebote sozialer Netzwerke regelmäßig gegeben.219 Denn die Anbieter sozialer Netzwerke sowie deren Server befinden sich häufig in einem anderen Mitgliedstaat als die Nutzer dieser Netzwerke.220 Damit hat auch der Gehalt der Dienstleistungsfreiheit einen Wandel erfahren. Ursprünglich für die Gewährleistung der Personenfreiheit gedacht, schützt die Dienstleistungsfreiheit heutzutage vielmehr den Austausch immaterieller Leistungen in einer vernetzten Welt.221
II. Sekundärrecht Bei dem Sekundärrecht der Union, auch als abgeleitetes Recht bezeichnet, handelt es sich um Rechtshandlungen, die von Organen der Union auf Grundlage der Verträge erlassen werden.222 Diese Rechtshandlungen sind nach Art. 288 AUEV Verordnungen, Richtlinien, Beschlüsse, Empfehlungen und Stellungnahmen. Während Verordnungen verbindliche Rechtsakte sind, die von allen Mitgliedstaaten vollumfänglich umzusetzen sind, werden in Richtlinien lediglich verbindliche Ziele festgelegt.223 Die Umsetzung der Ziele in das nationale Recht obliegt jedoch den einzelnen Mitgliedstaaten.224 Hinsichtlich der sozialen Netzwerke ist im europäischen Sekundärrecht zunächst die E-Commerce-Richtlinie 225 von besonderer Bedeutung, die eine ein215
Jarass, EU-Grundrechte-Charta Art. 16 Rn. 7. Jarass, EU-Grundrechte-Charta Art. 16 Rn. 6; Pechstein/Nowak/Häde/Pache, EUV Art. 6 Rn. 15; Frenz, Handbuch Europarecht: Band 1 Rn. 63 f. 217 Frenz, Handbuch Europarecht: Band 1 Rn. 2971; Kort, 1996, 132 (132 f.). 218 Frenz, Handbuch Europarecht: Band 1 Rn. 2972 f.; Kort, 1996, 132 (132 f.). 219 Osing, Die Netzneutralität im Binnenmarkt, S. 114. 220 Osing, Die Netzneutralität im Binnenmarkt, S. 114. 221 Frenz, Handbuch Europarecht: Band 1 Rn. 2960. 222 Grabitz/Hilf/Nettesheim/Nettesheim, AEUV Art. 288 Rn. 30. 223 Grabitz/Hilf/Nettesheim/Nettesheim, AEUV Art. 288 Rn. 89, 104. 224 Grabitz/Hilf/Nettesheim/Nettesheim, AEUV Art. 288 Rn. 104. 225 Richtlinie 2000/31/EG des Europäischen Parlaments und des Rates v. 08.06.2000 über bestimmte rechtliche Aspekte der Dienste der Informationsgesellschaft, insbeson216
54
Kap. 2: Das NetzDG und der unionsrechtliche Regulierungsrahmen
heitliche Rechtsgrundlage für den elektronischen Geschäftsverkehr schaffen soll. Unumgänglich im vernetzten Zeitalter ist die Datenschutz-Grundverordnung (DS-GVO)226, denn die Kommunikation in sozialen Netzwerken ist ohne die Verarbeitung personenbezogener Daten nicht denkbar. Auch die AVMD-Richtlinie ist in Bezug auf soziale Netzwerke zu berücksichtigen. Ihr Anwendungsbereich betrifft Mediendienste, die audiovisuelle Inhalte zur Verfügung stellen. 1. Die E-Commerce-Richtlinie Eine zentrale Rolle für die Regulierung von Medienintermediären im Internet spielt derzeit noch die E-Commerce-Richtlinie. Der europäische Richtliniengeber hat seinerzeit erkannt, dass der elektronische Geschäftsverkehr die Chance zu wirtschaftlichem Wachstum bietet, sofern rechtliche Hindernisse beseitigt werden.227 Dieses Ziel findet auch seinen Niederschlag in Erwägungsgrund 8 der Richtlinie. Dort heißt es: „Ziel dieser Richtlinie ist es, einen rechtlichen Rahmen zur Sicherstellung des freien Verkehrs von Diensten der Informationsgesellschaft zwischen den Mitgliedstaaten zu schaffen.“ Ziel der ECRL war keineswegs die Harmonisierung des materiellen Rechts, sondern vielmehr einen koordinierten Bereich zu definieren.228 Der Begriff des koordinierten Bereichs ist zentral für die Anwendung der Richtlinie. Bis zum Erlass der ECRL hielten die Mitgliedstaaten unterschiedliche Regelungen bereit, sodass ein Diensteanbieter mit grenzüberschreitendem Angebot sowohl die Vorschriften des Herkunftslandes als auch die sämtlicher Mitgliedstaaten zu berücksichtigen hatte.229 Als zentraler Punkt der Richtlinie wurde das Herkunftslandprinzip in Art. 3 ECRL eingeführt. Die Richtlinie enthält darüber hinaus auch materielle Vorgaben, vor allem hinsichtlich der Verantwortlichkeit von Diensteanbietern.230 In Bezug auf soziale Netzwerke und deren Tätigkeit ist der Art. 14 ECRL neben dem Herkunftslandprinzip aus Art. 3 ECRL von besonderer Relevanz.
dere des elektronischen Geschäftsverkehrs, im Binnenmarkt (Richtlinie über den elektronischen Geschäftsverkehr). 226 Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates v. 27.04.2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung). 227 Bericht v. 14.05.1998 über eine Europäische Initiative für den europäischen Geschäftsverkehr, A4–0173/98. 228 EuGH, Urt. v. 25.10.2011, Rs. C-509/09 und C-161/10, ECLI:EU:C:2011:685 Rn. 57 – eDate Advertising u. a.; Deutscher Bundestag, Fachbereich Europa, PE 6 – 3000 – 22/17, S. 5. 229 Grabitz/Hilf/Marly, Vorbemerkung: Der elektronische Geschäftsverkehr als Gegenstand der Richtlinie 2000/31/EG Rn. 43. 230 Deutscher Bundestag, Fachbereich Europa, PE 6 – 3000 – 22/17, S. 5.
B. Der unionsrechtliche Rahmen für die Regulierung sozialer Netzwerke
55
2. Die Richtlinie über audiovisuelle Mediendienste Im Kontext der sozialen Netzwerke und in Bezug auf das NetzDG muss auch die Richtlinie über audiovisuelle Mediendienste Beachtung finden. Durch die Änderung dieser Richtlinie durch die Richtlinie (EU) 2018/1808 werden nun auch Videosharingplattformen, von Nutzern erstellte Inhalte sowie audiovisuelle Inhalte, die über soziale Netzwerke verbreitet werden, erfasst. Für Videosharingplattform-Anbieter enthält die AVMD-Richtlinie in Art. 28a eine Rechtshoheitszuweisung. Der Art. 28a Abs. 5 AVMD-RL verweist ausdrücklich auf die Geltung des Herkunftslandprinzips aus der ECRL. Die Mitgliedstaaten stellen nach Art. 28b AVMD-RL sicher, dass diverse Schutzvorkehrungen getroffen werden. Dazu gehören unter anderem der Schutz von Minderjährigen sowie nach Art. 28b Abs. 1 lit. b AVMD-RL der Schutz der Allgemeinheit vor Gewalt oder Hass. 3. Die Datenschutz-Grundverordnung Am 25. Januar 2012 hat die Europäische Kommission den Vorschlag für die Datenschutz-Grundverordnung231 vorgestellt. Die Verordnung und eine ergänzende Richtlinie232 sollen die Richtlinie 95/46/ EG233 aus dem Jahr 1995 und den Rahmenbeschluss 2008/977/JI234 für Polizei und Justiz ersetzen. Vor dem Hintergrund des raschen technischen Fortschritts präsentierte sich die Richtlinie von 1995 als unzeitgemäß.235 Zusätzlich hatte die Umsetzung der Richtlinie in den verschiedenen Mitgliedstaaten zu unterschiedlichen Datenschutzstandards geführt.236 Daher zielt die Datenschutz-Grundverordnung auf die Modernisierung237 und Harmonisierung238 des europäischen Daten-
231 Vorschlag für die Verordnung des Europäischen Parlaments und des Rates zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten und zum freien Datenverkehr (Datenschutz-Grundverordnung), KOM(2012) 11 endg. 232 Richtlinie (EU) 2016/680 des Europäischen Parlaments und des Rates v. 27.04.2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die zuständigen Behörden zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung sowie zum freien Datenverkehr und zur Aufhebung des Rahmenbeschlusses 2008/977/JI des Rates. 233 Richtlinie 95/46/EG des Europäischen Parlaments und des Rates v. 24.10.1995 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten und zum freien Datenverkehr. 234 Rahmenbeschluss 2008/977/JI des Rates v. 27.11.2008 über den Schutz personenbezogener Daten, die im Rahmen der polizeilichen und justiziellen Zusammenarbeit in Strafsachen verarbeitet werden. 235 Vgl. Erwägungsgrund 6 DS-GVO. 236 Erwägungsgrund 9 DS-GVO. 237 Vgl. Erwägungsgrund 6 DS-GVO. 238 Erwägungsgrund 9 DS-GVO.
56
Kap. 2: Das NetzDG und der unionsrechtliche Regulierungsrahmen
schutzes ab. Zudem soll eine einheitliche Rechtsdurchsetzung erreicht werden, weshalb die Wahl des Instruments auf eine Verordnung fiel, die nach Art. 288 Abs. 2 AEUV, anders als die Richtlinie, keinen Umsetzungsakt erfordert.239
239
Erwägungsgrund 13 DS-GVO.
Kapitel 3
Die Vereinbarkeit des NetzDG mit dem Unionsrecht Das vorangegangene Kapitel bietet einen Überblick über den Inhalt des NetzDG sowie die unionsrechtlichen Vorgaben, die in Bezug auf soziale Netzwerke und insbesondere im Hinblick auf das NetzDG von Bedeutung sind. Dem NetzDG steht der Vorwurf gegenüber, gegen einen Großteil dieser unionsrechtlichen Vorgaben zu verstoßen. Im Folgenden werden einzelne Problemkreise im Zusammenhang mit dem NetzDG und mögliche Verstöße gegen geltendes Recht einer genaueren Betrachtung unterzogen. Das NetzDG betrifft Anbieter und Nutzer der sozialen Netzwerke gleichermaßen. Die Pflichten, die das NetzDG aufstellt, richten sich direkt an die Anbieter der sozialen Netzwerke. Sofern diese den Pflichten nachkommen, werden aber auch die Nutzer der sozialen Netzwerke durch die Vorschriften des NetzDG beeinträchtigt. Gerade die Löschpflichten der Betreiber haben enorme Auswirkungen auf den Kommunikationsprozess der Nutzer untereinander. Daher sollen zunächst die Vorgaben des NetzDG überprüft werden, welche die Rechte der Nutzer sozialer Netzwerke beeinträchtigen.
A. Beeinträchtigung der Rechte der Netzwerkmitglieder Eine Beeinträchtigung der Rechte der Nutzer sozialer Netzwerke steht in vielerlei Hinsicht im Raum. Insbesondere kommt eine Verletzung der Meinungsfreiheit aus Art. 11 Abs. 1 GRCh in Betracht. Für die Prüfung einer solchen Grundrechtsverletzung bietet das NetzDG ein Füllhorn von Angriffspunkten: Overblocking, Chilling Effects und die Privatisierung der Rechtsdurchsetzung. Überdies wirft das NetzDG auch datenschutzrechtliche Fragen auf.
I. Overblocking durch das NetzDG Einer der zentralsten Kritikpunkte, der dem NetzDG bereits seit dem ersten Entwurf entgegengebracht wird, ist die Befürchtung, das NetzDG könne zu Overblocking führen.1 Im Folgenden werden zunächst der Begriff des Overblocking 1 Siehe nur Guggenberger, ZRP 2017, 98 (100); Heckmann/Wimmers, CR 2017, 310 (314); Heidrich/Scheuch, DSRITB 2017, 305 (315 f.); Liesching, MMR 2018, 26 (27); Müller-Franken, AfP 2018, 1 (7 f.); Nolte, ZUM 2017, 552 (556); a. A. Bautze, KJ 2019, 203 (208 ff.); Schiff, MMR 2018, 366 (370 f.); differenzierend: Lang, AöR 143 (2018), 220 (232 ff.).
58
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
und die zugrunde liegenden Mechaniken einer kurzen Betrachtung unterzogen und sodann überprüft, ob Rechte der Nutzer dadurch beeinträchtigt werden. 1. Der Begriff des Overblockings Die Bestimmungen des NetzDG, insbesondere die Verfahrensvorgaben und die Bußgeldvorschriften, lassen den Verdacht aufkommen, dass sie zu einem sogenannten Overblocking durch die sozialen Netzwerke führen könnten. Gemeint ist damit, dass die sozialen Netzwerke zu übermäßigen Sperrungen und Löschungen von Inhalten neigen.2 Der Begriff Overblocking beschreibt jedoch nur solche Fälle, in denen es zu Sperrungen und Löschungen rechtmäßiger Beiträge kommt; die Quantität der Löschungen spielt dabei keine Rolle.3 Die bangen Erwartungen es komme mit Inkrafttreten des NetzDG zu „exzessiven Löschungen“4, oder gar zu „Löschorgien“5 gehen in diesem Zusammenhang daher fehl.6 Der Begriff Overblocking wird allgemein genutzt, wenn ein Hostprovider von Nutzern erstellte Inhalte (sogenannter User Generated Content – UGC) löscht oder sperrt, obwohl diese nicht gegen Gesetze oder die Nutzungsbedingungen der Plattform verstoßen.7 Diskutiert wird dieses Phänomen in Bezug auf Löschungen nach den Gemeinschaftsstandards der sozialen Netzwerke, Upload-Filter und neuerdings in Bezug auf das NetzDG. Overblocking kann nicht nur in den Fällen auftreten, in denen Content-Manager der sozialen Netzwerke Inhalte löschen, sondern auch wenn automatische Filter falsch eingestellt, veraltet oder fehlerhaft programmiert sind.8 Allerdings ist wohl jedem Haftungsregime im Internet das Risiko des Overblockings immanent, was in einem gewissen Maße hingenommen werden muss.9 Andernfalls wäre eine Regulierung von Inhalten kaum umsetzbar. Ziel muss jedoch sein, Anreize für ein Overblocking so gering wie möglich zu halten, um den Grundrechten der Nutzer entsprechend Rechnung zu tragen. Strukturen, die das Overblocking begünstigen, sind aus dem Immaterialgüterrecht hinreichend bekannt.10 Soweit das NetzDG ebensolche Strukturen aufweist, bleibt noch die 2
Guggenberger, ZRP 2017, 98 (99). Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 197. 4 Guggenberger, NJW 2017, 2577. 5 Bitkom zum Gesetzentwurf gegen Hasskriminalität in sozialen Netzwerken, 14.03.2017, abrufbar unter: https://www.bitkom.org/Presse/Presseinformation/Bitkomzum-Gesetzentwurf-gegen-Hasskriminalitaet-in-sozialen-Netzwerken.html. 6 Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 197. 7 Holznagel, CR 2018, 369. 8 Pravemann, GRUR 2019, 783 (788). 9 Holznagel, CR 2018, 369. 10 Lang, AöR 143 (2018), 220 (234). 3
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
59
Frage, ob die vom NetzDG ausgehende Gefahr des Overblockings vor dem Hintergrund des Gesetzeszwecks im noch hinnehmbaren Bereich liegt. 2. Grundlegende Anreizstrukturen für Overblocking Grundsätzlich gibt es verschiedene Faktoren, die das Overblocking begünstigen.11 Dies sind die Asymmetrie der Haftungsrisiken, die unterschiedliche Interessenlage von Anbieter und Nutzer, das Risiko einer Fehleinschätzung bei der Inhaltsprüfung sowie die grundsätzliche Schwierigkeit, rechtswidrige Inhalte überhaupt zu erkennen.12 Die Asymmetrie der Haftungsrisiken besteht in den Fällen, in denen Sanktionen für das Nichtlöschen von UGC verhängt werden, während gleichzeitig keine oder weniger empfindliche Sanktionen drohen, sofern Inhalte gelöscht werden.13 Zum Zweck der Vermeidung von Sanktionen besteht daher die Tendenz der Diensteanbieter, Inhalte zu löschen. Hinzu tritt die unterschiedliche Interessenlage von Anbietern und Nutzern. Den Anbieter treiben gewöhnlich monetäre Interessen an, wohingegen beim Nutzer die Erwartungshaltung besteht, eine Plattform zum freien Austausch von Inhalten nutzen zu können. Die Schwierigkeit besteht darin, diese Interessen in Einklang zu bringen. Der dritte und vierte Faktor für Overblocking setzt keinen direkten Anreiz zur Löschung, sondern liegt vielmehr in der Natur der Sache. Vom Overblocking betroffen sind in den meisten Fällen Inhalte, die im rechtlichen Grenzbereich liegen.14 Ist ein Inhalt eindeutig rechtswidrig beziehungsweise rechtmäßig, bereitet er keine Probleme hinsichtlich Löschung oder Nichtlöschung. Gegenstand der Diskussion um Overblocking sind daher die Fälle, deren rechtliche Bewertung gerade nicht eindeutig ist. Besondere Schwierigkeiten bereitet vor allem die Einordnung von Ironie, Satire und Kunst. Hinzu kommt, dass beim Content-Management, sei es durch Menschen oder Technik, stets Fehler vorkommen können.15 Wenn beispielsweise automatisierte Upload-Filter eingesetzt werden, kann es beim aktuellen Stand der Technik dazu kommen, dass Sonderfälle nicht erkannt werden.16 Die Gefahr, dass die Filter nicht zuverlässig zwischen unzulässigen und zulässigen Inhalten unterscheiden und daher auch zulässige Inhalte entfernt
11
Lang, AöR 143 (2018), 220 (234 f.). Lang, AöR 143 (2018), 220 (234 f.). 13 Guggenberger et al., NetzDG: im Zweifel gegen die Meinungsfreiheit, S. 49 f.; Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 338. 14 Rechenberg, RW 2019, 420 (423). 15 Urban/Karaganis/Schofield, Notice and Takedown in Everyday Practice, S. 116. 16 Gielen/Tiessen, EuZW 2019, 639 (645). 12
60
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
werden könnten, hat auch der EuGH in seinen Entscheidungen zur Einrichtung von Filtersystemen betont.17 3. Anreizstrukturen für Overblocking im NetzDG All diese Faktoren, die ein Overblocking begünstigen können, finden sich auch im NetzDG wieder. Das NetzDG enthält eine Vielzahl von Bestimmungen, die – insbesondere in ihrem Zusammenspiel – einen Anreiz schaffen im Zweifel Inhalte überobligatorisch zu sperren oder zu löschen. Es sei an dieser Stelle ausdrücklich darauf hingewiesen, dass es darauf ankommt, ob das NetzDG Anreizstrukturen für ein Overblocking beinhaltet, nicht jedoch darauf, ob es tatsächlich zu Overblocking von Inhalten führt.18 Denn es geht nicht darum, ob ein Overblocking empirisch belegbar ist, sondern vielmehr um eine grundrechtliche Bewertung.19 Auch wenn nur einzelne Nutzer durch das NetzDG nicht von ihrem grundrechtlich gewährleisteten Recht auf Meinungsfreiheit Gebrauch machen können, bedarf dies einer Rechtfertigung.20 Anknüpfungspunkt für die Gefahr des Overblockings im NetzDG sind die Lösch- und Sperrpflichten, denen die Betreiber der sozialen Netzwerke nach § 3 Abs. 1 NetzDG unterliegen. Für die Bearbeitung der Beschwerden setzt das NetzDG für offensichtlich rechtswidrige Inhalte eine Frist von 24 Stunden (§ 3 Abs. 2 Nr. 2 NetzDG), bei „normalen“ rechtswidrigen Inhalten eine Frist von sieben Tagen (§ 3 Abs. 1 Nr. 3 NetzDG). Unter einem solchen Zeitdruck kann es bei der rechtlichen Einordnung zu Fehlern kommen. Diese Befürchtung beruht zudem auf der Tatsache, dass das NetzDG Kommunikationsinhalte betrifft, die schwierige Abwägungsfälle darstellen. Insbesondere Kunst, Ironie und Satire sind häufig nicht auf den ersten Blick als solche erkennbar.21 Das NetzDG lässt auch eine deutliche Asymmetrie in der Haftung erkennen. Während bei einer Nichtlöschung von Inhalten die Verhängung von Bußgeldern droht, ist diese Gefahr bei der Zuviellöschung nicht gegeben, sodass im Zweifelsfall eine klare
17 EuGH, Urt. v. 24.11.2011, Rs. C-70/10, ECLI:EU:C:2011:771 Rn. 52 – Scarlet Extended; Urt. v. 16.02.2012, Rs. C-360/10, ECLI:EU:C:2012:85 Rn. 50 – SABAM. 18 Lüdemann, in: Eifert/Gostomzyk, Netzwerkrecht, S. 153 (158 f.); Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 198; Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 324; a. A. Lang, AöR 143 (2018), 220 (237) der die Verfassungsmäßigkeit des NetzDG von seinen realgesellschaftlichen Auswirkungen abhängig macht. 19 Lüdemann, in: Eifert/Gostomzyk, Netzwerkrecht, S. 153 (158); Hong, Das NetzDG und die Vermutung für die Freiheit der Rede, Verfassungsblog v. 09.01.2018. 20 Hong, Das NetzDG und die Vermutung für die Freiheit der Rede, Verfassungsblog v. 09.01.2018. 21 Berühmtes Beispiel für die Abgrenzung von Schmähkritik und Satire ist die Causa Böhmermann, OLG Hamburg, Urt. v. 15.05.2018 – 7 U 34/17, ZUM-RD 2018, 484.
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
61
Tendenz zum Löschen besteht.22 Auch zeigt sich hier die unterschiedliche Interessenlage von Anbietern sozialer Netzwerke und deren Nutzern. Die Anbieter haben primär monetäres Interesse am Betrieb der Netzwerke, während es den Nutzern auf den freien Austausch von Inhalten ankommt. Zwar haben die Nutzer ein Interesse an einem Kommunikationsumfeld ohne Hass und Falschnachrichten, gleichwohl empfinden sie eine übermäßige Löschung von Inhalten häufig als Zensur.23 Die Kritik an den Vorschriften des NetzDG geht jedoch dann zu weit, wenn man davon ausgeht, dass die Netzwerkbetreiber geradezu gezwungen sind,24 Inhalte zu löschen.25 Vielmehr liefert das NetzDG einen Anreiz zur Löschung, der definitiv größer ist als der Anreiz Inhalte nicht zu löschen.26 Denn einen Anreiz die betreffenden Inhalte eingehend zu prüfen und im Zweifel für die Meinungsfreiheit zu entscheiden, schafft das NetzDG nicht. 4. Derzeitige Erkenntnisse aus den Transparenzberichten Auch wenn sich die weitere Betrachtung mit der Frage beschäftigt, ob das NetzDG eine Anreizstruktur für Overblocking bietet, die nicht mit den Grundrechten der Nutzer zu vereinbaren ist, wird an dieser Stelle ein kurzer Blick auf die Erkenntnisse aus den Transparenzberichten der sozialen Netzwerke geworfen, ob derzeit tatsächlich ein Overblocking stattfindet. Denn mögliche Erkenntnisse aus den Transparenzberichten könnten auch einen erweiterten empirischen Zugang zu dem Thema bieten. Die ersten Transparenzberichte wurden im Sommer 2018 veröffentlicht. Schnell hat sich gezeigt, dass diese Berichte wenig Aussagekraft darüber haben, ob ein Overblocking stattfindet.27 Die niedrige Aussagekraft der Berichte liegt primär in dem Spielraum, den die sozialen Netzwerke bei der Ausgestaltung des Beschwerdesystems haben, was sich denknotwendig auf die Berichte niederschlägt.28 Ferner fehlen in der gesetzlichen Regelung konkrete Vorgaben hinsichtlich der Gestaltung der Berichte.29 Der Gesetzgeber hat inzwischen bei den
22
Siehe dazu Kapitel 3 A. I. 5. d) ff). Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 326. 24 So aber Liesching, MMR 2018, 26 (27). 25 Lang, AöR 143 (2018), 220 (234). 26 Lang, AöR 143 (2018), 220 (234). 27 Eifert/von Landenberg-Roberg/Theß/Wienfort, Netzwerkdurchsetzungsgesetz in der Bewährung, S. 124 f. 28 Eifert/von Landenberg-Roberg/Theß/Wienfort, Netzwerkdurchsetzungsgesetz in der Bewährung, S. 124 f. 29 Eifert/von Landenberg-Roberg/Theß/Wienfort, Netzwerkdurchsetzungsgesetz in der Bewährung, S. 125. 23
62
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
Vorgaben zur Berichtspflicht umfangreich nachgebessert.30 Es bleibt abzuwarten, ob diese Vorgaben langfristig zu mehr Transparenz und Vergleichbarkeit der Berichte führen werden. Denn die Problematik, dass soziale Netzwerke sowohl nach NetzDG als auch nach ihren eigenen Gemeinschaftsstandards löschen,31 bleibt weiterhin bestehen und wird mit den neuen Transparenzvorgaben nicht adressiert. Neben die geringe Aussagekraft der Transparenzberichte tritt ein weiterer Faktor, der den Nachweis von Overblocking in der Praxis erschwert: Theoretisch müsste jeder durch ein soziales Netzwerk gelöschte oder gesperrte Inhalt einer rechtlichen Prüfung unterzogen werden, um eine Aussage darüber treffen zu können, ob die Löschung beziehungsweise Sperrung rechtmäßig erfolgte oder nicht.32 Dies scheitert logischerweise an der praktischen Umsetzbarkeit. Lediglich eine stichprobenartige Überprüfung der gelöschten Inhalte ist denkbar.33 Um mit dieser Methode jedoch aussagekräftige Ergebnisse zu bekommen, müsste eine Vielzahl von erfolgten Sperrungen und Löschungen untersucht werden und nicht lediglich vereinzelte Stichproben. Dies würde allerdings einen erheblichen Aufwand bedeuten34 und zudem einen Zugang zu den entfernten Inhalten erfordern. Die vom BMJV in Auftrag gegebene Evaluation des NetzDG ist zu dem Ergebnis gekommen, dass es jedenfalls keine Anreize für Overblocking im NetzDG gebe. Hinweise auf ein Overblocking lägen sowohl von Seiten der Betroffenen als auch der beobachtenden Medien nicht vor.35 Allerdings könne eine stichhaltige Beurteilung nur nach inhaltlicher Überprüfung vorgenommen werden, die im Rahmen der Evaluation und aufgrund von fehlendem Entscheidungsmaterial zur Überprüfung nicht machbar sei.36 Darüber, wie die Autoren nach dieser Erkenntnis dennoch zu dem Ergebnis kommen, Anreize für ein Overblocking seien nicht erkennbar, schweigt der Bericht. Insoweit gibt es zum jetzigen Zeitpunkt lediglich Indizien, die für ein Overblocking sprechen können, ohne dass dies gesicherte Erkenntnisse sind. Ein erstes solches Indiz könnte sein, dass eine Vielzahl von Inhalten nach den Gemeinschaftsstandards gelöscht oder gesperrt wird. Denn die sozialen Netzwerke könn30 Gesetz zur Änderung des Netzwerkdurchsetzungsgesetzes v. 03.06.2021, BGBl. I S. 1436. 31 Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 325. 32 Liesching/Funke/Hermann/Kneschke/Mischnik/Nguyen/Prüßner/Rudolph/Zschammer, Das NetzDG in der praktischen Anwendung, S. 91. 33 Liesching/Funke/Hermann/Kneschke/Mischnik/Nguyen/Prüßner/Rudolph/Zschammer, Das NetzDG in der praktischen Anwendung, S. 94 f. 34 Liesching/Funke/Hermann/Kneschke/Mischnik/Nguyen/Prüßner/Rudolph/Zschammer, Das NetzDG in der praktischen Anwendung, S. 94 f. 35 Eifert/von Landenberg-Roberg/Theß/Wienfort, Netzwerkdurchsetzungsgesetz in der Bewährung, S. 79 f. 36 Eifert/von Landenberg-Roberg/Theß/Wienfort, Netzwerkdurchsetzungsgesetz in der Bewährung, S. 76.
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
63
ten geneigt sein, zur Vermeidung der Debatte um ein mögliches Overblocking aufgrund des NetzDG Inhalte nach ihren eigenen Gemeinschaftsstandards zu sperren.37 Da diese meist weiter gefasst sind als die geltenden Strafgesetze, können auf diese Weise auch Grenzfälle gelöst werden.38 In dieser Hinsicht werden die Transparenzberichte ihrer Bezeichnung nicht gerecht, sie sind vielmehr reichlich intransparent. Denn hinzukommt, dass die sozialen Netzwerke, nach eigenen Angaben, auch die NetzDG-Beschwerden zunächst nach den Gemeinschaftsstandards und dann erst nach den Vorgaben des NetzDG prüfen.39 Pragmatisch gesehen ist dies auch sinnvoll, da eine Löschung nach Gemeinschaftsstandards weltweit erfolgt, während die Löschung nach NetzDG nur für Deutschland vorgenommen wird. Durch diese zweistufige Prüfung kann ein mögliches Overblocking jedoch kaum nachvollzogen werden. Ein weiteres Indiz könnte die Vielzahl von Löschungen innerhalb von 24 Stunden darstellen.40 Denn diese Frist, gedacht für offensichtlich rechtswidrige Fälle, sollte eigentlich eher Ausnahme denn Regel sein.41 Aus den hohen Löschquoten innerhalb von 24 Stunden kann man nunmehr folgern, dass keine sorgfältige Prüfung der Inhalte vorgenommen wird und die sozialen Netzwerke zur Vermeidung von Sanktionen innerhalb von 24 Stunden löschen.42 Denn absolute Sicherheit, dass kein Bußgeld verhängt wird, können die sozialen Netzwerke nur haben, wenn sie Inhalte innerhalb dieser Frist löschen. Eine Löschung innerhalb von 24 Stunden kann aber auch den profanen Grund haben, dass die sozialen Netzwerke sich ohnehin alle gemeldeten Inhalte innerhalb dieser Frist ansehen müssen, um zu entscheiden, ob ein Fall der offensichtlichen Rechtswidrigkeit vorliegt.43 Dann ist es naheliegend, diese Fälle auch direkt zu bearbeiten. Nichtsdestotrotz könnte es für ein Overblocking sprechen, wenn die Frist von sieben Tagen für eine ausführlichere Prüfung nicht in Anspruch genommen wird.44 37 Eifert/von Landenberg-Roberg/Theß/Wienfort, Netzwerkdurchsetzungsgesetz in der Bewährung, S. 78; Liesching/Funke/Hermann/Kneschke/Mischnik/Nguyen/Prüßner/Rudolph/Zschammer, Das NetzDG in der praktischen Anwendung, S. 121 f. 38 Schwartmann/Mühlenbeck, ZRP 2020, 170 (170 f.); Liesching/Funke/Hermann/ Kneschke/Mischnik/Nguyen/Prüßner/Rudolph/Zschammer, Das NetzDG in der praktischen Anwendung, S. 123. 39 Liesching/Funke/Hermann/Kneschke/Mischnik/Nguyen/Prüßner/Rudolph/Zschammer, Das NetzDG in der praktischen Anwendung, S. 126. 40 Liesching/Funke/Hermann/Kneschke/Mischnik/Nguyen/Prüßner/Rudolph/Zschammer, Das NetzDG in der praktischen Anwendung, S. 131. 41 Schwartmann, GRUR-Prax 2017, 317 (318). 42 Sehr weitgehend Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 203, die von „(wohl) bereits eingetretenem Overblocking“ spricht. 43 Liesching/Funke/Hermann/Kneschke/Mischnik/Nguyen/Prüßner/Rudolph/Zschammer, Das NetzDG in der praktischen Anwendung, S. 111. 44 Liesching/Funke/Hermann/Kneschke/Mischnik/Nguyen/Prüßner/Rudolph/Zschammer, Das NetzDG in der praktischen Anwendung, S. 112.
64
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
Ferner könnte man glauben, dass eine geringe Löschquote, also die Relation der Anzahl der Beschwerden zu den tatsächlich gelöschten Inhalten gegen ein Overblocking spricht.45 Diese Relation hat aber kaum keine Aussagekraft.46 Denn die Beschwerden werden von juristischen Laien eingereicht, die möglicherweise auch Inhalte für rechtswidrig erachten, die ganz offensichtlich von der Meinungsfreiheit gedeckt sind.47 Stattdessen kommt es darauf an, ob unter den gelöschten Inhalten solche sind, die nicht hätten gelöscht werden dürfen. Letztlich darf aber das tatsächliche Verhalten der Anbieter nicht ausschlaggebend für die grundrechtliche Prüfung sein; ihm kann nur eine Indizwirkung zukommen.48 Die Anbieter der sozialen Netzwerke könnten andernfalls durch ihr Verhalten Einfluss auf die Entscheidung über die Unionsrechtskonformität des NetzDG haben.49 Insofern ist einzig die Anreizstruktur des Gesetzes relevant. 5. Beeinträchtigung des Art. 11 Abs. 1 GRCh durch die Anreize zum Overblocking Die Gefahr des Overblockings, die vom NetzDG ausgeht, könnte die Nutzer der sozialen Netzwerke in ihrem Recht auf Meinungsfreiheit aus Art. 11 Abs. 1 GRCh verletzen. Es sei an dieser Stelle erneut darauf hingewiesen, dass es im Folgenden um die Frage geht, ob die Gefahr des Overblockings eine Verletzung von Grundrechten darstellt und nicht um die Frage, ob ein Overblocking tatsächlich stattfindet. Zunächst wird jedoch darauf eingegangen, ob die Grundrechtecharta im Kontext des NetzDG überhaupt Anwendung findet. Schließlich handelt es sich beim NetzDG zunächst einmal um ein nationales Gesetz. a) Anwendbarkeit der Grundrechtecharta auf das NetzDG Hinsichtlich der Anwendbarkeit der Gewährleistungen der Grundrechtecharta auf das NetzDG sind zwei Fragestellungen zu unterscheiden: Zum einen muss untersucht werden, ob die Grundrechtecharta grundsätzlich auf diesen Sachverhalt anwendbar ist. Zum anderen ist darauf einzugehen, in welchem Verhältnis die nationalen Grundrechte zur Grundrechtecharta stehen.
45 So die Bundesregierung im Bericht der Bundesregierung zur Evaluierung des Gesetzes zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken, S. 21. 46 Eifert/von Landenberg-Roberg/Theß/Wienfort, Netzwerkdurchsetzungsgesetz in der Bewährung, S. 76; Liesching/Funke/Hermann/Kneschke/Mischnik/Nguyen/Prüßner/Rudolph/Zschammer, Das NetzDG in der praktischen Anwendung, S. 100. 47 Eifert/von Landenberg-Roberg/Theß/Wienfort, Netzwerkdurchsetzungsgesetz in der Bewährung, S. 75 f.; Liesching/Funke/Hermann/Kneschke/Mischnik/Nguyen/Prüßner/Rudolph/Zschammer, Das NetzDG in der praktischen Anwendung, S. 100. 48 Eifert, in: Eifert/Gostomzyk, Netzwerkrecht, S. 9 (35). 49 Kubiciel, jurisPR-StrafR 2017.
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
65
aa) Durchführung von Unionsrecht Nach Art. 51 Abs. 1 GRCh gilt die Charta sowohl für Organe, Einrichtungen und sonstige Stellen der Union als auch für die Mitgliedstaaten „ausschließlich bei der Durchführung des Rechts der Union“. Das Unionsrecht umfasst in diesem Sinne das gesamte Primär- und Sekundärrecht.50 Der Formulierung ausschließlich lässt sich jedenfalls entnehmen, dass eine umfassende Bindung der Mitgliedstaaten bei innerstaatlichen Sachverhalten ausscheidet.51 In den Details umstritten ist jedoch der Begriff der Durchführung des Unionsrechts, der weder in der GRCh noch im AUEV definiert wird. Dieser Problemkreis soll hier nur insoweit dargestellt werden, wie er für die vorliegende Arbeit relevant ist.52 In seiner Entscheidung in der Rechtssache Åkerberg Fransson53 bezog der EuGH Stellung dazu, wie der Begriff Durchführung zu verstehen sei. Er führte dazu aus, dass die Grundrechte in allen unionsrechtlichen Fallgestaltungen Anwendung fänden, nicht jedoch außerhalb dieser Fallgestaltungen. Sofern eine nationale Rechtsvorschrift nicht in den Geltungsbereich des Unionsrechts falle, könne der Gerichtshof sie nicht anhand der Charta beurteilen.54 Daraus folge, dass die durch die Charta garantierten Grundrechte zu beachten seien, wenn eine nationale Rechtsvorschrift in den Geltungsbereich des Unionsrechts falle, es seien „keine Fallgestaltungen denkbar, die vom Unionsrecht erfasst würden, ohne dass diese Grundrechte anwendbar wären“.55 Im gegenständlichen Fall seien die nationalen Rechtsvorschriften nicht zur Umsetzung der Richtlinie erlassen worden. Dies würde das Ergebnis jedoch nicht infrage stellen, da durch diese Rechtsvorschriften unionsrechtliche Verpflichtungen erfüllt würden.56 Konkretisiert wurde diese – durchaus kritisch betrachtete57 – Rechtsprechung in der Rechtssache Siragusa.58 Der EuGH verlangt „einen hinreichenden Zusammenhang [. . .], der darüber hinausgeht, dass die fraglichen Sachbereiche benachbart sind oder 50
Schwarze/Becker/Hatje/Schoo/Hatje, GRC Art. 51 Rn. 14. Gourdet, Europäischer Grundrechtsschutz, S. 209 f. 52 Ausführlich zur Durchführung des Unionsrechts sowie zum Verhältnis von nationalen Grundrechten und Unionsgrundrechten Gourdet, Europäischer Grundrechtsschutz; Pirker, Grundrechtsschutz im Unionsrecht zwischen Subsidiarität und Integration. 53 EuGH Urt. v. 26.02.2013, Rs. C-617/10, ECLI:EU:C:2013:105 – Åkerberg Fransson. 54 EuGH Urt. v. 26.02.2013, Rs. C-617/10, ECLI:EU:C:2013:105 Rn. 19 – Åkerberg Fransson. 55 EuGH Urt. v. 26.02.2013, Rs. C-617/10, ECLI:EU:C:2013:105 Rn. 21 – Åkerberg Fransson. 56 EuGH Urt. v. 26.02.2013, Rs. C-617/10, ECLI:EU:C:2013:105 Rn. 28 – Åkerberg Fransson Rn. 28. 57 BVerfG, Urt. v. 24.04.2013 – 1 BvR 1215/07, BVerfGE 133, 277 Rn. 91 – Antiterrordatei; Scholz, DVBl. 2014, 197 (202 ff.); Thym, NVwZ 2013, 889 (891 f.). 58 EuGH, Urt. v. 06.03.2014, Rs. C-206/13, ECLI:EU:C:2014:126 – Siragusa. 51
66
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
der eine von ihnen mittelbare Auswirkungen auf den anderen haben kann“.59 An dem weiten Verständnis des Anwendungsbereichs des Unionsrechts hielt der EuGH auch in späteren Entscheidungen grundsätzlich fest.60 Der EuGH prüft zur Feststellung, ob mit einer nationalen Regelung Unionsrecht durchgeführt wird, inwiefern mit ihr eine Durchführung einer Bestimmung des Unionsrechts bezweckt wird, welchen Charakter diese Regelung hat und ob mit ihr nicht andere als die unter das Unionsrecht fallenden Ziele verfolgt werden, selbst wenn sie das Unionsrecht mittelbar beeinflussen kann. Ferner prüft der EuGH, inwieweit es eine für diesen Bereich spezifische Regelung des Unionsrechts gibt oder eine Regelung, die diesen Bereich beeinflussen kann.61 Insbesondere schwierig ist die Bestimmung des Anwendungsbereichs im Fall von Richtlinien. Sofern ein nationales Gesetz zur Umsetzung einer Richtlinie erlassen wurde, finden die Unionsgrundrechte Anwendung, wobei es nicht auf den Willen des nationalen Gesetzgebers ankommt, ob ein Gesetz zur Umsetzung von Unionsrecht erlassen wurde.62 Die Abgrenzung ist zudem in Fällen mit Ermessensspielräumen schwierig. Vor dem Hintergrund, dass Richtlinien unionsrechtlichen Zielen Ausdruck verleihen, kann ihre Umsetzung jedoch nicht losgelöst vom Unionsrecht betrachtet werden.63 Eine Durchführung von Unionsrecht ist daher grundsätzlich auch in den Fällen anzunehmen, in denen den Mitgliedstaaten ein Ermessensspielraum verbleibt.64 Vor diesem Hintergrund stellt sich die Frage, ob mit dem NetzDG Unionsrecht durchgeführt wird, denn nur dann müsste sich das NetzDG an den Rechten der Grundrechtecharta messen lassen. In Betracht kommt, dass mit dem NetzDG die E-Commerce-RL umgesetzt wird. Diese stellt in Art. 14 ECRL Anforderungen an die Verantwortlichkeit von Diensteanbietern, deren Einhaltung die Mitgliedstaa59 EuGH, Urt. v. 06.03.2014, Rs. C-206/13, ECLI:EU:C:2014:126 Rn. 24 – Siragusa; Urt. v. 10.07.2014, Rs. C-198/13, ECLI:EU:C:2014:2055 Rn. 34 – Julian Hernández u. a. 60 EuGH, Urt. v. 06.10.2015, Rs. C-650/13, ECLI:EU:C:2015:648 – Delvigne; Urt. v. 17.12.2015, Rs. C-419/14, ECLI:EU:C:2015:832 – WebMindLicenses; Urt. v. 06.09. 2016, Rs. C-182/15, ECLI:EU:C:2016:630 – Petruhhin; Urt. v. 21.12.2016, Rs. C-203/ 15 und C-698/15, C-203/15, C-698/15, ECLI:EU:C:2016:970 – Tele2 Sverige; Urt. v. 16.05.2017, Rs. C-682/15, ECLI:EU:C:2017:373 – Berlioz Investment Fund. 61 EuGH, Urt. v. 06.03.2014, Rs. C-206/13, ECLI:EU:C:2014:126 Rn. 25 – Siragusa Rn. 25. 62 Pirker, Grundrechtsschutz im Unionsrecht zwischen Subsidiarität und Integration, S. 372; Ohler, NVwZ 2013, 1433 (1434). 63 Pirker, Grundrechtsschutz im Unionsrecht zwischen Subsidiarität und Integration, S. 374. 64 EuGH, Urt. v. 07.07.2016, Rs. C-447/15, ECLI:EU:C:2016:533 – Muladi; Urt. v. 13.06.2019, C-646/17, ECLI:EU:C:2019:489 – Moro; Jarass, EU-Grundrechte-Charta Art. 51 Rn. 26; Gourdet, Europäischer Grundrechtsschutz, S. 371 ff.; Pirker, Grundrechtsschutz im Unionsrecht zwischen Subsidiarität und Integration, S. 374 ff.; Bäcker, EuR 2015, 389 (393).
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
67
ten sicherstellen müssen. Nun ist die ECRL, insbesondere durch die Umsetzung im TMG, bereits in das deutsche Recht übernommen worden.65 Dem steht jedoch nicht entgegen, dass das NetzDG die Maßgaben der ECRL neben dem TMG umsetzt, denn die Vorgaben einer Richtlinie müssen nicht zwingend in einem einzigen Gesetz umgesetzt werden. Insoweit ist nicht ausgeschlossen, dass sich das NetzDG im Anwendungsbereich des EU-Rechts, insbesondere der ECRL, bewegt.66 Nach Maßgabe der Siragusa-Rechtsprechung des EuGH kommt es insbesondere auf den Charakter und die Zielsetzung der nationalen Regelung an. § 3 NetzDG verpflichtet die Betreiber von sozialen Netzwerken, ein Sperr- und Löschverfahren einzurichten. Ausweislich der Begründung des Gesetzgebers soll damit von der Möglichkeit des Art. 14 Abs. 3 ECRL Gebrauch gemacht werden, dass „die Mitgliedstaaten Verfahren für die Entfernung einer Information oder die Sperrung des Zugangs zu ihr festlegen“ können.67 Der deutsche Gesetzgeber hat mit der Festsetzung von bestimmten Fristen auch den Begriff unverzüglich aus Art. 14 Abs. 1 lit. b ECRL konkretisiert.68 Insofern bewegen sich die Vorschriften auch in diesem vollharmonisierten Bereich.69 Darüber hinaus bezweckt das NetzDG auch die Umsetzung der AVMD-RL, die in Art. 28a und Art. 28b Vorgaben zu Videosharingplattformen enthält.70 Diese Vorgaben werden in den §§ 3d bis 3f NetzDG umgesetzt. Zwar sind die Regelungen des Art. 28b AVMD-RL lediglich Mindestanforderungen gemäß Art. 28b Abs. 6 AVMD-RL. Erlassen die Mitgliedstaaten jedoch strengere Maßnahmen im Sinne dieser Vorschrift, so „halten die Mitgliedstaaten die im geltenden Unionsrecht festgelegten Anforderungen ein, darunter die Vorgaben der Artikel 12 bis 15 der Richtlinie 2000/31/EG.“ Den Mitgliedstaaten kommt daher lediglich ein begrenzter Gestaltungsspielraum zu. Aus alledem folgt, dass die Bestimmungen des NetzDG in den Bereich der ECRL sowie der AVMD-RL fallen und somit Unionsrecht durchgeführt wird; die Grundrechtecharta ist damit anwendbar. bb) Verhältnis zu nationalen Grundrechten Ferner stellt sich die Frage nach dem Verhältnis der nationalen Grundrechte zu den in der Charta verankerten Grundrechten. Die Grundrechtecharta könnte durch eine vorrangige Anwendung nationaler Grundrechte verdrängt werden. 65
BT-Drs. 16/3078, S. 11. Guggenberger et al., NetzDG: im Zweifel gegen die Meinungsfreiheit, S. 72. 67 BT-Drs. 18/12356, S. 13 f. 68 Spindler, Legal Expertise, S. 14. 69 Zur vollharmonisierenden Wirkung der ECRL: BT-Drs. 14/6098, S. 22; Hoffmann, MMR 2002, 284; Sieber/Liesching, MMR-Beil. 2007, 1 (8). 70 BT-Drs. 19/18792, S. 2. 66
68
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
Art. 51 Abs. 1 S. 1 GRCh betrifft die grundsätzliche Anwendbarkeit der Grundrechtecharta, bietet jedoch keine Anhaltspunkte hinsichtlich der Frage, welche Grundrechtsordnung vorrangig anzuwenden ist.71 Ein Argument für die parallele Anwendung beider Grundrechtsregime ist Art. 53 GRCh.72 Denn würde man von getrennten Anwendungsbereichen ausgehen, wäre die Vorschrift des Art. 53 GRCh zum Schutzniveau der Charta nicht erforderlich.73 Der EuGH geht in der Rechtssache Åkerberg Fransson jedenfalls von einer parallelen Anwendung der Grundrechtecharta und der nationalen Grundrechte aus.74 Dazu stellt der EuGH fest, dass in Fällen, in denen das Gericht eines Mitgliedstaats zu prüfen habe, ob eine nationale Vorschrift oder Maßnahme, mit der Unionsrecht im Sinne von Art. 51 Abs. 1 GRCh durchgeführt wird, mit den Grundrechten zu vereinbaren sei, das Handeln des Mitgliedstaats jedoch nicht vollständig durch das Unionsrecht determiniert sei, es den nationalen Behörden und Gerichten freistehe, die nationalen Grundrechte anzuwenden. Dies gelte nur insoweit die Anwendung der nationalen Grundrechte weder das Schutzniveau der Charta noch die Einheit und Wirksamkeit des Unionsrechts beeinträchtigen würde.75 Während der EuGH schon früh von einer möglichen grundrechtlichen Doppelbindung ausging, gab sich das Bundesverfassungsgericht deutlich zurückhaltender und nahm eine Trennung der Grundrechtssphären an.76 Soweit ein vom Unionsrecht vollständig determinierter Sachverhalt vorlag, auf den eine Verordnung oder eine vollharmonisierende Richtlinie anwendbar war, kamen nach Ansicht der Karlsruher Richter allein die Rechte der Charta zur Anwendung.77 Sofern jedoch ein Ermessens- oder Umsetzungsspielraum verblieb, sollten die Grundrechte des Grundgesetzes alleiniger Maßstab sein.78 In seiner jüngsten Rechtsprechung ist das Bundesverfassungsgericht jedoch von diesem Konzept abgewichen. Vielmehr erkennt der Erste Senat in seiner Entscheidung Recht auf Vergessen I auch eine mögliche Doppelbindung an die Grundrechte an.79 Das Bundesverfassungsgericht führt dazu aus, dass auch bei Vorliegen eines Gestal71
Gourdet, Europäischer Grundrechtsschutz, S. 381. Gourdet, Europäischer Grundrechtsschutz, S. 382. 73 Gourdet, Europäischer Grundrechtsschutz, S. 382; Besselink, Maastricht J. Eur. & Comp. L. 8 (2001), 68 (75); de Boer, CMLR 50 (2013), 1083 (1093). 74 Gourdet, Europäischer Grundrechtsschutz, S. 387 f.; Hwang, EuR 2014, 400 (403). 75 EuGH, Urt. v. 26.02.2013, Rs. C-617/10, ECLI:EU:C:2013:105 Rn. 29 – Åkerberg Fransson. 76 Gourdet, Europäischer Grundrechtsschutz, S. 388; Thym, NVwZ 2013, 889 (892). 77 BVerfG, Beschl. v. 13.03.2007 – 1 BvF 1/05, BVerfGE 118, 79 Rn. 68 – Treibhausgasemission; Gourdet, Europäischer Grundrechtsschutz, S. 389; Preßlein, EuR 2021, 247 (250 f.). 78 BVerfG, Urt. v. 02.03.2010 – 1 BvR 256/08, 1 BvR 263/08, 1 BvR 586/08, BVerfGE 125, 260 Rn. 186 – Vorratsdatenspeicherung. 79 Gourdet, Europäischer Grundrechtsschutz, S. 398; Hofmann/Heger/Gharibyan, KritV 2019, 277 (285); Preßlein, EuR 2021, 247 (253). 72
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
69
tungsspielraums der Mitgliedstaaten, dem das Unionsrecht aber einen „hinreichend gehaltvollen Rahmen setzt, der erkennbar auch unter Beachtung der Unionsgrundrechte konkretisiert werden soll“, innerstaatliche Reglungen als Durchführung des Unionsrechts im Sinne des Art. 51 Abs. 1 Satz 1 GRCh zu beurteilen sein können. Die Unionsgrundrechte würden dann laut BVerfG zu den Grundrechtsgewährleistungen des Grundgesetzes hinzutreten.80 Wie bereits festgestellt, bewegen sich die Regelungen des NetzDG im Anwendungsbereich des Art. 14 ECRL sowie der Art. 28a und Art. 28b AVMD-RL und betreffen damit einen unionsrechtlich determinierten Bereich. Soweit der Gesetzgeber von den Möglichkeiten des Art. 14 Abs. 3 ECRL Gebrauch gemacht hat, müssen sich diese Regelungen jedenfalls an den Vorgaben des Art. 14 Abs. 1 und 2 ECRL messen lassen. Sowohl hinsichtlich der Rechtsprechung des EuGH als auch hinsichtlich der Rechtsprechung des BVerfG werden Rechte der Grundrechtecharta insofern nicht von den Grundrechten des Grundgesetzes verdrängt. Im Ergebnis ist das NetzDG an den in der Charta verankerten Grundrechten zu messen.81 b) User-Generated-Content im Gewährleistungsbereich des Art. 11 Abs. 1 GRCh Die in Art. 11 Abs. 1 GRCh gewährleistete Meinungsäußerungs- und Informationsfreiheit ist „eine der wesentlichen Grundlagen einer demokratischen Gesellschaft“.82 Schon vor ihrer Kodifizierung in Art. 11 Abs. 1 GRCh spielte die Meinungsfreiheit eine wichtige Rolle in der Rechtsprechung des EuGH, der dieses Recht aus allgemeinen Rechtsgrundsätzen und unter Bezugnahme auf Art. 10 EMRK anerkannte.83 Auch nachdem die Grundrechtecharta verbindliches Unionsrecht wurde, ist die EMRK für den unionsrechtlichen Grundrechtsschutz weiterhin relevant. Denn Art. 52 Abs. 3 S. 1 GRCh legt fest, dass die Rechte der Charta, soweit sie den in der EMRK garantierten Rechten entsprechen, die gleiche Bedeutung und Tragweite haben, wie sie ihnen in der EMRK verliehen wird. 80 BVerfG, Beschl. v. 06.11.2019 – 1 BvR 16/13, BVerfGE 152, 152 Rn. 44 – Recht auf Vergessen I. 81 So auch Deutscher Bundestag, Fachbereich Europa, PE 6 – 3000 – 22/17, S. 22 f.; Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 234; Guggenberger et al., NetzDG: im Zweifel gegen die Meinungsfreiheit, S. 71 ff. 82 EuGH, Urt. v. 13.12.2001, Rs. C-340/00 P, ECLI:EU:C:2001:701 Rn. 18 – Kommission/Cwik; Urt. v. 12.06.2003, Rs. C-112/00, ECLI:EU:C:2003:333 Rn. 79 – Schmidberger. 83 EuGH, Urt. v. 28.10.1992, Rs. C-219/91, ECLI:EU:C:1992:414 Rn. 22 – Ter Voort; Urt. v. 12.06.2003, Rs. C-112/00, ECLI:EU:C:2003:333 Rn. 79 – Schmidberger; Urt. v. 12.12.2006, Rs. C-380/03, ECLI:EU:C:2006:772 Rn. 154; Urt. v. 02.04.2009, Rs. C-421/07, ECLI:EU:C:2009:222 Rn. 25 ff.
70
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
Für die Entsprechung der Charta-Grundrechte mit dem infrage kommenden Grundrecht der EMRK ist nicht erforderlich, dass beide Bestimmungen wortgleich sind.84 Vielmehr kommt es darauf an, dass die Rechte den gleichen Gehalt haben, also das gleiche Rechtsgut schützen.85 Auch wenn es auf den Wortlaut grundsätzlich nicht ankommt, spricht für eine Entsprechung des Art. 11 Abs. 1 GRCh mit dem Art. 10 EMRK die Tatsache, dass der Wortlaut beider Artikel gleich ist.86 Aus dem gleichen Wortlaut ergibt sich auch, dass beide Artikel dasselbe Recht, das Recht auf freie Meinungsäußerung, schützen. Darüber hinaus wurde die Entsprechung ausdrücklich vom Präsidium erwähnt.87 Danach hat Art. 11 GRCh nach Art. 52 Abs. 3 GRCh „die gleiche Bedeutung und Tragweite wie das durch die EMRK garantierte Recht“.88 Insofern ist für die Auslegung des Art. 11 GRCh auf die Judikatur des EGMR zu Art. 10 EMRK zurückzugreifen.89 Das Recht auf Meinungs- und Informationsfreiheit schützt zunächst die Rechte des Einzelnen und damit seine Autonomie, Würde und Persönlichkeitsentwicklung.90 Seine herausragende Bedeutung entfaltet das Recht allerdings in seiner gesellschaftlichen Funktion in Bezug auf die Massenmedien und damit die kollektive Meinungsbildung, die einen wichtigen Beitrag zu einer funktionierenden Demokratie leisten.91 Beide Dimensionen spielen auch in Bezug auf das NetzDG eine wichtige Rolle: Zum einen der Schutz der Meinung des einzelnen Nutzers, zum anderen die Sicherung eines freien, demokratischen Kommunikationsprozesses in sozialen Netzwerken. Nach Art. 11 Abs. 1 GRCh hat jede Person das Recht auf freie Meinungsäußerung. Dies umfasst nach Art. 11 Abs. 1 S. 2 GRCh neben der Meinungsäußerungsfreiheit, also dem Recht eine Meinung zu haben und diese zu verbreiten, außerdem die Informationsfreiheit, mithin das Recht, Informationen und Ideen zu empfangen und weiterzugeben. Die aktive Informationsfreiheit ist darauf gerichtet, andere zu informieren, während die passive Informationsfreiheit den Empfang von Informationen schützt.92 Letztere ist mit der Meinungsäußerungs84 Meyer/Hölscheidt/Schwerdtfeger, GRCh Art. 52 Rn. 58; Riedel, Die Meinungsäußerungsfreiheit in Europa, S. 212. 85 Burgkardt, Grundrechtlicher Datenschutz zwischen Grundgesetz und Europarecht, S. 347 f.; Ziegenhorn, Der Einfluss der EMRK im Recht der EU-Grundrechtecharta, S. 155 f. 86 Spindler/Schuster/Brings-Wiesen, Recht der elektronischen Medien 1. Teil B. Rn. 14. 87 ABl. v. 14.12.2007, Nr. C 303/22 Erläuterungen zur Charta der Grundrechte. 88 ABl. v. 14.12.2007, Nr. C 303/17 Erläuterungen zur Charta der Grundrechte. 89 Gersdorf/Paal/Cornils, EU-GRCharta Art. 11 Rn. 8. 90 GA Fennelly, Schlussanträge v. 15.06.2000, Rs. C-376/98, ECLI:EU:C:2000:324 Rn. 154. 91 EuGH, Urt. v. 22.01.2013, Rs. C-283/11, ECLI:EU:C:2013:28 Rn. 52 – Sky Österreich. 92 Grabenwarter/Pabel, § 23 Rn. 8 f.
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
71
freiheit denknotwendig verknüpft, da der Empfang von Informationen zur Meinungsbildung unabdingbar ist.93 Meinungen im Sinne des Art. 11 Abs. 1 GRCh meint in erster Linie Werturteile, Überzeugungen, Ansichten sowie Stellungnahmen.94 Informationen meint insbesondere Tatsachenbehauptungen und Ideen umfassen vor allem Konzepte und Pläne.95 Eine genaue Einordnung von Äußerungen ist jedoch aufgrund der einheitlichen Rechtsfolgen nicht erforderlich.96 Darüber hinaus wird deutlich, dass sämtliche Kommunikationsinhalte unabhängig von ihrer Qualität von Art. 11 Abs. 1 GRCh erfasst werden.97 Hinsichtlich der Frage, ob demokratiefeindliche und rassistische Äußerungen im Hinblick auf Art. 54 GRCh von vornherein vom Schutzbereich ausgeschlossen sind, enthält das Unionsrecht keine ausreichenden Angaben und auch die Rechtsprechung des EuGH kann zur Klärung dieser Frage nichts beitragen.98 Überdies ist die zur Auslegung heranzuziehende Rechtsprechung des EGMR diesbezüglich uneindeutig.99 Letztlich erscheint eine Verortung dieser Frage auf der Rechtfertigungsebene sinnvoll.100 Daraus folgt, dass es hinsichtlich der Inhalte auf sozialen Netzwerken unerheblich ist, ob es sich um Äußerungen in Schrift, Wort oder Bild handelt, da diese allesamt in den Schutzbereich fallen.101 Ferner stellt das Veröffentlichen von Inhalten in sozialen Netzwerken auch eine geschützte Handlung dar, da die Meinungsfreiheit sowohl das Haben als auch das Verbreiten einer Meinung erfasst.102 Dies gilt auch für Äußerungen im Internet.103 Die Meinungsäußerungsfreiheit ist 93 Riedel, Die Meinungsäußerungsfreiheit in Europa, S. 176; Frowein/Peukert, Art. 10 EMRK Rn. 4. 94 Meyer/Hölscheidt/Bernsdorff, GRCh Art. 11 Rn. 12; Frenz, Handbuch Europarecht: Band 4 Rn. 1784. 95 Jarass, EU-Grundrechte-Charta Art. 11 Rn. 10; Frenz, Handbuch Europarecht: Band 4 Rn. 1784. 96 Jarass, EU-Grundrechte-Charta Art. 11 Rn. 10. 97 Calliess/Ruffert/Calliess, EU-GRCharta Art. 11 Rn. 5; Jarass, EU-GrundrechteCharta Art. 11 Rn. 10 f.; Meyer/Hölscheidt/Bernsdorff, GRCh Art. 11 Rn. 12; Peers/Hervey/Kenner/Ward/Woods, Art. 11 Rn. 11.29. 98 Struth, Hassrede und Freiheit der Meinungsäußerung, S. 114. 99 Ausführliche Darstellung der Rechtsprechung des EGMR zu dieser Frage in Struth, Hassrede und Freiheit der Meinungsäußerung, S. 77 ff. 100 Grabenwarter/Pabel, § 23 Rn. 7; Struth, Hassrede und Freiheit der Meinungsäußerung, S. 431. 101 Meyer/Hölscheidt/Bernsdorff, GRCh Art. 11 Rn. 12; Cobbaut, in: Dorssemont/ Lörcher/Clauwaert/Schmitt, The Charter of Fundamental Rights of the European Union and the Employment Relation, S. 295 (302). 102 EGMR, Urt. v. 08.07.2008 – 33629/06, ECLI:CE:ECHR:2008:0708JUD0033 62906 Rn. 47 – Vajnai gegen Ungarn; GA Jääskinen, Schlussanträge v. 25.06.2013, Rs. C-131/12, ECLI:EU:C:2013:424 Rn. 121 f.; Jarass, EU-Grundrechte-Charta Art. 11 Rn. 13 f.; Frenz, Handbuch Europarecht: Band 4 Rn. 1799 f. 103 EuGH, Urt. v. 06.11.2003, Rs. C-101/01, ECLI:EU:C:2003:596 Rn. 86 – Lindqvist; Jarass, EU-Grundrechte-Charta Art. 11 Rn. 13.
72
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
insoweit technologieoffen formuliert und kann auch künftige Kommunikationsmittel erfassen.104 Auf das Recht auf Meinungsfreiheit kann sich jede natürliche Person berufen.105 Darüber hinaus können juristische Personen sowie Personenvereinigungen Träger des Grundrechts nach Art. 11 Abs. 1 GRCh sein.106 In persönlicher Hinsicht können sich die Nutzer der sozialen Netzwerke daher auf die Meinungsfreiheit aus Art. 11 Abs. 1 GRCh berufen.107 c) Eingriff in die Meinungsfreiheit aus Art. 11 Abs. 1 GRCh durch die Bestimmungen des NetzDG Während die Prüfung des Grundrechtseingriffs im deutschen Recht sowohl in der Wissenschaft als auch in der Rechtsprechung hinreichende Beachtung findet, hat sie im unionsrechtlichen Kontext bisher keine vergleichbare Aufmerksamkeit erhalten.108 Aus der Rechtsprechung des EuGH kristallisiert sich dennoch ein weites Verständnis des Eingriffsbegriffs heraus.109 Das NetzDG adressiert mit seinen Vorschriften nicht direkt die Nutzer, sondern die Anbieter der sozialen Netzwerke. Damit liegt jedenfalls kein unmittelbarer Eingriff in die Meinungsfreiheit der Nutzer vor. Es können jedoch auch mittelbare Wirkungen und faktische Maßnahmen einen Eingriff in das Grundrecht bedeuten, soweit sie das grundrechtlich geschützte Verhalten verhindern oder erschweren.110 Durch die Vorgaben des NetzDG werden die Anbieter der sozialen Netzwerke angehalten, Beschwerden innerhalb der vorgegebenen Fristen zu bearbeiten und die entsprechenden Inhalte zu löschen oder zu sperren. Dabei sorgt das oben beschriebene Anreizsystem dafür, dass im Zweifel eher eine Löschung der Inhalte erfolgt. Andere Nutzer können den Inhalt nicht mehr zur Kenntnis nehmen und nicht mehr darauf reagieren. Damit werden eigentlich rechtmäßige Inhalte der Nutzer der öffentlichen Wahrnehmung entzogen. Der EuGH hat in seiner ersten Entscheidung zur Vorratsdatenspeicherung einen Eingriff in die Rechte der von der Speicherung betroffenen Personen aus
104
Riedel, Die Meinungsäußerungsfreiheit in Europa, S. 189. Jarass, EU-Grundrechte-Charta Art. 11 Rn. 16. 106 Calliess/Ruffert/Calliess, EU-GRCharta Art. 11 Rn. 9; Jarass, EU-GrundrechteCharta Art. 11 Rn. 16. 107 Kellner, Die Regulierung der Meinungsmacht von Internetintermediären, S. 140. 108 Kühling, in: von Bogdandy/Bast, Europäisches Verfassungsrecht, S. 657 (688 f.); Riedel, Die Grundrechtsprüfung durch den EuGH, S. 134. 109 Riedel, Die Grundrechtsprüfung durch den EuGH, S. 212 f. 110 Jarass, EU-Grundrechte-Charta Art. 11 Rn. 20; Frenz, Handbuch Europarecht: Band 4 Rn. 1823. 105
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
73
Art. 7 und 8 GRCh bejaht, obwohl diese Speicherung nicht direkt von staatlichen Stellen vorgenommen wurde, sondern aufgrund der Verpflichtung eines Unternehmens erfolgte.111 Art. 3 der Richtlinie 2006/24/EG zur Vorratsdatenspeicherung verpflichtete Anbieter elektronischer Kommunikationsdienste zur Speicherung bestimmter Verkehrsdaten. Dadurch sollte gemäß Art. 1 der Richtlinie sichergestellt werden, „dass die Daten zum Zwecke der Ermittlung, Feststellung und Verfolgung von schweren Straftaten [. . .] zur Verfügung stehen“. In dieser Hinsicht ist der Fall des NetzDG ähnlich. Die Anbieter der sozialen Netzwerke werden aufgrund des Gesetzes dazu verpflichtet, bestimmte Inhalte innerhalb entsprechender Fristen zu sperren oder zu löschen.112 Die Vorschriften des NetzDG entfalten insoweit eine mittelbare Wirkung in Bezug auf den Nutzer.113 Zu beachten ist jedoch die von Lang aufgeworfene Frage, ob es sich dabei überhaupt um einen neuen Eingriff handele, da die Pflicht, rechtswidrige Inhalte zu löschen, bereits aufgrund der Störerhaftung gemäß §§ 823 Abs. 1, 1004 Abs. 1 S. 2 BGB analog bestehe.114 Für die Löschung rechtswidriger Inhalte könnte das NetzDG insoweit lediglich Verfahrensvorschriften statuieren.115 In diese Richtung argumentiert auch der Gesetzgeber selbst, wenn er zu § 3 NetzDG ausführt, dass im Vergleich zum geltendem Recht kein neuer Eingriff in die Meinungsfreiheit vorliege, sondern lediglich bereits bestehende Verpflichtungen zur Löschung oder Sperrung rechtswidriger Inhalte umgesetzt würden.116 Betreffen die Löschungen oder Sperrungen hingegen rechtmäßige Inhalte, so könnte man argumentieren, dass ein solcher Eingriff in die Meinungsfreiheit dem Mitgliedstaat nicht zurechenbar wäre.117 Denn die gesetzlichen Vorschriften des NetzDG verpflichten den Diensteanbieter lediglich zur Löschung rechtswidriger Inhalte. Wenn jegliches überobligatorische Löschen dem Staat zurechenbar wäre, bestünde für die sozialen Netzwerke die Möglichkeit die Grundrechtswidrigkeit des Gesetzes durch das übermäßige Löschen herbeizuführen.118 In der Sache ist dieser Punkt richtig: Nicht jegliches Verhalten Privater kann dem Staat zugerechnet werden.119 Die vom Gesetzgeber vertretene Auffassung verkennt jedoch dreierlei Aspekte. Erstens sind die vom NetzDG aufgestellten Pflichten nicht deckungsgleich mit 111 EuGH, Urt. v. 08.04.2014, Rs. C-293/12, C-594/12, ECLI:EU:C:2014:238 Rn. 34 – Digital Rights Ireland. 112 Deutscher Bundestag, Fachbereich Europa, PE 6 – 3000 – 22/17, S. 25. 113 Guggenberger et al., NetzDG: im Zweifel gegen die Meinungsfreiheit, S. 9. 114 Im Ergebnis den Eingriff bejahend Lang, AöR 143 (2018), 220 (227 f.). 115 Lang, AöR 143 (2018), 220 (227). 116 BT-Drs. 18/12356, S. 21. 117 So Kubiciel, jurisPR-StrafR 2017. 118 Kubiciel, jurisPR-StrafR 2017. 119 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 420.
74
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
denen, die sich aus einem Anspruch aus §§ 823 Abs. 1, 1004 Abs. 1 S. 2 BGB analog ergeben. Denn der Gesetzgeber hat die bestehenden Pflichten um umfangreiche Verfahrensregeln sowie eine damit verbundene Bußgelddrohung ergänzt.120 Zweitens kommt es für die Unvereinbarkeit mit der Meinungsfreiheit nicht darauf an, ob tatsächlich ein Overblocking stattfindet, sondern vielmehr darauf, ob der Gesetzgeber eine Anreizstruktur für das Overblocking schafft.121 Und drittens ist es zu kurz gegriffen, das materielle Recht und das Verfahrensrecht derart voneinander zu trennen.122 Schließlich hat der verfahrensrechtliche Rahmen der Entscheidung regelmäßig auch Einfluss auf die eigentliche Entscheidung.123 Eine Trennung beider Dimensionen – Löschentscheidung durch die Diensteanbieter und Verfahrensvorgaben durch Gesetz – kann daher nicht sachgemäß sein.124 Denn die Verfahrensvorgaben im NetzDG, gepaart mit den Bußgeldandrohungen bei fehlerhaftem Verfahren, können sehr wohl einen Einfluss auf die Entscheidung der Intermediäre haben.125 Insoweit bedeutet die Gefahr der Löschung rechtmäßiger Inhalte durch die Diensteanbieter eine mittelbare Einschränkung der Meinungsfreiheit der Nutzer aus Art. 11 Abs. 1 GRCh, die dem Mitgliedstaat Deutschland hinsichtlich der gesetzlich vorgesehenen Verfahrensvorgaben zurechenbar ist. d) Rechtfertigung der Regelungen des NetzDG Nachdem festgestellt werden konnte, dass ein Eingriff in das Recht auf Meinungsäußerungsfreiheit aus Art. 11 Abs. 1 GRCh vorliegt, ist in einem weiteren Schritt zu klären, ob dieser Eingriff gerechtfertigt werden kann. aa) Schrankenbestimmungen des Art. 11 Abs. 1 GRCh Ausgangspunkt für die Schrankenbestimmungen ist die Regelung des Art. 52 GRCh. In Art. 52 Abs. 1 S. 1 GRCh werden der Gesetzesvorbehalt sowie die Wahrung des Wesensgehalts normiert. Art. 52 Abs. 1 S. 2 GRCh kodifiziert den Grundsatz der Verhältnismäßigkeit, nach dem Einschränkungen nur vorgenommen werden dürfen, soweit sie erforderlich sind und den von der Union anerkannten, dem Gemeinwohl dienenden, Zielsetzungen oder Erfordernissen des Schutzes der Rechte und Freiheiten anderer tatsächlich entsprechen. Sofern die Charta
120 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 420; Schiff, MMR 2018, 366 (367 ff.). 121 Siehe dazu bereits Kapitel 3 A. I. 3. 122 Lang, AöR 143 (2018), 220 (228). 123 Lang, AöR 143 (2018), 220 (228). 124 Lang, AöR 143 (2018), 220 (228). 125 Lang, AöR 143 (2018), 220 (228).
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
75
Rechte enthält, die den in der EMRK garantierten Rechten entsprechen, haben diese nach Art. 52 Abs. 3 GRCh die gleiche Bedeutung und Tragweite, wie sie ihnen in der EMRK verliehen wird. Liegt keine Entsprechung vor, so findet die allgemeine Schrankenregelung des Art. 52 Abs. 1 GRCh Anwendung. Wie bereits oben skizziert, entspricht Art. 11 Abs. 1 GRCh den Rechten aus Art. 10 EMRK.126 Daher kommen die spezielleren Schranken des Art. 10 Abs. 2 EMRK zur Anwendung. Hinsichtlich der Frage, ob es sich um einen „Schrankentransfer“ handelt, also die allgemeinen Schranken des Art. 52 Abs. 1 GRCh durch die Schranken der EMRK verdrängt werden,127 ist der Ansicht zu folgen, die beide Schrankenregime kumulativ anwendet.128 Denn dadurch wird eine grundrechtsübergreifende Schrankendogmatik in der Grundrechtecharta geschaffen.129 Nach Art. 10 Abs. 2 EMRK kann das Recht auf Meinungsfreiheit Schranken unterworfen sein, „die gesetzlich vorgesehen und in einer demokratischen Gesellschaft notwendig sind für die nationale Sicherheit, die territoriale Unversehrtheit oder die öffentliche Sicherheit, zur Aufrechterhaltung der Ordnung oder zur Verhütung von Straftaten, zum Schutz der Gesundheit oder der Moral, zum Schutz des guten Rufes oder der Rechte anderer, zur Verhinderung der Verbreitung vertraulicher Informationen oder zur Wahrung der Autorität und der Unparteilichkeit der Rechtsprechung.“ Der Grundsatz der Verhältnismäßigkeit wird vom EuGH derart definiert, dass die ergriffenen Maßnahmen nicht die Grenzen dessen überschreiten dürften, was zur Erreichung der zulässigen Ziele der Regelung geeignet und erforderlich ist. Soweit mehrere Maßnahmen zur Auswahl stünden, sei diejenige zu wählen, die am wenigsten belastend sei. Darüber hinaus müsse ein angemessenes Verhältnis zwischen den verursachten Nachteilen und den angestrebten Zielen bestehen.130 Auf die einzelnen Rechtfertigungsvoraussetzungen wird im Folgenden noch einzugehen sein.
126
Kapitel 3 A. I. 5. b). So Calliess/Ruffert/Calliess, EU-GRCharta Art. 11 Rn. 29; Meyer/Hölscheidt/ Bernsdorff, GRCh Art. 11 Rn. 15; Pechstein/Nowak/Häde/Thiele, GRC Art. 11 Rn. 21. 128 EuGH, Urt. v. 17.12.2015, Rs. C-157/14, ECLI:EU:C:2015:823 Rn. 65, 68 – Neptune Distribution; Urt. v. 04.05.2016, Rs. C-547/14, ECLI:EU:C:2016:325 Rn. 147, 149 – Philip Morris Brands u. a.; Gersdorf/Paal/Cornils, EU-GRCharta Art. 11 Rn. 34; Groeben/Schwarze/Hatje/Augsberg, GRC Art. 11 Rn. 13; Spindler/Schuster/BringsWiesen, Recht der elektronischen Medien 1. Teil B. Rn. 21; Schneiders, Die Grundrechte der EU und die EMRK, S. 219 f. 129 Siehe dazu ausführlich Grabenwarter/Cornils, § 7 Rn. 27 ff. 130 EuGH, Urt. v. 25.02.2010, Rs. C-562/08, ECLI:EU:C:2010:93 Rn. 43 – Müller Fleisch; Urt. v. 09.03.2010, Rs. C-379/08 und C-380/08, C-379/08, C-380/08, ECLI: EU:C:2010:127 Rn. 86 – ERG u. a.; Urt. v. 21.07.2011, Rs. C-2/10, ECLI:EU:C:2011: 502 Rn. 73 – Azienda Agro-Zootecnica Franchini. 127
76
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
bb) Gesetzesvorbehalt Sowohl Art. 52 Abs. 1 GRCh als auch Art. 10 Abs. 2 EMRK setzen voraus, dass die Einschränkung gesetzlich vorgesehen ist. Eine solche Gesetzesgrundlage kann sowohl dem Unionsrecht entstammen als auch nationalen Rechtsvorschriften, soweit die EU-Grundrechte die Mitgliedstaaten im Sinne des Art. 51 Abs. 1 GRCh binden.131 Der EuGH hat in seiner bisherigen Rechtsprechung offengelassen, welche konkreten Anforderungen an eine nationale Regelung zu stellen sind. Insbesondere blieb bisher offen, inwieweit der Gesetzesvorbehalt auf Ebene der Mitgliedstaaten als Parlamentsvorbehalt zu verstehen ist.132 Nach der gefestigten Rechtsprechung des EGMR ist jedenfalls von einem weiten Gesetzesbegriff auszugehen.133 Neben förmlichen Gesetzen kommen auch Gesetze des common law sowie abstrakt-individuelle Regelungen der Exekutive für den Gesetzesvorbehalt in Betracht.134 Darüber hinaus muss die gesetzliche Grundlage zugänglich und vorhersehbar sein.135 Die formelle Verfassungsmäßigkeit des NetzDG kann, trotz erheblicher Zweifel an derselben, an dieser Stelle keine Rolle spielen.136 Diese zu überprüfen ist nicht vom Prüfungsumfang des EuGH umfasst, sondern vielmehr den Gerichten des jeweiligen Mitgliedstaats überlassen. In Anbetracht dessen, dass das NetzDG ein derzeit geltendes, bindendes Parlamentsgesetz ist, ist dem Gesetzesvorbehalt insoweit Genüge getan. cc) Verfolgung eines legitimen Zwecks durch die Vorschriften des NetzDG Aus Art. 52 Abs. 1 GRCh ergibt sich, dass für die Einschränkung der Meinungsfreiheit aus Art. 11 Abs. 2 GRCh ein legitimer Zweck vorliegen muss. Dort heißt es, dass Einschränkungen nur vorgenommen werden, wenn sie „den von der Union anerkannten, dem Gemeinwohl dienenden, Zielsetzungen oder den Erfordernissen des Schutzes der Rechte und Freiheiten anderer tatsächlich entsprechen.“ Von der Union anerkannte Ziele sind solche, die in den Verträgen aufgeführt, solche die im Sekundärrecht verankert sind und zudem die Charta-Grundsätze.137 Art. 10 Abs. 2 EMRK sieht zudem einen abschließenden Katalog von 131
Jarass, EU-Grundrechte-Charta Art. 52 Rn. 24 ff. Riedel, Die Grundrechtsprüfung durch den EuGH, S. 231. 133 Riedel, Die Grundrechtsprüfung durch den EuGH, S. 232 f.; Boehme-Neßler, NVwZ 2014, 825 (828). 134 EGMR, Urt. v. 14.09.2010 – 38224/03, ECLI:CE:ECHR: 2010:0914JUD003822 403 Rn. 83 – Sanoma Uitgevers B.V. gegen Niederlande; Grabenwarter/Walter, § 13 Rn. 41. 135 Grabenwarter/Pabel, § 23 Rn. 23. 136 Statt vieler Gersdorf, in: Eifert/Gostomzyk, Netzwerkrecht, S. 187. 137 Jarass, EU-Grundrechte-Charta Art. 52 Rn. 31. 132
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
77
legitimen Zielen für die Einschränkung vor.138 Dies sind Ziele, die in einer demokratischen Gesellschaft notwendig sind für die „nationale Sicherheit, die territoriale Unversehrtheit oder die öffentliche Sicherheit, zur Aufrechterhaltung der Ordnung oder zur Verhütung von Straftaten, zum Schutz der Gesundheit oder der Moral, zum Schutz des guten Rufes oder der Rechte anderer, zur Verhinderung der Verbreitung vertraulicher Informationen oder zur Wahrung der Autorität und der Unparteilichkeit der Rechtsprechung“. Der deutsche Gesetzgeber strebt, so wie es sich der Begründung zum NetzDG entnehmen lässt, eine Verbesserung der Debattenkultur in sozialen Netzwerken an.139 Soweit damit die Bekämpfung von überspitzten und provokanten Äußerungen oder gar die Einführung einer allgemeinen Netiquette gemeint ist, bestehen Zweifel, ob dies als legitimes Ziel anerkannt werden kann.140 Es wäre zu überlegen, ob diese Ziele unter die Aufrechterhaltung der Ordnung im Sinne des Art. 10 Abs. 2 EMRK subsumiert werden können. Eine eindeutige Definition dieser Begrifflichkeit durch den EGMR erfolgte bis dato noch nicht.141 Aus der Rechtsprechung des EGMR lässt sich entnehmen, dass mit diesem Begriff sowohl die öffentliche Ordnung als auch die Ordnung eines Teils der Gesellschaft gemeint ist.142 Damit sind vor allem Fälle von staatlicher oder gesamtgesellschaftlicher Bedeutung vom Begriff der Aufrechterhaltung der Ordnung erfasst.143 Insoweit ist die Verbesserung der Debattenkultur nicht von einer solchen gesamtgesellschaftlichen Tragweite, als dass sie als legitimes Ziel anerkannt werden könnte.144 Neben der Verbesserung der Debattenkultur soll das NetzDG aber auch zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken dienen. Der Gesetzgeber verfolgt das Ziel, die Hasskriminalität und die Verbreitung von Falschnachrichten in sozialen Netzwerken einzudämmen, indem strafbare Inhalte gelöscht oder gesperrt werden.145 Mit der Bekämpfung der Hasskriminalität werden gleichzeitig die Rechte der Betroffenen gesichert. Dabei ist insbesondere an die Wahrung der Persönlichkeitsrechte zu denken, die nach Art. 8 Abs. 1 EMRK und Art. 7 GRCh geschützt werden. Diese stellen als Rechte anderer gemäß Art. 10 Abs. 2 S. 1 EMRK eben-
138
Grabenwarter/Pabel, § 18 Rn. 12. BT-Drs. 18/12356, S. 11. 140 Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 440 f. 141 Dörr/Grote/Marauhn/Marauhn/Merhof, Kapitel 7 Rn. 39. 142 EGMR, Urt. v. 09.02.1995 – 16616/90, ECLI:CE:ECHR: 1995:0209JUD001661 690 Rn. 38 – Vereiniging Weekblad Bluf! gegen Niederlande; Grabenwarter/Pabel, § 23 Rn. 25. 143 Dörr/Grote/Marauhn/Grote/Wenzel, Kapitel 18 Rn. 88. 144 Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 440 f. 145 BT-Drs. 18/12356, S. 11. 139
78
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
falls legitime Zwecke dar.146 Darüber hinaus ist der Schutz des guten Rufes in Art. 10 Abs. 2 S. 2 EMRK explizit als legitimes Ziel zur Einschränkung der Meinungsfreiheit normiert. Dieser ist als Teil des Rechts auf Privatleben von Art. 8 EMRK geschützt und kommt insbesondere dann zum Tragen, wenn es sich um Inhalte mit beleidigendem Charakter handelt.147 Auch diesen Schutzzielen dient das NetzDG.148 Hinzu kommt, dass zu den vom NetzDG in § 1 Abs. 3 erfassten Straftatbeständen auch solche gehören, welche die Gefährdung des Rechtsstaats betreffen. Diese Ziele können unter dem Zweck der öffentlichen Sicherheit sowie der Aufrechterhaltung der Ordnung des Art. 10 Abs. 2 S. 2 EMRK subsumiert werden. Die am 1. Februar 2022 in Kraft getretene Meldepflicht des § 3a NetzDG sieht vor, dass bestimmte gelöschte Inhalte an das BKA gemeldet werden müssen. Die damit bezweckte Verbesserung der Strafverfolgung wird ebenfalls von den genannten Zielen des Art. 10 Abs. 2 EMRK umfasst. dd) Eignung des NetzDG zur Zweckerreichung Es ist nicht allein ausreichend, dass das NetzDG ein von der Union anerkanntes Ziel verfolgt. Es muss auch die in Art. 52 Abs. 1 S. 2 GRCh ausdrücklich genannte tatsächliche Entsprechung der Maßnahmen mit diesen Zielen vorliegen. Nach der Rechtsprechung des EuGH darf die Maßnahme jedenfalls nicht völlig ungeeignet sein, um das angestrebte Ziel zu erreichen.149 Sollte das NetzDG den Zweck, Hasskriminalität und Falschnachrichten in sozialen Netzwerken zu unterbinden, zumindest fördern, wäre es jedenfalls nicht völlig ungeeignet.150 Kernelement des NetzDG ist, dass rechtswidrige Inhalte an die Betreiber sozialer Netzwerke gemeldet werden können und innerhalb kurzer Fristen von der Plattform gelöscht oder zumindest gesperrt werden. Damit werden die Inhalte zunächst der öffentlichen Wahrnehmung entzogen, sodass sie ihre gefährdende Wirkung für die Persönlichkeitsrechte der Betroffenen beziehungsweise für die öffentliche Ordnung nicht weiter entfalten können. Die Hasskriminalität als solche wird dadurch nicht eingedämmt, sondern vielmehr der Öffentlichkeit unzugänglich gemacht. Ein Vorgehen gegen die Straftat als solche ist jedoch in der Meldung an das BKA zu sehen. Damit wird die Möglichkeit eröffnet, dass mit der Löschung auch eine strafrechtliche Verfolgung der Handlung
146
Deutscher Bundestag, Fachbereich Europa, PE 6 – 3000 – 22/17, S. 26. EGMR, Urt. v. 02.05.2000 – 26132/95, ECLI:CE:ECHR:2000:0502JUD002613 295 Rn. 53 ff. – Bergens Tidende u. a. gegen Norwegen; Urt. v. 14.10.2008 – 78060/01, ECLI:CE:ECHR:2008:1014JUD007806001 Rn. 31 f. – Petrina gegen Rumänien. 148 Deutscher Bundestag, Fachbereich Europa, PE 6 – 3000 – 22/17, S. 26. 149 EuGH, Urt. v. 11.07.1989, Rs. C-265/87, ECLI:EU:C:1989:303 Rn. 21 ff. – Schräder HS Kraftfutter; EuGH, Urt. v. 05.10.1994, Rs. C-280/93, ECLI:EU:C:1994: 367 Rn. 90 – Deutschland/Rat. 150 Siehe zur Geeignetheit Heselhaus/Nowak/Kühling, § 27 Rn. 50. 147
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
79
einhergeht. Ob die Meldepflicht ein geeignetes Instrument ist, um gegen Hasskriminalität vorzugehen, ist wiederum zweifelhaft. Denn es ist anzunehmen, dass eine Vielzahl von Meldungen täglich beim BKA eingehen werden, deren Bearbeitung einen immensen Zeit- und Personalaufwand bedeutet.151 Der Gesetzgeber selbst rechnet immerhin mit etwa 250.000 Meldungen an das BKA.152 Im Regierungsentwurf wird der zusätzliche Personalaufwand nach Einschätzung des Deutschen Richterbundes auf bis 450 Personen beziffert.153 Zudem gilt die Meldepflicht nicht für die Gesamtheit der vom NetzDG erfassten Straftatbestände, sondern gemäß dem am 1. Februar 2022 in Kraft getretenen § 3a Abs. 2 Nr. 3 NetzDG nur für einen Teil der in § 1 Abs. 3 NetzDG aufgeführten Straftaten. Ladeur und Gostomzyk gehen in ihrem Gutachten zum NetzDG-Entwurf davon aus, dass das NetzDG schon deswegen nicht geeignet sei, weil es lediglich Anwendung auf soziale Netzwerke mit mehr als zwei Millionen registrierten Nutzern findet. Hasskriminalität könne auch bei sozialen Netzwerken mit weniger Nutzern ähnlich gravierend sein.154 Durch die Beschränkung der Anwendbarkeit auf Netzwerke mit mindestens zwei Millionen Nutzern findet jedoch bereits eine Beschränkung des legitimen Zwecks statt.155 In Bezug auf diesen Zweck ist die Geeignetheit zu bewerten.156 Nach dem Willen des Gesetzgebers soll das NetzDG, neben der Bekämpfung von Hasskriminalität, auch ein wirksames Mittel gegen Falschnachrichten sein.157 Falschnachrichten betrifft das NetzDG jedoch nur insoweit, wie die verbreiteten Nachrichten einen der in § 1 Abs. 3 NetzDG genannten Straftatbestände erfüllen. Der Großteil der im Internet kursierenden Falschnachrichten wird mitnichten von diesen Straftatbeständen erfasst. Der § 187 StGB dürfte dabei noch am ehesten auf das Phänomen der Falschnachrichten zugeschnitten sein.158 Zwar werden damit einige Fälle erfasst, insgesamt ist jedoch an der Geeignetheit des NetzDG für ein Vorgehen gegen Falschnachrichten erheblich zu zweifeln. Dem Gesetzgeber kommt jedoch in Bezug auf die Auswahl seiner Mittel eine Einschätzungsprärogative zu.159 Dies ist insbesondere dann der Fall, wenn wis151 Deutscher Richterbund, Stellungnahme zum Referentenentwurf eines Gesetzes zur Bekämpfung des Rechtsextremismus und der Hasskriminalität. 152 BT-Drs. 19/18470, S. 12 f. 153 BT-Drs. 19/18470, S. 13. 154 Ladeur/Gostomzyk, Gutachten zur Verfassungsmäßigkeit, S. 6. 155 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 429. 156 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 429. 157 BT-Drs. 18/12356, S. 11. 158 Holznagel, MMR 2018, 18 (21). 159 GA van Gerven, Schlussanträge v. 11.06.1991, Rs. C-159/90, ECLI:EU:C:1991: 249 Rn. 34; Heselhaus/Nowak/Kühling, § 27 Rn. 50.
80
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
senschaftliche Erkenntnisse zur Wirksamkeit notwendig wären und es nicht um Fälle geht, in denen die Wirksamkeit der Maßnahme denknotwendig ist.160 Beim NetzDG soll die Wirksamkeit der Maßnahmen insbesondere durch Transparenzberichte, welche die sozialen Netzwerke nach § 2 NetzDG halbjährlich zu veröffentlichen haben, sowie durch den vom BMJV in Auftrag gegebenen Evaluationsbericht beurteilt werden. Zum Zeitpunkt des Inkrafttretens des NetzDG lagen diese Erkenntnisquellen noch nicht vor. Da es zumindest nicht abwegig ist, dass das NetzDG die vom Gesetzgeber intendierten Ziele fördert, ist insofern von einer Geeignetheit auszugehen. Denn die Unklarheit über die Folgen einer Gesetzgebung darf nicht dazu führen, dass ein Gesetz von vornherein nicht erlassen werden kann.161 ee) Alternativen zu den Regelungen des NetzDG Als weitere Rechtfertigungsvoraussetzung muss geprüft werden, ob die Maßnahme, sprich das NetzDG, erforderlich ist. Die Erforderlichkeit wird in Art. 52 Abs. 1 S. 2 GRCh ausdrücklich als Voraussetzung genannt. Erforderlich wäre das NetzDG, wenn zum Zeitpunkt seines Erlasses kein anderes gleich wirksames, aber weniger eingriffsintensives Mittel zur Verfügung stand.162 Dem hoheitlichen Organ, das die Maßnahme erlässt, kommt an dieser Stelle eine Einschätzungsprärogative zu.163 Im Folgenden werden mögliche Alternativen zum NetzDG hinsichtlich ihrer Wirksamkeit und ihrer Eingriffsintensität in das Recht auf Meinungsfreiheit betrachtet. Sofern darunter ein weniger eingriffsintensives, aber gleichermaßen wirksames Instrument zur Erreichung der vom Gesetzgeber verfolgten Ziele ist, so ist das NetzDG nicht erforderlich. (1) Verbesserung der Strafverfolgung und des einstweiligen Rechtsschutzes Hinsichtlich der Verbesserung der Strafverfolgung im Online-Kontext gibt es einige Ansatzpunkte. Die Verbesserung der organisatorischen Vorgaben, insbesondere die Zentralisierung der Zuständigkeiten von Staatsanwaltschaften und Gerichten könnten zu einer Effizienzsteigerung führen.164 Ein erster Schritt in diese Richtung wurde mit der Schaffung der Stelle für Cyberkriminalität bei der Staatsanwaltschaft Köln gemacht.165 Überhaupt ist das Thema Cyberkriminalität bei der Polizeiarbeit zunehmend in den Fokus gerückt, mit der Folge, dass das
160 161 162 163 164 165
Heselhaus/Nowak/Kühling, § 27 Rn. 50. Lang, AöR 143 (2018), 220 (237). Heselhaus/Nowak/Kühling, § 27 Rn. 51. Heselhaus/Nowak/Kühling, § 27 Rn. 51. Guggenberger, ZRP 2017, 98 (101). https://www.sta-koeln.nrw.de/aufgaben/geschaefte-stak_1_zac/index.php.
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
81
Vorgehen gegen diese Kriminalitätsformen in den letzten Jahren deutlich intensiviert wurde.166 Heckmann und Paschke schlagen indes eine Ergänzung des Strafgesetzbuches sowie des Telemediengesetzes vor.167 Es wäre ein spezieller CybermobbingStraftatbestand zu schaffen, durch den der besondere Unrechtsgehalt durch die Zugänglichmachung ehrverletzender Inhalte im Internet zum Ausdruck kommen solle.168 Gleichzeitig müsse der Opferschutz gestärkt werden sowie eine Neuregelung im TMG zur Technikgestaltung in sozialen Netzwerken erfolgen.169 Anstatt einer Löschung oder Sperrung von Inhalten durch die Plattformen, sehen Heckmann und Paschke in ihrem Entwurf vor, dass die Betreiber technische Maßnahmen zur Meldung und Kenntlichmachung von problematischen Inhalten zur Verfügung stellen sollen. Hinzu käme eine Dokumentation der Inhalte zu Beweiszwecken. Eine Löschung solle aber nur aufgrund eines gerichtlichen Beschlusses vorgenommen werden dürfen.170 Es scheint nicht ausgeschlossen, dass der Persönlichkeitsschutz im Internet durch eine solche Gesetzesänderung gestärkt wird. Insbesondere spricht für diesen Vorschlag, dass es sich um eine deutlich rechtssicherere Lösung handelt, als die Beurteilung und Löschung von Inhalten durch private Unternehmen vornehmen zu lassen. Auch könnten mit der staatlichen Strafverfolgung die Ursachen der Hasskriminalität besser bekämpft werden.171 Während mit dem NetzDG vorrangig Symptome in Form der Inhalte beseitigt werden, würden durch eine Verbesserung der Strafverfolgung auch die Täter vermehrt zur Rechenschaft gezogen.172 Zweifel bestehen aber, ob dieser Vorschlag ebenso effektiv wäre wie die Lösch- und Sperrpflichten des NetzDG. Denn nach der Intention des Gesetzgebers geht es beim NetzDG neben dem fragwürdigen Ziel der Verbesserung der Debattenkultur insbesondere darum, bestehenden Strafgesetzen im Internet zu entsprechender Geltung zu verhelfen. Diesen Ansatz verfolgt die von Heckmann und Paschke vorgeschlagene Änderung des TMG. Die Meldefunktion sowie die Beweissicherung ist sicherlich ein erster Schritt in die richtige Richtung. Und auch, dass eine Löschung einer gerichtlichen Entscheidung bedarf, ist zweifelsohne weniger eingriffsintensiv.
166 FAZ v. 19.04.2020, Polizei bildet Spezialisten aus, abrufbar unter: https://www. faz.net/aktuell/rhein-main/cyberkriminalitaet-polizei-bildet-spezialisten-aus-16731824. html. 167 Heckmann/Paschke, DRiZ 2018, 144 (145 f.). 168 Heckmann/Paschke, DRiZ 2018, 144 (145). 169 Heckmann/Paschke, DRiZ 2018, 144 (146). 170 Heckmann/Paschke, DRiZ 2018, 144 (146 f.). 171 Spiegel/Heymann, K&R 2020, 344 (345). 172 Spiegel/Heymann, K&R 2020, 344 (345 f.).
82
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
An dieser Stelle setzt der Vorschlag an, mit einer Änderung der Zivilprozessordnung eine effektivere Löschung von Inhalten zu gewährleisten.173 Die Änderung der ZPO zur Stärkung des einstweiligen Rechtsschutzes könnte sich an den Vorgaben des NetzDG orientieren, indem ein „leicht erkennbares, unmittelbar erreichbares und ständig verfügbares Verfahren“ zur Verfügung gestellt wird.174 Auch eine Fristvorgabe für die Bearbeitung des Antrags könnte nach dem Vorbild des NetzDG geboten sein.175 Köbler hat einen konkreten Ansatz zur Änderung der ZPO als Gegenvorschlag zum NetzDG entworfen.176 Er schlägt vor, an den Unterlassungsanspruch nach §§ 823 Abs. 1, 1004 Abs. 1 S. 2 BGB analog anzuknüpfen und die Durchsetzung von Sperrungen und Löschungen zivilrechtlich zu verankern. Aus Köblers Sicht bietet sich für die Sperrung oder Löschung von Inhalten aus sozialen Netzwerken das Instrument der einstweiligen Verfügung an. Um den Zugang zu diesem Rechtsinstrument zu erleichtern, regt er die Schaffung einer entsprechenden Internetanwendung in Form eines „Rechtsdurchsetzungsportals“ an. Die Bedienung und Identifizierung auf der Plattform sollten möglichst wenig Hürden für die erwartete Zielgruppe beinhalten. Der Systematik der ZPO entsprechend dürfe die einstweilige Verfügung zudem nicht die Hauptsache vorwegnehmen. Aus diesem Grund sei zunächst die Sperrung des fraglichen Inhalts durch das Gericht auszusprechen. Für das Gericht sollte zum Zweck der zügigen Bearbeitung eine gesetzliche Verpflichtung geschaffen werden, innerhalb weniger Tage zu entscheiden. Sofern ein Widerspruch durch den Verfasser des Inhalts ausbliebe, solle der Inhalt, zur Vermeidung eines Hauptsacheverfahrens, nach angemessener Frist gelöscht werden. Köbler regt an, das Verfahren subsidiär zu gestalten, sodass zunächst durch den Antragssteller glaubhaft gemacht werden müsse, dass er vom Antragsgegner bereits Sperrung oder Löschung verlangt habe.177 Ein klarer Vorteil dieses Verfahrens wäre, dass es auch für Nutzer sozialer Netzwerke unter zwei Millionen Nutzern eine Möglichkeit zur Durchsetzung ihrer Rechte böte. Es stellt sich jedoch in Hinblick auf das vom Gesetzgeber ausgerufene Ziel, der Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken, die Frage, ob dieses Mittel gleich geeignet und dabei weniger eingriffsintensiv ist. Würde ein solches Verfahren etabliert, würde über die Sperrung oder Löschung nicht mehr ein privates Unternehmen, sondern vielmehr ein staatliches Gericht entscheiden, wodurch die Eingriffsintensität deutlich geringer wäre als es 173 174 175 176 177
Guggenberger, NJW 2017, 2577 (2582); Köbler, AfP 2017, 282. Guggenberger, NJW 2017, 2577 (2582). Guggenberger, NJW 2017, 2577 (2582). Köbler, AfP 2017, 282. Köbler, AfP 2017, 282.
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
83
beim NetzDG der Fall ist, da die monetäre Motivation zum Overblocking wegfiele. Denn im Gegensatz zu den privaten Netzwerkbetreibern haben die Gerichte keinerlei wirtschaftliches Interesse an der Löschung von Inhalten.178 Darüber hinaus sind die Anforderungen an die Sachkunde der Richter schon allein aufgrund der Einstellungskriterien für dieses Amt deutlich höher als die Anforderungen an die Sachkunde der Personen, die für die Bearbeitung der Beschwerden nach dem NetzDG zuständig sind. Diesen müssen zwar nach § 3 Abs. 4 S. 3 NetzDG regelmäßige Schulungsangebote gemacht werden, Mindestvoraussetzungen an die juristische Expertise der Mitarbeiter werden jedoch nicht aufgestellt.179 Hinsichtlich der zu erwartenden Kosten bietet das NetzDG Vorteile gegenüber der rein staatlichen Durchsetzung. Zwar entstehen dem Bund durch die Umsetzung des NetzDG ebenfalls Kosten.180 Die Kosten für die Einrichtung des Beschwerdeverfahrens und die laufenden Kosten für die Mitarbeiter werden jedoch von den sozialen Netzwerken getragen.181 Verlagert man die Entscheidung über Sperrung und Löschung jedoch auf die Gerichte, werden die Kosten, die der Staat zu tragen hat, deutlich höher ausfallen.182 Dieser Aspekt muss aber nicht zwingend gegen die vorgestellten Maßnahmen sprechen, schließlich könnte man in Erwägung ziehen, die Anbieter sozialer Netzwerke aufgrund der Gefahrschaffung an den entstehenden Kosten zu beteiligen.183 Ein solches Modell wurde bereits im Zusammenhang mit der Beteiligung von Fußballvereinen an den Kosten für die Polizeieinsätze bei Bundesligaspielen intensiv diskutiert.184 Zu dieser umstrittenen Frage hat sich das Bundesverwaltungsgericht in seinem Urteil vom 29. März 2019 positioniert.185 Gegenständlich war das Gebühren- und Beitragsgesetz Bremens, in dem eine neue Gebühr für Veranstalter von Hochrisikoveranstaltungen aufgenommen wurde. Vorgesehen ist darin, dass „eine Gebühr von Veranstaltern oder Veranstalterinnen erhoben [wird], die eine gewinnorientierte Veranstaltung durchführen, an der voraussichtlich mehr als 5.000 Personen gleichzeitig teilnehmen werden, wenn wegen der erfahrungsgemäß zu erwartenden Gewalthandlungen [. . .] der Einsatz von zusätzlichen Polizeikräften vorhersehbar erforderlich wird“. Neben einer Reihe weiterer Fragen ist das Gericht darauf eingegangen, ob diese Gebührenregelung einer verfassungsrechtlichen Prüfung standhält. Nach Auffassung des Gerichts handele es 178 179 180 181 182 183 184 185
Spiegel/Heymann, K&R 2020, 344 (345). Siehe zum Prüfverfahren der Netzwerkanbieter Kapitel 3 A. I. 5. d) ff) (3) (a). BT-Drs. 18/12356, S. 3 f.; BT-Drs. 19/18792, S. 4; BT-Drs. 19/17741, S. 4 f. BT-Drs. 18/12356, S. 2 f.; BT-Drs. 19/18792, S. 3; BT-Drs. 19/17741, S. 4. Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 473. Guggenberger, ZRP 2017, 98 (101). Böhm, NJW 2015, 3000. BVerwG, Urt. v. 29.03.2019 – 9 C 4/18, BVerwGE 165, 138.
84
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
sich um eine besondere Leistung, die von allgemeinen steuerfinanzierten Leistungen abgrenzbar sei.186 Der Polizeieinsatz bewirke ein geringeres Sicherheitsrisiko bei der Veranstaltung, das dem Veranstalter wirtschaftlich zugutekomme.187 Gleichzeitig stellt das Gericht aber auch klar, dass mit der Zurechnung nicht „Tür und Tor geöffnet“ werden sollen für die Kostenpflichtigkeit der Polizeiarbeit.188 Überträgt man diese Rechtsprechung auf die sozialen Netzwerke, ergibt sich folgendes Bild: Die Betreiber sozialer Netzwerke bieten die Plattform für die Kommunikation, gleichzeitig aber auch die Plattform für Rechtsverstöße. Überdies agieren sie, vergleichbar mit den Veranstaltern von Großveranstaltungen, gewinnorientiert. Allerdings ist es fraglich, ob die Betreiber der sozialen Netzwerke aus dem verstärkten Einsatz von Polizei und Justiz in Bezug auf ihre Plattformen einen wirtschaftlichen Vorteil ziehen. Das Bundesverwaltungsgericht argumentiert in seinem Urteil, dass der Veranstalter ohnehin auf eine Sicherheitsvorsorge angewiesen sei, da die Veranstaltung im Falle einer Gewalteskalation gegebenenfalls gar nicht durchführbar sei.189 Zwar fußt der wirtschaftliche Erfolg sozialer Netzwerke auch darauf, dass sich die Nutzer auf der Plattform wohlfühlen. Nicht zuletzt deswegen verfügen sämtliche sozialen Netzwerke über ein eigenes Content-Management. Ob die staatlichen Maßnahmen sich in dieser Hinsicht jedoch signifikant auswirken, mag dahingestellt bleiben. Denn so mancher Nutzer dürfte von staatlicher Präsenz auf privaten Plattformen wenig angetan sein. Allerdings stellt sich ganz grundsätzlich die Frage, ob eine Kostenbeteiligung bereits aufgrund von Art. 14 ECRL ausscheidet.190 Denn dieser begrenzt die Haftung für Hostinganbieter für rechtswidrige Inhalte. Derartige Regelungen zur Kostenübernahme staatlicher Rechtsdurchsetzung in sozialen Netzwerken können daher nur auf europäischer Ebene umgesetzt werden.191 Abseits der Frage nach den Kosten der gerichtlichen Durchsetzung stehen dem Vorschlag jedoch weitere Bedenken gegenüber. Zum einen besteht Skepsis hinsichtlich des zeitlichen Umfangs gerichtlicher Entscheidungen, insbesondere im Onlinebereich.192 Zum anderen zweifelt Kubiciel auch an der Notwendigkeit einer gerichtlichen Entscheidung. Schließlich bedürfe die Löschung strafbarer Meinungsäußerungen in privaten Foren aus verfassungsrechtlicher Sicht keiner vorgelagerten Gerichtsentscheidung.193 Dies ist insoweit zutreffend; dennoch könnte 186 187 188 189 190 191 192 193
BVerwG, Urt. v. 29.03.2019 – 9 C 4/18, BVerwGE 165, 138 Rn. BVerwG, Urt. v. 29.03.2019 – 9 C 4/18, BVerwGE 165, 138 Rn. BVerwG, Urt. v. 29.03.2019 – 9 C 4/18, BVerwGE 165, 138 Rn. BVerwG, Urt. v. 29.03.2019 – 9 C 4/18, BVerwGE 165, 138 Rn. Guggenberger, ZRP 2017, 98 (101). Guggenberger, ZRP 2017, 98 (101). Kubiciel, jurisPR-StrafR 2017. Kubiciel, jurisPR-StrafR 2017.
26 ff. 32. 34. 32.
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
85
der Weg über die Gerichte gerade im hochsensiblen Bereich der Meinungsfreiheit einen deutlich weniger grundrechtsbelastenden Weg darstellen. Vor allem muss jedoch in Zweifel gezogen werden, ob die einstweilige Verfügung auch gleich geeignet für das Vorgehen gegen Hasskriminalität wäre. Zunächst ist davon auszugehen, dass es für viele Nutzer eine höhere Hürde darstellen würde, sich an eine staatliche Stelle zu wenden, anstatt eine Beschwerde bei einem privaten Unternehmen einzureichen. Sollte sich das Instrument der einstweiligen Verfügung für den Nutzer auf Dauer als unkompliziert und effektiv herausstellen, so würde die Akzeptanz voraussichtlich steigen. Nichtsdestotrotz wird Entfernung der rechtswidrigen Inhalte deutlich langwieriger sein als es beim NetzDG der Fall ist.194 Während das NetzDG im Fall offensichtlich rechtswidriger Inhalte eine Frist von 24 Stunden bis zur Löschung oder Sperrung vorsieht, werden die Gerichte in den meisten Fällen wenigstens einige Tage für die Entscheidung brauchen, die dann von den sozialen Netzwerken umgesetzt werden muss. Unter diesem Gesichtspunkt ist die staatliche Rechtsdurchsetzung jedenfalls nicht gleich geeignet. (2) Langfristige Investition in Journalismus und Bildung Neben der Bekämpfung von Hasskriminalität hat das NetzDG auch das Vorgehen gegen Falschnachrichten in sozialen Netzwerken zum Ziel. Jedoch ist bereits an der Geeignetheit des Gesetzes zur Erreichung dieses Ziels zu zweifeln. Daher betont Holznagel, dass das wirksamste Mittel gegen Falschnachrichten glaubwürdige Medien im In- und Ausland seien.195 Neue rechtliche Rahmenbedingungen könnten die Schaffung eines nationalen Kommunikationsraums ermöglichen, damit Desinformationskampagnen wirkungslos werden.196 Rechercheverbünde und Fakten-Check-Initiativen müssten zur Eindämmung von Falschnachrichten weiter gefördert werden.197 Allerdings ist davon auszugehen, dass die von Holznagel vorgeschlagenen Maßnahmen, im Gegensatz zum NetzDG, erst langfristig eine Wirkung haben werden. Während im Fall des NetzDG die Meldung und Löschung beziehungsweise Sperrung rechtswidriger Inhalte bereits seit dem Tag des Inkrafttretens möglich ist, müssten die Maßnahmen zur Stärkung etablierter Medien zunächst ihre Wirkung entfalten. Insbesondere vor dem Hintergrund, dass die klassischen Medien in der Wahrnehmung derer, die für Falschnachrichten empfänglich sind, an Glaubhaftigkeit eingebüßt haben,198 dürfte sich ein solcher Prozess hinziehen. 194 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 430. 195 Holznagel, MMR 2018, 18 (21). 196 Holznagel, MMR 2018, 18 (21). 197 Holznagel, MMR 2018, 18 (21 f.). 198 Krüger/Seiffert-Brockmann, in: Haarkötter/Nieland, Nachrichten und Aufklärung, S. 67 (68 ff.).
86
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
Es ist mit an Sicherheit grenzender Wahrscheinlichkeit davon auszugehen, dass die Stärkung etablierter Medien keine negativen Auswirkungen auf die Meinungsfreiheit hat. Damit wäre eine solche Maßnahme auch weniger belastend. Auch wenn das NetzDG höchstens ein punktuelles Vorgehen gegen Falschnachrichten ermöglicht, ist die Schaffung neuer Rahmenbedingungen aufgrund ihrer eher langfristigen Wirkung als weniger effektives Mittel einzuschätzen. Sofern Falschnachrichten von den im NetzDG genannten Straftatbeständen erfasst sind, müssen diese immerhin innerhalb kurzer Fristen entfernt werden. Ein weiterer Ansatz ist die Stärkung von Bildungsmaßnahmen hinsichtlich des Umgangs mit sozialen Medien. Projekte wie SELMA (Social and Emotional Learning for Mutual Awareness)199 oder DigiBitS (Digitale Bildung trifft Schule)200 zielen darauf ab, Heranwachsende für die Themen Hassrede und Falschnachrichten zu sensibilisieren. Dazu gehört auch ein offener öffentlicher Diskurs über Umgangsformen in sozialen Netzwerken.201 In dem Zuge kann auch über bestehende Möglichkeiten informiert werden, wie Hassrede strafrechtlich verfolgt werden kann.202 Schließlich gab es auch vor der Einführung des NetzDG Möglichkeiten, gegen den Hass im Netz rechtlich vorzugehen. Betrachtet man die Auswirkungen dieser Maßnahmen auf das Recht der Meinungsfreiheit aus Art. 11 Abs. 1 GRCh, so lässt sich feststellen, dass kein Eingriff in den Schutzbereich vorliegt. Schließlich wird die freie Meinungsäußerung dadurch nicht beeinträchtigt, sondern lediglich der Diskurs über Umgangsformen angeregt beziehungsweise über bestehende rechtliche Instrumente informiert. Derartige Maßnahmen wären insofern um ein Vielfaches weniger belastend als Lösch- und Sperrpflichten. Allerdings ist die Effektivität im Vergleich zum NetzDG deutlich geringer einzuschätzen. Sicherlich ist davon auszugehen, dass solche Maßnahmen, insbesondere wenn man sie flächendeckend an allen Bildungseinrichtungen einführen würde, zu einem gewissen langfristigen Erfolg führen würden. Jedoch können Bildungsangebote vorrangig in Schulen durchgeführt werden, bereits erwachsene Internetnutzer werden daher in der Regel nicht von derlei Maßnahmen erreicht. Insgesamt wären solche Maßnahmen eher unterstützender Natur, können aber für die derzeitige Situation keine Abhilfe schaffen. (3) Technische Hilfsmittel Denkbar wäre auch, dass soziale Netzwerke für das Vorgehen gegen Hasskriminalität auf technische Hilfsmittel zurückgreifen. Beispielsweise könnten Content-Filter eingesetzt werden, um Hasskriminalität und Falschnachrichten aufzu199 200 201 202
https://hackinghate.eu/about/. https://www.digibits.de/schule-gegen-hate-speech/#. Eickelmann/Grashöfer/Westermann, ZfM 2017, 176 (185). Eickelmann/Grashöfer/Westermann, ZfM 2017, 176 (185).
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
87
decken und zu entfernen.203 Diese Filter überprüfen Inhalte vorab, wenn sie vom Nutzer online gestellt werden. Kommt das System zu dem Ergebnis, dass die Inhalte des Nutzers gegen eine Strafnorm verstoßen, wird der betreffende Inhalt direkt gelöscht. Somit könnte verhindert werden, dass strafbare Inhalte überhaupt auf den sozialen Netzwerken sichtbar werden. Auf den ersten Blick erscheint dieses Vorgehen als probate Lösung für das Problem der Hasskriminalität in sozialen Netzwerken. Schließlich werden die problematischen Inhalte gar nicht erst für andere Nutzer sichtbar und können mithin auch keine schädliche Wirkung entfalten. Hinzu kommt, dass der Einsatz eines solchen Systems die finanziellen Ressourcen im Vergleich zum Einsatz von Personal erheblich schont. Der Einsatz von Filtern für die Löschung von Inhalten ist jedoch äußerst kritisch zu sehen.204 Zum einen bestehen Zweifel an der Effektivität, zum anderen besteht ein großes Gefährdungspotenzial für die Grundrechte der Nutzer.205 In Bezug auf die Effektivität gibt es Bedenken, ob die Filter nach dem derzeitigen technischen Stand überhaupt die ihnen zugedachte Aufgabe erfüllen können.206 Wie bereits hinreichend erläutert wurde, ist es im Einzelfall selbst für ausgebildete Juristen schwierig, Fälle im Bereich des Äußerungsrechts zu beurteilen. Warum also sollte ein Algorithmus dies besser beherrschen? Vor allem im Bereich von satirischen Äußerungen, in dem ein Gespür für den Subtext gefordert ist, stößt ein solcher Algorithmus schnell an seine Grenzen. Nicht zuletzt hängt die Effektivität eines Systems von demjenigen ab, der es programmiert. Darüber hinaus birgt auch dieser Programmierungsprozess Gefährdungspotenzial. Es ist nicht ausgeschlossen, dass es aufgrund der Trainingsdaten oder gegebenenfalls auch wegen Vorurteilen des Programmierers zu einer Voreingenommenheit des Algorithmus, sogenannter Bias, kommt.207 Infolge einer diskriminierenden Wirkung des Algorithmus könnten beispielsweise Inhalte bestimmter Nutzergruppen vermehrt gelöscht werden. Mit Blick auf die Eingriffstiefe in das Recht auf Meinungsfreiheit ist kein Vorteil zu erkennen. Vielmehr ist der Eingriff als noch intensiver einzustufen.208 Einerseits ist, wie bereits ausgeführt, damit zu rechnen, dass die Quote der Falscheinschätzungen bei einem Filter noch einmal deutlich höher liegen würde als bei einem menschlichen Entscheider. Andererseits stellt sich eine solche Form von Filter zum Zeitpunkt des Uploads als deutlich eingriffsintensiver dar als eine 203
Heldt, in: Mohabbat Kar/Thapa/Parycek, (Un)berechenbar?, S. 392 (398). Heldt, in: Mohabbat Kar/Thapa/Parycek, (Un)berechenbar?, S. 392 (402 ff.). 205 Klass, ZUM 2020, 353 (354); Senftleben, ZUM 2019, 369 (372). 206 Senftleben, ZUM 2019, 369 (372). 207 Jiang, in: Beck/Kusche/Valerius, Digitalisierung, Automatisierung, KI und Recht, S. 557 (587). 208 Heldt, in: Mohabbat Kar/Thapa/Parycek, (Un)berechenbar?, S. 392 (412). 204
88
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
nachträgliche Überprüfung im Anschluss an eine Beschwerde. Ein Overblocking ist mithin noch eher zu erwarten. Im Ergebnis wäre nach dem derzeitigen Stand der Technik ein Content-Filter weniger effektiv, dafür aber noch eingriffsintensiver einzustufen. (4) Erweiterung der Regulierten Selbstregulierung Ein milderes Mittel könnte die Weiterentwicklung des Systems der Regulierten Selbstregulierung im NetzDG darstellen.209 Bei der Regulierten Selbstregulierung handelt es sich um die Kombination der gesellschaftlichen Selbstregulierung und der staatlich-imperativen Regulierung.210 Das bedeutet, dass Private eine originär öffentliche Aufgabe wahrnehmen, bei deren Ausführung staatliche Unterstützung beziehungsweise staatliche Überwachung, hinzutritt.211 Die Vorteile für dieses Modell liegen aus staatlicher Sicht klar auf der Hand: Der Staat kann zum einen das Expertenwissen der privaten Kräfte nutzen und zum anderen Kosten sparen.212 Hinzu kommt, dass ein solches System flexibler auf Veränderungen zu reagieren vermag.213 Gerade im Bereich des Internets, das ständigen Veränderungen unterliegt, bedeutet Flexibilität einen großen Vorteil. Zur Regulierung im Online-Kontext ist die Regulierte Selbstregulierung auch deswegen geeignet, da sie in weiten Teilen grenzüberschreitend ausgerichtet werden kann.214 Das NetzDG sieht die Übertragung von Entscheidungen an eine Einrichtung der Regulierten Selbstregulierung in § 3 Abs. 2 Nr. 1 lit. b vor, sofern es sich nicht um einen offensichtlich rechtswidrigen Inhalt handelt. Überträgt der Betreiber eines sozialen Netzwerks die Entscheidung über die Rechtswidrigkeit eines Inhalts innerhalb von sieben Tagen einer anerkannten Einrichtung der Regulierten Selbstregulierung, so kann die Frist von sieben Tagen überschritten werden. Die Voraussetzungen für die Anerkennung einer Einrichtung der Regulierten
209 Gersdorf, in: Eifert/Gostomzyk, Netzwerkrecht, S. 187 (215); Hain/Ferreau/ Brings-Wiesen, K&R 2017, 433 (435 ff.); Ladeur/Gostomzyk, K&R 2017, 390 (393); Schwartmann, GRUR-Prax 2017, 317 (318 f.). 210 Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 188; Palzer, ZUM 2002, 875 (877). 211 Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 189; Di Fabio, VVDStRL 56 (1997), 235 (241). 212 Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 189; Puppis/Dörr, in: Puppis/Künzler/Schade/Donges/Dörr/Ledergerber/Vogel, Selbstregulierung und Selbstorganisation, S. 54 (56). 213 Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 191; Calliess, AfP 2002, 465 (466); Puppis/Dörr, in: Puppis/Künzler/Schade/Donges/Dörr/ Ledergerber/Vogel, Selbstregulierung und Selbstorganisation, S. 54 (56). 214 Puppis/Dörr, in: Puppis/Künzler/Schade/Donges/Dörr/Ledergerber/Vogel, Selbstregulierung und Selbstorganisation, S. 54 (56).
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
89
Selbstregulierung sind in § 3 Abs. 6 NetzDG festgelegt. Dazu gehören eine sachgerechte Ausstattung, die Sachkunde der Prüfer und das Bestehen einer Verfahrensordnung. Für die Anerkennung ist gemäß § 3 Abs. 7 i.V. m. § 4 Abs. 4 S. 1 NetzDG das Bundesamt für Justiz zuständig. Vor dem Hintergrund des Staatsfernegebots ist diese Regelung jedoch als kritisch zu werten.215 Seit dem 3. Januar 2020 ist die Freiwillige Selbstkontrolle Multimedia-Diensteanbieter (FSM e.V.) als entsprechende Einrichtung anerkannt.216 Das im NetzDG implementierte System der Regulierten Selbstregulierung schafft jedoch kaum Anreize für die Betreiber sozialer Netzwerke, von dieser Möglichkeit Gebrauch zu machen. Zwar können die sozialen Netzwerke schwierige Fälle auf diese Art und Weise auslagern, insbesondere wenn entsprechend geschultes Personal fehlt, und sind zudem nicht an die Frist von sieben Tagen gebunden.217 Unklar bleibt dennoch für die Plattformbetreiber, ob sie sich durch die Übertragung der Entscheidung an die Einrichtung der Regulierten Selbstregulierung einem möglichen Bußgeld entziehen können.218 Zwar soll es der Bußgeldbehörde verwehrt sein, ein Bußgeld darauf zu stützen, dass nicht gesperrte oder gelöschte Inhalte tatsächlich rechtswidrig waren, wenn diese Einschätzung von einer Einrichtung der Regulierten Selbstregulierung vorgenommen wurde.219 Einzug in den Gesetzestext hat diese Vorgabe hingegen keinen gefunden. Die sozialen Netzwerke müssen darauf vertrauen, dass sich Bußgeldbehörde und Gerichte an den Gesetzesmaterialien orientieren.220 Zudem ist die Übertragung der Entscheidung lediglich in Fällen nicht offensichtlich rechtswidriger Inhalte möglich, was als Hemmnis wirken dürfte.221 So sind die sozialen Netzwerke gezwungen zunächst jeden Inhalt auf offensichtliche Rechtswidrigkeit zu prüfen, bevor sie die Entscheidung weitergeben können. Hinzu kommt, dass die Entscheidung der Regulierten Selbstregulierung eine umfassende Bindungswirkung entfaltet.222 Eine Löschung dieser Inhalte nach den Gemeinschaftsstandards der Plattformen bleibt damit verwehrt.223
215
Ausführlich hierzu Kapitel 3 B. IV. https://www.fsm.de/de/presse-und-events/fsm-als-netzdg-selbstkontrolle. 217 Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 201. 218 Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 477. 219 BT-Drs. 18/13013, S. 21. 220 Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 201; Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 477; Liesching, in: Eifert/Gostomzyk, Netzwerkrecht, S. 135 (140). 221 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 430. 222 BT-Drs. 18/13013, S. 21. 223 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 430. 216
90
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
Die Vorteile für die sozialen Netzwerke, die Entscheidung zu übertragen, überwiegen insofern kaum die prophylaktische Löschung von Inhalten.224 Die fehlenden Anreize spiegeln sich auch in dem Umfang der Konsultation der Selbstkontrolleinrichtungen wider. Im zweiten Halbjahr nach Anerkennung der FSM haben die sozialen Netzwerke von der Übertragung der Entscheidung an die Einrichtung der Regulierten Selbstregulierung nur in einem Bruchteil der Fälle Gebrauch gemacht.225 Dieses Bild zeichnet sich auch in den folgenden Transparenzberichten fort.226 Würde man das System der Regulierten Selbstregulierung jedoch umfassender gestalten und Anreize für die sozialen Netzwerke schaffen, sich diesem System anzuschließen, könnte dies eine echte Alternative zum NetzDG darstellen. Für die Nutzer der sozialen Netzwerke ist die Regulierte Selbstregulierung als weniger eingriffsintensiv einzuschätzen.227 Während das NetzDG in seiner jetzigen Form einen deutlichen Anreiz zum Overblocking setzt, würde diese Gefahr durch die Regulierte Selbstregulierung deutlich reduziert werden. Im Gegensatz zu den Betreibern der sozialen Netzwerke verfolgt eine Einrichtung der Regulierten Selbstregulierung kein wirtschaftliches Interesse in Bezug auf die Beiträge der Nutzer.228 Insbesondere sieht eine solche Einrichtung sich nicht beträchtlichen Bußgelddrohungen im Falle einer Nichtlöschung ausgesetzt, sodass sie an die Entscheidung ergebnisoffener herangehen kann. Im Gegensatz zur gerichtlichen Durchsetzung können durch Einrichtungen der Regulierten Selbstregulierung schnelle Entscheidungen getroffen und somit die Persönlichkeitsrechte der Betroffenen gewahrt werden. Durch die umfassenden Anforderungen, die an die Anerkennung einer Einrichtung gestellt werden, kann eine substantiierte Entscheidung über die Inhalte erwartet werden. Die Maßnahme wäre auch gleich wirksam, wenn entsprechende Anreize gesetzt würden, sich der Regulierten Selbstregulierung zu unterwerfen. Darüber hinaus wäre die Regulierte Selbstregulierung auch mit Art. 3 ECRL, dem Herkunftslandprinzip vereinbar, sofern sich die Anbieter sozialer Netzwerke mit Sitz in einem anderen Mitgliedstaat diesem System freiwillig anschließen können.229 224
Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 201 f. Siehe hierzu die Auswertung der Transparenzberichte durch Liesching/Funke/ Hermann/Kneschke/Mischnik/Nguyen/Prüßner/Rudolph/Zschammer, Das NetzDG in der praktischen Anwendung, S. 134. 226 Im Zeitraum Januar bis Juni 2021 hat Facebook 14 Beschwerden an die FSM weitergeleitet, Facebook, NetzDG Transparenzbericht 2021; Twitter hat im Zeitraum Januar bis Juni 2021 keinen Gebrauch von der Möglichkeit der Entscheidungsübertragung gemacht, Twitter, NetzDG Transparenzbericht Juli 2021. 227 Müller-Franken, AfP 2018, 1 (10). 228 Müller-Franken, AfP 2018, 1 (10). 229 Hoeren/Sieber/Holznagel/Holznagel/Hartmann, Teil 3 Rn. 252. 225
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
91
(5) Zwischenergebnis Nach alledem muss festgehalten werden, dass es einige vielversprechende Lösungsansätze für das Vorgehen gegen Hasskriminalität und Falschnachrichten im Internet gibt. Allerdings ist bei den meisten Ansätzen fraglich, ob diese innerhalb kürzester Zeit den gleichen Effekt wie das NetzDG haben werden, nämlich die Entfernung strafbarer Nachrichten innerhalb einer kurzen Frist bei möglichst geringen Kosten für den Staat. Ein System der Regulierten Selbstregulierung zu etablieren, das nicht nur nicht offensichtlich rechtswidrige Inhalte, sondern sämtliche Inhalte erfasst, wäre jedoch ein gleich effektives und weniger eingriffsintensives Mittel. Von Seiten des Gesetzgebers müssten entsprechende Anreize geschaffen werden, sich diesem System der Regulierten Selbstregulierung anzuschließen. ff) Angemessenheit der Regelungen des NetzDG Obschon das NetzDG bereits in der bisherigen Untersuchung erhebliche Zweifel an der Vereinbarkeit mit dem Art. 11 Abs. 1 GRCh aufkommen lässt, ist auch der Frage nach seiner Angemessenheit, dem „Herzstück des materiell-grundrechtlichen Schutzes“230 nachzugehen. Zwar wird die Angemessenheit in Art. 52 Abs. 1 GRCh nicht als ausdrückliche Prüfungsstufe genannt. Dem Wortlaut nach dürfen Eingriffe jedoch nur unter Wahrung des Verhältnismäßigkeitsgrundsatzes vorgenommen werden. Nach herrschender Auffassung ist die Angemessenheit fester Bestandteil der Verhältnismäßigkeitsprüfung.231 Dahinter steht die Frage, ob das NetzDG ein angemessenes Mittel in Relation zum angestrebten Zweck darstellt.232 Einen wichtigen Maßstab liefert hier Art. 10 Abs. 2 EMRK, der vorgibt, dass die Einschränkungen der Meinungsfreiheit in einer „demokratischen Gesellschaft notwendig“ sein müssen. Darüber wird die Verknüpfung der Meinungsfreiheit mit ihrer demokratischen Funktion geschaffen.233 Der EGMR spricht der Meinungsfreiheit eine herausragende Bedeutung zu, indem er sie als „Grundpfeiler einer demokratischen Gesellschaft“234 beziehungsweise als „einer der Grundfesten einer demokratischen Gesellschaft“235 bezeichnet. Damit geht ihr Gehalt über die Grundrechtsposition des
230
Grabenwarter/Cornils, § 7 Rn. 109. Siehe nur Grabenwarter/Cornils, § 7 Rn. 109; Heselhaus/Nowak/Kühling, § 27 Rn. 52; Merten/Papier/Hilf, § 164 Rn. 65; Riedel, Die Grundrechtsprüfung durch den EuGH, S. 326. 232 Heselhaus/Nowak/Kühling, § 27 Rn. 52. 233 Heselhaus/Nowak/Kühling, § 27 Rn. 53. 234 EGMR, Urt. v. 07.12.1976 – 5493/72, ECLI:CE:ECHR:1976:1207JUD000549 372 Rn. 49 – Handyside gegen Vereinigtes Königreich. 235 EGMR, Urt. v. 24.06.2004 – 59320/00, ECLI:CE:ECHR:2004:0624JUD005932 000 Rn. 58 – Hannover gegen Deutschland. 231
92
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
Einzelnen hinaus und es kommt ihr eine systemrelevante Bedeutung zu.236 Die Bedeutung der Meinungsfreiheit für die Demokratie ist insofern bei der Abwägung mit zu berücksichtigen. Es ist nicht ausgeschlossen, dass die Verpflichtung, Hassrede zu löschen, gerechtfertigt sein kann. So führte der EGMR in seinem Urteil zu einem der größten Internet-Newsportale in Estland aus, dass die Verpflichtung, offensichtlich unrechtmäßige Hasskommentare ohne Verzögerung von der Plattform zu entfernen, keinen unverhältnismäßigen Eingriff in die Meinungsfreiheit darstelle.237 Auch wenn solche Verpflichtungen zur Löschung grundsätzlich möglich sind, kommt es dennoch auf deren konkrete Ausgestaltung an. Ob der deutsche Gesetzgeber der Meinungsfreiheit bei der Ausgestaltung der Regelungen hinreichende Bedeutung zugemessen hat, soll im Folgenden untersucht werden. (1) Lösch- und Sperrpflichten § 3 Abs. 1 NetzDG verpflichtet die Anbieter sozialer Netzwerke, ein wirksames und transparentes Verfahren für den Umgang mit Beschwerden über rechtswidrige Inhalte vorzuhalten. Dieses Verfahren muss nach § 3 Abs. 2 Nr. 2 NetzDG gewährleisten, dass offensichtlich rechtswidrige Inhalte innerhalb von 24 Stunden nach Eingang der Beschwerde entfernt oder der Zugang zu ihnen gesperrt wird und gemäß Nr. 3 jeder andere rechtswidrige Inhalt unverzüglich, in der Regel innerhalb von sieben Tagen nach Eingang der Beschwerde, entfernt oder der Zugang zu ihm gesperrt wird. Diese kurzen Fristen lassen nur eine eingeschränkte Prüfung des Sachverhalts zu. Zwar gibt der Gesetzgeber den sozialen Netzwerken für die Prüfung nicht offensichtlich rechtswidriger Inhalte eine Frist von sieben Tagen vor. Für Sachverhalte in einem Bereich, der Gerichte und Wissenschaft über Wochen und Jahre beschäftigen kann und in denen die rechtliche Bewertung selten eindeutig ist, sind sieben Tage jedoch im Einzelfall äußerst kurz bemessen.238 Diese kurzen Fristen dienen allerdings dem Schutz der Betroffenen, die ein Interesse daran haben, dass die Inhalte möglichst schnell gelöscht oder zumindest gesperrt werden.239 Es bestehen aber erhebliche Zweifel, ob diese Fristen eine sachgerechte Prüfung der Inhalte erlauben. Im Endeffekt muss jede Beschwerde innerhalb von 24 Stunden zumindest auf eine offensichtliche Rechtswidrigkeit geprüft wer-
236
Grabenwarter/Walter, § 13 Rn. 47. EGMR, Urt. v. 16.06.2015 – 64569/09, ECLI:CE:ECHR:2015:0616JUD006456 909 Rn. 153 – Delfi AS gegen Estland. 238 Nolte, ZUM 2017, 552 (556 ff.); Spiegel/Heymann, K&R 2020, 344 (346); Spindler, K&R 2017, 533 (537). 239 Holznagel, Stellungnahme zum Entwurf eines Gesetzes zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken, S. 23. 237
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
93
den.240 Insbesondere in Fällen von Sarkasmus, Ironie und Satire könnte eine offensichtliche Rechtswidrigkeit vorschnell angenommen werden, da die näheren Umstände der Aussage regelmäßig nicht bekannt sind.241 Auch in den vom NetzDG adressierten Fällen von Falschnachrichten ist die Frist von 24 Stunden beziehungsweise sieben Tagen äußerst kurz bemessen.242 Denn der Gesetzgeber verhält sich nicht zu der Frage, wie innerhalb dieser kurzen Zeit die Wahrheit oder Unwahrheit einer Aussage ermittelt werden soll.243 Sofern Zweifel bestehen, dürfte der fragliche Inhalte allerdings ohnehin unter die sieben-Tage-Frist fallen.244 Die sieben-Tage-Frist kann zudem verlängert werden, wenn die Entscheidung über die Rechtswidrigkeit des Inhalts von der Unwahrheit einer Tatsachenbehauptung oder erkennbar von anderen tatsächlichen Umständen abhängt (§ 3 Abs. 2 Nr. 3 lit. a NetzDG) oder das soziale Netzwerk die Entscheidung über die Rechtswidrigkeit innerhalb von sieben Tagen nach Eingang der Beschwerde einer Einrichtung der Regulierten Selbstregulierung überträgt und sich deren Entscheidung unterwirft (§ 3 Abs. 2 Nr. 3 lit. b NetzDG). Der Gesetzgeber vertritt die Auffassung, dass durch die Möglichkeit der Fristüberschreitung in § 3 Abs. 2 Nr. 3 NetzDG ein Overblocking effektiv vermieden werden kann, soll den sozialen Netzwerken durch diese Regelung doch ausreichend Zeit für die Prüfung der Inhalte zur Verfügung gestellt werden.245 Bei der Fristverlängerung handelt es sich jedoch dem Wortlaut nach um eine Ausnahme: In der Regel sollen rechtswidrige Inhalte innerhalb von sieben Tagen gesperrt oder gelöscht werden. Die Fristüberschreitung aufgrund der Übertragung der Entscheidung an eine Einrichtung zur Regulierten Selbstregulierung kann seit Anfang 2020, mit der Anerkennung der FSM, genutzt werden.246 Den Betreibern der sozialen Netzwerke steht jedoch keine Möglichkeit offen, eine gerichtliche Entscheidung vor der Löschung herbeizuführen.247 Ein Versäumnis, das auch der französischen Loi Avia vorgeworfen wurde.248 In den Fällen, in denen es um offensichtlich rechtswidrige Inhalte geht, bleibt den sozialen Netzwerken die Möglichkeit einer Fristverlängerung gänzlich ver240 Liesching/Funke/Hermann/Kneschke/Mischnik/Nguyen/Prüßner/Rudolph/Zschammer, Das NetzDG in der praktischen Anwendung, S. 111. 241 Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 452 f.; Spiegel/Heymann, K&R 2020, 344 (346). 242 Heckmann/Wimmers, CR 2017, 310 (314). 243 Heckmann/Wimmers, CR 2017, 310 (314). 244 Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 168. 245 BT-Drs. 18/13013, S. 20. 246 https://www.fsm.de/de/presse-und-events/fsm-als-netzdg-selbstkontrolle. 247 Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 205. 248 Siehe hierzu Kapitel 3 A. I. 5. d) ff) (4).
94
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
wehrt. Für diese Fälle erachtet der Gesetzgeber eine Ausnahme nicht als notwendig.249 Bedenkt man, dass eine Vielzahl von Beschwerden gleichzeitig bei den sozialen Netzwerken eingehen können, ist die Frist von 24 Stunden unter Umständen zu kurz und sei es nur um die offensichtliche Rechtswidrigkeit festzustellen.250 Um eine Meldung fachkundig erledigen zu können, müssen die Sachbearbeiter vertiefte Kenntnisse über eine Vielzahl von Straftatbeständen haben. Das NetzDG erfasst immerhin zweiundzwanzig – zum Teil sehr komplexe – StGBNormen. Eine Löschung aus reiner Unkenntnis und Überforderung scheint daher nicht ausgeschlossen. Aus Sicht der Opfer von Hasskriminalität ist die Meldefunktion und die damit verbundene Verpflichtung der sozialen Netzwerke, rechtswidrige Inhalte zu löschen, erforderlich, um ihre Rechte zu wahren und das Fortbestehen der Rechtsverletzung durch die weitere Verbreitung der Inhalte zu verhindern.251 Von Teilen der Literatur wird angeführt, dass durch die Verpflichtung zur Entfernung von Inhalten auch positive Auswirkungen auf die Meinungsfreiheit denkbar sind.252 Denn es sollen, und dies sei vom Gesetzgeber auch hinreichend deutlich gemacht worden, nur rechtswidrige Inhalte und keine rechtmäßigen gelöscht werden.253 Schließlich würden Hasskommentare auf Dauer zu einem gewissen „Klima der Angst“ auf der Plattform führen, das die Nutzer von ihrer freien Meinungsäußerung abhalten würde, da sie befürchten müssten, von anderen Nutzern bedroht und mit Hassnachrichten konfrontiert zu werden.254 Gleichermaßen argumentiert Bautze, dass die sozialen Netzwerke ein eigenes Interesse daran hätten, ein Overblocking auf ihren Plattformen zu unterbinden. Immerhin basiere das Geschäftsmodell sozialer Netzwerke darauf, dass sie Inhalte von Nutzern an Nutzer transportieren. Ein überobligatorisches Löschverhalten stünde kaum im Einklang mit diesem Geschäftsmodell.255 Auch im Hinblick auf die Werbeeinnahmen könnte ein Overblocking für die sozialen Netzwerke von Nachteil sein. Denn je mehr Inhalte sich auf den sozialen Netzwerken befinden und von Nutzern geteilt werden, desto höher sind die Werbeeinnahmen.256 Gegen diese Erwägung lassen sich jedoch Einwände er249
BT-Drs. 18/13013, S. 20. Niewöhner, DuD 2021, 391 (393). 251 Holznagel, Stellungnahme zum Entwurf eines Gesetzes zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken, S. 23; Lang, AöR 143 (2018), 220 (228 f.). 252 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 439 f.; Lüdemann, MMR 2019, 279 (282); Sahl/Bielzer, ZRP 2020, 2 (2). 253 Kubiciel, jurisPR-StrafR 2017. 254 Bulletin der BReg. Nr. 80-1 vom 30.06.2017, S. 3. 255 Bautze, KJ 2019, 203 (210). 256 Lang, AöR 2018, 220 (236). 250
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
95
heben. Für die sozialen Netzwerke haben einzelne Inhalte keinen besonderen Wert.257 Die Plattformbetreiber sind nicht allein ihren Nutzern und der Übermittlung ihrer Inhalte verpflichtet, das Geschäftsmodell basiert vielmehr zentral darauf, dass Werbetreibende die Plattform nutzen.258 Zu diesem Zweck ist es wohl auch Ansinnen der sozialen Netzwerke ein Umfeld zu schaffen, in dem Nutzer sich wohlfühlen und mit dem Werbetreibende sich identifizieren können. Dazu gehört auch, dass unerwünschte Inhalte die Kommunikationsräume nicht beeinträchtigen.259 Obwohl die bisherige Löschpraxis auf Basis der Gemeinschaftsstandards für viele Nutzer teilweise nicht nachvollziehbar war, hielten die Plattformen dennoch daran fest. Es scheint also keine messbare Tendenz der Nutzer zu geben, sich von sozialen Netzwerken abzuwenden, die Inhalte entfernen.260 Wahrscheinlicher ist, dass Netzwerkeffekte einen Einfluss auf die Nutzung der Plattformen haben.261 Zudem wurde im Vorfeld des NetzDG kritisiert, dass die sozialen Netzwerke nicht ausreichend gegen Hasskriminalität auf ihren Plattformen vorgehen würden.262 Somit kann mit einem rigorosen Vorgehen gegen rechtswidrige und vermeintlich rechtswidrige Inhalte ein Verbessern des eigenen Images beabsichtigt sein.263 Das Geschäftsmodell der sozialen Netzwerke spricht also gerade nicht gegen die Anreizstruktur, die das NetzDG mit den Löschpflichten schafft. (2) Bußgeldandrohung Kern der Befürchtung, dass es zu einem Overblocking kommen könnte, ist die Bußgeldandrohung im Falle der Nichteinhaltung der Pflichten. Nach § 4 Abs. 1 Nr. 2 NetzDG handelt ordnungswidrig, wer vorsätzlich oder fahrlässig „entgegen § 3 Absatz 1 Satz 1 oder § 3b Absatz 1 Satz 1 ein dort genanntes Verfahren für den Umgang mit Beschwerden von Beschwerdestellen oder Nutzern [. . .] nicht, nicht richtig oder nicht vollständig vorhält“. § 4 Abs. 2 NetzDG sieht ein Bußgeld von bis zu fünf Millionen Euro vor. Durch die in § 4 Abs. 2 S. 2 NetzDG gegebene Möglichkeit der Anwendung des § 30 Abs. 2 S. 3 OWiG ist im Falle einer Festsetzung einer Geldbuße gegen die das soziale Netzwerk betreibende juristische Person oder Personenvereinigung eine Verzehnfachung der Summe möglich, sodass ein maximales Bußgeld von 50 Millionen Euro verhängt werden kann. Aufgrund der beträchtlichen Höhe der drohenden Bußgelder ist zu befürch-
257 258 259 260 261 262 263
Nolte, ZUM 2017, 552 (556). Niewöhner, DuD 2021, 391 (394). Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 465. Buchheim, JuS 2018, 548 (556). Buchheim, JuS 2018, 548 (556). BT-Drs. 18/12356, S. 1 f. Eifert, NJW 2017, 1450 (1452); Liesching, MMR 2018, 26 (27).
96
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
ten, dass die sozialen Netzwerke Inhalte in vorauseilendem Gehorsam löschen, um einer Sanktion zu entgehen.264 Sowohl der Wortlaut der Bußgeldvorschrift als auch die Benennung der Pflichten, auf die sich das Bußgeld bezieht, sind nicht eindeutig, was dazu führen kann, dass die Anbieter sozialer Netzwerke die bestehenden Pflichten nicht exakt eingrenzen können.265 Wenn nicht eindeutig aus dem Gesetzestext hervorgeht, wann ein Inhalt offensichtlich rechtswidrig ist, könnte die Tendenz bestehen, auf eine komplizierte Abwägung zu verzichten und den Inhalt als offensichtlich rechtswidrig zu löschen.266 Zumal denkbar ist, dass die Bußgeldbehörde einen Fall, den das soziale Netzwerk als rechtswidrig eingestuft hat, als offensichtlich rechtswidrig bewertet. Die sozialen Netzwerke könnten im Ergebnis zu der Auffassung gelangen, dass sie ein Bußgeld nur dann sicher vermeiden können, wenn sie Inhalte innerhalb von 24 Stunden löschen.267 Die in § 4 NetzDG wiederkehrend verwendete Formulierung „nicht, nicht richtig oder nicht vollständig“ wird in den Gesetzesmaterialien näher erläutert. In der Gesetzesbegründung zu § 4 Abs. 1 Nr. 2 NetzDG heißt es, „der Tatbestand wird in der Regel nicht bereits durch einen einmaligen Verstoß gegen die Pflicht [. . .] zu löschen oder zu sperren, erfüllt“.268 Es müsse vielmehr zu „systemischen Mängeln“ kommen.269 Der Anwendungsbereich des § 4 Abs. 1 Nr. 2 NetzDG sei eröffnet, wenn das soziale Netzwerk „organisatorische Vorgaben (z. B. rechtliche Leitlinien) für die Bewertung von Sachverhalten bei der Einzelfallprüfung [macht], die regelmäßig dazu führen, dass rechtswidrige Inhalte nicht gesperrt oder nicht gelöscht werden“.270 Allerdings ist hier ausdrücklich nur von Verstößen gegen die Pflicht zu löschen oder zu sperren die Rede, nicht jedoch davon, dass auch ein Zuviellöschen von Inhalten zu systemischen Mängeln und damit zu einem Bußgeld führen kann.271 Gegen die Anreizwirkung der Bußgelder wird eingewandt, dass diese jedenfalls erst nach mehrmaligen Verstößen und nicht bereits bei der ersten Fehlent-
264
Guggenberger, NJW 2017, 2577; Liesching, MMR 2018, 26 (27). Siehe zur Unbestimmtheit des NetzDG Kapitel 3 B. III. 266 Holznagel, ZUM 2017, 615 (623). 267 Liesching/Funke/Hermann/Kneschke/Mischnik/Nguyen/Prüßner/Rudolph/Zschammer, Das NetzDG in der praktischen Anwendung, S. 112. 268 BT-Drs. 18/12356, S. 24. 269 BT-Drs. 18/12356, S. 24. 270 BT-Drs. 18/12356, S. 25. 271 Ladeur/Gostomzyk, Gutachten zur Verfassungsmäßigkeit, S. 81; Kalscheuer/Hornung, NVwZ 2017, 1721 (1724); Hong, Das NetzDG und die Vermutung für die Freiheit der Rede, Verfassungsblog v. 09.01.2018; a. A. Eifert, in: Eifert/Gostomzyk, Netzwerkrecht, S. 9 (36); Schiff, MMR 2018, 366 (369). 265
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
97
scheidung verhängt würden.272 Insofern bestünde keine Notwendigkeit für die Betreiber sozialer Netzwerke, sicherheitshalber Inhalte zu löschen. Diese Ansicht deckt sich insoweit auch mit der Begründung des Gesetzgebers: Ein systemisches Versagen solle sich erst durch „beharrliche Verstöße“, nicht bereits durch „die fehlerhafte Nichtlöschung eines einzelnen Inhalts“ ergeben.273 Diese Voraussetzungen haben jedoch keinen Einzug in den Gesetzestext erhalten.274 Im Gegenteil: § 4 Abs. 1 Nr. 2 NetzDG verweist über § 3 Abs. 1 S. 1 NetzDG auf § 3 Abs. 2 Nr. 2 und 3 NetzDG, wo der Singular Inhalt verwendet wird. Das führt zu dem Schluss, dass nach dem Gesetzeswortlaut auch die Nichtlöschung eines einzelnen Inhalts ausreichend für die Verhängung eines Bußgeldes sein kann.275 Der Gesetzgeber ist hingegen der Auffassung, mit der Verwendung des Plurals in § 4 Abs. 5 NetzDG („nicht entfernte oder nicht gesperrte Inhalte“) würde hinreichend deutlich, dass die Verhängung eines Bußgeldes nicht allein auf die fehlerhafte Nichtlöschung eines einzelnen Inhalts gestützt werden kann.276 Vor dem Hintergrund, dass § 4 Abs. 5 NetzDG in keinem direkten Zusammenhang mit den Bußgeldtatbeständen steht, sondern vielmehr das Vorabentscheidungsverfahren regelt, ist diese vermeintliche Klarstellung wenig zielführend.277 Aber selbst wenn man annähme, dass es zu kumulativen Verstößen kommen müsste, bliebe die generelle Tendenz zur Löschung anstatt der Nichtlöschung bestehen.278 Denn zur Vermeidung des Bußgelds ist es für die Diensteanbieter zielführend, jeden Angriffspunkt im Sinne einer fehlerhaften Nichtlöschung zu vermeiden und das Beschwerdesystem dementsprechend auszurichten.279 Mit dem neu eingeführten Aufsichtsregime in § 4a NetzDG könnte die bedrohliche Wirkung der Bußgelder jedoch abgeschwächt worden sein.280 Neben der repressiven Handlungsform kann die Behörde nun auch präventiv vorgehen und die Anbieter sozialer Netzwerke zunächst gemäß § 4a Abs. 2 NetzDG verpflichten, die Zuwiderhandlungen gegen die Pflichten des NetzDG abzustellen.281 Allerdings sieht das NetzDG keine Verpflichtung zur Anordnung von 272
Bautze, KJ 2019, 203 (209). BT-Drs. 18/13013, S. 20. 274 Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 230. 275 Gersdorf/Paal/Hoven/Gersdorf, NetzDG § 1 Rn. 7; Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 230. 276 BT-Drs. 18/13013, S. 22. 277 Gersdorf/Paal/Hoven/Gersdorf, NetzDG § 1 Rn. 7; Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 231. 278 Müller-Franken, AfP 2018, 1 (9). 279 Müller-Franken, AfP 2018, 1 (9). 280 Kalbhenn/Hemmert-Halswick, MMR 2020, 518 (522). 281 BT-Drs. 19/18792, S. 17; Kalbhenn/Hemmert-Halswick, MMR 2020, 518 (522). 273
98
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
Maßnahmen vor der Einleitung eines Bußgeldverfahrens vor. Der Behörde steht die Wahl ihrer Mittel insofern offen, sodass die Anbieter sozialer Netzwerke weiterhin befürchten müssen, mit repressiven Maßnahmen in Form von Bußgeldern konfrontiert zu werden. Daher ist es für die sozialen Netzwerke naheliegend, im Zweifel eher zu löschen. Schließlich handelt es sich bei den sozialen Netzwerken um Unternehmen mit Gewinninteresse, die nicht bloß als neutrale Intermediäre agieren.282 Im Endeffekt liegt es im Interesse der Anbieter sozialer Netzwerke das Haftungsrisiko so gering wie möglich zu halten und die Vorgaben des NetzDG kostengünstig umzusetzen. Natürlich kann man bezweifeln, ob eine Summe von maximal 50 Millionen Euro, die im Falle des § 4 Abs. 1 S. 2 NetzDG i.V. m. § 30 Abs. 2 S. 3 OWiG verhängt werden kann, vor dem Hintergrund der beträchtlichen Umsatzzahlen der sozialen Netzwerke, die unter den Anwendungsbereich des NetzDG fallen, überhaupt geeignet wäre die Netzwerke unter Druck zu setzen.283 So hatte beispielsweise Facebook im Jahr 2020 einen Umsatz von knapp 85,97 Milliarden US-Dollar284 und Twitter einen Umsatz von immerhin 3,72 Milliarden US-Dollar.285 Schließlich, so die Argumentation von Bautze, sei auch zu berücksichtigen, dass die Bußgelder nicht automatisch die Höhe von 50 Millionen Euro haben würden, sondern diese Summe das absolute Maximum darstelle, das im Regelfall nicht verhängt werde.286 Aber selbst wenn man annähme, dass die sozialen Netzwerke diese Summen verschmerzen könnten und ein wirtschaftlicher Druck nicht bestünde, so würde im Falle eines Bußgelds jedenfalls ein Imageschaden bleiben, der sich auf Werbekunden auswirken dürfte.287 Nicht ausgeschlossen ist zudem, dass künftig weitere soziale Netzwerke mit Überschreiten der Grenze von zwei Millionen registrierten Nutzern in den Anwendungsbereich fallen. Bei solchen vergleichsweise kleinen Plattformen werden die Bußgelddrohungen sicherlich eine abschreckende Wirkung entfalten. Umgekehrt liefert das NetzDG keinerlei Anreiz für eine gründliche Prüfung der gemeldeten Inhalte288 und schafft insofern mit den Bußgeldvorschriften ein asymmetrisches Haftungsrisiko.289 Zwar führt Lang an, dass die durch das NetzDG adressierten Unternehmen ihren Sitz größtenteils in den USA hätten und da282
Eifert, in: Eifert/Gostomzyk, Netzwerkrecht, S. 9 (34). Bautze, KJ 2019, 203 (209). 284 SEC, Annual Report Facebook 2020, abrufbar unter: http://d18rn0p25nwr6d. cloudfront.net/CIK-0001326801/4dd7fa7f-1a51-4ed9-b9df-7f42cc3321eb.pdf, S. 51. 285 SEC, Annual Report Twitter 2020, https://d18rn0p25nwr6d.cloudfront.net/CIK0001418091/6074f5a7-baba-42c7-8f28-31accf8f3e8e.pdf, S. 38. 286 Bautze, KJ 2019, 203 (209 f.). 287 Liesching, MMR 2018, 26 (27). 288 Buchheim, JuS 2018, 548 (555). 289 Guggenberger et al., NetzDG: im Zweifel gegen die Meinungsfreiheit, S. 49 ff.; Lang, AöR 143 (2018), 220 (234); Nolte, ZUM 2017, 552 (558 f.). 283
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
99
mit von der US-amerikanischen Verfassungstradition der free speech geprägt seien.290 Im Lichte dieser Tradition würden sie im Zweifel eher für die Meinungsfreiheit entscheiden.291 Dagegen steht jedoch, wie bereits dargestellt, das wirtschaftliche Interesse der sozialen Netzwerke, das wahrscheinlich schwerer wiegt als die Verfassungstradition im Staat des Unternehmenssitzes. Zudem steht nach wie vor die Frage im Fokus, ob das NetzDG grundsätzlich eine nicht tolerierbare Anreizstruktur für Overblocking schafft. Schließlich ist auch die Möglichkeit in Betracht zu ziehen, dass in Zukunft weitere soziale Netzwerke in den Anwendungsbereich fallen werden, die ihren Sitz nicht in den USA haben und somit keineswegs von der US-amerikanischen Verfassungstradition geprägt sind. (3) Verfahrensvorgaben Neben den Fristsetzungen beinhaltet das NetzDG weitere Vorgaben für den Umgang mit Beschwerden. (a) Content-Management § 3 Abs. 4 NetzDG sieht vor, dass der Umgang mit Beschwerden monatlich durch die Leitung des sozialen Netzwerks überprüft werden muss und den mit den Beschwerden beauftragten Personen mindestens halbjährlich Schulungs- und Betreuungsangebote gemacht werden müssen. Vorgaben, inwieweit diese Angebote von den Mitarbeitern auch wahrgenommen werden müssen, gibt es hingegen nicht.292 Ebenso wenig enthält das NetzDG konkrete Anhaltspunkte zur Qualifizierung der Mitarbeiter, die mit den Beschwerden betraut sind. § 2 Abs. 2 Nr. 5 NetzDG spricht zwar von der personellen Ausstattung, der fachlichen und sprachlichen Kompetenz der für die Bearbeitung zuständigen Mitarbeiter sowie deren Schulung und Betreuung. Eine juristische Ausbildung mit entsprechendem Abschluss wird jedoch nicht explizit verlangt.293 Dies spiegelt sich auch in den Angaben der Unternehmen in den Transparenzberichten wider. Darin gibt beispielsweise Facebook an, dass Beschwerden nach dem NetzDG in einem mehrstufigen Prozess überprüft würden.294 Ein erstes Team, bestehend aus 91 Personen, überprüfe die NetzDG-Beschwerden zunächst anhand der Gemeinschaftsstandards der Plattform. Für diese Tätigkeit hätten die Moderatoren eine mindestens dreiwöchige Schulung hinsichtlich der Gemeinschaftsstandards durchlaufen, hätten sich mindestens drei bis sechs Monate bei 290 Lang, AöR 143 (2018), 220 (235); Ammori, Harv. L. Rev. 127 (2014), 2259 (2283); Klonick, Harv. L. Rev. 131 (2018), 1598 (1621). 291 Lang, AöR 2018, 220 (235 f.). 292 Spindler/Schmitz/Liesching, NetzDG § 3 Rn. 37. 293 Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 461. 294 Facebook NetzDG Transparenzbericht Juli 2021, S. 6 ff.
100
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
der Bearbeitung anderer Anfragen als solcher nach dem NetzDG bewährt und zudem eine Schulung mit Hintergrundinformationen zum NetzDG erhalten. Sofern der gemeldete Inhalt nicht schon gegen die Gemeinschaftsstandards verstoße, würde er von einem weiteren Team mit insgesamt 36 Mitarbeitern geprüft. Drei dieser Teammitglieder hätten einen juristischen Hochschulabschluss.295 Dieses Team würde in mehrwöchigen Schulungen hinsichtlich operativer Kompetenz und NetzDG geschult. Zunächst würden die Inhalte innerhalb von 24 Stunden auf offensichtliche Rechtswidrigkeit überprüft und im Zweifelsfall einer weitergehenden Überprüfung unterzogen.296 Erst wenn dann noch Zweifel bestünden, würden Juristen zu Rate gezogen. Derzeit wären zwei unternehmensinterne Juristen, neben ihren anderen Tätigkeiten, auch in die Bearbeitung der NetzDG-Beschwerden einbezogen.297 YouTube geht ähnlich vor und überprüft die eingehenden Beschwerden ebenfalls zunächst hinsichtlich der Gemeinschaftsstandards.298 Auch die NetzDGBeschwerden bei YouTube durchlaufen ein mehrstufiges Verfahren, bis sie, in besonders schwierigen Fällen, bei Juristen eingehen.299 Insgesamt seien 72 Personen für die Beschwerden nach dem NetzDG zuständig.300 24 % der Teammitglieder hätten einen Universitätsabschluss in unterschiedlichen Fachbereichen, etwa 40 % hätten eine abgeschlossene Berufsausbildung, ebenfalls in einer Vielzahl verschiedener Bereiche. Hinsichtlich der tätigkeitsspezifischen Ausbildung der Mitarbeiter gibt YouTube an, dass diese eine Einführung und Einarbeitung in die Gemeinschaftsstandards sowie rechtliche Schulungen zu den Straftatbeständen nach dem NetzDG erhielten.301 Zudem geht der Transparenzbericht ausführlich auf die Schwierigkeiten ein, die Rechtswidrigkeit der Inhalte zu überprüfen.302 Twitter geht gleichermaßen vor und überprüft Inhalte zunächst auf Verstöße gegen die eigenen Gemeinschaftsstandards. Das Unternehmen gibt an, dass im Anschluss an diese Überprüfung ebenfalls ein gestuftes Verfahren stattfinde, in dem die Beschwerden erst auf offensichtliche Rechtswidrigkeit überprüft werden. In Zweifelsfällen bestünde die Möglichkeit Juristen zu kontaktieren. Insgesamt seien mit den NetzDG-Beschwerden mehr als 150 Personen befasst, die zu Beginn ihrer Tätigkeit ein dreiwöchiges Einführungsprogramm durchliefen.303
295 296 297 298 299 300 301 302 303
Facebook NetzDG Transparenzbericht Juli 2021, S. 8. Facebook NetzDG Transparenzbericht Juli 2021, S. 7. Facebook NetzDG Transparenzbericht Juli 2021, S. 9. YouTube NetzDG Transparenzbericht Juli 2021, S. 25. YouTube NetzDG Transparenzbericht Juli 2021, S. 27. YouTube NetzDG Transparenzbericht Juli 2021, S. 30. YouTube NetzDG Transparenzbericht Juli 2021, S. 31. YouTube NetzDG Transparenzbericht Juli 2021, S. 26 f. Twitter NetzDG Transparenzbericht Juli 2021.
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
101
Insgesamt zeichnen die Transparenzberichte ein einheitliches Bild hinsichtlich der Kompetenz der Mitarbeiter. Über einen Großteil der Meldungen nach dem NetzDG entscheiden Mitarbeiter, die ein entsprechendes Training erhalten haben. Ausweislich der personellen Aufschlüsselung in den Transparenzberichten wird nur ein Bruchteil der Beschwerden von ausgebildeten Juristen bearbeitet. Unbestritten können auch Mitarbeiter ohne juristische Ausbildung über die entsprechende Expertise für die Aufgaben verfügen; das Erfordernis eines Abschlusses würde jedoch eine überprüfbare Vorgabe darstellen. Zumindest die Normierung von Mindestanforderungen an Ausbildung und Weiterbildung könnte einheitliche Qualitätsstandards schaffen. Da die Moderatoren regelmäßig eine Vielzahl von Beschwerden bearbeiten, ist von einer vertieften Prüfung nicht auszugehen. Nach einem Bericht von Netzpolitik.org, bezogen auf das allgemeine Beschwerdesystem, bearbeite ein Mitarbeiter bei Facebook etwa 250 bis 400 Meldungen am Tag.304 Aus Gründen der Effizienz werden die Beschwerden nach dem NetzDG wohl in einer ähnlichen Schlagzahl bearbeitet werden. (b) Anforderungen an die Beschwerde Das NetzDG sieht darüber hinaus keine Beschränkungen bezüglich der Person vor, welche die Beschwerde einreichen kann. Insoweit kann jeder Nutzer des sozialen Netzwerks, ohne dass er bei dem Netzwerk registriert sein muss, eine Beschwerde über einen Inhalt einreichen.305 Dies ist grundsätzlich ein begrüßenswerter Ansatz zur Stärkung der Nutzerrechte, birgt aber auch eine gewisse Missbrauchsgefahr. Nach derzeitigem Stand schildern die sozialen Netzwerke die missbräuchliche Nutzung der Meldefunktion als unproblematisch.306 Es erscheint jedoch nicht ausgeschlossen, dass es zu missbräuchlichen Nutzungen kommen könnte. Zum einen besteht die Möglichkeit, die sozialen Netzwerke einfach mit einer Vielzahl von Beschwerden zu überhäufen. Sofern keine technischen Hilfsmittel zur Vorsortierung eingesetzt werden, müsste zumindest jede Beschwerde gesichtet werden. Zum anderen könnte die Beschwerdefunktion auch genutzt werden, gezielt gegen bestimmte Meinungen vorzugehen, indem diese Inhalte immer wieder gemeldet werden.307 Denn letztlich besteht für denjenigen, der ei304 Reuter/Dachwitz/Fanta/Beckedahl, Exklusiver Einblick: So funktionieren Facebooks Moderationszentren, abrufbar unter: https://netzpolitik.org/2019/exklusiver-ein blick-so-funktionieren-facebooks-moderationszentren. 305 Eifert/von Landenberg-Roberg/Theß/Wienfort, Netzwerkdurchsetzungsgesetz in der Bewährung, S. 61. 306 Eifert/von Landenberg-Roberg/Theß/Wienfort, Netzwerkdurchsetzungsgesetz in der Bewährung, S. 61. 307 Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 447; Crawford/Gillespie, New Media & Society 18 (2016), 410 (410 ff.); Lang, AöR 143 (2018), 220 (235).
102
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
nen Inhalt meldet, keinerlei Kostenrisiko. Vor dem Hintergrund, dass jeder Nutzer eine niederschwellige Möglichkeit haben soll, rechtswidrige Inhalte zu melden,308 ist die Entscheidung den Nutzern keine Kosten für wiederholte Meldungen aufzuerlegen, sachgemäß. Für die Anbieter sozialer Netzwerke hingegen bedeutet diese Entscheidung unter Umständen einen erhöhten Aufwand im Beschwerdemanagement, der mit einer nachlässigeren Prüfpraxis einhergehen könnte. Auch werden kaum inhaltliche Anforderungen an die Beschwerde über einen Inhalt gestellt. Damit einhergeht, dass den Bearbeitern der Beschwerde diejenigen Informationen fehlen, die zum Beurteilen der Rechtswidrigkeit erforderlich sind.309 Erschwerend kommt die fehlende Pflicht zur Anhörung der Beteiligten hinzu, wodurch ebenfalls eine Sachverhaltsaufklärung gehemmt wird.310 Sicherlich ist der Gesetzgeber der Erwägung gefolgt, dass eine umfassende Klärung des Sachverhalts bei der Vielzahl der zu erwartenden Beschwerden nicht zumutbar ist. Dennoch resultiert daraus, dass eine Entscheidung nur unzureichend begründet getroffen werden kann. Denn gerade im äußerungsrechtlichen Bereich können die Umstände der Aussage eine entscheidende Rolle spielen.311 Inwieweit unter diesen Voraussetzungen profunde Aussagen über die Rechtmäßigkeit eines Inhalts getätigt werden sollen, ist zweifelhaft. Daher fragen die sozialen Netzwerke teilweise in den Beschwerdeformularen ab, gegen welche Straftatbestände der gemeldete Inhalt verstößt.312 Angesichts der Tatsache, dass mit dem NetzDG ein nutzerfreundliches313 Verfahren im Sinne des § 3 Abs. 1 S. 2 NetzDG etabliert werden soll, ist diese Praxis nicht sachgemäß und geht über die reine Sachverhaltsaufklärung deutlich hinaus.314 Daher sind einige Plattformen kürzlich dazu übergegangen, den konkreten Straftatbestand optional abzufragen und ansonsten eine grobe Einordnung in eine Kategorie zu fordern.315 (c) Möglichkeit zur Stellungnahme Die entscheidende Verfahrensvorgabe im Hinblick auf das Recht der Meinungsfreiheit aus Art. 11 GRCh ist jedoch die Möglichkeit zur Stellungnahme 308 Referentenentwurf zum Gesetz zur Änderung des Netzwerkdurchsetzungsgesetzes, S. 14. 309 Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 446. 310 Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 446. 311 Spiegel/Heymann, K&R 2020, 344 (346). 312 So zum Beispiel TikTok: https://www.tiktok.com/legal/report/NetzDG?lang=de. 313 BT-Drs. 18/12356, S. 22. 314 Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 448 f.; Regierungsentwurf eines Gesetzes zur Änderung des Netzwerkdurchsetzungsgesetzes, S. 48. 315 https://www.facebook.com/help/contact/493274671359044; https://help.twitter. com/de/forms/netzwerkdurchsetzungsgesetz.
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
103
der betroffenen Nutzer.316 Das NetzDG trifft in dieser Hinsicht keine ausreichenden Vorkehrungen.317 Zwar sieht § 3 Abs. 5 NetzDG vor, dass der Beschwerdeführer und der Nutzer, für den der beanstandete Inhalt gespeichert wurde, unverzüglich über jede Entscheidung informiert werden. Eine Stellungnahme der Nutzer ist jedoch nicht zwingend einzuholen. Sie ist nur im Fall des § 3 Abs. 2 Nr. 3 lit. a NetzDG vorgesehen, wenn die Entscheidung über die Rechtswidrigkeit des Inhalts von der Unwahrheit einer Tatsachenbehauptung oder erkennbar von anderen tatsächlichen Umständen abhängt. Das soziale Netzwerk kann in diesem Fall eine Stellungnahme des Nutzers einholen. Allerdings ist die Möglichkeit der Fristüberschreitung als Ausnahme von der Regel konzipiert und die Einholung einer Stellungnahme auch in diesem Fall rein fakultativ.318 Dem Gesetzeswortlaut lässt sich darüber hinaus nicht entnehmen, welcher der betroffenen Nutzer eine Gelegenheit zur Stellungnahme bekommen kann.319 Es ist lediglich von dem Nutzer die Rede. Zudem fehlt ein Anreiz, diesen zusätzlichen Aufwand zu tätigen, wenn der Inhalt auch einfach ohne Konsequenzen gelöscht werden kann. Dabei ist die Anhörung der Beteiligten gerade in äußerungsrechtlichen Fällen essenziell. Denn insbesondere in sozialen Netzwerken ist es üblich, dass Inhalte Teil eines Nachrichtenverlaufs (sogenannter Thread) sind. Einzeln betrachtet sind diese Nachrichten ihrem Kontext entbunden, wobei gerade dieser notwendig ist, um die Rechtswidrigkeit der Inhalte zu beurteilen.320 Durch eine Anhörung der Beteiligten könnte dieser Kontext in vielen Fällen wiederhergestellt und damit der Gefahr des Overblockings entgegengewirkt werden.321 In allen anderen Fällen außerhalb der Ausnahme des § 3 Abs. 2 Nr. 3 lit. a NetzDG ist eine Stellungnahme des Nutzers vor der Löschung ohnehin nicht vorgesehen.322 Mit der Ausgestaltung des Verfahrens schafft der Gesetzgeber Gesamtumstände, die dem Recht der Meinungsfreiheit von vornherein keine an316 GA Jääskinen, Schlussanträge v. 09.12.2010, Rs. C-324/09, ECLI:EU:C:2010:757 Rn. 159; Chmelík, Social Network Sites – Soziale Netzwerke, S. 221. 317 Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 215 f.; Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 450 ff.; Hain/Ferreau/Brings-Wiesen, K&R 2017, 433 (435); Holznagel, ZUM 2017, 615 (624). 318 Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 216. 319 Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 199. 320 Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 202; Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 451. 321 Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 200 f.; Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 451. 322 Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 451.
104
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
gemessene Bedeutung zukommen lassen. Auch damit wird eine Tendenz zur Löschung verstärkt. (4) Erkenntnisse aus der Gesetzgebung Frankreichs Das Thema Overblocking spielte auch bei Frankreichs Gesetzgebung zur Bekämpfung von Hassrede und Desinformation eine Rolle. Daher lohnt ein Blick in das Nachbarland, um daraus Erkenntnisse für das NetzDG zu ziehen. (a) Vergleich mit der französischen Gesetzgebung Nachdem Deutschland zum Vorreiter im Kampf gegen Hasskriminalität und Falschnachrichten im Internet wurde, zog Frankreich im Jahr 2018 nach und beschloss die „Loi relative à la lutte contre la manipulation de l’information“323 sowie 2020 die „Loi visant à lutter contre les contenus haineux sur internet“.324 Das Gesetz gegen die Manipulation von Informationen soll, ähnlich wie das NetzDG, der Durchsetzung bereits bestehender Gesetze dienen.325 Im Zusammenhang mit nationalen Wahlen wird ein Eilverfahren etabliert, das der Verhinderung der automatisierten Verbreitung von Falschinformationen dient; die Richter haben innerhalb von 48 Stunden eine Entscheidung zu treffen. Außerhalb von Wahlperioden müssen diejenigen Plattformanbieter, die von dem Gesetz erfasst werden, Maßnahmen hinsichtlich der Vermeidung von Falschinformationen treffen. Dem Gesetz begegneten Bedenken hinsichtlich Overblocking, verbunden mit Bedenken hinsichtlich der kurzen Fristen, welche die Prüfung des Wahrheitsgehalts einer Aussage kaum ermöglichen würden.326 Etwa anderthalb Jahre später wurde die „Loi visant à lutter contre les contenus haineux sur internet“ beschlossen, kurz „Loi Avia“, benannt nach der Abgeordne323 LOI n ë 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information. 324 LOI n ë 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet. 325 Heldt, Von der Schwierigkeit, „fake news“ zu regulieren, JuWissBlog v. 26.07. 2018. 326 Sénat, avis fait au nom de la commission des lois constitutionnelles, de législation, du suffrage universel, du Règlement et d’administration générale sur la proposition de loi, relative à la lutte contre la manipulation de l’information et rapport fait au nom de la commission des lois constitutionnelles, de législation, du suffrage universel, du Règlement et d’administration générale sur la proposition de loi organique, relative à la lutte contre la manipulation de l’information par Christophe-André Frassa, N ë 677 et N ë 668 du 17.07.2018, abrufbar unter: https://www.senat.fr/rap/a17-667/a17-6671.pdf, S. 33 ff.; Sénat, Rapport fait au nom de la commission de la culture, de l’éducation et de la communication sur la proposition de loi relative à la lutte contre la manipulation de l’information par Catherine Morin-Desailly, N ë 677 du 28.07.2018, abrufbar unter: https://www.senat.fr/rap/l17-677/l17-677.html, S. 37; Heldt, Von der Schwierigkeit, „fake news“ zu regulieren, JuWissBlog v. 26.07.2018.
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
105
ten Laetitia Avia, die den Gesetzesvorschlag auf den Weg gebracht hatte. Inspiriert wurde sie dabei vom deutschen NetzDG, wobei das französische Gesetz keine Kopie des deutschen Vorbilds werden sollte.327 Beschlossen wurde das im Vorfeld sehr umstrittene Gesetz am 13. Mai 2020,328 wobei es schon am 18. Juni 2020 aufgrund der teilweisen Unvereinbarkeit mit der französischen Verfassung vom französischen Verfassungsrat, dem Conseil Constitutionnel, wieder gekippt wurde.329 Wie vom französischen Gesetzgeber beabsichtigt, unterschied sich der französische Versuch vom deutschen NetzDG in einigen wesentlichen Punkten. Ebenso wie das NetzDG sah die Loi Avia ein Meldesystem für offensichtlich rechtswidrige Inhalte vor, die innerhalb bestimmter Fristen von den Anbietern der sozialen Netzwerke, die ihre Plattformen in Frankreich anbieten, zu löschen waren. Durch die Loi Avia wurden die Anbieter verpflichtet, terroristische sowie kinderpornografische Inhalte innerhalb von einer Stunde nach Erhalt der Meldung zu entfernen. Weiterhin sah sie die Entfernung hasserfüllter oder sexueller Inhalte innerhalb einer Frist von 24 Stunden vor. Während das NetzDG – jedenfalls nach Auffassung des Gesetzgebers – ein systemisches Versagen als Voraussetzung für die Verhängung eines Bußgelds fordert, drohte die Sanktion nach der Loi Avia bereits beim ersten Verstoß gegen die neuen Löschvorgaben. Die Loi Avia war, gleich dem NetzDG, im Vorfeld der Abstimmung einer deutlichen Kritik ausgesetzt. Insbesondere wurde eine Verletzung der Meinungsfreiheit befürchtet.330 Gestützt wurde diese Befürchtung auf die Unbestimmtheit des Gesetzes und das Fehlen einer richterlichen Entscheidung über die Rechtswidrigkeit von Inhalten.331 Damit würden den privaten Unternehmen Aufgaben übertragen, die in staatlicher Hand liegen sollten.332 Eine Kritik, die auch dem NetzDG entgegengebracht wird.333 327 Rapport fait au nom de la Commission des lois constitutionnelles, de la législation et de l’administration générale de la République sur la proposition de loi, après engagement de la procédure accélérée, visant à lutter la haine sur internet (n ë 1785) par Mme Laetitia Avia, abrufbar unter: https://www.assemblee-nationale.fr/dyn/15/rap ports/cion_lois/l15b2062_rapport-fond.pdf, S. 110, 112. 328 Assemblée Nationale, session ordiniaire de 2019–2020 du 13 mai 2020. 329 Conseil Constitutionnel, décision n ë 2020-801 DC du 18 juin 2020. 330 Ligue des droits de l’Homme, Lettre ouverte collective appelant à garantir nos libertés publiques dans la proposition de loi visant à lutter contre la haine sur internet. 331 Ligue des droits de l’Homme, Lettre ouverte collective appelant à garantir nos libertés publiques dans la proposition de loi visant à lutter contre la haine sur internet; Conseil national du numérique, Le CNNum exprime ses interrogations sur la proposition de loi visant aÌ lutter contre la haine sur Internet, S. 1. 332 Ligue des droits de l’Homme, Lettre ouverte collective appelant à garantir nos libertés publiques dans la proposition de loi visant à lutter contre la haine sur internet; Conseil national du numérique , Le CNNum exprime ses interrogations sur la proposition de loi visant aÌ lutter contre la haine sur Internet, S. 1. 333 Siehe zur Privatisierung der Rechtsdurchsetzung Kapitel 3 A. III.
106
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
(b) Die Rechtsprechung des Conseil Constitutionnel Der Conseil Constitutionnel hat die Loi Avia am 18. Juni 2020 für teilweise verfassungswidrig befunden.334 In seinem Urteil hat der französische Verfassungsrat zunächst an die hohe Bedeutung der Meinungsfreiheit für die Demokratie erinnert und daran, dass der Zugang zu sozialen Medien und deren Nutzung auch von der Meinungsfreiheit umfasst seien.335 Denn diese Medien spielten eine wichtige Rolle für die Teilhabe am demokratischen Leben und für die freie Äußerung von Ideen und Meinungen.336 Der Conseil Constitutionnel folgt damit der Auffassung, dass sich Grundrechte, vorliegend die Meinungsfreiheit, mit dem digitalen Fortschritt ebenso weiterentwickeln und neue Formen der Grundrechtsausübung umfassen können.337 Eine Einschränkung der Meinungsfreiheit müsse erforderlich und angemessen in Hinblick auf ein verfolgtes Ziel sein.338 Diese Voraussetzungen der Verhältnismäßigkeit sah der Conseil Constitutionnel im Hinblick auf die Loi Avia nicht erfüllt. Zwar würde das Gesetz auf die Wahrung der öffentlichen Ordnung zielen, in seinen Mitteln sei es jedoch weder erforderlich noch angemessen. Denn die kurze Frist von einer Stunde ließe dem Anbieter nicht die Möglichkeit vor der Löschung eine richterliche Entscheidung einzuholen. Vor dem Hintergrund der empfindlichen Sanktionen bei Nichtlöschung sei diese Vorschrift nicht konform mit der französischen Verfassung.339 Gleichermaßen argumentiert der Conseil Constitutionnel, dass auch die Frist von 24 Stunden, die für die Löschung hasserfüllter oder sexueller Inhalte vorgesehen war, nicht verfassungsgemäß sei. Die Vorschrift scheitere schon daran, dass es bereits ausreichende Rechtsvorschriften gebe, die eine Verbreitung von Hasskriminalität verhindern und bestrafen würden. Die Vorschrift der Loi Avia sei damit schon nicht erforderlich.340 Eine vertiefte Prüfung dieser Voraussetzung lässt der Conseil Constitutionnel jedoch vermissen.341 Weiterhin sei das Gesetz auch nicht angemessen, da die Frist zu kurz sei, um die Rechtswidrigkeit der Beiträge festzustellen und die drohende Sanktion die Anbieter dazu veranlassen würde, die Inhalte eher zu entfernen. Die Sanktion würde zudem schon bei jeder einzelnen fälschlichen Nichtlöschung drohen und nicht berücksichtigen, ob es sich um einen Einzelfall oder eine wiederholte Zuwiderhandlung handelt.342 334 335 336 337 338 339 340 341 342
Conseil Constitutionnel, décision n ë 2020-801 DC du 18 juin 2020. Conseil Constitutionnel, décision n ë 2020-801 DC du 18 juin 2020, Rn. 4 f. Conseil Constitutionnel, décision n ë 2020-801 DC du 18 juin 2020, Rn. 4. Droin, AJ Pénal 2020, 407. Conseil Constitutionnel, décision n ë 2020-801 DC du 18 juin 2020, Rn. 5. Conseil Constitutionnel, décision n ë 2020-801 DC du 18 juin 2020, Rn. 7 ff. Conseil Constitutionnel, décision n ë 2020-801 DC du 18 juin 2020, Rn. 11. Droin, AJ Pénal 2020, 407. Conseil Constitutionnel, décision n ë 2020-801 DC du 18 juin 2020, Rn. 13 ff.
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
107
(c) Bedeutung der französischen Gesetzgebung für das NetzDG Wie bereits dargestellt, unterscheiden sich das NetzDG und die Loi Avia in einigen wesentlichen Punkten, insbesondere in der Festlegung der Fristen für die Bearbeitung der Meldungen und den Bestimmungen über die Sanktionen bei Nichterfüllung der Vorgaben. Die Erwägungen des Conseil Constitutionnel lassen sich gleichwohl auf das NetzDG übertragen.343 Auch wenn das NetzDG längere Fristen für die Bearbeitung vorsieht, sind diese in vielen Fällen dennoch nicht ausreichend bemessen, um eine fundierte Entscheidung über die Rechtswidrigkeit eines gemeldeten Inhalts zu treffen. Denn während die Loi Avia die Prüfung der Inhalte hinsichtlich einer offensichtlichen Rechtswidrigkeit vorsah, muss der Betreiber nach Maßgabe des NetzDG auch eine Prüfung bezüglich einfacher Rechtswidrigkeit vornehmen. Der Conseil Constitutionnel wurde dafür kritisiert, dass er die Gefahr des Overblockings überbewertet habe. Denn dem Betreiber sollte es möglich sein, innerhalb von 24 Stunden die offensichtliche Rechtswidrigkeit festzustellen, da dafür nicht die Gesamtheit der Tatbestandsmerkmale gründlich geprüft werden müsse.344 Diese Kritik greift jedoch zu kurz. Denn ebenso wie das NetzDG verhielt sich die Loi Avia nicht zu der Frage, wann Offensichtlichkeit vorliegen soll.345 Dieses Merkmal ist für die Betreiber daher mit einer großen Rechtsunsicherheit verbunden, die auch nicht durch die Herbeiführung einer gerichtlichen Entscheidung vor der Löschung beseitigt werden kann, denn weder die Loi Avia noch das NetzDG sehen diese Möglichkeit vor.346 Hinsichtlich des Umgangs mit Falschnachrichten zeigt sich wiederum ein anderes Bild. Während nach dem NetzDG Falschnachrichten, soweit sie von den Straftatbeständen aus § 1 Abs. 3 NetzDG erfasst werden, genauso wie Hasskriminalität behandelt werden, hat der französische Gesetzgeber einen anderen Ansatz gewählt. Zwar sind die Entscheidungsfristen von 48 Stunden relativ kurz, um die Wahrheit oder Unwahrheit einer Aussage zu prüfen. Es handelt sich hierbei jedoch um eine richterliche Entscheidung in einem Eilverfahren und keineswegs um die Entscheidung von Privatunternehmen mit wirtschaftlichem Interesse. Die Richter stehen gerade nicht vor der Drohkulisse der Bußgelder und können somit eine unabhängige Entscheidung treffen, womit die Gefahr des Overblockings als deutlich geringer einzuschätzen ist.347 Auch wenn diese Gesetzgebung einen 343
A. A. Wienfort, Blocking Overblocking, Verfassungsblog v. 20.06.2020. Droin, AJ Pénal 2020, 407, die das Gesetz als solches jedoch für unverhältnismäßig hält. 345 Zur Unbestimmtheit des NetzDG siehe Kapitel 3 B. III. 346 Conseil Constitutionnel, décision n ë 2020-801 DC du 18 juin 2020, Rn. 7, 14; siehe dazu auch Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 205. 347 Heldt, Von der Schwierigkeit, „fake news“ zu regulieren, JuWissBlog v. 26.07. 2018. 344
108
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
deutlich geringeren zeitlichen und sachlichen Anwendungsbereich hat und der Sinn der Regelung sicherlich hinterfragt werden kann, ist sie dennoch ein Beispiel dafür, wie staatliche Rechtsdurchsetzung im Internet weniger grundrechtsbelastend umgesetzt werden kann. (5) Das Gegenvorstellungsverfahren als Korrektiv Das Gegenvorstellungsverfahren sowie die Möglichkeit der Schlichtung sollen einen Ausgleich der Interessen der verschiedenen Nutzergruppen schaffen und die Meinungsfreiheit der von der Löschung oder Sperrung betroffenen Nutzer wahren.348 Mit dem neu eingefügten § 3b NetzDG werden Anbieter sozialer Netzwerke verpflichtet, ein sogenanntes Gegenvorstellungsverfahren vorzuhalten, das die Überprüfung der Entscheidung der sozialen Netzwerke ermöglichen soll. Sowohl der Urheber des gemeldeten Inhalts als auch diejenige Person, die den Inhalt gemeldet hat, können eine Beschwerde einlegen. Ein entsprechender begründeter Antrag auf Überprüfung muss binnen zwei Wochen nach der Mitteilung über die ursprüngliche Entscheidung gestellt werden. Die Entscheidungen im Sinne des § 3 Abs. 2 S. 1 Nr. 3 lit. b NetzDG, die von einer Einrichtung der Regulierten Selbstregulierung getroffen werden, sind vom Gegenvorstellungsverfahren ausgeschlossen. Entsprechend ist in § 3 Abs. 6 Nr. 3 NetzDG die Möglichkeit der Überprüfung von Entscheidungen der Einrichtung der Regulierten Selbstregulierung auf Antrag des Beschwerdeführers und auf Antrag des Nutzers, für den der beanstandete Inhalt gespeichert wurde, vorgesehen. Die Einführung eines Gegenvorstellungsverfahrens ist grundsätzlich zu begrüßen. Dennoch kann dieses Instrument nicht ausreichend zur Wahrung der Meinungsfreiheit der betroffenen Nutzer beitragen.349 Es scheint sogar denkbar, dass sich das Verfahren nachteilig auf die Meinungsfreiheit auswirkt, da es Missbrauchspotenzial birgt.350 Google befürchtet, dass sich Nutzer verabreden könnten, massenhaft Inhalte zu melden und sodann gegen die Nichtlöschung ebenso massenhaft Anträge auf Gegenvorstellung zu stellen. Im Ergebnis erhielte der Betroffene dann eine Vielzahl von Beschwerden und Gegenvorstellungen, sodass er aufgrund der einschüchternden Wirkung dieser Flut von Nachrichten in Zukunft davon absehen könnte, sich öffentlich zu äußern.351 348 Regierungsentwurf eines Gesetzes zur Änderung des Netzwerkdurchsetzungsgesetzes, S. 16. 349 Niggemann, CR 2020, 326 (328); ichbinhier e.V. und HateAid gGmbH, Stellungnahme zum Referentenentwurf des Bundesministeriums der Justiz und für Verbraucherschutz, S. 10. 350 Google, Stellungnahme zum vorgeschlagenen Gesetz zur Änderung des Netzwerkdurchsetzungsgesetzes, S. 5. 351 Google, Stellungnahme zum vorgeschlagenen Gesetz zur Änderung des Netzwerkdurchsetzungsgesetzes, S. 5.
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
109
Eine Stellungnahme vor der Löschung des Inhalts ist auch weiterhin rein optional und nicht verpflichtend.352 § 3 Abs. 2 Nr. 3 lit. a NetzDG sieht zwar eine Stellungnahme vor, aber nur in den Fällen, in denen die Entscheidung über die Rechtswidrigkeit von einer Tatsachenbehauptung oder anderen tatsächlichen Umständen abhängt. Zudem handelt es sich um eine Kann-Vorschrift, die keinen Anreiz setzt, von dieser Möglichkeit Gebrauch zu machen. Das Gegenvorstellungsverfahren ermöglicht die Stellungnahme der Nutzer ohnehin erst im Anschluss an eine bereits erfolgte Löschung oder Sperrung. Dem Wortlaut der Vorschrift lässt sich entnehmen, dass das Gegenvorstellungsverfahren lediglich dazu dient, Entscheidungen zu überprüfen. Eine Pflicht zur Wiederherstellung rechtmäßiger Inhalte ist davon insoweit nicht umfasst.353 Die Verbesserung der Rechte für den von der Löschung betroffenen Nutzer ist somit marginal. Zumal das Gegenvorstellungsverfahren dem Problem, dass die Nutzer kaum Interesse an der Wiederherstellung der Inhalte haben, keine Rechnung trägt. Denn die Kommunikation im Internet ist von einer derartigen Schnelllebigkeit geprägt, dass die Beiträge nach kurzer Zeit beinahe wertlos werden.354 Das Gegenvorstellungsverfahren ist somit nicht geeignet, die Gefahr des Overblockings zu reduzieren, eine Stellungnahmemöglichkeit des betroffenen Nutzers vor Löschung würde dieser Gefahr eher entgegenwirken. (6) Schlussfolgerung Die einzelnen Vorschriften zu Fristen und Verfahren im NetzDG stellen für sich genommen schon einen Anreiz zum Overblocking dar. Zusammen sorgen sie für eine Systematik, die ein Overblocking deutlich begünstigt. Allerdings soll das NetzDG dazu dienen, Hasskriminalität einzudämmen, Recht durchzusetzen und die Grundrechte der Betroffenen zu stärken. Damit verbunden ist der Schutz der Persönlichkeitsrechte der Opfer von Hasskriminalität sowie der Schutz der Demokratie, denn die Vorschriften des NetzDG beziehen sich auch auf Straftatbestände wie die Volksverhetzung gemäß § 130 StGB. Hasskriminalität gefährdet das Zusammenleben in einer freien, offenen und demokratischen Gesellschaft und kann den Opfern massive psychische Probleme bereiten.355 Lang weist insofern zutreffend darauf hin, dass als Kehrseite zum Overblocking auch das Underblocking mitgedacht werden muss.356 Werden rechtswidrige Inhalte nicht gelöscht, und diesen Fall beschreibt der Begriff 352 Kritisch dazu auch Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 202; Niggemann, CR 2020, 326 (328). 353 Niggemann, CR 2020, 326 (328). 354 Guggenberger et al., NetzDG: im Zweifel gegen die Meinungsfreiheit, S. 56. 355 Lang, AöR 143 (2018), 220 (229). 356 Lang, AöR 143 (2018), 220 (232).
110
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
Underblocking, so verbleiben persönlichkeitsrechtsverletzende Inhalte auf der Plattform.357 Diese Aspekte dürfen in ihrer Bedeutung nicht vergessen werden.358 Hinzu kommt, dass ein von (wenn auch nicht strafbarem) Hass erfülltes Kommunikationsumfeld Nutzer davon abhalten könnte, ihre Meinung zu äußern und von ihrer Meinungsäußerungsfreiheit Gebrauch zu machen.359 Denn häufig handelt es sich bei den vom Overblocking betroffenen Inhalten ohnehin um grenzwertige Aussagen, die für eine schlechte Debattenkultur sorgen könnten. Doch auch solche Inhalte fallen in den Schutzbereich der Meinungsfreiheit; im Endeffekt sind es gerade solche Inhalte, die dem Schutz der Meinungsfreiheit besonders bedürfen.360 Es ist schließlich auch vom Recht der Meinungsfreiheit umfasst, im Bereich des Rechtmäßigen, seine Ausdrucksformen frei zu wählen, auch wenn es nicht den allgemeinen Umgangsformen entspricht. Besonders mit grenzwertigen Aussagen kann Aufmerksamkeit für die eigene Meinung erzeugt werden. Wenn das Strafrecht die Grenze für die Meinungsfreiheit darstellt, muss dies auch umgekehrt gelten: Solange ein Inhalt nicht rechtswidrig ist, ist er von der Meinungsfreiheit erfasst. Einen grenzwertigen Inhalt als weniger wertvoll einzustufen361 und einem Ziel zu opfern, das auch auf andere Weise erreicht werden kann,362 ist nicht mit der Meinungsfreiheit zu vereinbaren. Zumal aufgrund kurzer Löschfristen und fehlendem Kontext nicht nur grenzwertige Inhalte als Kollateralschäden gelöscht werden, sondern auch solche, die Satire und Ironie enthalten, betroffen sind. Teilweise wird darauf verwiesen, dass das Overblocking nicht durch das NetzDG initiiert würde, sondern die sozialen Netzwerke ohnehin schon nach ihren eigenen Regeln, den Gemeinschaftsstandards löschen würden.363 Insofern wäre es besser, diese ohnehin existierende Löschpraxis staatlichen Regeln zu unterwerfen.364 In der Tat üben die sozialen Netzwerke eine immense Macht über die Kommunikationsinhalte auf ihren Plattformen aus, indem sie auf der Basis eigener Gemeinschaftsstandards darüber entscheiden, welche Inhalte auf der Plattform verbreitet werden dürfen und welche nicht.365 Und tatsächlich birgt die Löschung durch soziale Netzwerke nach ihren eigenen Regeln gewisse Risiken, da diese Plattformen ein wichtiges Medium für den Meinungsaustausch darstel357
Lang, AöR 143 (2018), 220 (233). Lang, AöR 143 (2018), 220 (232). 359 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 441. 360 Buchheim, JuS 2018, 548 (555). 361 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 440. 362 Siehe zur Erforderlichkeit des NetzDG Kapitel 3 A. I. 5. d) ee). 363 Eifert, NJW 2017, 1450 (1451). 364 Eifert, NJW 2017, 1450 (1451). 365 Lang, AöR 143 (2018), 220 (226). 358
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
111
len.366 Jedoch fußen diese Löschungen auf dem Hausrecht der sozialen Netzwerke und sind nicht staatlich initiiert.367 Ein problematisches Löschsystem durch ein nicht weniger problematisches, staatlich initiiertes Löschsystem zu ersetzen, kann nicht zielführend sein. e) Ergebnis Im Ergebnis schafft das NetzDG durch die ihm innewohnende Asymmetrie der Haftungsrisiken einen faktischen Anreiz zum Overblocking. Die Verfahrensvorgaben, insbesondere die kurzen Fristen, in Verbindung mit dem drohenden Bußgeld, das nur im Falle einer Nichtlöschung von Inhalten droht, schaffen ein System, das die sozialen Netzwerke zur Löschung von Inhalten verleitet. Obendrein gibt es für die betroffenen Nutzer kein Recht, vor der Entfernung des Inhalts Stellung zu beziehen. Die Einholung einer Stellungnahme ist nur in bestimmten Fällen fakultativ vorgesehen. Hinzu kommt, dass ein echtes Wiederherstellungsverfahren fehlt. Das Gegenvorstellungsverfahren des NetzDG beseitigt die Gefahr des Overblockings, entgegen der Ankündigung des Gesetzgebers, keineswegs. Auch könnten die Nutzer aufgrund des drohenden Overblockings von vornherein davon absehen, von ihrer Meinungsfreiheit Gebrauch zu machen.368 Die Vorschriften des NetzDG sind weder erforderlich noch schaffen sie einen angemessenen Ausgleich zwischen den vom NetzDG verfolgten Zielen mit den damit verbundenen Grundrechten auf der einen Seite und dem Recht auf Meinungsfreiheit auf der anderen Seite. Vor dem Hintergrund der Bedeutung der Meinungsfreiheit für eine demokratische Gesellschaft und der Bedeutung der Teilhabe in sozialen Netzwerken für die Ausübung dieser Meinungsfreiheit ist die Gefahr des Overblockings nicht mit Art. 11 Abs. 1 GRCh vereinbar.369 So wünschenswert der Kampf um Eindämmung von Hasskriminalität und Falschnachrichten im Internet auch sein mag, er kann und darf nicht auf dem Rücken der Meinungsfreiheit ausgetragen werden. Der Gesetzgeber hat es jedoch versäumt, einen angemessenen Ausgleich zwischen den zu schützenden Grundrechten zu schaffen. 6. Beeinträchtigung der Virtuellen Versammlungsfreiheit durch den Anreiz zum Overblocking Das überobligatorische Entfernen von Inhalten durch soziale Netzwerke könnte neben dem Eingriff in die Meinungsfreiheit auch eine Beeinträchtigung der (vir366
Schwartmann/Mühlenbeck, ZRP 2020, 170. Lüdemann, in: Eifert/Gostomzyk, Netzwerkrecht, S. 153 (164). 368 Zu den sogenannten Chilling Effects siehe Kapitel 3 A. II. 369 Siehe zur Bedeutung der sozialen Medien für die Meinungsfreiheit Conseil Constitutionnel, décision n ë 2020-801 DC du 18 juin 2020, Rn. 4 f. 367
112
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
tuellen) Versammlungsfreiheit aus Art. 12 Abs. 1 GRCh bedeuten. Zwar wird der Versammlungsbegriff üblicherweise mit physischen Zusammenkünften von Menschen in Verbindung gebracht, aber auch virtuelle Zusammenkünfte könnten Versammlungscharakter haben, wie zum Beispiel Nachrichtenverläufe zu einem bestimmten Thema oder die Verwendung eines gemeinsamen Hashtags.370 Beispielsweise kann bei Twitter durch die vielfache Nutzung eines Hashtags die Aufmerksamkeit anderer Nutzer und der Öffentlichkeit erregt werden. In der virtuellen Welt können letztlich die gleichen Ziele verfolgt werden, die auch eine Versammlung an einem gemeinsamen realen Ort verfolgen kann.371 Auch wenn es bereits in den 1990er Jahren zu ersten virtuellen Blockaden und Angriffen auf Webseiten kam,372 war die virtuelle Versammlungsfreiheit kein Thema, das den Konvent bei der Erarbeitung der Grundrechtecharta beschäftigt hat. Zumal auch an soziale Netzwerke in der Form, wie wir sie heute täglich nutzen, noch nicht zu denken war. Dennoch gab es bereits im Jahr 2001 eine Form des digitalen Protests, der für großes mediales Aufsehen sorgte. Zeitgleich zu einer physischen Demonstration sollte eine virtuelle Sitzblockade während einer Aktionärsversammlung der Lufthansa AG stattfinden.373 Grund für die Proteste war, dass die Lufthansa abzuschiebende Personen beförderte.374 Mittels einer vom Initiator des Protests zur Verfügung gestellten Software erfolgten verstärkt Zugriffe auf die Lufthansa-Webseite, sodass diese verzögert lud und teilweise vollständig ausfiel. In diesem Fall hat das AG Frankfurt dargelegt, dass sich die Teilnehmer nicht auf Art. 8 GG, die Versammlungsfreiheit, berufen könnten.375 Das Gericht hat jedoch nicht ausgeschlossen, dass zukünftig neue Rahmenbedingungen für die Versammlungsfreiheit im Internet geschaffen werden.376 Die Folgeinstanz hingegen hat sich mit der Frage der Versammlungsfreiheit nicht beschäftigt, da eine Strafbarkeit der Demonstration im Ergebnis verneint wurde.377
370
Elsaß/Tichy/Laburga, CR 2017, 234 (239). Vogelsang, Kommunikationsformen des Internetzeitalters im Lichte der Kommunikationsfreiheiten des Grundgesetzes, S. 27; Möhlen, MMR 2013, 221 (227). 372 Für eine ausführliche Darstellung siehe Medosch, in: Schulzki-Haddouti, Bürgerrechte im Netz, S. 261 (262 ff.). 373 Klarmann, Kein digitaler Sturzflug des Kranich?, heise online v. 20.06.2001, abrufbar unter: https://www.heise.de/tp/features/Kein-digitaler-Sturzflug-des-Kranich3449383.html. 374 Zum Sachverhalt AG Frankfurt/M., Urt. v. 01.07.2005 – 991 Ds 6100 Js 226314/ 01, MMR 2005, 863. 375 AG Frankfurt/M., Urt. v. 01.07.2005 – 991 Ds 6100 Js 226314/01, MMR 2005, 863 (866). 376 AG Frankfurt/M., Urt. v. 01.07.2005 – 991 Ds 6100 Js 226314/01, MMR 2005, 863 (866). 377 OLG Frankfurt/M., Beschl. v. 22.05.2006 – 1 Ss 319/05, MMR 2006, 547. 371
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
113
Seitdem hat sich die virtuelle Welt rasant weiterentwickelt und an Bedeutung gewonnen. In der Corona-Pandemie hat die Nutzung virtueller Kommunikationsmittel, auch zur politischen Meinungsbildung, zugenommen. Immer häufiger wurden öffentliche und nichtöffentliche Konferenzen und Veranstaltungen auf digitale Plattformen verlegt und als Videokonferenz abgehalten. Die Nutzung sozialer Netzwerke ist infolge der Kontaktbeschränkungen ebenfalls deutlich angestiegen.378 Sei es um private Kontakte zu pflegen, aber insbesondere auch zum Austausch über die Corona-Politik.379 Während die physische Versammlungsfreiheit aufgrund des Gesundheitsschutzes der Bevölkerung zum Teil nicht unwesentlich eingeschränkt wurde,380 haben viele Menschen soziale Netzwerke genutzt, um politischen und persönlichen Anliegen Gehör zu verschaffen. Sofern das soziale Netzwerk aufgrund des NetzDG rechtmäßige Inhalte der Netzwerkmitglieder löscht oder sperrt, wird die Teilnahme an der Versammlung eingeschränkt. Die Nachricht wird der öffentlichen Wahrnehmung entzogen. Dies hat eine vergleichbare Wirkung, als ob jemandem die Teilnahme an einer physisch stattfindenden Versammlung untersagt wird. Die entscheidende Frage ist jedoch, ob solche virtuellen Zusammenkünfte auch vom Schutzbereich der Versammlungsfreiheit des Art. 12 Abs. 1 GRCh umfasst sind. a) Schutzbereich der Versammlungsfreiheit des Art. 12 Abs. 1 GRCh Der Schutzbereich des Art. 12 Abs. 1 GRCh umfasst freie und friedliche Versammlungen. Eine Versammlung in diesem Sinne ist eine Zusammenkunft mehrerer Menschen zur Verfolgung eines gemeinsamen Zwecks.381 Nach Art. 12 Abs. 1 GRCh können insbesondere politische, gewerkschaftliche und zivilgesellschaftliche Themen Anlass der Versammlung sein. Diese Aufzählung ist, was sich auch aus der Verwendung von insbesondere ergibt, nicht abschließend.382 Zu den geschützten Handlungen gehört sowohl die Vorbereitung und Veranstaltung als auch die Teilnahme an der Versammlung.383
378
In Bezug auf Kinder und Jugendliche Spitzer, Nervenheilkunde 2020, 698. Nuernbergk, in: Stegbauer/Clemens, Corona-Netzwerke – Gesellschaft im Zeichen des Virus, S. 259 (262). 380 Versammlungsverbote gab es beispielsweise in den Bundesländern Thüringen (vgl. § 3 Abs. 1 ThürSARS-CoV-2-EindmaßnVO – Stand: 26.03.2020), Saarland (vgl. § 2 Abs. 2 VO-CP – Stand: 30.03.2020) und Brandenburg (vgl. §§ 1 Abs. 1, BbgSARSCoV2-EindVO – Stand: 22.03.2020). 381 Jarass, EU-Grundrechte-Charta Art. 12 Rn. 10; Meyer/Hölscheidt/Bernsdorff, GRCh Art. 12 Rn. 13. 382 Jarass, EU-Grundrechte-Charta Art. 12 Rn. 10. 383 Calliess/Ruffert/Ruffert, EU-GRCharta Art. 12 Rn. 6; Jarass, EU-GrundrechteCharta Art. 12 Rn. 12. 379
114
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
b) Erfasst der Schutzbereich des Art. 12 Abs. 1 GRCh virtuelle Versammlungen? Es ist allerdings nicht eindeutig, ob die Versammlungsfreiheit eine physische Anwesenheit der Beteiligten erfordert oder ob auch virtuelle Versammlungen vom Schutzbereich erfasst werden. Gerade in Zeiten, in denen physische Zusammenkünfte aus Gründen der Pandemiebekämpfung massiv eingeschränkt worden sind, muss die Diskussion um ein virtuelles Versammlungsrecht neu aufgerollt werden. Im deutschen Verfassungsdiskurs beharrt die herrschende Meinung auf der Voraussetzung der körperlichen Anwesenheit an einem Ort, damit der Schutzbereich der Versammlungsfreiheit aus Art. 8 GG eröffnet ist.384 Dies ergebe sich zum einen bereits aus der Formulierung sich versammeln, zum anderen würde durch das Subjekt alle Deutschen deutlich, dass Menschen körperlich präsent sein müssten.385 Auch der Bezug auf das Versammeln ohne Waffen sowie auf Versammlungen unter freiem Himmel würden dafür sprechen.386 Die Erweiterung der Versammlungsfreiheit auf digitale Räume sei ohnehin nicht notwendig, da die anderen Kommunikationsfreiheiten, vorrangig die Meinungsfreiheit, einen ausreichenden Grundrechtsschutz garantieren würden.387 Unklar ist jedoch, ob virtuelle Versammlungen von Art. 12 Abs. 1 GRCh geschützt sind. Der EuGH hat sich bisher noch nicht mit dieser Frage auseinandergesetzt; gleichermaßen hat auch der EGMR über diese Frage noch nicht entschieden. Jedoch hat sich der Europarat bereits wiederholt für die Geltung der Grundrechte im virtuellen Raum ausgesprochen, ausdrücklich auch für das Versammlungsrecht im Internet.388 Der Wortlaut des Art. 12 Abs. 1 GRCh erfordert jedenfalls nicht explizit die physische Anwesenheit der Versammlungsteilnehmer. Auch im allgemeinen Sprachgebrauch wird eine Versammlung nicht denknotwendig mit einer örtlichen Anwesenheit assoziiert, sondern allgemein auch als sich treffen verstanden.389 Und Treffen finden nicht erst seit Corona verstärkt im virtuellen Raum statt: beispielsweise treffen sich Menschen bei Zoom, TeamSpeak oder Skype zu Video384 Dreier/Schulze-Fielitz, GG Art. 8 Rn. 32; Dürig/Herzog/Scholz/Depenheuer, GG Art. 8 Rn. 46; Jarass/Pieroth/Jarass, GG Art. 8 Rn. 4; von Mangoldt/Klein/Starck/ Gusy, GG Art. 8 Rn. 21; Münch/Kunig/Ernst, GG Art. 8 Rn. 49; Ullrich/von Coelln/ Heusch/von Coelln, 1. Teil Rn. 67; Kraft/Meister, K&R 2005, 458 (451); a. A. Peuker, Verfassungswandel durch Digitalisierung, S. 308; Giesen/Kersten, NZA 2018, 1 (6); Möhlen, MMR 2013, 221; Welzel, MMR 2021, 220. 385 Dürig/Herzog/Scholz/Depenheuer, GG Art. 8 Rn. 46. 386 Kraft/Meister, K&R 2005, 458 (461). 387 Kraft/Meister, K&R 2005, 458 (461); a. A. Peuker, Verfassungswandel durch Digitalisierung, S. 302 f. 388 CM(2005)56 final; CM/Rec(2012)4; CM/Rec(2014)6. 389 Welzel, MMR 2021, 220 (221).
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
115
konferenzen sowie zum schriftlichen Austausch in diversen Chatrooms.390 Im fachsprachlichen Kontext werden Versammlungen ebenfalls nicht mehr rein physisch verstanden.391 Im Vereinsrecht sowie im GmbHG sind neben physischen Versammlungen auch ausschließlich virtuell stattfindende Versammlungen vorgesehen.392 Daneben sind im Corona-Folgenabmilderungs-Gesetz (C19-MaßnG) jedenfalls bis Ende August 2022 auch virtuelle Hauptversammlungen zulässig.393 Dem juristischen Sprachgebrauch sind virtuelle Versammlungen daher nicht völlig fremd. Immanent ist dem Begriff der Versammlung jedoch, dass das Treffen der Teilnehmer an einem bestimmten Ort stattfindet, andernfalls würde der Versammlungscharakter verloren gehen.394 Doch der Begriff Ort ist nicht auf das Physische beschränkt.395 Das Internet und die sozialen Netzwerke werden zunehmend als virtueller Raum empfunden und bezeichnet.396 Durch die Ubiquität des Internets vermischt sich dieser virtuelle Raum mit der real greifbaren Welt. Eine künstliche Aufspaltung ähnlich gelagerter Sachverhalte unter unterschiedliche grundrechtliche Schutzregime erscheint vor dem Hintergrund dieser Vermischung nicht sachgerecht.397 Der Wortlaut des Art. 12 Abs. 1 GRCh spricht insoweit nicht gegen die Einbeziehung der virtuellen Versammlungsfreiheit in den Schutzbereich. Der Zweck des Grundrechts gibt weiteren Aufschluss darüber, ob die virtuelle Versammlungsfreiheit in den Schutzbereich des Art. 12 Abs. 1 GRCh fällt. Laut Kingreen und Poscher sei ein Schutzzweck der Versammlungsfreiheit diejenigen zu schützen, die sich durch ihre Anwesenheit bei der Versammlung dem Risiko körperlicher Verletzungen aussetzten.398 Ein großes Eingriffspotenzial in die Versammlungsfreiheit entstehe erst durch die körperliche Anwesenheit und Verletzlichkeit.399 Dennoch ist die Konturierung über mögliche Eingriffe zu kurz ge390 Vogelsang, Kommunikationsformen des Internetzeitalters im Lichte der Kommunikationsfreiheiten des Grundgesetzes, S. 116; Möhlen, MMR 2013, 221 (227); Welzel, MMR 2021, 220 (221). 391 Vogelsang, Kommunikationsformen des Internetzeitalters im Lichte der Kommunikationsfreiheiten des Grundgesetzes, S. 117 f. 392 Schindler/Schaffner, § 3 GmbH, Rn. 448 ff.; Schindler/Schaffner, § 4 Verein, Rn. 628 ff. 393 Gesetz zur Abmilderung der Folgen der COVID-19-Pandemie im Zivil-, Insolvenz- und Strafverfahrensrecht v. 27.03.2020, BGBl. I S. 569, geändert durch Gesetz v. 10.09.2021, BGBl. I S. 4147. 394 Vogelsang, Kommunikationsformen des Internetzeitalters im Lichte der Kommunikationsfreiheiten des Grundgesetzes, S. 133. 395 Vogelsang, Kommunikationsformen des Internetzeitalters im Lichte der Kommunikationsfreiheiten des Grundgesetzes, S. 133; Möhlen, MMR 2013, 221 (227). 396 Welzel, MMR 2021, 220 (221). 397 Möhlen, MMR 2013, 221 (228). 398 Kingreen/Poscher, § 17 Rn. 889. 399 Kingreen/Poscher, § 17 Rn. 889.
116
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
dacht und wird dem eigentlichen Zweck des Grundrechts, dem Schutz der Zusammenkunft, egal welcher Art, von Menschen zu einem gemeinsamen Anliegen nicht gerecht.400 Zumal eine Verwundbarkeit der Versammlungsteilnehmer – wenn auch nicht körperlicher Art – auch im virtuellen Raum nicht ausgeschlossen werden kann.401 Ein mögliches Gefährdungspotenzial liegt in der Eskalation von Versammlungen in Form von Shitstorms, die ein Pendant zu gewalttätigen Auseinandersetzungen bei klassischen Versammlungen darstellen dürften.402 Die Versammlungsfreiheit ist eine der essenziellen Freiheiten in einer demokratischen Gesellschaft.403 Zugleich ist die Versammlungsfreiheit ein Individualgrundrecht, welches das Recht auf den Austausch von Meinungen und Gedanken mit anderen schützt.404 Dieser Zweck ist auch auf virtuelle Kommunikationsräume übertragbar.405 Die virtuelle Versammlungsfreiheit schafft die Ausweitung dieses demokratischen Instruments auf den virtuellen Raum und ermöglicht auch Personengruppen die Teilnahme, die klassischen Versammlungen aus unterschiedlichen Gründen fernbleiben würden.406 Daher ist es auch zu kurz gegriffen, den Schutzzweck der Versammlungsfreiheit darauf zu reduzieren, dass die körperliche Anwesenheit der Versammlungsteilnehmer eine gewisse Außenwirkung erzeuge, die eine „Zusammenkunft von Daten“ nicht haben könne.407 Schließlich erscheint es nicht ausgeschlossen, dass auch virtuelle Versammlungen aufgrund ihrer hohen Teilnehmerzahl, ihrer Wahrnehmbarkeit im virtuellen Raum und einer weitergehenden medialen Berichterstattung eine ähnliche Außenwirkung erzielen können.408 Im Ergebnis erscheint die grundsätzliche Erweiterung des Schutzbereichs der Versammlungsfreiheit auf digitale Versammlungen daher sachgerecht.409 Zu klären bleibt allerdings die Frage, ob alle Formen der digitalen Zusammenkünfte in den Schutzbereich der Versammlungsfreiheit aus Art. 12 Abs. 1 GRCh 400
Akbarian, KJ 2020, 225 (233). Kersten, JuS 2017, 193 (198). 402 Kersten, JuS 2017, 193 (198). 403 Ullrich/von Coelln/Heusch/von Coelln, 1. Teil Rn. 9. 404 Vogelsang, Kommunikationsformen des Internetzeitalters im Lichte der Kommunikationsfreiheiten des Grundgesetzes, S. 89 f. 405 Vogelsang, Kommunikationsformen des Internetzeitalters im Lichte der Kommunikationsfreiheiten des Grundgesetzes, S. 133. 406 Akbarian, KJ 2020, 225 (234). 407 So aber Dürig/Herzog/Scholz/Depenheuer, GG Art. 8 Rn. 6; Handel, Die strafund bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 446. 408 Welzel, MMR 2021, 220 (224). 409 So auch in Bezug auf Art. 8 GG Peuker, Verfassungswandel durch Digitalisierung, S. 308; Vogelsang, Kommunikationsformen des Internetzeitalters im Lichte der Kommunikationsfreiheiten des Grundgesetzes, S. 135; Möhlen, MMR 2013, 221 (229); Welzel, MMR 2021, 220 (225). 401
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
117
fallen. Wenn im Rahmen der Vorschriften des NetzDG Inhalte gelöscht werden, sind diese Inhalte entweder vom Nutzer zum ersten Mal auf der Plattform veröffentlicht worden, oder es wird ein bestehender Inhalt weiterverbreitet. Bei diesen Inhalten handelt es sich in der Regel um Teile eines Nachrichtenverlaufs oder um alleinstehende Inhalte wie Videos, Bilder oder Texte, die häufig mit Schlagwörtern gekennzeichnet sind. Eine Versammlung käme in diesem Kontext ohnehin nur infrage, wenn sich viele Nutzer auf einer Plattform in einem engen zeitlichen Zusammenhang zu einem Thema äußern. Doch auch ein enger zeitlicher Zusammenhang ist nicht ausreichend, um von einer Versammlung sprechen zu können.410 Denn im Gegensatz zu den virtuellen Sit-ins oder bei Zusammenkünften in Chatrooms oder Videokonferenzen ist zum Schreiben der Nachrichten zu einem bestimmten Thema in der Regel keine gleichzeitige Anwesenheit der Nutzer erforderlich – und in der Regel auch nicht gegeben.411 Die gleichzeitige Anwesenheit der Teilnehmer ist jedoch Voraussetzung, um von einer Versammlung sprechen zu können.412 Die reine Anwesenheit von Nachrichten, unabhängig von ihrem Verfasser, kann nicht ausreichen, um eine Versammlung anzunehmen. In diesen Fällen ist einzig die Meinungsfreiheit einschlägiges Grundrecht. Die virtuelle Versammlungsfreiheit wird nicht durch die vom NetzDG gesetzte Gefahr des Overblockings verletzt.413 Denn mangels zeitgleicher Anwesenheit der Nutzer ist bei der vom NetzDG adressierten Nutzung sozialer Netzwerke in Form der Verbreitung von Inhalten keine Versammlung gegeben.
II. Chilling Effects Zum einen bedeuten die Regelungen des NetzDG, wie bereits dargelegt, einen Eingriff in die Meinungsfreiheit hinsichtlich bereits veröffentlichter Äußerungen, die durch die sozialen Netzwerke gelöscht werden. Zum anderen hat das NetzDG aber auch einen Einfluss auf Gedanken, die noch nicht geäußert wurden. Die Nutzer könnten von vornherein davon absehen, gewisse Inhalte zu veröffentlichen. Ob das NetzDG eine solche Einschüchterungswirkung entfaltet und ob diese gegen Grundrechte verstößt, soll im Folgenden einer kritischen Betrachtung unterzogen werden. 410 Vogelsang, Kommunikationsformen des Internetzeitalters im Lichte der Kommunikationsfreiheiten des Grundgesetzes, S. 133 f. 411 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 446; Vogelsang, Kommunikationsformen des Internetzeitalters im Lichte der Kommunikationsfreiheiten des Grundgesetzes, S. 133 f.; Welzel, MMR 2021, 220 (224). 412 Vogelsang, Kommunikationsformen des Internetzeitalters im Lichte der Kommunikationsfreiheiten des Grundgesetzes, S. 133; Welzel, MMR 2021, 220 (224). 413 A. A. ohne weitere Begründung Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 129.
118
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
1. Begriff der Chilling Effects und dogmatische Einordnung Wenn die Nutzer davon Abstand nehmen, Inhalte zu veröffentlichen, weil sie Konsequenzen befürchten, handelt es sich um den sogenannten Chilling Effect, der im Deutschen am treffendsten mit Einschüchterungseffekt übersetzt werden kann. Umgangssprachlich wird diese Form der Selbstzensur auch als „Schere im Kopf“ bezeichnet.414 Der Begriff Chilling Effect selbst stammt aus dem angloamerikanischen Rechtsraum und bezeichnet die Auswirkungen staatlichen Handelns, die Bürger davon abhalten, die von den Grundrechten gewährleisteten Freiheiten zu nutzen.415 Die Chilling Effects auslösende staatliche Maßnahme richtet sich an einen einzelnen Grundrechtsträger oder eine Gruppe, ihre Auswirkungen betreffen aber einen nicht definierbaren Personenkreis, mithin die Allgemeinheit.416 Damit handelt es sich bei den Chilling Effects um mittelbare Effekte in dem Sinne, dass der Bürger sich abschrecken lässt und daher freiwillig auf die fragliche Handlung verzichtet.417 Ein direktes staatliches Handeln in Form von Zwang oder Sanktionen findet hingegen nicht statt.418 Das Auftreten von Chilling Effects darf freilich nicht zu dem Reflex führen, ohne Weiteres eine Grundrechtsverletzung anzunehmen.419 Vielmehr kommt es darauf an, im Rahmen der Verhältnismäßigkeitsprüfung zu kontrollieren, ob ein Eingriff in das Grundrecht vorliegt und ob dieser zu rechtfertigen ist oder nicht.420 Hinzu kommt die Unterscheidung, ob die Einschüchterungseffekte durch staatliches Handeln hervorgerufen werden oder durch das Handeln Privater. Für Grundrechtsverletzungen durch Private hat der Staat nur unter bestimmten Voraussetzungen im Rahmen seiner Schutzpflichten einzustehen.421 Eine besondere Schwierigkeit für die rechtliche Beurteilung von Chilling Effects ergibt sich durch die bereits angesprochene Tatsache, dass der Bürger selbst die Entscheidung trifft, von der Ausübung seiner Freiheit abzusehen.422 Der Staat kann den Bürger schlussendlich nicht zwingen, von seiner Freiheit Gebrauch zu machen, denn die Grundrechte umfassen auch die negative Freiheit, von dem Recht nicht Gebrauch zu machen.423 Insofern kann der Staat auch für die eigent414
Feldmann, K&R 2017, 292 (295). Assion, in: Telemedicus e.V., Überwachung und Recht, S. 31 (32); Rosen, Stan. L. Rev. Online 2012, 88 (91); Youn, Vanderbilt Law Review 66 (2013), 1471. 416 Staben, Der Abschreckungseffekt auf die Grundrechtsausübung, S. 5. 417 Assion, in: Telemedicus e.V., Überwachung und Recht, S. 31 (34). 418 Assion, in: Telemedicus e.V., Überwachung und Recht, S. 31 (34). 419 Assion, in: Telemedicus e.V., Überwachung und Recht, S. 31 (50). 420 Assion, in: Telemedicus e.V., Überwachung und Recht, S. 31 (50). 421 Staben, Der Abschreckungseffekt auf die Grundrechtsausübung, S. 6. 422 Oermann/Staben, Der Staat 2013, 630 (641). 423 Pechstein/Nowak/Häde/Thiele, GRC Art. 11 Rn. 12; Frenz, Handbuch Europarecht: Band 4 Rn. 1808. 415
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
119
liche Selbstbeschränkung der Bürger nicht verantwortlich gemacht werden.424 Wirkt eine staatliche Maßnahme aber derart auf die Rahmensituation des Bürgers ein, dass eine Kausalität zwischen der Maßnahme und der Selbstbeschränkung besteht, so kann dies dem Staat zurechenbar sein.425 2. Ursachen für Chilling Effects im NetzDG Die Regelungen des NetzDG führen unter verschiedenen Gesichtspunkten zum Phänomen der Chilling Effects. Wie bereits dargelegt, ist dem NetzDG die Gefahr des Overblocking immanent. Aus dem Overblocking resultiert wiederum die Gefahr, dass Einschüchterungseffekte bei den Netzwerkmitgliedern auftreten.426 Nimmt das soziale Netzwerk eine Vielzahl (unberechtigter) Löschungen vor, so könnten die Nutzer Bedenken haben, dass auch sie von einer solchen Löschung betroffen sein könnten und sehen von vornherein von der eigentlich geplanten rechtmäßigen Meinungsäußerung ab.427 Auch wenn die Nutzer nicht vollständig auf die Meinungsäußerung verzichten, kann es dennoch sein, dass sie ihre Äußerung zumindest abschwächen, da insbesondere zu befürchten ist, dass Äußerungen im Graubereich, also solche, die sich nach eingehender Prüfung als noch rechtmäßig erweisen würden, verstärkt gelöscht werden.428 Dadurch sind auch Auswirkungen auf den allgemeinen Diskurs zu befürchten, indem dieser abgeschwächt wird oder nicht mehr stattfindet.429 Durch die Entfernung, auch rechtmäßiger Inhalte, kann es zudem zu einer Stigmatisierung des Nutzers kommen.430 Auch wenn es sich bei dem gelöschten Kommentar um einen rechtmäßigen Inhalt handelt, bleibt dennoch der mit der Löschung verbundene Vorwurf einer strafbaren Äußerung im Raum stehen.431 Zwar könnte der Nutzer diesen Beitrag erneut veröffentlichen; die Stigmatisierungswirkung des gelöschten Inhalts würde dadurch jedoch nicht behoben.432 Mit der Sperrung eines Accounts kann zudem die soziale Isolation aufgrund der fehlenden Kommunikationsmöglichkeit mit den Kontakten über das soziale Netz-
424
Assion, in: Telemedicus e.V., Überwachung und Recht, S. 31 (56). Assion, in: Telemedicus e.V., Überwachung und Recht, S. 31 (56); Oermann/Staben, Der Staat 2013, 630 (642 f.). 426 Askani, Private Rechtsdurchsetzung bei Urheberrechtsverletzungen im Internet, S. 205. 427 Elsaß/Tichy/Laburga, CR 2017, 234 (235); Feldmann, K&R 2017, 292 (295); Guggenberger, ZRP 2017, 98 (100). 428 Koreng, GRUR-Prax 2017, 203 (204). 429 Guggenberger et al., NetzDG: im Zweifel gegen die Meinungsfreiheit, S. 53. 430 Guggenberger et al., NetzDG: im Zweifel gegen die Meinungsfreiheit, S. 54; Müller-Franken, AfP 2018, 1 (10). 431 Müller-Franken, AfP 2018, 1 (10). 432 Guggenberger et al., NetzDG: im Zweifel gegen die Meinungsfreiheit, S. 54. 425
120
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
werk einhergehen.433 Die fehlende Beteiligung des Nutzers im Beschwerdeverfahren verstärkt den Chilling Effect zusätzlich, da der Nutzer keine Möglichkeit hat, Stellung zu seinem Beitrag zu beziehen.434 Zudem kann auch das Recht auf Auskunft aus § 21 Abs. 2 TTDSG einen Einschüchterungseffekt auf die Nutzer sozialer Netzwerke haben. Sie verlieren ihre Unbefangenheit einer freien Kommunikation, wenn sie befürchten müssen, dass ihre personenbezogenen Daten weitergegeben werden.435 Denn damit geht die Gefahr einher, dass der Auskunftsberechtigte die erlangten Informationen öffentlich im Internet teilt. Dabei handelt es sich um das sogenannte Doxing, bei dem es um das Veröffentlichen persönlicher Daten im Netz geht, wobei die Betroffenen online vorgeführt werden, was neben der psychischen Beeinträchtigung auch in einer physischen Gefährdung resultieren kann.436 Abgeleitet wird der Begriff vom englischen docs, der Abkürzung für Dokumente.437 Dieses öffentliche anden-Pranger-stellen kann schwerwiegende Konsequenzen für das Sozial- und Berufsleben des Betroffenen haben.438 Eine solche Weiterverbreitung der Informationen über den Betroffenen bedeutet zwar einen schwerwiegenden Verstoß gegen das Datenschutzrecht und kann auch strafrechtliche Konsequenzen nach sich ziehen.439 Dennoch sind solche Fälle keineswegs ausgeschlossen. Gleichwohl wird diese Gefahr durch den in § 21 Abs. 3 und 4 TTDSG vorgesehenen Richtervorbehalt reduziert, der verhindert, dass die personenbezogenen Daten an Unberechtigte herausgegeben werden. Gleichzeitig reduziert sich damit auch der Einschüchterungseffekt.440 Es ist jedoch nicht ausgeschlossen, dass Nutzer sich bei dem Gedanken unwohl fühlen, dass ihre Daten aufgrund des Auskunftsrechts aus § 21 Abs. 2 TTDSG herausgegeben werden. Immerhin erfassen juristische Laien dieses Verfahren sicherlich nicht in Gänze und könnten sich daher eingeschüchtert fühlen. Die im Februar 2022 in Kraft getretene Meldepflicht aus § 3a NetzDG lässt noch weitergehende Chilling Effects befürchten. Denn die Nutzer müssen nicht nur mit einer Sperrung oder Löschung und den damit verbundenen Nachteilen rechnen. Sie müssen davon ausgehen, dass der Inhalt sowie ihr Nutzername und ihre IP-Adresse unter Umständen an das Bundeskriminalamt gemeldet werden.
433
Müller-Franken, AfP 2018, 1 (10). Müller-Franken, AfP 2018, 1 (10). 435 Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 490; Müller-Franken, AfP 2018, 1 (11); Nolte, ZUM 2017, 552 (559). 436 Loh, in: Kaelin/Telser/Hoppe, Bubbles & Bodies, S. 217 (235 f.). 437 Fish/Follis, International Journal of Communication 10 (2016), 3281 (3291). 438 Müller-Franken, AfP 2018, 1 (11). 439 Loh, in: Kaelin/Telser/Hoppe, Bubbles & Bodies, S. 217 (236). 440 Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 489. 434
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
121
Dieses überprüft sodann, ob ein Anfangsverdacht gegeben ist.441 Sofern ein solcher vorliegt, wird die Sache an die zuständige Strafverfolgungsbehörde für die weiteren Ermittlungen abgegeben.442 Folglich wird nicht ohne Weiteres ein Strafverfahren eingeleitet. Dennoch könnten die Nutzer allein schon durch die Tatsache eingeschüchtert werden, dass personenbezogene Daten an staatliche Behörden gelangen und dort für einen gewissen Zeitraum gespeichert werden. 3. Beeinträchtigung des Art. 11 Abs. 1 GRCh durch Chilling Effects Die Vorschriften des NetzDG sind grundsätzlich geeignet, Einschüchterungseffekte bei den Nutzern zu erzeugen. Im Folgenden wird untersucht, ob diese Einschüchterungseffekte einen Eingriff in Art. 11 Art. 1 GRCh bedeuten und ob ein solcher zu rechtfertigen wäre. a) Eingriff in Art. 11 Art. 1 GRCh durch Chilling Effects Anerkannt ist, dass der Schutzbereich der Grundrechte nicht nur die Handlung als solche, sondern auch die Entschließungsfreiheit, die der Handlung vorgelagert ist, erfasst.443 Grundsätzlich liegt ein Eingriff in Art. 11 Abs. 1 GRCh vor, wenn die Einschränkung von in den Schutzbereich fallenden Handlungen bezweckt wird.444 Es stellt sich aber die Frage, ob die reine Abschreckung einen Eingriff in die Meinungsfreiheit aus Art. 11 Abs. 1 GRCh bedeuten kann. Ein gewisser Abschreckungseffekt bei staatlichem Handeln kann schließlich durchaus intendiert sein, um zu erreichen, dass der Bürger von unerwünschten Handlungen absieht.445 Allerdings ist die Ausgangslage in diesen Fällen in der Regel eine andere: Der Staat zielt auf diesen Effekt ab, er ist nicht bloße Nebenfolge. Zudem soll der Bürger von rechtswidrigem Handeln abgehalten werden446 und nicht wie in den Fällen, in denen man von Chilling Effects spricht, von der Ausübung seiner grundrechtlich verankerten Freiheiten. Für die Einschüchterung ist regelmäßig nicht eine einzelne zweckgerichtete staatliche Maßnahme ursächlich, sondern vielmehr ein Zusammenspiel unterschiedlicher Faktoren und die Gesamtumstände.447 441 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 433. 442 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 358. 443 Calliess/Ruffert/Calliess, EU-GRCharta Art. 11 Rn. 7; Meyer/Hölscheidt/Bernsdorff, GRCh Art. 11 Rn. 12; Oermann/Staben, Der Staat 2013, 630 (641). 444 Jarass, EU-Grundrechte-Charta Art. 11 Rn. 20. 445 Staben, Der Abschreckungseffekt auf die Grundrechtsausübung, S. 1. 446 Staben, Der Abschreckungseffekt auf die Grundrechtsausübung, S. 72. 447 Assion, in: Telemedicus e.V., Überwachung und Recht, S. 31 (37).
122
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
Neben zweckgerichteten Einschränkungen fallen nach dem weiten Verständnis des EuGH auch mittelbare, nicht finale Einschränkungen sowie Realakte unter den Eingriffsbegriff.448 Ein Eingriff liegt vor, wenn staatliche Maßnahmen das grundrechtlich geschützte Verhalten verhindern oder erschweren und der Eingriff dem Grundrechtsverpflichteten zurechenbar ist.449 Das Phänomen der Chilling Effects spielt auch in der Rechtsprechung eine Rolle. Es taucht dabei nicht nur im Zusammenhang mit der Meinungsfreiheit auf, sondern dient auch im Bereich diverser anderer Grundrechte als Argumentationsfigur.450 Der EGMR hat sich bereits mit einschüchternden Wirkungen auf die Grundrechtsausübung beschäftigt. Im Fall Wille gegen Liechtenstein451 äußerte sich ein hochrangiger Richter zu einer streitigen verfassungsrechtlichen Frage, woraufhin der Fürst von Liechtenstein mit der Ankündigung reagierte, besagten Richter nicht mehr für ein öffentliches Amt zu ernennen. Der EGMR stellte fest, dass dieses Vorgehen gegen Art. 10 EMRK verstoße und erklärte, dass diese Ankündigung einen chilling effect auf die Meinungsfreiheit des besagten Richters habe, da es ihn wahrscheinlich davon abhalte, eine derartige Aussage in der Zukunft erneut zu treffen.452 Weiterhin betonte der EGMR in seiner Entscheidung zu Bayev u. a. gegen Russische Föderation, der abschreckende Effekt eines Gesetzes könne einen Eingriff in Art. 10 EMRK bedeuten: Der Gerichtshof habe bereits früher entschieden, dass die abschreckende Wirkung eines Gesetzes oder einer Maßnahme für sich genommen einen Eingriff in die Meinungsfreiheit darstellen könne.453 Vorliegend hatten die Beschwerdeführer öffentlich für Rechte von Homosexuellen demonstriert und wurden aufgrund dessen der „öffentlichen Aktivitäten zur Bewerbung von Homosexualität unter Minderjährigen“ für schuldig befunden.454 Auf den reinen Abschreckungseffekt durch das Gesetz kam es für die Entscheidung indes nicht an, da das Gesetz vollzogen wurde.455
448
Riedel, Die Grundrechtsprüfung durch den EuGH, S. 212 f. Pechstein/Nowak/Häde/Thiele, GRC Art. 11 Rn. 18. 450 Siehe zur Auswertung der Rechtsprechung Staben, Der Abschreckungseffekt auf die Grundrechtsausübung, S. 14 ff.; sowie Assion, in: Telemedicus e.V., Überwachung und Recht, S. 31 (42 f.). 451 EGMR, Urt. v. 28.10.1999 – 28396/95, ECLI:CE:ECHR:1999:1028JUD002839 695 – Wille gegen Liechtenstein. 452 EGMR, Urt. v. 28.10.1999 – 28396/95, ECLI:CE:ECHR:1999:1028JUD002839 695 Rn. 50 – Wille gegen Liechtenstein. 453 EGMR, Urt. v. 20.06.2017 – 67667/09, 44092/12, 56717/12, ECLI:CE:ECHR: 2017:0620JUD006766709 Rn. 62 – Bayev u. a. gegen Russische Föderation. 454 EGMR, Urt. v. 20.06.2017 – 67667/09, 44092/12, 56717/12, ECLI:CE:ECHR: 2017:0620JUD006766709 – Bayev u. a. gegen Russische Föderation. 455 EGMR, Urt. v. 20.06.2017 – 67667/09, 44092/12, 56717/12, ECLI:CE:ECHR: 2017:0620JUD006766709 Rn. 62 – Bayev u. a. gegen Russische Föderation. 449
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
123
Die Chilling Effects führen im Fall des NetzDG zu einem Unterlassen der Meinungsäußerung, womit das grundrechtlich geschützte Verhalten zumindest erschwert wird. Gegen das Vorliegen der Eingriffsqualität der Abschreckungseffekte durch das NetzDG kann man jedoch einwenden, dass die Meinungsfreiheit aus Art. 11 Abs. 1 GRCh durch das Vorliegen von Chilling Effects nur dann eingeschränkt wäre, wenn untersagt würde, was ansonsten zulässig ist.456 Mit anderen Worten: Würden durch das NetzDG nur strafbare Inhalte gelöscht, die ohnehin nicht in den Schutzbereich der Meinungsfreiheit fallen, würde schon kein Eingriff vorliegen. Nun betrifft der Hauptvorwurf gegen das Compliance-System des NetzDG aber gerade nicht die Löschung der strafbaren Inhalte, sondern vielmehr die Löschung rechtmäßiger, wenn auch grenzwertiger Inhalte. Für diese Löschungen schafft das NetzDG ein eindeutiges Anreizsystem.457 Und dieses bewirkt wiederum, zusammen mit den Auskunftsansprüchen und der Pflicht zur Meldung von Inhalten an das BKA, die Chilling Effects. Allerdings gibt es auf den ersten Blick keine eindeutige Kausalverbindung zwischen der staatlichen Maßnahme und der Freiheitsbeschränkung der Bürger, da es sich um einen rein psychisch vermittelten Effekt handelt.458 Die letzte Entscheidung über die Veröffentlichung von Kommunikationsinhalten trifft schließlich der Nutzer selbst. Der Grundrechtseingriff darf dennoch nicht vorschnell abgelehnt werden. Denn es ist gerade das Overblocking, für das das NetzDG den Anreiz setzt, welches die Einschüchterungseffekte auslöst. Ohne das vom deutschen Gesetzgeber geschaffene Compliance-System des NetzDG müsste der Nutzer nicht befürchten, dass rechtmäßige Kommunikationsinhalte gelöscht werden. Zwar kann auch in diesem Zusammenhang das Argument angeführt werden, dass soziale Netzwerke auch aufgrund ihrer Gemeinschaftsstandards rechtmäßige Inhalte löschen.459 Allerdings ist die einschüchternde Wirkung der Löschung aufgrund des NetzDG nicht mit der einer Löschung aufgrund der Gemeinschaftsstandards vergleichbar. Während bei einer Löschung aufgrund der Benutzungsrichtlinien nicht zwingend der Eindruck entsteht, dass es sich bei dem gelöschten Inhalt um eine strafbare Handlung handelt, wird man bei Inhalten, die aufgrund des NetzDG gelöscht werden, regelmäßig annehmen, dass es sich um eine rechtswidrige Äußerung handelt. Die Stigmatisierungswirkung ist daher nicht vergleichbar. Zudem muss auch bei fälschlicherweise gelöschten Inhalten davon ausgegangen werden, dass durch das soziale Netzwerk eine Meldung an das BKA erfolgen kann. Auch hierdurch wird ein Vermeidungsreflex ausgelöst, mit der Folge, dass Äußerungen unterlassen werden. Eine Kausalität ist im Fall des
456 457 458 459
Peifer, AfP 2018, 14 (19). Siehe zu den Anreizstrukturen im NetzDG bereits Kapitel 3 A. I. 3. Assion, in: Telemedicus e.V., Überwachung und Recht, S. 31 (35). Peifer, AfP 2018, 14 (19 f.).
124
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
NetzDG daher im Ergebnis erkennbar, sodass die Einschüchterungseffekte dem Grundrechtsverpflichteten zurechenbar sind. b) Verhältnismäßigkeit des Eingriffs durch die Chilling Effects Es erscheint jedoch nicht ausgeschlossen, dass der festgestellte Eingriff in die Meinungsfreiheit aus Art. 11 Abs. 1 GRCh gerechtfertigt ist. Hinsichtlich der Rechtfertigungsvoraussetzungen, dem durch das NetzDG verfolgten Ziel sowie der Geeignetheit zur Zweckerreichung kann auf die obigen Ausführungen verwiesen werden.460 Abweichungen ergeben sich jedoch im Hinblick auf Erforderlichkeit und Angemessenheit. Es gilt insbesondere zu untersuchen, ob der Eingriff in die Meinungsfreiheit in Form von Einschüchterungseffekten vor dem Hintergrund der durch das NetzDG verfolgten Ziele angemessen ist. Die Löschpflichten des NetzDG sind als solche nicht erforderlich, um die vom NetzDG verfolgten Ziele zu erreichen. Insbesondere würde die umfassende Einrichtung einer Regulierten Selbstregulierung einen schonenderen Ausgleich zwischen den konkurrierenden Grundrechten schaffen.461 Hingegen ist keine schonendere Alternative zu dem Auskunftsanspruch aus Art. 21 Abs. 2 TTDSG ersichtlich. Die Inanspruchnahme des Betreibers des sozialen Netzwerks wäre zum einen weniger effektiv, zum anderen stellt dies aufgrund der Eigeninteressen der sozialen Netzwerke keine grundrechtsschonendere Alternative dar.462 Dadurch, dass den sozialen Netzwerken die Pflicht zur Löschung sowie eine Meldung an das BKA in bestimmten Fällen auferlegt wird, halten sich die Nutzer unter Umständen von vornherein zurück und nehmen Abstand davon, von ihren Rechten Gebrauch zu machen. Aus Angst vor der Stigmatisierung durch die Löschung oder einen Strafprozess verzichten sie von vornherein auf die freie Äußerung ihrer Meinung. Dies kann einerseits durch das völlige Unterlassen der Äußerung, andererseits durch das Abschwächen des Beitrags geschehen. Durch das Abschwächen wird der Aussage die Schärfe genommen und der Beitrag könnte dadurch gleichzeitig an Reichweite verlieren. Wird ein Kommentar vollständig unterlassen, führt dies dazu, dass er der öffentlichen Meinungsbildung von vornherein gänzlich entzogen wird.463 Beide Aspekte haben Auswirkungen auf die Meinungsbildung anderer Nutzer. Insgesamt ist ein Defizit an lebendiger Streitkultur und damit Lücken im demokratischen Willensbildungsprozess zu befürchten.464 Man könnte zwar dahingehend argumentieren, dass dies wohl ein angenehmer Nebeneffekt zur Verbesserung der Debattenkultur sein dürfte, denn auch 460
Kapitel 3 A. I. 5. d) cc) bis ee). Siehe hierzu Kapitel 3 A. I. 5. d) ee) (4). 462 Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 490. 463 Guggenberger et al., NetzDG: im Zweifel gegen die Meinungsfreiheit, S. 53; Feldmann, K&R 2017, 292 (295). 464 Warg, DÖV 2018, S. 473 (480). 461
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
125
diese grenzwertigen Kommentare entsprechen in der Regel nicht den Maßgaben eines höflichen Miteinanders. Dennoch ist es aber gerade vom Recht der Meinungsfreiheit umfasst, polarisierende, grenzwertige oder satirische Äußerungen zu tätigen.465 Vor allem diese Äußerungen sind es, die im Kommunikationsumfeld Internet besondere Beachtung finden. Die Chilling Effects betreffen insoweit nicht allein die Kommunikationsfreiheit des Einzelnen, sondern haben auch gesamtgesellschaftliche Auswirkungen auf den freien Meinungsaustausch in sozialen Netzwerken. Demgegenüber steht jedoch die Bekämpfung der Hasskriminalität und damit die Wahrung der öffentlichen Ordnung sowie insbesondere die Persönlichkeitsrechte derer, die das Ziel von Hasskriminalität sind. Berücksichtigt man das Gewicht dieser ebenfalls grundrechtlich geschützten Positionen, muss die Meinungsfreiheit der Nutzer in diesem Fall zurücktreten. Denn die Chilling Effects sind psychisch vermittelte Effekte; der Nutzer selbst entscheidet von den Äußerungen abzusehen. Zwar werden durch die staatlich vorgegebenen Regeln des NetzDG die Gesamtumstände geschaffen, die den Nutzer beeinflussen. Diese sind aber nicht derart schwerwiegend, dass dem Nutzer die Meinungsäußerung als solche unmöglich erscheint, sondern er vielmehr davon ausgeht, die Meinungsäußerung rechtmäßig gestalten zu müssen. Hinsichtlich der Auskunftsansprüche aus § 21 Abs. 2 TTDSG sowie der Übermittlung von Inhalten an das BKA gemäß § 3a NetzDG sorgen die Verfahrensvorgaben dafür, dass die Gefahr einer unberechtigten Verarbeitung der personenbezogenen Daten gering einzuschätzen ist.466 Die daraus resultierenden Chilling Effects sind insofern von keiner besonderen Schwere, während die Regelungen dazu dienen, dem Betroffenen Rechtsschutz zu gewähren.467 Zumal das Ideal der völlig unbefangenen Grundrechtsausübung unerreichbar sein dürfte.468 Einschüchterungseffekte durch Regeln und Gesetze werden sich nie gänzlich ausschließen lassen, sondern müssen in einem hinnehmbaren Rahmen bleiben. Im Fall sozialer Netzwerke kann es sogar gegenläufige Chilling Effects geben, dergestalt, dass auch fehlende Regeln zur Bekämpfung von Hassrede eine einschüchternde Wirkung entfalten können. Soweit beim Nutzer der Eindruck entsteht, Hasskriminalität werde toleriert und ihm stehe auch kein Mittel zu Verfügung effektiv dagegen vorzugehen, könnte er von der Äußerung seiner Meinung absehen, um nicht zum Ziel von Hassrede zu werden.469
465
Buchheim, JuS 2018, 548 (555). In Bezug auf den Auskunftsanspruch Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 490. 467 Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 490. 468 Staben, Der Abschreckungseffekt auf die Grundrechtsausübung, S. 143. 469 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 441. 466
126
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
Dass der Gesetzgeber mit dem NetzDG auf das Problem der Hasskriminalität nicht die richtige Antwort gefunden hat, bleibt von diesem Ergebnis unberührt. Auch wenn die Einschüchterungseffekte für sich genommen keine eigenständige Verletzung der Meinungsfreiheit aus Art. 11 Abs. 1 GRCh darstellen, ändert dies nichts an der Grundrechtswidrigkeit aufgrund der Gefahr des Overblockings.470 Die Einschüchterungseffekte können jedoch in Bezug auf die grundrechtliche Prüfung zum Overblocking herangezogen werden. Dem Grundrechtseingriff kommt ein noch höheres Gewicht zu, da nicht nur die Gefahr des Overblockings durch das NetzDG gesetzt wird, sondern dadurch auch Einschüchterungseffekte entstehen. Die Chilling Effects als Argumentationsfigur haben auch Einzug in die Rechtsprechung des EuGH gefunden. In der Rechtssache Digital Rights Ireland äußert sich Generalanwalt Villalón dahingehend, dass die Vorratsdatenspeicherung geeignet sei, ein Gefühl des Überwachtwerdens auszulösen, das sich auf die Ausübung der Meinungsfreiheit auswirken könne. Er betont auch, dass dies eine Nebenfolge eines Eingriffs darstelle, der einer sorgfältigen Prüfung bedürfe.471 Der EuGH hat sich dieser Argumentation, mit Verweis auf die Schlussanträge, angeschlossen. In dem Urteil heißt es, dass „der Umstand, dass die Vorratsspeicherung der Daten und ihre spätere Nutzung vorgenommen werden, ohne dass der Teilnehmer oder registrierte Benutzer darüber informiert wird, geeignet [ist], bei den Betroffenen [. . .] das Gefühl zu erzeugen, dass ihr Privatleben Gegenstand einer ständigen Überwachung ist“.472 An dieser Stelle klingt der Grundgedanke des Chilling Effects durch, dass bei den Betroffenen ein Gefühl entsteht, das eine Auswirkung auf ihr künftiges Handeln haben kann. 4. Ergebnis Im Ergebnis stellen die Chilling Effects zwar einen Eingriff in die Meinungsfreiheit aus Art. 11 Abs. 1 GRCh, jedoch keine eigenständige Verletzung derselben dar. Als Nebeneffekte des staatlichen Handelns erhöhen sie jedoch die Schwere des Eingriffs in die Meinungsfreiheit, der aus der Gefahr des Overblockings resultiert.
III. Verkürzung der Nutzerrechte durch die Privatisierung der Rechtsdurchsetzung Ein weiterer Eingriff in die Rechte der Nutzer könnte sich durch die Privatisierung der Rechtsdurchsetzung ergeben, die dem NetzDG innewohnt. 470
Siehe auch Assion, in: Telemedicus e.V., Überwachung und Recht, S. 31 (59). GA Villalón, Schlussanträge v. 12.12.2013, Rs. C-293/12 und C-594/12, ECLI: EU:C:2013:845 Rn. 52. 472 EuGH, Urt. v. 08.04.2014, Rs. C-293/12, C-594/12, ECLI:EU:C:2014:238 Rn. 37 – Digital Rights Ireland. 471
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
127
1. Einordnung des Begriffs Unter der Privatisierung der Rechtsdurchsetzung versteht man allgemein, dass regulierungsbedürftige Konflikte nicht mehr allein durch hoheitliche Regelungen und die entsprechende hoheitliche Durchsetzung, sondern durch die Einbindung der unmittelbar betroffenen Akteure gelöst beziehungsweise entschärft werden.473 Der Begriff der Privatisierung mag in diesem Zusammenhang zwar nicht vollumfänglich zutreffend sein. Schließlich wird nicht die gesamte Rechtsdurchsetzung im Zusammenhang mit Hasskriminalität und Falschnachrichten privatisiert, da die eigentliche Strafverfolgung in staatlicher Hand verbleibt. Der Begriff beschreibt aber dennoch anschaulich die zugrundeliegende Problematik und soll daher im Folgenden verwendet werden. 2. Private Rechtsdurchsetzung im NetzDG Zunächst stellt sich die Frage, ob man im Fall des NetzDG tatsächlich von einer Privatisierung der Rechtsdurchsetzung sprechen kann, die zuvor noch nicht gegeben war. Schließlich bestand für soziale Netzwerke schon zuvor eine Pflicht zur Entfernung rechtswidriger Inhalte im Rahmen der Kenntnis nach § 10 TMG sowie nach den allgemeinen Grundsätzen der Störerhaftung.474 Mit der Normierung der Fristen und der Pflicht die Rechtswidrigkeit zu prüfen, gehen die Pflichten der Netzwerkbetreiber nach dem NetzDG allerdings über die bisherigen Maßgaben hinaus.475 Nicht zuletzt ist die Pflicht zur Meldung bestimmter Inhalte an das BKA bisher noch nicht normiert gewesen. Gegen die Annahme einer zunehmenden Privatisierung kann man vorbringen, dass die Pflichten nur der Durchsetzung der Strafgesetze im Bereich sozialer Netzwerke dienen sollen, der Maßstab für die Löschung daher durch den Gesetzgeber in Form der Strafgesetze und nicht nach dem Dafürhalten der Plattformanbieter gesetzt wird.476 Die sozialen Netzwerke erlassen keinen Schuldspruch und keine Sanktion im strafrechtlichen Sinne.477 Sie überprüfen vielmehr, gegen welche Inhalte vorgegangen werden kann, sodass die Fälle weiterhin einer gerichtlichen Überprüfung zugänglich sind.478 So zeigt § 3 Abs. 2 Nr. 4 NetzDG, der die Speicherung entfernter Inhalte zu Beweiszwecken festlegt, dass eine Strafver-
473 Burghardt, in: Boulanger/Rosenstock/Singelnstein, Interdisziplinäre Rechtsforschung, S. 259 (267). 474 Lüdemann, in: Eifert/Gostomzyk, Netzwerkrecht, S. 153 (155). 475 Spindler, ZUM 2017, 473 (480 f.). 476 Eifert, in: Eifert/Gostomzyk, Netzwerkrecht, S. 9 (41 f.); Roßnagel et al., PolicyPaper-NetzDG, S. 8. 477 Askani, Private Rechtsdurchsetzung bei Urheberrechtsverletzungen im Internet, S. 270. 478 Heldt, UFITA 2021, 529 (535).
128
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
folgung über das NetzDG hinaus vorgesehen ist.479 Die Meldung an das BKA nach § 3a NetzDG, die im Februar 2022 in Kraft getreten ist, verdeutlicht dies zusätzlich. Die Beurteilung der Rechtmäßigkeit, aus der zunächst eine Löschung oder Sperrung der Inhalte resultieren kann, obliegt dennoch den sozialen Netzwerken ohne eine vorhergehende gerichtliche Entscheidung. Hinzu kommt, dass mit der Einführung des Gegenvorstellungsverfahrens sowie der Schlichtung noch weitere Instanzen bei den sozialen Netzwerken hinzukommen, die einer gerichtlichen Entscheidung in der Regel vorgelagert sind.480 Diese Vorabprüfung durch die sozialen Netzwerke gibt bereits eine Tendenz vor. Sofern ein Inhalt vom Plattformbetreiber als nicht rechtswidrig eingestuft wird, sieht der betroffene Nutzer womöglich von einer weiteren Verfolgung des Falls ab, auch wenn er eingangs von der Rechtswidrigkeit überzeugt war.481 Andersherum wird in den meisten Fällen auch die fälschlicherweise erfolgte Entfernung von Inhalten nicht weiter durch deren Urheber verfolgt werden. Kosten und Nutzen stehen hierbei regelmäßig außer Verhältnis.482 In vielen Fällen werden durch die Entscheidungen des sozialen Netzwerks also faktische Verhältnisse geschaffen.483 Erneut kann man argumentieren, dass die sozialen Netzwerke ohnehin aufgrund ihrer Gemeinschaftsstandards Inhalte löschen.484 Das NetzDG könnte somit vielmehr Vorgaben zum Löschmanagement schaffen und die Transparenz der Entscheidungen durch die Einführung der Berichtspflicht fördern.485 Dadurch würde die Rechtsdurchsetzung durch die privaten Unternehmen nicht gefördert, sondern vielmehr begrenzt.486 Tatsächlich liegt die Entscheidung, welche Inhalte gelöscht werden und welche nicht, derzeit häufig in der Verantwortung der sozialen Netzwerke.487 Dieser Zustand darf aber keine Rechtfertigung für ein staatlich initiiertes Löschsystem sein.488 Schließlich ist die Ausgangslage nur schwerlich vergleichbar. Im Falle der Löschung oder Sperrung aufgrund der Gemeinschaftsstandards setzt der Betreiber des sozialen Netzwerks die Regeln durch, die er für 479
Eifert, in: Eifert/Gostomzyk, Netzwerkrecht, S. 9 (41 f.). Heldt, UFITA 2021, 529 (535). 481 Kalscheuer/Hornung, NVwZ 2017, 1721 (1724). 482 Askani, Private Rechtsdurchsetzung bei Urheberrechtsverletzungen im Internet, S. 271; Guggenberger, NJW 2017, 2577 (2581); Paal, JZ 2020, 92 (94). 483 Paal/Hennemann, JZ 2017, 641 (651). 484 Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 191; Peifer, AfP 2018, 14 (20). 485 Peifer, AfP 2018, 14 (20). 486 Peifer, AfP 2018, 14 (20). 487 Hong, Das NetzDG und die Vermutung für die Freiheit der Rede, Verfassungsblog v. 09.01.2018. 488 Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 459; Lüdemann, in: Eifert/Gostomzyk, Netzwerkrecht, S. 153 (164). 480
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
129
die Nutzung der Plattform selbst gesetzt hat. Damit macht er von seinem Hausrecht Gebrauch.489 Inwieweit dies vor dem Hintergrund der Bedeutung der sozialen Netzwerke für die öffentliche Meinungsbildung zulässig ist und ob in regulatorischer Weise eingegriffen werden sollte, kann und soll an dieser Stelle nicht geklärt werden. Basiert die Löschung oder Sperrung des Inhalts jedoch auf den Vorschriften des NetzDG, so setzt das soziale Netzwerk nicht seine eigenen Regeln durch, sondern es wird von hoheitlicher Seite dazu angehalten diese Löschung vorzunehmen. 3. Beeinträchtigung von Grundrechtspositionen der Nutzer Zwar wurden die sozialen Netzwerke auch schon vor Inkrafttreten des NetzDG zur Löschung von Inhalten verpflichtet. Das NetzDG geht jedoch in einigen Aspekten über die bisherigen Pflichten hinaus. Diese Entwicklung hat auch eine grundrechtliche Relevanz. Kommen die sozialen Netzwerke zu dem Ergebnis, dass ein Inhalt rechtswidrig ist, so ist dieser zu entfernen. Nun erfolgt die Löschung oder Sperrung jedoch nicht durch staatliche Akteure, sondern vielmehr durch private Unternehmen, die zwar den Auftrag von Gesetzes wegen erhalten haben, aber vielmehr in der Rolle eines privaten Akteurs in ihrem eigenen Interessenkreis, nämlich zur Vermeidung von Bußgeldern, agieren.490 Betroffen von den Löschungen sind wiederum die Nutzer, wodurch sich ein Eingriff in die Meinungsfreiheit aus Art. 11 Abs. 1 GRCh ergibt.491 Der Vorwurf der Privatisierung der Rechtsdurchsetzung wurde auch der französischen Loi Avia entgegengebracht. Die Beurteilung der Rechtswidrigkeit von Kommunikationsinhalten dürfe nicht allein den Plattformbetreibern überlassen werden. Vielmehr müsse der Richter stets Mittelpunkt eines solchen Verfahrens bleiben, da andernfalls die Gefahr bestehe, die Justiz zu privatisieren.492 Dieser Ansicht folgte der Conseil Constitutionnel in seinem Urteil zur Loi Avia zum Teil. Die kurzen Fristen, die das Gesetz vorsah, ließen nach Auffassung des Gerichts keine Option, in uneindeutigen Fällen eine gerichtliche Entscheidung herbeizuführen.493 Die Indienstnahme der Plattformbetreiber ist naheliegend, denn die Plattformen bilden die „Flaschenhälse“ für die Kommunikation und damit einen effektiven Ansatzpunkt für die Regulierung.494 Ohne die Indienstnahme der Plattform489
Lüdemann, in: Eifert/Gostomzyk, Netzwerkrecht, S. 153 (164). Lüdemann, in: Eifert/Gostomzyk, Netzwerkrecht, S. 153 (163, 165). 491 Askani, Private Rechtsdurchsetzung bei Urheberrechtsverletzungen im Internet, S. 194. 492 Ligue des droits de l’Homme, Lettre ouverte collective appelant à garantir nos libertés publiques dans la proposition de loi visant à lutter contre la haine sur internet. 493 Conseil Constitutionnel, décision n ë 2020-801 DC du 18 juin 2020, Rn. 7. 494 Eifert, NJW 2017, 1450; Heldt, UFITA 2021, 529 (535). 490
130
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
betreiber müssten sich die Gerichte mit sämtlichen gemeldeten Fällen beschäftigen, was schier nicht zu bewerkstelligen wäre.495 Auf diese Weise kann ein schneller und effektiver Schutz derjenigen umgesetzt werden, die von Hasskriminalität betroffen sind. Denn dem Grundrecht der Meinungsfreiheit der einen Nutzer stehen die Persönlichkeitsrechte der anderen Nutzer gegenüber. Die Entfernung der Inhalte soll der Rechtsverletzung schnelle Abhilfe schaffen, denn je länger ein Inhalt im Internet kursiert, desto häufiger wird er geteilt und die Persönlichkeitsrechtsverletzung perpetuiert. Die Betroffenen sämtlich auf den einstweiligen Rechtsschutz zu verweisen, würde vor dem Hintergrund der Vielzahl der zu erwartenden Beschwerden sowie der derzeitigen Auslastung der Gerichte keinen ausreichenden Schutz der Betroffenen bewirken.496 Die Entscheidung auf die sozialen Netzwerke zu verlagern, lässt sich jedoch nicht allein mit dem Aspekt der Effizienz rechtfertigen.497 Gerade in dem Bereich des hochsensiblen Grundrechts der Meinungsfreiheit ist eine kontextbezogene, sorgfältige Einzelfallprüfung erforderlich.498 Eine Löschpraxis, bei der schematisch zulasten der Meinungsfreiheit entschieden wird, dürfte der Staat selbst nicht einrichten. Gleichermaßen darf er sie nicht Privaten auferlegen und sich selbst der Verantwortung entziehen.499 Doch zu einem gründlichen Prüfverfahren liefert das NetzDG mit seinen kurzen Fristen und den drohenden Bußgeldern keinerlei Anreize.500 Dieses Defizit des NetzDG liegt jedoch nicht allein in der Indienstnahme der Plattformbetreiber begründet, sondern ist vielmehr eine Frage der Ausgestaltung des Verfahrens. Die Plattformbetreiber in die Pflicht zu nehmen, dient dem effektiven Schutz der Persönlichkeitsrechte der Betroffenen. Der Eingriff in die Meinungsfreiheit der anderen Nutzer in Form der Inanspruchnahme der Plattformbetreiber zur Entfernung von Inhalten wiegt hingegen weniger schwer. 4. Ergebnis Festzuhalten bleibt, dass die Inanspruchnahme der Anbieter sozialer Netzwerke als solche zwar einen Grundrechtseingriff darstellt. Dieser ist vor dem Hintergrund des effektiven Schutzes der von Hasskriminalität Betroffenen jedoch gerechtfertigt. Festzuhalten bleibt aber auch, dass mit der Übertragung der Pflichten auf Private entsprechende Verfahrensvorgaben einhergehen müssen, die ein495
Heldt, UFITA 2021, 529 (535). Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 191; Lang, AöR 143 (2018), 220 (240). 497 Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 459. 498 Lüdemann, in: Eifert/Gostomzyk, Netzwerkrecht, S. 153 (160). 499 Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 459; Lüdemann, in: Eifert/Gostomzyk, Netzwerkrecht, S. 153 (163). 500 Lüdemann, in: Eifert/Gostomzyk, Netzwerkrecht, S. 153 (161). Siehe hierzu bereits Kapitel 3 A. I. 5. d) ff). 496
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
131
seitigen Anreizstrukturen entgegenwirken und ein Verfahren sichern, in dem sich entgegenstehende Grundrechtspositionen in einen angemessenen Ausgleich gebracht werden. Dies hat der Gesetzgeber beim NetzDG eindeutig versäumt.
IV. Speicherung zu Beweiszwecken und Dokumentationspflicht Nach § 3 Abs. 2 Nr. 4 NetzDG sind die sozialen Netzwerke verpflichtet, die gelöschten Inhalte zu Beweiszwecken für die Dauer von zehn Wochen zu speichern. Weiterhin sieht § 3 Abs. 3 NetzDG vor, dass jede Beschwerde und die zu ihrer Abhilfe getroffene Maßnahme dokumentiert werden. 1. Schutz personenbezogener Daten Soweit auch personenbezogene Daten von der Speicherpflicht des § 3 Abs. 2 Nr. 4 NetzDG sowie von der Dokumentationspflicht des § 3 Abs. 3 NetzDG erfasst sind, könnte ein Konflikt mit Art. 8 Abs. 1 GRCh bestehen. a) Gewährleistungsgehalt des Art. 8 GRCh Dem Art. 8 GRCh, dem Schutz personenbezogener Daten, kommt in Bezug auf die erhebliche Datenverarbeitung in der Internetkommunikation eine immense Bedeutung zu. Da es sich bei dem Datenschutzgrundrecht aus Art. 8 GRCh um ein relativ neues Grundrecht handelt, ergeben sich Schwierigkeiten in der Abgrenzung von Art. 7 und 8 GRCh sowie in Bezug auf die Entsprechung mit der EMRK.501 Auf diese weitgehend dogmatischen Fragen soll hier jedoch nicht vertiefend eingegangen werden.502 Im Folgenden wird die Auffassung zugrunde gelegt, dass der Schutz personenbezogener Daten in den Schutzbereich des Art. 8 GRCh fällt, wenngleich eine enge Nähe zu Art. 7 GRCh und somit auch zu Art. 8 EMRK besteht.503 Gemäß Art. 8 Abs. 1 GRCh hat jede Person das Recht auf den Schutz der sie betreffenden personenbezogenen Daten. Personenbezogene Daten sind solche mit Informationen über eine bestimmte oder bestimmbare Person.504 Die Bestimmbarkeit einer Person ist dann gegeben, wenn sie direkt oder indirekt identifiziert werden kann.505 Der Art. 8 GRCh knüpft an die Verarbeitung der Daten an. Hier-
501 Heselhaus/Nowak, Handbuch der europäischen Grundrechte § 25 Rn. 20; Lynskey, in: Bobek/Adams-Prassl, The EU Charter of Fundamental Rights in the Member States, S. 353 (365 f.). 502 Vertiefend dazu: Michl, DuD 2017, 349. 503 Voigt, Die datenschutzrechtliche Einwilligung, S. 272. 504 EuGH, Urt. v. 09.11.2010, Rs. C-92/09 und C-93/09, ECLI:EU:C:2010:662 Rn. 52 – Volker und Markus Schecke und Eifert. 505 Jarass, EU-Grundrechte-Charta Art. 8 Rn. 5.
132
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
unter fällt die gesamte Verwendung der Daten, von der Erhebung bis zur Löschung.506 Insbesondere ist der Begriff offen für neue Verfahren der Datenverarbeitung, die vom Konvent noch nicht in Erwägung gezogen werden konnten.507 Das Recht beinhaltet sowohl ein klassisches Abwehrrecht als auch eine Schutzpflichtdimension.508 Die Pflicht zur Speicherung entfernter Inhalte aus § 3 Abs. 2 Nr. 4 NetzDG sowie die Dokumentationspflicht aus § 3 Abs. 3 NetzDG erfassen regelmäßig auch personenbezogene Daten der Nutzer, womit das Recht aus Art. 8 Abs. 1 GRCh Anwendung findet.509 b) Eingriff in Art. 8 GRCh durch die Speicherung zu Beweiszwecken sowie die Dokumentationspflicht Ein Eingriff in das Recht aus Art. 8 Abs. 1 GRCh liegt vor, wenn personenbezogene Daten im Sinne von Art. 8 Abs. 2 GRCh verarbeitet werden.510 Darunter ist jede Erhebung, Speicherung, Verwendung, Sperrung oder Löschung der personenbezogenen Daten zu verstehen, unabhängig davon, ob die Verarbeitung für den Betroffenen zu einem Nachteil führt oder ob es sich um sensible Daten handelt oder nicht.511 Es kommt nicht darauf an, ob eine Weitergabe der Daten erfolgt; schon die bloße Speicherung stellt einen Eingriff dar.512 In Anlehnung an das erste EuGH-Urteil zur Vorratsdatenspeicherung ist es überzeugend, einen Eingriff auch bei der Speicherung von personenbezogenen Daten durch soziale Netzwerke anzunehmen, da diese Speicherung eine Verarbeitung im Sinne des Art. 8 Abs. 2 GRCh darstellt.513
506
Meyer/Hölscheidt/Bernsdorff, GRCh Art. 8 Rn. 22. Meyer/Hölscheidt/Bernsdorff, GRCh Art. 8 Rn. 22; Hendrickx, in: Dorssemont/ Lörcher/Clauwaert/Schmitt, The Charter of Fundamental Rights of the European Union and the Employment Relation, S. 249 (259). 508 Meyer/Hölscheidt/Bernsdorff, GRCh Art. 8 Rn. 23; Pechstein/Nowak/Häde/ Wolff, GRC Art. 8 Rn. 15 f. 509 Wimmers/Heymann, AfP 2017, 93 (100). 510 EuGH, Urt. v. 09.11.2010, Rs. C-92/09 und C-93/09, ECLI:EU:C:2010:662 Rn. 60 – Volker und Markus Schecke und Eifert. 511 EuGH, Urt. v. 20.05.2003, Rs. C-465/00, ECLI:EU:C:2003:294 Rn. 75 – Österreichischer Rundfunk u. a.; Jarass, EU-Grundrechte-Charta Art. 8 Rn. 9; Hendrickx, in: Dorssemont/Lörcher/Clauwaert/Schmitt, The Charter of Fundamental Rights of the European Union and the Employment Relation, S. 249 (260). 512 EuGH, Urt. v. 08.04.2014, Rs. C-293/12, C-594/12, ECLI:EU:C:2014:238 Rn. 34 – Digital Rights Ireland; Schantz/Wolff/Wolff, A. I. Rn. 44. 513 EuGH, Urt. v. 08.04.2014, Rs. C-293/12, C-594/12, ECLI:EU:C:2014:238 34 ff. – Digital Rights Ireland; Deutscher Bundestag, Fachbereich Europa, PE 6 – 3000 – 22/17, S. 34. 507
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
133
c) Verhältnismäßigkeit Eine Einschränkung des Art. 8 Abs. 1 GRCh kann aufgrund Art. 52 Abs. 1 GRCh gerechtfertigt werden, wobei die Maßstäbe des Art. 8 Abs. 2 GRCh beachtet werden müssen, in dem die datenschutzrechtlichen Prinzipien der Zweckbindung sowie der Verarbeitung nach Treu und Glauben festgeschrieben sind.514 Die Anforderungen an die Verhältnismäßigkeit der Datenverarbeitung sind bei Daten aus dem privaten Bereich strenger als bei öffentlich zugänglichen personenbezogenen Daten.515 Die Speicherung der Daten ist durch die entsprechende Vorschrift des NetzDG gesetzlich vorgesehen. Ausweislich der Gesetzesbegründung ist die Intention hinter der Speicherung die Sicherung der Strafverfolgung, indem Beweise gesichert werden.516 Dieses Ziel, die Sicherung der Strafverfolgung und damit die Aufrechterhaltung der öffentlichen Ordnung, dient dem Gemeinwohl und stellt somit einen legitimen Zweck dar.517 Zwar ist aus dem Wortlaut des § 3 Abs. 2 Nr. 4 NetzDG nicht ersichtlich, welche Beweise genau gesichert werden sollen und auch die Gesetzesbegründung bietet dazu keine aufschlussreichen Erläuterungen.518 Das Ansinnen des Gesetzgebers kommt dennoch ausreichend zum Ausdruck, sodass ein legitimes Ziel identifiziert werden kann. Gleichermaßen soll auch die Dokumentationspflicht aus § 3 Abs. 3 NetzDG der Beweissicherung dienen.519 Gemeint sind hier gerichtliche Verfahren über die Rechtmäßigkeit einer Löschung oder Entfernung eines gespeicherten Inhalts.520 Die Speicherung ermöglicht dem betroffenen Netzwerkmitglied auch nach Löschung des Inhalts von der Plattform, den Verfasser zum Zwecke der Strafverfolgung ausfindig zu machen und stellt den Strafverfolgungsbehörden gleichzeitig Beweismittel zur Verfügung, sodass die Speicherung zur Zielerreichung geeignet scheint.521 Hinsichtlich der Erforderlichkeit der Speicherung und Dokumentation sind keine gleich geeigneten, weniger einschneidenden Maßnahmen ersichtlich. Zwar könnten die Strafverfolgungsbehörden eigene Ermittlungen anstellen. Ohne die Anhaltspunkte, die sich aus den gesicherten Daten ergeben, ist dies aber nicht gleich wirksam in Bezug auf das zu erreichende Ziel einzustufen. Hinsichtlich 514 Jarass, EU-Grundrechte-Charta Art. 8 Rn. 13 f.; Peers/Hervey/Kenner/Ward/Kranenborg, Art. 8 Rn. 08.154. 515 EuGH, Urt. v. 24.11.2011, Rs. C-468/10, ECLI:EU:C:2011:777 Rn. 45 – ASNEF; Jarass, EU-Grundrechte-Charta Art. 8 Rn. 18. 516 BT-Drs. 18/12356, S. 23. 517 EuGH, Urt. v. 08.04.2014, Rs. C-293/12, C-594/12, ECLI:EU:C:2014:238 Rn. 42 – Digital Rights Ireland; Deutscher Bundestag, Fachbereich Europa, PE 6 – 3000 – 22/17, S. 34. 518 Wimmers/Heymann, AfP 2017, 93 (100 f.). 519 BT-Drs. 18/12356, S. 23. 520 BT-Drs. 18/12356, S. 23. 521 Deutscher Bundestag, Fachbereich Europa, PE 6 – 3000 – 22/17, S. 34.
134
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
§ 3 Abs. 2 Nr. 4 NetzDG wäre eine kürzere und damit weniger beeinträchtigende Speicherdauer nicht gleich wirksam, da bei einer kürzeren Frist unter Umständen nicht alle erforderlichen Ermittlungen vorgenommen werden könnten. Wiederum nicht ersichtlich ist, warum die Dokumentationspflicht aus § 3 Abs. 3 NetzDG keine Vorgaben zur Speicherdauer enthält.522 Weniger eingriffsintensiv und damit ein milderes Mittel wäre die Präzisierung der Speicherungs- und Dokumentationspflicht durch Verfahrensvorgaben und genauere Angaben zu den zu speichernden Informationen. Der EuGH hat in der Sache Digital Rights Ireland betont, dass aufgrund der besonderen Bedeutung des Schutzes personenbezogener Daten eine strikte Kontrolle in Bezug auf die Vorratsdatenspeicherung vorgenommen werden müsse.523 Daraus lässt sich ableiten, dass die Regelungen des NetzDG in Bezug auf die Verarbeitung personenbezogener Daten ebenfalls einer strengen Kontrolle unterliegen müssen. Der EuGH hat bezüglich einer Vorratsdatenspeicherung wiederholt entschieden, dass die anlasslose und allgemeine Speicherung von Kommunikationsdaten durch die Anbieter nicht vereinbar mit Art. 7 und 8 der GRCh ist.524 Allerdings ist der Fall des NetzDG damit nur eingeschränkt vergleichbar. Während die Entscheidungen des EuGH allesamt eine anlasslose Speicherung sämtlicher Verkehrsdaten betreffend Telefonfestnetz, Mobilfunk, Internetzugang, Internet-Mail und Internettelefonie betrafen, sollen die Anbieter der sozialen Netzwerke nach § 3 Abs. 2 Nr. 4 NetzDG den entfernten Inhalt zu Beweiszwecken sichern. Dies geschieht nicht anlasslos, sondern es besteht durch die Einstufung eines Inhalts als rechtswidrig bereits der Verdacht einer Straftat.525 Auch wenn dieser Verdacht auf der Einschätzung des Content-Managements der sozialen Netzwerke beruht, besteht zumindest ein Anlass für die Speicherung und es werden nicht wahllos die Daten sämtlicher Nutzer erfasst. Anlass für die Dokumentation im Sinne des § 3 Abs. 3 NetzDG ist die Beschwerde. Zwar verweist das NetzDG nicht wie an anderer Stelle darauf, dass nur Beschwerden über rechtswidrige Inhalte gemeint sind. Liesching geht jedoch davon aus, dass die Vorschrift dahingehend einschränkend auszulegen ist, dass nur solche Beschwerden erfasst werden müssen, die rechtswidrige Inhalte betreffen.526
522 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 351. 523 EuGH, Urt. v. 08.04.2014, Rs. C-293/12, C-594/12, ECLI:EU:C:2014:238 Rn. 48 – Digital Rights Ireland. 524 EuGH, Urt. v. 08.04.2014, Rs. C-293/12, C-594/12, ECLI:EU:C:2014:238 – Digital Rights Ireland; Urt. v. 21.12.2016, Rs. C-203/15 und C-698/15, C-203/15, C-698/ 15, ECLI:EU:C:2016:970 – Tele2 Sverige; Urt. v. 06.10.2020, Rs. C-511/18, ECLI: EU:C:2020:791 – La Quadrature du Net u. a.; Urt. v. 06.10.2020, Rs. C-623/17, ECLI: EU:C:2020:790 – Privacy International. 525 Deutscher Bundestag, Fachbereich Europa, PE 6 – 3000 – 22/17, S. 35. 526 Spindler/Schmitz/Liesching, NetzDG § 3 Rn. 33.
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
135
Darüber hinaus bestand bei der Richtlinie zur Vorratsdatenspeicherung, die im ersten EuGH-Verfahren gegenständlich war, keine Verpflichtung die Daten auf Servern im Hoheitsgebiet eines Mitgliedstaats zu sichern.527 § 3 Abs. 2 Nr. 4 NetzDG ordnet dagegen an, dass die Speicherung innerhalb des Geltungsbereichs der Richtlinie 2000/31/EG und der Richtlinie 2000/13/EU erfolgen muss. Auch ist die Speicherdauer von zehn Wochen im Vergleich zu der in Art. 6 der Richtlinie 2006/24 festgelegten Dauer von mindestens sechs Monaten deutlich kürzer. Die in § 1 Abs. 3 NetzDG aufgezählten Straftatbestände sind teilweise schwerwiegend, sodass die Speicherpflicht vor dem Hintergrund der Erleichterung der Verfolgung dieser Straftaten angemessen erscheint. Hingegen ist die Dokumentationspflicht aus § 3 Abs. 3 NetzDG schon aufgrund der fehlenden zeitlichen Einschränkung nicht angemessen. Allerdings hat die Richtlinie zur Vorratsdatenspeicherung nicht die Speicherung von Inhalten vorgesehen. Das NetzDG sieht hingegen vor, dass der Anbieter des sozialen Netzwerks „den Inhalt zu Beweiszwecken sichert“, es werden folglich Kommunikationsinhalte gespeichert. Diesen kommt nach der Rechtsprechung des EuGH eine besondere Bedeutung zu, da die Kenntnisnahme von Kommunikationsinhalten sogar geeignet sein könne, den Wesensgehalt von Art. 7 GRCh anzutasten.528 Jedoch handelt es sich bei den hier gegenständlichen Inhalten um Kommunikation, die der Absender bereits öffentlich zugänglich gemacht hat, indem er sie auf einer Plattform hochgeladen hat.529 Private Chats oder Nachrichten werden vom NetzDG hingegen nicht erfasst und fallen daher nicht unter die Pflicht zur Speicherung. Zwar genießen auch öffentlich zugängliche Daten den Schutz von Art. 8 GRCh.530 Ein Eingriff ist dann aber als weniger intensiv einzustufen.531 Schließlich wusste oder beabsichtigte der Absender, dass der Inhalt von einer unbestimmten Anzahl von Personen zur Kenntnis genommen wird. Er musste auch davon ausgehen, dass diese Personen den Inhalt gegebenenfalls speichern und weiterverbreiten. Daher wird durch diese Regelung jedenfalls nicht der Wesensgehalt des Grundrechts angetastet. Doch weder aus dem Gesetz noch aus der Gesetzesbegründung geht hervor, welche Daten gespeichert werden müssen.532 Im Normtext des § 3 Abs. 2 Nr. 4 NetzDG ist lediglich die Rede vom Inhalt, der zu Beweiszwecken zu sichern ist 527 GA Villalón, Schlussanträge v. 12.12.2013, Rs. C-293/12 und C-594/12, ECLI: EU:C:2013:845 Rn. 78. 528 EuGH, Urt. v. 08.04.2014, Rs. C-293/12, C-594/12, ECLI:EU:C:2014:238 Rn. 39 – Digital Rights Ireland. 529 Deutscher Bundestag, Fachbereich Europa, PE 6 – 3000 – 22/17, S. 36. 530 Jarass, EU-Grundrechte-Charta Art. 8 Rn. 6; Frenz, Handbuch Europarecht: Band 4 Rn. 1375. 531 Deutscher Bundestag, Fachbereich Europa, PE 6 – 3000 – 22/17, S. 36. 532 DGRI, Stellungnahme zum Entwurf eines Gesetzes zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken, S. 12.
136
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
und die Dokumentationspflicht des § 3 Abs. 3 NetzDG sieht vor, dass die Beschwerde und die zu ihrer Abhilfe getroffenen Maßnahmen gespeichert werden. Es ist daher davon auszugehen, dass die sozialen Netzwerke sämtliche ihnen zur Verfügung stehenden Daten zu dem betreffenden Vorfall speichern werden. Dieses Vorgehen würde jedoch den Grundsätzen des Datenschutzrechts, der Datensparsamkeit und dem Zweckbindungsgrundsatz, widersprechen. Der EuGH betont in seinen Urteilen, dass sich die Ausnahmen vom Schutz personenbezogener Daten auf das absolut Notwendige beschränken müssen.533 Mangels einer Konkretisierung der nach dem NetzDG zu speichernden Daten könnten mehr als bloß die notwendigen Informationen gespeichert werden. Darüber hinaus bemängelte der EuGH an der Richtlinie zur Vorratsdatenspeicherung, dass sie keine materiell- und verfahrensrechtlichen Voraussetzungen für den Zugang der zuständigen Behörden zu den gespeicherten Daten sowie für deren weitere Nutzung enthält.534 Auch das NetzDG enthält keine solchen Verfahrensvorgaben,535 sodass unklar bleibt, unter welchen Voraussetzungen die sozialen Netzwerke die Daten an welche Stelle herausgeben müssen.536 2. Ergebnis Auch wenn § 3 Abs. 2 Nr. 4 NetzDG eine kürzere Speicherdauer als die Vorratsdatenspeicherungs-Richtlinie vorsieht und die Speicherung anlassbezogen erfolgt, liegt dennoch eine Verletzung der Rechte aus Art. 8 Abs. 1 GRCh vor. Es werden Kommunikationsinhalte für eine nicht unerhebliche Dauer gespeichert, die zwar vom Absender selbst veröffentlicht wurden, aber dennoch dem Schutz des Art. 8 Abs. 1 GRCh unterfallen. Der Umfang der zu speichernden Informationen ist nicht präzisiert und es gibt keine hinreichenden Vorgaben für ihre weitere Nutzung. Auch hinsichtlich der Dokumentationspflicht aus § 3 Abs. 3 NetzDG bleibt festzuhalten, dass Verfahrensvorgaben, insbesondere in Form der Vorgabe einer maximalen Speicherdauer, fehlen. Diesen Mängeln könnte der Gesetzgeber mit der Schaffung angemessener Verfahrensvorgaben begegnen.
533 EuGH, Urt. v. 08.04.2014, Rs. C-293/12, C-594/12, ECLI:EU:C:2014:238 Rn. 52 – Digital Rights Ireland; Urt. v. 21.12.2016, Rs. C-203/15 und C-698/15, C203/15, C-698/15, ECLI:EU:C:2016:970 Rn. 108 ff. – Tele2 Sverige; Urt. v. 06.10.2020, Rs. C-623/17, ECLI:EU:C:2020:790 Rn. 76, 78 – Privacy International. 534 EuGH, Urt. v. 08.04.2014, Rs. C-293/12, C-594/12, ECLI:EU:C:2014:238 Rn. 54 f. – Digital Rights Ireland. 535 DGRI, Stellungnahme zum Entwurf eines Gesetzes zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken, S. 12. 536 Spindler/Schmitz/Liesching, NetzDG § 3 Rn. 34.
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
137
V. Meldung an das BKA Um der Verbesserung der Strafverfolgung in sozialen Netzwerken weiter Vortrieb zu geben, wurde durch das Gesetz zur Bekämpfung des Rechtsextremismus und der Hasskriminalität in § 3a NetzDG eine Meldepflicht eingeführt. Diese Meldepflicht gilt unter den in § 3a Abs. 2 NetzDG genannten Voraussetzungen, die sämtlich vorliegen müssen. Die Übermittlungspflicht besteht für alle Inhalte, „die dem Anbieter in einer Beschwerde über rechtswidrige Inhalte gemeldet worden sind, [. . .] die der Anbieter entfernt oder zu denen er den Zugang gesperrt hat [. . .] und bei denen konkrete Anhaltspunkte dafür bestehen, dass sie mindestens einen der Tatbestände“ erfüllen, die in § 3a Abs. 2 Nr. 3 NetzDG genannt werden, und nicht gerechtfertigt sind. Die Meldepflicht knüpft indes an das vom NetzDG vorgesehene Beschwerdemanagement an und nicht etwa an Löschungen oder Sperrungen, die aufgrund von Gemeinschaftsstandards erfolgen.537 Die Information an das BKA muss gemäß § 3a Abs. 4 NetzDG Inhalt, Zeitpunkt der Veröffentlichung des Inhalts, Nutzername, zuletzt verwendete IP-Adresse einschließlich Portnummer sowie den Zeitpunkt des letzten Zugriffs enthalten. Vier Wochen nach der Übermittlung der Daten an das BKA ist der Nutzer über die Übermittlung zu informieren, es sei denn, das BKA ordnet gemäß § 3a Abs. 6 S. 2 NetzDG an, dass die Übermittlung zurückzustellen ist. Neben den Änderungen des NetzDG wurden auch Änderungen des TKG und des BKAG erlassen, die entsprechende Übermittlungs- und Abrufbefugnisse normieren. Das BKA als solches fungiert als Zentralstelle und soll nach § 10a BKAG berechtigt sein, die Login-IP-Adressen der Urheber abzufragen. Damit soll das BKA die zuständige Strafverfolgungsbehörde feststellen können, jedoch nicht selbst für die Strafverfolgung zuständig sein.538 Die Meldepflicht gilt seit dem 1. Februar 2022. Inwieweit die Regelung Bestand haben wird, bleibt derzeit abzuwarten, denn Google hat im Juli 2021 vor dem Verwaltungsgericht Köln Feststellungsklage eingereicht. Ebenso wie Google haben auch der Facebook-Konzern Meta sowie Twitter und TikTok Klage gegen den § 3a NetzDG eingereicht.539 Insbesondere gibt Google an, dass die Neuregelung gegen datenschutzrechtliche Bestimmungen, die deutsche Verfassung sowie
537
Cornils, NJW 2021, 2465 (2467). Regierungsentwurf eines Gesetzes zur Bekämpfung des Rechtsextremismus und der Hasskriminalität, S. 16. 539 Beck-aktuell v. 01.02.2022, abrufbar unter: https://rsw.beck.de/aktuell/daily/mel dung/detail/aufschub-fuer-facebook-und-google-beim-netzdg-gegen-hassrede-im-netz; Hoppenstedt, TikTok wehrt sich dagegen, massenhaft Nutzerdaten ans BKA zu melden, Spiegel Online v. 26.01.2022, abrufbar unter: https://www.spiegel.de/netzwelt/netzpoli tik/netzdg-tiktok-wehrt-sich-dagegen-nutzerdaten-ans-bka-zu-melden-a-41c99419-6e214968-af26-0fdf4c438f63. 538
138
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
das Unionsrecht verstoße.540 In Betracht kommen vor allem Konflikte mit der Meinungsfreiheit aus Art. 11 Abs. 1 GRCh sowie mit dem Schutz personenbezogener Daten aus Art. 8 Abs. 1 GRCh. Hinsichtlich der Meinungsfreiheit werden insbesondere mögliche Chilling Effects durch die neue Meldepflicht befürchtet. In Bezug auf diesen Punkt kann auf das bereits Erörterte verwiesen werden.541 1. Beeinträchtigung des Schutzes personenbezogener Daten aus Art. 8 GRCh Im Folgenden soll untersucht werden, ob die Meldepflicht einen Verstoß gegen den in Art. 8 Abs. 1 GRCh normierten Schutz personenbezogener Daten bedeutet. Kritisch zu betrachten ist, wie auch schon hinsichtlich des Overblockings, die Prüfung der Inhalte durch Mitarbeiter, die nicht über eine juristische Ausbildung verfügen und zudem noch unter Zeitdruck stehen. Die Organisation HateAid befürchtet, dass aufgrund der Meldepflicht somit eine Vielzahl von nicht rechtswidrigen Inhalten, inklusive der dazugehörigen Nutzerinformationen, an das BKA weitergeleitet werden könnten, obwohl bis zu diesem Zeitpunkt noch keine staatliche Stelle einen Anfangsverdacht festgestellt habe. Darüber hinaus bliebe für die Nutzer unklar, wie lange die Daten gespeichert würden. Aufgrund der hohen Anzahl von Meldungen würde die Bearbeitung der Fälle längere Zeit erfordern und die Informationen würden für diese Zeit jedenfalls gespeichert.542 a) Eingriff in Art. 8 GRCh durch die Meldung an das BKA Hinsichtlich Schutzbereich und Eingriff ist auf die Ausführungen zum Overblocking zu verweisen.543 Insbesondere handelt es sich bei den Daten, die aufgrund der Meldepflicht des NetzDG übermittelt werden, um personenbezogene Daten der Nutzer. Darunter fällt auch die IP-Adresse, über welche die Nutzer identifiziert werden können.544 Ein Eingriff ist jedoch ausgeschlossen, wenn gemäß Art. 8 Abs. 2 S. 1 GRCh eine Einwilligung des Betroffenen in die Verarbeitung seiner Daten vorliegt.545 540 Frank, Zum erweiterten Netzwerkdurchsetzungsgesetz in Deutschland – Anmerkungen von YouTube, abrufbar unter: https://blog.youtube/intl/de-de/news-and-events/ zum-erweiterten-netzwerkdurchsetzungsgesetz-deutschland/. 541 Kapitel 3 A. II. 542 HateAid gGmbH, Stellungnahme zum Entwurf des Gesetzes zur Bekämpfung des Rechtsextremismus und der Hasskriminalität, S. 5 ff. 543 Kapitel 3 A. I. 5. d) cc) und dd). 544 EuGH, Urt. v. 19.10.2016, Rs. C-582/14, ECLI:EU:C:2016:779 Rn. 33 ff. – Breyer. 545 Jarass, EU-Grundrechte-Charta Art. 8 Rn. 9; Frenz, Handbuch Europarecht: Band 4, S. 1417; Voigt, Die datenschutzrechtliche Einwilligung, S. 281.
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
139
Dafür muss der Betroffene möglichst genau über den Zweck der Verarbeitung informiert werden. Die Einholung einer generellen Einwilligung ist hingegen nicht möglich.546 Eine Einwilligung der Nutzer sozialer Netzwerke in die Verarbeitung ihrer persönlichen Daten zum Zweck der Strafverfolgung liegt in der Regel nicht vor, da die Nutzer erst im Nachgang über die Weitergabe der Daten an das BKA informiert werden. Auch die Einwilligung im Rahmen der Nutzung des sozialen Netzwerks stellt keine Einwilligung in diesem Sinne dar, da die Weitergabe der Daten an das BKA nicht Teil der Plattformnutzung ist. Soweit keine Einwilligung gegeben ist, liegt ein Eingriff vor, dessen Rechtfertigung im Folgenden überprüft werden soll. b) Verhältnismäßigkeit der Meldepflicht Die Weiterleitung der Nutzerdaten in bestimmten Fällen soll der Stärkung der Strafverfolgung in sozialen Netzwerken dienen, da nach Ansicht des Gesetzgebers über die Löschung der Inhalte hinaus häufig keine strafrechtlichen Konsequenzen gezogen würden.547 Die Stärkung der Strafverfolgung stellt auch einen legitimen Zweck im Rahmen der Verhältnismäßigkeitsprüfung dar.548 Grundsätzlich ist die Übermittlung von Nutzerdaten zur Erleichterung der Strafverfolgung auch geeignet. Ohne eine solche Meldung würden die Strafverfolgungsbehörden in vielen Fällen keine Kenntnis von den strafrechtlich relevanten Inhalten erhalten.549 Dass dieser Zustand nicht zuletzt daraus resultiert, dass die Plattformbetreiber durch das NetzDG dazu angehalten werden, die Inhalte innerhalb von 24 Stunden nach Eingang einer Beschwerde zu entfernen, wird in der Gesetzesbegründung verschwiegen.550 Schwieriger zu beantworten ist die Frage, ob es mildere, jedoch gleich effektive Mittel gibt, um das vom Gesetzgeber verfolgte Ziel zu erreichen. Als ein milderes Mittel wäre der Vorschlag der Bundestagsfraktion Bündnis 90/Die Grünen zu nennen.551 Angeregt wurde ein zweistufiges Modell, bei dem in einem ersten Schritt zunächst nur der gemeldete Inhalt und erst im zweiten Schritt, auf Ersuchen des BKA, Angaben zum Nutzer übermittelt werden sollten.552 Einen ähnlichen Vorschlag präsentiert auch Ladeur, der empfiehlt, eine Datei mit anonymisierten Beschwerdeentscheidungen anzulegen und diese dem BKA zur Verfügung zu stellen.553 Bei Feststellung eines Rechtsverstoßes könnte das BKA 546
Jarass, EU-Grundrechte-Charta Art. 8 Rn. 9. BT-Drs. 19/17741, S. 1 f. 548 Näher dazu bereits unter Kapitel 3 A. IV. 1. b). 549 BT-Drs. 19/17741, S. 1 f. 550 Liesching, Karneval der Jakobiner: „Zum Schutze der Freiheit – Schafft sie ab!“, beck-blog v. 06.01.2020. 551 BT-Drs. 19/20163, S. 33. 552 BT-Drs. 19/20163, S. 33. 553 Ladeur, K&R 2020, 248 (251). 547
140
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
dann über das weitere Verfahren entscheiden.554 Diese zweistufigen Modelle führen jedoch zu einer zeitlichen Verzögerung mit der Folge, dass unter Umständen der Urheber des Inhalts nicht mehr ermittelt werden kann.555 Als weitere Variante käme daher das sogenannte Quick-Freeze-Verfahren in Betracht.556 Bei diesem Verfahren würden die Betreiber der sozialen Netzwerke verpflichtet, die Inhalte zu übermitteln und gleichzeitig die Bestandsdaten zu sichern, deren Übermittlung nur auf Anforderung des BKA bei Vorliegen eines Anfangsverdachts erfolgt.557 Letztlich stellt das Quick-Freeze-Verfahren jedoch kein eindeutig milderes Mittel dar.558 Die mit diesem Modell einhergehenden Datenübermittlungen sowie die Ermittlung der Identität des Nutzers bergen vergleichbare Risiken wie die direkte Übergabe der Daten an das BKA.559 Jedenfalls weniger eingriffsintensiv wäre, den Umweg über das BKA auszulassen und die Daten bei bestehendem Anfangsverdacht direkt an die zuständige Stelle weiterzuleiten. 560 Doch dies würde gleichzeitig einen größeren Aufwand bedeuten, da zunächst für jede Meldung die zuständige Staatsanwaltschaft ermittelt werden müsste, was im Ergebnis weniger effektiv wäre.561 Eine mildere und gleichzeitig gleichermaßen effektive Alternative, um das vom Gesetzgeber ausgerufene Ziel zu erreichen, ist insofern nicht ersichtlich. Für die Verhältnismäßigkeit der Übermittlung an das BKA spricht die Tatsache, dass damit eine erhebliche Vereinfachung der Strafverfolgung einhergeht.562 Auch ein generalpräventiver Effekt dürfte mit der Intensivierung der Strafverfolgung im Internet verbunden sein.563 Grundsätzlich ist eine präventive Funktion von Vorschriften im Bereich des Strafrechts erwünscht und zulässig.564 Im Fall des NetzDG dürfte dieser Effekt allerdings über das rein Präventive hinausgehen und zu weitgehenden Chilling Effects führen.565 Der Gedanke, dass Inhalte – die möglicherweise fälschlich als rechtswidrig eingestuft wurden – an das BKA 554
Ladeur, K&R 2020, 248 (251). Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 455; Bäcker, Rechtsgutachten, S. 20; Gessinger, K&R 2021, 541 (546). 556 Bäcker, Rechtsgutachten, S. 20 f.; Gessinger, K&R 2021, 541 (546). 557 Bäcker, Rechtsgutachten, S. 20; Gessinger, K&R 2021, 541 (546). 558 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 456; Bäcker, Rechtsgutachten, S. 21. 559 Bäcker, Rechtsgutachten, S. 21. 560 Holznagel, YouTube vs. das NetzDG, Verfassungsblog v. 27.07.2021. 561 Holznagel, YouTube vs. das NetzDG, Verfassungsblog v. 27.07.2021. 562 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 457. 563 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 457. 564 MüKoStGB/Radtke, Vorbemerkung zu § 38 Rn. 35 ff. 565 Siehe dazu Kapitel 3 A. II. 2. 555
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
141
übermittelt werden, samt Daten, die das Identifizieren des Nutzers ermöglichen, dürfte diesen in vielen Fällen davon abhalten, von seinen Rechten Gebrauch zu machen. Die Pflicht zur Übermittlung an das BKA bedeutet die Übermittlung immenser Datenmengen. Der Gesetzgeber rechnet immerhin mit 250.000 Meldungen jährlich, aus denen sich etwa 150.000 neue Ermittlungsverfahren ergeben könnten.566 Die zu erwartenden Datenmengen lassen an die EuGH-Urteile zur Vorratsdatenspeicherung denken, in denen der EuGH wiederholt betonte, dass eine anlasslose Vorratsspeicherung nicht mit Art. 7 und 8 GRCh vereinbar sei.567 Ein wesentlicher Unterschied der Meldung an das BKA zur Vorratsdatenspeicherung ist jedoch die Tatsache, dass die Speicherung der Daten nicht anlasslos geschieht.568 Denn die Meldepflicht betrifft nicht generell alle Inhalte, sondern nur solche, die nach Auffassung des sozialen Netzwerks rechtswidrig sind, womit die betroffenen Nutzer selbst durch das Veröffentlichen eines strafbaren Inhalts den Anlass zur Übermittlung der Daten setzen.569 Allerdings hat der Gesetzgeber selbst eingeräumt, dass von den erwarteten 250.000 Meldungen wohl 100.000 nicht zu einem Strafverfahren führen dürften.570 Damit wären bei etwa 40 % der Meldungen die Daten ohne weitere Verwendung übermittelt worden. Angesichts der Tatsache, dass das NetzDG einen deutlichen Anreiz zum Overblocking setzt, ist davon auszugehen, dass die Nutzer in einer beachtlichen Anzahl von Fällen eben nicht selbst den Anlass zur Übermittlung gesetzt haben, da es sich um rechtmäßige, überobligatorisch gelöschte Beiträge handelt.571 Zwar werden mit den Inhalten Daten erfasst, die der Nutzer selbst öffentlich gemacht hat und die Identität des Nutzers wird zudem erst durch eine weitere Abfrage offengelegt, die der Ermittlung der strafrechtlichen Relevanz nachgelagert ist.572 Doch in Anbetracht des besonderen Gewichts der Anonymität im Internet ist die in vielen Fällen wohl 566
BT-Drs. 19/17741, S. 30 f. EuGH, Urt. v. 08.04.2014, Rs. C-293/12, C-594/12, ECLI:EU:C:2014:238 – Digital Rights Ireland; Urt. v. 21.12.2016, Rs. C-203/15 und C-698/15, C-203/15, C-698/ 15, ECLI:EU:C:2016:970 – Tele2 Sverige; Urt. v. 06.10.2020, Rs. C-511/18, ECLI: EU:C:2020:791 – La Quadrature du Net u. a.; Urt. v. 06.10.2020, Rs. C-623/17, ECLI: EU:C:2020:790 – Privacy International. 568 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 457. 569 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 457. 570 BT-Drs. 19/17741, S. 30. 571 Gessinger, K&R 2021, 541 (546); DAV, Stellungnahme zum Referentenentwurf eines Gesetzes zur Bekämpfung der Hasskriminalität und des Rechtsextremismus, S. 4; Google, Stellungnahme zum vorgeschlagenen Gesetz zur Bekämpfung des Rechtsextremismus und der Hasskriminalität, S. 26. 572 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 456 f.; Gessinger, K&R 2021, 541 (546); Holznagel, YouTube vs. das NetzDG, Verfassungsblog v. 27.07.2021. 567
142
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
anlasslose Übermittlung von Daten, anhand derer der Nutzer jedenfalls in einem weiteren Schritt identifizierbar ist, nicht hinnehmbar. 2. Ergebnis Vor dem Hintergrund, dass in diesem Kontext vielfach gefordert wird, dass der Umgang mit Hasskriminalität im Internet eine originär staatliche Aufgabe verbleibt, erscheint eine Weiterleitung strafrechtlich relevanter Inhalte an die Strafverfolgungsbehörden sinnvoll.573 Die konkrete Ausgestaltung im NetzDG ist mit dem Grundrecht auf den Schutz personenbezogener Daten aus Art. 8 Abs. 1 GRCh jedoch nicht zu vereinbaren. Private Unternehmen werden bußgeldbewehrt verpflichtet, Daten ihrer Nutzer an das BKA zu übermitteln, wobei davon auszugehen ist, dass eine Vielzahl der betroffenen Inhalte fälschlicherweise als rechtswidrig eingestuft und somit anlasslos übermittelt werden.
VI. Auskunft über Bestandsdaten Um die Durchsetzung zivilrechtlicher Ansprüche zu ermöglichen, hat der Gesetzgeber im Zuge des NetzDG-Erlasses auch einen Auskunftsanspruch im TMG kodifiziert. 1. Vereinbarkeit des § 21 Abs. 2 TTDSG mit der DS-GVO Mit dem NetzDG ist auch die Auskunft über Bestandsdaten in § 14 Abs. 3 und 4 TMG eingeführt worden, die wortgleich in § 21 Abs. 2 und 4 TTDSG übernommen wurde. Damit einher geht jedoch nicht die Beantwortung der Frage, ob diese Regelung überhaupt im Einklang mit der DS-GVO steht oder etwa von deren Anwendungsvorrang verdrängt wird. a) Regelungsbefugnis der Mitgliedstaaten aus Art. 6 Abs. 4 DSGVO? Nach § 21 Abs. 2 TTDSG dürfen soziale Netzwerke im Einzelfall Auskunft über Bestandsdaten erteilen, „soweit dies zur Durchsetzung zivilrechtlicher Ansprüche wegen der Verletzung absolut geschützter Rechte aufgrund rechtswidriger Inhalte, die von § 10a Absatz 1 des Telemediengesetzes oder § 1 Absatz 3 des Netzwerkdurchsetzungsgesetzes erfasst werden, erforderlich ist.“ § 21 Abs. 3 und 4 TTDSG enthalten Verfahrensvorschriften, insbesondere einen Richtervorbehalt. Die Vorschrift des § 21 Abs. 2 TTDSG könnte jedoch mit dem Zweckbindungsgrundsatz aus Art. 5 Abs. 1 lit. b DS-GVO in Widerspruch stehen.574
573
Siehe zur Privatisierung der Rechtsdurchsetzung Kapitel 3 A. III. Eifert/von Landenberg-Roberg/Theß/Wienfort, Netzwerkdurchsetzungsgesetz in der Bewährung, S. 164. 574
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
143
Danach müssen personenbezogene Daten „für festgelegte, eindeutige und legitime Zwecke erhoben werden und dürfen nicht in einer mit diesen Zwecken nicht zu vereinbarenden Weise weiterverarbeitet werden“. Die Bestandsdaten der Nutzer, die von den sozialen Netzwerken erhoben werden, sind regelmäßig für die Nutzung des sozialen Netzwerks erhoben worden, nicht aber zur Weitergabe an Dritte.575 Insofern liegt in der Weitergabe zur Durchsetzung zivilrechtlicher Ansprüche eine Zweckänderung. Eine solche kann gemäß Art. 6 Abs. 4 DSGVO unter anderem aufgrund der Einwilligung der betroffenen Person sowie aufgrund einer Rechtsvorschrift der Mitgliedstaaten zulässig sein. Eine entsprechende Rechtsvorschrift muss in einer demokratischen Gesellschaft notwendig sowie verhältnismäßig sein und eine Maßnahme zum Schutz der in Art. 23 Abs. 1 DS-GVO genannten Ziele darstellen. Insofern kommt es darauf an, ob die Mitgliedstaaten nach Art. 6 Abs. 4 DS-GVO befugt sind, eine Zweckänderung zu gestatten. aa) Zweckänderungsbefugnis nach Art. 6 Abs. 4 DS-GVO Im Folgenden sollen die in der Literatur und vom BGH vertretenen Positionen zur Befugnis der Mitgliedstaaten, eine Zweckänderung zu gestatten, dargestellt werden. (1) Fehlende Regelungskompetenz Von Teilen der Literatur wird vertreten, dass durch den Art. 6 Abs. 4 DS-GVO dem nationalen Gesetzgeber nur eine Regelungsbefugnis für den Bereich der Verarbeitung nach Art. 6 Abs. 1 lit. c und e DS-GVO (rechtliche Verpflichtung und öffentliche Aufgabe) zukommen sollte.576 Zwar könne man den Wortlaut des Art. 6 Abs. 4 DS-GVO bei isolierter Betrachtung dahingehend verstehen, dass es sich um eine umfassende Öffnungsklausel handele, ein solches Verständnis der Vorschrift würde aber das Ziel der DS-GVO, die Harmonisierung des Datenschutzrechts, konterkarieren.577 Damit wäre die Vorschrift des § 21 Abs. 2–4 TTDSG schon nicht von der Befugnis des Art. 6 DSGVO erfasst und könnte keine taugliche Rechtsgrundlage für die Herausgabe von Bestandsdaten darstellen.
575 Eifert/von Landenberg-Roberg/Theß/Wienfort, Netzwerkdurchsetzungsgesetz in der Bewährung, S. 164. 576 Ehmann/Selmayr/Heberlein, DS-GVO Art. 6 Rn. 51 f. Kühling/Buchner/Buchner/Petri, DS-GVO Art. 6 Rn. 199 f.; Wolff/Brink/Albers/Veit, DS-GVO Art. 6 Rn. 112; Kühling/Martini/Heberlein/Kühl/Nink/Weinzierl/Wenzel, Die DSGVO und das nationale Recht, S. 43 f. 577 Kühling/Buchner/Buchner/Petri, DS-GVO Art. 6 Rn. 199 f.
144
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
(2) Art. 6 Abs. 4 DS-GVO als eigenständige Öffnungsklausel Die andere Ansicht geht davon aus, dass Art. 6 Abs. 4 DS-GVO als eigenständige Öffnungsklausel zu betrachten ist, welche die Mitgliedstaaten ermächtigt, eigene Rechtsvorschriften zur Zweckänderung zu erlassen.578 Diese Ansicht vertritt auch der BGH in seinem Beschluss vom 26. September 2019.579 In diesem Fall begehrte die Antragstellerin Auskunft über Bestandsdaten vom Facebook-Messenger, wobei sie selbst Facebook und den entsprechenden Messenger nicht nutzte. Über den Messenger wurden Nachrichten mit beleidigendem Inhalt über die Antragstellerin verschickt. Diese beantragte Facebook zu gestatten, ihr Auskunft über die Bestandsdaten der entsprechenden Nutzerkonten, welche die Nachrichten verschickt hatten, zu geben. Sie wollte zivilrechtliche Ansprüche geltend machen. Die zentralen Fragen, mit denen sich der BGH zu beschäftigen hatte, waren die internationale Zuständigkeit des Gerichts, die Auslegung des Anwendungsbereichs des § 14 Abs. 3 TMG sowie die Vereinbarkeit des § 14 Abs. 3–4 TMG mit der DS-GVO. In dieser Arbeit soll nur auf die dritte Frage, das Verhältnis des § 14 Abs. 3–4 TMG, der Vorgängervorschrift zu § 21 Abs. 2–4 TTDSG zur DSGVO, eingegangen werden. Der BGH ist in seiner Entscheidung zu dem Ergebnis gekommen, dass der § 14 Abs. 3–4 TMG mit der DS-GVO vereinbar sei. Dabei stützt er seine Argumentation im Wesentlichen auf den Wortlaut der Vorschrift, die Systematik sowie die Erwägungsgründe der DS-GVO. Zunächst weist der BGH darauf hin, dass ein Anwendungsvorrang der DSGVO überhaupt nur in Betracht komme, wenn ein Widerspruch zum nationalen deutschen Recht bestünde.580 Auf diesem Grundsatz basierend kommt der BGH zu dem Schluss, dass § 14 Abs. 3–4 TMG keine Unionsrechtswidrigkeit begründe. § 14 Abs. 3–4 TMG erlaube unter bestimmten Voraussetzungen eine Zweckänderung, was mit der DS-GVO im Einklang stünde, da diese eine Zweckänderung aufgrund einer dies gestattenden Rechtsvorschrift vorsehe. § 14 Abs. 3–4 TMG erfülle die Anforderungen an eine solche Rechtsvorschrift insoweit, als dass sie entsprechend Art. 6 Abs. 4 DS-GVO eine in einer demokratischen Gesellschaft notwendige und verhältnismäßige Maßnahme zum Schutz der in Art. 23 Abs. 1 DS-GVO genannten Ziele darstelle.581 Die Ansicht, dass 578 Gola/Schulz, DS-GVO Art. 6 Rn. 215; Simitis/Hornung/Spiecker, gen. Döhmann/Roßnagel, DSGVO Art. 6 Abs. 4 Rn. 24; Taeger/Gabel/Taeger, DS-GVO Art. 6 Rn. 167; Döpke/Culik, ZD 2017, 226 (229); Ziegenhorn/Heckel, NVwZ 2016, 1585 (1590). 579 BGH, Urt. v. 24.09.2019 – VI ZB 39/18, BGHZ 223, 168. 580 BGH, Urt. v. 24.09.2019 – VI ZB 39/18, BGHZ 223, 168 Rn. 32. 581 BGH, Urt. v. 24.09.2019 – VI ZB 39/18, BGHZ 223, 168 Rn. 33.
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
145
den Mitgliedstaaten nur im Bereich des Art. 6 Abs. 1 lit. c und e DS-GVO eine Regelungskompetenz zugestanden werden solle, sei mit dem eindeutigen Wortlaut der Vorschrift nicht vereinbar.582 Aus dieser Sicht wäre der § 21 Abs. 2–4 TTDSG mit der DS-GVO zu vereinbaren. bb) Diskussion Zunächst sprechen Sinn und Zweck der Vorschrift des Art. 6 Abs. 4 DS-GVO für eine restriktive Auslegung, da mit dieser Regelung der effektive Schutz personenbezogener Daten verfolgt wird.583 Vertreter dieser Ansicht argumentieren, dass ein Absenken der Schutzstandards durch eine umfassende Öffnungsklausel schließlich nicht gewollt sein könne.584 Vor diesem Hintergrund wäre eine Beschränkung der Regelungsbefugnis auf die Fälle des Art. 6 Abs. 1 lit. c und e DS-GVO angezeigt.585 Der Art. 6 Abs. 4 DS-GVO müsse im Zusammenhang mit Art. 6 Abs. 2 und 3 DS-GVO gelesen werden, denn Abs. 4 stelle nur Voraussetzungen für die Befugnisse nach Abs. 2 und 3 auf und sei keine eigenständige Öffnungsklausel.586 Aus der Zusammenschau ergebe sich, dass die Mitgliedstaaten nur in den Fällen des Abs. 1 lit. c und e die Befugnis haben, Spezifizierungen zu erlassen.587 Damit solle nur für den öffentlichen Bereich eine größere Flexibilität geschaffen werden, nicht aber neue Zweckänderungsgründe für den privaten Bereich.588 Dafür spreche auch der Erwägungsgrund 50 S. 3 der DS-GVO, der sich auf Art. 6 Abs. 1 lit e bezieht und ausschließlich für diesen Fall die Konkretisierung der Aufgaben und Zwecke durch die Mitgliedstaaten vorsieht.589 Doch die systematischen Argumente für die einschränkende Auslegung überzeugen nicht. Nach Auffassung des BGH beziehen sich die Abs. 2 und 3 des Art. 6 DS-GVO auf den Abs. 1 und konkretisierten die dort normierte Zulässigkeit der Datenverarbeitung zu den ursprünglichen Zwecken. Der Art. 6 Abs. 1 DS-GVO betreffe gerade nicht das in Art. 5 Abs. 1 lit. b DS-GVO enthaltene Zweckänderungsverbot. Dieses finde seine Einschränkung erst in Abs. 4, in dem ausdrücklich auf Rechtsvorschriften verwiesen werde, die den Zielen des Art. 23 Abs. 1 DS-GVO genügen. Der BGH argumentiert, dass die Verweisung auf den Art. 23 Abs. 1 DS-GVO nur Sinn ergebe, wenn Art. 6 Abs. 4 DS-GVO eigen582
BGH, Urt. v. 24.09.2019 – VI ZB 39/18, BGHZ 223, 168 Rn. 35 f. Kühling/Martini/Heberlein/Kühl/Nink/Weinzierl/Wenzel, Die DSGVO und das nationale Recht, S. 43. 584 Wolff/Brink/Albers/Veit, DS-GVO Art. 6 Rn. 112. 585 Kühling/Martini/Heberlein/Kühl/Nink/Weinzierl/Wenzel, Die DSGVO und das nationale Recht, S. 43. 586 Kühling/Buchner/Buchner/Petri, DS-GVO Art. 6 Rn. 200. 587 Ehmann/Selmayr/Heberlein, DS-GVO Art. 6 Rn. 51. 588 Wolff/Brink/Albers/Veit, DS-GVO Art. 6 Rn. 112. 589 Kühling/Martini/Heberlein/Kühl/Nink/Weinzierl/Wenzel, Die DSGVO und das nationale Recht, S. 44. 583
146
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
ständig zu lesen sei. Andernfalls hätte die Verweisung im Abs. 4 auf die Rechtsgrundlagen des Abs. 3 gereicht.590 Zudem zieht der BGH den Erwägungsgrund 50 S. 7 der DS-GVO heran, der seine Auslegung unterstütze. Die Formulierung insbesondere zeige, dass neben den Zielen des allgemeinen Interesses die Ziele des Art. 23 Abs. 1 lit. i und j DSGVO. („die Durchsetzung zivilrechtlicher Ansprüche“) nicht ausgeschlossen würden.591 Für eine einschränkende Interpretation könne jedoch der Wortlaut des Art. 6 Abs. 1 DS-GVO sprechen.592 Denn die Formulierung die, interpretiert als „jede Verarbeitung personenbezogener Daten“, sei nach der einschränkenden Auffassung dahingehend eindeutig, dass mindestens ein Rechtfertigungstatbestand im Sinne von Art. 6 Abs. 1 und 2 erfüllt sein müsse.593 Das würde bedeuten, dass sich auch die vom nationalen Gesetzgeber erlassenen Zweckänderungstatbestände nach den Vorgaben der Abs. 2 und 3 und nach den dort vorgesehenen Bereichen richten müssten.594 Den Wortlaut kann man jedoch auch anders verstehen. So sei der Wortlaut nach Interpretation des BGH vielmehr dahingehend eindeutig, dass Art. 6 Abs. 4 die Mitgliedstaaten berechtige, durch nationale Vorschriften eine zweckändernde Verarbeitung von bereits erhobenen Daten zu gestatten.595 Diese Auslegung des Wortlauts überzeugt Buchner und Petri hingegen nicht. Ihrer Ansicht nach würde es dem Wortlaut nicht widersprechen, die Vorschrift eng auszulegen und eine zweckändernde Verarbeitung nur zum Zwecke des öffentlichen Interesses zu erlauben. Die Formulierung in einer demokratischen Gesellschaft lasse – bei einer unionsrechtsfreundlichen Auslegung – nur die Interpretation zu, dass ein öffentliches Interesse im Sinne eines Gemeinwohlbezugs vorliegen müsse.596 Diese Interpretation erscheint allerdings keineswegs zwingend. Vielmehr kann der Ausdruck dahingehend verstanden werden, dass damit die gesellschaftlichen Werte im Sinne gemeinsamer Leitprinzipien zu verstehen sind, wie sie auch in Art. 2 S. 2 EUV sowie in den Schrankenbestimmungen der EMRK aufgeführt werden.597 Der Wortlaut des Art. 6 Abs. 4 DS-GVO, enthält insofern keinerlei Hinweis auf eine Beschränkung auf die Fälle des Art. 6 Abs. 1 lit. c und e.598 Das weite Verständnis, also Art. 6 Abs. 4 DS-GVO als umfassende Öffnungsklausel, berge laut der Gegenauffassung allerdings das Risiko, dass den Mitglied590 591 592 593 594 595 596 597 598
BGH, Urt. v. 24.09.2019 – VI ZB 39/18, BGHZ 223, 168 Rn. 37. BGH, Urt. v. 24.09.2019 – VI ZB 39/18, BGHZ 223, 168 Rn. 39. Wolff/Brink/Albers/Veit, DS-GVO Art. 6 Rn. 113. Wolff/Brink/Albers/Veit, DS-GVO Art. 6 Rn. 113. Wolff/Brink/Albers/Veit, DS-GVO Art. 6 Rn. 113. BGH, Urt. v. 24.09.2019 – VI ZB 39/18, BGHZ 223, 168 Rn. 35. Kühling/Buchner/Buchner/Petri, DS-GVO Art. 6 Rn. 200. Niedobitek/Sommermann, Europarecht § 3 Rn. 19. Döpke/Culik, ZD 2017, 226 (229).
A. Beeinträchtigung der Rechte der Netzwerkmitglieder
147
staaten durch Art. 6 Abs. 4 DS-GVO Regelungsbefugnisse in einem Bereich zugewiesen würden, welche die Union ihnen nicht habe zugestehen wollen.599 Damit wären die Regelungsbefugnisse im Bereich der Erstverarbeitung und der Zweckänderung nicht mehr im Gleichlauf.600 Dies würde für eine restriktive Auslegung sprechen, sodass eine Zweckänderung durch die Mitgliedstaaten nur in den Bereichen ermöglicht werden kann, in denen sie auch nach Art. 6 Abs. 1– 3 DS-GVO eine nationalstaatliche Regelungsbefugnis haben.601 Auch mit diesen Bedenken setzt sich der BGH auseinander. Zwar teilt der BGH die Auffassung, dass dadurch die Regelungsbefugnisse der Union und die der Mitgliedstaaten in Bezug auf die Ersterhebung und auf die Zweckänderung voneinander abweichen würden. Der BGH sieht jedoch genau in dieser Abweichung eine Notwendigkeit. Die Regelungsbefugnisse seien gerade im Hinblick auf die von Art. 23 Abs. 1 lit. i DS-GVO verfolgten Ziele notwendig, was der vorliegende Fall demonstriere.602 Buchner und Petri kritisieren, dass sich der BGH nicht mit dem Umstand auseinandergesetzt habe, dass Art. 6 Abs. 1 DS-GVO einen abschließenden Katalog von Verarbeitungsgründen enthält und damit den Art. 8 Abs. 2 S. 1 GRCh umsetzt. Außerhalb der Vorschrift des Art. 6 Abs. 1 DS-GVO bestünde demnach kein Raum für weitere Verarbeitungsgrundlagen.603 Allerdings hat der BGH im Rahmen der Auseinandersetzung mit dem Auseinanderfallen der Regelungsbefugnisse von Union und Mitgliedstaaten dargelegt, dass damit lediglich die Befugnisse für Ersterhebung und Zweckänderung voneinander abwichen. Es handele sich bei beiden Bereichen um unterschiedliche Ausgangsregelungen. Zum einen das „Verbot der mit den Erhebungszwecken nicht vereinbaren Weiterverarbeitung in Art. 5 Abs. 1 Buchst. b DS-GVO“ und zum anderen „verschiedene Rechtmäßigkeitstatbestände in Art. 6 Abs. 1 DS-GVO für die Ersterhebung und eine mit dem Zweck der (Erst-)Erhebung vereinbaren Verarbeitung“.604 Damit besteht eine Diskrepanz in der Reichweite der Öffnungsklauseln für die Verarbeitung zum ursprünglichen Zweck und der Öffnungsklausel zur Zweckänderung.605 Im Ergebnis überzeugen insofern die Argumente für das Verständnis des Art. 6 Abs. 4 DS-GVO als eigenständige Öffnungsklausel, welche die Mitgliedstaaten ermächtigt, eigene Rechtsvorschriften zur Zweckänderung zu erlassen. Insbeson599 Kühling/Martini/Heberlein/Kühl/Nink/Weinzierl/Wenzel, Die DSGVO und das nationale Recht, S. 43. 600 Kühling/Martini/Heberlein/Kühl/Nink/Weinzierl/Wenzel, Die DSGVO und das nationale Recht, S. 43 f. 601 Kühling/Martini/Heberlein/Kühl/Nink/Weinzierl/Wenzel, Die DSGVO und das nationale Recht, S. 44. 602 BGH, Urt. v. 24.09.2019 – VI ZB 39/18, BGHZ 223, 168 Rn. 38. 603 Kühling/Buchner/Buchner/Petri, DS-GVO Art. 6 Rn. 200. 604 BGH, Urt. v. 24.09.2019 – VI ZB 39/18, BGHZ 223, 168 Rn. 38. 605 Döpke/Culik, ZD 2017, 226 (229).
148
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
dere Wortlaut und Systematik sprechen eine eindeutige Sprache, die im Grunde diese Interpretation aufzwingt. Dieses Ergebnis überzeugt auch vor dem Hintergrund, dass die Öffnungsklausel eine gewisse Flexibilität bietet, neue präzise und risikoadäquate Regelungen zu schaffen.606 Insbesondere in der Onlinewelt sind neue Risiken zu erwarten und eine entsprechende Anpassungsmöglichkeit erforderlich. b) Genügt § 21 Abs. 2–4 TTDSG dem Art. 6 Abs. 4 DS-GVO? Zuletzt ist zu überprüfen, ob die Regelungen des § 21 Abs. 2–4 TTDSG den Vorgaben des Art. 6 Abs. 4 i. V.m Art. 23 Abs. 1 DS-GVO genügen. Die Regelung müsste demnach eine in einer demokratischen Gesellschaft notwendige und verhältnismäßige Maßnahme zum Schutz der in Art. 23 Abs. 1 DS-GVO genannten Ziele sein und den Wesensgehalt der Grundrechte und Grundfreiheiten achten. Von den in Art. 23 Abs. 1 DS-GVO relativ weit gefassten Zielen muss der § 21 Abs. 2–4 TTDSG mindestens eines erfüllen.607 Die Notwendigkeit der Maßnahme liegt darin, dass ohne sie eine Auskunft über die Daten des Verletzers zur Verfolgung und Durchsetzung gerichtlicher Ansprüche nicht möglich wäre.608 Weiterhin sind die Anforderungen des Art. 23 Abs. 2 lit. a–h DS-GVO durch die Angaben in § 21 Abs. 2–4 TTDSG erfüllt.609 2. Ergebnis Insbesondere der Wortlaut und die systematische Stellung des Art. 6 Abs. 4 DS-GVO sprechen dafür, ihn als eigenständige Öffnungsklausel einzuordnen. Zudem eröffnet dies den Mitgliedstaaten die Möglichkeit, flexibel auf auftretende Risiken zu reagieren. Der § 21 Abs. 2–4 TTDSG steht daher nicht im Widerspruch zur DS-GVO, da er im Übrigen auch den Vorgaben des Art. 23 Abs. 2 DS-GVO entspricht.
VII. Zwischenfazit zur Beeinträchtigung der Nutzerrechte Im ersten Teil dieses Kapitels wurde untersucht, ob die Vorschriften des NetzDG die Rechte der Nutzer sozialer Netzwerke verletzen. Im Rahmen der Untersuchung hat sich gezeigt, dass die Regelungen des NetzDG die Meinungsfreiheit der Nutzer aus Art. 11 Abs. 1 GRCh verletzen, denn das NetzDG setzt deutliche Anreize zum Overblocking. Intensiviert wird der Eingriff in die Rechte der Nutzer durch zu befürchtende Chilling Effects, die für sich genommen keine
606 Simitis/Hornung/Spiecker, gen. Döhmann/Roßnagel, DSGVO Art. 6 Abs. 4 Rn. 2. 607 Döpke/Culik, ZD 2017, 226 (229). 608 BGH, Urt. v. 24.09.2019 – VI ZB 39/18, BGHZ 223, 168 Rn. 41. 609 BGH, Urt. v. 24.09.2019 – VI ZB 39/18, BGHZ 223, 168 Rn. 41.
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
149
selbstständige Verletzung der Meinungsfreiheit bedeuten. Die Indienstnahme der Anbieter sozialer Netzwerke zur Rechtsdurchsetzung hingegen ist als solche nicht zu beanstanden, sollte jedoch von entsprechenden Verfahrensregeln zum Ausgleich verschiedener Nutzerinteressen flankiert werden. Dies hat der deutsche Gesetzgeber bislang versäumt. Darüber hinaus verstößt das NetzDG auch gegen das Recht auf Schutz der personenbezogenen Daten der Nutzer aus Art. 8 Abs. 1 GRCh. Sowohl die Sicherung von Inhalten zu Beweiszwecken aus § 3 Abs. 2 Nr. 4 NetzDG und die Dokumentationspflicht aus § 3 Abs. 3 NetzDG als auch die Pflicht zur Meldung bestimmter Inhalte an das BKA aus § 3a NetzDG verstoßen gegen dieses Recht. Der Gesetzgeber muss sich auch in Bezug auf diese Regelungen Versäumnisse vorwerfen lassen. Denn die jeweiligen Pflichten werden nicht von Verfahrensvorgaben, insbesondere hinsichtlich Umfang und Dauer der Speicherung, begleitet, sodass den Rechten der Nutzer nicht ausreichend Rechnung getragen wird.
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke Während sich der vorherige Abschnitt den Rechten der Nutzer widmete, soll im Folgenden auf die Rechte der Anbieter sozialer Netzwerke eingegangen werden. Zunächst werden etwaige Verstöße gegen die in der Grundrechtecharta garantierten Rechte der Anbieter sozialer Netzwerke sowie Verstöße gegen die Grundfreiheiten behandelt. Ein weiteres Augenmerk liegt auf der Frage, ob das NetzDG gegen die Vorgaben der ECRL hinsichtlich des Herkunftslandprinzips sowie der Haftungsbeschränkung aus Art. 14 ECRL verstößt.
I. Beschränkung der Tätigkeiten sozialer Netzwerke durch die Compliance-Pflichten des NetzDG Die Regelungen des NetzDG adressieren unmittelbar die Anbieter sozialer Netzwerke; den Betreibern werden umfassende Compliance-Pflichten, betreffend den Umgang mit rechtswidrigen Inhalten auf der Plattform, auferlegt. Die dadurch bedingten Eingriffe in die Grundrechte und Grundfreiheiten der Plattformbetreiber sollen im Folgenden untersucht werden. 1. Vereinbarkeit der Beschränkungen mit der Medienfreiheit aus Art. 11 Abs. 2 GRCh An dieser Stelle soll überprüft werden, ob eine Verletzung der Medienfreiheit aus Art. 11 Abs. 2 GRCh gegeben ist. Zunächst ist zu klären, inwieweit die sozialen Netzwerke vom Schutzbereich dieses Grundrechts erfasst sind und sodann wird untersucht, ob etwaige Einschränkungen gerechtfertigt werden können.
150
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
a) Soziale Netzwerke im Gewährleistungsbereich der Medienfreiheit Im Folgenden wird zunächst der Schutzbereich der Medienfreiheit kurz umrissen und anschließend überprüft, ob soziale Netzwerke vom Schutzbereich erfasst werden. aa) Gewährleistungsgehalt des Art. 11 Abs. 2 GRCh Anders als in der EMRK ist die Medienfreiheit in Art. 11 Abs. 2 GRCh einer eigenen Regelung zugeführt worden. Die Medienfreiheit des Art. 11 Abs. 2 GRCh geht über den individuellen Schutz des Art. 11 Abs. 1 GRCh hinaus und schützt die Massenmedien in ihrer Funktion für die öffentliche Meinungsbildung. In Abgrenzung zu der Meinungsfreiheit schützt die Medienfreiheit die Kommunikationsinfrastrukturen und damit deren Anbieter immer dann, wenn die „medienspezifische Vermittlungsleistung“ betroffen ist.610 In den Schutzbereich von Art. 11 Abs. 2 GRCh fallen Medien im Sinne von Massenmedien.611 Von diesen spricht man, wenn eine Auswahl und Aufbereitung von Inhalten sowie deren Übermittlung an eine unbestimmte Personenmehrheit stattfindet, wobei sowohl die Anzahl als auch die Identität der Empfänger offen sein muss.612 Dies gilt auch für neue Medien im Internet, sofern deren Tätigkeit von der Mediendefinition erfasst ist, also eine Auswahl und Aufbereitung der Inhalte für eine bestimmte Personenmehrheit vorgenommen wird.613 Diese Technologieoffenheit ermöglicht auch die Einbeziehung künftiger Medienformen in den Schutzbereich.614 Geschützt werden, unabhängig von Inhalt und Qualität der Inhalte, sämtliche mit der typischen Medienarbeit verbundenen Tätigkeiten, wie beispielsweise die Informationsbeschaffung, die Verbreitung der Inhalte sowie der Vertrieb inklusive dazugehöriger Werbetätigkeit.615 Grundrechtsträger der Medienfreiheit sind sowohl natürliche Personen als auch juristische Personen und Personenvereinigungen, insbesondere gehören dazu Medienunternehmen.616
610
Grabenwarter/Walter, § 13 Rn. 22; Jarass, EU-Grundrechte-Charta Art. 11 Rn. 17. Heselhaus/Nowak/Kühling, § 28 Rn. 9; Jarass, EU-Grundrechte-Charta Art. 11 Rn. 17. 612 Grabenwarter/Walter, § 13 Rn. 22; Jarass, EU-Grundrechte-Charta Art. 11 Rn. 17. 613 Jarass, EU-Grundrechte-Charta Art. 11 Rn. 17; Meyer/Hölscheidt/Bernsdorff, GRCh Art. 11 Rn. 18; Frenz, Handbuch Europarecht: Band 4 Rn. 1973. 614 Meyer/Hölscheidt/Bernsdorff, GRCh Art. 11 Rn. 18; Frenz, Handbuch Europarecht: Band 4, Rn. 1991. 615 Gersdorf/Paal/Cornils, EU-GRCharta Art. 11 Rn. 32; Jarass, EU-GrundrechteCharta Art. 11 Rn. 18. 616 Jarass, EU-Grundrechte-Charta Art. 11 Rn. 19; Meyer/Hölscheidt/Bernsdorff, GRCh Art. 11 Rn. 23. 611
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
151
bb) Einordnung sozialer Netzwerke Die oben genannten Voraussetzungen müssen hinsichtlich der sozialen Netzwerke erfüllt sein, damit der Schutzbereich des Art. 11 Abs. 2 GRCh eröffnet ist. Zuvorderst ist die Abgrenzung zwischen der Individual- und der Massenkommunikation vorzunehmen, denn nur die Massenkommunikation wird vom Art. 11 Abs. 2 GRCh geschützt, während die Individualkommunikation dem Schutzbereich der Meinungsfreiheit zuzuordnen ist. Gegen die Annahme, dass es sich bei sozialen Netzwerken um ein Medium zur Massenkommunikation handelt, spricht, dass den Nutzern regelmäßig ein personalisierter News-Feed angeboten wird, der für jeden Nutzer persönlich erstellt wird.617 Die Personalisierung lässt vermuten, dass eine Individualkommunikation zwischen dem Anbieter der Plattform und dem Nutzer der Plattform vorliegt.618 Charakteristisch für die Individualkommunikation ist jedoch der gegenseitige Austausch der Kommunikationspartner miteinander; dieser findet bei sozialen Netzwerken zwischen Anbieter und Nutzer gerade nicht statt.619 Es werden stattdessen einseitig Bedingungen vom Anbieter geschaffen.620 Die Einflussnahme des Nutzers erschöpft sich darin, einzelne Personen oder Unternehmen zu abonnieren, einen darüberhinausgehenden Einfluss auf die Auswahl der Inhalte hat er jedoch nicht. Ohnehin wird der Nutzer in diesem Prozess nicht als Individuum wahrgenommen, sondern stellt vielmehr einen Datensatz dar, der vom Algorithmus weiterverarbeitet wird.621 Grundsätzlich steht ein gewisser Grad der Personalisierung der Qualifizierung als Massenmedium auch nicht entgegen. Denn auch bei Presseerzeugnissen sowie im Rundfunk werden Inhalte nach den erwarteten Interessen der Rezipienten ausgewählt.622 Darüber hinaus muss eine unbestimmte Personenmehrheit adressiert werden. Hierfür könnte die Notwendigkeit der Registrierung auf der Plattform ein Hindernis darstellen. Doch zum einen ist die Registrierung nicht bei allen Plattformen zwingend notwendig, um Inhalte jedenfalls einsehen zu können. Zum anderen gibt es auch bei anderen Medienarten Zugangsbeschränkungen (beispielsweise
617 Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 47; Gersdorf, MMR 2017, 439 (445), Fn. 57. 618 Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 47; Hartl, Suchmaschinen, Algorithmen und Meinungsmacht, S. 76. 619 Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 47 f.; Hartl, Suchmaschinen, Algorithmen und Meinungsmacht, S. 77. 620 Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 80; Held, Online-Angebote öffentlichrechtlicher Rundfunkanstalten, S. 75. 621 Hoffmann-Riem, AöR 142 (2017), 1 (12 f.). 622 Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 83.
152
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
muss eine Geldzahlung erfolgen), ohne dass die Eigenschaft als Massenmedium entfiele.623 Ein weiteres Kriterium für die Zuordnung zum Schutzbereich ist, dass der Anbieter eine Auswahl und Aufbereitung der Inhalte vornehmen muss. Sofern es sich um eine reine Weiterleitung von Inhalten handelt, ist dieses Kriterium nicht gegeben. Die Plattformbetreiber nehmen jedoch einen erheblichen Einfluss auf die äußeren Rahmenbedingungen der Präsentation der Inhalte.624 Weitere Voraussetzungen für die Nutzung werden auch in den Gemeinschaftsstandards festgelegt. Mit dem Vorbehalt, Nachrichten, die nicht den Plattformregeln entsprechen, zu löschen, üben die Anbieter eine immense Kontrolle über die Inhalte aus.625 Zudem findet auch eine Priorisierung von Inhalten statt. Allerdings ist diese technischer Natur, sie erfolgt mittels algorithmischer Anwendungen. Hinter diesen Algorithmen steckt wiederum eine Programmierleistung, wodurch die menschliche Handlung also keineswegs entfällt, sondern lediglich zeitlich vorgelagert wird.626 Dass es sich bei den Inhalten regelmäßig um fremde Inhalte handelt, ist für die Einordnung unschädlich. Auch die Anbieter klassischer Medien bedienen sich häufig fremder Inhalte, zum Beispiel der Meldungen von Presseagenturen.627 Im Ergebnis sind die vom NetzDG adressierten sozialen Netzwerke vom Schutzbereich der Medienfreiheit aus Art. 11 Abs. 2 GRCh erfasst. b) Eingriff in die Medienfreiheit durch das NetzDG In das Recht der Medienfreiheit nach Art. 11 Abs. 2 GRCh wird eingegriffen, wenn die geschützten Tätigkeiten erschwert oder ganz verhindert werden sowie bei mittelbaren oder faktischen Beeinträchtigungen.628 Schon dadurch, dass den Betreibern umfassende Pflichten für den Umgang mit Beschwerden über rechtswidrige Inhalte, Pflichten zur Erstellung von Transparenzberichten sowie zur Benennung eines inländischen Zustellungsbevollmächtigten und einer empfangsberechtigten Person auferlegt werden, liegt ein Eingriff 623 Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 79; Hoffmann-Riem, AfP 1996, 9 (11). 624 Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 51; Bock, Die Übertragbarkeit der Kommunikationsfreiheiten des Artikel 5 GG auf das Internet, S. 231. 625 Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 51. 626 Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 93. 627 Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 86. 628 Heselhaus/Nowak/Kühling, § 28 Rn. 60; Jarass, EU-Grundrechte-Charta Art. 11 Rn. 22.
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
153
vor. Denn die Betreiber der sozialen Netzwerke werden gezwungen, finanzielle und organisatorische Dispositionen zu treffen.629 c) Verhältnismäßigkeit Die Medienfreiheit ist wie die Meinungs- und Informationsfreiheit unter den Voraussetzungen des Art. 52 Abs. 1 GRCh einschränkbar, wobei zusätzlich die Schrankenregelungen des Art. 10 Abs. 2 EMRK zur Anwendung kommen, soweit Art. 52 Abs. 3 GRCh Anwendung findet. Nach Art. 52 Abs. 3 GRCh haben die Grundrechte der Charta die gleiche Bedeutung und Tragweite wie die in der EMRK garantierten Rechte, soweit sie diesen Rechten entsprechen. Es kommt folglich darauf an, ob eine Übereinstimmung im Regelungsbereich vorliegt.630 Dies könnte insofern fraglich sein, als dass die Medienfreiheit in der Grundrechtecharta in Art. 11 Abs. 2 ausdrücklich garantiert wird. In Art. 10 EMRK wird die Medienfreiheit jedoch nicht gesondert benannt. Damit könnte in der Grundrechtecharta ein neues Grundrecht geschaffen worden sein, das den Rechten in Art. 10 EMRK nicht entspricht. aa) Anwendbarkeit der Schrankenbestimmungen des Art. 10 Abs. 2 EMRK Auf den ersten Blick sprechen Wortlaut und Struktur gegen das Entsprechen der Schutzbereiche von Art. 11 Abs. 2 GRCh und Art. 10 EMRK. Neben der ausdrücklichen Nennung der Medienfreiheit in Art. 11 Abs. 2 GRCh unterscheidet sich auch dessen Wortlaut im Vergleich zu Art. 10 EMRK deutlich. Für die Entsprechung kommt es jedoch nicht auf eine Übereinstimmung des Wortlauts der Rechte der Grundrechtecharta und der EMRK, sondern vielmehr auf die Übereinstimmung im gegenständlichen Regelungsbereich an.631 Es entspricht der einhelligen Meinung, dass die Medienfreiheit in Art. 10 EMRK eine Teilausprägung des einheitlichen Grundrechts der Meinungsfreiheit darstellt.632 Auch der EGMR hat die Medienfreiheiten in seiner Rechtsprechung weiter entfaltet.633 Der Art. 10
629
Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 123. Meyer/Hölscheidt/Schwerdtfeger, GRCh Art. 52 Rn. 58; Ziegenhorn, Der Einfluss der EMRK im Recht der EU-Grundrechtecharta, S. 155 f. 631 Gersdorf/Paal/Cornils, EU-GRCharta Art. 11 Rn. 11. 632 Siehe nur Franzen/Gallner/Oetker/Schubert, EMRK Art. 10 Rn. 9; Gersdorf/ Paal/Cornils, EMRK Art. 10 Rn. 22; Karpenstein/Mayer/Mensching, EMRK Art. 10 Rn. 13. 633 Siehe beispielsweise EGMR, Urt. v. 25.04.2006 – 77551/01, ECLI:CE:ECHR: 2006:0425JUD007755101 – Dammann gegen Schweiz; Urt. v. 14.02.2008 – 20893/03, ECLI:CE:ECHR:2008:0214JUD002089303 – July und SARL Liberation gegen Frankreich; Urt. v. 14.09.2010 – 38224/03, ECLI:CE:ECHR:2010:0914JUD003822403 – Sanoma Uitgevers B.V. gegen Niederlande; siehe zur Rechtsprechung des EGMR auch Karpenstein/Mayer/Mensching, EMRK Art. 10 Rn. 8 ff. 630
154
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
EMRK differenziert dabei nicht zwischen den verschiedenen Medienarten; vielmehr fallen neben Rundfunk und Presse auch die neuen Medien in den Gewährleistungsbereich des Art. 10 EMRK.634 Gleichermaßen findet auch bei Art. 11 Abs. 2 GRCh keine Differenzierung zwischen den einzelnen Medienarten statt.635 Allerdings könnte in Hinblick auf die ausdrückliche Erwähnung der Pluralität der Medien in Art. 11 Abs. 2 GRCh dennoch ein Unterschied zwischen den Schutzbereichen bestehen. Erkennt man der Pluralität der Medien eine eigenständige Bedeutung zu, die so von Art. 10 Abs. 1 EMRK nicht erfasst wurde,636 würden sich die Schutzbereiche gerade nicht entsprechen.637 Der EGMR hat sich in der Sache Informationsverein Lentia mit der Pluralität der Medien auseinandergesetzt. Der Gerichtshof betonte die fundamentale Bedeutung der Medien, deren Aufgaben nur dann erfolgreich bewältigt werden könnten, soweit sie auf dem Grundsatz der Pluralität fußten, dessen Garant der Staat sei.638 Auch ohne die explizite Erwähnung der Pluralität in Art. 10 Abs. 1 EMRK, ergibt sich daher kein Unterschied im Umfang des Schutzbereichs.639 Auch die Erläuterungen zur Grundrechtecharta sprechen mehr für eine Entsprechung als dagegen. So werden die Erläuterungen zu Art. 11 der Charta eingeleitet mit: „Artikel 11 entspricht Artikel 10 EMRK“.640 Eine Differenzierung nach Abs. 1 und Abs. 2 der Charta wird an dieser Stelle nicht vorgenommen. Zu Abs. 2 erläutert das Präsidium „Absatz 2 dieses Artikels erläutert die Auswirkungen von Absatz 1 hinsichtlich der Freiheit der Medien“.641 Dass dem Abs. 2 gegenüber Art. 10 EMRK eine eigenständige Bedeutung zukommen soll, lässt sich hier nicht herauslesen. Hinzu kommt, dass in der Erläuterung zu Art. 52 Abs. 3 GRCh diejenigen Rechte aufgeführt werden, bei denen davon ausgegangen werden kann, dass sie den Rechten der EMRK entsprechen, wobei die Rechte nicht aufgeführt sind, die zu den Rechten der EMRK hinzukommen.642 Auch an dieser Stelle wird der gesamte Art. 11 GRCh genannt und nicht bloß Absatz 1, was da-
634 Davis, Die „dienende“ Rundfunkfreiheit im Zeitalter der sozialen Vernetzung, S. 338. 635 Davis, Die „dienende“ Rundfunkfreiheit im Zeitalter der sozialen Vernetzung, S. 338. 636 Stock, EuR 2002, 566 (571 f.). 637 Davis, Die „dienende“ Rundfunkfreiheit im Zeitalter der sozialen Vernetzung, S. 338. 638 EGMR, Urt. v. 24.11.1993 – 13914/88, ECLI:CE:ECHR:1993:1124JUD001391 488 Rn. 38 – Informationsverein Lentia u. a. gegen Österreich. 639 So auch Davis, Die „dienende“ Rundfunkfreiheit im Zeitalter der sozialen Vernetzung, S. 338; Knodel, Medien und Europa, S. 121. 640 ABl. v. 14.12.2007, Nr. C 303/21 Erläuterungen zur Charta der Grundrechte. 641 ABl. v. 14.12.2007, Nr. C 303/21 Erläuterungen zur Charta der Grundrechte. 642 ABl. v. 14.12.2007, Nr. C 303/33 Erläuterungen zur Charta der Grundrechte.
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
155
für spricht, dass auch beide Absätze den Rechten des Art. 10 EMRK entsprechen.643 Auch die Besorgnis, dass das Schrankensystem des Art. 10 EMRK keinen Raum für die Entwicklung entsprechender Maßstäbe für neue Medienformen ließe,644 erscheint unbegründet.645 Schließlich liefert der EGMR zahlreiche Belege für die Herausbildung medienspezifischer Normaussagen, sodass die Schrankenregelungen auch für neue Medien genügend Raum bieten dürften.646 Letztlich sprechen diese Argumente dafür, von einer Entsprechung von Art. 11 Abs. 2 GRCh und Art. 10 EMRK auszugehen, womit neben den Schrankenbestimmungen des Art. 52 Abs. 1 GRCh zusätzlich die Schrankenregelungen des Art. 10 Abs. 2 EMRK über Art. 52 Abs. 3 GRCh zur Anwendung kommen.647 bb) Verhältnismäßigkeit des Eingriffs in die Medienfreiheit Hinsichtlich des legitimen Ziels, der Geeignetheit des NetzDG dieses Ziel zu erreichen sowie der Erforderlichkeit des NetzDG ist auf die obigen Ausführungen zu verweisen, da sich insofern keine Unterschiede ergeben.648 Insbesondere stellt sich ein umfassendes System der Regulierten Selbstregulierung auch hinsichtlich der Medienfreiheit aus Art. 11 Abs. 2 GRCh als deutlich weniger eingriffsintensiv dar. Im Rahmen der Verhältnismäßigkeitsprüfung ist aber zu klären, ob die Pflichten des NetzDG den sozialen Netzwerken zumutbar sind. Die Prüfung der subjektiven Zumutbarkeit einer Maßnahme ist nach allgemeiner Ansicht Bestandteil der Verhältnismäßigkeitsprüfung und wird als solche auch vom EuGH durchgeführt.649 Mit Blick auf die Zumutbarkeit stellt sich insbesondere die Frage, ob den sozialen Netzwerken eine Prüfung der Rechtmäßigkeit der gemeldeten Inhalte nach § 3 Abs. 2 Nr. 3 NetzDG zugemutet werden kann, da sich das NetzDG nicht auf die Löschung offensichtlicher Fälle beschränkt. Es wird nicht nur die Rechtmäßigkeitsprüfung gefordert; vielmehr muss diese auch innerhalb von sieben Tagen erfolgen, ohne dass im NetzDG eine Überschreitung dieser
643
Calliess/Ruffert/Calliess, EU-GRCharta Art. 11 Rn. 32. Calliess/Ruffert/Calliess, EU-GRCharta Art. 11 Rn. 32; Ehlers/Pünder, § 17 Rn. 24. 645 Gersdorf/Paal/Cornils, EU-GRCharta Art. 11 Rn. 13. 646 Siehe nur EGMR, Urt. v. 22.06.2021 – 57292/16, ECLI:CE:ECHR:2021:0622 JUD005729216 – Hurbain gegen Belgien; Gersdorf/Paal/Cornils, EU-GRCharta Art. 11 Rn. 13. 647 Siehe zur kumulativen Anwendung der Schranken bereits Kapitel 3 A. I. 5. d) aa). 648 Kapitel 3 A. I. 5. d) cc) bis ee). 649 Calliess/Ruffert/Ruffert, EU-GRCharta Art. 12 Rn. 70; Jarass, EU-GrundrechteCharta Art. 52 Rn. 41; Riedel, Die Grundrechtsprüfung durch den EuGH, S. 167. 644
156
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
Frist unter Zumutbarkeitsaspekten vorgesehen wäre.650 Insoweit kann der Anbieter des sozialen Netzwerks auch nicht auf die Möglichkeit der Inanspruchnahme der Einrichtung der Regulierten Selbstregulierung nach § 3 Abs. 2 Nr. 3 lit. b NetzDG als zumutbarere Alternative verwiesen werden. Denn das ist diese gerade nicht. Im Falle der Übertragung der Beschwerde ist das soziale Netzwerk an die Entscheidung der Einrichtung der Regulierten Selbstregulierung gebunden und wird insofern in seinem eigenen Hausrecht eingeschränkt, da der Inhalt auch nicht aufgrund der eigenen Gemeinschaftsstandards gelöscht werden darf.651 Im Ergebnis konnte schon bei der Untersuchung der Rechte der Netzwerkmitglieder ein deutliches Anreizsystem zur Löschung grenzwertiger Inhalte ermittelt werden.652 Der Gesetzgeber bringt die Betreiber damit in ein Dilemma: Auf der einen Seite die bußgeldbewehrten Pflichten, auf der anderen Seite die zumindest theoretische Möglichkeit, aufgrund der Löschungen rechtmäßiger Inhalte von den Nutzern in Anspruch genommen zu werden – auch wenn dies als eher unwahrscheinlich einzuschätzen ist.653 Jedenfalls lässt das NetzDG den sozialen Netzwerken keinen Raum, eine angemessene Abwägung vorzunehmen, insbesondere bleibt unklar, wie die Anbieter die zur Abwägung notwendigen Gesamtumstände einer Aussage ermitteln sollen.654 Wie bereits im Rahmen des Gewährleistungsgehalts skizziert, liegt der Schutzzweck der Medienfreiheit darin, die öffentliche Meinungsbildung zu sichern, auf welche die Massenmedien einen deutlich höheren Einfluss haben als die Individualkommunikation.655 In der Rolle des Vermittlers ermöglichen sie den umfassenden Zugang zu Informationen und Meinungen, was eine der entscheidenden Grundlagen in einer funktionieren Demokratie darstellt.656 Die Vermittlungstätigkeit wird empfindlich eingeschränkt, soweit die sozialen Netzwerke zu einer nicht zumutbaren Prüfung der Rechtmäßigkeit angehalten werden, bei der vom Gesetzgeber von vornherein eine Tendenz zum Löschen vorgegeben wird. Vor dem Hintergrund der gesamtgesellschaftlichen Relevanz der Medienfreiheit kann es nicht angemessen sein, die Netzwerkbetreiber mangels zumutbarer Verfahrensvorgaben zur Löschung rechtmäßiger Äußerungen zu animieren. Das NetzDG verstößt in dieser Hinsicht auch gegen die Medienfreiheiten der Betreiber sozialer Netzwerke aus Art. 11 Abs. 2 GRCh.
650 651 652 653
Gersdorf, MMR 2017, 439 (446). Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 123. Kapitel 3 A. I. 5. d) ff). Zum Anspruch auf Wiederherstellung des Inhalts Lang, AöR 143 (2018), 220
(247). 654 655 656
Feldmann, K&R 2017, 292 (296). Frenz, Handbuch Europarecht: Band 4, Rn. 1947. Frenz, Handbuch Europarecht: Band 4, Rn. 1948.
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
157
2. Vereinbarkeit der Beschränkungen mit der unternehmerischen Freiheit aus Art. 16 GRCh Die von Art. 16 GRCh garantierte unternehmerische Freiheit ist neben der Berufsfreiheit des Art. 15 GRCh und der Eigentumsgarantie des Art. 17 GRCh eines der zentralen Wirtschaftsgrundrechte der Charta.657 Sie stellt eine Ausprägung der Berufsfreiheit dar658 und dient dabei sowohl den Interessen der Unternehmen als auch dem Grundsatz des freien Wettbewerbs.659 Aufgrund der erheblichen Überschneidungen der Schutzbereiche von Art. 16 und Art. 15 Abs. 1 GRCh ist umstritten, in welcher Form eine Abgrenzung der beiden Grundrechte erfolgen soll.660 Eine Bedeutung kommt der Abgrenzung lediglich hinsichtlich der unterschiedlichen Garantiegehalte zu.661 Letztlich ist es überzeugend, Art. 16 GRCh als speziellere Norm gegenüber Art. 15 GRCh einzuordnen, da Art. 16 GRCh den Schutz des Unternehmens erfasst, der nicht auf den Schutz der persönlichen Tätigkeit eingegrenzt ist.662 a) Gewährleistungsgehalt des Art. 16 GRCh Trotz der zurückhaltenden Formulierung des Art. 16 GRCh „wird anerkannt“ ist kein zwingender Grund ersichtlich, die Gewährleistungen des Art. 16 GRCh, abweichend von der Rechtsprechung des EuGH, einschränkend zu interpretieren.663 Der Schutzbereich des Art. 16 GRCh umfasst das Recht jedes Unternehmens, in den Grenzen seiner Verantwortlichkeit für seine eigenen Handlungen, frei über seine wirtschaftlichen, technischen und finanziellen Ressourcen verfügen zu können.664 Ein Unternehmen ist eine Einheit, die selbstständig Güter oder Dienstleistungen gegen Entgelt auf einem Markt anbietet.665 Träger des Grundrechts der unternehmerischen Freiheit können sowohl natürliche Personen als auch juristische Personen sein.666 657 Jarass, EU-Grundrechte-Charta Art. 16 Rn. 2; Schwarze/Becker/Hatje/Schoo/ Schwarze/Vormizeele, GRC Art. 16 Rn. 1; Schwarze, EuZW 2001, 517. 658 Meyer/Hölscheidt/Bernsdorff, GRCh Art. 16 Rn. 1. 659 Jarass, EU-Grundrechte-Charta Art. 16 Rn. 2. 660 Franzen/Gallner/Oetker/Schubert, GRCh Art. 15 Rn. 6 ff. mit umfassenden Nachweisen. 661 Franzen/Gallner/Oetker/Schubert, GRCh Art. 15 Rn. 8. 662 Jarass, EU-Grundrechte-Charta Art. 16 Rn. 4; Franzen/Gallner/Oetker/Schubert, GRCh Art. 15 Rn. 8. 663 Jarass, EU-Grundrechte-Charta Art. 16 Rn. 2; Schwarze/Becker/Hatje/Schoo/ Schwarze/Vormizeele, GRC Art. 16 Rn. 2; Schwarze, EuZW 2001, 517. 664 EuGH, Urt. v. 27.03.2014, Rs. C-314/12, ECLI:EU:C:2014:192 Rn. 49 – UPC Telekabel Wien. 665 Jarass, EU-Grundrechte-Charta Art. 16 Rn. 8; Meyer/Hölscheidt/Bernsdorff, GRCh Art. 16 Rn. 11. 666 Schwarze/Becker/Hatje/Schoo/Schwarze/Vormizeele, GRC Art. 16 Rn. 4.
158
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
Die Nutzer sozialer Netzwerke zahlen jedoch regelmäßig kein Entgelt für die Nutzung der angebotenen Dienste. Es ist gewiss diskussionswürdig, ob die Nutzer mit ihren Daten zahlen, die Daten also als Entgelt qualifiziert werden können.667 Auf Erörterungen zu dieser Frage soll an dieser Stelle aber verzichtet werden, da die angebotenen Dienste jedenfalls durch Einnahmen aus Werbung, die auf den Seiten des sozialen Netzwerks von dritten Unternehmen geschaltet wird, finanziert werden.668 Insofern werden die Dienstleistungen der sozialen Netzwerke im Ergebnis gegen ein Entgelt angeboten, womit soziale Netzwerke als Unternehmen eingeordnet werden.669 Der Schutzbereich der unternehmerischen Freiheit umfasst sämtliche Tätigkeiten in Bezug auf die unternehmerische Betätigung.670 Zum Gewährleistungsbereich gehören die Aufnahme und Beendigung der unternehmerischen Tätigkeit sowie alle Aspekte ihrer Durchführung.671 Den Unternehmen obliegt insofern die Entscheidung über die eigene Unternehmensführung und den Einsatz der finanziellen Ressourcen. Die Tätigkeit der sozialen Netzwerke, also im Schwerpunkt das Anbieten einer Kommunikationsplattform, die Ausgestaltung dieser Plattform und die Auswahl und Anordnung der Inhalte, fällt auch in den Schutzbereich des Art. 16 GRCh.672 b) Eingriff in die unternehmerische Freiheit durch das NetzDG Ein Eingriff in die unternehmerische Freiheit ist gegeben, wenn ein Unionsorgan oder ein Mitgliedstaat bei der Durchführung von Unionsrecht eine Regelung trifft, die für die geschützten Rechte des Unternehmens einen Nachteil bezweckt oder unmittelbar bewirkt.673 Gleichwohl können aber auch Regelungen, die sich nicht unmittelbar an den Unternehmer richten oder nicht normative Akte das Recht auf unternehmerische Freiheit verkürzen.674 Derartige mittelbare Beeinträchtigungen können auch einen Eingriff bedeuten, sofern sie dem Grundrechtsverpflichteten zurechenbar sind und eine systematische Beeinträchtigung darstellen.675
667
Siehe zu dieser Diskussion schon Hoeren, WuW 2013, 463. Lüdemann, MMR 2019, 279 (281). 669 Erbs/Kohlhaas/Liesching, NetzDG § 1 Rn. 4. 670 Meyer/Hölscheidt/Bernsdorff, GRCh Art. 16 Rn. 11. 671 Jarass, EU-Grundrechte-Charta Art. 16 Rn. 9; Frenz, Handbuch Europarecht: Band 4 Rn. 2693 f. 672 EuGH, Urt. v. 16.02.2012, Rs. C-360/10, ECLI:EU:C:2012:85 Rn. 44 – SABAM. 673 Jarass, EU-Grundrechte-Charta Art. 16 Rn. 13; Frenz, Handbuch Europarecht: Band 4 Rn. 2734. 674 Franzen/Gallner/Oetker/Schubert, GRCh Art. 16 Rn. 12. 675 Franzen/Gallner/Oetker/Schubert, GRCh Art. 16 Rn. 12; Jarass, EU-Grundrechte-Charta Art. 16 Rn. 14. 668
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
159
Ein Eingriff in den Schutzbereich des Art. 16 GRCh liegt auch vor, wenn eine Regelung das Unternehmen zu finanziellen Dispositionen zwingt. So hat der EuGH in der Rechtssache UPC Telekabel Wien einen Eingriff in die unternehmerische Freiheit angenommen, da die gegenständliche Regelung dem Unternehmen einen Zwang auferlegt habe, der die freie Nutzung seiner Ressourcen einschränke. Das Unternehmen sei durch die Regelung verpflichtet, Maßnahmen zu ergreifen, welche die Ausgestaltung seiner Tätigkeiten beeinträchtigen, schwierige und komplexe technische Lösungen erfordern und mit erheblichen Kosten verbunden sein können.676 § 3 NetzDG erlegt den sozialen Netzwerken umfassende Pflichten auf. Für die Einrichtung des Beschwerdesystems müssen zunächst technische Maßnahmen getroffen werden. Um die eingehenden Beschwerden innerhalb der entsprechenden Fristen prüfen zu können, ist der Einsatz von zusätzlichem Personal nötig, das für die Aufgabe geschult werden muss. Der Gesetzgeber ist in der Begründung zum NetzDG insgesamt von einem zu erwartenden Erfüllungsaufwand in Höhe von 29 Millionen Euro jährlich für die sozialen Netzwerke ausgegangen.677 Hinzu kommen weitere etwa 4,4 Millionen Euro jährlich durch die erweiterten Pflichten, die mit den Gesetzesänderungen eingeführt wurden.678 Die Plattformbetreiber sind dementsprechend durch das NetzDG verpflichtet, Maßnahmen zu ergreifen, die zum einen weitreichende organisatorische Dispositionen erfordern und zum anderen mit erheblichen Kosten verbunden sind, womit ein Nachteil für die unternehmerischen Aktivitäten und mithin ein Eingriff in den Schutzbereich gegeben ist.679 c) Verhältnismäßigkeit der Beschränkungen durch das NetzDG Ein Eingriff in die Rechte aus Art. 16 GRCh ist dann nach Art. 52 Abs. 1 GRCh zulässig, wenn er gesetzlich vorgesehen ist und der Grundsatz der Verhältnismäßigkeit gewahrt bleibt. Dafür kommt auch der Hinweis auf das Unionsrecht, die einzelstaatlichen Rechtsvorschriften und Gepflogenheiten aus Art. 16 GRCh zum Tragen.680 Ob damit auch gemeint war, dass Art. 16 GRCh dadurch weitergehend eingeschränkt werden kann als Art. 15 Abs. 1 GRCh, ist jedoch umstritten.681 Das Präsidium verweist in der Erläuterung zur Grundrechtecharta auf die Rechtsprechung des EuGH und darauf, dass Art. 16 GRCh nach Art. 52 676 EuGH, Urt. v. 27.03.2014, Rs. C-314/12, ECLI:EU:C:2014:192 Rn. 50 – UPC Telekabel Wien. 677 BT-Drs. 18/12356, S. 3. 678 Regierungsentwurf eines Gesetzes zur Änderung des Netzwerkdurchsetzungsgesetzes, S. 3; Regierungsentwurf eines Gesetzes zur Bekämpfung des Rechtsextremismus und der Hasskriminalität, S. 4. 679 Deutscher Bundestag, Fachbereich Europa, PE 6 – 3000 – 22/17, S. 29. 680 Jarass, EU-Grundrechte-Charta Art. 16 Rn. 21. 681 Franzen/Gallner/Oetker/Schubert, GRCh Art. 16 Rn. 14.
160
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
Abs. 1 GRCh beschränkt wird.682 Dies lässt den Schluss zu, dass dem Vorbehalt des Art. 16 GRCh keine eigenständige Bedeutung zukommen soll und daher eine Verringerung des Schutzes der unternehmerischen Freiheit gegenüber der Berufsfreiheit nicht beabsichtigt ist.683 Hinsichtlich der mit dem NetzDG verfolgten legitimen Ziele sowie der Geeignetheit des NetzDG zur Erreichung der Ziele ergeben sich keine Unterschiede zu den Ausführungen zur Meinungsfreiheit.684 Hinsichtlich der Erforderlichkeit hat sich in diesem Bereich ein umfassendes System der Regulierten Selbstregulierung als sinnvollste Option herausgestellt. Während sich dieses System eindeutig weniger intensiv auf die Meinungsfreiheit auswirkt, darf die Erforderlichkeit mit Blick auf die unternehmerische Freiheit nicht vorschnell abgelehnt werden. Denn auch die Einführung der Regulierten Selbstregulierung, sofern sie gesetzlich implementiert und die Teilnahme nicht rein freiwillig wäre,685 würde von den Unternehmen sowohl einen organisatorischen als auch finanziellen Aufwand erfordern. Gleichwohl wird sich dieser Aufwand mit hoher Wahrscheinlichkeit erheblich geringer darstellen als beim derzeitigen Stand des NetzDG. Eine Einrichtung der Regulierten Selbstregulierung, finanziert durch ihre Mitglieder, stellt sich kosten- und zeiteffizienter dar als die jeweilige Einrichtung einer Prüfstelle in den Unternehmen selbst.686 Insoweit wäre auch in dieser Hinsicht die Regulierte Selbstregulierung die weniger eingriffsintensive Maßnahme. Ungeachtet der Frage nach der Erforderlichkeit müsste das NetzDG auch in Bezug auf die mit ihm verfolgten Ziele angemessen sein. Der geschätzte Erfüllungsaufwand stellt für sich genommen eine hohe finanzielle Belastung für die sozialen Netzwerke dar. In der Rechtssache SABAM hat der EuGH die Einrichtung eines kostspieligen Filtersystems als unangemessen beurteilt, wobei das widerstreitende Interesse in der Wahrung des Rechts am geistigen Eigentum lag.687 Der EuGH hat jedoch auch wiederholt betont, dass die Bedeutung der angestrebten Ziele auch beträchtliche negative wirtschaftliche Folgen für bestimmte Wirtschaftsteilnehmer rechtfertigen könne.688 Die vom NetzDG angestrebten Ziele
682
ABl. v. 14.12.2007, Nr. C 303/23 Erläuterungen zur Charta der Grundrechte. Calliess/Ruffert/Ruffert, EU-GRCharta Art. 16 Rn. 6; Franzen/Gallner/Oetker/ Schubert, GRCh Art. 16 Rn. 14; Meyer/Hölscheidt/Bernsdorff, GRCh Art. 16 Rn. 16. 684 Kapitel 3 A. I. 5. d) cc) und dd). 685 Zum Eingriff in die Berufsfreiheit der Anbieter durch die Regulierte Selbstregulierung Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 229. 686 Siehe Beitragsordnung der FSM e.V., abrufbar unter: https://www.fsm.de/sites/ default/files/fsm_beitragsordnung_06-11-2019.pdf. 687 EuGH, Urt. v. 16.02.2012, Rs. C-360/10, ECLI:EU:C:2012:85 Rn. 46 f. – SABAM. 688 EuGH, Urt. v. 13.11.1990, Rs. C-331/88, ECLI:EU:C:1990:391 Rn. 17 – The Queen/Ministry of Agriculture, Fisheries and Food, ex parte FEDESA u. a.; Urt. v. 683
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
161
haben eine hohe gesamtgesellschaftliche Bedeutung. Sie betreffen die Aufrechterhaltung der öffentlichen Ordnung, insbesondere die Verhütung von Straftaten sowie den Schutz der Persönlichkeitsrechte der Opfer von Hasskriminalität.689 Auch wenn man davon ausgeht, dass die Durchsetzung des Rechts den Strafverfolgungsbehörden obliegt und eher an dieser Stelle als bei den sozialen Netzwerken ein Durchsetzungsdefizit besteht,690 darf man die Rechte der Betroffenen nicht außer Acht lassen. Für sie ist es zunächst wichtig, dass der Inhalt der öffentlichen Wahrnehmbarkeit entzogen wird. Hinzu kommt die Tatsache, dass die finanzielle Belastung auch in Relation zu den Gewinnen des Unternehmens gesehen werden muss. Zwar ist mit beträchtlichen Kosten für die Umsetzung der Pflichten des NetzDG zu rechnen, der Umsatz der sozialen Netzwerke ist jedoch um ein Vielfaches höher. Exemplarisch kann hier Facebook mit einem Jahresumsatz von 85,97 Milliarden US-Dollar im Jahr 2020691 genannt werden. Durch die Bagatellgrenze des § 1 Abs. 2 NetzDG, dass nur soziale Netzwerke mit mindestens zwei Millionen Nutzern in den Anwendungsbereich des NetzDG fallen, soll sichergestellt werden, dass nur Unternehmen betroffen sind, die über entsprechende finanzielle Ressourcen verfügen. Es kann jedoch trotz Bagatellgrenze nicht ausgeschlossen werden, dass Plattformen ohne entsprechende finanzielle Möglichkeiten vom Anwendungsbereich erfasst werden.692 Kritisch zu sehen ist daher der fehlende Zumutbarkeitsvorbehalt im NetzDG, der das Auferlegen unverhältnismäßiger Maßnahmen verhindern könnte.693 Allerdings ist davon auszugehen, dass mit geringerer Nutzerzahl, also beispielsweise bei Unternehmen, die gerade über zwei Millionen Nutzer haben, auch eine geringere Zahl von Beschwerden zu erwarten ist, mithin der personelle und daher auch der finanzielle Aufwand für die Bearbeitung der Beschwerden sinkt.694 Zudem hafteten die Anbieter auch vor Erlass des NetzDG nach allgemeinen Grundsätzen und mussten dafür bereits eine entsprechende, wenn auch weniger umfassende, Infrastruktur vorhalten.695 An diese bereits bestehende Infrastruktur können die Diensteanbieter nun anknüpfen und diese so erweitern,
17.07.1997, Rs. C-183/95, ECLI:EU:C:1997:373 Rn. 42 – Affish/Rijksdienst voor de keuring van Vee en Vlees. 689 Deutscher Bundestag, Fachbereich Europa, PE 6 – 3000 – 22/17, S. 31. 690 Spindler/Schmitz/Liesching, NetzDG § 1 Rn. 19. 691 SEC, Annual Report Facebook 2020, abrufbar unter: http://d18rn0p25nwr6d. cloudfront.net/CIK-0001326801/4dd7fa7f-1a51-4ed9-b9df-7f42cc3321eb.pdf, S. 50. 692 Spindler/Schmitz/Liesching, NetzDG § 1 Rn. 38. 693 Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 122; Gersdorf, MMR 2017, 439 (446). 694 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 449; Nolte, 2017, 552 (560). 695 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 443 f.
162
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
dass sie den Anforderungen an ein Beschwerdemanagement im Sinne des NetzDG genügen. Im Ergebnis ist zu konstatieren, dass sich das Bild der grundrechtsschonenderen Alternative der Regulierten Selbstregulierung fortzeichnet. Im Spannungsfeld der widerstreitenden Grundrechte überwiegen hingegen die Persönlichkeitsrechte der von Hasskriminalität betroffenen Nutzer über die unternehmerische Freiheit der Plattformbetreiber aus Art. 16 GRCh. 3. Vereinbarkeit der Beschränkungen mit der Dienstleistungsfreiheit, Art. 65 AEUV Neben einer Verletzung der Rechte aus der Grundrechtecharta kommt ein weiterer Konflikt mit dem Primärrecht der Union, namentlich den Grundfreiheiten, in Betracht. Die Bestimmungen des NetzDG könnten auch eine ungerechtfertigte Beeinträchtigung der Dienstleistungsfreiheit aus Art. 56 AEUV bedeuten. Die Grundfreiheiten dienen primär dem Binnenmarktziel, was auch schon aus Art. 26 Abs. 2 AUEV hervorgeht und adressieren zunächst die Mitgliedstaaten.696 Daher ist auch die Bundesrepublik Deutschland beim Erlass von Gesetzen, in diesem Fall dem NetzDG, an die Grundfreiheiten der Europäischen Union gebunden. a) Gewährleistungsgehalt der Dienstleistungsfreiheit Die Dienstleistungsfreiheit garantiert die grenzüberschreitende Erbringung von Dienstleistungen im europäischen Binnenmarkt.697 Anknüpfungspunkt für die Gewährleistung dieser Freiheit ist der in Art. 57 AEUV legaldefinierte Begriff der Dienstleistung. Dienstleistungen sind demnach „Leistungen, die in der Regel gegen Entgelt erbracht werden, soweit sie nicht den Vorschriften über den freien Waren- und Kapitalverkehr und über die Freizügigkeit der Personen unterliegen.“ Aufgrund der in Art. 57 Abs. 1 AEUV normierten Subsidiarität der Dienstleistungsfreiheit muss eine Abgrenzung zu den anderen Grundfreiheiten vorgenommen werden.698 Voraussetzung der Dienstleistungsfreiheit ist zunächst, dass es sich um einen grenzüberschreitenden Sachverhalt handelt. Das ergibt sich zum einen aus dem Wortlaut des Art. 56 Abs. 1 und Art. 57 Abs. 3 AEUV, zum anderen ist dies regelmäßig Bedingung für die Anwendung des Primärrechts, welches rein innerstaatliche Sachverhalte nicht erfasst.699 In Abgrenzung zur Niederlassungsfreiheit muss es sich um eine „vorübergehende Tätigkeit handeln“ (Art. 57 Abs. 3 696 697 698 699
Grabitz/Hilf/Nettesheim/Terhechte, EUV Art. 3 Rn. 40. Calliess/Ruffert/Kluth, AEUV Art. 57 Rn. 1. Calliess/Ruffert/Kluth, AEUV Art. 57 Rn. 7. Calliess/Ruffert/Kluth, AEUV Art. 57 Rn. 10.
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
163
AUEV).700 In Bezug auf diese Abgrenzung lässt sich festhalten, dass Korrespondenzdienstleistungen, wie beispielsweise der Rundfunk, stets grenzüberschreitend angeboten werden.701 Dies ist auch der Fall bei sozialen Netzwerken, die ihre Dienste ebenso grenzüberschreitend anbieten. Zwar überschreiten weder der Anbieter noch der Empfänger die Grenze, jedoch erfolgt die Dienstleistung als solche, also das Bereitstellen der Plattform grenzüberschreitend. In Abgrenzung zur Warenverkehrsfreiheit wird regelmäßig darauf abgestellt, ob bei der Dienstleistung auch Materialien verwendet und verbraucht werden, wobei es dann darauf ankommt, worauf der Schwerpunkt der erbrachten Leistung liegt.702 Die Dienstleistungen der sozialen Netzwerke bestehen grundsätzlich in der Bereitstellung einer Plattform für die Inhalte der Nutzer sowie darin, diese Inhalte für die Nutzer mittels Algorithmen vorzusortieren. Dabei werden jedoch keine Materialien verwendet, die in der Sphäre des Nutzers verbleiben. Somit ist die Zuordnung zur Dienstleistungsfreiheit in dieser Hinsicht eindeutig. Auf die Dienstleistungsfreiheit können sich alle Unionsbürger berufen, wenn die Person jedenfalls in einem anderen Mitgliedstaat ansässig ist, als dem, in welchem die fragliche Leistung erbracht wird.703 Nach Art. 62 AEUV i.V. m. Art. 54 AEUV wird die Dienstleistungsfreiheit auch auf Gesellschaften mit satzungsmäßigem Sitz, Hauptverwaltung oder Hauptniederlassung in der Union ausgeweitet. Vorliegend regelt das NetzDG die Beziehung zwischen dem Anbieter des sozialen Netzwerks und dessen Nutzern. Die vom NetzDG betroffenen sozialen Netzwerke unterhalten ihre europäischen Hauptniederlassungen innerhalb der Union, wie zum Beispiel Facebook und Twitter in Irland. Die Nutzer, für die das Beschwerdesystem einzurichten ist, befinden sich in Deutschland. Daher ist der erforderliche grenzüberschreitende Bezug gegeben. Darüber hinaus muss die Leistung „in der Regel gegen Entgelt“ erbracht werden. Ein Entgelt charakterisiert sich dadurch, dass „es die wirtschaftliche Gegenleistung für die betreffende Leistung darstellt“.704 Auch wenn die Netzwerkmitglieder regelmäßig kein Entgelt für die Nutzung entrichten, ist die Entgeltlichkeit beispielsweise aufgrund von Werbeeinnahmen dennoch gegeben.705 Die sozialen Netzwerke können sich daher auf die Dienstleistungsfreiheit berufen.
700
Frenz, Handbuch Europarecht: Band 1 Rn. 2995. Calliess/Ruffert/Kluth, AEUV Art. 57 Rn. 15 f. 702 Calliess/Ruffert/Kluth, AEUV Art. 57 Rn. 19. 703 Frenz, Handbuch Europarecht: Band 1 Rn. 2991. 704 EuGH, Urt. v. 27.09.1988, Rs. C-263/86, ECLI:EU:C:1988:451 Rn. 17 – Belgischer Staat/Humbel und Edel. 705 Frenz, Handbuch Europarecht: Band 1 Rn. 3050. 701
164
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
b) Beschränkung der Dienstleistungsfreiheit durch das NetzDG Art. 56 Abs. 1 AEUV formuliert ein Verbot von Beschränkungen des freien Dienstleistungsverkehrs innerhalb der Union für Angehörige der Mitgliedstaaten, die in einem anderen Mitgliedstaat als demjenigen des Leistungsempfängers ansässig sind. Eine Beschränkung kann sowohl durch eine offene Diskriminierung als auch durch eine versteckte Diskriminierung erfolgen oder mittels einer allgemeinen Beschränkung, welche die Ausübung der Dienstleistungsfreiheit weniger attraktiv macht.706 Es kommt weder auf eine Absicht des Mitgliedstaats an noch darauf, ob es sich um einen Rechts- oder Realakt handelt.707 Auch Beschränkungen, die für alle Dienstleister gleich gelten, können eine Beeinträchtigung der Dienstleistungsfreiheit bedeuten, sofern sie geeignet sind, die Tätigkeit eines in einem anderen Mitgliedstaat ansässigen Dienstleisters zu unterbinden, zu behindern oder weniger attraktiv zu machen.708 Die Beeinträchtigungen können sowohl von Seiten der Union als auch von Mitgliedstaaten erfolgen.709 Insgesamt wird den Betreibern durch die umfangreichen Pflichten, die organisatorischen und finanziellen Aufwand bedeuten, das Anbieten ihrer Dienstleistung weniger attraktiv gemacht.710 Die Pflichten des NetzDG adressieren nicht nur Plattformbetreiber im Inland, sondern insbesondere Unternehmen mit Sitz in einem anderen EU-Staat, sodass auch der deutsche Gesetzgeber einen Eingriff in die Dienstleistungsfreiheit anerkannt hat.711 c) Verhältnismäßigkeit der Beschränkung Die Dienstleistungsfreiheit ist jedoch nicht uneingeschränkt gewährleistet.712 Aufgrund der Verweisung des Art. 62 AEUV auf Art. 52 AEUV finden die Rechtfertigungsgründe der öffentlichen Ordnung, Sicherheit oder Gesundheit auch auf die Dienstleistungsfreiheit Anwendung. Als weiterer Rechtfertigungsgrund kommen zwingende Gründe des Allgemeininteresses entsprechend der Cassis-Rechtsprechung713 zum Tragen.714 706
Frenz, Handbuch Europarecht: Band 1 Rn. 2998. EuGH, Urt. v. 29.11.2001, Rs. C-17/00, ECLI:EU:C:2001:651 Rn. 33 ff. – De Coster; Frenz, Handbuch Europarecht: Band 1 Rn. 3225. 708 EuGH, Urt. v. 25.07.1991, Rs. C-76/90, ECLI:EU:C:1991:331 Rn. 12 – Säger/ Dennemeyer; Urt. v. 23.11.1995, Rs. C-376/96, ECLI:EU:C:1999:575 Rn. 33 – Leloup; Urt. v. 12.12.1996, Rs. C-3/95, ECLI:EU:C:1996:487 Rn. 25 – Reisebüro Broede/Sandker; Urt. v. 09.07.1997, Rs. C-222/95, ECLI:EU:C:1997:345 Rn. 18 – SCI Parodi/Banque de Bary. 709 Calliess/Ruffert/Kluth, AEUV Art. 57 Rn. 75; Frenz, Handbuch Europarecht: Band 1 Rn. 3216. 710 Deutscher Bundestag, Fachbereich Europa, PE 6 – 3000 – 22/17, S. 39. 711 BT-Drs. 18/12356, S. 15. 712 Calliess/Ruffert/Kluth, AEUV Art. 57 Rn. 75. 713 EuGH, Urt. v. 20.02.1979, Rs. C-120/78, ECLI:EU:C:1979:42. Rn. 8 – Cassis de Dijon. 707
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
165
Beschränkungen können nach Rechtsprechung des EuGH gerechtfertigt werden, wenn folgende vier Voraussetzungen erfüllt sind: Die Beschränkung muss (1) in nicht diskriminierender Weise angewandt werden, sie muss (2) aus zwingenden Gründen des Allgemeininteresses gerechtfertigt sein, sie muss (3) geeignet sein, die Verwirklichung des mit ihm verfolgten Ziels zu gewährleisten und sie darf (4) nicht über das hinausgehen, was zur Erreichung dieses Ziels erforderlich ist.715 Die zwingenden Gründe des Allgemeininteresses sind in Art. 4 Nr. 8 der Dienstleistungsrichtlinie716 konkretisiert. Darunter fallen unter anderem die Öffentliche Ordnung und Sicherheit sowie der Schutz der Verbraucher. Das NetzDG stellt keine Sonderregelungen für ausländische Unternehmen auf, sondern beinhaltet einen Pflichtenkatalog für alle sozialen Netzwerke, die in den Anwendungsbereich fallen. Da insofern keine offene Diskriminierung aufgrund der Staatsangehörigkeit vorliegt, kommt es darauf an, ob die Maßnahme den Grundsatz der Verhältnismäßigkeit wahrt. Der Gesetzgeber führt zutreffend die Verhütung und Bekämpfung von Hasskriminalität und anderen strafbaren Inhalten auf Plattformen sozialer Netzwerke als zwingendes Gemeinwohlinteresse an.717 Hinzu kommt, wenn auch vom Gesetzgeber nicht zur direkten Begründung für den Eingriff angeführt, dass mit den Regelungen des NetzDG auch die Persönlichkeitsrechte der Opfer von Hasskriminalität gewahrt werden sollen. Auch wenn schon die Geeignetheit des NetzDG zur Erreichung dieser Ziele zweifelhaft ist, so bestehen noch größere Zweifel an seiner Erforderlichkeit. Denn im Rahmen der vorliegenden Arbeit hat sich die Regulierte Selbstregulierung als grundrechtsschonendere Alternative herausgestellt, wobei den Mitgliedstaaten bei der Wahl ihrer Maßnahmen ein Beurteilungsspielraum zusteht.718 In Ansehung der bereits zur unternehmerischen Freiheit vorgenommenen Angemessenheitsprüfung, überwiegen bei isolierter Betrachtung die Persönlichkeitsrechte der Netzwerkmitglieder.719 Allerdings ist zu beachten, dass eine Einschränkung der Dienstleistungsfreiheit nicht zu rechtfertigen ist, soweit die fragliche Maßnahme gegen sekundäres Unionsrecht verstößt.720 Das NetzDG könnte gegen das Herkunftslandprinzip der 714
Frenz, Handbuch Europarecht: Band 1 Rn. 3000. EuGH, Urt. v. 12.12.1996, Rs. C-3/95, ECLI:EU:C:1996:487 Rn. 28 – Reisebüro Broede/Sandker. 716 Richtlinie 2006/123/EG des Europäischen Parlaments und des Rates v. 12.12. 2006 über Dienstleistungen im Binnenmarkt. 717 BT-Drs. 18/12356, S. 15. 718 Frenz, Handbuch Europarecht: Band 1 Rn. 208. 719 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 470. 720 EuGH, Urt. v. 17.07.2008, Rs. C-389/05, ECLI:EU:C:2008:411 Rn. 67 – Kommission/Frankreich; Jarass, EuR 2000, 705 (719 f.); Pechstein/Nowak/Häde/Haltern/ Stein, AEUV Art. 56 Rn. 109 f.; Streinz/Müller-Graff, AEUV Art. 56 Rn. 100 f.; Frenz, Handbuch Europarecht: Band 1, Rn. 604, 3329. 715
166
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
E-Commerce-Richtlinie verstoßen, das als solches die Umsetzung der Dienstleistungsfreiheit gewährleisten soll.721 An dieser Stelle soll der folgenden Untersuchung ausnahmsweise vorgegriffen werden: Aufgrund der Unvereinbarkeit des NetzDG mit der E-Commerce-Richtlinie, 722 ist die Rechtfertigung der Beschränkung der Dienstleistungsfreiheit ausgeschlossen. Darüber hinaus verstößt das NetzDG, wie bereits festgestellt, gegen die Kommunikationsgrundrechte aus Art. 11 GRCh. Auch dies führt dazu, dass ein Eingriff in die Dienstleistungsfreiheit nicht gerechtfertigt werden kann.723
II. Ungleichbehandlung der Anbieter sozialer Netzwerke Durch das NetzDG findet eine Ungleichbehandlung der Anbieter sozialer Netzwerke in zweierlei Hinsicht statt. Zum einen werden soziale Netzwerke mit weniger als zwei Millionen registrierten Nutzern in § 1 Abs. 2 NetzDG von einem Großteil der Pflichten des NetzDG befreit. Zum anderen gilt ein Großteil der Pflichten für Videosharingplattform-Dienste nur unter der Maßgabe des § 3e Abs. 3 NetzDG, wenn eine behördliche Anordnung erfolgt ist. Diese Ungleichbehandlung der verschiedenen Plattformanbieter könnte gegen Art. 20 GRCh verstoßen. 1. Schutzbereich des Art. 20 GRCh Der Art. 20 GRCh formuliert kurz und knapp, dass alle Personen vor dem Gesetz gleich sind. Grundsätzlich ist Art. 20 GRCh subsidiär zu den Gleichheitsrechten aus Art. 21 sowie 23 GRCh,724 wobei sich vorliegend die Anwendung des Art. 20 GRCh geradezu aufdrängt. Neben natürlichen Personen können sich nach ständiger Rechtsprechung des EuGH auch juristische Personen des Privatrechts auf den allgemeinen Gleichheitssatz berufen.725 Das Recht aus Art. 20 GRCh geht in zwei Richtungen: Es besagt, dass einerseits Gleiches gleich behandelt sowie andererseits Ungleiches ungleich behandelt werden muss.726
721
Hoeren, Netzwerkdurchsetzungsgesetz europarechtswidrig, beck-blog v. 30.03.
2017. 722
Siehe dazu im Folgenden Kapitel 3 B. V. und VII. Gersdorf/Paal/Hoven/Gersdorf, NetzDG § 1 Rn. 10. 724 Jarass, EU-Grundrechte-Charta Art. 20 Rn. 6. 725 EuGH, Urt. v. 13.07.1962, Rs. C-17/61, ECLI:EU:C:1962:30 – Klöckner-Werke AG u. a./Hohe Behörde; Urt. v. 13.12.1994, Rs. C-306/93, ECLI:EU:C:1994:407 – SMW Winzersekt/Land Rheinland-Pfalz; Urt. v. 10.03.1998, Rs. C-364/95, ECLI: EU:C:1998:95 – T. Port/Hauptzollamt Hamburg-Jonas; Meyer/Hölscheidt/Hölscheidt, GRCh Art. 20 Rn. 14. 726 EuGH, Urt. v. 21.07.2011, Rs. C-21/10, ECLI:EU:C:2011:505 Rn. 47 – Nagy; Pechstein/Nowak/Häde/Heselhaus, GRC Art. 20 Rn. 18. 723
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
167
2. Ungleichbehandlung der Diensteanbieter Die Prüfung der Gleichheitsrechte durch den EuGH erfolgt in aller Regel zweistufig: Zunächst wird die Ungleichbehandlung zweier vergleichbarer beziehungsweise die Gleichbehandlung ungleicher Sachverhalte festgestellt und im zweiten Schritt die Rechtfertigung für die (Un-)Gleichbehandlung im Sinne der Verhältnismäßigkeit überprüft.727 Die Anforderungen an die Vergleichsgruppen dürfen jedoch nicht zu streng sein, da andernfalls der Anwendungsbereich des Art. 20 GRCh von vornherein eingeengt würde.728 Es ist daher für die Vergleichbarkeit ausreichend, wenn Produkte oder Dienstleistungen der fraglichen Unternehmen aus Verbrauchersicht denselben Bedürfnissen dienen.729 Unabdingbar für die Vergleichbarkeit ist hingegen, dass die gegenständliche Ungleichbehandlung durch denselben Hoheitsträger erfolgt.730 § 1 Abs. 2 NetzDG zeigt deutlich eine Ungleichbehandlung der verschiedenen Netzwerkanbieter untereinander. Anbieter sozialer Netzwerke mit weniger als zwei Millionen registrierten Nutzern sind von den Pflichten der §§ 2 bis 3b und 5a NetzDG befreit. Im Extremfall würde also ein registrierter Nutzer mehr oder weniger über die Anwendbarkeit der umfangreichen Pflichten des NetzDG entscheiden.731 Des Weiteren unterscheidet § 1 Abs. 1 NetzDG danach, welche Inhalte auf den Plattformen verbreitet werden. So sind solche Netzwerke von den Pflichten ausgenommen, die zur Individualkommunikation oder zur Verbreitung spezifischer Inhalte bestimmt sind. Es handelt sich hierbei teilweise um Plattformen mit immensen Nutzerzahlen,732 die ähnliche Kommunikationsstrukturen aufweisen wie allgemeine soziale Netzwerke, mit dem einzigen Unterschied, dass sie grundsätzlich eine themenspezifische Ausrichtung aufweisen beziehungsweise vorrangig der Individualkommunikation dienen.
727 EuGH, Urt. v. 07.03.2017, Rs. C-390/15, ECLI:EU:C:2017:174 Rn. 64 – RPO; Jarass, EU-Grundrechte-Charta Art. 20 Rn. 17; Frenz, Handbuch Europarecht: Band 4, Rn. 3183. 728 Frenz, Handbuch Europarecht: Band 4, Rn. 3197. 729 EuGH, Urt. v. 17.02.1976, Rs. C-45/75, ECLI:EU:C:1976:22 Rn. 12 – ReweZentrale/Hauptzollamt Landau-Pfalz; Urt. v. 14.01.1981, Rs. C-140/79, ECLI:EU:C: 1981:1 Rn. 10 – Chemial Farmaceutici; Frenz, Handbuch Europarecht: Band 4, Rn. 3198. 730 EuGH, Urt. v. 17.09.2002, C-320/00, ECLI:EU:C:2002:173 Rn. 17 f. – Lawrence u. a.; Frenz, Handbuch Europarecht: Band 4, Rn. 3201. 731 Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 124. 732 Beispielsweise das Karrierenetzwerk LinkedIn mit 774 Millionen Nutzern weltweit, (nach Angaben von LinkedIn, abrufbar unter: https://about.linkedin.com/de-de? lr=1) oder der Messengerdienst Telegram mit 500 Millionen aktiven Nutzern weltweit (nach Angaben von Telegram 400 Millionen im April 2020, abrufbar unter: https://tele gram.org/blog/400-million/de sowie weitere 100 Millionen seit Januar 2021, abrufbar unter: https://telegram.org/blog/move-history/de).
168
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
Daneben drängt sich eine weitere Ungleichbehandlung vergleichbarer Sachverhalte im NetzDG auf. Während für Videosharingplattform-Dienste mit Sitz in einem anderen Mitgliedstaat als der BRD die Pflichten aus §§ 2, 3, 3a und 3b NetzDG gemäß § 3e Abs. 3 NetzDG nur auf Anordnung der zuständigen Behörde gelten, sind sie von sämtlichen anderen sozialen Netzwerken mit Sitz in einem anderen Mitgliedstaat, die in den Anwendungsbereich fallen, ohne weitere behördliche Anordnung zu erfüllen. Solche Videosharing-Dienste erfüllen sämtliche Voraussetzungen der sozialen Netzwerke im Sinne des § 1 Abs. 1 NetzDG, mit dem einzigen Unterschied, dass es sich bei den Inhalten der Plattform hauptsächlich um nutzergenerierte Videos handelt. 3. Rechtfertigung dieser Ungleichbehandlung Es liegt kein Verstoß gegen den allgemeinen Gleichheitsgrundsatz aus Art. 20 GRCh vor, wenn die unterschiedliche Behandlung objektiv gerechtfertigt ist, das heißt, wenn mir ihr ein rechtlich zulässiges Ziel verfolgt wird und die ungleiche Behandlung in einem angemessenen Verhältnis zu diesem Ziel steht.733 In der Begründung zum NetzDG wird angeführt, dass die Bagatellgrenze des § 1 Abs. 2 NetzDG darin begründet sei, dass kleinere soziale Netzwerke weder Ressourcen noch Kapazitäten hätten, um die umfassenden gesetzlichen Anforderungen zu bewältigen. Darüber hinaus sei auch die diffamierende Wirkung von Hassnachrichten in kleineren Netzwerken aufgrund einer geringeren Nutzeranzahl und damit einer geringeren Reichweite als geringer einzuschätzen.734 Diese Begründung überzeugt indes in keiner Weise. Dass eine höhere Nutzerzahl mit einer höheren Reichweite einhergeht, ist keinesfalls ein Automatismus.735 Denn während bei größeren Netzwerken der Rezipientenkreis über die Privatsphäreeinstellungen verkleinert werden kann, können gleichermaßen Inhalte auf kleineren Plattformen von einer Vielzahl nicht registrierter Nutzer wahrgenommen werden.736 Weiterhin ist nicht ersichtlich, warum kleinere Plattformen nicht in der Lage sein sollten, die Compliance-Regeln des NetzDG zu befolgen. Soweit der Gesetzgeber darauf abstellt, dass sie nicht die erforderlichen Ressourcen und Kapazitäten hätten, ist festzuhalten, dass die Nutzerzahl nicht zwingend mit den finanziellen Möglichkeiten korreliert, vielmehr handelt es sich um ein Indiz.737 733 EuGH, Urt. v. 17.10.2013, Rs. C-101/12, ECLI:EU:C:2013:661 Rn. 77 – Schaible; Urt. v. 10.11.2016, Rs. C-156/15, ECLI:EU:C:2016:851 Rn. 49 – Private Equity Insurance Group; Urt. v. 07.03.2017, Rs. C-390/15, ECLI:EU:C:2017:174 Rn. 53 – RPO; Jarass, EU-Grundrechte-Charta Art. 20 Rn. 53. 734 BT-Drs. 18/12356, S. 19. 735 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 449; Nolte, 2017, 552 (560); Wimmers/Heymann, AfP 2017, 93 (101). 736 Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 125. 737 Spindler/Schmitz/Liesching, NetzDG § 1 Rn. 38.
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
169
Ferner ist davon auszugehen, dass das Beschwerdeaufkommen in kleineren sozialen Netzwerken nicht annähernd so hoch sein wird wie bei größeren Plattformen, wie zum Beispiel Facebook, sodass der Aufwand zur Erfüllung der CompliancePflichten ebenfalls deutlich geringer ausfällt.738 Der Gesetzgeber ist ferner davon ausgegangen, dass Plattformen mit einer bestimmten thematischen Ausrichtung, zum Beispiel Karriereplattformen, keiner gesetzlichen Compliance-Regeln bedürften.739 Allerdings finden sich auch auf berufsbezogenen Plattformen wie LinkedIn zunehmend Hasskommentare.740 Es besteht insofern kein sachlicher Grund, solche Plattformen, teilweise mit vielen Millionen Nutzern, vom Anwendungsbereich auszuklammern.741 Darüber hinaus drängt sich der Verdacht auf, dass der Gesetzgeber den Zusammenhang zwischen Plattformen zur Individualkommunikation und einem geringeren Gefährdungspotenzial nur vermutet hat. Denn wie schmal der Grat zwischen Individualkommunikation und Öffentlichkeit sein kann, hat das Beispiel Telegram in den letzten Monaten eindrucksvoll bewiesen. Anlässlich der Corona-Pandemie hat sich die Plattform als Heimat für Verschwörungstheoretiker hervorgetan, die dort in diversen Kanälen Hassnachrichten verbreiteten.742 Das Bundesamt für Justiz ist indes der Auffassung, dass Telegram aufgrund der Kanäle zur Gruppenkommunikation keine Individualkommunikationsplattform, sondern vielmehr ein soziales Netzwerk im Sinne des § 1 Abs. 1 NetzDG darstelle und sich daher an die Compliance-Pflichten des NetzDG zu halten habe.743 Es zeigt sich einmal mehr die Unschärfe des Anwendungsbereichs des NetzDG; schließlich sind die meisten Plattformen multifunktional, eine eindeutige Zuordnung ist mithin schwierig.744 Aber selbst wenn es sich um kleinere Gruppen und Kanäle handelt, darf die Perpetuierungswirkung nicht allzu leichtfertig abgelehnt werden. Wenn Nachrichten weitergeleitet, geteilt und Screenshots verschickt werden, ist eine hohe Reichweite von Hassnachrichten auch bei einer (vermeintlichen) Individualkommunikation schnell erreicht. 738 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 449; Nolte, 2017, 552 (560). 739 BT-Drs. 18/12356, S. 19. 740 Steinharter, Anmachsprüche und Hatespeech: Die Schattenseite von LinkedIn, Handelsblatt, abrufbar unter: https://www.handelsblatt.com/karriere/karrierenetzwerkanmachsprueche-und-hatespeech-die-schattenseiten-von-linkedin/27879374.html; Rentz, Ein offener Brief – und ein Versprechen, Horizont.net, abrufbar unter: https://www. horizont.net/medien/nachrichten/social-media-hate-speech-auf-linkedin-ein-offener-brief —und-ein-versprechen-190405. 741 So auch Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 449 f. 742 Hohlfeld et al., Communicating COVID-19 against the backdrop of conspiracy ideologies, Working Paper 2021. 743 MMR-Aktuell 2021, 440252. 744 Hoeren/Sieber/Holznagel/Kalbhenn/Hemmert-Halswick, Teil 21.3 Rn. 25; Tuchtfeld, Don’t shoot the Messenger, Verfassungsblog v. 21.12.2021.
170
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
All dies gilt auch mit Blick auf Videosharingplattformen mit Sitz in einem anderen Mitgliedstaat als der BRD. Allerdings hat der Gesetzgeber diese nicht gemäß § 3e Abs. 3 NetzDG von einem Großteil der Pflichten (es sei denn auf behördliche Anordnung) befreit, weil er von einem geringeren Risikopotenzial ausging, sondern um Art. 28a AVMD-Richtlinie umzusetzen, der ausdrücklich auf das Herkunftslandprinzip aus Art. 3 ECRL verweist. Schließlich sei davon auszugehen, dass durch die mindestharmonisierenden Bestimmungen der Art. 28a und 28b AVMD-RL ein ausreichender Schutz gewährleistet sei.745 Auch für diese Differenzierung ist kein sachlicher Grund ersichtlich, denn das Herkunftslandprinzip gilt – so viel darf an dieser Stelle schon verraten werden – auch für alle übrigen vom Anwendungsbereich des NetzDG erfassten sozialen Netzwerke mit Sitz in einem EU-Mitgliedstaat.746 Im Ergebnis bleibt festzuhalten, dass das NetzDG auch gegen den in Art. 20 Abs. 1 GRCh gewährleisteten allgemeinen Gleichheitsgrundsatz verstößt.
III. Unklarheit der Bußgeldandrohung Erfüllen die sozialen Netzwerke die ihnen auferlegten Pflichten nicht oder nur unzureichend, sieht das NetzDG Sanktionen in Form von Bußgeldern in empfindlicher Höhe vor. Die Voraussetzungen, die zu diesen Bußgeldern führen können, sind jedoch im NetzDG nur unzureichend formuliert. Zu diesen Formulierungen gehören beispielsweise rechtswidrige Inhalte (§ 1 Abs. 3 NetzDG), offensichtlich rechtswidrig (§ 3 Abs. 2 Nr. 2 NetzDG) und Verfahren nicht oder nicht richtig vorhält (§ 4 Abs. 1 Nr. 2 NetzDG). Die Unbestimmtheit der verwendeten Begriffe kann dazu führen, dass die Anbieter sozialer Netzwerke die bestehenden Pflichten nicht exakt eingrenzen können. 1. Der Bestimmtheitsgrundsatz aus Art. 49 Abs. 1 GRCh Der Bestimmtheitsgrundsatz ergibt sich aus Art. 49 Abs. 1 GRCh, der den Grundsatz der Gesetzmäßigkeit, nämlich den Grundsatz nulla poena sine lege, enthält.747 Teil dieses Grundsatzes sind der Bestimmtheitsgrundsatz, das Analogieverbot sowie das Rückwirkungsverbot.748 Der in Art. 49 Abs. 1 GRCh verwendete Begriff Strafe ist in diesem Kontext weit zu verstehen, sodass nicht nur Strafen im engeren Sinne davon erfasst werden, sondern auch andere Sanktionen, 745 Referentenentwurf zum Gesetz zur Änderung des Netzwerkdurchsetzungsgesetzes, S. 32 f. 746 Liesching, Gilt das NetzDG für Facebook, Youtube und Twitter?, beck-blog v. 11.02.2020; siehe zum Herkunftslandprinzip Kapitel 3 B. V. 747 Meyer/Hölscheidt/Eser/Kubiciel, GRCh Art. 49 Rn. 10. 748 Wabnitz/Janovsky/Schmitt/Dannecker/Bülte, Kapitel 2 Rn. 209 ff.; Bohnert/Bülte, Ordnungswidrigkeitenrecht § 1 Rn. 23.
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
171
die einen strafähnlichen Charakter haben.749 Damit sind auch Ordnungswidrigkeiten von Art. 49 Abs. 1 GRCh erfasst, sofern sie von hinreichendem Gewicht sind.750 Das NetzDG fällt daher hinsichtlich seiner Bußgeldtatbestände unter den Bestimmtheitsgrundsatz des Art. 49 Abs. 1 GRCh, auch weil mit dem NetzDG im Sinne des Art. 52 Abs. 5 GRCh Unionsrecht durchgeführt wird.751 Für eine ausreichende Bestimmtheit der Sanktionsvorschriften ist erforderlich, dass die Umstände, die zur Sanktion führen, derart klar umrissen sind, dass der Adressat der Norm sein Verhalten danach ausrichten kann.752 2. Verstoß gegen den Bestimmtheitsgrundsatz durch das NetzDG In der Literatur wurde einer Vielzahl der im NetzDG verwendeten Begriffe die ausreichende Bestimmtheit abgesprochen,753 wobei man – in der Sache zutreffend – einwenden kann, dass die Verwendung unbestimmter Rechtsbegriffe durchaus üblich und notwendig ist.754 Unbestimmte Rechtsbegriffe erfordern eine Auslegung, damit auch Sachverhalte erfasst werden können, die der Gesetzgeber nicht vollumfänglich vorhersehen konnte und lassen damit zu, dass das Recht in einem gewissen Maße offen für Entwicklung bleibt.755 Unbestimmte Rechtsbegriffe sind insofern nicht per se mit dem Rechtsstaatsprinzip unvereinbar. Der Verwendung von unbestimmten Rechtsbegriffen sind jedoch Grenzen gesetzt. Die Begriffe müssen der Auslegung zugänglich sein, sodass zumindest normative Kriterien herausgebildet werden können.756 Dies führt bei den fraglichen Begrifflichkeiten im NetzDG jedoch zu Schwierigkeiten. Unklar ist beispielsweise der Begriff der rechtswidrigen Inhalte aus § 1 Abs. 3 NetzDG.757 In diesem Paragrafen heißt es, dass rechtswidrige Inhalte solche seien, die einen der genannten Tatbestände erfüllen und nicht gerechtfertigt seien. Tatsächlich ist der Begriff Inhalt in diesem Zusammenhang zunächst irre-
749 EuGH, Urt. v. 31.03.2011, Rs. C-546/09, ECLI:EU:C:2011:199 – Aurubis Balgaria Rn. 42; Meyer/Hölscheidt/Eser/Kubiciel, GRCh Art. 49 Rn. 10; Jarass/Kment, EUGrundrechte § 42 Rn. 5; Kokott, NZWiSt 2017, 409 (410). 750 Jarass/Kment, EU-Grundrechte § 41 Rn. 5, § 42 Rn. 5. 751 Zur Durchführung des Unionsrechts siehe Kapitel 3 A. I. 5. a) aa). 752 Meyer/Hölscheidt/Eser/Kubiciel, GRCh Art. 49 Rn. 23. 753 Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 496; Guggenberger et al., NetzDG: im Zweifel gegen die Meinungsfreiheit, S. 60 f.; Holznagel, ZUM 2017, 615 (623); Liesching, ZUM 2017, 809 (813 f.); Peifer, AfP 2018, 14 (17); Wimmers/Heymann, AfP 2017, 93 (101). 754 Bautze, KJ 2019, 203 (210). 755 EGMR, Urt. v. 22.11.1995 – 20166/92, ECLI:CE:ECHR:1995:1122JUD002016 692 Rn. 36 – S.W. gegen Vereinigtes Königreich; EuG, Urt. v. 08.07.2008, Rs. T-99/04, ECLI:EU:T:2008:256 Rn. 141 – AC-Treuhand. 756 Meyer/Hölscheidt/Eser/Kubiciel, GRCh Art. 49 Rn. 23. 757 Liesching, ZUM 2017, 809.
172
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
führend, da ihn das Strafgesetzbuch nicht kennt.758 Zudem ist der Ausdruck auch insoweit ungünstig, als dass Inhalte im Sinne eines Tatobjekts nicht rechtswidrig sein können.759 Dennoch ist die Formulierung rechtswidrige Inhalte der Auslegung zugänglich. Denn aus der Legaldefinition „Inhalte [. . .], die den [. . .] Tatbestand erfüllen und nicht gerechtfertigt sind“, ist hinreichend erkennbar, was der Gesetzgeber bezwecken wollte.760 Offen gelassen wird hingegen die Frage, ob Sozialadäquanzklauseln anwendbar sind, da eine § 4 Abs. 1 S. 2 JMStV entsprechende Regelung im NetzDG fehlt.761 Diese Unklarheit wirkt sich auch auf die Bußgeldtatbestände aus, denn § 1 Abs. 3 NetzDG bestimmt die Straftatbestände, auf die sich die Pflichten der Betreiber und damit auch die Bußgeldtatbestände im Endeffekt beziehen.762 Weiterhin ordnet das NetzDG in § 3 Abs. 2 Nr. 2 an, dass offensichtlich rechtswidrige Inhalte innerhalb von 24 Stunden gesperrt oder gelöscht werden müssen. Wann ein Inhalt offensichtlich rechtswidrig sein soll, ergibt sich aus dem Gesetzestext allerdings nicht. Die Begründung zum NetzDG führt dazu aus, dass ein Inhalt offensichtlich rechtswidrig ist, „wenn zur Feststellung der Rechtswidrigkeit im Sinne von § 1 Abs. 3 keine vertiefte Prüfung erforderlich ist“.763 Sobald nur der geringste Zweifel an der Rechtswidrigkeit eines Inhalts besteht, kann eine Offensichtlichkeit nicht mehr bejaht werden.764 Es muss also auf den ersten Blick erkennbar sein, dass es sich um einen rechtswidrigen Inhalt handelt. Schwierig gestaltet sich dies allerdings im Fall von Satire.765 Solche Inhalte können auf den ersten Blick eindeutig rechtswidrig erscheinen und erst die Einordnung in den Kontext macht den satirischen – und damit häufig zulässigen – Inhalt erkennbar. Die hohen Löschquoten der sozialen Netzwerke innerhalb von 24 Stunden766 können dahingehend fehlinterpretiert werden, dass die Offensichtlichkeit in den 758
Holznagel, ZUM 2017, 615 (620); Liesching, ZUM 2017, 809 (810). Liesching, ZUM 2017, 809 (810). 760 So auch Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 227; Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 427; a. A. Liesching, ZUM 2017, 809 (810 f.). 761 Liesching, ZUM 2017, 809 (811). 762 Liesching, ZUM 2017, 809 (812 f.). 763 BT-Drs. 18/12356, S. 22. 764 Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 167. 765 So sperrte Twitter den Account des Satiremagazin „Titanic“ aufgrund eines parodistischen Tweets in der Sache Beatrix von Storch, Zeit Online, abrufbar unter: https:// www.zeit.de/digital/internet/2018-01/beatrix-von-storch-twitter-titanic-gesperrt-netzdgafd. 766 Liesching/Funke/Hermann/Kneschke/Mischnik/Nguyen/Prüßner/Rudolph/Zschammer, Das NetzDG in der praktischen Anwendung, S. 69. 759
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
173
meisten Fällen gegeben ist und die Einordnung daher in der Praxis kaum Schwierigkeiten macht. YouTube gab jedoch bei einer Befragung an, dass die Bearbeitung innerhalb von 24 Stunden erfolge, da der Inhalt ohnehin innerhalb dieser Frist begutachtet werden müsse, wobei eine Offensichtlichkeit in den meisten Fällen aufgrund komplexer Abwägungsfragen nicht gegeben sei.767 Facebook wies darauf hin, dass es an einer klaren Definition der Offensichtlichkeit fehle.768 Die fehlende Bestimmtheit dieses Begriffs wirkt sich auch auf die Bußgeldandrohung aus. Denn das Löschen offensichtlich rechtswidriger Inhalte innerhalb von 24 Stunden ist Teil des Verfahrens, dessen Nichteinhaltung nach § 4 Abs. 1 Nr. 2 NetzDG bußgeldbewehrt ist. Auch § 4 NetzDG selbst wirft Zweifel an der Bestimmtheit auf. In § 4 Abs. 1 NetzDG wird eine Bußgelddrohung daran geknüpft, dass einzelne Pflichten nicht richtig erfüllt werden.769 Hinsichtlich der Nr. 1, der nicht richtigen Erstellung eines Berichts, lässt sich diese Formulierung anhand der Anforderungen an die Berichte aus § 2 NetzDG noch hinreichend konkretisieren.770 Schwieriger wird eine solche Konkretisierung jedoch bei § 4 Abs. 1 Nr. 2 und 3 NetzDG. Die Anforderungen an das Verfahren sowie an die Ausgestaltung der Meldewege sind in § 3 Abs. 1 NetzDG jedenfalls nicht derart eindeutig beschrieben, dass zweifelsfrei festgestellt werden kann, wann diese Pflichten nicht richtig erfüllt werden. Eine Konkretisierung könnte sich jedoch aus den vom BMJV erlassenen Bußgeldleitlinien 771 ergeben. Aus diesen Leitlinien folgt, dass jedenfalls eine Fehlentscheidung im Einzelfall nicht zu einem Bußgeld führen würde, sondern es vielmehr eines systemischen Versagens bedürfe.772 Ein solches systemisches Versagen ergebe sich aus „beharrlichen Verstößen, das heißt zeit- und sachnah wiederholt auftretenden Verfehlungen gegen die Vorgaben aus § 3 Absatz 2 NetzDG“.773 Bei einem einmaligen Verstoß könne hingegen regelmäßig nicht davon ausgegangen werden, dass kein wirksames Verfahren für den Umgang mit Beschwerden eingerichtet wurde.774 Auch würden die Fristvorgaben lediglich eine Indizwirkung entfalten, die Nichteinhaltung wäre für sich genommen jedoch nicht bußgeldbewehrt.775 Die Bußgeldleitlinien tragen somit keineswegs zu mehr Klarheit 767 Siehe Befragung durch Liesching/Funke/Hermann/Kneschke/Mischnik/Nguyen/ Prüßner/Rudolph/Zschammer, Das NetzDG in der praktischen Anwendung, S. 274 f. 768 Siehe Befragung durch Liesching/Funke/Hermann/Kneschke/Mischnik/Nguyen/ Prüßner/Rudolph/Zschammer, Das NetzDG in der praktischen Anwendung, S. 281. 769 Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 495. 770 Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 228. 771 NetzDG-Bußgeldleitlinien v. 22.03.2018. 772 NetzDG-Bußgeldleitlinien v. 22.03.2018, S. 7. 773 NetzDG-Bußgeldleitlinien v. 22.03.2018, S. 8. 774 NetzDG-Bußgeldleitlinien v. 22.03.2018, S. 7. 775 NetzDG-Bußgeldleitlinien v. 22.03.2018, S. 7.
174
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
für die Auslegung bei. Wenn in den Leitlinien die Rede davon ist, dass ein einmaliger Verstoß regelmäßig kein Bußgeld nach sich ziehe, dann könnte das im Umkehrschluss heißen, dass dies in Ausnahmefällen doch erfolgen kann.776 Die erneute Nutzung unpräziser und unbestimmter Begrifflichkeiten sorgt keineswegs für eine bessere Verständlichkeit der Regelungen.777 Ohnehin findet sich der Hinweis, dass nur systemisches Versagen zu einem Bußgeld führen könne, lediglich in der Gesetzesbegründung778 sowie in den Bußgeldleitlinien 779, nicht aber im Gesetzestext selbst. Der Wortlaut des Gesetzestexts führt vielmehr zu dem Ergebnis, dass einzelne Verstöße sehr wohl geahndet werden können.780 Denn der Bußgeldtatbestand des § 4 Abs. 1 Nr. 2 NetzDG verweist auf § 3 Abs. 1 S. 1 NetzDG, der wiederum für die Ausgestaltung des Verfahrens auf § 3 Abs. 2 Nr. 2 und 3 NetzDG verweist. In diesen Vorschriften ist lediglich von Inhalt im Singular die Rede, sodass die Betreiber sozialer Netzwerke davon ausgehen müssen, dass sich die Bußgelder auch auf einen einzelnen Inhalt beziehen können.781 Der Wille des Gesetzgebers kann hier aus zwei Gründen keine Klarheit schaffen. Zum einen ist der Wille des Gesetzgebers – wie bereits dargestellt – nicht völlig unmissverständlich zum Ausdruck gekommen. Zum anderen kann der Wille des Gesetzgebers bei der Auslegung nur bis zur Wortlautgrenze des Gesetzes berücksichtigt werden, nicht jedoch darüber hinaus.782 Im Ergebnis ist damit der Bestimmtheitsgrundsatz des Art. 49 Abs. 1 GRCh verletzt.
IV. Befugnisse des Bundesamts für Justiz Dem Bundesamt für Justiz kommen im NetzDG Befugnisse zu, die an der Vereinbarkeit des NetzDG mit dem Grundsatz der Staatsferne der Medien Zweifel aufkommen lassen.783 Einerseits hat das BfJ weitreichende Befugnisse im Zu776
Skobel, Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, S. 495 f. Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 239 f. 778 BT-Drs. 18/12356, S. 24. 779 NetzDG-Bußgeldleitlinien v. 22.03.2018, S. 7. 780 Gersdorf/Paal/Hoven/Gersdorf, NetzDG § 1 Rn. 7; Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 230. 781 Gersdorf/Paal/Hoven/Gersdorf, NetzDG § 1 Rn. 7; Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 230. 782 Gersdorf/Paal/Hoven/Gersdorf, NetzDG § 1 Rn. 7. 783 Gersdorf/Paal/Gersdorf/Hoven, NetzDG § 4 Rn. 20 ff. Gersdorf, in: Eifert/Gostomzyk, Netzwerkrecht, S. 187 (213 f.); Hain/Ferreau/Brings-Wiesen, K&R 2017, 433 (435); Hopf/Braml, ZUM 2018, 1 (3 f.); Ladeur/Gostomzyk, Gutachten zur Verfassungsmäßigkeit, S. 77 ff.; DAV, Stellungnahme zum Entwurf eines Gesetzes zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken, S. 19. 777
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
175
sammenhang mit dem System der Regulierten Selbstregulierung im NetzDG. Andererseits kommt dem BfJ Ermessen in Hinblick auf das Vorabentscheidungsverfahren zu. 1. Der Grundsatz der Staatsferne der Medien aus Art 11 Abs. 2 GRCh Das Gebot der Staatsferne der Medien ist auch auf unionsrechtlicher Ebene verankert.784 Dort leitet sich der Grundsatz aus Art. 11 Abs. 2 GRCh ab, der eine subjektiv-abwehrrechtliche Dimension hat.785 Diese ergibt sich zunächst aus dem in Art. 11 Abs. 2 GRCh verwendeten Begriff Freiheit und darüber hinaus aus dem ausdrücklichen Verweis auf die Pluralität der Medien in Art. 11 Abs. 2 GRCh.786 Während es im deutschen Verfassungsrecht bereits seit den Sechzigerjahren eine umfassende Judikatur zum Grundsatz der Staatsferne der Medien gibt,787 ist dieser Grundsatz im europäischen Kontext weit weniger beachtet. Eingehend befasste sich der EGMR im Jahre 2009 mit der Staatsfreiheit des öffentlich-rechtlichen Rundfunks.788 In diesem Fall ließen Larisa Manole, moldauische Chefin der Nachrichtenredaktion und Nachrichtensprecherin, sowie weitere Antragssteller prüfen, ob die politische Einflussnahme der zu diesem Zeitpunkt regierenden kommunistischen Partei auf den staatlichen Fernsehsender mit der Konvention zu vereinbaren war. Zunächst verwies das Gericht auf die entscheidende Bedeutung der Meinungsfreiheit für eine demokratische Gesellschaft.789 Es stellte im Folgenden nicht nur eine Verletzung der Meinungsfreiheit aus Art. 10 Abs. 1 EMRK fest, sondern betonte auch, dass der Staat Garant für Pluralismus im Rundfunk sei und er diesbezüglich eine Gewährleistungspflicht innehabe, wovon auch die Pflicht des Staates umfasst sei, nicht auf die Medien einzuwirken.790 Zwar bezieht sich dieses Urteil nur auf den öffentlich-rechtlichen Rundfunk und nicht auf Anbieter privater Mediendienste. Die grundsätzliche Richtung der Staatsferne des Rundfunks und insbesondere das Erfordernis der pluralistischen Be-
784 Knodel, Medien und Europa, S. 345; Lutzhöft, Eine objektiv-rechtliche Gewährleistung der Rundfunkfreiheit in der Europäischen Union?, S. 302. 785 Knodel, Medien und Europa, S. 345; Schladebach/Simantiras, EuR 2011, 784 (791). 786 Knodel, Medien und Europa, S. 345. 787 Siehe dazu BVerfG, Urt. v. 28.02.1961 – 2 BvG 1/60, 2 BvG 2/60, BVerfGE 12, 205 – 1. Rundfunkurteil. 788 EGMR, Urt. v. 17.09.2009 – 13936/02, ECLI:CE:ECHR: 2009:0917JUD001393 602 – Manole u. a. gegen Republik Moldau. 789 EGMR, Urt. v. 17.09.2009 – 13936/02, ECLI:CE:ECHR: 2009:0917JUD001393 602 – Manole u. a. gegen Republik Moldau Rn. 96. 790 EGMR, Urt. v. 17.09.2009 – 13936/02, ECLI:CE:ECHR: 2009:0917JUD001393 602 – Manole u. a. gegen Republik Moldau Rn. 99 ff.
176
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
setzung von Aufsichtsgremien lässt sich gleichwohl erkennen.791 Aufgrund von Art. 52 Abs. 3 S. 1 GRCh und der Entsprechung der Grundrechte ist dieses Urteil auch in die Auslegung des Art. 11 Abs. 2 GRCh mit einzubeziehen.792 Der Grundsatz der Staatsferne bedeutet, dass Medien unabhängig von staatlichem Einfluss organisiert sein müssen.793 Dabei gilt dieser Grundsatz nicht nur für klassische Medien wie Rundfunk und Presse, sondern gleichermaßen für neue Medienformen, zu denen auch soziale Netzwerke gehören.794 2. Verstoß gegen den Grundsatz der Staatsferne durch das NetzDG Cornils ist der Auffassung, dass das NetzDG mit dem Gebot der Staatsferne der Medien thematisch schon nicht in Berührung komme, da das NetzDG lediglich den Schutz vor Inhalten bezwecke, die einen Straftatbestand erfüllen.795 Auf den ersten Blick betreffen die Befugnisse des BfJ im NetzDG Verfahrensvorgaben. Bei genauerer Betrachtung lassen sich jedoch auch Einflussmöglichkeiten auf Kommunikationsinhalte erkennen, was im Folgenden näher untersucht werden soll. a) Befugnisse des Bundesamts für Justiz in § 3 Abs. 6–9 NetzDG Das NetzDG eröffnet in § 3 Abs. 2 Nr. 3 lit. b den Anbietern sozialer Netzwerke die Möglichkeit, Entscheidungen über die Rechtswidrigkeit von Inhalten an eine Einrichtung der Regulierten Selbstregulierung zu übertragen. Das System der Regulierten Selbstregulierung im NetzDG orientiert sich an dem bereits etablierten System im Jugendmedienschutz. Über die Anerkennung einer Einrichtung der Regulierten Selbstregulierung oder deren Widerruf entscheidet nach § 19 Abs. 3 und 4 JMStV die zuständige Landesmedienanstalt, deren entscheidungsbefugtes Organ die Kommission für Jugendmedienschutz (KJM) ist. Dieses Vorgehen soll gerade dem Grundsatz der Staatsferne Rechnung tragen.796 Denn der KJM dürfen gemäß § 14 Abs. 4 JMStV unter anderem keine Mitglieder und Bediensteten der Europäischen Union sowie der Verfassungsorgane des Bundes und der Länder angehören. 791
Knodel, Medien und Europa, S. 338 f. Lutzhöft, Eine objektiv-rechtliche Gewährleistung der Rundfunkfreiheit in der Europäischen Union?, S. 305; Schladebach/Simantiras, EuR 2011, 784 (791 f.); siehe zur Entsprechung der Grundrechte bereits Kapitel 3 B. I. 1. c) aa). 793 Oster, European and international media law, S. 106; Schladebach/Simantiras, EuR 2011, 784 (791 f.). 794 Cornils, in: Eifert/Gostomzyk, Netzwerkrecht, S. 217. 795 Cornils, in: Eifert/Gostomzyk, Netzwerkrecht, S. 217 (235). 796 Liesching/Liesching, JMStV § 19 Rn. 2; Kreile/Diesbach, ZUM 2002, 849 (854). 792
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
177
Die Regelungen im NetzDG weichen jedoch von diesen Strukturen ab. Nach § 3 Abs. 7 und 8 i.V. m. § 4 Abs. 4 NetzDG ist die für die Anerkennung und den Widerruf der Anerkennung einer Einrichtung der Regulierten Selbstregulierung zuständige Behörde das Bundesamt für Justiz. Die Anforderungen an die Anerkennung in § 3 Abs. 6 NetzDG sind, vergleichbar mit den Anforderungen aus § 19 Abs. 2 JMStV, teilweise offen formuliert.797 Dem BfJ kommt damit ein Ermessen für die Entscheidung über die Anerkennung einer Einrichtung der Regulierten Selbstregulierung zu.798 § 3 Abs. 9 NetzDG ermächtigt das Bundesamt für Justiz auch, einen Anbieter sozialer Netzwerke für einen zeitlich befristeten Zeitraum von der Möglichkeit der Übertragung von Entscheidungen an eine Einrichtung der Regulierten Selbstregulierung auszuschließen. Das BfJ ist jedoch im Unterschied zur KJM kein staatsfrei organisiertes Organ, sondern vielmehr eine Bundesoberbehörde, die als solche dem BMJ nachgeordnet ist. Es ist damit eine staatsnahe Behörde, was dem Gebot der Staatsferne mitnichten Rechnung trägt.799 Dagegen kann man einwenden, dass durch die Anerkennung der Einrichtungen der Regulierten Selbstregulierung kein unmittelbarer Durchgriff auf die sozialen Netzwerke und somit auch keine Kontrolle von Kommunikationsinhalten erfolge.800 Das könnte jedoch zu kurz gedacht sein. Auch wenn keine unmittelbare Einflussmöglichkeit auf die Kommunikationsinhalte gegeben ist, so könnte durch das BfJ dennoch Einfluss auf die Einrichtungen der Regulierten Selbstregulierung, die unmittelbar mit Entscheidungen über die Rechtswidrigkeit von Inhalten befasst sind, ausgeübt werden. Eine, jedenfalls mittelbare, staatliche Einflussnahme auf Kommunikationsinhalte kann somit nicht ausgeschlossen werden. Denn die Befugnisse des BfJ erschöpfen sich nicht in verfahrensrechtlichen Fragen.801 Schließlich gehört zur Überprüfung, ob ein Fall an eine Einrichtung der Regulierten Selbstregulierung abgegeben werden darf, auch die Frage, ob es sich um einen offensichtlich rechtswidrigen Inhalt handelt, der gerade nicht abgegeben werden darf.802 Mit der Möglichkeit, im Hinblick auf Anerkennung und Widerruf der Anerkennung Ermessen auszuüben, kommen dem BfJ Befugnisse zu, die mit dem Ge-
797 Beispielsweise § 3 Abs. 6 Nr. 1 NetzDG „Unabhängigkeit und Sachkunde“ sowie § 3 Abs. 6 Nr. 2 „sachgerechte Ausstattung“, Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 174. 798 Gersdorf/Paal/Gersdorf/Hoven, NetzDG § 4 Rn. 27; Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 176; Heidrich/Scheuch, DSRITB 2017, 305 (310). 799 Gersdorf/Paal/Gersdorf/Hoven, NetzDG § 4 Rn. 24. 800 Cornils, in: Eifert/Gostomzyk, Netzwerkrecht, S. 217 (221). 801 Hopf/Braml, ZUM 2018, 1 (3 f.). 802 Hopf/Braml, ZUM 2018, 1 (3 f.).
178
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
bot der Staatsferne der Medien aus Art. 11 Abs. 2 GRCh nicht zu vereinbaren sind. b) Prüfkompetenz des Bundesamts für Justiz Ferner könnte dem Bundesamt für Justiz eine Prüfkompetenz aus § 4 Abs. 5 S. 1 NetzDG zukommen. Die Befugnis, über die Rechtswidrigkeit von Kommunikationsinhalten zu entscheiden, ließe sich mit dem Gebot der Staatsferne nicht vereinbaren. Gemäß § 4 Abs. 5 S. 1 NetzDG soll die Verwaltungsbehörde, folglich das BfJ, eine gerichtliche Entscheidung über die Rechtswidrigkeit von Inhalten herbeiführen, sofern sie ihre Entscheidung über ein Bußgeld darauf stützen will, dass nicht entfernte oder nicht gesperrte Inhalte rechtswidrig sind. Nach der Gesetzesbegründung soll ein solches Bußgeld nur bei systemischen Mängeln verhängt werden, also wenn sich das Zuweniglöschen häuft.803 Um dieses Versagen festzustellen, müssen die Inhalte zunächst auf ihre Rechtswidrigkeit überprüft werden.804 Erst dann kann festgestellt werden, dass die Inhalte hätten gelöscht werden müssen. Das Bundesamt für Justiz soll für diese Entscheidung vorab eine gerichtliche Entscheidung erwirken, im sogenannten Vorabentscheidungsverfahren. Die Ausgestaltung des § 4 Abs. 5 S. 1 NetzDG als Sollvorschrift hat erst durch die Empfehlungen des Ausschusses für Recht und Verbraucherschutz Eingang in das NetzDG gefunden.805 In der Begründung wird dazu ausgeführt, dass das Vorabentscheidungsverfahren nur in den Fällen geboten sei, in denen sich das Bußgeld auf eine systemisch falsche Entscheidungspraxis stütze, nicht jedoch, wenn es um fehlerhafte Anweisungen der Mitarbeiter des Beschwerdeteams ginge.806 Inwieweit diese Änderung wirklich notwendig war, erschließt sich hingegen nicht. Denn auch aus der ursprünglichen Fassung ergab sich eindeutig, dass ein Vorabentscheidungsverfahren einzig dann vorgesehen war, wenn das Bußgeld auf die Nichtsperrung oder Nichtlöschung von Inhalten gestützt werden sollte, da sich der Wortlaut auf einen nicht entfernten oder gesperrten Inhalt bezog.807 In der derzeit gültigen Fassung des § 4 Abs. 5 NetzDG ist die Durchführung eines Vorabentscheidungsverfahrens dem Wortlaut nach hingegen nicht zwingend vorgesehen. Der Ermessensspielraum der Behörde hinsichtlich der Frage, ob ein Ordnungswidrigkeitenverfahren, in dem empfindliche Bußgelder drohen, eröffnet wird, ist in diesem Zusammenhang ebenfalls geeignet, einen erheblichen Druck auf die Plattformbetreiber auszuüben.808 803
BT-Drs. 18/12356, S. 24. Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 181. 805 BT-Drs. 18/13013, S. 11. 806 BT-Drs. 18/13013, S. 22. 807 Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 182 f. 808 Gersdorf/Paal/Gersdorf/Hoven, NetzDG § 4 Rn. 26; Ladeur/Gostomzyk, Gutachten zur Verfassungsmäßigkeit, S. 77 ff. 804
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
179
Zudem eröffnet der § 3 Abs. 5 NetzDG dem Bundesamt für Justiz einen Ermessensspielraum bei der Beauftragung derjenigen Stelle, die das Verfahren nach § 3 Abs. 1 NetzDG überwacht. Der § 3 Abs. 5 NetzDG betrifft insoweit die inhaltliche Kontrolle der Kommunikationsinhalte, da er die unmittelbare Überwachung des Beschwerdeverfahrens nach § 3 Abs. 1 NetzDG durch die beauftragte Stelle vorsieht.809 Hinzu kommt, dass das Bundesamt für Justiz eine Prüfkompetenz „vergleichbar mit der Tätigkeit der Landesmedienanstalten als zuständige Verwaltungsbehörde gemäß § 24 des Jugendmedienschutz-Staatsvertrages“ haben soll.810 Die Landesmedienanstalten sind öffentlich-rechtlich, jedoch staatsfrei ausgestaltet.811 Insbesondere unterliegen sie keinerlei staatlichen Weisungen hinsichtlich Inhalten.812 Das Bundesamt für Justiz hingegen ist nicht staatsfrei organisiert, sondern vielmehr eine Bundesoberbehörde und soll dennoch die gleichen Prüfkompetenzen wie die Landesmedienanstalten innehaben. Dass die Durchführung des Vorabentscheidungsverfahrens nicht zwingend vorgeschrieben ist und das Bundesamt für Justiz mithin selbst über die Rechtswidrigkeit von Inhalten entscheiden könnte, eröffnet die Möglichkeit der staatlichen Einflussnahme auf Kommunikationsinhalte in sozialen Netzwerken und ist daher mit dem Grundsatz der Staatsferne der Medien nicht zu vereinbaren.813 Abzuwarten bleibt auch, wie sich die neuen Anordnungs- und Auskunftsbefugnisse aus § 4a NetzDG mit Blick auf das Gebot der Staatsferne auswirken werden. Denn die Formulierung insbesondere, bezogenen auf die erforderlichen Maßnahmen gegenüber den Anbietern, lässt einen weiten Interpretationsspielraum, welche Maßnahmen mit welchem Umfang erlassen werden können.814 3. Ergebnis Inwieweit eine vollumfängliche Staatsferne der Medien gefordert werden sollte und praktisch umgesetzt werden könnte,815 darf an dieser Stelle dahingestellt bleiben. Denn die vorangegangene Untersuchung hat gezeigt, dass gegen den Grundsatz der Staatsferne auf mehreren Ebenen verstoßen wurde. Besonders deutlich wird im Vergleich mit der Ausgestaltung der Aufsicht im Bereich des 809 Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 177. 810 BT-Drs. 18/12356, S. 12. 811 Paschke/Berlit/Meyer/Kröner/Held, 75. Abschnitt Rn. 10. 812 Paschke/Berlit/Meyer/Kröner/Held, 75. Abschnitt Rn. 15. 813 So auch Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 183 f. 814 Giere, Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), S. 184. 815 Mit Zweifeln Cornils, in: Eifert/Gostomzyk, Netzwerkrecht, S. 217 (223 f.).
180
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
Jugendmedienschutzes, dass es keinen erkennbaren Grund gibt, die Aufsicht dem Bundesamt für Justiz zu übertragen.
V. Anwendungsbereich des NetzDG Um eine möglichst umfassende Handhabe gegen Hassrede in sozialen Netzwerken zu haben, hat der Gesetzgeber mit dem NetzDG die nutzerstärksten Netzwerke wie Twitter, Facebook und Instagram in den Blick genommen. Diese Unternehmen haben ihren Sitz jedoch nicht in der Bundesrepublik. Daher weckt das Vorgehen des Gesetzgebers Zweifel an der Vereinbarkeit des NetzDG mit dem Herkunftslandprinzip aus Art. 3 Abs. 2 ECRL sowie aus Art. 28a Abs. 5 AVMD-RL i.V. m. Art. 3 ECRL. 1. Das Herkunftslandprinzip der E-Commerce-Richtlinie In besonderem Maße wirft die Vereinbarkeit des NetzDG mit dem Herkunftslandprinzip der E-Commerce-Richtlinie Fragen auf. Im Folgenden wird zunächst der Regelungsinhalt des Art. 3 Abs. 2 ECRL kurz erläutert und im Anschluss die Vereinbarkeit des NetzDG mit dieser Vorschrift überprüft. a) Art. 3 Abs. 2 ECRL Der Art. 3 ECRL normiert als zentrale Regelung der Richtlinie das sogenannte Herkunftslandprinzip. Ausgangspunkt dieser Regelung ist die Tatsache, dass eine Angebotsbereitstellung im Internet über Ländergrenzen hinaus Wirkung hat.816 Der Richtliniengeber verfolgte daher die zentralen Ziele, Binnengrenzen innerhalb der Europäischen Union abzubauen und gleichzeitig den elektronischen Geschäftsverkehr in der Informationsgesellschaft zu stärken.817 Kennzeichnend für den elektronischen Geschäftsverkehr ist, dass jegliche Informationen weit über Landesgrenzen hinaus in einer Vielzahl von Ländern abgerufen werden können. Das Land des Abrufs ist daher für den Anbieter kaum vorherzusehen, er müsste sein Angebot also an sämtlichen möglicherweise einschlägigen Rechtsordnungen ausrichten.818 Aufgrund der kostenintensiven und innovationshemmenden Wirkung eines solchen Vorgehens erschien es geradezu zwingend, den Anbieter lediglich einer einzigen Rechtsordnung zu unterwerfen.819 Eine Vereinheitlichung des Sachrechts war indes aufgrund einer Vielzahl von Unwägbarkeiten, insbesondere aber auf-
816 817 818 819
Grabitz/Hilf/Marly, ECRL Art. 3 Rn. 11. Erwägungsgründe 1 und 2 der ECRL. Grabitz/Hilf/Marly, Art. 3 Rn. 12. Grabitz/Hilf/Marly, Art. 3 Rn. 12.
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
181
grund der rasanten Entwicklung der zu regulierenden Technologie, kaum möglich.820 Aus ähnlichen Gründen scheiterte auch die Vereinheitlichung des Kollisionsrechts.821 Die Auswahl einer einzigen Rechtsordnung hätte umfassend erfolgen müssen, das heißt, dass die Auswahl nicht nur das Zivilrecht, sondern auch das Strafrecht sowie das öffentliche Recht erfasst hätte.822 Letztlich blieb daher das Herkunftslandprinzip als Lösung für die aufgeworfenen Schwierigkeiten, welches vorsieht, dass jeder Dienst nur den Rechtsvorschriften seines Niederlassungsstaats unterworfen ist.823 Das bedeutet auch, dass der Dienst im Empfangsstaat keinen strengeren Regeln unterworfen werden darf als im Staat der Niederlassung.824 Art. 3 Abs. 1 ECRL sieht dazu zunächst vor, dass jeder Mitgliedstaat Sorge für die Einhaltung der innerstaatlichen Vorschriften im koordinierten Bereich zu tragen hat. Im Weiteren normiert Art. 3 Abs. 2 ECRL, dass die Mitgliedstaaten den freien Verkehr von Diensten der Informationsgesellschaft aus einem anderen Mitgliedstaat nicht aus Gründen einschränken dürfen, die in den koordinierten Bereich fallen. In den folgenden Absätzen 3 und 4 des Art. 3 ECRL werden indes Ausnahmen von den Absätzen 1 und 2 genannt, nach denen das Herkunftslandprinzip ausnahmsweise durchbrochen werden darf.825 Vorteil des Abstellens auf den Ort der Niederlassung ist die angestrebte Rechtssicherheit sowohl für den Nutzer als auch für den Diensteanbieter.826 Beide Gruppen sollen sich so auf ein Rechtssystem einstellen können.827 Das Funktionieren des Herkunftslandprinzips unterliegt jedoch der doppelten Prämisse, dass ein Mindestmaß an Harmonisierung der Rechtsordnungen gegeben und die Einhaltung der Rechtsvorschriften in den Mitgliedstaaten gesichert ist.828 Dem soll die Richtlinie dadurch gerecht werden, dass sie den Regelungsbereich des Herkunftslandprinzips auf den koordinieren Bereich beschränkt. Da der koordinierte Bereich gemäß Art. 2 lit. f ECRL jedoch sämtliche Anforderungen an die Diensteanbieter sowohl auf europäischer als auch mitgliedstaatlicher Ebene umfasst, ist der Anwendungsbereich des Herkunftslandprinzips sehr weit.829
820
Grabitz/Hilf/Marly, ECRL Art. 3 Rn. 13; Ahrens, CR 2000, 835 (836). Grabitz/Hilf/Marly, ECRL Art. 3 Rn. 14; Ahrens, CR 2000, 835 (836). 822 Grabitz/Hilf/Marly, Art. 3 Rn. 14. 823 Erwägungsgrund 22 der ECRL. 824 EuGH, Urt. v. 25.10.2011, Rs. C-509/09 und C-161/10, ECLI:EU:C:2011:685 Rn. 66 f. – eDate Advertising u. a. 825 Dazu ausführlich unter Kapitel 3 B. V. 1. b) cc). 826 Erwägungsgrund 22 der ECRL. 827 Erwägungsgrund 22 der ECRL. 828 Grabitz/Hilf/Marly, ECRL Art. 3 Rn. 17 f.; Liesching, Das Herkunftslandprinzip der E-Commerce-Richtlinie, S. 6. 829 Hoeren, MMR 1999, 192 (195). 821
182
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
Dem Herkunftslandprinzip wurde und wird auch deutliche Kritik entgegengebracht.830 Grundsätzlich besteht die Gefahr, dass sich die Diensteanbieter in dem Mitgliedstaat niederlassen, in dem weniger strenge Regelungen herrschen, der Niederlassungsort folglich nach der Schwäche der Rechtsordnung gewählt wird.831 Diese Gefahr besteht insbesondere in Bereichen, die nicht harmonisiert sind.832 Aufgrund des Herkunftslandprinzips haben die Anbieter ihre Dienste dann nur an den Rechtsvorschriften dieses Mitgliedstaats auszurichten. Der angestrebte einheitliche Binnenmarkt wird so jedenfalls nicht erreicht, da Anbieter gleichartiger Dienste unterschiedlichen Regelungen aufgrund verschiedener Herkunftsländer unterliegen können.833 Auch vermag das Herkunftslandprinzip keine vollkommene Rechtssicherheit zu bieten, da die Rechtssicherheit für den Diensteanbieter nicht gleichbedeutend ist mit der Rechtssicherheit für den Nutzer der Dienste, was den Binnenmarkt ebenfalls beeinträchtigen kann.834 Die Nutzer befinden sich zumeist nicht im Niederlassungsstaat der Anbieter, sodass sie sich an den Gesetzen des jeweiligen Herkunftsstaats orientieren müssen, um ihre Interessen durchzusetzen. Vor dem Hintergrund der rasanten Entwicklung des Internets in den vergangenen Jahren darf man sich zudem die Frage stellen, ob die ECRL überhaupt noch zeitgemäß ist. Die Schnelllebigkeit des Internets und die zunehmende Entwicklung von Plattformen, auf denen die Nutzer aktiv eigene Inhalte teilen können, war für die Richtliniengeber im Jahr 2000 nicht absehbar.835 Aus diesem Grund hat die Kommission am 15. Dezember 2020 den Entwurf des Digital Services Act (DSA-E) vorgelegt.836 Seit dem Erlass der ECRL hätten neue Technologien und digitale Angebote die Internetlandschaft verändert und gleichzeitig die Gesellschaft mit neuen Risiken und Herausforderungen konfrontiert, sodass eine Neuordnung erforderlich sei.837
830 Siehe nur Grabitz/Hilf/Marly, ECRL Art. 3 Rn. 17 ff.; Bodewig, GRUR Int 2000, 475 (475 ff.); Hoeren, MMR 1999, 192 (194 ff.). 831 Grabitz/Hilf/Marly, ECRL Art. 3 Rn. 17; Ahrens, CR 2000, 835 (837); Bodewig, GRUR Int 2000, 475 (481 f.); Härting, CR 2001, 271 (273); Hoeren, MMR 1999, 192 (194). 832 Ahrens, CR 2000, 835 (837). 833 Nölscher, ZUM 2020, 301 (308). 834 Nölscher, ZUM 2020, 301 (308). 835 Eifert, in: Eifert/Gostomzyk, Netzwerkrecht, S. 9 (24); Nölscher, ZUM 2020, 301 (309). 836 Regulation of the European Parliament and of the Council on a Single Market for Digital Services (Digital Services Act) and amending Directive 2000/31/EV, COM(2020) 825 final. 837 COM(2020) 825 final, S. 1.
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
183
b) Vereinbarkeit des NetzDG mit dem Herkunftslandprinzip, Art. 3 Abs. 2 ECRL Nach Art. 3 Abs. 2 ECRL dürfen die Mitgliedstaaten den freien Verkehr von Diensten der Informationsgesellschaft aus einem anderen Mitgliedstaat nicht aus Gründen einschränken, die in den koordinierten Bereich fallen. Dass die Regelungen des NetzDG auch für soziale Netzwerke gelten sollen, die ihren Sitz im europäischen Ausland haben, lässt sich sowohl der Gesetzesbegründung als auch dem Gesetz selbst entnehmen. Weder die Vorschrift des § 4 Abs. 3 NetzDG über die Tatbegehung im Ausland noch die Bestellung eines inländischen Zustellungsbevollmächtigten nach § 5 NetzDG würden Sinn ergeben, wenn nur soziale Netzwerke mit Sitz in der Bundesrepublik Deutschland adressiert werden sollten.838 Zu letzterer Vorschrift führt die Entwurfsbegründung explizit aus, dass die Vorschrift für „soziale Netzwerke unabhängig von ihrem Sitz im Inland oder Ausland“ gilt.839 Zudem sieht der Gesetzgeber selbst die Notwendigkeit, sich mit einer möglichen Kollision des NetzDG mit Art. 3 ECRL auseinanderzusetzen. Dabei geht er davon aus, dass es sich beim NetzDG um eine Konkretisierung des Art. 14 ECRL handele, weshalb der Gesetzgeber in seiner Begründung nur „hilfsweise“ auf das Herkunftslandprinzip eingeht.840 aa) Soziale Netzwerke als Dienste der Informationsgesellschaft Dass die sozialen Netzwerke vom Anwendungsbereich des Herkunftslandprinzips erfasst sind, ergibt sich aus ihrer Einordnung als Dienste der Informationsgesellschaft. Gemäß Art. 3 Abs. 2 ECRL bezieht sich das Herkunftslandprinzip nur auf solche Dienste. Für die Definition dieses Begriffs verweist Art. 2 lit. a ECRL auf Art. 1 Nummer 2 der Richtlinie 98/34/EG in der Fassung der Richtlinie 98/48/EG. Danach ist eine Dienstleistung der Informationsgesellschaft „jede in der Regel gegen Entgelt elektronisch im Fernabsatz und auf individuellen Abruf eines Empfängers erbrachte Dienstleistung“. Fernabsatz bedeutet nach der Legaldefinition in derselben Vorschrift, dass die Dienstleistung „ohne gleichzeitige physische Anwesenheit der Vertragsparteien erbracht wird“. Das Geschäftsmodell sozialer Netzwerke beruht auf der Idee, die Kommunikation zu ermöglichen, auch wenn die Nutzer sich nicht am selben Ort befinden. Auch findet eine elektronisch erbrachte Dienstleistung statt, die auf individuelle Anforderung des Empfängers erbracht wird. Hinsichtlich der Entgeltlichkeit dieser Dienste kann man argumentieren, dass die Entgeltzahlung zwar nicht durch die Nutzer, aber durch die Werbetreibenden erfolgt, die ihre Werbung auf den 838 Spindler, ZUM 2017, 473 (474 f.); Hoeren, Netzwerkdurchsetzungsgesetz europarechtswidrig, beck-blog v. 30.03.2017. 839 BT-Drs. 18/12356, S. 27. 840 BT-Drs. 18/12356, S. 13 f.
184
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
sozialen Netzwerken platzieren.841 Dieses Ergebnis deckt sich auch mit dem Willen des Richtliniengebers. In Erwägungsgrund 18 S. 4 der ECRL stellt der Richtliniengeber klar, dass Dienste der Informationsgesellschaft zwar überhaupt eine wirtschaftliche Tätigkeit ausüben müssen, dass diese aber nicht von denjenigen vergütet werden muss, die sie empfangen. Der Gesetzgeber des NetzDG hat jedenfalls richtig erkannt, dass die betreffenden sozialen Netzwerke als Dienste der Informationsgesellschaft insoweit dem Anwendungsbereich der ECRL unterfallen.842 bb) Koordinierter Bereich Auch hat der Gesetzgeber zutreffend erkannt, dass die Regelungen des NetzDG gemäß Art. 3 Abs. 2 ECRL in den koordinierten Bereich der ECRL fallen.843 Dieser wird in Art. 2 lit. h ECRL definiert. Der koordinierte Bereich entspricht den „die für die Anbieter von Diensten der Informationsgesellschaft und die Dienste der Informationsgesellschaft in den Rechtssystemen der Mitgliedstaaten festgelegten Anforderungen, ungeachtet der Frage, ob sie allgemeiner Art oder speziell für sie bestimmt sind.“ Dazu gehören nach lit. h Ziffer i die Aufnahme der Tätigkeit sowie die Ausübung der Tätigkeit und die jeweils damit verbundenen Anforderungen. Nicht umfasst sind hingegen nach Art. 2 lit. h Ziffer ii ECRL Anforderungen betreffend der Ware als solcher, der Lieferung oder Diensten, die nicht auf elektronischem Wege erbracht werden. In Bezug auf das NetzDG ist Art. 2 lit. h Ziffer i 2. Spiegelstrich ECRL einschlägig. Dort heißt es, dass der koordinierte Bereich vom Diensteanbieter zu erfüllende Anforderungen in Bezug auf „die Ausübung der Tätigkeit eines Dienstes der Informationsgesellschaft, beispielsweise Anforderungen betreffend das Verhalten des Diensteanbieters, Anforderungen betreffend Qualität oder Inhalt des Dienstes [. . .] sowie Anforderungen betreffend die Verantwortlichkeit des Diensteanbieters“ betrifft. Die den Betreibern durch das NetzDG auferlegten Pflichten fallen in diesen Bereich. Die Vorschriften zur Berichtspflicht (§ 2 NetzDG), der Pflicht zu Einrichtung eines Beschwerdeverfahrens (§ 3 NetzDG) und eines Gegenvorstellungsverfahrens (§ 3b NetzDG) sowie der Meldung bestimmter Inhalte an das BKA (§ 3a NetzDG), die Pflicht zur Ernennung eines inländischen Zustellungsbevollmächtigten (§ 4 NetzDG) stellen Anforderungen an das Verhalten und die Verantwortlichkeit der Anbieter sozialer Netzwerke.844 Zwar ringt sich der Gesetzgeber nur die vage Aussage ab, dass die Betreiberpflichten in den koordinierten Bereich fallen „dürften“,845 die genannten Vorschriften lassen aber keine andere Schlussfolgerung zu. 841 842 843 844
Siehe dazu auch Kapitel 3 B. I. 2. a). BT-Drs. 18/12356, S. 13 f. BT-Drs. 18/12356, S. 14. Hoeren, Netzwerkdurchsetzungsgesetz europarechtswidrig, beck-blog v. 30.03.
2017. 845
BT-Drs. 18/12356, S. 14.
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
185
Eine Unvereinbarkeit mit dem Herkunftslandprinzip liegt dann vor, wenn das deutsche Recht mit dem NetzDG strengere Anforderungen an die Betreiber sozialer Netzwerke stellen würde, als es deren Herkunftsländer tun.846 Diese sehen aber derzeit keine vergleichbaren Regelungen vor, sodass das deutsche Recht Beschränkungen normiert, welche die Rechtsordnungen der anderen Mitgliedstaaten nicht kennen.847 Die Argumentation, dass es sich bei den Vorschriften des NetzDG nur um eine Ausformulierung der in Art. 14 ECRL gesetzten Handlungspflichten für Diensteanbieter handele, ist wenig zielführend.848 Denn auch diese Befugnis besteht nur gegenüber den im Inland ansässigen Anbietern.849 cc) Ausnahmen vom Herkunftslandprinzip Der deutsche Gesetzgeber hat zutreffend erkannt, dass die Vorschriften des NetzDG in den koordinierten Bereich und damit unter das Herkunftslandprinzip fallen. Der Gesetzgeber geht dennoch von einer Vereinbarkeit des NetzDG mit dem Herkunftslandprinzip aus und stützt sich auf die Ausnahme nach Art. 3 Abs. 4 lit. a Ziffer i ECRL.850 (1) Art. 3 Abs. 3 ECRL, generelle Ausnahmen Der Gesetzgeber kann sich jedenfalls nicht auf eine generelle Ausnahme aus Art. 3 Abs. 3 ECRL, der auf die im Annex der ECRL genannten Bereiche verweist, berufen. Das NetzDG bezweckt die Verbesserung der Durchsetzung bestimmter Straftatbestände in sozialen Netzwerken, indem die Verbreitung rechtswidriger Inhalte verhindert wird. Die durch das NetzDG betroffenen Rechtsgebiete sind nicht im Annex aufgeführt. Der Erwägungsgrund 8 der ECRL weist zwar darauf hin, dass es nicht Sinn der Richtlinie ist, das Strafrecht als solches zu harmonisieren. Das bedeutet jedoch nicht, dass der Bereich des Strafrechts vom Herkunftslandprinzip ausgenommen ist.851 Im Gegenteil: Das Strafrecht fällt in den koordinierten Bereich, was die Ausnahmen für Strafnormen und Strafverfahren in Art. 3 Abs. 4 lit. a und b ECRL zeigen, die keinen Sinn ergeben würden, wenn der Richtliniengeber davon ausgehen würde, dass das Strafrecht ohnehin nicht in den koordinierten Bereich fallen würde.852 Vor allem trifft das NetzDG 846 Deutscher Bundestag, Fachbereich Europa, PE 6 – 3000 – 32/17, S. 10; Hoeren, Netzwerkdurchsetzungsgesetz europarechtswidrig, beck-blog v. 30.03.2017. 847 Hoeren, Netzwerkdurchsetzungsgesetz europarechtswidrig, beck-blog v. 30.03. 2017. 848 Nölscher, ZUM 2020, 301 (308). 849 Peifer, AfP 2018, 14 (22). 850 BT-Drs. 18/12356, S. 13. 851 MüKoStGB/Altenhain, TMG § 3 Rn. 5; Handel, MMR 2017, 227 (230); Schwiddessen, CR 2017, 443 (450); Spindler, ZUM 2017, 473 (476). 852 MüKoStGB/Altenhain, TMG § 3 Rn. 5; Spindler/Schmitz/Liesching/Spindler, TMG § 3 Rn. 70; Handel, MMR 2017, 227 (230); Spindler, K&R 2017, 533 (536).
186
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
Regelungen zur Verantwortlichkeit der Anbieter sozialer Netzwerke, einem Bereich, der nicht von den Ausnahmen erfasst,853 sondern im Gegenteil von der ECRL ausdrücklich reguliert wird. (2) Art. 3 Abs. 4 ECRL, das NetzDG als einzelfallbezogene Ausnahme Der Gesetzgeber geht davon aus, dass Art. 3 Abs. 4 ECRL die Vorschriften des NetzDG als Ausnahme vom Herkunftslandprinzip rechtfertigt.854 Ob dies der Fall ist, soll im Folgenden untersucht werden. (a) Art. 3 Abs. 4 lit. a Ziffer i ECRL, Schutzziele Die Mitgliedstaaten können Maßnahmen ergreifen, wenn die Bedingungen von Art. 3 Abs. 4 lit. a und b ECRL erfüllt sind. Dazu gehört zunächst das Vorliegen eines Grundes nach Art. 3 Abs. 4 lit. a Ziffer i ECRL. Dies kann der „Schutz der öffentlichen Ordnung, insbesondere Verhütung, Ermittlung, Aufklärung und Verfolgung von Straftaten, einschließlich des Jugendschutzes und der Bekämpfung von Hetze aus Gründen der Rasse, des Geschlechts, des Glaubens oder der Nationalität sowie von Verletzungen der Menschenwürde einzelner Personen“ sein. Der Gesetzesbegründung nach sieht das NetzDG insbesondere ein effektives Beschwerdemanagement zur Verbesserung der Durchsetzung der in § 1 Abs. 3 NetzDG genannten Straftatbestände vor.855 Dies sei notwendig, um die Hasskriminalität und andere strafbare Inhalte zu bekämpfen und zu verfolgen, mit dem Ziel, das friedliche Zusammenleben der freien, offenen und demokratischen Gesellschaft in Deutschland zu schützen.856 Der Begriff der öffentlichen Ordnung ist weit und erfasst grundsätzlich jede Gesetzesverletzung; seine Einschränkung erfährt er über die Verhältnismäßigkeitsprüfung.857 Darüber hinaus soll das NetzDG ausweislich der Begründung der Bundesregierung auch der Bekämpfung von Hetze im Netz dienen.858 Die Kommission hat im Rahmen des Notifizierungsverfahrens zum NetzDGÄndG-E bestätigt, dass die Bekämpfung illegaler Online-Inhalte ein geeignetes Schutzziel im Sinne des Art. 3 Abs. 4 lit. a Ziffer i ECRL sein kann.859
853
Siehe auch Deutscher Bundestag, Fachbereich Europa, PE 6 – 3000 – 22/17,
S. 5. 854 855 856 857 858 859
BT-Drs. 18/12356, S. 14. BT-Drs. 18/12356, S. 14. BT-Drs. 18/12356, S. 14. Grabitz/Hilf/Marly, ECRL Art. 3 Rn. 35. BT-Drs. 18/12356, S. 2. Europäische Kommission, C(2020) 4575 final, S. 7 f.
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
187
(b) Art. 3 Abs. 4 lit. a Ziffer ii ECRL, betrifft das NetzDG einen bestimmten Dienst der Informationsgesellschaft? Nach Auffassung des Gesetzgebers sind auch die weiteren Voraussetzungen für die Ausnahme vom Regelungsverbot erfüllt.860 Besondere Schwierigkeiten birgt die Voraussetzung des Art. 3 Abs. 4 lit. a Ziffer ii ECRL, wonach die Maßnahmen einen bestimmten Dienst der Informationsgesellschaft betreffen müssen, der die unter Ziffer i genannten Schutzziele beeinträchtigt oder zumindest die Gefahr einer Beeinträchtigung schafft. Der Gesetzgeber führt in seiner Begründung aus, dass die durch das NetzDG statuierten Compliance-Pflichten sozialer Netzwerke spezielle Dienste der Informationsgesellschaft betreffen würden.861 Der Gesetzgeber legt den Begriff also dahingehend aus, dass auch ein genereller Tätigkeitstypus, mithin also eine Gruppe von Anbietern erfasst sein kann.862 (aa) Auslegung des Art. 3 Abs. 4 lit. b Ziffer ii ECRL Diese Interpretation des Wortlauts „betreffen einen bestimmten Dienst der Informationsgesellschaft“ löst Skepsis aus. Denn ein bestimmter Dienst, wohlgemerkt im Singular, lässt im allgemeinen Sprachgebrauch darauf schließen, dass ein einzelner, klar definierter Dienst gemeint ist. Der Wortlaut der französischen Fassung der ECRL bringt zudem deutlicher als die deutsche Fassung zum Ausdruck, dass nur ein einzelner Dienst gemeint sein kann („à l’égard d’un service donné de la société de l’information“).863 Für die Interpretation des Art. 3 Abs. 4 ECRL als reine Einzelfallausnahme spricht auch die Verwendung des Begriffs Maßnahmen, der zwar Gesetze und Einzelakte umfassen kann, jedoch dem allgemeinen Sprachgebrauch nach eher auf ein Handeln im Einzelfall hindeutet als auf eine abstrakt-generelle Regelung.864 Auch der in der englischen Fassung der ECRL verwendete Ausdruck measures sowie der französische Begriff mesures lassen keine andere Auslegung zu. Nölscher hält dem entgegen, dass diese Sprachversionen ähnlich abstrakt seien wie die deutsche Fassung, womit sich aus dem Vergleich keine stichhaltigen Schlüsse ziehen ließen.865 In systematischer Hinsicht spricht für die Auslegung der Ausnahme als einzelfallbezogen die Tatsache, dass Art. 3 Abs. 4 lit. b ECRL die Maßnahmen „Gerichtsverfahren, einschließlich Vorverfahren und Schritte im Rahmen einer strafrechtlichen Ermittlung“ gleichstellt.866 Dies deutet darauf hin, dass die fraglichen 860 861 862 863 864 865 866
BT-Drs. 18/12356, S. 14. BT-Drs. 18/12356, S. 14. Nölscher, ZUM 2020, 301 (307). Spindler, ZUM 2017, 473 (477). Hain/Ferreau/Brings-Wiesen, K&R 2017, 433. Nölscher, ZUM 2020, 301 (307). Hain/Ferreau/Brings-Wiesen, K&R 2017, 433 (434).
188
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
Maßnahmen ebenso einzelfallbezogen gedacht sind wie Gerichtsverfahren.867 Gegen die generelle Ermächtigung zu Beschränkungen durch den Art. 3 Abs. 4 ECRL spricht auch der Annexkatalog zu Art. 3 Abs. 3 ECRL.868 Denn diese explizite Aufzählung von Ausnahmen würde keinen Sinn ergeben, wenn Art. 3 Abs. 4 ECRL ohnehin generelle Ausnahmen ermöglichen würde.869 Auch die Konsultationspflichten weisen eher einen Einzelfallbezug auf, als dass sie zu abstrakt-generellen Maßnahmen passen würden.870 Letztlich deutet auch der Zweck des Herkunftslandprinzips auf diese Auslegung hin.871 Das Herkunftslandprinzip würde zu einer leeren Hülle verkommen, wenn Art. 3 Abs. 4 ECRL abstrakt-generelle Regelungen zuließe.872 Wenn der Diensteanbieter eine Vielzahl von Ausnahmen in verschiedenen Mitgliedstaaten zu beachten hätte, würde das Ziel der Vereinheitlichung faktisch unterlaufen.873 Eine Ausnahme kann sich insofern nur auf einen gut begründeten Einzelfall beschränken und nicht abstrakt für eine Vielzahl von Fällen angenommen werden. Die Interpretation der Vorschrift, dass lediglich konkret-individuelle Maßnahmen gemeint sind, lässt jedoch Zweifel an ihrer Vereinbarkeit mit dem Rechtsstaatsprinzip aus Art. 2 EUV aufkommen.874 Denn nach dem Rechtsstaatlichkeitsprinzip sind Einzelfallgesetze nicht zulässig.875 Gleichwohl hat sich die EU-Kommission deutlich zu dieser Frage positioniert.876 Die Mitteilung der Kommission vom 15. März 2003 bezog sich auf die Anwendung der ECRL auf den Finanzdienstleistungsbereich. Darin stellt die Kommission klar, dass sich eine Maßnahme im Sinne des Art. 3 Abs. 4 ECRL auf einen konkreten Fall, das heißt auf eine bestimmte Dienstleistung von einem bezeichneten Anbieter beziehen muss.877 Mit dieser Auslegung fordert die Kommission aber keineswegs – dem Rechtsstaatlichkeitsprinzip widersprechende – Einzelfallgesetze. Vielmehr geht es darum, dass aufgrund bestehender Gesetze Maßnahmen gegen einen bestimmten Dienst erlassen werden. Damit könnte nach Art. 3 Abs. 4 ECRL nicht
867
Hain/Ferreau/Brings-Wiesen, K&R 2017, 433 (434). Spindler, K&R 2017, 533 (536). 869 Spindler, K&R 2017, 533 (536). 870 MüKoStGB/Altenhain, TMG § 3 Rn. 52. 871 Savin, EU Internet law, S. 58 f.; siehe zum Zweck des Herkunftslandprinzips Kapitel 3 B.V. 1. a). 872 Liesching, Das Herkunftslandprinzip der E-Commerce-Richtlinie, S. 19. 873 Liesching, Das Herkunftslandprinzip der E-Commerce-Richtlinie, S. 19. 874 Nölscher, ZUM 2020, 301 (308). 875 Calliess/Ruffert/Calliess, EUV Art. 2 Rn. 26 f.; Nölscher, ZUM 2020, 301 (308). 876 Europäische Kommission, KOM(2003) 259 endg., S. 5. 877 Europäische Kommission, KOM(2003) 259 endg., S. 5. 868
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
189
das gesamte NetzDG, sondern lediglich eine auf dem NetzDG beruhende Maßnahme gerechtfertigt werden.878 Allerdings hat die Kommission das NetzDG im Rahmen des Notifizierungsverfahrens vom 27. März 2017 unbeanstandet gelassen.879 Dass die Kommission das NetzDG nicht beanstandet hat, bedeutet aber nicht, dass dadurch ein Verstoß gegen das Herkunftslandprinzip beseitigt würde.880 Dennoch könnte man annehmen, dass die Kommission von ihrer Auslegung der Vorschrift als Ausnahme für Einzelfälle abgerückt ist.881 Schließlich ist auch das Internet derart im Wandel begriffen, dass der europäische Richtliniengeber im Jahr 2000 eine solche Entwicklung nicht erahnen konnte.882 So haben die vom Gesetzgeber des NetzDG vornehmlich adressierten sozialen Netzwerke allesamt erst nach Erlass der ECRL ihren Weg in das World Wide Web gefunden.883 Jedoch wurde das Herkunftslandprinzip in Art. 28a Abs. 5 der AVMD-Richtlinie für Videosharingplattformen, einer Form sozialer Netzwerke, erneut bestätigt. Zwar wurden, im Gegensatz zur ECRL, in Art. 28b AVMD-Richtlinie umfassendere Mindeststandards für den Umgang mit Hasskriminalität festgelegt, die einen Alleingang der Mitgliedstaaten zur Sicherung von Grundrechten entbehrlich machen könnten.884 Eine generelle Abkehr vom Prinzip der Einzelfallausnahme lässt sich daraus dennoch nicht begründen. Die Kommission stellte zudem kürzlich in ihren Bemerkungen zum Notifizierungsverfahren der französischen Loi Avia, dem österreichischen „Kommunikationsplattformengesetz“ (KoPl-G)885 sowie dem NetzDGÄndG-E klar, dass die Ausnahme zielgerichtet sein müsse, „da der Dienst das Ziel, das zur Rechtfertigung der restriktiven Maßnahmen angeführt wird, beeinträchtigt, oder eine ernste und schwerwiegende Gefahr einer Beeinträchtigung darstellt“.886 Die Loi Avia und das KoPl-G stellen ähnliche Anforderungen an Anbieter sozialer Netzwerke wie das deutsche NetzDG.
878 Liesching, Das Herkunftslandprinzip der E-Commerce-Richtlinie, S. 84; im Ergebnis auch Nölscher, ZUM 2020, 301 (308). 879 Notifizierungsnummer 2017/127/D. 880 Nölscher, ZUM 2020, 301 (309). 881 Nölscher, ZUM 2020, 301 (309). 882 Nölscher, ZUM 2020, 301 (309). 883 Facebook beispielsweise ist seit dem Jahr 2004 online, YouTube seit 2005, Twitter seit 2006 und TikTok seit 2018 (zuvor musical.ly von 2016 bis 2018). 884 Regierungsentwurf eines Gesetzes zur Änderung des Netzwerkdurchsetzungsgesetzes, S. 56; Nölscher, ZUM 2020, 301 (310). 885 Bundesgesetz über Maßnahmen zum Schutz der Nutzer auf Kommunikationsplattformen v. 10.12.2020 i. d. F. der Bekanntmachung v. 23.12.2020, BGBl. I Nr. 151/ 2020. 886 Europäische Kommission, C(2020) 4575 final, S. 9, ebenso in Europäische Kommission, C(2020) 8737 final, S. 7 und Europäische Kommission, C(2019) 8585 final, S. 4.
190
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
(bb) Erkenntnisse aus der österreichischen Gesetzgebung Der österreichische Gesetzgeber verweist in seiner Begründung zum KoPl-G auf die Begründung des NetzDG, dass eine spezielle Kategorie von Diensten und nicht bloß ein einzelner Dienst unter die Ausnahme des Art. 3 Abs. 4 ECRL fallen könne.887 Wenn die Kommission betreffend der Begründung des österreichischen Gesetzes Zweifel äußert, kann das daher nur bedeuten, dass jene Zweifel auch bezüglich des NetzDG bestehen müssen. Nähere Ausführungen zu Art. 3 Abs. 4 lit. a Ziffer ii ECRL unterlässt die Kommission jedoch, wobei die gewählte Formulierung („der Dienst“ beziehungsweise „the service“) ebenfalls für die Annahme einer Einzelfallausnahme spricht. Mit der Vereinbarkeit des KoPl-G mit dem Herkunftslandprinzip hat sich auch das österreichische Bundesverwaltungsgericht beschäftigt.888 Art. 3 Abs. 4 lit. a Ziffer ii ECRL stehe dem KoPl-G insoweit nicht entgegen, als dass dieses die gesetzliche Grundlage für individuell-konkrete Rechtsakte darstelle. Daher sei auch bisher keine Aufforderung im Sinne des Art. 3 Abs. 4 lit. b ECRL an den Sitzstaat des betroffenen Dienstes erfolgt. Denn bisher seien noch keine konkreten Maßnahmen gegen den Dienst getroffen worden. Das KoPl-G sei auch angemessen, da ein Verfahren gegen die Diensteanbieter erst bei wiederholten Unzulänglichkeiten eingeleitet werde und sich die Geldstrafe an der Schwere des Verstoßes orientiere. Zudem sei das KoPl-G insoweit unionsrechtskonform auszulegen, als dass § 23 ECG, der Art. 3 Abs. 4 lit. b und Abs. 5 ECRL umsetzt, auf die Verfahren nach dem KoPl-G anzuwenden sei.889 Weiterhin merkt das Bundesverwaltungsgericht unter Verweis auf die Gesetzgebung Deutschlands und Frankreichs an, dass die Kommission bisher kein Vertragsverletzungsverfahren gegen diese Mitgliedstaaten oder gegen Österreich selbst eingeleitet habe.890 (cc) Rechtsprechung des EuGH Der EuGH hingegen hat sich mit der Auslegung der Ausnahmebestimmung bisher noch nicht befasst. Jedoch könnten sich aus dem Ende 2019 ergangenen Airbnb-Urteil891 zumindest Auslegungshinweise ergeben.892 In den Schlussanträgen hat Generalanwalt Szpunar dargelegt, dass die Maßnahmen im Sinne des 887 49/ME XXVII. GP – Ministerialentwurf – Erläuterungen, abrufbar unter: https:// www.parlament.gv.at/PAKT/VHG/XXVII/ME/ME_00049/index.shtml#tab-Uebersicht. 888 BVwG, Erkenntnis v. 28.09.2021 – W195 2242336-1, ECLI:AT:BVWG:2021: W195.2242336.1.00. 889 BVwG, Erkenntnis v. 28.09.2021 – W195 2242336-1, ECLI:AT:BVWG:2021: W195.2242336.1.00 Rn. 3.4. f. 890 BVwG, Erkenntnis v. 28.09.2021 – W195 2242336-1, ECLI:AT:BVWG:2021: W195.2242336.1.00, Rn. 3.10. 891 EuGH, Urt. v. 19.12.2019, Rs. C-390/18, ECLI:EU:C:2019:1112 – Airbnb Ireland. 892 Liesching, Das Herkunftslandprinzip der E-Commerce-Richtlinie, S. 9.
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
191
Art. 3 Abs. 4 ECRL nicht die Dienste der Informationsgesellschaft oder deren Anbieter beträfen, sondern einen bestimmten Dienst.893 Die Maßnahmen dürften nur auf den konkreten Einzelfall bezogen werden.894 In dem anschließenden Urteil stellt der EuGH darauf ab, dass die einschränkenden Maßnahmen „einen bestimmten Dienst der Informationsgesellschaft betreffen, der diese Schutzziele tatsächlich beeinträchtigt oder eine ernsthafte und schwerwiegende Gefahr der Beeinträchtigung dieser Ziele darstellt“.895 Da es sich hierbei vielmehr um eine Wiedergabe des Wortlauts des Richtlinientexts handelt, ist der Erkenntnisgewinn für die Auslegung eher gering einzuschätzen. Jedenfalls steht die Formulierung der Auslegung als Einzelfallausnahme nicht entgegen. (dd) Zwischenergebnis All diese Erwägungen sprechen im Ergebnis dafür, dass Art. 3 Abs. 4 lit. a Ziffer ii ECRL nur dahingehend verstanden werden kann, dass lediglich Einzelfallmaßnahmen gerechtfertigt werden können, nicht aber Maßnahmen, die eine Gruppe von Diensteanbietern adressieren.896 Das NetzDG richtet sich jedoch generell an alle Anbieter sozialer Netzwerke, die im Inland mehr als zwei Millionen Nutzer haben.897 Der Gesetzgeber ging insbesondere zum Zeitpunkt des Gesetzesvorschlags davon aus, dass einige Anbieter sozialer Netzwerke, vornehmlich mit Sitz im EU-Ausland, in den Anwendungsbereich des NetzDG fallen.898 Aufgrund der Regelung des § 1 Abs. 1 und 2 NetzDG ist es jederzeit möglich, dass weitere soziale Netzwerke vom Anwendungsbereich erfasst werden, sobald sie die Schwelle von 2 Millionen Nutzern überschreiten. Insofern handelt es sich gerade nicht um eine Maßnahme, die sich an einen bestimmten Dienst richtet, sondern es wird – entsprechend der Gesetzesbegründung – eine Gruppe von Diensteanbietern erfasst.899 Zwar gibt es 893 Mit entsprechender Hervorhebung der Formulierung „bestimmten“ GA Szpunar, Schlussanträge v. 30.04.2019, Rs. C-390/18, ECLI:EU:C:2019:336 Rn. 132. 894 GA Szpunar, Schlussanträge v. 30.04.2019, Rs. C-390/18, ECLI:EU:C:2019:336 Rn. 135. 895 EuGH, Urt. v. 19.12.2019, Rs. C-390/18, ECLI:EU:C:2019:1112 – Airbnb Ireland Rn. 84. 896 Ebenso Grabitz/Hilf/Marly, ECRL Art. 3 Rn. 39; MüKoStGB/Altenhain, TMG § 3 Rn. 52; Eifert, in: Eifert/Gostomzyk, Netzwerkrecht, S. 9 (24); Feldmann, K&R 2017, 292 (296); Guggenberger, NJW 2017, 2577 (2581 f.); Hain/Ferreau/Brings-Wiesen, K&R 2017, 433 f.; Handel, MMR 2017, 227 (230); Heidrich/Scheuch, DSRITB 2017, 305 (317); Liesching, MMR 2018, 26 (29); Spindler, ZUM 2017, 473 (476 f.); Wimmers/Heymann, AfP 2017, 93 (96 f.). 897 Deutscher Bundestag, Fachbereich Europa, PE 6 – 3000 – 22/17, S. 8. 898 Vgl. BT-Drs. 18/12356, S. 1 f. 899 Deutscher Bundestag, Fachbereich Europa, PE 6 – 3000 – 22/17, S. 8; Feldmann, K&R 2017, 292 (296); Hain/Ferreau/Brings-Wiesen, K&R 2017, 433 (434); Liesching, MMR 2018, 26 (26).
192
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
derzeit keine abschließende Aufstellung, welche Diensteanbieter vom NetzDG erfasst sind.900 Es ist aber davon auszugehen, dass zeitweise mindestens acht Diensteanbieter in den Anwendungsbereich fielen.901 Die Dienste der Informationsgesellschaft müssen gemäß Art. 3 Abs. 4 lit. a Ziffer ii ECRL die genannten Schutzziele beeinträchtigen oder eine ernsthafte und schwerwiegende Gefahr einer Beeinträchtigung dieser Ziele darstellen. Der Gesetzgeber tut diese Anforderung pauschal mit dem Hinweis darauf ab, dass die Regelungen des NetzDG der Verhinderung objektiv strafbarer Taten dienen.902 Eine weitere Begründung hinsichtlich der Form der Beeinträchtigung oder Ähnlichem unterbleibt völlig. Im Gegenteil: Der Gesetzgeber räumte selbst ein, dass beispielsweise YouTube seine Sache gut mache und ca. 90 % der strafbaren Inhalte lösche.903 Inwiefern unter diesen Umständen eine ernsthafte und schwerwiegende Gefahr einer Beeinträchtigung der Schutzziele vorliegen soll, ließ der Gesetzgeber gänzlich offen. (c) Art. 3 Abs. 4 lit. a Ziffer iii ECRL, Verhältnismäßigkeit der Maßnahme Auch wenn das NetzDG bereits keinen bestimmten Dienst erfasst und damit schon mangels Erfüllung dieser Voraussetzung gegen das Herkunftslandprinzip verstößt, lohnt ein Blick auf die Frage der Verhältnismäßigkeit der Maßnahme. Schließlich geht der Gesetzgeber, wenn auch unzutreffend, davon aus, dass die Anforderung der Ziffer ii erfüllt sei.904 Dann müsste die Maßnahme aber verhältnismäßig sein, woran ebenfalls Zweifel bestehen. Nach Art. 3 Abs. 4 lit. a Ziffer iii ECRL muss die Maßnahme in einem angemessenen Verhältnis zu den Schutzzielen stehen. Es ist daher zwischen der Schwere des Eingriffs und dem Gewicht und der Dringlichkeit der rechtfertigenden Gründe abzuwägen.905 Dabei kann ein genereller Verweis auf im Inland bestehende Normen den Anforderungen an die Interessenabwägung nicht genügen.906 Hinzu kommt, dass vor dem Hintergrund der restriktiven Anwendung der Ausnahmen vom Herkunftslandprinzip wohl nicht alle der in § 1 Abs. 3 NetzDG genannten Straftatbestände geeignet 900 BT-Drs. 19/11348, S. 2; in Anbetracht der Unklarheiten hinsichtlich der Einbeziehung von Telegram in den Anwendungsbereich des NetzDG, dürfte sich an diesem Befund nichts geändert haben. 901 Dies waren zum Zeitpunkt der Evaluation des NetzDG: Change.org e.V., Facebook Ireland Limited Dublin, Google Ireland Limited, Pinterest Europe Ltd., Reddit Inc., SoundCloud Ltd. Berlin, TikTok Inc. und Twitter International Company, siehe dazu: Eifert/von Landenberg-Roberg/Theß/Wienfort, Netzwerkdurchsetzungsgesetz in der Bewährung, S. 20. 902 BT-Drs. 18/12356, S. 14. 903 BT-Drs. 18/12356, S. 2. 904 BT-Drs. 18/12356, S. 14. 905 Grabitz/Hilf/Marly, Art. 3 Rn. 40. 906 Spindler, ZUM 2017, 473 (477); Hoeren, Netzwerkdurchsetzungsgesetz europarechtswidrig, beck-blog v. 30.03.2017.
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
193
sind, eine besondere Gefährdung der Schutzziele und mithin eine Ausnahme vom Herkunftslandprinzip zu rechtfertigen.907 Zugunsten der Verhältnismäßigkeit der Maßnahme könnte man noch erwägen, dass das NetzDG jedenfalls nur solche Anbieter adressiert, die aufgrund ihrer Größe die finanziellen Mittel haben, die Pflichten umzusetzen und gleichzeitig auch einen Einfluss auf die Meinungsbildung haben dürften, wenngleich auch dies kein Automatismus908 und ohnehin nicht für Verhältnismäßigkeit ausreichend ist.909 Vor dem Hintergrund, dass das NetzDG Grundrechte verletzt, kann eine Verhältnismäßigkeit jedoch keinesfalls angenommen werden.910 Jedenfalls lässt die Gesetzesbegründung eine Verhältnismäßigkeitsprüfung im Sinne des Art. 3 Abs. 4 lit. a Ziffer iii ECRL gänzlich vermissen.911 Im Rahmen der Notifizierung der Loi Avia sowie des KoPl-G hat die Kommission angemerkt, dass von ihrer Seite Zweifel an der Verhältnismäßigkeit der Maßnahmen bestünden.912 Insbesondere hat die Kommission die fehlende Abwägung mit milderen Maßnahmen bemängelt.913 Allerdings entschied sich die Kommission für das Instrument der Bemerkung, die kein Verfahrenshindernis bedeutet, sondern eine Aufforderung zur Klarstellung einzelner Punkte des Entwurfs darstellt.914 Von einer ausführlichen Stellungnahme im Sinne des Art. 6 Abs. 2 RL 2015/1535, die eine Ausdehnung der Stillhaltefrist bedeutet oder von einer Sperre des Entwurfs von zwölf Monaten im Sinne des Art. 6 Abs. 3 und 4 RL 2015/1535 hat die Kommission keinen Gebrauch gemacht. Vor dem Hinter907
Hoeren, Netzwerkdurchsetzungsgesetz europarechtswidrig, beck-blog v. 30.03.
2017. 908 909
Spindler/Schmitz/Liesching, NetzDG § 1 Rn. 38. Hoeren, Netzwerkdurchsetzungsgesetz europarechtswidrig, beck-blog v. 30.03.
2017. 910 So auch: Hoeren, Netzwerkdurchsetzungsgesetz europarechtswidrig, beck-blog v. 30.03.2017; Spindler, ZUM 2017, 473 (477 f.). 911 Hoeren, Netzwerkdurchsetzungsgesetz europarechtswidrig, beck-blog v. 30.03. 2017. 912 Europäische Kommission, C(2019) 8585 final, S. 5; Europäische Kommission C(2020) 8737 final, S. 8. 913 Europäische Kommission, C(2019) 8585 final, S. 5 „As regards the proportionality, the Commission has doubts as well. In particular, it should be assessed whether less restrictive means to obtain a similar result could been visaged. However, thus far, the French authorities have not provided an assessment of the proportionality of the obligations imposed on online platforms, in particular for those established in other Member States, including smaller ones, and of the potential less restrictive measures available that could achieve the stated objective.“; Europäische Kommission C(2020) 8737 final, S. 8 „However, the proportionality of the restriction vis a vis the objective pursued and, in particular, whether less restrictive measures could lead to the same policy result have not been justified. In their notification message, the Austrian authorities fail to assess possible less restrictive measures than the notified draft.“ 914 Europäische Kommission, Das Notifizierungsverfahren in Kürze, abrufbar unter: https://ec.europa.eu/growth/tools-databases/tris/de/about-the-20151535/the-notificationprocedure-in-brief1/.
194
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
grund, dass insbesondere der österreichische Gesetzgeber eine ähnliche Begründung für die Verhältnismäßigkeit vorbrachte wie der deutsche Gesetzgeber,915 ist davon auszugehen, dass die Kommission eine ähnliche Haltung gegenüber dem NetzDG vertreten dürfte. Eine Abwägung im Sinne des Art. 3 Abs. 4 lit. a Ziffer iii ECRL ist auch bei der Begründung des NetzDG nicht erfolgt. In Bezug auf den NetzDGÄndG-E sowie auf das Gesetz zur Bekämpfung des Rechtsextremismus und der Hasskriminalität hat die Kommission jedenfalls die gleichen Bedenken vorgebracht wie in Bezug auf die Loi Avia und das KoPl-G.916 (d) Art. 3 Abs. 4 lit. b ECRL, Konsultation Zuletzt unterliegt eine Ausnahme vom Herkunftslandprinzip auch Verfahrensregeln, die vom Gesetzgeber im Fall des NetzDG nicht berücksichtigt wurden. Gemäß Art. 3 Abs. 4 lit. b ECRL muss der Mitgliedstaat vor Ergreifen der betreffenden Maßnahmen den Mitgliedstaat, in dem der fragliche Dienst seine Niederlassung hat, auffordern, Maßnahmen zu ergreifen. Sofern der betreffende Mitgliedstaat dieser Aufforderung nicht oder nur unzulänglich Folge leistet, ist der auffordernde Mitgliedstaat berechtigt, eigene Maßnahmen zu ergreifen. Damit wird die in Art. 3 Abs. 1 ECRL normierte Primärzuständigkeit des Staates, in dem der störende Dienst niedergelassen ist, gewahrt.917 Zudem sind sowohl die Kommission als auch der Mitgliedstaat, in dem der Dienst seine Niederlassung hat, über die Absicht, Maßnahmen zu ergreifen, zu unterrichten. Die Bundesrepublik Deutschland hätte folglich sämtliche Mitgliedstaaten, in denen betroffene Diensteanbieter ihren Sitz haben, auffordern müssen, Maßnahmen gegen Hasskriminalität und Falschnachrichten in sozialen Netzwerken zu ergreifen. Eine solche Aufforderung ist nicht erfolgt. Auch die Unterrichtung der Kommission sowie der Mitgliedstaaten über die Ergreifung eigener Maßnahmen in Form des NetzDG blieb nach derzeitigem Kenntnisstand aus.918 Man könnte nun argumentieren, dass eine gesonderte Aufforderung an jeden betroffenen Mitgliedstaat reichlich formalistisch anmuten würde, schließlich ist die Debatte über Hasskriminalität und Falschnachrichten im Internet keine Unbekannte.919 Und auch die Europäische Union hat sich in den vergangenen Jahren bereits mit dem Thema auseinandergesetzt.920 Jedoch kann es nicht gewollt sein, die Verfahrensanforde915 Vgl. die Begründung zum NetzDG, Notifizierungsnummer 2017/127/D, S. 13 f. und die Begründung zum KoPl-G, Notifizierungsnummer 2020/544/A, S. 5 f. 916 Europäische Kommission, C(2020) 4575 final, S. 9; C(2020) 3380 final, S. 8. 917 Grabitz/Hilf/Marly, Art. 3 Rn. 44. 918 Der Gesetzgeber ging allerdings von der Entbehrlichkeit dieser Verfahrensschritte aus: BT-Drs. 18/12356, S. 14; siehe dazu auch im folgenden Abschnitt. 919 Nölscher, ZUM 2020, 301 (311). 920 Siehe nur: Gemeinsame Mitteilung „Aktionsplan gegen Desinformation“, JOIN (2018) 36 final; Mitteilung der Kommission, Umgang mit illegalen Online-Inhalten, COM(2017) 555 final; Empfehlung der Kommission für wirksame Maßnahmen im Umgang mit illegalen Online-Inhalten, C(2018) 1177 final.
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
195
rungen dergestalt zu umgehen, dass den betroffenen Mitgliedstaaten unterstellt wird, dass sie bereits Kenntnis von der Problematik hätten. Aus der Bemerkung der Kommission zum NetzDGÄndG-E geht hervor, dass auch hinsichtlich der Änderung des NetzDG die Verfahrensvorschriften des Art. 3 Abs. 4 lit. b ECRL nicht eingehalten und die Mitgliedstaaten nicht zum Handeln aufgefordert beziehungsweise im Anschluss nicht über die Ergreifung von Maßnahmen informiert worden sind.921 (3) Art. 3 Abs. 5 ECRL, das NetzDG als dringlicher Fall Der deutsche Gesetzgeber begründet die Unterlassung der Aufforderung sowie der Information mit der Ausnahme des Art. 3 Abs. 5 ECRL.922 Danach kann in dringlichen Fällen von den Verfahrensvorschriften des Art. 3 Abs. 4 lit. b ECRL abgewichen werden. Die Ausnahme greift, wenn die Hinnahme einer Verzögerung durch die Einhaltung der Verfahrensvorschriften nicht zumutbar ist.923 Nach Ansicht des Gesetzgebers sei ein sofortiges Handeln zur effektiven Bekämpfung von Hasskriminalität und weiterer objektiv strafbarer Handlungen im Internet dringend geboten.924 Eine nähere Erläuterung zu dieser Dringlichkeit wird durch den Gesetzgeber nicht vorgenommen. Die Bekämpfung der Hasskriminalität ist lediglich eine Wiederholung des Ziels der Maßnahme, jedoch keine Begründung für ihre Dringlichkeit. Die Darlegung der Dringlichkeit muss zumindest über die Nennung des Ziels hinausgehen, sonst wäre die Begründungsanforderung von vornherein obsolet.925 An einer Dringlichkeit des Handelns durch die Bundesrepublik Deutschland bestehen ohnehin erhebliche Zweifel. Die Thematik der Hasskriminalität im Internet ist keineswegs neu. Der Gesetzgeber hat selbst in seiner Begründung zum NetzDG darauf hingewiesen, dass bereits 2015 eine Task Force gegen Hate Speech gegründet wurde.926 Es sind keine neuen, gravierenden Entwicklungen in diesem Themenfeld ersichtlich, die eine Dringlichkeit, Jahre nach dem Aufkommen der Diskussion über Hassnachrichten, rechtfertigen könnten.927 Die bisherigen Ausführungen haben gezeigt, dass das NetzDG schon nicht als Ausnahme vom Herkunftslandprinzip eingeordnet werden kann. Aus der Auffassung des Gesetzgebers, dass es sich um einen dringlichen Fall handelt, würde sich jedoch gemäß Art. 3 Abs. 5 S. 2 ECRL das Erfordernis einer Mitteilung der 921
Europäische Kommission, C(2020) 4575 final, S. 9. BT-Drs. 18/12356, S. 14. 923 Grabitz/Hilf/Marly, Art. 3 Rn. 45. 924 BT-Drs. 18/12356, S. 14. 925 Liesching, Gilt das NetzDG für Facebook, Youtube und Twitter?, beck-community v. 11.02.2020. 926 BT-Drs. 18/12356, S. 1. 927 Spindler, ZUM 2017, 473 (478); Wimmers/Heymann, AfP 2017, 93 (97). 922
196
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
Maßnahme an die Kommission ergeben, mit der Angabe der Gründe, aus denen der Mitgliedstaat der Auffassung ist, dass es sich um einen dringlichen Fall handelt. Daran anschließend hat die Kommission gemäß Art. 3 Abs. 6 ECRL die Aufgabe, innerhalb möglichst kurzer Zeit die Vereinbarkeit der Maßnahme mit dem Gemeinschaftsrecht zu überprüfen. Offenbar ist der deutsche Gesetzgeber der Annahme, dass die Mitteilung im Rahmen des Notifizierungsverfahrens vom 27. März 2017 miterledigt wurde.928 Dies folgt aus einer Auskunft des BMJV auf eine Anfrage von Liesching.929 Demnach gab es keine eigenständige Mitteilung des dringlichen Falles mit Bezugnahme auf den Art. 3 Abs. 5 ECRL gegenüber der EU-Kommission. Vielmehr geht das BMJV davon aus, dass die Entwurfsbegründung, die im Rahmen des Notifizierungsverfahrens versandt wurde, als Mitteilung sowohl gegenüber der EU-Kommission als auch gegenüber den jeweiligen Sitzmitgliedstaaten ausreichend gewesen sei. Auch verweist das BMJV in der Auskunft darauf, dass mit der EU-Kommission und Vertretern der Republik Irland „ausführliche Gespräche“ geführt worden seien. Zudem würde der Art. 3 Abs. 5 S. 2 ECRL keine bestimmte Form der Mitteilung vorsehen.930 Zweifelhaft erscheint aber, ob die EU-Kommission und die betroffenen Mitgliedstaaten dieses Vorgehen auch als Mitteilung des dringlichen Falls verstehen mussten und die EU-Kommission daraufhin die nach Art. 3 Abs. 6 ECRL vorgesehene Prüfung vorgenommen hat.931 Eine eigenständige Mitteilung über die Dringlichkeit ist jedenfalls nach diesen Angaben nicht erfolgt. In Anbetracht dessen, dass das Notifizierungsverfahren und die Mitteilung im Fall der Dringlichkeit auf unterschiedlichen Richtlinien basieren, erscheint es schon fraglich, beide Verfahren in einer einzigen Mitteilung zu vereinen.932 Zumal die Notifizierungsmitteilung keinen Hinweis darauf enthält, dass sie zugleich auch die Mitteilung im Sinne des Art. 3 Abs. 5 S. 2 ECRL darstellen soll.933 Letztlich bleibt festzuhalten, dass die Begründung jedenfalls nicht ausreichend ist, um den Anforderungen des Art. 3 Abs. 5 ECRL gerecht zu werden. Denn eine weitere Begründung für die Dringlichkeit wurde mangels eigenständiger Mitteilung an die Kommission nicht vorgebracht, sodass allein der Begründungssatz im Entwurf zu beurteilen bleibt. Hinsichtlich des NetzDGÄndG-E widerspricht die Kommission in ihrer Bemerkung der Auffassung des Gesetzgebers, dass die Voraussetzungen des Art. 3 Abs. 5 ECRL vorliegen würden.934 Zumal die Notifizierung ohne Berufung auf Dringlichkeit stattgefunden habe.935 928
Liesching, MMR-Beil. 2020, 3 (18). Liesching, Das Herkunftslandprinzip der E-Commerce-Richtlinie, S. 115 ff. 930 Liesching, Das Herkunftslandprinzip der E-Commerce-Richtlinie, S. 117. 931 Liesching, Das Herkunftslandprinzip der E-Commerce-Richtlinie, S. 66. 932 Liesching, Gilt das NetzDG für Facebook, Youtube und Twitter?, beck-community v. 11.02.2020. 933 Siehe Begründung zum NetzDG, Notifizierungsnummer 2017/127/D. 934 Europäische Kommission, C(2020) 4575 final, S. 9. 929
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
197
Der EuGH hat in seiner Airbnb-Entscheidung vom 19. Dezember 2019 klargestellt, dass sich auch ein Einzelner auf die Unanwendbarkeit einer Maßnahme berufen kann, wenn die Maßnahme nicht entsprechend der Vorgaben des Art. 3 Abs. 4 lit. b oder Abs. 5 ECRL mitgeteilt wurde.936 Überträgt man diese Entscheidung auf das NetzDG, muss man davon ausgehen, dass sich soziale Netzwerke mit Sitz im EU-Ausland mit Berufung auf eine fehlende Mitteilung der Maßnahmen beispielsweise gegen ein verhängtes Bußgeld wehren könnten.937 dd) Unionsrechtskonforme Auslegung des NetzDG Zu diskutieren bleibt, ob das NetzDG einer unionsrechtskonformen Auslegung zugänglich ist. Eine solche Auslegung wäre in der Form möglich, dass man annähme, das NetzDG solle nur auf Anbieter mit Sitz in Deutschland Anwendung finden. Maßnahmen gegen Anbieter mit Sitz im europäischen Ausland wären dann möglich, wenn eine Ausnahme nach Art. 3 Abs. 4 ECRL unter Beachtung der entsprechenden Verfahrensregeln greifen würde. Theoretisch könnte die BRD für ein Vorgehen gegen einen im Ausland niedergelassenen Anbieter jeweils Kontakt zum entsprechenden Mitgliedstaat aufnehmen und diesen gemäß Art. 3 Abs. 4 lit. b ECRL zum Handeln auffordern.938 Handelt der entsprechende Mitgliedstaat nicht selbst, wäre dann eine Maßnahme gegen den Anbieter von Seiten der BRD möglich.939 Diese Form der unionsrechtskonformen Auslegung wendet das österreichische Bundesverwaltungsgericht auf das KoPl-G an.940 Praktisch wäre jedoch ein solches Vorgehen kaum umsetzbar. Denn es müsste auch bei einem solchen Vorgehen stets der Grundsatz der Verhältnismäßigkeit nach Art. 3 Abs. 4 lit. a Ziffer iii ECRL gewahrt werden. An der Verhältnismäßigkeit bestehen jedoch, wie bereits gezeigt wurde, erhebliche Zweifel.941 Laut Handel scheide ein Verstoß des NetzDG gegen das Herkunftslandprinzip des Art. 3 ECRL aus, da dieses in § 3 TMG umgesetzt worden sei.942 Das NetzDG sehe keine davon abweichenden Regelungen vor. Vielmehr könne ein 935
Europäische Kommission, C(2020) 4575 final, S. 10. EuGH, Urt. v. 19.12.2019, Rs. C-390/18, ECLI:EU:C:2019:1112 Rn. 100 – Airbnb Ireland. 937 Liesching, Gilt das NetzDG für Facebook, Youtube und Twitter?, beck-blog v. 11.02.2020. 938 Peifer, AfP 2018, 14 (22), der im Übrigen wohl einen Verstoß gegen die ECRL annimmt. 939 Peifer, AfP 2018, 14 (22). 940 BVwG, Erkenntnis v. 28.09.2021 – W195 2242336-1, ECLI:AT:BVWG:2021: W195.2242336.1.00, Rn. 3.5.3. 941 Siehe zur Verhältnismäßigkeit im Sinne des Art. 3 Abs. 4 lit. a Ziffer iii ECRL Kapitel 3 B.V. 1. b) cc) (1) (c). 942 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 467. 936
198
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
Bußgeldverfahren nur unter den Voraussetzungen des § 3 TMG erfolgen.943 § 3 Abs. 5 S. 2 TMG verweise ausdrücklich auf die Verfahrensanforderungen aus Art. 3 Abs. 4 lit. b und Abs. 5 ECRL. § 3 TMG beschränke insofern Vollzug und Durchsetzung des NetzDG in Bezug auf Anbieter sozialer Netzwerke mit Sitz im EU-Ausland.944 Eine solche Auslegung des NetzDG deckt sich jedoch weder mit dem Wortlaut des Gesetzes noch mit der Gesetzesbegründung. Schließlich sieht der Gesetzgeber in der Begründung zum NetzDG ausdrücklich die Anwendung auf Anbieter mit Sitz in anderen europäischen Mitgliedstaaten vor,945 was eindeutig gegen die Möglichkeit einer anderweitigen Auslegung spricht.946 Im Gegenteil ist diese Auslegung nach der Änderung des NetzDG durch das NetzDGÄndG kaum mehr haltbar. Denn in § 3e Abs. 3 NetzDG wird explizit darauf verwiesen, dass die Pflichten des NetzDG nur auf Anordnung unter Berücksichtigung des Verfahrens nach § 3 Abs. 5 TMG auf Videosharingplattform-Anbieter mit Sitz im EU-Ausland Anwendung finden. Sofern das auch für die Anbieter sonstiger sozialer Netzwerke zutreffend sein sollte, hätte der Gesetzgeber dies explizit normiert. Letztlich würde man durch eine derartige Auslegung das NetzDG leerlaufen lassen, da es gerade auf die Regulierung der namhaften sozialen Netzwerke außerhalb Deutschlands zielt.947 Als weitere Auslegungsmöglichkeit könnte man annehmen, dass das NetzDG für Diensteanbieter mit Sitz in einem anderen Mitgliedstaat nur greift, sofern dieser Mitgliedstaat vergleichbare Regelungen vorsieht und das deutsche Recht insoweit nicht strenger ist.948 Der EuGH hat dazu darauf hingewiesen, dass die Mitgliedstaaten vorbehaltlich der nach Art. 3 Abs. 4 ECRL gestatteten Ausnahmen im koordinierten Bereich sicherstellen müssen, dass der Diensteanbieter keinen strengeren Anforderungen unterliegt, als sie das im Sitzmitgliedstaat des Anbieters geltende Sachrecht vorsieht.949 Es ist jedoch zweifelhaft, ob dieser Anforderung im Wege einer unionsrechtskonformen Auslegung Genüge getan werden kann.950 Denn wie bereits festgestellt, lassen weder Wortlaut des NetzDG noch die Gesetzesbegründung eine derartige Auslegung zu.
943 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 467 f. 944 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 468. 945 BT-Drs. 18/12356, S. 1, 27. 946 Deutscher Bundestag, Fachbereich Europa, PE 6 – 3000 – 22/17, S. 9 f.; Hain/ Ferreau/Brings-Wiesen, K&R 2017, 433 (434). 947 Hain/Ferreau/Brings-Wiesen, K&R 2017, 433 (434). 948 Deutscher Bundestag, Fachbereich Europa, PE 6 – 3000 – 32/17, S. 10. 949 EuGH, Urt. v. 25.10.2011, Rs. C-509/09 und C-161/10, ECLI:EU:C:2011:685 Rn. 68 – eDate Advertising u. a. 950 Deutscher Bundestag, Fachbereich Europa, PE 6 – 3000 – 22/17, S. 9 f.; Hain/ Ferreau/Brings-Wiesen, K&R 2017, 433 (434).
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
199
ee) Auslegung des NetzDG als Instrument der Selbstregulierung In seiner Auseinandersetzung mit dem NetzDG stellt Peifer Überlegungen an, wie ein sich zweifelsohne aufdrängender Verstoß gegen das Herkunftslandprinzip noch zu retten sein könnte.951 Nehme man an, dass die im NetzDG statuierten Organisationspflichten Instrumente der Selbstregulierung darstellen würden, dann bliebe Spielraum für die Mitgliedstaaten eigene Regeln aufzustellen, da es zur Selbstregulierung in der ECRL keine Vorgaben gebe.952 Zu Recht nimmt Peifer an, dass es sich lediglich um einen „marginalen Ausweg“953 handelt. Zunächst ist es schon sehr zweifelhaft, dass die Organisationspflichten als Instrumente der Selbstregulierung subsumiert werden können. Leider lässt Peifer an der Stelle offen, ob er tatsächlich die reine Selbstregulierung oder die Regulierte Selbstregulierung erwägt. Die (gesellschaftliche) Selbstregulierung findet in den Fällen statt, in denen der Staat nicht oder nicht mehr regulativ tätig wird und sich Private auf gemeinsame Standards verständigen.954 Diese Interpretation des NetzDG ist eindeutig abzulehnen, da der Staat durch das NetzDG sehr wohl regulierend tätig wird. Doch auch die Interpretation der Organisationspflichten als Elemente der Regulierten Selbstregulierung scheint wenig überzeugend. Ausschlaggebend für die Regulierte Selbstregulierung ist, dass selbstregulative Elemente in einen staatlichen Rahmen integriert werden.955 Zwar überträgt der Staat den privaten Diensteanbietern im Rahmen des NetzDG Verantwortung, die sie bis zu einem gewissen Grad eigenständig wahrnehmen können.956 Bei den Anbietern der sozialen Netzwerke handelt es sich aber keineswegs um Selbstkontrolleinrichtungen im Sinne der Regulierten Selbstregulierung. Vielmehr sieht das NetzDG in § 3 Abs. 2 Nr. 3 lit. b die Möglichkeit vor, dass die Anbieter sozialer Netzwerke die Entscheidung an eine Einrichtung der Regulierten Selbstregulierung übertragen können. Dies ist aber auch nur in den Fällen vorgesehen, in denen der Inhalt nicht offensichtlich rechtswidrig ist. Der überwiegende Teil der den Betreibern auferlegten Organisationspflichten stellen jedoch keine Elemente der Regulierten Selbstregulierung dar. Aber selbst wenn die Pflichten der Netzwerkbetreiber als Instrumente der Regulierten Selbstregulierung qualifiziert würden, ist fraglich, ob dem Herkunftslandprinzip damit vollständig ausgewichen werden könnte. Zunächst gilt nach 951
Peifer, AfP 2018, 14 (22). Peifer, AfP 2018, 14 (22). 953 Peifer, AfP 2018, 14 (22). 954 Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 187 f.; Hoffmann-Riem, in: Fehling/Ute, Neue Macht- und Verantwortungsstrukturen in der digitalen Welt, S. 27 (37 f., 40). 955 Hoffmann-Riem, in: Hoffmann-Riem, Reform des allgemeinen Verwaltungsrechts, S. 115 (140 ff.). 956 Vgl. Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 191. 952
200
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
Maßgabe des Art. 3 Abs. 2 ECRL das Herkunftslandprinzip nur für Maßnahmen eines Mitgliedstaates.957 Damit sind die Selbstregulierungseinrichtungen von der Regelung ausgenommen, da sie keine hoheitlichen Aufgaben wahrnehmen und auch nicht in die Verwaltung des Staates eingegliedert sind.958 Jedoch ist vorstellbar, den Mitgliedstaaten den Regelungsrahmen zuzurechnen, in den das System der Regulierten Selbstregulierung eingebettet ist.959 Dies würde auch einer „Flucht in die Regulierte Selbstregulierung“ vorbeugen, die sonst einsetzen könnte.960 Sofern sich die Unternehmen freiwillig und bewusst diesem Regime unterwerfen, spricht dies im Ergebnis dafür, das System der Regulierten Selbstregulierung vom Herkunftslandprinzip auszunehmen.961 Es wird an dieser Stelle erneut deutlich, warum das NetzDG als Ganzes kein Instrument der Regulierten Selbstregulierung darstellen kann. Denn die Netzwerkbetreiber unterwerfen sich dem Regulierungssystem des NetzDG gerade nicht freiwillig. Auch wenn die Anbieter die Möglichkeit des § 3 Abs. 2 Nr. 3 lit. b NetzDG wahrnehmen und die Entscheidung an eine Selbstregulierungseinrichtung übertragen, stellt dies lediglich eine Alternative zur selbstständigen Überprüfung der Inhalte dar. Darüber hinaus verbleibt die Pflicht zur Prüfung und Löschung offensichtlich rechtswidriger Inhalte im Sinne des § 3 Abs. 2 Nr. 2 NetzDG. Diese Entscheidung kann nicht einer Einrichtung zur Regulierten Selbstregulierung übertragen werden. c) Ergebnis Insgesamt bleibt festzuhalten, dass das NetzDG gegen das Herkunftslandprinzip des Art. 3 ECRL verstößt. Eine Ausnahme hiervon kann nicht nach Art. 3 Abs. 4 und 5 ECRL gerechtfertigt werden. Die Maßnahme richtet sich nicht an einen bestimmten Dienst der Informationsgesellschaft, sondern vielmehr an sämtliche soziale Netzwerke, welche die Bagatellgrenze von zwei Millionen registrierten Nutzern im Inland überschreiten. Hinzu kommen Zweifel an der Verhältnismäßigkeit sowie die Nichteinhaltung der Verfahrensvorschriften, von denen mangels Dringlichkeit des Handelns keine Ausnahme gerechtfertigt ist. Auch eine unionsrechtskonforme Auslegung scheitert. Eifert vermutet im Vorgehen des Gesetzgebers einen „kalkulierten Verstoß“, dem eine politische Provokation zugrunde liegen könnte, die den Diskurs um die EU-weiten Regeln für
957
Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 242. Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 242. 959 Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 242; Hain/Ferreau/Brings-Wiesen, K&R 2017, 433 (438). 960 Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 242. 961 Hoeren/Sieber/Holznagel/Holznagel/Hartmann, Teil 3 Rn. 252; Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 243; Hain/Ferreau/BringsWiesen, K&R 2017, 433 (438). 958
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
201
Diensteanbieter fördern soll.962 Ob aufgrund des NetzDG oder nicht, die Union strebt mit dem Digital Services Act jedenfalls eine Neujustierung dieser Rechtsfragen an. 2. Das Herkunftslandprinzip nach der AVMD-RL Die Richtlinie über audiovisuelle Mediendienste geht auf die sogenannte Fernsehrichtlinie vom 3. Oktober 1989963 zurück. Die Neufassung im Jahr 2010 brachte keine inhaltlichen Änderungen mit sich, sondern diente dazu, den bereits mehrfach geänderten Text zum Zweck der Klarheit und der Übersichtlichkeit zu kodifizieren.964 Die Richtlinie soll den Binnenmarkt fördern und normiert Mindestanforderungen für den Umgang mit audiovisuellen Mediendiensten.965 Die Änderung vom 14. November 2018966 weitet den Anwendungsbereich auf Videosharingplattformen aus, für die im neuen Kapitel IXa Bestimmungen getroffen werden. Diese betreffen unter anderem den Jugendschutz, den Umgang mit Hassrede und Vorgaben zu Werbung. Insbesondere hält die Richtlinie weiter an dem Herkunftslandprinzip fest (Art. 28a Abs. 5 AVMD-RL mit Verweis auf die Geltung des Art. 3 ECRL). Das NetzDG war in seiner ursprünglichen Fassung nicht mit Art. 28a Abs. 5 AVMD-RL i.V. m. Art. 3 ECRL zu vereinbaren, da sämtliche sozialen Netzwerke, einschließlich Videosharingplattformen, vom Anwendungsbereich des NetzDG erfasst waren.967 Der Gesetzgeber hat indes mit der Änderung des NetzDG zumindest anerkannt, dass das Herkunftslandprinzip auf Videosharingplattformen ohne Ausnahme Anwendung findet.968 Das hat zur Folge, dass die Pflichten des NetzDG gemäß § 3e Abs. 3 NetzDG für Diensteanbieter mit Sitz in einem anderen Mitgliedstaat als der Bundesrepublik Deutschland nur auf Anordnung des Bundesamts für Justiz gelten. Eine solche Anordnung soll nach § 3e Abs. 3 NetzDG nur erfolgen, wenn das in § 3 Abs. 5 NetzDG vorgesehene Konsultationsverfahren durchlaufen worden ist.969 962
Eifert, in: Eifert/Gostomzyk, Netzwerkrecht, S. 9 (24). Richtlinie 89/552/EWG des Rates v. 03.10.1989 zur Koordinierung bestimmter Rechts- und Verwaltungsvorschriften der Mitgliedstaaten über die Ausübung der Fernsehtätigkeit. 964 Erwägungsgrund 1 der Richtlinie 2010/13/EU. 965 Binder/Vesting/Kröber, RStV § 6 Rn. 38. 966 Richtlinie (EU) 2018/1808 des Europäischen Parlaments und des Rates v. 14.11. 2018 zur Änderung der Richtlinie 2010/13/EU zur Koordinierung bestimmter Rechtsund Verwaltungsvorschriften der Mitgliedstaaten über die Bereitstellung audiovisueller Mediendienste (Richtlinie über audiovisuelle Mediendienste) im Hinblick auf sich verändernde Marktgegebenheiten. 967 Dementsprechend lag ein Verstoß gegen das Herkunftslandprinzip vor, siehe dazu die Ausführungen in Kapitel 3 B. V. 968 BT-Drs. 19/18792, S. 21 f. 969 BT-Drs. 19/18792, S. 22. 963
202
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
Damit ergibt sich allerdings ein widersprüchliches Bild hinsichtlich des Herkunftslandprinzips im NetzDG. Die Regelungen des NetzDG adressieren Anbieter sozialer Netzwerke, die ihren Sitz in einem anderen Mitgliedstaat haben. Sie finden wiederum keine Anwendung auf Videosharingplattformen mit Sitz in einem anderen Mitgliedstaat. Der Gesetzgeber äußert sich in der Begründung zum NetzDGÄndG nur knapp zu diesem paradoxen Ergebnis. Die Differenzierung ergebe sich daraus, dass mit der Änderung der AVMD-RL ein gewisses Harmonisierungsniveau einherginge und daher die Videosharingplattformen nicht in der Form reguliert werden müssten wie die übrigen sozialen Netzwerke.970 Es ist somit der freien Spekulation überlassen, ob diese Entscheidung des Gesetzgebers eine Abkehr von der Argumentation hinsichtlich des Herkunftslandprinzips bedeuten soll. Schließlich hätte der Gesetzgeber auch in Bezug auf Art. 28a Abs. 5 AVMD-RL an seiner ursprünglichen Auffassung festhalten und das NetzDG als eine dringliche Ausnahme vom Herkunftslandprinzip erklären können. Warum die durch die AVMD-Richtlinie vorgegebenen Anforderungen an den Umgang mit Hasskriminalität für Videosharingplattformen nun ausreichend sein sollen, während die durch das NetzDG geforderten Pflichten für die Betreiber der übrigen sozialen Netzwerke zum Umgang mit Hasskriminalität deutlich darüber hinausgehen, dazu hat sich der Gesetzgeber nicht geäußert. Er hat möglicherweise erkannt, dass an der ursprünglichen Argumentation zur Umgehung des Herkunftslandprinzips kaum weiter festgehalten werden kann.971
VI. Einhaltung des Notifizierungsverfahrens Weitere Zweifel an der Unionsrechtskonformität des NetzDG bestehen hinsichtlich der Frage, ob das Notifizierungsverfahren ordnungsgemäß durchgeführt wurde. Die Pflicht zur Notifizierung des Entwurfs ergibt sich aus Art. 5 Abs. 1 RL 2015/1535.972 Nach dessen Unterabsatz 1 haben die Mitgliedstaaten der Kommission jeden Entwurf einer technischen Vorschrift zu übermitteln. Der Begriff der technischen Vorschrift wird in Art. 1 Abs. 1 lit. f RL 2015/1535 legaldefiniert. Es handelt sich dabei um „technische Spezifikationen oder sonstige Vorschriften oder Vorschriften betreffend Dienste einschließlich der einschlägigen Verwaltungsvorschriften, deren Beachtung rechtlich oder de facto für das Inverkehrbringen, die Erbringung des Dienstes, die Niederlassung des Erbringers von Diensten oder die Verwendung in einem Mitgliedstaat in einem großen Teil dieses Staates verbindlich ist“. 970
C(2020) 4575 final, S. 8. Liesching, Gilt das NetzDG für Facebook, Youtube und Twitter?, beck-community v. 11.02.2020. 972 Richtlinie (EU) 2015/1535 des Europäischen Parlaments und des Rates v. 09.09. 2015 über ein Informationsverfahren auf dem Gebiet der technischen Vorschriften und der Vorschriften für die Dienste der Informationsgesellschaft. 971
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
203
Von der Bundesregierung zutreffend erkannt, stellt das NetzDG eine technische Vorschrift dar, die notifizierungsbedürftig ist.973 Darüber hinaus wird in Art. 5 Abs. 1 UAbs. 3 RL 2015/1535 normiert, dass die Mitgliedstaaten den Entwurf ein weiteres Mal an die Kommission übermitteln müssen, „wenn sie an dem Entwurf einer technischen Vorschrift wesentliche Änderungen vornehmen, die den Anwendungsbereich ändern, den ursprünglichen Zeitpunkt für die Anwendung vorverlegen, Spezifikationen oder Vorschriften hinzufügen oder verschärfen.“ Die Notifizierung des NetzDG-Entwurfs erfolgte am 27. März 2017.974 Bei dem vorgelegten Entwurf handelte es sich um die Fassung des Referentenentwurfs.975 Verabschiedet wurde das NetzDG am 30. Juni 2017976 jedoch in der Fassung vom 28. Juni 2017 mit den Änderungen der Beschlussempfehlung des Bundestagsausschusses für Recht und Verbraucherschutz.977 Im Vergleich zu der notifizierten Fassung enthält die endgültige Fassung noch zahlreiche Änderungen.978 Insbesondere wurde der Anwendungsbereich modifiziert, Änderungen im § 3 NetzDG (den Löschpflichten) vorgenommen sowie die Elemente der Regulierten Selbstregulierung hinzugefügt. Eine weitere Notifizierung dieser Änderungen erfolgte jedoch nach allgemeinem Kenntnisstand nicht.979 Das ergibt sich auch aus den mit dem Notifizierungsverfahren zusammenhängenden Dokumenten.980 In der Antwort der Bundesrepublik auf die Stellungnahmen Italiens und Schwedens „wird darauf hingewiesen, dass der notifizierte Entwurf [. . .] in Absprache mit der Kommission überarbeitet wurde“.981 Das deutet darauf hin, dass die Änderungen der Kommission zwar mitgeteilt wurden,982 eine erneute Übersendung des Entwurfs im Sinne des Art. 5 Abs. 1 Unterabsatz 3 RL 2015/1535 erfolgte jedoch nicht. Die erneute Übersendung wäre auch nicht notwendig gewesen, wenn die Änderungen nicht wesentlich im Sinne der genannten Vorschrift waren. In einer Stellungnahme zur TRIS-Notifizierung fordert Beer (MdL) die Europäische Kommission auf, Deutschland auf die Notifizierungspflicht bezüglich der Änderungen des Entwurfs hinzuweisen. Sie begründet die Aufforderung damit, 973
BT-Drs. 18/12356, S. 15. Notifizierungsnummer 2017/127/D. 975 BMJV-Entwurf im Bearbeitungsstand vom 27.03.2017. 976 BT-Plenarprotokoll 18/244, S. 25127. 977 BT-Drs. 18/13013. 978 Siehe zum Gesetzgebungsverfahren Kapitel 2 A. II. 2. 979 Liesching, Das Herkunftslandprinzip der E-Commerce-Richtlinie, S. 70. 980 Diese Dokumente wurden von verschiedenen Nutzern über asktheeu.org sowie fragdenstaat.de angefragt. 981 Antwort von Deutschland auf die Bemerkungen von Italien und Schweden, https://www.asktheeu.org/de/request/7872/response/26398/attach/html/2/Document% 203%20EN.pdf.html. 982 So offenbar geschehen in hier abrufbarer Korrespondenz: https://www.asktheeu. org/en/request/member_state_comments_on_netzdg#incoming-27094. 974
204
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
dass mit der Einführung des Systems der Regulierten Selbstregulierung wesentliche Änderungen vorgenommen worden wären.983 Bieñkowska (Mitglied der Europäischen Kommission) weist in ihrer Antwort an Beer (MdL) jedoch darauf hin, dass die Einschätzung der Notifizierungsbedürftigkeit bei den Mitgliedstaaten liege. Dies gelte auch für die Bewertung, ob eine wesentliche Änderung eine erneute Übersendung des Entwurfs notwendig mache.984 Im Weiteren verweist sie auf die Rechtsprechung des EuGH, der dargelegt habe, dass „Änderungen des Entwurfs einer der Kommission bereits [. . .] mitgeteilten technischen Vorschrift, die im Verhältnis zu dem mitgeteilten Entwurf nur eine Lockerung der Bedingungen für die Benutzung des in Rede stehenden Erzeugnisses enthalten und daher die mögliche Auswirkung der technischen Vorschrift auf den Warenaustausch verringern, keine wesentliche Änderung“ darstellen.985 Soweit die Änderungen am NetzDG-Entwurf also die Auswirkungen auf den freien Verkehr von Dienstleistungen verringern oder jedenfalls nicht verstärken, stellen sie keine wesentlichen Änderungen dar. Liesching zitiert in seinem Beitrag zum Notifizierungsverfahren eine Vertreterin aus der Parteifraktion der Bundesregierung, die sich in einer parlamentarischen Debatte dahingehend geäußert habe, dass der Entwurf „an vielen entscheidenden Stellen deutlich verändert und deutlich nachgebessert“ 986 wurde.987 Dies könnte dafür sprechen, dass auch von Seiten der Bundesregierung erkannt wurde, dass es sich um wesentliche Änderungen handelt.988 Fraglich ist allerdings, ob diese Aussage eine Bewertung der Notifizierungsbedürftigkeit darstellen soll. Vielmehr ergibt sich aus dem Kontext, dass die Abgeordnete verdeutlichen wollte, dass man mit den Änderungen der Kritik am NetzDG entgegengetreten sei. Des Weiteren muss es sich bei den Änderungen nicht zwingend um wesentliche Änderungen handeln. Schließlich könnten diese Änderungen auch zu einer Verringerung der Auswirkungen auf den freien Verkehr von Dienstleistungen geführt haben. Insoweit lohnt ein Blick auf die deutlichsten Änderungen. Zunächst wurde der Anwendungsbereich in § 1 NetzDG angepasst. Jedoch hat der Anwendungsbereich primär Einschränkungen erfahren, indem beispielsweise sektorspezifische Netzwerke ausgenommen und die Straftatbestände §§ 90, 90a und 90b StGB ge983 Stellungnahme v. 30.06.2017, abrufbar unter: https://www.asktheeu.org/de/re quest/4520/response/15292/attach/html/9/04%20TII%20Letter%20concerning%20the %20notification%20procedure%20ed.pdf.html. 984 Schreiben v. 19.07.2017, abrufbar unter: https://www.asktheeu.org/de/request/ 7872/response/26398/attach/10/Document %2010.pdf?cookie_passthrough=1. 985 EuGH, Urt. v. 15.04.2010, Rs. C-433/05, ECLI:EU:C:2010:184 Rn. 47 – Sandström. 986 Schön, BT-Plenarprotokoll 18/244, S. 25121. 987 Liesching, Das Herkunftslandprinzip der E-Commerce-Richtlinie, S. 71 f. 988 Liesching, Das Herkunftslandprinzip der E-Commerce-Richtlinie, S. 71 f.
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
205
strichen wurden. Lediglich der Straftatbestand des § 201a StGB wurde ergänzt. In § 2 Abs. 1 NetzDG ist die Frequenz der abzugebenden Transparenzberichte gesenkt sowie eine Schwelle von 100 Beschwerden im Kalenderjahr ergänzt worden. Hinsichtlich der Fristen kam es zur Aufweichung der sieben-Tage-Frist, indem § 3 Abs. 2 Nr. 3 NetzDG die Formulierung in der Regel hinzugefügt wurde. Diese Neuerungen stellen jedoch vorrangig Einschränkungen im Vergleich zu den Regelungen im notifizierten Entwurf dar. Die zentralste Änderung ist die Normierung des Systems der Regulierten Selbstregulierung in § 3 Abs. 2 Nr. 3 lit. b, Abs. 6 NetzDG. Auf den ersten Blick bedeutet auch diese Änderung eine geringere Einschränkung des Binnenmarkts, da den sozialen Netzwerken die Möglichkeit eröffnet wird, die Entscheidung an eine anerkannte Einrichtung der Regulierten Selbstregulierung abzugeben. Allerdings bestehen Zweifel, ob dem Bundesamt für Justiz die Aufsicht über die Einrichtungen der Regulierten Selbstregulierung im Hinblick auf die Staatsfreiheit der Medien aus Art. 11 GRCh übertragen werden durfte.989 In der vorliegenden Arbeit konnte gezeigt werden, dass die Befugnisse des BfJ Ermessen hinsichtlich Anerkennung und Widerruf der Anerkennung einer Einrichtung der Regulierten Selbstregulierung auszuüben, nicht mit dem Gebot der Staatsferne der Medien aus Art. 11 Abs. 2 GRCh zu vereinbaren sind.990 Die Einführung des Systems der Regulierten Selbstregulierung stellt aus diesem Grund eine wesentliche Änderung dar, die notifizierungsbedürftig ist. Die betreffenden Änderungen sind auch nicht aus den Entwürfen des Gesetzes zur Bekämpfung des Rechtsextremismus und der Hasskriminalität991 und des NetzDGÄndG992 erkenntlich, sodass keine Heilung des Versäumnisses der Notifizierung erfolgt ist.993 Folglich liegt ein Verstoß gegen die Notifizierungspflicht aus Art. 5 Abs. 1 UAbs. 3 RL 2015/1535 vor. Dieser Verstoß resultiert daraus, dass der deutsche Gesetzgeber versäumt hat, der Kommission den geänderten Entwurf des NetzDG zu übermitteln. Nach ständiger Rechtsprechung des EuGH führt ein Verstoß gegen die Notifizierungspflicht zur Unanwendbarkeit der entsprechenden Vorschrift.994 989 Stellungnahme v. 30.06.2017, abrufbar unter: https://www.asktheeu.org/de/re quest/4520/response/15292/attach/html/9/04%20TII%20Letter%20concerning%20the %20notification%20procedure%20ed.pdf.html. 990 Siehe zur Staatsferne der Medien Kapitel 3 B. IV. 991 Notifizierungsnummer 2020/65/D. 992 Notifizierungsnummern 2020/174/D und 2021/39/D. 993 Liesching, Das Herkunftslandprinzip der E-Commerce-Richtlinie, S. 72. 994 EuGH, Urt. v. 30.04.1996, Rs. C-194/94, ECLI:EU:C:1996:172 Rn. 54 – CIA Security International/Signalson und Securitel; Urt. v. 26.09.2000, Rs. C-443/98, ECLI: EU:C:2000:496 Rn. 44 – Unilever; Urt. v. 27.10.2016, Rs. C-613/14, ECLI:EU:C: 2016:821 Rn. 64 – James Elliott Construction; Urt. v. 12.09.2019, Rs. C-299/17, ECLI: EU:C:2019:716 Rn. 39 – VG Media; Urt. v. 19.12.2019, Rs. C-390/18, ECLI:EU:C: 2019:1112 Rn. 88 ff – Airbnb Ireland.
206
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
VII. Verantwortlichkeit der sozialen Netzwerke Die Art. 12 bis 14 der ECRL enthalten Haftungsprivilegierungen für Dienste der Informationsgesellschaft 995, die in allen Bereichen des Zivil- und des Strafrechts für nutzergenerierte Inhalte gelten.996 Der gesamte 4. Abschnitt der Richtlinie bezweckt die Beschränkung der Verantwortlichkeit der Anbieter von Diensten der Informationsgesellschaft, sofern es sich um fremde Inhalte handelt.997 Die Regelungen zur Privilegierung der Anbieter im Hinblick auf fremde Inhalte sind hinsichtlich des Regelungsziels verbindlich, mithin als vollharmonisierend gedacht.998 Für die Frage, welcher Haftungstatbestand auf welche Art von Dienst der Informationsgesellschaft anwendbar ist, muss zunächst dessen Tätigkeit ermittelt werden.999 Soziale Netzwerke sind Hosting-Anbieter im Sinne des Art. 14 ECRL.1000 Hosting bedeutet, dass „der Diensteanbieter die vom Nutzer stammenden Informationen in dessen Auftrag speichert und bereitstellt“.1001 Das Hosting kann eine Vielzahl von Tätigkeiten erfassen, darunter das Bereitstellen von Speicherplatz für EMail-Accounts und Webseiten sowie das Zur-Verfügung-Stellen von Server-Kapazität für ein Diskussionsforum.1002 Problematisch ist allerdings, dass sich die sozialen Netzwerke nunmehr nicht auf die Speicherung der Inhalte beschränken, sondern häufig mittels algorithmischer Anwendungen eine Priorisierung der nutzergenerierten Inhalte vornehmen. Die Einordnung als Host-Provider entfällt dadurch jedoch nicht.1003 Denn schließlich wird durch diese Funktion keine Veränderung der Inhalte bewirkt, sondern diese lediglich für den Konsumenten vorsortiert.1004 Anders ist hingegen dann zu entscheiden, wenn durch das soziale Netzwerk neue Informationen zur Verfügung gestellt werden, wie es etwa beim Freundschaftsalgorithmus von Facebook der Fall ist.1005 Bei einer solchen Konstellation sind die Diensteanbieter nicht als Host-Provider tätig, sodass
995 Zur Einordnung sozialer Netzwerke als „Dienste der Informationsgesellschaft“ siehe: Kapitel 3 B.V. 1. b) aa). 996 Grabitz/Hilf/Marly, Vorbemerkungen zu Abschnitt 4 Verantwortlichkeit der Vermittler Rn. 4. 997 Grabitz/Hilf/Marly, Vorbemerkungen zu Abschnitt 4 Verantwortlichkeit der Vermittler Rn. 2; Grabitz/Hilf/Marly, ECRL Art. 14 Rn. 7. 998 Grabitz/Hilf/Marly, Vorbemerkungen zu Abschnitt 4 Verantwortlichkeit der Vermittler Rn. 3. 999 Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 92. 1000 EuGH, Urt. v. 16.02.2012, Rs. C-360/10, ECLI:EU:C:2012:85 Rn. 27 – SABAM. 1001 Grabitz/Hilf/Marly, ECRL Art. 14 Rn. 8. 1002 Grabitz/Hilf/Marly, ECRL Art. 14 Rn. 8. 1003 Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 92. 1004 Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 92. 1005 Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 92.
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
207
die Haftungsprivilegierung entfällt.1006 Abgesehen von solchen Sonderfällen sind soziale Netzwerke jedoch als Host-Provider einzuordnen, sodass für sie der Art. 14 ECRL Anwendung findet. Zutreffend geht auch der Gesetzgeber in seiner Begründung zum NetzDG davon aus, dass Art. 14 ECRL berücksichtigt werden muss.1007 1. Art. 14 ECRL Gemäß Art. 14 Abs. 1 ECRL stellen die Mitgliedstaaten sicher, dass der Diensteanbieter unter den in lit. a und b bestimmten Voraussetzungen für fremde Inhalte nicht verantwortlich ist, sofern es sich um einen Fall des Hostings handelt. Die Privilegierung des Diensteanbieters entfällt jedoch, wenn die Voraussetzungen des Art. 14 Abs. 1 lit. a oder b ECRL nicht erfüllt sind. Lit. a findet dabei in zeitlicher Hinsicht auf die gesamte Tätigkeit des Anbieters Anwendung, wohingegen lit. b sich auf die Zeit nach der Kenntnis- beziehungsweise Bewusstseinserlangung bezieht.1008 Nach Art. 14 Abs. 1 lit. a ECRL ist Voraussetzung für die Haftungsprivilegierung, dass der Anbieter keine tatsächliche Kenntnis von der rechtswidrigen Tätigkeit oder Information hat und in Bezug auf etwaige Schadenersatzansprüche sich auch keiner Tatsachen oder Umstände bewusst ist, aus denen die rechtswidrige Tätigkeit oder Information offensichtlich wird. Art. 14 Abs. 1 lit. b ECRL stellt die Voraussetzung auf, dass der Anbieter, sobald er Kenntnis oder Bewusstsein erlangt, unverzüglich tätig wird, um die Information zu entfernen oder den Zugang zu ihr zu sperren. Im Hinblick auf das NetzDG bestehen Zweifel an der Vereinbarkeit mit Art. 14 Abs. 1 lit. b ECRL. Zum einen hinsichtlich der Fristen für die Löschung und Sperrung der Inhalte, bei denen fraglich ist, ob sie mit einem unverzüglichen Handeln vereinbar sind. Zum anderen hinsichtlich des Zeitpunkts, ab dem diese Fristen berechnet werden. Das NetzDG knüpft hier in § 3 Abs. 2 Nr. 2 und 3 an den Eingang der Beschwerde an, während Art. 14 Abs. 1 lit. b ECRL auf den Zeitpunkt der Kenntniserlangung abstellt. a) Vereinbarkeit der Fristvorgaben des NetzDG mit Art. 14 Abs. 1 lit. b ECRL Die Fristvorgaben des § 3 Abs. 2 Nr. 2 und 3 NetzDG werfen Bedenken an ihrer Vereinbarkeit mit Art. 14 Abs. 1 lit. b ECRL auf, der ein unverzügliches Handeln nach Kenntniserlangung vorsieht. Dabei handelt es sich um einen flexiblen Maßstab, der die Möglichkeit bietet, im Einzelfall erforderliche Anpas1006 Adelberg, Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke, S. 92; Chmelík, Social Network Sites – Soziale Netzwerke, S. 94 ff. 1007 BT-Drs. 18/12356, S. 13 f. 1008 Grabitz/Hilf/Marly, ECRL Art. 14 Rn. 10.
208
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
sungen vorzunehmen.1009 Im Fall des NetzDG hat der Gesetzgeber relativ starre Fristen geschaffen. Offensichtlich rechtswidrige Inhalte sind gemäß § 3 Abs. 2 Nr. 2 NetzDG innerhalb von 24 Stunden nach Eingang der Beschwerde zu entfernen oder der Zugang zu ihnen zu sperren, während sonstige rechtswidrige Inhalte gemäß § 3 Abs. 2 Nr. 3 NetzDG unverzüglich, in der Regel innerhalb von sieben Tagen ab Eingang der Beschwerde, zu sperren oder zu löschen sind. Eine Überschreitung dieser Frist ist nur in den Fällen des § 3 Abs. 2 Nr. 3 NetzDG möglich. Die 24-Stunden-Frist kann hingegen nur überschritten werden, wenn dies mit der zuständigen Strafverfolgungsbehörde vereinbart wurde (§ 3 Abs. 2 Nr. 2 NetzDG). Die Vereinbarkeit der Fristvorgaben mit Art. 14 Abs. 1 lit. b ECRL hängt daher davon ab, wie der Begriff der Unverzüglichkeit zu verstehen ist und ob den Mitgliedstaaten die Möglichkeit eröffnet werden soll, eigene Fristen vorzusehen. Dem Gesetzgeber ist die potenzielle Konfliktlage zwischen den Fristvorgaben des NetzDG und dem Art. 14 Abs. 1 lit. b ECRL nicht entgangen. Er zeigt auf, dass sich die Richtlinien-Vorschrift nicht ausdrücklich zur Einrichtung eines Verfahrens für den Umgang mit Beschwerden und die Möglichkeit einer Bußgeldverhängung im Falle einer Zuwiderhandlung der Diensteanbieter verhalte.1010 Zudem verweist der Gesetzgeber auf Art. 14 Abs. 3 ECRL und den Erwägungsgrund 46, wonach die Richtlinie die Möglichkeit der Mitgliedstaaten unberührt lasse, spezifische Anforderungen vorzuschreiben, die vor der Entfernung oder Sperrung des Zugangs unverzüglich zu erfüllen sind.1011 Weiterhin eröffne der Erwägungsgrund 48 den Mitgliedstaaten die Möglichkeit, von den Diensteanbietern zu verlangen, „die nach vernünftigem Ermessen von ihnen zu erwartende und in innerstaatlichen Rechtsvorschriften niedergelegte Sorgfaltspflicht anzuwenden, um bestimmte Arten rechtswidriger Tätigkeiten aufzudecken und zu verhindern“.1012 aa) Der Begriff der Unverzüglichkeit im allgemeinen Sprachgebrauch Für diese vom Gesetzgeber vertretene Annahme spricht zunächst, dass der Begriff der Unverzüglichkeit durch die ECRL selbst nicht definiert wird, woraus man den Schluss ziehen könnte, dass den Mitgliedstaaten die Möglichkeit eröffnet werden soll, das Verfahren inklusive der Fristen selbst auszugestalten.1013 Auch die anderen Sprachfassungen der ECRL konkretisieren die Bedeutung des Begriffs nicht weiter.1014 Letztlich ergibt sich sowohl aus der französischen als 1009 1010 1011 1012 1013 1014
Wimmers/Heymann, AfP 2017, 93 (95). BT-Drs. 18/12356, S. 13. BT-Drs. 18/12356, S. 13 f. BT-Drs. 18/12356, S. 14. Spindler, ZUM 2017, 473 (479). Nölscher, ZUM 2020, 301 (302); Spindler, ZUM 2017, 473 (479).
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
209
auch aus der englischen Fassung lediglich, dass ein möglichst schnelles Handeln gefordert wird.1015 Im allgemeinen Sprachgebrauch bedeutet unverzüglich „umgehend und ohne Zeitverzug“.1016 Im deutschen Recht wird der Begriff unverzüglich in § 121 Abs. 1 BGB als „ohne schuldhaftes Zögern“ legaldefiniert. Nach dieser Definition kommt es auf die Zumutbarkeit des zeitnahen Handelns und nicht auf das objektive Sofort an.1017 Das deutsche Verständnis dieses Rechtsbegriffs kann jedoch nur ein Indiz für die Auslegung der Unverzüglichkeit darstellen, nicht jedoch das Verständnis eines unionsrechtlichen Begriffs determinieren.1018 bb) Systematische Erwägungen Betrachtet man den Art. 14 Abs. 3 ECRL scheint auch die Systematik des Art. 14 ECRL auf den ersten Blick für die These des deutschen Gesetzgebers zu streiten. Art. 14 Abs. 3 ECRL sieht vor, dass der Art. 14 ECRL die Möglichkeit unberührt lässt, dass die Mitgliedstaaten Verfahren für die Entfernung einer Information oder die Sperrung des Zugangs zu ihr festlegen. Zur Festlegung eines Verfahrens gehören regelmäßig auch Fristvorgaben. In diesem Sinne ließe sich auch der Erwägungsgrund 46 S. 2 der ECRL verstehen, wonach der Diensteanbieter im Zusammenhang mit der Entfernung oder Sperrung des Zugangs „den Grundsatz der freien Meinungsäußerung und die hierzu auf einzelstaatlicher Ebene festgelegten Verfahren“ zu beachten hat. Allerdings betrifft der Erwägungsgrund lediglich die Ausgestaltung des Vorgehens, also das Wie, mithin Vorgaben zur Entfernung als solcher.1019 Eine Aussage zum Wann trifft der besagte Satz 2 nicht, denn das wird schon in Satz 1 des Erwägungsgrunds 46 erfasst, der allerdings nur aufgreift, dass die Entfernung unverzüglich zu erfolgen hat.1020 Auch der Satz 3 des Erwägungsgrundes 46, wonach „die Möglichkeit der Mitgliedstaaten unberührt bleibt, spezifische Anforderungen vorzuschreiben, die vor der Entfernung von Informationen oder der Sperrung des Zugangs unverzüglich zu erfüllen sind“, lässt keine Fristenregelung zu.1021 Vielmehr geht es hierbei um 1015 In der französischen Fassung des Art. 14 Abs. 1 lit. b ECRL heißt es „le prestataire, dès le moment où il a de telles connaissances, agisse promptement pour retirer les informations ou rendre l’accès à celles-ci impossible“. In der englischen Fassung heißt es „the provider, upon obtaining such knowledge or awareness, acts expeditiously to remove or to disable access to the information“. 1016 So der Duden, abrufbar unter: https://www.duden.de/rechtschreibung/unverzueg lich. 1017 Weber/Fuchs, Unverzüglich. 1018 Wimmers/Heymann, AfP 2017, 93 (95); Bitkom, Stellungnahme zum Regierungsentwurf eines Netzwerkdurchsetzungsgesetzes, S. 14. 1019 Spindler, ZUM 2017, 473 (479); Wimmers/Heymann, AfP 2017, 93 (95); Bitkom, Stellungnahme zum Regierungsentwurf eines Netzwerkdurchsetzungsgesetzes, S. 14. 1020 Spindler, ZUM 2017, 473 (479). 1021 Spindler, ZUM 2017, 473 (479).
210
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
die Ausgestaltung eines Verfahrens, das schon vor dem eigentlichen Entfernen oder Sperren einzuhalten ist.1022 Ferner stellt der Gesetzgeber auf den Erwägungsgrund 48 ab,1023 aus dem die Ermächtigung des Gesetzgebers abgeleitet werden könne, auch die Grenzen des vernünftigen Ermessens selbst festzulegen.1024 Der Gesetzgeber übersieht insofern, dass sowohl der Erwägungsgrund 46 als auch der Erwägungsgrund 48 den Tatbestand des Art. 14 Abs. 1 ECRL und damit gleichzeitig auch den Begriff der Unverzüglichkeit unberührt lassen.1025 Die Festlegung von Verfahren im Sinne des Art. 14 Abs. 3 ECRL, kann nicht völlig losgelöst von den Vorgaben des Art. 14 Abs. 1 ECRL erfolgen. Systematik und Erwägungsgründe bieten insofern keinerlei Anhaltspunkte dafür, dass die Richtlinie den Mitgliedstaaten die Ausgestaltung der Fristen gänzlich offenlässt. Vielmehr müssen sich die Mitgliedstaaten bei der Ausgestaltung etwaiger Notice-and-Take-Down-Verfahren an die Vorgabe der Unverzüglichkeit halten. cc) Auslegung nach Sinn und Zweck der Vorschrift Auf der Suche nach dem Sinn und Zweck der Vorschrift des Art. 14 Abs. 1 lit. b ECRL lohnt sich ein genauerer Blick auf die weiteren Erwägungsgründe der ECRL. Den Erwägungsgründen 1 bis 8 der Richtlinie lässt sich deren Ziel entnehmen. Es sollen Hemmnisse abgebaut werden, um das reibungslose Funktionieren des Binnenmarkts zu ermöglichen. Dazu sollen vor allem Unterschiede der innerstaatlichen Rechtsvorschriften sowie die Rechtsunsicherheit bezüglich der auf die Diensteanbieter anzuwendenden Regelungen abgebaut werden. Ziel ist daher die Schaffung eines rechtlichen Rahmens zur Sicherstellung des freien Verkehrs von Diensten der Informationsgesellschaft. Die Regelungen des Art. 14 ECRL sind zudem vollharmonisierend gedacht.1026 Wenn nun aber die Mitgliedstaaten jeweils eigenständig den Begriff der Unverzüglichkeit definieren und dabei zu unterschiedlichen Ergebnissen kommen, würde das vielmehr zu einer – vom Richtliniengeber ungewollten – Rechtszersplitterung führen.1027 Neben dem allgemeinen Sinn und Zweck der ECRL ist auch speziell der Sinn des Art. 14 ECRL in den Blick zu nehmen. Dieser bezweckt eine Haftungsprivi1022
Spindler, ZUM 2017, 473 (479). BT-Drs. 18/12356, S. 14. 1024 Höch, K&R 2017, 289 (291). 1025 Heckmann/Wimmers, CR 2017, 310 (312); Wimmers/Heymann, AfP 2017, 93 (95); Bitkom, Stellungnahme zum Regierungsentwurf eines Netzwerkdurchsetzungsgesetzes, S. 14. 1026 BGH, Urt. v. 04.07.2013 – I ZR 39/12, NJW 2014, 552 – Terminhinweis mit Kartenausschnitt; BT-Drs. 14/6098, S. 22; Spindler, ZUM 2017, 473 (478); Wimmers/ Heymann, AfP 2017, 93 (95). 1027 Spindler, ZUM 2017, 473 (479). 1023
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
211
legierung von Host-Providern. Diese stellen der Öffentlichkeit Informationen zur Verfügung, ohne dass sie mit Presseanbietern gleichgestellt werden könnten.1028 Um den öffentlichen Zugang zu den bereitgestellten Informationen weiterhin zu garantieren, haften die Host-Provider erst ab Kenntnis der Rechtswidrigkeit.1029 Aus dem Erwägungsgrund 10 der ECRL ergibt sich weiterhin, dass ein hohes Schutzniveau in Bezug auf allgemeine Rechtsgüter gewährt werden soll sowie aus Erwägungsgrund 46, dass der Meinungsfreiheit Rechnung zu tragen ist. Diese Abwägung der Positionen spielt daher auch eine Rolle für die Verantwortlichkeit des Anbieters.1030 Vor diesem Hintergrund spricht einiges dafür, das Verständnis der Unverzüglichkeit an dessen deutsche Auslegung anzulehnen.1031 Denn ohne schuldhaftes Zögern bedeutet, dass es darauf ankommt, was man dem Diensteanbieter in der konkreten Situation zumuten kann und nicht auf das objektive Sofort.1032 Die Zumutbarkeit kann jedoch von einer Vielzahl von Faktoren abhängen. Auf der einen Seite kann beispielsweise ein unerwartet hohes Beschwerdeaufkommen oder die besondere rechtliche Komplexität einzelner Inhalte dazu führen, dass die siebenTage-Frist zu kurz bemessen ist. Auf der anderen Seite können Rechtsverletzungen so eklatant sein, dass die 24-Stunden-Frist für den Betroffenen unzumutbar lang, die Entscheidung für die sozialen Netzwerke jedoch eindeutig zu treffen ist.1033 Die 24-Stunden-Frist für offensichtlich rechtswidrige Inhalte ist insoweit unflexibel und widerspricht damit der Zielsetzung des Art. 14 ECRL. Hinsichtlich der sieben-Tage-Frist hat der Gesetzgeber mit der Formulierung des § 3 Abs. 2 Nr. 3 NetzDG „unverzüglich, in der Regel innerhalb von sieben Tagen“ versucht, die Frist aufzuweichen.1034 Damit sollte wohl dem Sinn und Zweck des Art. 14 ECRL entsprochen werden. Dennoch bleibt die Frage offen, ob eine Konkretisierung der Unverzüglichkeit, wie der deutsche Gesetzgeber sie mit den sieben Tagen vorgenommen hat, auch mit dem generellen Zweck der ECRL, nämlich der Vereinheitlichung der Regelungen im europäischen Binnenmarkt, zu vereinbaren ist. 1028
Schulze/Staudenmayer/Amayuelas, Article 14 ECD Rn. 1. Schulze/Staudenmayer/Amayuelas, Article 14 ECD Rn. 1; Savin, EU Internet law, S. 158 ff. 1030 Nölscher, ZUM 2020, 301 (302). 1031 Im Ergebnis auch Nölscher, ZUM 2020, 301 (302). 1032 Zur Auslegung der Unverzüglichkeit im deutschen Recht: Weber/Fuchs, Unverzüglich. 1033 Spindler, ZUM 2017, 473 (480). 1034 BT-Drs. 18/13013, S. 20, „Durch die Formulierung ,in der Regel‘ wird klargestellt, dass eine abschließende Bewertung der Beschwerde zu einem Inhalt grundsätzlich weiterhin innerhalb von sieben Tagen erfolgen soll. Zudem bleibt es dabei, dass die Entfernung oder Sperrung immer noch unverzüglich erfolgen muss (d. h. ohne schuldhaftes Zögern), was durch Einfügen des Wortes ,unverzüglich‘ in § 3 Absatz 2 Nummer 3 NetzDG-E klargestellt ist.“ 1029
212
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
dd) Einheitliche Auslegung des Unionsrechts Zuletzt ist auf die grundlegende Systematik des Unionsrechts einzugehen. Die Vorschriften zum E-Commerce wurden in Form einer Richtlinie erlassen, die nach Art. 288 Abs. 3 AEUV für jeden Mitgliedstaat, an den sie gerichtet wird, hinsichtlich des zu erreichenden Ziels verbindlich ist, den innerstaatlichen Stellen jedoch die Wahl der Form und der Mittel überlässt. Es besteht keine Verpflichtung der Mitgliedstaaten, unbestimmte Rechtsbegriffe in die eigene Rechtsordnung zu übernehmen, vielmehr haben sie einen Auslegungsspielraum bei der Umsetzung der Richtlinie.1035 Dieser Auslegungsspielraum kann jedoch beschränkt sein. Gemäß Art. 267 AUEV obliegt die Auslegung von Rechtsakten der Union dem EuGH. Sofern der EuGH bereits einen unbestimmten Rechtsbegriff der Richtlinie konkretisiert hat, ist der Gestaltungsspielraum des nationalen Gesetzgebers eingeschränkt, da Begriffe des Unionsrechts nach der Rechtsprechung des EuGH in der gesamten Union einheitlich auszulegen sind.1036 Eine solche Konkretisierung des Begriffs der Unverzüglichkeit durch den EuGH ist allerdings bisher noch nicht explizit erfolgt.1037 In den Schlussanträgen vom 28. Oktober 2015 beschäftigte sich Generalanwältin Kokott mit der Bedeutung des Begriffs unverzüglich im Art. 218 Abs. 10 AEUV. Diese Formulierung bedeute ein sofortiges, zumindest aber schnellstmögliches Handeln.1038 In der entsprechenden Fußnote verweist Kokott auf die Bedeutung des Begriffs in § 121 Abs. 1 S. 1 BGB.1039 Der EuGH hat im anschließenden Urteil bestätigt, dass der Begriff einen gewissen zeitlichen Spielraum gewährt, sofern die Umstände dies erfordern.1040 Darüber hinaus hat sich der EuGH aber nicht vertieft mit dem Begriff auseinandergesetzt. Jedoch ist es im Falle der Vollharmonisierung durch eine Richtlinie – wie von der ECRL bezweckt – für die Mitgliedstaaten nicht zulässig, die Vorgaben der Vorschriften zu über- oder unterschreiten.1041 Dies hat auch der BGH in Bezug auf den Begriff „fremde Informationen“ betont.1042 Er hat darauf hingewiesen, dass der deutsche Gesetzgeber dem Begriff keinen über Art. 14 Abs. 1 ECRL hin1035 Deutscher Bundestag, Fachbereich Europa, PE 6 – 3000 – 22/17, S. 10; Nettesheim/Grabitz/Hilf/Nettesheim, AEUV Art. 288 Rn. 135. 1036 EuGH, Urt. v. 07.12.2006, Rs. C-306/05, ECLI:EU:C:2006:764 Rn. 31 – SGAE. 1037 Deutscher Bundestag, Fachbereich Europa, PE 6 – 3000 – 22/17, S. 11. 1038 GA Kokott, Schlussanträge v. 28.10.2015, Rs. C-263/14, ECLI:EU:C:2015:729 Rn. 100. 1039 GA Kokott, Schlussanträge v. 28.10.2015, Rs. C-263/14, ECLI:EU:C:2015:729 Fn. 50. 1040 EuGH, Urt. v. 14.06.2016, Rs. C-263/14, ECLI:EU:C:2016:435 Rn. 82 – Parlament/Rat. 1041 Streinz/Schröder, AEUV Art. 114 Rn. 46; Bron, Rechtsangleichung des Privatrechts auf Ebene der Europäischen Union, S. 102. 1042 BGH, Urt. v. 04.07.2013 – I ZR 39/12, NJW 2014, 552 Rn. 19 – Terminhinweis mit Kartenausschnitt; Wimmers/Heymann, AfP 2017, 93 (95).
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
213
ausgehenden Inhalt geben dürfe, da die Bestimmungen über die Verantwortlichkeit bestimmter Diensteanbieter in den Art. 12 bis 15 ECRL eine Vollharmonisierung bezweckten. Daher dürften die Mitgliedstaaten weder weitere noch engere Regelungen im nationalen Recht vorsehen.1043 Nun liegt die Argumentation nahe, dass durch die Fristen des NetzDG lediglich eine Konkretisierung des Begriffs der Unverzüglichkeit vorgenommen wurde, ihm aber kein weiterer Inhalt, der mit der Richtlinie nicht vereinbar wäre, gegeben wurde. Es ist diesem Begriff immanent, dass zwar ein möglichst schnelles Handeln gefordert ist, was mit den Fristvorgaben von 24 Stunden beziehungsweise sieben Tagen gewährleistet sein könnte. Allerdings bietet die Unverzüglichkeit auch die erforderliche Flexibilität, den Zeitrahmen für das Handeln an den Einzelfall anzupassen.1044 So kann je nach Charakteristik des Falls so schnell wie möglich, aber dennoch mit der erforderlichen Sorgfalt vorgegangen werden. Diese flexible Bearbeitung ist durch die starre 24-Stunden-Frist, die das NetzDG in offensichtlichen Fällen vorsieht, auf den ersten Blick jedenfalls nicht möglich. Sofern jedoch Zweifel an der offensichtlichen Rechtswidrigkeit bestehen, ist die sieben-Tage-Frist maßgeblich. Hinsichtlich der sieben-Tage-Frist ist dem Gesetzgeber eine gewisse Flexibilisierung durch die Formulierung „unverzüglich, in der Regel innerhalb von sieben Tagen“ des § 3 Abs. 2 Nr. 3 NetzDG gelungen. ee) Umsetzung der Richtlinie in anderen Mitgliedstaaten Darüber hinaus haben auch andere Mitgliedstaaten die Vorgabe der Unverzüglichkeit mit konkreten Fristen ausgestaltet. So hat beispielsweise Ungarn eine Frist von 12 Stunden im Bereich des IPR, Spanien eine Frist von 72 Stunden für Urheberrechtsverletzungen, Litauen eine Frist von einem Tag für Urheberrechtsverstöße und Großbritannien zwei Tage für die Reaktion auf terroristische Inhalte festgelegt.1045 Dieses Vorgehen der Mitgliedstaaten wurde, soweit ersichtlich, weder von der Kommission noch dem EuGH im Rahmen eines Vertragsverletzungsverfahrens als Verletzung der unionsrechtlichen Vorgaben angesehen.1046 Die Tatsache, dass andere Regelungen existieren, die bisher noch nicht beanstandet wurden, kann jedoch höchstens ein Indiz dafür sein, dass die Fristvorgaben des NetzDG unionsrechtskonform sind. Immerhin erscheint es weiterhin möglich, dass der EuGH die Regelungen der anderen Mitgliedstaaten als richtlinienwidrig einstuft, sofern er den Anlass hat, sich mit diesen Vorgaben zu beschäfti1043 BGH, Urt. v. 04.07.2013 – I ZR 39/12, NJW 2014, 552 Rn. 19 – Terminhinweis mit Kartenausschnitt. 1044 Feldmann, K&R 2017, 292 (296). 1045 Commission Staff Working Document, Online services, including e-commerce, in the Single Market, SEC(2011) 1641 final, S. 44. 1046 Deutscher Bundestag, Fachbereich Europa, PE 6 – 3000 – 22/17, S. 11.
214
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
gen. Solange die Fristvorgaben nicht durch den EuGH ausdrücklich als richtlinienkonform beurteilt wurden, kann dies auch nicht ohne Weiteres unterstellt werden. Die Europäische Kommission hat im Rahmen des Notifizierungsverfahrens der französischen Loi Avia1047 Bedenken bezüglich der Vereinbarkeit mit Art. 14 ECRL geäußert.1048 Das französische Gesetz sah eine Pflicht vor, gemeldete eindeutig illegale Inhalte innerhalb von 24 Stunden zu entfernen. Art. 4 des notifizierten Entwurfs sah empfindliche Sanktionen für die Nichteinhaltung der Pflichten vor. Grundsätzlich, so die Auffassung der Kommission, würde die ECRL nicht ausschließen, dass die Mitgliedstaaten Fristen für das Tätigwerden der Host-Provider vorsehen.1049 Allerdings müssen diese Fristen, um die Grundrechte der Betroffenen zu wahren, angemessen sein. Dazu sollte den Plattformen ausreichend Zeit für die Beurteilung der Inhalte eingeräumt sowie Ausnahmen zur Fristüberschreitung geschaffen werden. Die Frist der Loi Avia erfülle diese Anforderungen jedoch nicht. Auch wenn sich die Pflichten auf eindeutig illegale Inhalte bezögen, eine Widerspruchsmöglichkeit bestünde und die französischen Behörden erklärten, dass die Schwere der Verstöße bei der Bemessung der Sanktionen Berücksichtigung fände, kommt die Kommission zu dem Schluss, dass die 24-StundenFrist der Loi Avia unangemessen sei.1050 Dem lässt sich entnehmen, dass die Kommission grundsätzlich davon ausgeht, dass die Festlegung einer Frist nicht der ECRL widerspricht. Vielmehr kommt es ihrer Auffassung nach darauf an, ob diese Frist angemessen gewählt ist, um den Grundrechten der Betroffenen Rechnung zu tragen. Die Fristen des NetzDG sind nicht angemessen. Denn Erwägungsgrund 46 Satz 2 ECRL hebt ausdrücklich das Grundrecht der Meinungsfreiheit hervor, die im Zusammenhang mit der Entfernung oder Sperrung eines Inhalts zu beachten ist. Die Fristen von 24 Stunden beziehungsweise sieben Tagen, die in § 3 Abs. 2 Nr. 2 und 3 NetzDG vorgesehen sind, sind jedoch gerade nicht mit dem Grundrecht der Meinungsfreiheit vereinbar. Insbesondere sind sie nicht geeignet, eine hinreichende Prüfung der gemeldeten Inhalte durch die Diensteanbieter zu ermöglichen.1051 ff) Zwischenergebnis Im Ergebnis bleibt festzuhalten, dass Art. 14 Abs. 3 ECRL den Mitgliedstaaten ermöglicht, den Begriff der Unverzüglichkeit aus Art. 14 Abs. 1 lit. b ECRL im Rahmen der Festlegung von Verfahren zur Löschung oder Sperrung näher zu 1047 1048 1049 1050 1051
Notifizierungsnummer 2019/412/F. Europäische Kommission, C(2019) 8585 final, S. 6 f. Europäische Kommission, C(2019) 8585 final, S. 6. Europäische Kommission, C(2019) 8585 final, S. 7. Siehe hierzu bereits Kapitel 3 A. I. 5. d) ff).
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
215
konkretisieren. Die Frist muss jedoch angemessen sein. Dies ist bei der Fristsetzung des NetzDG gerade nicht der Fall. Die Verfahrensvorgaben des NetzDG ermöglichen kein flexibles Reagieren auf den Einzelfall unter Berücksichtigung der Meinungsfreiheit sowie den Rechten der Opfer von Hasskriminalität. Es bleibt abzuwarten, ob auf unionsrechtlicher Ebene eine Konkretisierung des Begriffs der Unverzüglichkeit stattfinden wird, sei es durch den EuGH oder den kommenden Digital Services Act, der in Art. 5 DSA-E an den Haftungsregeln der ECRL für Hosting-Anbieter festhält. b) Zeitpunkt des Tätigwerdens Neben den Zweifeln an den Fristvorgaben als solchen bestehen auch Zweifel an dem festgelegten Zeitpunkt für den Fristbeginn sowie der Kenntnis der Rechtswidrigkeit. aa) Aufforderung zum Handeln vor Kenntnis im NetzDG Schon vor Kenntnis der Rechtswidrigkeit fordert das NetzDG ein Tätigwerden der Diensteanbieter. Dies könnte mit Art. 14 Abs. 1 ECRL in Widerspruch stehen. (1) Pflicht zur Kenntnisverschaffung Das NetzDG normiert eine Pflicht zur Kenntnisverschaffung, die nicht mit Art. 14 Abs. 1 lit. b ECRL zu vereinbaren ist. Nach Art. 14 Abs. 1 lit. b ECRL hat der Diensteanbieter unverzüglich tätig zu werden, sobald er tatsächliche Kenntnis von der rechtswidrigen Tätigkeit oder Information erlangt. Gemäß der Rechtsprechung des EuGH in der Sache L’Oréal liegt Kenntnis vor, wenn sich der Anbieter etwaiger Tatsachen oder Umständen bewusst ist, aus denen die rechtswidrige Tätigkeit oder Information offensichtlich wird.1052 Eine Anzeige könne jedoch nicht ohne Weiteres dazu führen, dass die Haftungsfreistellung entfällt, da sich solche Anzeigen als unzureichend genau und substantiiert erweisen können.1053 Hier knüpft hingegen das NetzDG an. Während der EuGH davon ausgeht, dass nicht automatisch jede Anzeige zur Verantwortlichkeit des Diensteanbieters führt, legt das NetzDG dem Anbieter die Pflicht auf, die Rechtswidrigkeit des gemeldeten Inhalts umfassend zu prüfen. Denn das NetzDG beschränkt sich nicht auf die Fälle der offensichtlichen Rechtswidrigkeit, bei denen man in der Regel von der Kenntnis ausgehen kann. Vielmehr wird vom Diensteanbieter ge1052 EuGH, Urt. v. 12.07.2011, Rs. C-324/09, ECLI:EU:C:2011:474 Rn. 120 – L’Oréal u. a. 1053 EuGH, Urt. v. 12.07.2011, Rs. C-324/09, ECLI:EU:C:2011:474 Rn. 122 – L’Oréal u. a.
216
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
fordert, dass er in den Fällen, in denen die Rechtswidrigkeit nicht ohne Weiteres zu ermitteln ist, weitere Schritte unternimmt.1054 Nach § 3 Abs. 2 Nr. 3 lit. a NetzDG kann der Diensteanbieter, sofern die Rechtswidrigkeit eines Inhalts von der Unwahrheit einer Tatsachenbehauptung oder von anderen tatsächlichen Umständen abhängt, eine Stellungnahme des Nutzers einholen. Damit fordert das NetzDG vom Betreiber des sozialen Netzwerks bereits ein Handeln, bevor die Rechtswidrigkeit als solche überhaupt feststeht.1055 Es wird eine Pflicht geschaffen, sich zunächst Kenntnis über die Rechtswidrigkeit zu verschaffen.1056 Darauf, dass eine solche Pflicht zur Einholung einer Stellungnahme zum Zwecke der Sachverhaltsaufklärung nicht mit Art. 14 Abs. 1 ECRL zur vereinbaren sei, wurde auch schon im Zuge der Blog-Eintrag-Entscheidung des BGH1057 hingewiesen.1058 Eine zusätzliche Klarstellung, dass eine Pflicht zur Kenntnisverschaffung nicht mit Art. 14 Abs. 1 ECRL zu vereinbaren ist, findet sich in Art. 15 Abs. 1 ECRL.1059 Danach dürfen die Mitgliedstaaten den Diensteanbietern nicht die Pflicht auferlegen, aktiv nach Umständen zu forschen, die auf eine rechtswidrige Tätigkeit hinweisen. Die Pflicht zur Prüfung der Inhalte, verbunden mit weiteren Nachforschungen zu den Umständen, ist daher nicht mit Art. 14 Abs. 1 ECRL zu vereinbaren. (2) Pflicht zur unverzüglichen Kenntnisnahme aus § 3 Abs. 2 Nr. 1 NetzDG Liesching verweist zudem darauf, dass die Pflicht des § 3 Abs. 2 Nr. 1 NetzDG zur unverzüglichen Kenntnisnahme der Beschwerde, die nach § 4 Abs. 1 Nr. 2 NetzDG mit einem Bußgeld bewehrt ist, eine Pflicht des „Kennenmüssens“ etablieren würde, die nicht mit dem Art. 14 ECRL vereinbar wäre.1060 Die Bußgeldandrohung des § 4 Abs. 1 Nr. 2 NetzDG bezieht sich nach dem Willen des Gesetzgebers auf sämtliche Pflichten des Anbieters ein wirksames und transparentes Verfahren für den Umgang mit Beschwerden über rechtswidrige Inhalte zur Verfügung zu stellen.1061 Dabei soll eine einzelne Verfehlung des sozialen Netzwerks nicht zu einem Bußgeld führen, vielmehr sollen erst systemische Mängel sanktionierbar sein.1062 Ob durch diese Vorschrift nun ein Kennenmüssen erwartet wird, erscheint jedoch zweifelhaft. Schließlich geht es bei der fraglichen Vorschrift des NetzDG darum, dass der Anbieter des sozialen Netzwerks sicher1054
Feldmann, K&R 2017, 292 (296); Heckmann/Wimmers, CR 2017, 310 (312). Heckmann/Wimmers, CR 2017, 310 (312). 1056 Heckmann/Wimmers, CR 2017, 310 (312). 1057 BGH, Urt. v. 25.10.2011 – VI ZR 93/10, BGHZ 191, 21 – Blog-Eintrag. 1058 Feldmann, K&R, 113 (114 ff.); Nolte/Wimmers, GRUR 2014, 16 (24 f.); Spindler, CR 2012, 176 (178). 1059 Grabitz/Hilf/Marly, ECRL Art. 15 Rn. 5. 1060 Liesching, MMR 2018, 26 (29). 1061 BT-Drs. 18/12356, S. 24. 1062 BT-Drs. 18/12356, S. 24. 1055
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
217
stellen muss, dass Beschwerden überhaupt zur Kenntnis genommen werden können. Ein Tätigwerden, das zur Löschung oder Sperrung des Inhalts führt, wird damit jedoch nicht gefordert. Insofern ist in Bezug auf die Pflicht aus § 3 Abs. 2 Nr. 1 NetzDG die Vereinbarkeit mit der ECRL gegeben, schließlich muss es ein Verfahren geben, das dazu führt, dass die sozialen Netzwerke Kenntnis von der Rechtswidrigkeit erlangen können. Andernfalls könnten die Diensteanbieter sich der Kenntnisnahme verschließen und damit versuchen, der Verantwortlichkeit zu entgehen. (3) Einrichtung des Gegenvorstellungsverfahrens Ein weiterer Verstoß gegen Art. 14 ECRL besteht in der Einrichtung des Gegenvorstellungsverfahrens nach § 3b NetzDG. Vorgesehen ist, dass der Anbieter eines sozialen Netzwerks ein wirksames und transparentes Verfahren vorhalten muss, mittels dem eine Überprüfung der ursprünglichen Entscheidung über die Sperrung oder Löschung eines Inhalts herbeigeführt werden kann. Der Netzwerkbetreiber muss also erneut tätig werden, obwohl die Rechtswidrigkeit des Inhalts gerade nicht bekannt ist.1063 Das Gegenvorstellungsverfahren kommt auch dann zur Anwendung, wenn der Diensteanbieter zu dem Ergebnis gelangt ist, dass eine Rechtswidrigkeit nicht vorliegt. Insofern müsste er auch tätig werden, wenn ein Inhalt offensichtlich nicht rechtswidrig ist und sich mit dem Gegenvorstellungsantrag befassen.1064 Dies widerspricht den Vorgaben von Art. 14 Abs. 1 lit. b ECRL, dass ein Tätigwerden erst ab Kenntnis zu erfolgen hat.1065 bb) Fristbeginn bei Eingang der Beschwerde Für den Beginn der Frist von 24 Stunden beziehungsweise sieben Tagen ist der Zeitpunkt des Eingangs der Beschwerde maßgeblich. Dieser Anknüpfungspunkt des § 3 Abs. 2 Nr. 2 und 3 NetzDG für den Fristbeginn ist nicht mit Art. 14 Abs. 1 lit. b ECRL zu vereinbaren, der auf die Kenntnis oder das Bewusstsein des Diensteanbieters von der rechtswidrigen Information abstellt. Die Kenntnisnahme im Sinne des Art. 14 Abs. 1 ECRL muss zudem durch einen Menschen und nicht automatisiert erfolgen.1066 Es stellt sich zunächst die Frage, wie die Formulierung Eingang der Beschwerde im Sinne des NetzDG zu verstehen ist, da sie weder im Gesetzestext selbst noch in der Begründung näher erläutert wird. Daher bietet es sich an, zum Zweck der Näherung an den Begriff, einen Vergleich zu bestehenden Vorschriften zu ziehen. Im Unionsrecht finden sich keine vergleichbaren Regelungen. Im 1063 1064 1065 1066
Spiegel/Heymann, K&R 2020, 344 (347). Spiegel/Heymann, K&R 2020, 344 (347). Spiegel/Heymann, K&R 2020, 344 (347). Spindler, ZUM 2017, 473 (480).
218
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
deutschen Recht kommt dem Eingang der Beschwerde wohl der Zugang der Willenserklärung in den Machtbereich des Empfängers nach § 130 BGB am nächsten.1067 Der Zugang im Sinne des § 130 BGB setzt voraus, dass die Erklärung so in den Machtbereich des Empfängers gelangt, dass dieser die Möglichkeit der Kenntnisnahme hat;1068 eine tatsächliche Kenntnisnahme ist zu dem Zeitpunkt jedoch noch nicht gegeben.1069 So muss auch der Eingang der Beschwerde im NetzDG zu verstehen sein. Dieser liegt vor, wenn die Beschwerde in den Machtbereich des Diensteanbieters gelangt und dieser die Möglichkeit zur Kenntnisnahme hat.1070 Daher ist auch mit dem Eingang der Beschwerde noch keine Kenntnisnahme erfolgt. Nölscher versteht den Begriff Eingang indes relativ. Schon die Pflicht des § 3 Abs. 2 Nr. 1 NetzDG, die Beschwerden unverzüglich zur Kenntnis zu nehmen und zu prüfen, spreche dafür, mit dem Eingang den Zeitpunkt zu verstehen, zu dem die Beschwerde beim zuständigen Sachbearbeiter eintrifft.1071 Eine derartige Auslegung würde den Wortlaut der Vorschrift aber überdehnen. Denn dieser stellt nicht auf den zuständigen Sachbearbeiter ab,1072 sondern auf den Anbieter des sozialen Netzwerks. Während in der ursprünglichen Fassung des NetzDG noch unklar war, was der Gesetzgeber unter dem Begriff Beschwerde versteht, wurde mit dem Gesetz zur Bekämpfung des Rechtsextremismus und der Hasskriminalität ein Abs. 4 in § 1 NetzDG eingefügt, der eine Legaldefinition dieses Begriffs enthält. Eine Beschwerde über rechtswidrige Inhalte ist demnach „jede Beanstandung eines Inhalts mit dem Begehren der Entfernung des Inhaltes oder der Sperrung des Zugangs zum Inhalt, es sei denn, dass mit der Beanstandung erkennbar nicht geltend gemacht wird, dass ein rechtswidriger Inhalt vorliegt“. Die Beschwerde muss sich insofern auf einen konkreten Inhalt beziehen.1073 Die Kritik an der Unbestimmtheit des Beschwerdebegriffs1074 dürfte damit beseitigt sein. Mit dem Eingang der Beschwerde ist diese in den Machtbereich des sozialen Netzwerks gelangt, damit liegt aber noch nicht zwingend auch eine Kenntnisnahme vor. Diese Kenntnis oder jedenfalls das Bewusstsein wird aber von Art. 14
1067
Spindler, ZUM 2017, 473 (480). MüKoBGB/Einsele, BGB § 130 Rn. 16. 1069 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 462. 1070 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 462. 1071 Nölscher, ZUM 2020, 301 (304). 1072 Handel, Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet, S. 462. 1073 BT-Drs. 19/17741, S. 42. 1074 Siehe dazu Spindler, ZUM 2017, 473 (481 f.). 1068
B. Beeinträchtigung der Rechte der Anbieter sozialer Netzwerke
219
Abs. 1 ECRL verlangt, andernfalls besteht keine Pflicht des Host-Providers zum Tätigwerden. Die Fristen des NetzDG knüpfen hingegen bereits an den Zeitpunkt an, zu dem die Beschwerde in den Machtbereich des Diensteanbieters gelangt, zu dem jedoch regelmäßig keine Kenntnis vorliegt. c) Erfordernis der erfolgreichen Sperrung oder Löschung Feldmann wirft dem NetzDG zudem vor, dass es einen Handlungserfolg fordere, während Art. 14 Abs. 1 lit. b ECRL ein reines Tätigwerden erfordere.1075 § 3 Abs. 2 Nr. 2 und 3 NetzDG legt den Anbietern die Pflicht auf, den (offensichtlich) rechtswidrigen Inhalt innerhalb von 24 Stunden beziehungsweise unverzüglich, in der Regel innerhalb von sieben Tagen nach Eingang der Beschwerde, zu entfernen oder den Zugang zu ihm zu sperren. Es werde also innerhalb der gesetzten Frist ein Erfolg im Sinne einer Sperrung oder Löschung gefordert.1076 Art. 14 Abs. 1 lit. b fordere demgegenüber lediglich, dass der Anbieter tätig wird, um die Information zu entfernen oder den Zugang zu ihr zu sperren. Insoweit würde die Pflicht des NetzDG über die Anforderungen des Art. 14 Abs. 1 lit. b ECRL hinausgehen.1077 Tatsächlich ist der Wortlaut des Art. 14 Abs. 1 lit. b ECRL dahingehend eindeutig. Ein unverzüglicher Erfolg wird nicht gefordert, sondern vielmehr ein ernsthaftes Bemühen um Sperrung oder Löschung der Information.1078 Insofern geht das NetzDG auch in dieser Hinsicht über die Anforderungen des Art. 14 Abs. 1 lit. b ECRL hinaus. 2. Vereinbarkeit mit Art. 15 Abs. 2 ECRL Durch das Gesetz zur Bekämpfung von Rechtsextremismus und Hasskriminalität trat im Februar 2022 die Meldepflicht bestimmter Inhalte an das BKA in Kraft. Der dazu neu eingefügte § 3a NetzDG steht allerdings im Widerspruch zu Art. 15 Abs. 2 ECRL.1079 Die Mitgliedstaaten sind nach Art. 15 Abs. 2 ECRL befugt, Diensteanbieter zu verpflichten, die zuständigen Behörden unverzüglich über mutmaßliche rechtswidrige Tätigkeiten oder Informationen der Nutzer zu unterrichten sowie sie zu verpflichten, den zuständigen Behörden auf Verlangen Informationen zu übermitteln, anhand derer die Nutzer des Dienstes ermittelt werden können. Im Gegensatz zur Unterrichtung ist die Übermittlung ausdrück-
1075
Feldmann, K&R 2017, 292 (296). Feldmann, K&R 2017, 292 (296). 1077 Handel, MMR 2017, 227 (463); Feldmann, K&R 2017, 292 (296). 1078 Spindler/Schmitz/Spindler, TMG § 10 Rn. 50; In Bezug auf § 10 TMG Gersdorf/Paal/Paal/Hennemann, TMG § 10 Rn. 42. 1079 eco, Stellungnahme zum Entwurf eines Gesetzes zur Bekämpfung des Rechtsextremismus und der Hasskriminalität, S. 4 f. 1076
220
Kap. 3: Die Vereinbarkeit des NetzDG mit dem Unionsrecht
lich an ein Verlangen der Behörde gebunden.1080 § 3a Abs. 3 und 4 NetzDG sieht hingegen vor, dass die sozialen Netzwerke diejenigen Inhalte, welche die Voraussetzungen des § 3a Abs. 2 NetzDG erfüllen, proaktiv an das BKA übermitteln. Die Übermittlung muss neben dem Inhalt auch Informationen wie die IP-Adresse einschließlich der Portnummer enthalten, die eine Ermittlung der Identität des betroffenen Nutzers ermöglicht. Die Vorschrift geht insofern über die reine Unterrichtung über rechtswidrige Inhalte deutlich hinaus, sieht aber nicht vor, dass der Übermittlung ein Auskunftsverlangen der zuständigen Behörde vorangehen muss. Damit ist § 3a Abs. 3 und 4 NetzDG nicht mit Art. 15 Abs. 2 ECRL zu vereinbaren.1081 3. Ergebnis Das NetzDG sieht eine Reihe von Pflichten vor, die über die in Art. 14 und 15 ECRL geregelte Verantwortlichkeit der Diensteanbieter hinausgehen. Auch wenn eine Konkretisierung der Unverzüglichkeit im Rahmen des Art. 14 Abs. 1 lit. b ECRL durch die Mitgliedstaaten grundsätzlich zulässig ist, müssen diese Fristen angemessen sein. Dem deutschen Gesetzgeber ist die Gestaltung angemessener Fristen hingegen misslungen, insbesondere ermöglichen die Fristen keine flexible Reaktion auf den Einzelfall. Darüber hinaus ist auch der Zeitpunkt des Fristbeginns nicht mit Art. 14 Abs. 1 lit. b. ECRL zu vereinbaren. Während dieser an die Kenntnis oder das Bewusstsein anknüpft, beginnen die Fristen schon mit dem Eingang der Beschwerde zu laufen, mit dem regelmäßig noch keine Kenntnis erfolgt. Des Weiteren ist die Pflicht der Diensteanbieter, eigene Nachforschungen und Prüfungen der Rechtswidrigkeit vorzunehmen, nicht mit Art. 14 Abs. 1 lit. b ECRL vereinbar, der ein Tätigwerden erst ab Kenntnis verlangt. Explizit wird ein Tätigwerden vom Diensteanbieter und nicht, wie im NetzDG vorgesehen, ein Erfolg gefordert.
C. Ergebnis Die vorliegende Untersuchung hat gezeigt, dass das NetzDG in vielerlei Hinsicht die Rechte der Nutzer verletzt. Als besonders gravierend stellt sich die Verletzung der Meinungsfreiheit der Netzwerkmitglieder dar, da die sozialen Netzwerke mittlerweile eine wichtige Rolle für die Meinungsbildung spielen. Hinzu kommt die Verletzung des Rechts auf Schutz der personenbezogenen Daten der Nutzer.
1080 EuGH, Urt. v. 29.01.2008, Rs. C-275/06, ECLI:EU:C:2008:54 Rn. 70 – Promusicae; Grabitz/Hilf/Marly, Art. 15 ECRL Rn. 9; Schulze/Staudenmayer/Amayuelas, Article 15 ECD Rn. 11. 1081 eco, Stellungnahme zum Entwurf eines Gesetzes zur Bekämpfung des Rechtsextremismus und der Hasskriminalität, S. 4 f.
C. Ergebnis
221
Hinsichtlich der Rechte der Netzwerkanbieter zeigt sich ein ähnliches Bild. Besonders schwer wiegt die Verletzung der Medienfreiheit vor dem Hintergrund der Bedeutung sozialer Netzwerke für die Kommunikation in einer freien Demokratie. Hinzu kommt der Verstoß gegen die Dienstleistungsfreiheit sowie gegen den Bestimmtheitsgrundsatz. Der vorliegende Eingriff in die Berufsfreiheit der Anbieter ist jedoch gerechtfertigt, da insoweit die Persönlichkeitsrechte der Netzwerkmitglieder überwiegen. Das NetzDG verstößt darüber hinaus gegen Sekundärrecht. Eine Unvereinbarkeit mit der ECRL liegt gleich in mehrfacher Hinsicht vor. Der deutsche Gesetzgeber hat nicht nur das Herkunftslandprinzip missachtet, die Regelungen des NetzDG sind auch mit den Vorgaben der ECRL zur Verantwortlichkeit der Diensteanbieter nicht zu vereinbaren. Weiterhin wurde das Notifizierungsverfahren nicht ordnungsgemäß durchgeführt. Im Ergebnis bleibt festzuhalten, dass das NetzDG nicht mit den unionsrechtlichen Vorgaben im Einklang ist.
Kapitel 4
Ausblick und Fazit A. Erster Ausblick: Das NetzDG – eine Erfolgsgeschichte? Nachdem der deutsche Gesetzgeber die Task Force gegen Hassrede als gescheitert erklärt hat, wurde mit heißer Nadel innerhalb kürzester Zeit das NetzDG gestrickt. Ein Gesetz, das vielerorts zum Vorbild für die Bekämpfung von Hasskriminalität wurde. Über europäische Grenzen hinaus ist das NetzDG Prototyp für die Regulierung von Onlineplattformen, wobei die jeweiligen Gesetzgeber sich teils ausdrücklich auf das NetzDG berufen haben.1 Deutschland wurde damit versehentlich zum Vorbild für diverse Zensurgesetze.2 Denn während in Deutschland die Grundrechte der Regulierung Grenzen setzen, bestehen solche Sicherungsmechanismen in vielen Staaten nur unzureichend.3 Auch in Europa eiferte man dem deutschen Vorbild nach: Frankreich und Österreich erließen vergleichsweise ähnliche Gesetze, wobei die französische Version nur von kurzer Dauer war und bereits zeitnah nach ihrem Inkrafttreten vom französischen Verfassungsgericht gekippt wurde.4 Ferner dürfte der auf Unionsebene angestrebte Digital Services Act in Teilen vom NetzDG inspiriert worden sein.5 Ob das NetzDG tatsächlich die gewünschte Wirkung entfaltet, lässt sich auch vier Jahre nach seinem Inkrafttreten nicht abschließend beurteilen. Allzu vielfältig sind die Faktoren, die eine Evaluation erschweren: Den Nutzern stehen weiterhin verschiedene Meldewege zur Verfügung, sie können sowohl eine Beschwerde nach dem NetzDG als auch nach den Gemeinschaftsstandards der sozialen Netzwerke einreichen. Auch bei den NetzDG-Beschwerden prüfen die 1 Justitia, The Digital Berlin Wall: How Germany (Accidentally) Created a Prototype for Global Online Censorship. 2 Justitia, The Digital Berlin Wall: How Germany (Accidentally) Created a Prototype for Global Online Censorship, S. 6. 3 Heldt, UFITA 2021, 529 (540); Justitia, The Digital Berlin Wall: How Germany (Accidentally) Created a Prototype for Global Online Censorship, S. 6. 4 Conseil Constitutionnel, décision n ë 2020-801 DC du 18 juin 2020. 5 Deutschland hat sich umfassend an der öffentlichen Konsultation beteiligt, siehe dazu: Europäische Kommission, Öffentliche Konsultation 2020, abrufbar unter: https:// ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12417-Digital-ServicesAct-deepening-the-Internal-Market-and-clarifying-responsibilities-for-digital-services/pu blic-consultation_de.
A. Erster Ausblick: Das NetzDG – eine Erfolgsgeschichte?
223
sozialen Netzwerke zunächst einen Verstoß gegen die eigenen Gemeinschaftsstandards, sodass ein Großteil der Löschungen im Ergebnis aufgrund der Gemeinschaftsstandards der Plattformen erfolgt.6 Daher bleibt die – rein hypothetische – Überlegung, welche der nach NetzDG-Meldungen gelöschten Inhalte auch ohne dieses Gesetz gelöscht worden wären. Denn auch die sozialen Netzwerke zeigen zunehmend Eigeninitiative im Hinblick auf den Umgang mit Hassrede und Falschnachrichten.7 Andres und Slivko haben sich der Wirksamkeit des NetzDG empirisch genähert und ein Zurückgehen von Hassrede um etwa 10 % auf der Plattform Twitter seit Inkrafttreten des NetzDG registriert.8 Dabei haben sie auch berücksichtigt, dass Nutzer möglicherweise auf andere, weniger regulierte Plattformen, namentlich Telegram, ausweichen könnten. Dieser Aspekt habe jedoch keine signifikante Rolle gespielt.9 Allerdings wurde im Rahmen der Studie nur die Plattform Twitter untersucht und ein möglicher Einfluss veränderter Kommunikationsstrukturen, ziviler Initiativen und Eigeninitiative der Plattform konnten nicht vollumfänglich berücksichtigt werden. Auch wenn diese Studie eine Wirksamkeit des NetzDG nahelegt, vermag die zugegebenermaßen überschaubare Verringerung von Hassrede in sozialen Netzwerken die schwerwiegenden Eingriffe in die Grundrechte der Nutzer und Betreiber der Plattformen nicht zu rechtfertigen. Weiterhin offen ist auch die Frage, ob ein Overblocking eingetreten ist. Auch wenn es eine Reihe von Indizien gibt, eine belastbare Aussage lässt sich nicht treffen,10 nicht zuletzt, weil den sozialen Netzwerken stets der Ausweg der Löschung nach den eigenen Gemeinschaftsstandards offensteht. Dass das NetzDG deutliche Anreize zum Overblocking setzt, die mit dem Recht auf Meinungsfreiheit nicht zu vereinbaren sind, ließ sich indes feststellen.11 Während die Wirksamkeit des NetzDG nicht abschließend geklärt werden kann, zeigt die Debatte um Telegram indes, dass sich der Hass im Netz weiterhin seinen Weg auf neue Plattformen sucht. Ob die vom deutschen Gesetzgeber eingeschlagene Richtung erfolgversprechend ist, bleibt vor diesem Hintergrund fraglich. Festzuhalten bleibt jedoch, dass das NetzDG in mannigfaltiger Form gegen das Unionsrecht verstößt und daher trotz bester Absichten des Gesetzgebers ein 6 Siehe exemplarisch Facebook: von 17.730 gelöschten oder gesperrten Inhalten wurden 16.648 Inhalte aufgrund eines Verstoßes gegen die Gemeinschaftsstandards gelöscht, Transparenzbericht von Januar 2022, abrufbar unter: https://about.fb.com/de/ wp-content/uploads/sites/10/2022/01/NetzDG-DE.pdf. 7 Twitter führt in seinem zweiten Transparenzbericht 2021 eine Reihe Initiativen zur Bekämpfung von Hassrede und Falschnachrichten, abrufbar unter: https://transparen cy.twitter.com/content/dam/transparency-twitter/netzdg/NetzDG-Jul-Dec-2021.pdf. 8 Andres/Slivko, Combating Online Hate Speech, S. 2. 9 Andres/Slivko, Combating Online Hate Speech, S. 21. 10 Siehe dazu Kapitel 3 A. I. 4. 11 Siehe dazu Kapitel 3 A. I. 5. d).
224
Kap. 4: Ausblick und Fazit
äußerst problematisches Kapitel in der Geschichte der Internetregulierung darstellt.
B. Zweiter Ausblick: Der Digital Services Act Während der deutsche Gesetzgeber damit beschäftigt war, Nachbesserungen beim NetzDG vorzunehmen, stellte die EU-Kommission am 15. Dezember 2020 den Entwurf für den Digital Services Act vor. Diese Reform des unionsrechtlichen Rahmens für den elektronischen Geschäftsverkehr dient dazu, dem Wachstum verschiedener Online-Dienste zu begegnen. Zwanzig Jahre nach Erlass der ECRL hat die Digitalisierung in einem rasanten Tempo zugenommen und stellt daher neue Risiken und Herausforderungen an den Regulierungsrahmen.12 Darüber hinaus haben die Mitgliedstaaten zunehmend nationale Vorschriften für Online-Plattformen erlassen, sodass die Kommission aufgrund des grenzüberschreitenden Charakters dieser Dienste einen Harmonisierungsbedarf sieht.13 Aus diesem Grund hat sich die Kommission auch für das Instrument der Verordnung entschieden; auf diese Weise können unionsweit einheitliche Vorschriften geschaffen werden.14 Grundsätzlich hält die Kommission an den Haftungsregeln der ECRL fest; Hosting-Diensteanbieter, zu denen weiterhin soziale Netzwerke gehören, haften nach Art. 5 DSA-E erst ab Kenntnis beziehungsweise Bewusstsein der rechtswidrigen Tätigkeit oder illegalen Inhalte. Neu sind hingegen die Regeln zum Umgang mit illegalen Inhalten. Diese lassen einige Parallelen zum NetzDG erkennen. In Art. 10 und 11 DSA-E ist vorgesehen, dass die Diensteanbieter zentrale Kontaktstellen beziehungsweise Rechtsvertreter benennen. Nach Art. 13 DSA-E unterliegen die Diensteanbieter diversen Transparenzpflichten zu ihrem Umgang mit illegalen Inhalten. Darüber hinaus sind in Art. 14 DSA-E Melde- und Abhilfeverfahren vorgesehen: Hosting-Diensteanbieter müssen den betroffenen Personen oder Einrichtungen einen leicht zugänglichen und benutzerfreundlichen Weg für die Meldung illegaler Inhalte zur Verfügung stellen. Über diese Meldungen haben die Diensteanbieter in zeitnaher, sorgfältiger und objektiver Weise zu entscheiden. Sofern die Anbieter automatisierte Mittel zur Bearbeitung oder Entscheidungsfindung einsetzen, sind die Nutzer darüber zu informieren. Die Vorschrift ist insofern weiter gefasst als das NetzDG: Erstens werden keine festen Fristen für die Bearbeitung gesetzt und zweitens bezieht sich das Meldeverfahren nicht auf bestimmte Strafnormen, sondern allgemein auf illegale Inhalte. Damit ist die Frage, welche Inhalte illegal sind, weitgehend den Mitgliedstaaten überlassen.15 Die eigentliche Entscheidung, ob ein Inhalt als illegal eingestuft wird, 12 13 14 15
COM(2020) 825 final, Erwägungsgrund 1. COM(2020) 825 final, Erwägungsgrund 2. COM(2020) 825 final, S. 7 f. Gielen/Uphues, EuZW 2021, 627 (634); Ukrow, Impulse aus dem EMR, S. 27.
B. Zweiter Ausblick: Der Digital Services Act
225
obliegt weiterhin den Plattformen. Eine explizite Pflicht zur Löschung oder Sperrung ist hingegen nicht vorgesehen.16 Zusätzlich sieht Art. 17 DSA-E für Online-Plattformen die Einrichtung eines internen Beschwerdemanagementsystems vor, das es dem Nutzer ermöglicht, Entscheidungen überprüfen zu lassen. Soweit die Plattform nach erneuter Prüfung zu dem Ergebnis kommt, dass die getroffene Maßnahme zum Beispiel Löschung des Inhalts, Aussetzung oder Kündigung des Dienstes, nicht gerechtfertigt ist, muss die Entscheidung nach Art. 17 Abs. 3 DSA-E unverzüglich rückgängig gemacht werden. Insoweit ist der DSA-E konsequenter als das NetzDG, das lediglich eine Überprüfung der Entscheidung, jedoch keine Wiederherstellung vorsieht. Betroffene Nutzer können auch von der Möglichkeit der außergerichtlichen Streitbeilegung im Sinne des Art. 18 DSA-E Gebrauch machen, wobei weiterhin der Weg zu den zuständigen Gerichten offenbleibt. Zu begrüßen ist, dass diese Vorgaben nicht nur den Umgang mit illegalen Inhalten betreffen, sondern auch für das Content-Management aufgrund der Gemeinschaftsstandards der Plattformen gelten. Eine Beteiligung der betroffenen Nutzer an der Entscheidung im Sinne einer Stellungnahmemöglichkeit, ist jedoch nicht vorgesehen. Sofern der Verdacht einer schweren Straftat besteht, haben die Plattformen diesen Verdacht den zuständigen Behörden zu melden (Art. 21 DSA-E). Die Pflichten der Plattformanbieter sind – ebenso wie beim NetzDG – bußgeldbewehrt. Die Bußgelder können bis zu 6 % des Jahresumsatzes für sehr große Onlineplattformen betragen (Art. 59 Abs. 1 DSA-E). In Anbetracht des Anwendungsvorrangs des Unionsrechts und der Tatsache, dass die Kommission das Instrument der Verordnung gewählt hat, bleibt das Verhältnis des DSA zum NetzDG zu klären. Denn das NetzDG betrifft in seinem Anwendungsbereich solche Plattformen, die künftig vom DSA erfasst sein werden.17 Inwieweit neben der vollharmonisierenden Verordnung noch Raum für nationale Regelungen bleibt, ist noch unklar, da der Entwurf des DSA derzeit keine ausdrücklichen Vorschriften zum Verhältnis zum nationalen Recht vorsieht.18 Es ist allerdings davon auszugehen, dass der DSA eine umfassende Sperrwirkung entfaltet und nationale Bestimmungen in dem Regelungsbereich ausschließt.19 Das NetzDG würde damit verdrängt. Der DSA-E setzt, ebenso wie das NetzDG auf die Rechtsdurchsetzung durch private Akteure. Dies ist in der Praxis naheliegend und umsetzbar, sofern entsprechende Verfahrensvorgaben gesetzt werden, die einen angemessenen Ausgleich zwischen betroffenen Grundrechten schaffen.20 Insofern steht der europäische 16 17 18 19 20
Eisenreich, RDi 2021, 289 (291). Grünwald/Nüßing, MMR 2021, 283 (285). Grünwald/Nüßing, MMR 2021, 283 (286). Grünwald/Nüßing, MMR 2021, 283 (287). Siehe dazu Kapitel 3 A. III.
226
Kap. 4: Ausblick und Fazit
Verordnungsgeber vor denselben Fragen, die sich bereits in Bezug auf das NetzDG gestellt haben. Es gilt einen angemessenen Weg für den Umgang mit Hasskriminalität zu finden, wobei Anreize zum Overblocking zu vermeiden sind. Denn auch der DSA-E sieht empfindliche Bußgelder vor, welche die sozialen Netzwerke dazu verleiten könnten, proaktiv Inhalte zu löschen. Zudem setzt der DSA-E, ähnlich dem NetzDG, bei den Auswirkungen des Hasses und nicht bei den Wurzeln des Problems an. Die zugrunde liegenden Faktoren werden mit dieser Form der Regulierung auch langfristig kaum adressiert.21 Erfreulich ist jedenfalls, dass sich die Union des Problems der Hasskriminalität in sozialen Netzwerken annimmt. Denn vereinzelte nationale Gesetze führen allein zu einer Rechtszersplitterung im europäischen Raum; sie können das Problem gleichwohl nicht effektiv angehen. Es ist nun Aufgabe des europäischen Gesetzgebers, die Verantwortung für diese zukunftsweisenden Fragen zu übernehmen und einen angemessenen Rahmen für den Umgang mit Hasskriminalität in sozialen Netzwerken zu schaffen.
C. Fazit Auch wenn bereits einige Zeit seit Erlass des NetzDG vergangen ist, sind die Themen Hasskriminalität und Falschnachrichten aktueller denn je. Der Grundgedanke hinter dem Gesetz ist daher weiterhin zu befürworten: Man darf das Netz nicht sich selbst überlassen. Bestehende Gesetze gelten im physischen wie im virtuellen Raum, wobei gerade der virtuelle Raum zunehmend zum Tatort wird. Nach der Untersuchung der Unionsrechtskonformität des NetzDG im Rahmen dieser Arbeit hat sich der eingangs geäußerte Eindruck „schön gedacht, schlecht gemacht“22 manifestiert. Während einige Fehler des NetzDG sicherlich dem überhasteten Gesetzgebungsverfahren geschuldet sind – wobei dies keineswegs als Entschuldigung hervorgebracht werden darf – kann man die Versuche nachzubessern mit Fug und Recht als gescheitert bezeichnen. Dem Gesetzgeber ist es keineswegs gelungen, einen angemessenen Ausgleich zwischen den konkurrierenden Grundrechtspositionen zu schaffen. Vielmehr ist die einseitige Gewichtung zum Nachteil der Meinungs- und Medienfreiheit mit den Nachbesserungen noch verstärkt worden. Der Schutz vor Hasskriminalität, so wünschenswert er auch sein mag, darf nicht einseitig zulasten anderer Grundrechte gehen. Die Meinungs- und Medienfreiheiten sind ein wichtiges Gut in einer funktionierenden demokratischen Gesellschaft und müssen entsprechend geschützt werden. Zwar sind die Kommunikationsrechte nicht schrankenlos gewährleistet, sondern können, ja müssen, zum Schutz anderer gewichtiger Rechte eingeschränkt werden. Die damit einhergehende Abwägung und Feinjustierung gesetzlicher Maßnahmen 21 22
Heldt, UFITA 2021, 529 (536). Guggenberger, ZRP 2017, 98.
C. Fazit
227
hat der deutsche Gesetzgeber allerdings schmerzlich vermissen lassen. Vielmehr wurde mit dem NetzDG ein System geschaffen, das von vornherein eine Gewichtung zulasten der Meinungsfreiheit erkennen lässt. Insbesondere sind in diesem Zusammenhang die Anreize für ein Overblocking zu nennen, die verbunden mit den Chilling Effects einen nicht zu rechtfertigenden Eingriff in die Meinungsfreiheit darstellen. Hinzu kommen weitere Verstöße gegen die Grundrechtecharta, die unionsrechtlichen Grundfreiheiten sowie die Unvereinbarkeit mit der ECRL. Der deutsche Gesetzgeber wäre gut damit beraten gewesen, dem Gesetzgebungsprozess mehr Zeit zu geben und vor allem unterschiedliche Regulierungsinstrumente in Betracht zu ziehen. Im Rahmen der vorliegenden Arbeit hat sich das Instrument der Regulierten Selbstregulierung als grundrechtsschonender dargestellt. Nicht zuletzt stellt es auch eine Lösung für das Dilemma dar, dass derzeit private Unternehmen die Rechtswidrigkeit von Kommunikationsinhalten prüfen. Elemente der Regulierten Selbstregulierung wurden zwar im Rahmen des Gesetzgebungsverfahrens in das NetzDG implementiert. Insgesamt handelt es sich hierbei aber um einen halbherzigen Versuch. Insbesondere wurden kaum Anreize gesetzt, sich einer Einrichtung der Regulierten Selbstregulierung anzuschließen. In Anbetracht der Globalität des Internets und damit auch der sozialen Netzwerke kann letztlich nur eine gesamteuropäische Lösung zielführend sein. Ob es die Bestrebung des deutschen Gesetzgebers war, einen solchen Diskurs auf Unionsebene anzustoßen, kann man nur vermuten, wie schon Eifert, der mutmaßte, dass es sich bei der Unvereinbarkeit mit dem Herkunftslandprinzip um einen „kalkulierten Verstoß“ handeln könnte.23 Jedenfalls hat sich die Union dem Problem im Rahmen der Neuordnung der europäischen Plattformregulierung durch DSA angenommen. Das Schicksal des NetzDG bleibt damit zunächst ungewiss. Der europäische Verordnungsgeber steht nun aber vor derselben Aufgabenstellung wie 2017 der deutsche Gesetzgeber: Es muss ein angemessener Ausgleich zwischen den unterschiedlichen Grundrechtspositionen erreicht werden. Denn im Rahmen einer unionsrechtlichen Regulierung stellen sich im Ergebnis dieselben grundrechtlichen Fragen, die in der vorliegenden Arbeit anhand des NetzDG aufgezeigt wurden. Es bleibt zu hoffen, dass es dem europäischen Verordnungsgeber gelingt, das Thema Hasskriminalität anzugehen, ohne dass die in der Grundrechtecharta garantieren Rechte der Meinungs- und Medienfreiheit ins Hintertreffen geraten.
23
Eifert, in: Eifert/Gostomzyk, Netzwerkrecht, S. 9 (24).
Literaturverzeichnis Adelberg, Philipp Nikolaus: Rechtspflichten und -grenzen der Betreiber sozialer Netzwerke. Zum Umgang mit nutzergenerierten Inhalten, Wiesbaden 2020. Ahrens, Hans-Jürgen: Das Herkunftslandprinzip der E-Commerce-Richtlinie, CR 2000, S. 835–841. Akbarian, Samira: Soziale Bewegungen und der öffentliche Raum. Die Versammlungsfreiheit zwischen Privatisierung, Digitalisierung und sozialem Druck, KJ 2020, S. 225–239. Ammori, Marvin: The „New“ New York Times: Free Speech Lawyering in the Age of Google and Twitter, Harv. L. Rev. 127 (2014), S. 2259–2295. Andres, Raphaela/Slivko, Olga: Combating Online Hate Speech: The Impact of Legislation on Twitter, 2021, abrufbar unter: https://ftp.zew.de/pub/zew-docs/dp/dp21103. pdf. Apostel, Christoph: Hate Speech – zur Relevanz und den Folgen eines Massenphänomens, KriPoZ 2019, S. 287–292. Askani, Helena: Private Rechtsdurchsetzung bei Urheberrechtsverletzungen im Internet, Baden-Baden 2021. Assion, Simon: Überwachung und Chilling Effects, in: Telemedicus e.V. (Hrsg.), Überwachung und Recht. Telemedicus Sommerkonferenz 2014, S. 31–82. Bäcker, Matthias: Das Grundgesetz als Implementationsgarant der Unionsgrundrechte, EuR 2015, S. 389–415. Bäcker, Matthias: Folgerungen aus dem zweiten Bestandsdatenbeschluss des BVerfG für die durch das Gesetz zur Bekämpfung des Rechtsextremismus und der Hasskriminalität geschaffenen Datenverarbeitungsregelungen. Rechtsgutachten im Auftrag der Bundestagsfraktion Bündnis 90/Die Grünen, Mannheim 2020, abrufbar unter: https://www.gruene-bundestag.de/fileadmin/media/gruenebundestag_de/themen_az/ rechtspolitik/PDF/200917-Baecker-Gutachten-Gesetz_zur_Bekaempfung_des_Rechts extremismus_und_der_Hasskriminalitaet.pdf. Bautze, Christina: Verantwortung im Netz – Anmerkungen zum Netzwerkdurchsetzungsgesetz, KJ 2019, S. 203–212. Besselink, Leonard F. F.: The Member States, the National Constitutions and the Scope of the Charter, Maastricht J. Eur. & Comp. L. 8 (2001), S. 68–80. Binder, Reinhart/Vesting, Thomas (Hrsg.): Beck’scher Kommentar zum Rundfunkrecht. Rundfunkstaatsvertrag. Jugendmedienschutz-Staatsvertrag. Rundfunkbeitragsstaatsvertrag. Rundfunkfinanzierungsstaatsvertrag, 4. Auflage, München 2018. Bitkom e.V.: Bitkom Stellungnahme zum Regierungsentwurf eines Netzwerkdurchsetzungsgesetzes, Berlin 2017, abrufbar unter: https://www.bitkom.org/sites/default/
Literaturverzeichnis
229
files/file/import/FirstSpirit-149275573214220170420-Bitkom-Stellungnahme-zumRegierungsentwurf-NetzwerkDG.pdf. Bock, Michael: Die Übertragbarkeit der Kommunikationsfreiheiten des Artikel 5 GG auf das Internet, Wiesbaden 2018. Bodewig, Theo: Elektronischer Geschäftsverkehr und Unlauterer Wettbewerb, GRUR Int 2000, S. 475–483. Boehme-Neßler: Das Recht auf Vergessenwerden – Ein neues Internet-Grundrecht im Europäischen Recht, NVwZ 2014, S. 825–830. Böhm, Monika: Polizeikosten bei Fußballspielen, NJW 2015, S. 3000–3004. Bohnert, Joachim/Bülte, Jens: Ordnungswidrigkeitenrecht, begründet von Bohnert, Joachim, fortgeführt von Bülte, Jens, 5. Auflage, München 2016. Bron, Christian: Rechtsangleichung des Privatrechts auf Ebene der Europäischen Union. Genese, Gestaltung und Vision, Baden-Baden 2011. Buchheim, Johannes: Anfängerhausarbeit – Öffentliches Recht: Grundrechte – Zensor wider Willen? JuS 2018, S. 548–556. Burghardt, Boris: Informalisierung des Rechts, in: Boulanger, Christian/Rosenstock, Julika/Singelstein, Tobias (Hrsg.), Interdisziplinäre Rechtsforschung. Eine Einführung in die geistes- und sozialwissenschaftliche Befassung mit dem Recht und seiner Praxis, Wiesbaden 2019, S. 259–273. Burgkardt, Felix: Grundrechtlicher Datenschutz zwischen Grundgesetz und Europarecht, Hamburg 2013. Calliess, Christian: Inhalt, Dogmatik und Grenzen der Selbstregulierung im Medienrecht, AfP 2002, S. 465–475. Calliess, Christian/Ruffert, Matthias (Hrsg.): EUV/AEUV Das Verfassungsrecht der Europäischen Union mit Europäischer Grundrechtecharta, 6. Auflage, München 2022. Chmelík, Tomá: Social Network Sites – Soziale Netzwerke. Verantwortlichkeit für nutzergenerierte Inhalte unter besonderer Berücksichtigung der Störerhaftung, BadenBaden 2016. Cobbaut, Elliot: Chapter 14. Article 11 – Freedom of Expression and Information, in: Dorssemont, Filip/Lörcher, Klaus/Clauwaert, Stefan/Schmitt, Mélanie (Hrsg.), The Charter of Fundamental Rights of the European Union and the Employment Relation, London 2019, S. 295–314. Conseil national du numérique, Le CNNum exprime ses interrogations sur la proposition de loi visant aÌ lutter contre la haine sur Internet, abrufbar unter: https://cn numerique.fr/files/uploads/2019/20190321%20%20CP_regulations_contenus_hai neux_VF.pdf. Cornils, Matthias: Behördliche Kontrolle sozialer Netzwerke: Netzkommunikation und das Gebot der Staatsferne, in: Eifert, Martin/Gostomzyk, Tobias (Hrsg.), Netzwerkrecht. Die Zukunft des NetzDG und seine Folgen für die Netzwerkkommunikation, Baden-Baden 2018, S. 217–235. Cornils, Matthias: Präzisierung, Vervollständigung und Erweiterung: Die Änderungen des Netzwerkdurchsetzungsgesetzes 2021, NJW 2021, S. 2465–2471.
230
Literaturverzeichnis
Crawford, Kate/Gillespie, Tarleton: What is a flag for? Social media reporting tools and the vocabulary of complaint, New Media & Society 18 (2016), S. 410–428. Culik, Nicolai/Döpke, Christian: Zweckbindungsgrundsatz gegen unkontrollierten Einsatz von Big Data-Anwendungen. Analyse möglicher Auswirkungen der DS-GVO, ZD 2017, S. 226–230. DAV: Stellungnahme des Deutschen Anwaltvereins durch den Ausschuss Strafrecht zum Referentenentwurf eines Gesetzes zur Bekämpfung der Hasskriminalität und des Rechtsextremismus, Berlin 2020, abrufbar unter: https://anwaltverein.de/de/news room/sn-6-20-bekaempfung-hasskriminalitaet-und-rechtsextremismus. DAV: Stellungnahme des Deutschen Anwaltvereins durch die Ausschüsse Informationsrecht und Strafrecht zum Regierungsentwurf des Bundesministeriums der Justiz und für Verbraucherschutz – Entwurf eines Gesetzes zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (Netzwerkdurchsetzungsgesetz – NetzDG), Berlin 2017, abrufbar unter: https://anwaltverein.de/de/newsroom/sn-41-17-netzwerkdurch setzungsgesetz-netzdg. Davey, Jacob/Ebner, Julia: The Fringe Insurgency. Connectivity, Convergence and Mainstreaming of the Extreme Right, London/Washington DC/Beirut/Toronto 2017, abrufbar unter: https://www.isdglobal.org/wp-content/uploads/2017/10/The-FringeInsurgency-221017.pdf. Davis, Christopher Michael: Die „dienende“ Rundfunkfreiheit im Zeitalter der sozialen Vernetzung, Tübingen 2019. de Boer, Nik: Addressing rights divergences under the Charter: Melloni, Common Market Law Review 50 (2013), S. 1083–1104. Deutschter Richterbund: Stellungnahme des Deutschen Richterbundes zum Referentenentwurf eines Gesetzes zur Bekämpfung des Rechtsextremismus und der Hasskriminalität, Berlin 2020, abrufbar unter: https://www.bmj.de/SharedDocs/Gesetzgebungs verfahren/Stellungnahmen/2020/Downloads/011020_Stellungnahme_DRB_RefE__ Belaempfung-Rechtsextremismus-Hasskriminalitaet.pdf?__blob=publicationFile&v=2. DGRI: Stellungnahme der Deutschen Gesellschaft für Recht und Informatik (DGRI) e.V. zum Referentenentwurf des Bundesministeriums der Justiz und für Verbraucherschutz – Entwurf eines Gesetzes zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (NetzDG), abrufbar unter: https://www.dgri.de/index.php/fuse action/download/lrn_file/dgri-stellungnahme-netzdg.pdf. Di Fabio, Udo: Verwaltung und Verwaltungsrecht zwischen gesellschaftlicher Selbstregulierung und staatlicher Steuerung, VVDStRL 56 (1997), S. 235–282. Dörig, Harald: Verantwortlichkeit eines Internetportals für rufschädigende Leserkommentare, jM 2015, S. 423–425. Dörr, Oliver/Grote, Rainer/Marauhn, Thilo (Hrsg.): EMRK/GG Konkordanzkommentar zum europäischen und deutschen Grundrechtsschutz, 2. Auflage, Tübingen 2013. Dreier, Horst (Hrsg.): Grundgesetz-Kommentar. Band I Präambel, Artikel 1–19, 3. Auflage, Tübingen 2013. Droin, Nathalie: Loi Avia: une censure attendue mais paradoxalement surprenante, AJ Pénal 2020, S. 407–411.
Literaturverzeichnis
231
Dürig, Günter/Herzog, Roman/Scholz, Rupert: Grundgesetz Kommentar Band II Art. 6–16a, begründet von Maunz, Theodor/Dürig, Günter, herausgegeben von Herzog, Roman/Scholz, Rupert/Herdegen, Matthias/Klein, Hans H., Stand: 95. Ergänzungslieferung, München 2021. eco, Verband der Internetwirtschaft e.V.: Stellungnahme zur Anhörung des Ausschusses Recht und Verbraucherschutz zum „Entwurf eines Gesetzes zur Bekämpfung des Rechtsextremismus und der Hasskriminalität“ am 6. Mai 2020, Berlin 2020, abrufbar unter: https://kripoz.de/wp-content/uploads/2020/05/stellungnahme-lesch-hass kriminalitaet.pdf. Ehlers, Dirk (Hrsg.): Europäische Grundrechte und Grundfreiheiten, 4. Auflage, Berlin/ Boston 2014. Ehmann, Eugen/Selmayr, Martin (Hrsg.): DS-GVO Datenschutz-Grundverordnung Kommentar, 2. Auflage, München 2018. Eickelmann, Jennifer/Grashöfer, Katja/Westermann, Bianca: #NETZDG #MAASLOS Eine Stellungnahme zum Netzwerkdurchsetzungsgesetz, ZfM 2017, S. 176–185. Eifert, Martin: Das Netzwerkdurchsetzungsgesetz und Plattformregulierung, in: Eifert, Martin/Gostomzyk, Tobias, Netzwerkrecht. Die Zukunft des NetzDG und seine Folgen für die Netzwerkkommunikation, Baden-Baden 2018, S. 9–44. Eifert, Martin: Rechenschaftspflichten für soziale Netzwerke und Suchmaschinen. Zur Veränderung des Umgangs von Recht und Politik mit dem Internet, NJW 2017, S. 1450–1454. Eifert, Martin/von Landenberg-Roberg, Michael/Theß, Sebastian/Wienfort, Nora: Netzwerkdurchsetzungsgesetz in der Bewährung. Juristische Evaluation und Optimierungspotenzial, Baden-Baden 2020. Eisenreich, Georg: Digital Services Act – ein wirksames Instrument gegen Hass und Hetze im Netz? RDi 2021, S. 289–293. Elsaß, Lennart/Labusga, Jan-Hendrik/Tichy, Rolf: Löschungen und Sperrungen von Beiträgen und Nutzerprofilen durch die Betreiber sozialer Netzwerke. Rechtliche Möglichkeiten des Vorgehens vor dem Hintergrund von Hate Speech, Fake News und Social Bots, CR 2017, S. 234–241. Emmer, Martin: Soziale Medien in der politischen Kommunikation, in: Taddicken, Monika/Schmidt, Jan-Hinrik (Hrsg.), Handbuch Soziale Medien, Wiesbaden 2017, S. 81–99. Erbs, Georg/Kohlhaas, Max: Strafrechtliche Nebengesetze, begründet von Georg Erbs und Max Kohlhaas, herausgegeben von Peter Häberle, Stand: 237. Ergänzungslieferung, München 2021. Facebook: NetzDG Transparenzbericht Juli 2021, abrufbar unter: https://about.fb.com/ de/wp-content/uploads/sites/10/2021/07/Facebook-NetzDG-Transparenzbericht-Juli2021.pdf. Feldmann, Thorsten: Anforderungen an Störerhaftung des Hostproviders bei behaupteter Rechtsverletzung durch Blog-Eintrag, K&R 2012, S. 113–116.
232
Literaturverzeichnis
Feldmann, Thorsten: Zum Referentenentwurf eines NetzDG: Eine kritische Betrachtung, K&R 2017, S. 292–297. Fish, Adam/Follis, Luca: Gagged and Doxed: Hacktivism’s Self-Incrimination Complex, International Journal of Communication 10 (2016), S. 3281–3300. Fleischhack, Julia: Der „Hass“ der vielen Formen, in: Kaspar, Kai/Gräßer, Lars/Riffi, Aycha (Hrsg.), Online Hate Speech. Perspektiven auf eine neue Form des Hasses, Marl 2017, S. 23–28. Franzen, Martin/Gallner, Inken/Oetker, Hartmut (Hrsg.): Kommentar zum europäischen Arbeitsrecht, 4. Auflage, München 2022. Frenz, Walter: Handbuch Europarecht, Band 1: Europäische Grundfreiheiten, 2. Auflage, Berlin/Heidelberg 2012. Frenz, Walter: Handbuch Europarecht, Band 4: Europäische Grundrechte, Berlin/Heidelberg 2009. Frowein, Jochen/Peukert, Wolfgang: Europäische Menschenrechtskonvention Kommentar, 3. Auflage, Kehl am Rhein 2009. Gersdorf, Hubertus: Hate Speech in sozialen Netzwerken. Verfassungswidrigkeit des NetzDG-Entwurfs und grundrechtliche Einordnung der Anbieter sozialer Netzwerke, MMR 2017, S. 439–447. Gersdorf, Hubertus: Kompetenzen der Medienaufsicht – Zur Kompetenzwidrigkeit des NetzDG, Eifert, Martin/Gostomzyk, Tobias (Hrsg.), Netzwerkrecht. Die Zukunft des NetzDG und seine Folgen für die Netzwerkkommunikation, Baden-Baden 2018, S. 187–216. Gersdorf, Hubertus/Paal, Boris P.: BeckOK Informations- und Medienrecht, 34. Edition, München 2021. Gessinger, Katrin: Im Kampf gegen Kriminalität im Netz – Das Gesetzespaket gegen Rechtsextremismus und Hasskriminalität, K&R 2021, S. 541–548. Gielen, Nico/Tiessen, Marten: Die neue Plattformhaftung nach der Richtlinie über das Urheberrecht im digitalen Binnenmarkt, EuZW 2019, S. 639–646. Gielen, Nico/Uphues, Steffen: Digital Markets Act und Digital Services Act. Regulierung von Markt- und Meinungsmacht durch die Europäische Union, EuZW 2021, S. 627–637. Giere, Katrin: Grundrechtliche Einordnung sozialer Netzwerke vor dem Hintergrund des Netzwerkdurchsetzungsgesetzes (NetzDG), Baden-Baden 2021. Giesen, Richard/Kersten, Jens: Der Arbeitskampf in der digitalisierten Arbeitswelt, NZA 2018, S. 1–8. Gola, Peter (Hrsg.): Datenschutz-Grundverordnung VO (EU) 2016/679 Kommentar, 2. Auflage, München 2018. Google Ireland Ltd.: Stellungnahme der Google Ireland Ltd. an das Bundesministerium der Justiz und für Verbraucherschutz zum vorgeschlagenen Gesetz zur Änderung des Netzwerkdurchsetzungsgesetzes (NetzDGÄndG-E), abrufbar unter: https://www. bmj.de/SharedDocs/Gesetzgebungsverfahren/Stellungnahmen/2020/Downloads/
Literaturverzeichnis
233
021720_Stellungnahme %20_Google %20Ireland %20Ltd_RefE_NetzDG.pdf?__blob =publicationFile&v=2. Google Ireland Ltd.: Stellungnahme der Google Ireland Ltd. an das Bundesministerium der Justiz und für Verbraucherschutz zum vorgeschlagenen Gesetz zur Bekämpfung des Rechtsextremismus und der Hasskriminalität (GBRH-E), abrufbar unter: https:// www.bmj.de/SharedDocs / Gesetzgebungsverfahren/Stellungnahmen/2020/ Down loads/011720_Stellungnahme_google_RefE__Belaempfung-RechtsextremismusHasskriminalitaet.pdf;jsessionid=0A72DB1712FCE0C7A62220DF742F4CA5.1_cid 289?__blob=publicationFile&v=3. Gourdet, Sascha: Europäischer Grundrechteschutz. Die Anwendung der Unionsgrundrechte in den Mitgliedstaaten der Europäischen Union und ihr Verhältnis zu den nationalen Grundrechten, Baden-Baden 2021. Grabenwarter, Christoph (Hrsg.): Europäischer Grundrechteschutz, 2. Auflage, BadenBaden 2022. Grabenwarter, Christoph/Pabel, Katharina: Europäische Menschenrechtskonvention. Ein Studienbuch, 7. Auflage, München 2021. Grabitz, Eberhard/Hilf, Meinhard: Das Recht der Europäischen Union, begründet von Grabitz, Eberhard, fortgeführt von Hilf, Meinhard, 40. Auflage, München 2009. Grabitz, Eberhard/Hilf, Meinhard/Nettesheim, Martin: Das Recht der Europäischen Union, Band I EUV/AEUV, begründet von Grabitz, Eberhard, fortgeführt von Hilf, Meinhard, herausgegeben von Nettesheim, Martin, Stand: 74. Ergänzungslieferung, München 2021. von der Groeben, Hans/Schwarze, Jürgen/Hatje, Armin (Hrsg.): Europäisches Unionsrecht, 7. Auflage, Baden-Baden 2015. Grünwald, Andreas/Nüßing, Christoph: Vom NetzDG zum DSA: Wachablösung beim Kampf gegen Hate Speech? Diskussionsstand zu beiden Gesetzesvorhaben und deren Vereinbarkeit, MMR 2021, S. 283–287. Guggenberger, Nikolas: Das Netzwerkdurchsetzungsgesetz – schön gedacht, schlecht gemacht, ZRP 2017, S. 98–101. Guggenberger, Nikolas: Das Netzwerkdurchsetzungsgesetz in der Anwendung, NJW 2017, S. 2577–2582. Guggenberger, Nikolas/Gielen, Nico/Hemmert-Halswick, Maximilian/Tegethoff, Jan/ Tillmann, Tristan Julian/Vogt, Verena/Weitz, Caspar Alexander/Werner, Lucas: NetzDG: Im Zweifel gegen die Meinungsfreiheit. Eine Verfassungsbeschwerde gegen das Netzwerkdurchsetzungsgesetz, Berlin 2020. Hain, Karl-E./Ferreau, Frederik/Brings-Wiesen, Tobias: Regulierung sozialer Netzwerke revisited, K&R 2017, S. 433–438. Handel, Timo: Die straf- und bußgeldrechtliche Verantwortlichkeit der Diensteanbieter sozialer Netzwerke im Internet. Eine Untersuchung nach allgemeinem Straf- und Ordnungswidrigkeitenrecht unter Berücksichtigung spezialgesetzlicher Regelungen des Telemediengesetzes (TMG), des Medienstaatsvertrags (MStV), des Jugendmedienschutz-Staatsvertrags (JMStV) und des Netzwerkdurchsetzungsgesetzes (NetzDG), Frankfurt am Main 2021.
234
Literaturverzeichnis
Handel, Timo: Hate Speech – Gilt deutsches Strafrecht gegenüber ausländischen Anbietern sozialer Netzwerke? Untersuchung der §§ STGB § 3, STGB § 9 StGB unter Berücksichtigung des Herkunftslandprinzips, MMR 2017, S. 227–231. Härting, Niko: Gesetzentwurf zur Umsetzung der E-Commerce-Richtlinie, CR 2001, S. 271–277. Hartl, Korbinian: Suchmaschinen, Algorithmen und Meinungsmacht. Eine verfassungsrechtliche und einfachrechtliche Betrachtung, Wiesbaden 2017. HateAid gGmbH, Stellungnahme zum Entwurf des Gesetzes zur Bekämpfung des Rechtsextremismus und der Hasskriminalität (Drs. 19/17741), abrufbar unter: https://hateaid.org/wp-content/uploads/2020/08/Stellungnahme-Sachverstaendigen anhoerung-Rechtsextremismus-HateAid.pdf. Heckmann, Dirk/Paschke, Anne: Persönlichkeitsrechtsschutz im Internet, DRiZ 2018, S. 144–147. Heckmann, Dirk/Wimmers, Jörg: Stellungnahme der DGRI zum Entwurf eines Gesetzes zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (NetzDG), CR 2017, S. 310–316. Heidrich, Joerg/Scheuch, Brian: Das Netzwerkdurchsetzungsgesetz: Anatomie eines gefährlichen Gesetzes, DSRITB 2017, S. 305–319. Held, Thorsten: Online-Angebote öffentlich-rechtlicher Rundfunkanstalten. Eine Untersuchung des verfassungsrechtlich geprägten und einfachgesetzlich ausgestalteten Funktionsauftrags öffentlich-rechtlichen Rundfunks im Hinblick auf Internet-Dienste, Baden-Baden 2008. Heldt, Amélie P.: Intelligente Upload-Filter: Bedrohung für die Meinungsfreiheit?, in: Mohabbat Kar, Resa/Thapa, Basanta/Parycek, Peter (Hrsg.), (Un)berechenbar? Algorithmen und Automatisierung in Staat und Gesellschaft, Berlin 2018, S. 392–416. Heldt, Amélie P.: Intermediärsregulierung: Quo Vadis NetzDG & Co? UFITA 2020, S. 529–542. Heldt, Amélie P.: Von der Schwierigkeit „fake news“ zu regulieren, JuWissBlog v. 26.07.2018, abrufbar unter: https://www.juwiss.de/71-2018/. Hendrickx, Frank: Chapter 12. Article 8 – Protection of Personal Data, in: Dorssemont, Filip/Lörcher, Klaus/Clauwaert, Stefan/Schmitt, Mélanie (Hrsg.), The Charter of Fundamental Rights of the European Union and the Employment Relation, London 2019, S. 249–272. Heselhaus, Sebastian/Nowak, Carsten (Hrsg.): Handbuch der Europäischen Grundrechte, 2. Auflage, München 2020. Höch, Dominik: Nachbessern: ja, verteufeln: nein. Das NetzDG ist besser als sein Ruf, K&R 2017, S. 289–292. Hoeren, Thomas: Netzwerkdurchsetzungsgesetz europarechtswidrig, beck-blog v. 30.03. 2017, abrufbar unter: https://community.beck.de/2017/03/30/netzwerkdurchsetzungs gesetz-europarechtswidrig. Hoeren, Thomas: Personenbezogene Daten als neue Währung der Internetwirtschaft, WuW 2013, S. 463.
Literaturverzeichnis
235
Hoeren, Thomas: Vorschlag für eine EU-Richtlinie über E-Commerce. Eine erste kritische Analyse, MMR 1999, S. 192–199. Hoeren, Thomas/Sieber, Ulrich/Holznagel, Bernd (Hrsg.): Handbuch MultimediaRecht. Rechtsfragen des elektronischen Geschäftsverkehrs, Stand: 57. Ergänzungslieferung, München 2021. Höferlin, Manuel/Widlok, Teresa: Die Tragödie des NetzDG, MMR 2021, S. 277–278. Hoffmann-Riem, Wolfgang: Der Rundfunkbegriff in der Differenzierung kommunikativer Dienste, AfP 1996, S. 9–15. Hoffmann-Riem, Wolfgang: Selbstregelung, Selbstregulierung und regulierte Selbstregulierung im digitalen Kontext, in: Fehling, Michael/Schliesky, Utz (Hrsg.), Neue Macht- und Verantwortungsstrukturen in der digitalen Welt, Baden-Baden 2016. Hoffmann-Riem, Wolfgang: Verhaltenssteuerung durch Algorithmen – Eine Herausforderung für das Recht, AöR (142) 2017, S. 1–42. Hoffmann-Riem, Wolfgang: Verwaltungsreform – Ansätze am Beispiel des Umweltschutzes, in: Wolfgang-Riem (Hrsg.), Reform des allgemeinen Verwaltungsrechts. Grundfragen, Baden-Baden 1993, S. 115–175. Hoffmann, Helmut: Zivilrechtliche Haftung im Internet, MMR 2002, S. 284–289. Hofmann, Rainer/Heger, Alexander/Gharibyan, Tamara: Die Wandlung des Grundrechtsschutzes durch das Bundesverfassungsgericht – Recht auf Vergessen I und II als „Solange III“? KritV 2019, S. 277–292. Hohlfeld, Ralf/Bauerfeind, Franziska/Braglia, Ilenia/Butt, Aqib/Dietz, Anna-Lena/Drexel, Denise/Fedlmeier, Julia/Fischer, Lana/Gandl, Vanessa/Glaser, Felia/Haberzettel, Eva/Helling, Teresa/Käsbauer, Isabel/Kast, Matthias/Krieger, Anja/Lächner, Anja/Malkanova, Adriana/Raab, Marie-Kristin/Rech, Anastasi/Scharnberger, Bianca/Schmid, Hannah/Schmidt-Ott, Malin/Triebelhorn, Christine/Vogl, Franziska/Weymar, Pia: Communicating COVID-19 against the backdrop of conspiracy ideologies: How public figures discuss the matter on Facebook and Telegram, Working Paper 1/ 2021, Passau, abrufbar unter: https://www.researchgate.net/publication/351698784_ Communicating_COVID-19_against_the_backdrop_of_conspiracy_ideologies_HOW_ PUBLIC_FIGURES_DISCUSS_THE_MATTER_ON_FACEBOOK_AND_TELE GRAM. Holtz, Peter/Kimmerle, Joachim: „Lügenpresse“ und der Hostile-Media-Effekt, in: Appel, Markus (Hrsg.), Die Psychologie des Postfaktischen: Über Fake News, „Lügenpresse“, Clickbait & Co. Berlin 2020, S. 21–32. Holznagel, Bernd: Das Compliance-System des Entwurfs des Netzwerkdurchsetzungsgesetzes. Eine kritische Bestandsaufnahme aus internationaler Sicht, ZUM 2017, S. 615–624. Holznagel, Bernd: Phänomen „Fake News“ – Was ist zu tun? Ausmaß und Durchschlagskraft von Desinformationskampagnen, MMR 2018, S. 18–22. Holznagel, Bernd: Stellungnahme zum Entwurf eines Gesetzes zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken, Bundestags-Drucksache 18/12356, Münster 2017, abrufbar unter: https://www.bundestag.de/resource/blob/510884/ f1b4c089c611b0dadf00a367407a462d/holznagel-data.pdf.
236
Literaturverzeichnis
Holznagel, Daniel: Overblocking durch User Generated Content (UGC)-Plattformen: Ansprüche der Nutzer auf Wiederherstellung oder Schadensersatz? Eine Untersuchung zur zivilrechtlichen Einordnung des Vertrags über die Nutzung von UGCPlattformen sowie der AGB-rechtlichen Zulässigkeit von „Lösch- und Sperrklauseln“, CR 2019, S. 369–378. Holznagel, Daniel: YouTube vs. das NetzDG, Verfassungsblog v. 27.07.2021, abrufbar unter: https://verfassungsblog.de/youtube-vs-netzdg/. Hong, Mathias: Das NetzDG und die Vermutung für die Freiheit der Rede, Verfassungsblog v. 09.01.2018, abrufbar unter: https://verfassungsblog.de/das-netzdg-und-dievermutung-fuer-die-freiheit-der-rede/. Hopf, Kristina/Braml, Birgit: Die Entwicklung des Jugendmedienschutzes 2016/2017, ZUM 2018, S. 1–12. Hoven, Elisa: Zur Strafbarkeit von Fake News – de lege lata und de lege ferenda, ZSTW 2017, S. 718–744. Hoven, Elisa/Krause, Melena: Die Strafbarkeit der Verbreitung von „Fake News“, JuS 2017, S. 1167–1170. Humborg, Christian/Nguyen, Thuy Anh: Die publizistische Gesellschaft. Journalismus und Medien im Zeitalter des Plattformkapitalismus, Wiesbaden 2018. Hwang, Shu-Perng: Grundrechte unter Integrationsvorbehalt? Eine rahmenorientierte Überlegung zur Debatte um die Bindung der Mitgliedstaaten an die Unionsgrundrechte, EuR 2014, S. 400–420. ichbinhier e.V. und HateAid gGmbH, Stellungnahme zum Referentenentwurf des Bundesministeriums der Justiz und für Verbraucherschutz, abrufbar unter: https:// hateaid.org/wp-content/uploads/2020/08/Stellungnahme-ichbinhier-HateAid-Netz DG-II.pdf. Jarass, Hans D.: Charta der Grundrechte der Europäischen Union unter Einbeziehung der sonstigen Grundrechtsregelungen des Primärrechts und der EMRK, 4. Auflage, München 2021. Jarass, Hans D.: Elemente einer Dogmatik der Grundfreiheiten II, EuR 2000, S. 705– 723. Jarass, Hans D./Kment, Martin: EU-Grundrechte, 2. Auflage, München 2019. Jarass, Hans D./Pieroth, Bodo: Grundgesetz für die Bundesrepublik Deutschland Kommentar, begründet von Jarass, Hans D./Pieroth, Bodo, bearbeitet von Jarass, Hans D./Kment, Martin, 16. Auflage, München 2020. Jiang, Su: Automatisierte Entscheidungsfindung, Strafjustiz und Regulierung von Algorithmen. Ein Kommentar zum Fall „State v. Loomis“, in: Beck, Susanne/Kusche, Carsten/Valerius, Brian (Hrsg.), Digitalisierung, Automatisierung und Recht. Festgabe zum 10-jährigen Bestehen der Forschungsstelle RobotRecht, Baden-Baden 2020, S. 557–590. Justitia, The Digital Berlin Wall: How Germany (Accidentally) Created a Prototype for Global Online Censorship, Kopenhagen 2019, abrufbar unter: https://globalfreedom ofexpression.columbia.edu/wp-content/uploads/2019/11/Analyse_The-Digital-Berlin-
Literaturverzeichnis
237
Wall-How-Germany-Accidentally-Created-a-Prototype-for-Global-Online-Censorship. pdf. Kalbhenn, Jan Christopher/Hemmert-Halswick, Maximilian: Der Regierungsentwurf zur Änderung des NetzDG. Vom Compliance-Ansatz zu Designvorgaben, MMR 2020, S. 518–522. Kalscheuer, Fiete/Hornung, Christan: Das Netzwerkdurchsetzungsgesetz – Ein verfassungswidriger Schnellschuss, NVwZ 2017, S. 1721–1725. Karpenstein, Ulrich/Mayer, Franz C. (Hrsg.): Konvention zum Schutz der Menschenrechte und Grundfreiheiten, 3. Auflage, München 2022. Kaspar, Kai: Hassreden im Internet – Ein besonderes Phänomen computervermittelter Kommunikation?, in: Kaspar, Kai/Gräßer, Lars/Riffi, Aycha (Hrsg.), Online Hate Speech. Perspektiven auf eine neue Form des Hasses, Marl 2017, S. 63–70. Kaye, David: Mandate of the Special Rapporteur on the promotion and protection of the right to freedom of opinion and expression, Genf 2017, abrufbar unter: https:// www.ohchr.org/Documents/Issues/Opinion/Legislation/OL-DEU-1-2017.pdf. Kellner, Anna: Die Regulierung der Meinungsmacht von Internetintermediären, BadenBaden 2019. Kersten, Jens: Anonymität in der liberalen Demokratie, JuS 2017, S. 193–203. Kingreen, Thorsten/Poscher, Ralf: Grundrechte. Staatsrecht II, 37. Auflage, Heidelberg 2021. Kizil, Baran: EU-Grundrechtsschutz im Vertrag von Lissabon, JA 2011, S. 277–281. Klaas, Nadine: FILTER(N) oder nicht? Der Einsatz von Filtertechnologien im Urheberund Medienrecht, ZUM 2020, S. 353–355. Klein, Thorsten: Algokratie – eine Gefahr für die Demokratie? Konsequenzen für eine Regierungskommunikation, Saarbrücken 2019. Klonick, Kate: The New Governors: The People, Rules, and Processes Governing Online Speech, Harv. L. Rev. 131 (2018), S. 1598–1670. Knodel, Anne Christine: Medien und Europa. Regelungspraxis, Kompetenzen und Handlungsmöglichkeiten der Europäischen Union im Bereich der Medien, BadenBaden 2018. Köbler, Ralf: Fake News, Hassbotschaften und Co. – ein zivilprozessualer Gegenvorschlag zum NetzDG, AfP 2017, S. 282–284. Kokott, Juliane: Bedeutung und Wirkung deutscher und europäischer Grundrechte im Steuerstrafrecht und Steuerstrafverfahren, NZWiSt 2017, S. 409–417. Koreng, Ansgar: Entwurf eines Netzwerkdurchsetzungsgesetzes: Neue Wege im Kampf gegen „Hate Speech“? GRUR-Prax 2017, S. 203–205. Kort, Michael: Schranken der Dienstleistungsfreiheit im europäischen Recht, JZ 1996, S. 132–139. Kraft, Dennis/Meister, Johannes: Die Strafbarkeit von Internetdemonstrationen. Zugleich eine Besprechung des „Online-Demo“-Urteils des AG Frankfurt a. M. vom 01.07.2005 – 991 Ds 6100 Js 226314/01, K&R 2005, S. 458–462.
238
Literaturverzeichnis
Kreile, Johannes/Diesbach, Martin: Der neue Jugendmedienschutz-Staatsvertrag – was ändert sich für den Rundfunk? ZUM 2002, S. 849–858. Krüger, Uwe/Seiffert-Brockmann: „Lügenpresse“ – Eine Verschwörungstheorie?, in: Haarkötter, Hektor/Nieland, Jörg-Uwe (Hrsg.), Nachrichten und Aufklärung: Medien- und Journalismuskritik heute: 20 Jahre Initiative Nachrichtenaufklärung, Wiesbaden 2018, S. 67–87. Kubiciel, Michael: Neuartige Sanktionen für soziale Netzwerke? Der Regierungsentwurf zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken, jurisPRStrafR 7/2017 Anm. 1. Kühling, Jürgen: Grundrechte, in: von Bogdandy, Armin/Bast, Jürgen (Hrsg.), Europäisches Verfassungsrecht. Theoretische und dogmatische Grundzüge, 2. Auflage, Berlin/Heidelberg 2009, S. 657–704. Kühling, Jürgen/Buchner, Benedikt (Hrsg.): Datenschutz-Grundverordnung BDSG Kommentar, 3. Auflage, München 2020. Kühling, Jürgen/Martini, Mario/Heberlein, Johanna/Kühl, Benjamin/Nink, David/Weinzerl, Quirin/Wenzel, Michael: Die DSGVO und das nationale Recht – Erste Überlegungen zum nationalen Regelungsbedarf, Münster 2016. Künast, Renate: Hass im Netz, DuD 2021, S. 368–370. Ladeur, Karl-Heinz: Ist der Regierungsentwurf eines NetzDG 2.0 vom 19.02.2020 netzgerecht? Darstellung der Novelle und Skizze einer Alternative, K&R 2020, S. 248– 253. Ladeur, Karl-Heinz/Gostomzyk, Tobias: Das Netzwerkdurchsetzungsgesetz und die Logik der Meinungsfreiheit. Ergebnisse eines Gutachtens zur Verfassungsmäßigkeit des Regierungsentwurfs, K&R 2017, S. 390–394. Ladeur, Karl-Heinz/Gostomzyk, Tobias: Gutachten zur Verfassungsmäßigkeit des Entwurfs eines Gesetzes zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (Netzwerkdurchsetzungsgesetz – NetzDG) i. d. F. vom 16. Mai 2017 – BT-Drs. 18/12356. Erstattet auf Ansuchen des BITKOM, 2017, abrufbar unter: https://www. cr-online.de/NetzDG-Gutachten-Gostomzyk-Ladeur.pdf. Lenaerts, Koen: Die EU-Grundrechtecharta: Anwendbarkeit und Auslegung, EuR 2021, S. 3–18. Ligue des droits de l’Homme, Lettre ouverte collective appelant à garantir nos libertés publiques dans la proposition de loi visant à lutter contre la haine sur internet, abrufbar unter: https://www.ldh-france.org/lettre-ouverte-collective-appelant-a-garantirnos-libertes-publiques-dans-la-proposition-de-loi-visant-a-lutter-contre-la-haine-surinternet/. Liesching, Marc (Hrsg.): Beck’scher Online-Kommentar JMStV, 20. Edition, München 2021. Liesching, Marc: Das Herkunftslandprinzip der E-Commerce-Richtlinie und seine Auswirkung auf die aktuelle Mediengesetzgebung in Deutschland, Berlin 2020. Liesching, Marc: Die Durchsetzung von Verfassungs- und Europarecht gegen das NetzDG. Überblick über die wesentlichen Kritikpunkte, MMR 2018, S. 26–30.
Literaturverzeichnis
239
Liesching, Marc: Gilt das NetzDG für Facebook, Youtube und Twitter, beck-blog v. 11.02.2020, abrufbar unter: https://community.beck.de/2020/02/11/gilt-das-netzdgfuer-facebook-youtube-und-twitter. Liesching, Marc: Karneval der Jakobiner: „Zum Schutze der Freiheit – Schafft sie ab!“, beck-blog v. 06.01.2020, abrufbar unter: https://community.beck.de/2020/01/06/ karneval-der-jakobiner-zum-schutze-der-freiheit-schafft-sie-ab. Liesching, Marc: Lösungsmodell regulierter Selbstregulierung – Zur Übertragbarkeit der JMStV-Regelungen auf das NetzDG, in: Eifert, Martin/Gostomzyk, Tobias (Hrsg.), Netzwerkrecht. Die Zukunft des NetzDG und seine Folgen für die Netzwerkkommunikation, Baden-Baden 2018, S. 135–152. Liesching, Marc: NetzDG-Entwurf basiert auf Bewertungen von Rechtslaien, beck-blog v. 26.05.2017, abrufbar unter: https://community.beck.de/2017/05/26/netzdg-entwurfbasiert-auf-bewertungen-von-rechtslaien. Liesching, Marc: Was sind „rechtswidrige Inhalte“ im Sinne des Netzwerkdurchsetzungsgesetzes? ZUM 2017, S. 809–815. Liesching, Marc/Funke, Chantal/Hermann, Alexander/Kneschke, Christin/Michnik, Carolin/Nguyen, Linh/Prüßner, Johanna/Rudolph, Sarah/Zschammer, Vivien: Das NetzDG in der praktischen Anwendung. Eine Teilevaluation des Netzwerkdurchsetzungsgesetzes, Berlin 2021. Loh, Wulf: Digitaler Ungehorsam und transnationale Öffentlichkeiten, in: Kaelin, Lukas/Telser, Andreas/Hoppe, Ilaria (Hrsg.), Bubbles & Bodies – Neue Öffentlichkeiten zwischen sozialen Medien und Straßenprotesten, Bielefeld 2021, S. 217–250. Lüdemann, Jörn: Grundrechtliche Vorgaben für die Löschung von Beiträgen in sozialen Netzwerken. Private Ordnung digitaler Kommunikation unter dem Grundgesetz, MMR 2019, S. 279–284. Lüdemann, Jörn: Privatisierung der Rechtsdurchsetzung in sozialen Netzwerken?, in: Eifert, Martin/Gostomzyk, Tobias (Hrsg.), Netzwerkrecht. Die Zukunft des NetzDG und seine Folgen für die Netzwerkkommunikation, Baden-Baden 2018, S. 153–168. Lutzhöft, Niels: Eine objektiv-rechtliche Gewährleistung der Rundfunkfreiheit in der Europäischen Union? Nationales Rundfunkverfassungsrecht und unionsrechtlicher Grundrechtsschutz im Spiegel divergierender Tradition, Funktion und Konzeption der Grundrechte, Tübingen 2012. Lynskey, Orla: Chapter 18. Article 8: The Right to Data Protection, in: Bobek, Michal/ Adams-Prassl, Jeremias (Hrsg.), The EU Charter of Fundamental Rights in the Member States, London 2020, S. 353–370. Mangoldt, Hermann von/Klein, Friedrich/Starck, Christian: Grundgesetz Kommentar Band 1, begründet von von Mangoldt, Hermann, fortgeführt von Klein, Friedrich/ Starck, Christian, herausgegeben von Huber, Peter M./Voßkuhle, Andreas, 7. Auflage, München 2018. Medosch, Armin: Demonstrieren in der virtuellen Republik, in: Schulzki-Haddouti, Christiane (Hrsg.), Bürgerrechte im Netz, Opladen 2003.
240
Literaturverzeichnis
Meibauer, Jörg: Hassrede – von der Sprache zur Politik, in: Meibauer, Jörg (Hrsg.), Hassrede/Hate Speech. Interdisziplinäre Beiträge zu einer aktuellen Diskussion, Gießen 2013, S. 1–16. Merten, Detlef/Papier, Hans-Jürgen (Hrsg.): Handbuch der Grundrechte in Deutschland und Europa. Band VI/1 Europäische Grundrechte I, Heidelberg 2010. Meyer, Jürgen/Hölscheidt, Sven (Hrsg.): Charta der Grundrechte der Europäischen Union, 5. Auflage, Baden-Baden 2019. Michl, Walther: Das Verhältnis zwischen Art. 7 und Art. 8 GRCh – zur Bestimmung der Grundlage des Datenschutzrechts im EU-Recht, DuD 2017, S. 349–353. Möhlen, Christian: Das Recht auf Versammlungsfreiheit im Internet. Anwendbarkeit eines klassischen Menschenrechts auf neue digitale Kommunikations- und Protestformen, MMR 2013, S. 221–230. Müller-Franken, Sebastian: Netzwerkdurchsetzungsgesetz: Selbstbehauptung des Rechts oder erster Schritt in selbstregulierte Vorzensur? – Verfassungsrechtliche Fragen, AfP 2018, S. 1–14. Müller, Philipp/Denner, Nora: Was tun gegen Fake News?, 2. Auflage, Potsdam-Babelsberg 2019. Münch, Holger: Tatort Internet – Neue Herausforderungen, neue Aufgaben, in: Sensburg, Patrick Ernst (Hrsg.), Sicherheit in einer digitalen Welt, Baden-Baden 2017, S. 9–22. Münch, Ingo von/Kunig, Philip: Grundgesetz Kommentar Band 1 Präambel, Art. 1–69 GG, begründet von von Münch, Ingo/Kunig, Philip, herausgegeben von Kämmerer, Jörn-Axel/Kotzur, Markus, 7. Auflage, München 2021. Münchener Kommentar zum BGB: Band 1 Allgemeiner Teil §§ 1–240 BGB, AllgPersönlR, ProstG, AGG, herausgegeben von Säcker, Jürgen/Rixecker, Roland/Oetker, Hartmund/Limpert, Bettina, 9. Auflage, München 2021. Münchener Kommentar zum StGB: Band 2 §§ 38–79b, herausgegeben von Erb, Volker/ Schäfer, Jürgen, 4. Auflage, München 2020. Münchener Kommentar zum StGB: Band 7 Nebenstrafrecht II, herausgegeben von Erb, Volker/Schäfer, Jürgen, 3. Auflage, München 2019. Neuberger, Christoph: Soziale Medien und Journalismus, in: Taddicken, Monika/ Schmidt, Jan-Hinrik (Hrsg.), Handbuch Soziale Medien, Wiesbaden 2017, S. 101– 127. Niedobitek, Matthias (Hrsg.): Europarecht. Grundlagen und Politiken der Union, 2. Auflage, Berlin/Boston 2020. Niewöhner, Mario: Das NetzDG Meinungsfreiheit. Zur Anreizstruktur und Eingriffsqualität des NetzDG insbesondere im Hinblick auf Overblocking, DuD 2021, S. 391–395. Niggemann, Sandra: Die NetzDG-Novelle. Eine Kritik mit Blick auf die Rechte der Nutzerinnen und Nutzer, CR 2020, S. 326–331. Nölscher, Patrick: Das Netzwerkdurchsetzungsgesetz und seine Vereinbarkeit mit dem Europarecht, ZUM 2020, S. 301–312.
Literaturverzeichnis
241
Nolte, Georg: Hate-Speech, Fake-News, das „Netzwerkdurchsetzungsgesetz“ und Vielfaltsicherung durch Suchmaschinen. Vortrag auf dem interdisziplinären Symposium „Der Code als Gatekeeper: Vielfaltsicherung in Zeiten von Such- und Entscheidungsalgorithmen, Personalisierung und Fake-News“ des Instituts für Urheber- und Medienrecht am 28.04.2017 in München, ZUM 2017, S. 552–565. Nolte, Georg/Wimmers, Jörg: Wer stört? Gedanken zur Haftung von Intermediären im Internet – von praktischer Konkordanz, richtigen Anreizen und offenen Fragen, GRUR 2014, S. 16–27. Nuernbergk, Christian: Das Virus in den sozialen Netzwerken: Corona-Dynamiken am Beispiel politisch-medialer Netzwerke, in: Stegebauer, Christian/Clemens, Iris (Hrsg.), Corona-Netzwerke – Gesellschaft im Zeichen des Virus, Wiesbaden 2020. Oermann, Markus/Staben, Julian: Mittelbare Grundrechtseingriffe durch Abschreckung. Zur grundrechtlichen Bewertung polizeilicher „Online-Streifen“ und „Online-Ermittlungen“ in sozialen Netzwerken, Der Staat 2013, S. 630–661. Ohler, Christoph: Grundrechtliche Bindungen der Mitgliedstaaten nach Art. 51 GRCh, NVwZ 2013, S. 1433–1438. Osing, Johannes: Die Netzneutralität im Binnenmarkt. Zur Bindung der Internet-Provider an die Europäischen Grundfreiheiten und Grundrechte, Baden-Baden 2017. Oster, Jan: European and international media law, Cambridge 2017. Paal, Boris P.: Anmerkung EuGH, Urteil v. 03.10.2019 – C-18/18 Eva GlawischnigPiesczek ./. Facebook Ireland Limited, JZ 2020, S. 92–96. Paal, Boris P./Hennemann, Moritz: Meinungsbildung im digitalen Zeitalter. Regulierungsinstrumente für einen gefährdungsadäquaten Rechtsrahmen, JZ 2017, S. 641– 652. Palzer, Carmen: Co-Regulierung als Steuerungsform für den Jugendschutz in den audiovisuellen Medien – eine europäische Perspektive, ZUM 2002, S. 875–886. Pasche, Marian/Berlit, Wolfgang/Meyer, Claus/Kröner, Lars (Hrsg.): Hamburger Kommentar. Gesamtes Medienrecht, 4. Auflage, Baden-Baden 2021. Pechstein, Matthias/Nowak, Carsten/Häde, Ulrich (Hrsg.): Frankfurter Kommentar zu EUV, GRC und AEUV. Band I EUV und GRC, Tübingen 2017. Peers, Steve/Hervey, Tamara/Kenner, Jeff/Ward, Angela (Hrsg.): The EU Charter of Fundamental Rights. A Commentary, Oxford 2014. Peifer, Karl-Nikolaus: Netzwerkdurchsetzungsgesetz: Selbstbehauptung des Rechts oder erster Schritt in die selbstregulierte Vorzensur? – Zivilrechtliche Aspekte, AfP 2018, S. 14–23. Pennycook, Gordon/Cannon, Tyrone D./Rand, David G.: Prior Exposure Increases Perceived Accuracy of Fake News, Journal of Experimental Psychology: General 2018, S. 1865–1880. Peuker, Enrico: Verfassungswandel durch Digitalisierung, Tübingen 2020. Peukert, Alexander: Gewährleistung der Meinungs- und Informationsfreiheit in sozialen Netzwerken. Vorschlag für eine Ergänzung des NetzDG um sog. Put-back-Verfahren, MMR 2018, S. 572–578.
242
Literaturverzeichnis
Pirker, Benedikt: Grundrechtsschutz im Unionsrecht zwischen Subsidiarität und Integration. Zur Anwendung der Unionsgrundrechte auf die Mitgliedstaaten, Baden-Baden 2018. Pravemann, Timm: Art. 17 der Richtlinie zum Urheberrecht im digitalen Binnenmarkt. Eine Analyse der neuen europäischen Haftungsregelung für Diensteanbieter für das Teilen von Online-Inhalten, GRUR 2019, S. 783–788. Preßlein, David: Grundgesetz vs. Grundrechtecharta? Zur „europäisierten Grundrechtsprüfung“ des BVerfG nach den Beschlüssen zum „Recht auf Vergessen“ und „Europäischer Haftbefehl III“, EuR 2021, S. 247–274. Puppis, Manuel/Dörr, Bianca: Begriff der Selbstregulierung, in: Puppis, Manuel/Künzler, Matthias/Schade, Edzard/Donges, Patrick/Dörr, Bianka/Ledergerber, Andreas/ Vogel, Martina, Selbstregulierung und Selbstorganisation, Zürich 2004. Rafael, Simone/Ritzmann, Alexander: Hintergrund: „Das ABC des Problemkomplexes Hassrede, Extremismus und NetzDG“, in: Baldauf, Johannes/Ebner, Julia/Guhl, Jakob (Hrsg.), Hassrede und Radikalisierung im Netz. Der OCCI-Forschungsbericht, London/Washington DC/Beirut/Toronto 2018, S. 11–19, abrufbar unter: https:// www.isdglobal.org/wp-content/uploads/2018/10/ISD-Radicalisation-in-the-Network _Report_German_web.pdf#page=11. Rechenberg, Constantin: Kommunikation, Kreation und Innovation – Recht im Umbruch? RW 2019, S. 420–428. Redeker, Helmut: IT-Recht, 7. Auflage, München 2020. Riedel, Christian G. H.: Die Grundrechtsprüfung durch den EuGH. Systematisierung, Analyse und Kontextualisierung der Rechtsprechung nach Inkrafttreten der EUGrundrechtecharta, Tübingen 2020. Riedel, Dirk: Die Meinungsäußerungsfreiheit in Europa. Eine Untersuchung der konkreten Auslegung der Meinungsäußerungsfreiheit gemäß Art. 5 GG, Art. 10 EMRK und Art. 11 GRCh in der deutschen und europäischen Rechtsprechung auf Basis ausgewählter Fallgruppen, Hamburg 2017. Rieger, Diana/Dippold, Jessica/Appel, Markus: Trolle gibt es nicht nur im Märchen – Das Phänomen Trolling im Internet, in: Appel, Markus (Hrsg.), Die Psychologie des Postfaktischen: Über Fake News, „Lügenpresse“, Clickbait & Co., Berlin 2020, S. 45–58. Roßnagel, Alexander/Bile, Tamer/Friedewald, Michael/Geminn, Christian/Heesen, Jessica/Karaboga, Murat/Krämer, Nicole/Kreutzer, Michael/Löber, Lena Isabell/Martin, Nicholas/Nebel, Maxi/Ochs, Carsten: Policy Paper. Das Netzwerkdurchsetzungsgesetz, abrufbar unter: https://www.forum-privatheit.de/wp-content/uploads/ Policy-Paper-NetzDG.pdf. Sahl, Christian/Bilzer, Nils: NetzDG 2.0 – Ein Update für weniger Hass im Netz, ZRP 2020, S. 2–5. Sängerlaub, Alexander/Meier, Miriam/Rühl, Wolf-Dieter: Fakten statt Fakes. Verursacher, Verbreitungswege und Wirkungen von Fake News im Bundestagswahlkampf 2017, Berlin 2018, abrufbar unter: https://www.stiftung-nv.de/sites/default/files/ snv_fakten_statt_fakes.pdf.
Literaturverzeichnis
243
Savin, Andrej: EU Internet Law, 2nd Edition, Cheltenham UK/Northampton USA 2018. Schantz, Peter/Wolff, Heinrich Amadeus: Das neue Datenschutzrecht. DatenschutzGrundverordnung und Bundesdatenschutzgesetz in der Praxis, München 2017. Schiff, Alexander: Meinungsfreiheit in mediatisierten digitalen Räumen. Das NetzDG auf dem Prüfstand des Verfassungsrechts, MMR 2018, S. 366–371. Schindler, Hendrik/Schaffner, Petra: Virtuelle Beschlussfassung in Kapitalgesellschaften und Vereinen, München 2021. Schladebach, Markus/Simantiras, Nikolaos: Grundstrukturen des unionalen Rundfunkrechts, EuR 2011, S. 784–808. Schmidt, Jan-Hinrik/Taddicken, Monika: Soziale Medien: Funktionen, Praktiken, Formationen, in: Taddicken, Monika/Schmidt, Jan-Hinrik (Hrsg.), Handbuch Soziale Medien, Wiesbaden 2017, S. 23–37. Schneiders, Benedikt: Die Grundrechte der EU und die EMRK. Das Verhältnis zwischen ungeschriebenen Grundrechten, Grundrechtecharta und Europäischer Menschenrechtskonvention, Baden-Baden 2010. Scholz, Rupert: Nationale und europäische Grundrechte: Umgekehrte „Solange“-Regel? DVBl. 2014, S. 197–204. Schulze, Reiner/Staudenmayer, Dirk (Hrsg.): EU Digital Law. Article-by-Article Commentary, Baden-Baden 2020. Schwartmann, Rolf: Verantwortlichkeit Sozialer Netzwerke nach dem Netzwerkdurchsetzungsgesetz, GRUR-Prax 2017, S. 317–319. Schwartmann, Rolf/Mühlenbeck, Robin L.: NetzDG und das virtuelle Hausrecht sozialer Netzwerke, ZRP 2020, S. 170–172. Schwarz, Karolin/Holnburger, Josef: Desinformation: „Welche Rolle spielen Desinformationen für Hassrede und Extremismum im Netz und welche Maßnahmen haben soziale Medien zur Bekämpfung von Desinformation ergriffen?“, in: Baldauf, Johannes/Ebner, Julia/Guhl, Jakob (Hrsg.), Hassrede und Radikalisierung im Netz. Der OCCI-Forschungsbericht, London/Washington DC/Beirut/Toronto 2018, S. 11– 19, abrufbar unter: https://www.isdglobal.org/wp-content/uploads/2018/10/ISD-Ra dicalisation-in-the-Network_Report_German_web.pdf#page=11. Schwarze, Jürgen: Der Grundrechtschutz für Unternehmen in der Europäischen Grundrechtecharta, EuZW 2001, 517–524. Schwarze, Jürgen/Becker, Ulrich/Hatje, Armin/Schoo, Johann (Hrsg.): EU-Kommentar, 4. Auflage, Baden-Baden 2019. Schwiddessen, Sebastian: Medienbezogenes Straf- und Ordnungswidrigkeitenrecht bei Sachverhalten mit Auslandsbezug – Teil 1, CR 2017, S. 443–454. Senftleben, Martin: Filterverpflichtungen nach der Reform des europäischen Urheberrechts – Das Ende der freien Netzkultur? ZUM 2019, S. 369–374. Shachaf, Pnina/Hara, Noriko: Beyond vandalism: Wikipedia trolls, Journal of Information Science 2010, S. 357–370.
244
Literaturverzeichnis
Sieber, Ulrich/Liesching, Marc: Die Verantwortlichkeit der Suchmaschinenbetreiber nach dem Telemediengesetz, MMR-Beil. 2007, S. 1–30. Simitis, Spiros/Hornung, Gerrit/Spiecker, genannt Döhmann, Indra (Hrsg.): Datenschutzrecht. DSGVO mit BDSG, Baden-Baden 2019. Skobel, Eva: Regulierung nutzergenerierter Inhalte auf sozialen Netzwerken, Trier 2021. Spiegel, Johanna/Heymann, Britta: Ein Minenfeld für Anbieter sozialer Netzwerke – Zwischen NetzDG, Verfassungsrecht und Vertragsfreiheit, K&R 2020, S. 344–350. Spindler, Gerald: Das Netzwerkdurchsetzungsgesetz, K&R 2017, S. 533–544. Spindler, Gerald: Der Regierungsentwurf zum Netzwerkdurchsetzungsgesetz europarechtswidrig? ZUM 2017, S. 473–487. Spindler, Gerald: Legal Expertise commissioned by BITKOM concerning the notified German Act to Improve Enforcement of the Law in Social Networks (Netzwerkdurchsetzungsgesetz), 2017, abrufbar unter: https://www.bitkom.org/sites/default/ files/file/import/Legal-Expertise-Official-2-0.pdf. Spindler, Gerald: Störerhaftung des Host-Providers bei Persönlichkeitsrechtsverletzungen. Impulse aus dem VI. Zivilsenat des BGH – zugleich Anmerkung zu BGH, Urt. v. 25.10.2011 – VI ZR 93/10 – Blogger, CR 2012, S. 176–178. Spindler, Gerald/Schmitz, Peter/Liesching, Marc: Telemediengesetz mit Netzwerkdurchsetzungsgesetz, 2. Auflage München 2018. Spindler, Gerald/Schuster, Fabian (Hrsg.): Recht der elektronischen Medien, 4. Auflage, München 2019. Spitzer, Manfred: Mediennutzung in Zeiten von Corona. Die Geschichte von 2 Pandemien, Nervenheilkunde 2020, S. 698–703. Sponholz, Liriam: Hate Speech in den Massenmedien. Theoretische Grundlagen und empirische Umsetzung, Wiesbaden 2018. Staben, Julian: Der Abschreckungseffekt auf die Grundrechtsausübung. Strukturen eines verfassungsrechtlichen Arguments, Tübingen 2016. Stadler, Thomas: Muss Facebook stärker gegen rassistische Postings vorgehen? in: Kappes, Christoph/Krone, Jan/Novy, Leonard (Hrsg.), Medienwandel kompakt 2014– 2016: Netzveröffentlichungen zu Medienökonomie, Medienpolitik & Journalismus, Wiesbaden 2017, S. 417–419. Stark, Birgit/Magin, Melanie/Jürgens, Pascal: Politische Meinungsbildung im Netz: Die Rolle der Informationsintermediäre, UFITA, S. 103–130. Stock, Martin: Medienfreiheit in der EU nur „geachtet“ (Artikel 11 Grundrechtscharta) – Ein Plädoyer für Nachbesserungen im Verfassungskonvent, EuR 2002, S. 566–589. Streinz, Rudolf (Hrsg.): EUV/AEUV Vertrag über die Europäische Union. Vertrag über die Arbeitsweise der Europäischen Union. Charta der Grundrechte der Europäischen Union, unter Mitarbeit von Michl, Walther, 3. Auflage, München 2018.
Literaturverzeichnis
245
Struth, Anna Katharina: Hassrede und die Freiheit der Meinungsäußerung. Der Schutzbereich der Meinungsäußerungsfreiheit in Fällen demokratiefeindlicher Äußerungen nach der Europäischen Menschenrechtskonvention, dem Grundgesetz und der Charta der Grundrechte der Europäischen Union, Berlin 2019. Taddicken, Monika/Schmidt, Jan-Hinrik: Entwicklung und Verbreitung sozialer Medien, in: Taddicken, Monika/Schmidt, Jan-Hinrik (Hrsg.), Handbuch Soziale Medien, Wiesbaden 2017, S. 3–22. Taeger, Jürgen/Gabel, Detlev (Hrsg.): DSGVO – BDSG – TTDSG, 4. Auflage, Frankfurt am Main 2022. Thiele, Alexander: Das Rechtsschutzsystem nach dem Vertrag von Lissabon – (K)ein Schritt nach vorn? EuR 2010, S. 30–51. Thomy, Patricia: Individualrechtsschutz durch das Vorabentscheidungsverfahren, BadenBaden 2009. Thym, Daniel: Die Reichweite der EU-Grundrechte-Charta – Zu viel Grundrechtsschutz? NVwZ 2013, S. 889–896. Tuchtfeld, Erik: Don’t shoot the Messenger, Verfassungsblog v. 21.12.2012, abrufbar unter: https://verfassungsblog.de/dont-shoot-the-messenger/. Twitter: NetzDG Transparenzbericht Juli 2021, abrufbar unter: https://transparency. twitter.com/content/dam/transparency-twitter/netzdg/netzdg-jan-jun-2021.pdf. Ukrow, Jörg: Impulse aus dem EMR. Die Vorschläge der EU-Kommission für einen Digital Services Act und einen Digital Markets Act, abrufbar unter: https://emrsb.de/wp-content/uploads/2021/01/Impulse-aus-dem-EMR_DMA-und-DSA.pdf. Ullrich, Norbert/von Coelln, Christian/Heusch, Andreas (Hrsg.): Handbuch Versammlungsrecht, Stuttgart 2021. Urban, Jennifer/Karaganis, Joe/Schofield, Brianna: Notice and Takedown in Everyday Practice, 2017, abrufbar unter: https://papers.ssrn.com/sol3/papers.cfm?abstract_ id=2755628. Vogelsang, Jennifer: Kommunikationsformen des Internetzeitalters im Lichte der Kommunikationsfreiheiten des Grundgesetzes, Tübingen 2017. Voigt, Marlene: Die datenschutzrechtliche Einwilligung. Zum Spannungsfeld von informationeller Selbstbestimmung und ökonomischer Verwertung personenbezogener Daten, Baden-Baden 2020. Wabnitz, Heinz-Bernd/Janovsky, Thomas/Schmitt, Lothar (Hrsg.): Handbuch Wirtschafts- und Steuerstrafrecht, 5. Auflage, München 2020. Warg, Gunter: Meinungsfreiheit zwischen Zensur und Selbstzensur, DÖV 2018, S. 473– 482. Weber, Klaus (Hrsg.): Rechtswörterbuch, 27. Edition, München 2021. Welzel, Tobias: Virtuelle Versammlungsfreiheit in Zeiten der Pandemie. Warum Art. 8 GG auch virtuelle Versammlungen schützt, MMR 2021, S. 220–225. Wendel, Mattias: Der EMRK-Beitritt als Unionsrechtsverstoß. Zur völkerrechtlichen Öffnung der EU und ihren Grenzen, NJW 2015, S. 921–926.
246
Literaturverzeichnis
Wienfort, Nora: Blocking Overblocking, Verfassungsblog v. 20.06.2020, abrufbar unter: https://verfassungsblog.de/blocking-overblocking/. Wimmers, Jörg/Heymann, Britta: Zum Referentenentwurf eines Netzwerkdurchsetzungsgesetzes (NetzDG) – eine kritische Stellungnahme, AfP 2017, S. 93–102. Woger, Hans-Christian/Männig, Annina Barbara: „Hate Speech“ – Eine rechtliche Einordnung und das Netzwerkdurchsetzungsgesetz zur Bekämpfung von Hassrede im Internet, PinG 2017, S. 233–240. Wolff, Heinrich Amadeus/Brink, Stefan (Hrsg.): BeckOK Datenschutzrecht, 38. Edition, München 2021. Youn, Monica: The Chillling Effect and the Problem of Private Action, Vanderbilt Law Review 66 (2013), S. 1474–1539. YouTube: NetzDG Transparenzbericht Juli 2021, abrufbar unter: https://storage.google apis.com/transparencyreport/legal/netzdg/YT-NetzDG-TR-Bundesanzeiger-latest.pdf. Ziegenhorn, Gero: Der Einfluss der EMRK im Recht der EU-Grundrechtecharta, Berlin 2009. Ziegenhorn, Gero/von Heckel, Katharina: Datenverarbeitung durch Private nach der europäischen Datenschutzreform. Auswirkungen der Datenschutz-Grundverordnung auf die materielle Rechtmäßigkeit der Verarbeitung personenbezogener Daten, NVwZ 2016, S. 1585–1591. Sämtliche Links in dieser Arbeit wurden zuletzt am 01.02.2022 aufgerufen.
Sachverzeichnis Airbnb-Urteil 190 Anreizsystem 123 Anwendungsbereich 40 asymmetrisches Haftungsrisiko 98
Karriereplattformen 169 Kommunikationsplattformengesetz 189
Berichtspflicht 41 Beschwerde 101, 217 Beschwerdeverfahren 41 Bestimmtheit 171 Bußgeldandrohung 95
Meinungen 71 Meldepflicht 120
Conseil Constitutionnel 106 Dienstleistungsfreiheit 162 Digital Rights Ireland 126 Dokumentationspflicht 134 Einschätzungsprärogative 79 Einschüchterungswirkung 117 Evaluation 36 Falschnachrichten 30 Gegenvorstellungsverfahren 43, 108, 217 Gemeinschaftsstandards 100, 128, 137 Gesetzgebungsverfahren 33 Grundsatz der Staatsferne 176
Loi Avia 104, 129, 214
Notifizierungsverfahren 189, 196, 202 Öffnungsklausel 143 Overblocking 57, 62, 93, 109, 119, 123 personenbezogene Daten 131 Privatisierung der Rechtsdurchsetzung 127 Recht auf Auskunft 120 Regulierte Selbstregulierung 42, 88, 156, 199 Schranken 75 Schulungs- und Betreuungsangebote 99 soziale Netzwerke 22, 151 Stellungnahme 103, 109 Transparenzberichte 61, 99
Haftungsrisiko 98 Hasskriminalität 26 Hassrede 26 Herkunftslandprinzip 165, 180
Versammlungsfreiheit 112 Videosharingplattform-Dienste 44 Videosharingplattformen 170 Vorabentscheidungsverfahren 178 Vorratsdatenspeicherung 72, 132, 135
journalistisch-redaktionell 24
Zweckbindungsgrundsatz 142