Wissenswelt Internet: Eine Infrastruktur und ihr Recht 9783110338966, 9783110338911

The networking of information in order to generate knowledge was the original context in which the internet arose. Encom

317 77 2MB

German Pages 368 Year 2018

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Vorwort
Inhaltsverzeichnis
Einleitung
1. Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert
2. Das World Wide Web als eine Anwendung des Internets
3. Wege zum Wissen im Web
4. Wo Licht ist, ist auch Schatten
5. Die Zukunft des Internets
Ausblick: Bibliotheken der Zukunft
Abkürzungsverzeichnis
Abbildungsverzeichnis
Personenregister
Sachregister
Recommend Papers

Wissenswelt Internet: Eine Infrastruktur und ihr Recht
 9783110338966, 9783110338911

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Harald Baumeister, Kathrin Schwärzel Wissenswelt Internet

Bibliotheks- und Informationspraxis

 Herausgegeben von Klaus Gantert und Ulrike Junger

Band 56

Harald Baumeister, Kathrin Schwärzel

Wissenswelt Internet  Eine Infrastruktur und ihr Recht

Bibliotheks- und Informationspraxis ab Band 42: Herausgegeben von Klaus Gantert und Ulrike Junger Das moderne Bibliotheks- und Informationswesen setzt sich mit vielfältigen Anforderungen auseinander und entwickelt sich ständig weiter. Die Reihe Bibliotheks- und Informationspraxis greift neue Themen und Fragestellungen auf und will mit Informationen und Erfahrungen aus der Praxis dazu beitragen, Betriebsabläufe und Dienstleistungen von Bibliotheken und vergleichbaren Einrichtungen optimal zu gestalten. Die Reihe richtet sich an alle, die in Bibliotheken oder auf anderen Gebieten der Informationsvermittlung tätig sind.

ISBN 978-3-11-033891-1 e-ISBN (PDF) 978-3-11-033896-6 e-ISBN (EPUB) 978-3-11-039628-7 ISSN 2191-3587 Library of Congress Control Number: 2018951336 Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar. © 2019 Walter de Gruyter GmbH, Berlin/Boston Satz: bsix information exchange GmbH, Braunschweig Druck und Bindung: CPI books GmbH, Leck www.degruyter.com

Vorwort Ein Buch über das Internet zu schreiben war ein Projekt, das aufgrund seines Umfangs, seiner Komplexität und seiner Uferlosigkeit dem Scheitern oft näher als dem Gelingen war. Dass Sie dieses Buch doch noch in den Händen halten, verdanken wir nicht zuletzt den freundlichen und zugleich beharrlichen Nachfragen unserer Lektorin vom Verlag De Gruyter, Frau Claudia Heyer, deren Geduld wir sehr strapaziert haben. Ebenso viel Langmut und unermüdlichen Zuspruch haben wir von Herrn Dr. Klaus Gantert, dem wir für die Aufnahme in die von ihm gemeinsam mit Frau Ulrike Junger herausgegebene Reihe BIPRA verbunden sind, erfahren. Allen gilt unser herzlichster Dank! Wo fängt ein Buch über das Internet an? Womit kann es enden und welchen Kontext wollen wir ihm geben? Diese Fragen haben uns bis zum Tag der Manuskripteinreichung begleitet. Vielleicht würden wir – im Angesicht der Dynamik des Themas – schon bald andere, wiederum nur vorläufige Antworten darauf finden. Wir haben uns entschieden, das Internet als Infrastruktur für eine Welt des Wissens zu betrachten – in dem Bewusstsein, dass der Begriff des Wissens ein interdisziplinärer Tausendsassa ist, dessen Konzeptionen in der gesamten Vielfalt in diesem Buch nicht abbildbar sind. Die Vernetzung von Informationen, die Wissen entstehen lässt, war der originäre Entstehungskontext des Internets und seiner bekanntesten Anwendung, des World Wide Webs. Die Nutzungsszenarien des Internets haben sich freilich in seiner 50-jährigen Geschichte stark ausdifferenziert und lassen sich nicht trennscharf unterscheiden. Deshalb werden wir Sie auf unserem Weg von den Anfängen des Internets bis zu seinen Zukunftsaussichten auch mit Fragestellungen vertraut machen, die mitunter – zumindest auf den ersten Blick – nur in losem Zusammenhang zu einer Welt des Wissens stehen. Es mag kaum eine Disziplin geben, die das Internet nicht herausgefordert hat. Wir nähern uns ihm in diesem Buch vornehmlich aus einer infrastrukturellen und der juristischen Perspektive.1 Das Anliegen, zwei Ansätze zusammenzuführen, die selten dieselbe Sprache sprechen und in ihrer Komplexität bisweilen schwer verständlich sind, war für uns Herausforderung und Motivation zugleich. Dafür erwies es sich allerdings als unumgänglich, komplexe Sachverhalte zu vereinfachen, zu verkürzen oder nur exemplarisch darzustellen, ohne die Mannigfaltigkeit der Fragestellungen aus dem Blick zu verlieren.

1 Rechtsquellen, veröffentlichte Rechtsprechung und Literatur konnten bis Juni 2018 berücksichtigt werden. https://doi.org/10.1515/9783110338966-202

VI  Vorwort

Wir wenden uns mit unserem Buch an Bibliothekarinnen und Bibliothekare in Ausbildung und Praxis, die sich mit dem Internet als Infrastruktur des Wissens und seinem Recht befassen möchten. Doch auch Leserinnen und Leser aus anderen Kontexten sind uns sehr willkommen, denn unsere Perspektive ist keine spezifisch bibliothekarische. Eine bereichernde Lektüre wünschen Ihnen Harald Baumeister und Kathrin Schwärzel München, im Juli 2018

Inhaltsverzeichnis Vorwort  V Einleitung  1 Literatur  2 1

Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert  5 Geschichte und Gegenwart: eine Bestandsaufnahme  5 Die Vernetzung als ein gemeinschaftliches Projekt von Wissenschaft und Politik  5 Die Gründung der ARPA  6 Die Idee eines Computernetzwerkes  6 Die Paketvermittlungstechnik und das Maschennetz als zentrale Prinzipien des Arpanets  7 Der Aufbau des Arpanets  8 Die Entwicklung eines neuen Datenübertragungsprotokolls  10 Die E-Mail als Gegenstand des Interesses  10 Talk oder die Urform des Chats  11 Die Reaktion der Computerhersteller und Telekommunikationsanbieter  12 Die Entwicklung des Arpanets zur militärischen Nutzung?  12 Konkurrenz für das Arpanet: Die Entwicklung des CSNET und des NSFNET  13 Die Vernetzung parallel existierender Netzwerke mittels TCP/IP  14 Zwei Modelle im Wettbewerb: TCP/IP versus OSI  14 Die Standardsetzung für das Netz  17 Die IP-Adresse oder die eindeutige Identifizierung im Netz  18 Ein Name für das bald weltumspannende Netz etabliert sich: Internet  19 Al Gore: Der politische Ziehvater des Internets  19 Die Verbreitung des Internets  20 Das Internetrecht: eine Querschnittsmaterie im Mehrebenensystem  22 Die kommerzielle Nutzung des Internets beginnt  23 Bezahlschranken im Internet  25 Die Zugangskultur und Open Access  26 Vernetzung bedeutet Verletzlichkeit  28 Das Internet als digitales Schlachtfeld?  29

VIII  Inhaltsverzeichnis

Überlegungen zur Abschottung vom Internet  31 Literatur  32 Entscheidungen  35 Die technische Basis des Internets  36 Das TCP/IP-Modell (Internet-Modell)  36 Das Protokoll TCP/IP als Kern des Internet-Modells  37 IP-Adressen als Bestandteil des Internet Protocol  40 Das Datenschutzrecht betritt die Bühne  41 Der Datenschutz im Grundgesetz  44 Das Datenschutzrecht im 21. Jahrhundert  46 Das neue IT-Grundrecht  49 Die IP-Adresse und der Datenschutz  50 Die Rolle der Provider  57 Provider und Datenschutz  61 Das Domain Name System  64 Die Vergabe und Registrierung der Domänennamen  66 Angriffe auf das Domain Name System  68 Domänennamen und das Recht  68 Die 13 Root Name Server: eine kritische Komponente des gesamten Netzes  71 Weitere Aufgaben des Domain Name Systems  73 DNS- und IP-Sperren  73 Literatur  76 Entscheidungen  78 2

Das World Wide Web als eine Anwendung des Internets  79 Das World Wide Web als europäische Idee: seine Entstehung  79 Eine Verweisstruktur zur digitalen Wissensorganisation  79 Die Vorläufer des Hypertextsystems  80 Die Entwicklung des Hypertextsystems  81 Die Verbreitung des World Wide Webs  82 Die Anfänge der Kommerzialisierung des World Wide Webs  84 Der bedeutendste Dienst im Internet  84 Von der E-Mail zur „Webmail“  85 Instant-Messenger-Dienste  89 Das W3C (World Wide Web Consortium)  90 Die World Wide Web Foundation  91 Digitale Kluft, digitale Kompetenz  92 Das Urheberrecht und sein Bedeutungsgewinn: von den Anfängen bis ins digitale Zeitalter  94

Inhaltsverzeichnis 

IX

Website, Webseite oder Homepage?  97 Webadressen  98 Persistent Identifier: ein Mittel gegen die Instabilität von Links  98 Der Link und das Urheberrecht  100 Die Haftung für Verlinkungen  107 Alles im Rahmen? – Das Framing und das Urheberrecht  111 Einige Begriffserläuterungen zum Web: Deep Web und Dark Web  113 Literatur  114 Entscheidungen  116 Von Web 1.0 zu Web 2.0  118 Agieren im Social Web  123 Der User-generated Content als gemeinsamer Nenner der Social-WebDienste  125 Blogs  127 Der Blog und das Recht  128 Das Abonnieren von Blogs  135 Der RSS-Feed vor Gericht  135 Microbloggingdienste  137 140 (280) Zeichen vor Gericht  139 Wikis  141 Das Wiki vor Gericht  142 Webforen  144 Zwei Foren im Rechtsstreit  145 Soziale Netzwerke  147 Soziale Netzwerke und das Recht  150 Social Bookmarking  162 Social News  162 Empfehlungsdienste (Recommender-Systeme)  162 Bewertungsportale  163 Bewertungsportale auf dem Prüfstand  163 Video-Sharing-Plattformen  171 Im Dauerstreit: YouTube und die GEMA  172 Video-Sharing-Plattformen und das Recht  173 File-Hosting-Dienste  175 File-Hosting-Dienste vor Gericht  176 Podcasting  178 Streamingdienste zum Hören und Sehen  178 Persönliches Livestreaming  180 Das Streaming und das Recht  180

X  Inhaltsverzeichnis

Mashups  182 Die Grenzen verschwimmen  183 Das Social Web im Blick behalten: Social-Web-Monitoring  183 Wissenschaftskommunikation in Zeiten des Social Webs  184 Was Tim Berners-Lee heute ändern würde ...  187 Literatur  188 Entscheidungen  193 3

Wege zum Wissen im Web  195 Suchmaschinen  196 Funktionsweise von indexbasierten Suchmaschinen  197 Prüfpflichten für Suchmaschinenbetreiber?  201 Löschpflichten für Suchmaschinenbetreiber?  205 Das Recht auf Vergessenwerden  209 Die Entwicklung des Suchmaschinenangebots  210 Google – ein Gigant unter der Lupe  212 Der PageRank: Googles entscheidende Trumpfkarte  215 Exkurs 1: Wieso werden bei Google Treffer angezeigt, die das Suchwort gar nicht enthalten?  220 Exkurs 2: Personalisierung der Suche: Sind wir gefangen in der „Filter Bubble“?  221 Snippets und Thumbnails vor Gericht  222 Google und die Onlinewerbung  226 Von Google Inc. zu Alphabet Inc.  229 Google Books  230 Authors Guild versus Google  231 Google Maps und Google Street View  231 Google Street View vor Gericht  232 Google Analytics  233 Von Cookies, Webtracking und dem Recht  234 Google Mail, Google Translate und Google Suggest  236 Die Autocomplete-Funktion vor Gericht  237 Kritik an Google  238 Alternativen zu Google  241 Spezialsuchmaschinen für den wissenschaftlichen Bereich  244 Von Repositorien und dem Zweitveröffentlichungsrecht  246 Forschungsdaten in Repositorien  248 News-Aggregatoren: die digitale Presseschau  248 Das Leistungsschutzrecht für Presseverleger  249

Inhaltsverzeichnis 

XI

Literatur  251 Entscheidungen  254 Weitere Suchdienste  255 Die Wikipedia(s) und ihre Schwesterprojekte  255 Die Wikipedia vor Gericht  257 Rechtliches zu Mehrautorenschaft und Open-Content-Lizenzen  258 Grundprinzipien der Wikipedia  262 Kritik an der Wikipedia  264 Schwesterprojekte der Wikipedia: Wikibooks, Wikiversity & Co.  268 Nachrichtenportale aus der Welt der Wissenschaft  270 Faktenchecker gegen Fake News  271 Exkurs 3: Die Qualität von Webressourcen bewerten  272 Vom Bibliothekskatalog zum Discovery Dienst  274 Ausgewählte Beispiele für frei zugängliche Wissensinfrastrukturen  277 Literatur  285 Entscheidungen  288 4

Wo Licht ist, ist auch Schatten  289 Im Rampenlicht: Schattenbibliotheken  289 Dunklere Schattenseiten: Cybermobbing  291 Der Shitstorm als „Cybermobbing light“  294 Cybermobbing und der Effekt der Deindividuation  297 Zwischen enthemmender und schützenswerter Anonymität  299 Jugendmedienschutz im Internet  299 Das Internet als Propagandaplattform  302 Das Netzwerkdurchsetzungsgesetz: ein Instrument gegen Hate Speech und Fake News im Social Web  305 Cyberkriminalität und Cyberwar  307 Das Internet der Gegenwart: ein Ort der Anpassung und Überwachung?  310 Literatur  315 Entscheidungen  319

5

Die Zukunft des Internets  320 Konkrete Zukunfttrends  320 Augmented Reality (AR)  321 Big Data: Algorithmen interpretieren riesige Datenmengen  322 Die Allgegenwart des Netzes  324 Das Internet der Dinge und die vierte industrielle Revolution  325

XII  Inhaltsverzeichnis

Semantische Technologien  326 Künstliche Intelligenz  330 Literatur  331 Ausblick: Bibliotheken der Zukunft  333 Abkürzungsverzeichnis  335 Abbildungsverzeichnis  341 Personenregister  343 Sachregister  345

Einleitung Bereits kurz nach der Jahrtausendwende standen zum ersten Mal weltweit mehr Informationen in digitaler als in analoger Form zur Verfügung. Informationen sind die Grundlage dafür, dass Wissen entstehen kann. Im Gegensatz zu objektiven, „unpersönlichen“ Informationen ist Wissen ohne eine subjektive Komponente, die der Person, aus erkenntnistheoretischer Sicht nicht vorstellbar. Wissen kann sich danach nur intra- oder intersubjektiv, also in dem Individuum selbst oder im Kontakt mit anderen Individuen, bei der Verarbeitung und Synthese von Informationen herausbilden. Wissen kann nur im Bewusstsein entstehen. So betrachtet, stellt das Internet sowohl einen riesigen Speicher von Informationen, der sich dynamisch verändert und mit immenser Geschwindigkeit anwächst, als auch – ermöglicht durch seine Struktur des (Mit-)Teilens und Vernetzens – ein Medium zur Erzeugung, Organisation, Repräsentation und Vermittlung von Wissen dar. Die Wissenspraktiken greifen dazu auf das Internet und seine Anwendungen als Infrastruktur zurück. Auf diese Infrastruktur, die Wissenswelt Internet, möchten wir in unserem Buch das Augenmerk legen. Zu der infrastrukturellen Perspektive tritt dabei die juristische: In seinen Anfängen galt das Internet vielen Netzaktivisten1 als ein staatlicher Rechtsetzung unzugänglicher Raum der Freiheit, den weder Staatsgrenzen noch die Gesetzgebung beschränken sollten. In seiner Unabhängigkeitserklärung des Cyberspace wies der Musiker und Internetaktivist John Perry Barlow (1996) der Regulierung und ihren Befürwortern die Tür: Governments of the Industrial World, you weary giants of flesh and steel, I come from Cyberspace, the new home of Mind. On behalf of the future, I ask you of the past to leave us alone. You are not welcome among us. You have no sovereignty where we gather.

Doch das „Hausrecht“ war umkämpft. Der Forderung nach einem staatlicher Regelung und Autorität nicht unterworfenen Raum standen Schutzanliegen entgegen, denen ebenfalls Gehör verschafft wurde. Das Urheberrecht war eines der ersten Rechtsgebiete, dessen Geltungsanspruch für das Internet und unter den Bedingungen der Digitalisierung vehement eingefordert wurde. Im Jahr der Unabhängigkeitserklärung von John Barlow wurde der erste internationale Urheberrechtsvertrag zur Anpassung der Regelungen an die Techniken der Digitalisierung und die Möglichkeiten der Werkverwertung im Internet geschlossen.

1 Zugunsten der besseren Lesbarkeit verwenden wir in diesem Buch die männliche Form, ohne andere Geschlechter auszuschließen. https://doi.org/10.1515/9783110338966-001

2  Einleitung

Die Verrechtlichung des Internets bahnte sich gegen alle Widerstände ihren Weg. Im Stile eines Casebooks möchten wir Ihnen die juristischen Grundlagen der Wissenswelt Internet sowie Inhalt und Reichweite ihres Rechts näher bringen. Dazu lassen wir, so oft es möglich ist, die Rechtsprechung dort zu Wort kommen, wo Infrastruktur und Recht jenseits der aus dem bibliothekarischen Alltag bekannten Rechtsstreitigkeiten wie etwa um elektronische Leseplätze oder Semesterapparate in Konflikt geraten sind. Wir werfen im ersten Kapitel einen Blick auf die Entstehung der Infrastruktur, ihre technische Basis sowie einzelne politische und gesellschaftliche Aspekte der Verflechtung von analoger und digitaler Welt: Die Wurzeln der Infrastruktur Internet lagen in der wissenschaftlichen Grundlagenforschung. Die Internetpioniere erforschten die Vernetzung von Rechnern, die ursprünglich gar nicht zu diesem Zweck konstruiert worden waren, und erfanden das Internet. Mit dessen Öffnung für die gesamtgesellschaftliche Nutzung entfalteten sich Nutzungsszenarien im Netz, mit denen zu Beginn des Entstehungsprozesses nicht zu rechnen war. Das Web als Werkzeug insbesondere der digitalen Wissensorganisation und -repräsentation wurde eine der Schlüsselanwendungen dieser neuen Infrastruktur. Im zweiten Kapitel schauen wir zunächst auf seine Entstehung und die ihm zugrundeliegenden Strukturen. Anschließend spannen wir den Bogen vom sogenannten Web 1.0 zum Web 2.0 bzw. Social Web. Wie sich das Web erschließen lässt, welche Wege zum Wissen im Web führen, schauen wir uns im dritten Kapitel näher an. Wir beschäftigen uns intensiv mit Suchmaschinen und ihren Wirkungsmechanismen. Danach wenden wir uns weiteren Suchdiensten zu. Im vierten Kapitel haben wir einige Schattenseiten des Internets herausgegriffen, auf die wir einen Lichtschein werfen, ohne sie jedoch ausleuchten zu können. Mit den Zukunftsaussichten für das Internet und einem Ausblick auf die Bibliotheken der Zukunft in der Wissenswelt Internet beschließen wir diesen Band.

Literatur Barlow, John Perry: A Declaration of the Independence of Cyberspace. 1996, https://www.eff. org/de/cyberspace-independence (30.06.2018). Dethloff, Nina, Georg Nolte und August Reinisch (Hrsg.): Freiheit und Regulierung in der Cyberwelt. Rechtsidentifikation zwischen Quelle und Gericht. Heidelberg, 2016.

Literatur 

Gutounig, Robert: Wissen in digitalen Netzwerken. Potenziale Neuer Medien für Wissensprozesse. Wiesbaden, 2015. Schack, Haimo: Urheber- und Urhebervertragsrecht. 8. Auflage. Tübingen, 2017. Stehr, Nico: Die Freiheit ist eine Tochter des Wissens. Wiesbaden, 2015.

3

1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert Geschichte und Gegenwart: eine Bestandsaufnahme Ein L und ein O sind die ersten Buchstaben, die über das Arpanet, den Vorläufer und „Urvater“ des Internets, in Kalifornien zwischen zwei mehr als 500 Kilometer voneinander entfernten Rechnern übertragen werden. Dann stürzt das System ab. Von „Login“ kommt nur „Lo“ beim Empfänger an, aber rückblickend betrachtet ist das Experiment, das eine Stunde später doch noch gelingt, ein durchschlagender Erfolg. Der Versuch, zwei Computer miteinander zu vernetzen, erscheint den beteiligten Wissenschaftlern um Leonard Kleinrock in Los Angeles und Stanford jedoch so wenig herausragend, dass er nicht einmal auf einem Foto festgehalten wird. Nur eine handschriftliche Notiz im Logbuch, das an der University of California in Los Angeles geführt wurde, dokumentiert die erste Nachrichtenübertragung über den Vorläufer des Internets. Dennoch markiert diese geglückte Vernetzung zweier wissenschaftlicher Großrechner die Geburtsstunde der kulturell wohl bedeutsamsten Entwicklung seit der Erfindung des Buchdrucks: Wir schreiben den 29. Oktober 1969.

Die Vernetzung als ein gemeinschaftliches Projekt von Wissenschaft und Politik Gut zwölf Jahre zuvor, am 4. Oktober 1957, hatte ein kugelförmiges Objekt mit einem Durchmesser von 58 cm zu einer wahrhaftigen Schockstarre in den USA geführt. Der Sowjetunion war es unerwartet früh gelungen, mit Sputnik 1 einen Satelliten in die Erdumlaufbahn zu bringen. Von nun an schien es nur noch eine Frage der Zeit zu sein, bis die USA mit Interkontinentalraketen bedroht würden. Als Reaktion auf den technologischen Vorsprung, wie ihn die Sowjetunion in diesem Herbst demonstrieren konnte, beschloss der Präsident der Vereinigten Staaten von Amerika, Dwight D. Eisenhower, eine Bildungs- und Forschungsoffensive, die das Land in die Lage versetzen sollte, alsbald wieder zur UdSSR aufzuschließen und über kurz oder lang die technologische Überlegenheit zurückzugewinnen.

https://doi.org/10.1515/9783110338966-002

6  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

Die Gründung der ARPA Im Zuge dieser Bildungs- und Forschungsoffensive wurde zu Beginn des Jahres 1958 die Advanced Research Projects Agency, kurz ARPA, gegründet. Sie erhielt den Auftrag, Forschungsvorhaben an der Speerspitze der Wissenschaft voranzubringen. Zu den Koordinationsaufgaben der „Forschungsfabrik“ ARPA gehörten die Vergabe von Forschungsaufträgen und die Arbeit an Projekten in der Technologieentwicklung, denen ein hoher Nutzen zugeschrieben wurde, deren Realisierung aber unsicher erschien. Obwohl die ARPA zum US-Verteidigungsministerium gehörte und von dort ihre Gelder bezog, arbeiteten für sie damals auf ausdrücklichen Wunsch von Präsident Eisenhower zivile Wissenschaftler an vielfach nicht militärischen Forschungsvorhaben auf dem Gebiet der Grundlagenforschung.

Die Idee eines Computernetzwerkes Eine Gruppe von Computerwissenschaftlern in den USA sah Computer nicht nur – wie in dieser Zeit allgemein üblich – als bloße Rechenmaschinen, sondern vielmehr als interaktive Helfer bei Entscheidungsprozessen und Instrumente zur Erweiterung menschlicher Fähigkeiten an. Von unschätzbarem Einfluss waren in diesem Forschungskontext das Interesse und die wissenschaftlichen Anstrengungen Joseph Lickliders, die der künstlichen Intelligenz galten: The hope is that, in not too many years, human brains and computing machines will be coupled together very tightly, and that the resulting partnership will think as no human brain has ever thought and process data in a way not approached by the information-handling machines we know today. (Licklider 1960, S. 4)

Das 1962 neu gegründete und in der Entwicklung des Arpanets maßgebliche Information Processing Techniques Office (IPTO) innerhalb der ARPA verfolgte diesen Forschungsansatz weiter und führte in den 1960er Jahren verschiedene Angehörige der neuen Forschergeneration unter dem Dach der kurz zuvor gegründeten ARPA zusammen. Um die Ressourcen der bereits vorhandenen Großrechner in den USA im Sinne eines „dynamic resource sharing“ (Kleinrock 2010, S. 26 f.) effizienter nutzen und die Zahl der zu betreibenden Computer aus Kostengründen so gering wie möglich halten zu können, entschieden sich die Computerforscher für ein Netzwerkexperiment, dessen Schlüsselszene vom 21. Oktober 1969 am Anfang dieses Buches steht.

Geschichte und Gegenwart: eine Bestandsaufnahme 

7

Eine Anekdote veranschaulicht die damalige Aufgeschlossenheit der ARPA und mit ihr der staatlichen Forschungsfinanzierung in den Vereinigten Staaten für Experimente aus dem Bereich der Grundlagenforschung: Der Leiter des IPTO, Robert Taylor, brauchte nur rund 20 Minuten, um den Leiter der ARPA, Charlie Herzfeld, von der Idee eines kleinen experimentellen Computernetzwerks, eben dem Arpanet, in einem informellen Gespräch zu überzeugen und dafür ein zusätzliches Budget von nicht weniger als einer Million US-Dollar einzutreiben. Anders als der Privatsektor, der noch eingangs der 1960er Jahre sowohl von Leonard Kleinrock als auch dessen Forschungskollegen Paul Baran vergeblich um Unterstützung im Aufbau eines Rechnernetzwerkes und in der Weiterentwicklung der Paketvermittlung als Verfahren der Datenübertragung gebeten worden war, zeigte sich die öffentliche Hand überaus aufgeschlossen und förderwillig. Sie legte damit den Grundstein für eine offene, kooperationsorientierte Forschung unter dem Dach der ARPA. Dennoch wurde von Beginn an die Beteiligung des amerikanischen Telekomanbieters American Telephone and Telegraph (AT&T) am Projekt verfolgt. Dessen Leitungen sollten auch wider die Vorbehalte im Unternehmen selbst gegen die Nachrichtenübermittlung im Netz genutzt werden. Anders als bei einer während des Telefonats stets aufrechterhaltenen Telefonverbindung wurde nach einem kostengünstigen Verfahren für die diskontinuierliche Datenübertragung zwischen den Computern gesucht, die die Leitungen und damit die Netzkapazität nur im Moment des tatsächlichen Datenflusses in Anspruch nehmen würde.

Die Paketvermittlungstechnik und das Maschennetz als zentrale Prinzipien des Arpanets Zwei Wissenschaftler, Paul Baran in den USA und Donald Watt Davies in Großbritannien, entwarfen dazu unabhängig voneinander Lösungen, die die Aufspaltung von Dateien in kleine Dateneinheiten und deren separate Versendung über die Datenleitungen ermöglichten. Eine mathematische Grundlage dafür hatte Leonard Kleinrock in seiner Dissertation zu Computernetzwerken, die Anfang der 1960er Jahre am Massachusetts Institute of Technology entstanden war, geschaffen. Wie man sich diese Lösung vorstellt, hieß sie auch: die Paketvermittlungstechnik. Während sich Baran, der zu dieser Zeit für die Research and Development (RAND) Corporation, eine Organisation zur Beratung der amerikanischen Streitkräfte, tätig war, jedoch die Ausarbeitung eines auch für den Fall eines nuklearen Angriffs ausfallsicheren Netzkonzepts für die Kommando- und Kommuni-

8  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

kationsstrukturen des Militärs zum Ziel gesetzt hatte, suchte der Physiker Davies am britischen National Physical Laboratory nach einer hocheffizienten Infrastruktur, die über große Entfernungen eine interaktive Datenverarbeitung zulassen würde. Zur Paketvermittlungstechnik trat ein zweites grundlegendes Prinzip des Netzbetriebs, das ursprünglich in der Sicherung von Nachrichtennetzen vor atomaren Angriffen Bewährung finden sollte: das Maschennetz. Es zeichnete sich durch seine dezentrale Organisation und Flexibilität aus. Anstelle von zentralen, aber verwundbaren Vermittlungs- und Verbindungsstellen, denen die Schaltung der Verbindungen oblegen und deren Läsion unausweichlich zu einem Verbindungsabbruch im Netz geführt hätte, sollte eine möglichst große Auswahl an alternativen, redundanten Verbindungswegen zu verschiedenen Punkten im Netz eröffnet werden, die je nach der konkreten Situation genutzt werden konnten. Drei bis vier redundante Verbindungen sollten nach Einschätzung der Wissenschaftler bereits die gewünschte Versorgungssicherheit herstellen können (siehe Braun 2010, S. 202). Die Paketvermittlungstechnik und das Maschennetz waren die zentralen Prinzipien zum Aufbau des Rechnernetzes, des Arpanets.

Der Aufbau des Arpanets Das Arpanet startete zunächst mit vier Teilnehmern von der amerikanischen Westküste bis Utah: dem Stanford Research Institute (SRI), der University of Utah (UTAH), der University of California, Los Angeles (UCLA) und der University of California, Santa Barbara (UCSB). Diese vier Einrichtungen waren zur Teilnahme ausgewählt worden, weil sie sich durch ihre Systemvoraussetzungen und ihr technisches Know-how in besonderer Weise als geeignet zeigten, den Aufbau und die Dienstleistungen des geplanten Computernetzwerkes zu unterstützen. Im Juli 1969 veröffentlichte die University of California in Los Angeles eine Pressemitteilung, in der sie den Aufbau des Arpanets ankündigte und Leonard Kleinrock dessen Ausgestaltung sowie Anwendungsszenarien aufzeigte. Mit einer Vision, die Wirklichkeit werden sollte, schloss er: As of now, computer networks are still in their infancy, but as they grow up and become more sophisticated, we will probably see the spread of ‘computer utilities’, which, like present electric and telephone utilities, will service individual homes and offices across the country. (Kleinrock, zitiert nach: Tugend 1969, S. 2)

Geschichte und Gegenwart: eine Bestandsaufnahme



9

Eine besondere Herausforderung dabei war, Computer verschiedener Hersteller trotz inkompatibler Hard- und Software miteinander kommunizieren zu lassen. Zur damaligen Zeit waren Rechner ausschließlich proprietäre Systeme, die auf „hauseigenen“ Betriebssystemen liefen und nicht zur Kommunikation untereinander eingerichtet waren. Als Lösung für dieses Kompatibilitätsproblem wurden den über Telefonleitungen zu koppelnden Großrechnern auf Vorschlag von Wesley Clark, Wegbegleiter von Kleinrock und Baran, relativ kleine Computer vorgeschaltet, die sogenannten Interface Message Processors (IMPs). Sie dienten dem gegenseitigen Austausch von Daten zwischen den über das Netz verbundenen Standorten. Dafür wurden die IMPs von der ARPA vorkonfiguriert. Aufgrund ihrer gleichen Bauart konnten sie untereinander kommunizieren. Die jeweilige Forschungseinrichtung musste vor Ort lediglich die Kommunikation zwischen den eigenen Rechnern, den sogenannten Hosts, und dem IMP herstellen. Durch diesen Aufbau sicherte sich die ARPA zugleich in technischer und wirtschaftlicher Hinsicht die Kontrolle über das Netz. Der IMP ist übrigens eine Vorform dessen, was heute als Router1 bezeichnet wird. Mit der Einrichtung des IMP-IMP-Subnetzes wurde kurz vor Weihnachten 1968 das Unternehmen Bolt, Benarek and Newman (BBN), eine Ausgründung des Massachusetts Institute of Technology, beauftragt, das sich in der Ausschreibung um die Leistungsvergabe durchsetzen und dadurch eine zentrale Position in Aufbau und Verwaltung des Netzes sichern konnte. Es sollte sich bald zeigen, dass BBN – auch durch das Verdienst von Robert Kahn, der zu dieser Zeit bei BBN tätig war und in der weiteren Entwicklung des Arpanets noch zu erwähnen sein wird – über die Zeit neben der ARPA zum „Kontroll- und Diagnosezentrum des Netzes“ (Kirpal und Vogel 2006, S. 140) avancierte. Nach weniger als neun Monaten lieferte das Unternehmen Ende August 1969 bereits den ersten IMP an die University of California in Los Angeles aus, der dort als erster des im Aufbau befindlichen Computernetzwerkes am 02. September 1969 an den Hostcomputer der Universität, einen Rechner der Serie SDS Sigma, erfolgreich angeschlossen wurde. Diese Verbindung markierte einen Meilenstein auf dem Weg zu einem gemeinsamen Computernetzwerk, das wenige Wochen später, am 29. Oktober 1969, seine Geburtsstunde feierte. Weitere IMPs für das Standford Research Institute, die University of California in Santa Barbara und die University of Utah wurden im September und Oktober 1969 bereitgestellt. 1 Router (['ruːtə(r)] oder ['raʊ̯ tə(r)]) sind Netzwerkkomponenten, die Daten zwischen mehreren Rechnernetzen weiterleiten können.

10  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

Den späteren Nutzern des Netzes, den Hostbetreibern, kam die Aufgabe zu, durch Entwicklung eines „Host-to-Host Protocol“ (Kleinrock 2010, S. 32) die Kommunikation zwischen den Hosts sowie die Kommunikation zwischen den IMPs und den Hosts zu gewährleisten. Dazu fand sich bei ihrem ersten Treffen in Standford im Sommer 1968 auf Einladung von Elmer Shapiro eine Gruppe aus Mitarbeitern der beteiligten Einrichtungen, die sogenannte Network Working Group (NWG), zusammen. In ihrer selbst organisierten Kooperation, die Shapiro koordinierte, prägte diese Gruppe aus hochqualifizierten und -motivierten Studienabsolventen eine Form des gleichberechtigten Miteinanders, die für eine offene, diskurs- und konsensorientierte, kooperative Netzkultur wegweisend war.

Die Entwicklung eines neuen Datenübertragungsprotokolls Nur wenige Monate nach der ersten Vernetzung zweier Großrechner entschied sich die ARPA für die Ausweitung des Projekts mit dem Ziel, das Netz einer größeren Zahl an Hosts zugänglich zu machen. Im März 1970 reichte das Arpanet bereits bis an die Ostküste der USA. Auf der Spring Joint Computer Conference der American Federation of Information Processing Societies (AFIPS) im Mai 1970 wurde die Arpanettechnologie in einer viel beachteten Session vorgestellt. Der Durst der ARPA-Forscher war noch lang nicht gestillt. Sie verfolgten alsbald die Idee, über Terminals auch Einrichtungen ohne leistungsfähige Großrechner den Zugang zum Netz zu verschaffen. In Vorbereitung auf diese Erweiterungen mussten die Möglichkeiten zur Kommunikation zwischen den vernetzten Computern, insbesondere zur Übertragung großer Dateien, verbessert werden. Es war damit an der Zeit, einen neuen Standard für den Dateitransfer zu erarbeiten. Im Juli 1972 war das neue Datenübertragungsprotokoll, das File Transfer Protocol (FTP), schließlich entwickelt und wurde 1973 implementiert.

Die E-Mail als Gegenstand des Interesses Anlässlich einer Präsentation des Arpanets und der darüber zugänglichen Ressourcen der Netzteilnehmer auf der International Conference on Computer Communications (ICCC) in Washington, D.C. im Oktober 1972, mit der die ARPA nach Optimierung der Kommunikationsmöglichkeiten zwischen den vernetzten Computern nun um weitere Mitstreiter im Forschungskontext des Pentagons warb, fand zum Erstaunen der Einladenden allerdings eine Anwendung das In-

Geschichte und Gegenwart: eine Bestandsaufnahme 

11

teresse der Gäste, die anfänglich gar nicht im Mittelpunkt der Veranstaltung stand: die E-Mail. Die erste ihrer Art hatte der Ingenieur Ray Tomlinson 1971 über das Arpanet verschickt. Als Einzelanwendung auf ein und demselben Computer in einem unabhängigen Computersystem war die E-Mail bereits in den 1960er Jahren bekannt. Noch zum Ausgang des Jahrzehnts hatte Lawrence Roberts jedoch, der 1966 als Programmleiter zur IPTO gekommen war, bezweifelt, dass die Übermittlung von Nachrichten zwischen Netzwerkteilnehmern eine hinreichende Motivation zum Aufbau eines entsprechenden Rechnernetzwerkes darstellen würde. Als es Ray Tomlinson Ende 1971 gelang, eine E-Mail über das Arpanet zu versenden, und er nach einigen Testmails an sich selbst es wagte, seinen Kollegen bei BBN die neue Anwendung per Mail vorzustellen, wurde Roberts schnell eines Besseren belehrt. Tomlinson entschied sich damals für das @-Symbol als Trennungszeichen zwischen dem Benutzer- und dem Rechnernamen, da das bereits seit dem Mittelalter existierende Zeichen sonst kaum verwendet wurde, in dem damals relevanten Schriftsatz der US-Fernschreiber, American Standard Code for Information Interchange, kurz ASCII, jedoch vorhanden war. Im Juli des Folgejahres fügte Tomlinson der E-Mail-Anwendung weitere Funktionalitäten zum Sortieren, selektiven Lesen, Weiterleiten und Beantworten von Nachrichten hinzu. Bereits im Jahr nach der Präsentation verursachte der E-Mail-Versand drei Viertel des Verkehrsaufkommens im Netz und galt sowohl dem Austausch über Forschungs- als auch private Themen. Die Nutzung des Netzwerks über seinen wissenschaftlichen Entstehungskontext hinaus war in vollem Gange.

Talk oder die Urform des Chats 1973 wurde eine weitere Kommunikationsform, die uns in ihrer Weiterentwicklung heute sehr vertraut ist, erfunden: Talk, eine Urform des Chats. Diese Anwendung ermöglichte damals erstmalig zwei gleichzeitig an einem Computer eingeloggten Nutzern den synchronen, textbasierten Nachrichtenaustausch untereinander über das System. Mit Usenet (Unix User Network) News stand zu dieser Zeit auch bereits eine Frühform der uns bekannten Foren, die bei Usenet „Newsgroups“ hießen, zum Einstellen und Diskutieren von Nachrichten und Meinungsäußerungen zur Verfügung. Heute ist Usenet weitgehend schon wieder verschwunden.

12  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

Die Reaktion der Computerhersteller und Telekommunikationsanbieter Die Präsentation des Arpanets und der zugrunde liegenden Technologie im Herbst 1972 sowie die rasante Ausdehnung des Netzes bis nach England und Norwegen stießen nicht zuletzt bei den am Markt aktiven Computerherstellern auf reges Interesse. Sie sahen sich durch die Neuentwicklung zum Schutz ihrer Vermarktungsinteressen dazu veranlasst, auf der Grundlage ihrer eigenen Produkte proprietäre Netzwerkarchitekturen zu entwickeln, die in Konkurrenz zum Arpanet treten sollten. Die am Projekt nicht beteiligten Telekommunikationsanbieter reagierten hingegen überwiegend mit Desinteresse und Vorbehalten gegen die Netztechnologie, die noch bis in die 1990er Jahre hinein geltend gemacht wurden. Von dem Geiste der offenen, kooperativen Entwicklergemeinschaft ließen sich die Unternehmen kaum inspirieren.

Die Entwicklung des Arpanets zur militärischen Nutzung? Die verbreitete These, das Arpanet sei als solches für die militärische Nutzung entwickelt worden, um auch nach einem nuklearen Angriff Teile des Computernetzes weiter betreiben und zur Kommunikation des US-Militärs nutzen zu können, darf ins Reich der Mythen verwiesen werden. Sie ist vermutlich Schlussfolgerung aus der Zielsetzung Paul Barans, ein ausfallsicheres Netzkonzept für den Fall eines Atomschlages zu entwickeln, die er mit der Idee der Paketvermittlungstechnik verfolgte. Zwar unterhielt das amerikanische Militär in der Luftraumüberwachung zu Beginn der 1950er Jahre das SAGE-Net, kurz für Semi-Automatic Ground Environment Network, das nach dem sogenannten Time-Sharing-Prinzip den gleichzeitigen Fernzugriff mehrerer Nutzer über Terminals auf einen Großrechner erlaubte. Das Pentagon förderte in der Mitte des 20. Jahrhunderts jedoch eine Vielzahl an Grundlagen- und Anwendungsforschungen, deren Einsatz für militärische Zwecke nicht angedacht war bzw. im Hintergrund stand. Den Wissenschaftlern der ARPA ging es vorrangig darum, die damals bereits existierenden, aber auf unterschiedlichen technischen Plattformen aufbauenden, wissenschaftlich genutzten Computersysteme miteinander zu verbinden. Das war, wie erwähnt, vor allem deshalb revolutionär, weil Computer zu dieser Zeit überwiegend als isolierte große Recheneinheiten und noch nicht als Kommunikationsinstrumente angesehen wurden. Eine Vernetzung von Computern war bei deren Herstellung und Programmierung ursprünglich nicht vorgesehen.

Geschichte und Gegenwart: eine Bestandsaufnahme 

13

Die Forscher der ARPA sahen in der Vernetzung der bereits bestehenden Computer jedoch ein Gebot der Stunde. Die Ressourcen der damals sehr kostspieligen Rechner konnten so besser genutzt werden: Kommunikation konnte auf digitalem Wege stattfinden und Doppelarbeit der einzelnen Forscher frühzeitig erkannt und vermieden werden. Durch das Netz war es möglich, dass sich einzelne Computer Arbeiten bzw. Funktionen wie die Bereitstellung von Software oder das Speichern von Dokumenten teilten. Bei komplexen Aufgaben erlaubte die Vernetzung, dass die Prozessor- und Speicherleistungen mehrerer separater Rechner genutzt wurden und dadurch die Hardwareanforderungen an die einzelnen Geräte sanken. Damals wie heute spricht man in diesem Fall von distributed computing, dem verteilten Rechnen.

Konkurrenz für das Arpanet: Die Entwicklung des CSNET und des NSFNET Zu Beginn der 1970er Jahre existierten nach dem Modell des Arpanets verschiedene, isolierte Netzwerke in staatlichen Institutionen und der Privatwirtschaft. Nur wenigen der 120 Informatikfakultäten in den USA war der Zugang zum eigentlichen Arpanet eingerichtet worden. Deshalb beschloss die National Science Foundation (NSF), eine maßgebliche Organisation der Wissenschaftsförderung in den USA, vergleichbar mit der Deutschen Forschungsgemeinschaft (DFG), ab 1981 den Aufbau eines akademischen Netzwerkes, des Computer Science Research Network (CSNET). Ihre Förderung knüpfte sie jedoch an die Bedingung, dass beim Aufbau des akademischen Netzwerkes zugleich der Austausch mit anderen Netzwerken, insbesondere dem Arpanet, bedacht und ermöglicht würde. Während der fünfjährigen Förderphase konnten bis 1986 nahezu alle Informatikfakultäten und zahlreiche private Forschungsinstitutionen an das CSNET angeschlossen werden. Um die Vernetzung weiter voranzutreiben und die Netzgeschwindigkeit zu beschleunigen, baute die NSF in den USA 1985 fünf untereinander vernetzte sogenannte Supercomputerzentren, die alle netzfähigen Computer gewissermaßen als Hauptleitung, die sogenannte Backbone, über sehr schnelle Leitungen miteinander verbinden konnten, auf. In der Einrichtung dieser als NSFNET bezeichneten Struktur entstanden in vielen Gebieten der USA regionale Netze, die kostenfrei an den Backbone angeschlossen werden durften. Auch in Europa waren zu dieser Zeit Netze im Aufbau begriffen wie zum Beispiel das 1982 zwischen den Niederlanden, Großbritannien, Schweden und Dänemark begründete European UNIX Network, kurz EUnet (siehe Braun 2010, S. 204). Das US-amerikanische NSFNET sollte sich anschicken, das „Ur-Internet“, das Arpanet, mit seinen 25-fach schnelleren Leitungen

14  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

technisch zu überholen. Die dem Arpanet zugrunde liegenden Strukturprinzipien der Vernetzung sind jedoch bis heute maßgeblich geblieben. Ihre Erforschung und Entwicklung waren nur durch eine massive und unbürokratische, staatliche Förderung von Grundlagenforschung auf dem Gebiet der Computerwissenschaften möglich geworden. 1991 wurde das CSNET abgeschaltet; vier Jahre später wurde das NSFNET eingestellt. Beide Netze wurden schlichtweg nicht mehr gebraucht.

Die Vernetzung parallel existierender Netzwerke mittels TCP/IP Den Arpanetveteranen Robert Kahn und Vinton Cerf gelang es zu Beginn der 1980er Jahre, auf der Grundlage der von ihnen in den Jahren 1973 und 1974 formulierten Prinzipien der Netzwerkvernetzung den Weg zur Übertragung umfangreicher Daten zwischen den heterogenen Netzwerken zu ebnen. Ihrem Lösungsansatz lag die Idee der Gateway-Rechner zugrunde: Diese Rechner sollten als Schnittstellen zwischen den Netzwerken mit der Funktionalität programmiert werden, dass sie in den zu verbindenden Netzwerken – sozusagen bidirektional – als Host in Erscheinung treten konnten. Sie wurden als Adapter konzipiert, in denen die „Übersetzungstätigkeiten“, zum Beispiel die Anpassung der Datenpaketgrößen, vollzogen werden sollten, ohne dass die Inhalte der Daten selbst von ihnen gelesen wurden. Technische Grundlage für den Datentransport war das von Robert Kahn und Vinton Cerf entwickelte Transmission Control Protocol (TCP), das die zu übertragenden Daten aufbereiten und die Routinen auf Übertragungsfehler untersuchen konnte. Das Internet Protocol (IP) diente dem Routing zwischen den Netzwerkrechnern. Beide Entwicklungen, das TCP als Transportdienst, das IP als Kommunikationsdienst (siehe Meinel und Sack 2012, S. 3), waren zu Beginn des Jahres 1983 als einheitliches Protokoll offiziell technisch einsetzbar; das Arpanet schaltete in eben diesem Jahr vom bisherigen Network Control Protocol (NCP) auf das TCP/IP um.

Zwei Modelle im Wettbewerb: TCP/IP versus OSI Das TCP/IP-Modell als Grundlage für die Vernetzung parallel existierender Netzwerke war keineswegs ein alternativloses Konzept. Vielmehr hatte die International Organization of Standardization (ISO) seit Mitte der 1970er Jahre mit der Entwicklung eines eigenen Referenzmodells begonnen, dem sogenannten OSI-

Geschichte und Gegenwart: eine Bestandsaufnahme



15

Referenzmodell (Open Systems Interconnection Model). Es wurde 1984 von der ISO als Standard veröffentlicht und war mit TCP/IP nicht kompatibel. Das relativ komplizierte OSI-Modell wurde von vielen nationalen Regierungen, auch von deutschen Netzwerkpolitikern, als Grundlage für ein europäisches Forschungsnetz, welches als Gegenentwurf zum später als das Internet bekannte Netz angedacht wurde, favorisiert. Das TCP/IP hingegen galt nur als pragmatisches Übergangsmodell, das keine besondere staatliche Förderung verdiente. Die TCP/IP-Netzgemeinschaft allerdings lehnte das OSI-Modell ab, da es stark abstrahierend war und als reiner Entwurf anders als TCP/IP nicht auf praktischen Erfahrungen, sondern nur auf theoretischen Überlegungen beruhte. Von den Internetpionieren wird berichtet, dass sie das OSI-Modell als Produkt der Bürokratie betrachteten und sich durch die Vertreter der OSI-Gemeinschaft herablassend behandelt fühlten. Als 1988 selbst die US-Regierung im Widerspruch zum abtrünnigen US-Verteidigungsministerium, das an TCP/IP festhielt, mehrheitlich das OSI-Modell unterstützte, schien sich TCP/IP nach einer kurzen Erfolgsgeschichte auf das Abstellgleis der Technikgeschichte zu bewegen. Gemäß einer Auflage des National Institute for Standards and Technology (NIST), das zum US-Handelsministerium gehörte, waren Regierungseinrichtungen nun angehalten, ausschließlich ISO-protokollfähige Rechner anzuschaffen. Zwar waren sie nicht zur Verwendung der ISO-Protokolle verpflichtet. Durch den Markteingriff der Handelslenker sollte jedoch der Wettbewerber des TCP/IP eine große Verbreitung erlangen. Die US-Universitäten hielten allerdings vielfach an TCP/IP, das, integriert in Unix, Bestandteil des weltweit am meisten verbreiteten Computerbetriebssystems im Wissenschaftsbetrieb war, fest. Von Studierenden betriebene Ausgründungen lieferten ebenfalls Produkte mit implementiertem TCP/IP aus. So hatte an der Stanford Business School 1982 eine Gruppe von Absolventen die Firma Standford University Network (Sun) Microsystems gegründet, die ihre leistungsfähigen Rechner, die sogenannten Sun Workstations, mit dem in der Hochschullandschaft wichtigen Betriebssystem Berkeley-Unix inklusive TCP/IP vertrieb. Mit dem kommerziellen Erfolg der Sun Workstations nahm auch die Internetverbreitung an den Universitäten rasch zu und setzte einen Kontrapunkt zur politischen Unterstützung für das OSI-Modell. Die Auflage des NIST führte letztlich nur zu steigenden Auslieferungszahlen von Computern mit ISO-konformem Code insbesondere an Regierungseinrichtungen in den USA. Benutzt wurden die ISO-Protokolle anders als TCP/IP jedoch kaum. Neben den Sun Workstations galt auch das Ethernet als maßgeblicher Katalysator für die Verbreitung von TCP/IP. Die zu Beginn der 1980er Jahre zum

16  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

Trend gewordenen lokalen Netzwerke (LAN) in Universitäten wurden durch die neue Ethernettechnologie beflügelt. Das Ethernet, das seit 1973 von Bob Metcalfe und seinem Kollegenkreis im Xerox Palo Alto Research Center (Xerox PARC) entwickelt wurde, gestattete die schnelle und relativ kostengünstige Verbindung von Computern innerhalb einer Organisation über leistungsfähige Koaxialkabel. Die kurzfristige Marktverfügbarkeit von TCP/IP-kompatiblen Ethernethardwarekomponenten erlaubte einen raschen zahlenmäßigen Ausbau der Internetrechner mit akzeptablen Netzgeschwindigkeiten bei überschaubaren Kosten. Als ab den 1980er Jahren Ethernetlösungen kommerziell von Xerox und später von dem von Metcalfe gegründeten Unternehmen 3Com vertrieben wurden, rüsteten zahlreiche Universitäten in den USA mit finanzieller Unterstützung der DARPA, wie die ARPA ab 1972 nach einer Namensänderung hieß, ihre Campus-PCs mit dieser Technik für lokale Netzwerke aus. Die Zahl der Computer, die nun in den einzelnen Einrichtungen Zugang zum Internet hatten, vervielfachte sich. Der Kreis der Internetnutzer wuchs beträchtlich. Die Offenheit des Internets bezüglich der unbeschränkten Dokumentation, Softwarenutzung und Softwareentwicklung belebte die Verbreitung und die Popularität des Internets so sehr, dass die Verfechter des OSI-Modells letztlich das Nachsehen hatten, zumal es kaum Software gab, die auf das OSI-Modell aufsetzte. Das vergebliche Verfechten der OSI-Alternative bedeutete für die Bundesrepublik, dass die flächendeckende Internetanbindung der Universitäten durch das Deutsche Forschungsnetz mit dem Jahr 1990 erst relativ spät begann und die bis dahin aufgewendeten Fördergelder in Höhe von umgerechnet rund 50 Millionen Euro (siehe Scholz 2004, S. 45) für die Forschungsförderung des OSIModells praktisch in den Sand gesetzt worden waren. Auch fanden sich kaum deutsche Vertreter in den selbstverwalteten Standardisierungs- und Entwicklungsgremien des noch jungen Internets, was Deutschland wenige Mitsprachemöglichkeiten bei der zukünftigen Entwicklung des Netzes gab. Die Universitäten, die bereits vor 1990 einen Anschluss an das Internet wie zum Beispiel die Universität Dortmund betrieben hatten, taten dies ohne staatliche Förderung. Kahn und Cerf lösten mit dem TCP/IP-Konzept zwei wesentliche Probleme der Netzübertragung: Trotz möglicher Netzwerkunzuverlässigkeit wurde ein Datenverlust bei der Übertragung verhindert. Die bereits vorhandenen, regionalen Netzwerke unterschiedlicher Größe, Form und Hardware konnten zudem trotz ihrer Heterogenität mit TCP/IP relativ mühelos verbunden werden. So entstand aus einzelnen autonomen Netzen ein dezentraler Netzverbund, bei dem jedes Netz seine Autonomie behalten durfte. Durch den „Klebstoff“ TCP/IP, der nun Computernetze unterschiedlicher Art miteinander verband, wurde ein „Meta-

Geschichte und Gegenwart: eine Bestandsaufnahme 

17

Netzwerk“ (Kirpal und Vogel 2006, S. 142) aufgebaut, das die Eigenständigkeit der einzelnen am Netzwerk beteiligten Computer aufrechterhielt.

Abb. 1: Meilensteine auf dem Weg ins Internetzeitalter (eigene Darstellung).

Die Standardsetzung für das Netz Der Weg zu den einheitlichen und allgemein akzeptierten Standards während der Entwicklung des Internets verdient ein besonderes Augenmerk. Wer auch immer in der damals zahlenmäßig überschaubaren Entwicklergemeinde eine Idee hatte, formulierte sie in einem sogenannten RFC, Request for Comments, und schickte dieses RFC-Dokument an die Community. Jedes Mitglied der Community, das an der Netzwerkverknüpfung arbeitete, konnte diese Idee verwenden, daran Änderungen vornehmen oder Diskussionsbeiträge hinzufügen, bis schließlich durch einen allgemeinen Konsens ein verbindlicher Standard erreicht war, der von einem RFC-Editor in die abschließende schriftliche Form gebracht wurde. Durch dieses Vorgehen war ein demokratischer, das Wissen und die Kreativität der Beteiligten vereinender Entscheidungsfindungsprozess ge-

18  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

währleistet, bei dem der Schutz des geistigen Eigentums hinter das Interesse an der Weiterentwicklung des Projekts zurücktrat. Im Jahre 1986 wurde die Internet Engineering Task Force (IETF) gegründet, um die Internetstandards weiter zu pflegen und zu entwickeln. Die IETF ist bis heute eine lose Vereinigung von freiwilligen Experten, die unter dem Schirm der Internet Society, kurz ISOC, auf den verschiedenen Feldern wie zum Beispiel der Anwendungsentwicklung, dem Netzmanagement und der Netzsicherheit tätig ist. Die 1992 gegründete Nichtregierungsorganisation ISOC veröffentlicht heute die RFCs und bildet die Dachorganisation der für die Internetstandards und Internetressourcenverwaltung zuständigen Gremien. In Anerkennung für dieses jahrzehntelange, fruchtbare Zusammenwirken schrieb Kleinrock (2010, S. 31, Fn. 15): It is remarkable how effective the RFCs, the NWG and the IETF have served the network community. In spite of the fact that they are loosely structured and involve large numbers of outspoken professionals, they have been able to move forward on a number of critical Internet issues.

Die IP-Adresse oder die eindeutige Identifizierung im Netz Mit Einführung von TCP/IP ab dem Jahre 1983 konnten nun heterogene Computernetze, soweit sie einen Router besaßen, miteinander kommunizieren und ein weltweites Datenkommunikationsnetz generieren. Ein wichtiger Baustein von TCP/IP war dabei die Adressierung der angeschlossenen Geräte. Um eindeutig identifizierbar zu sein, musste sich jegliche Hardware, die an das Internet angeschlossen war, ein eindeutiges Kennzeichnen – sozusagen wie ein Autonummernschild – zuweisen lassen, die sogenannte IP-Adresse. Die IP-Adresse ist auch heute noch maßgeblich für die Identifizierung im Internet. Mit ihr kann sich jeder Rechner, der über eine Netzwerkkarte verfügt, im Internet identifizieren und hat damit die Möglichkeit, am Netzgeschehen teilzunehmen. Vergeben wird die IP-Adresse von der „Zulassungsstelle“ des Internets, der Internet Corporation for Assigned Names and Numbers (ICANN), einer nichtkommerziellen Organisation mit Sitz in Los Angeles, Kalifornien, auf die wir später noch zu sprechen kommen werden.

Geschichte und Gegenwart: eine Bestandsaufnahme



19

Ein Name für das bald weltumspannende Netz etabliert sich: Internet In Anlehnung an die Wortschöpfung „internetworking“, die aus dem Fachterminus „interconnection of networks“ hervorgegangen war (Kleinrock 2010, S.32), und die Bezeichnung „Internet Protocol“ wurde für das stetig wachsende Netz schließlich der Begriff „Internet“ gebräuchlich. Das Ziel der Ausweitung des Projekts, wie es die ARPA an der Jahrzehntwende 1969/70 formuliert hatte, war erreicht: Das „Network of Networks“, das Meta-Netzwerk sozusagen, dehnte sich aus und verband nun auch staatliche und private Netzwerke. Die in Europa und Asien in den 1980er Jahren parallel aufgebauten, regionalen Forschungsnetze konnten mittels des einheitlichen TCP/IP-Protokolls problemlos an die US-amerikanische Netzstruktur angeschlossen werden. Die Glasfasertechnik ermöglicht ab 1988 eine deutliche Verbesserung bei der kabelgebundenen Datenübertragung zwischen den USA und Europa. Die positiven Erfahrungen der Computerwissenschaftler mit dem CSNET und dem späteren NSFNET, zu denen Studierende und Forschende aller Disziplinen Zugang erhalten hatten und deren zunehmende weltweite Vernetzung schließlich im Jahre 1990 die Abschaltung des Arpanets gut zwanzig Jahre nach dessen Gründung veranlasste, bewiesen nicht nur der US-Forschungsadministration, dass der Netzzugang den Wissenschaftsbetrieb über weite Entfernungen hinweg durch den kollegialen Austausch und den zeitnahen Diskurs über wissenschaftliche Erkenntnisse und Publikationen beflügeln konnte. Die nationalen Grenzen wichen. Es entstand eine globale Netzstruktur, an der Wissenschaftler und Studierende als Rezipienten, aber auch als aktive Wissensproduzenten teilhaben konnten. Als Ergebnis eines jahrelangen wissenschaftlichen Forschungs- und Entwicklungsprozesses blieb das Internet zunächst fest in wissenschaftlichen Kreisen verankert, wurde aber schließlich zu Beginn der 1990er Jahre nach intensiven Diskussionen für die gesamtgesellschaftliche Nutzung geöffnet. Dem fortschreitenden Wandel von der industriellen zur informationellen Gesellschaft wurde damit der Weg geebnet.

Al Gore: Der politische Ziehvater des Internets Der Aufbau dieser neuartigen Netzstruktur wäre ohne maßgebliche politische Unterstützung und Förderung nicht möglich gewesen. Als politischer Ziehvater des Internets gilt heute der damalige US-Senator, spätere US-Vizepräsident und Friedensnobelträger Arnold „Al“ Gore. Bei ihm fand Leonard Kleinrock mit seinem Konzept für den Ausbau des Internets, formuliert im Bericht „Toward A National Research Network“ (1988), Gehör. Mit dem von Al Gore, damals

20  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

Senator für den Bundesstaat Tennessee, eingebrachten und vom republikanischen Präsidenten George Bush unterzeichneten Gesetz, dem High Performance Computing Act von 1991, setzten die Vereinigten Staaten den Aufbau einer nationalen Informationsinfrastruktur, die künftig jeder Bürger nutzen können sollte, auf ihre Agenda. Der Ausbau von Hochgeschwindigkeitsnetzen und die Förderung von Hard- und Softwareentwicklung in Forschungszentren sollten die Verbreitung des Internets beschleunigen und so der Wissenschaft, der Bildung und auch der US-amerikanischen Wirtschaft zu einem neuen Höhenflug verhelfen. Spätestens als Al Gore im Jahre 1993, nun im Amt des US-Vizepräsidenten, im Positionspapier „National Information Infrastructure: Agenda for Action“ Netzwerke zur Grundlageninfrastruktur für Wissenschaft, Wirtschaft, Bildung und Kultur erklärte, war ein Großteil der Weltgemeinschaft alarmiert, den Anschluss an die USA nicht zu verlieren. Ähnlich wie beim Sputnik-Schock 1957 versuchten nun die Industrienationen, mit dem Taktgeber USA Schritt zu halten, der in Sachen Vernetzung meilenweit vorausgeeilt war.

Die Verbreitung des Internets Um 50 Millionen Teilnehmer zu erreichen, brauchte das Radio 38 Jahre, das Fernsehen schaffte dies bereits in 13 Jahren. Bedeutend schneller erklomm das Internet diese Marke: In nur rund fünf Jahren wurde es zum weltweit verfügbaren Datennetz, das als Informations- und Kommunikationsmedium 50 Millionen Teilnehmer erreichte. Die digitale Revolution, die in den 1940er Jahren mit der Entwicklung und Verbreitung der Mikroelektronik und des Computers seinen Ausgang nahm, wurde durch das Internet um ein Transport- und Kommunikationsmedium erweitert, das große Teile der Weltbevölkerung miteinander zu vernetzen begann. Weit über den Forschungskontext hinaus hielt das Internet mit seiner Freigabe Einzug in Milliarden privater Haushalte, in Unternehmen, Bildungseinrichtungen und staatliche Verwaltungen. Die Zahl der aktiven Internetnutzer weltweit ist bis 2017 auf 3,6 Milliarden Menschen angewachsen. Der Anteil an der Gesamtweltbevölkerung betrug damit rund 48 Prozent. Aktuellen Prognosen zufolge werden es im Jahr 2021 weltweit über 4 Milliarden Nutzer mit einem Anteil an der Weltbevölkerung von knapp 54 Prozent sein. Mehr als 700 Millionen, das heißt rund 17 Prozent aller Internetnutzer weltweit, leben in Europa. Über 85 Prozent der Europäer nutzten 2017 das Internet. In Deutschland nutzten es 91 Prozent der Bevölkerung. Im Jahre 2001 waren es lediglich 37 Prozent. In Nordamerika, wo das Computer-

Geschichte und Gegenwart: eine Bestandsaufnahme 

21

netzwerk seinen Ursprung hatte, sind heute nur noch rund acht Prozent der Internetnutzer beheimatet. Kommen wir an dieser Stelle nun zu unserem ersten Fall aus der Rechtsprechung, der sich mit der grundlegenden Frage nach der Bedeutung des Internets für unsere Lebensgestaltung beschäftigt. Dazu konnte sich der Bundesgerichtshof, das oberste Gericht der ordentlichen Gerichtsbarkeit und letzte Instanz in Zivil- und Strafsachen in der Bundesrepublik, anlässlich einer Schadensersatzklage gegen ein Telekommunikationsunternehmen am Anfang des Jahres 2013 äußern. Der Sachverhalt war recht überschaubar: Der Kläger wandte sich gegen einen von seinem Telekommunikationsanbieter zu verantwortenden, längere Zeit andauernden Ausfall seines Internetanschlusses. Er hatte sich deshalb bereits veranlasst gesehen, bei einem neuen Anbieter einen Vertrag abzuschließen. In der Zeit des Nutzungswegfalls, die sich über zwei Monate erstreckte, war er für das Telefonieren und die Internetnutzung überwiegend auf sein Mobilfunktelefon ausgewichen. Im Rechtsstreit mit seinem alten Telekommunikationsanbieter begehrte er, abgesehen vom Ausgleich der Mehrkosten, die als Folge des neuen Vertragsschlusses und der Nutzung des Mobilfunktelefons entstanden waren, auch Schadensersatz wegen des Wegfalls der Möglichkeit, seinen bisherigen Internetanschluss für die Festnetztelefonie und den Internetverkehr in den zwei Monaten uneingeschränkt zu nutzen. Gerichtlich war insbesondere die Frage zu klären, ob wegen des Nutzungswegfalls dem Kläger ein Gut, nämlich das Internet, nicht zur Verfügung stand, dessen Verfügbarkeit für die eigenwirtschaftliche Lebenshaltung von zentraler Bedeutung ist. Zu den Voraussetzungen eines Schadensersatzes für den Ausfall der Nutzungsmöglichkeit erklärte der Bundesgerichtshof in seinem Urteil vom 24. Januar 2013, Aktenzeichen III ZR 98/122 zunächst: [...] Der Ersatz für den Verlust der Möglichkeit zum Gebrauch einer Sache muss grundsätzlich Fällen vorbehalten bleiben, in denen die Funktionsstörung sich typischerweise als solche auf die materiale Grundlage der Lebenshaltung signifikant auswirkt. Andernfalls bestünde die Gefahr, unter Verletzung des § 253 BGB die Ersatzpflicht auf Nichtvermögensschäden auszudehnen. Auch würde dies mit den Erfordernissen von Rechtssicherheit und Berechenbarkeit des Schadens in Konflikt geraten […]. Deshalb beschränkt sich der Nutzungsausfallersatz auf Sachen, deren ständige Verfügbarkeit für die eigenwirtschaftliche Lebenshaltung typischerweise von zentraler Bedeutung ist […]. (Rn. 9)

Der Bundesgerichtshof betonte, dass bei der Prüfung eines ersatzfähigen Schadens wegen Fortfalls der Nutzungsmöglichkeit ein strenger Maßstab anzulegen sei. Eine Entschädigungspflicht für den Nutzungsausfall eines Wohnmo2 Die Randnummern zu den in diesem Band herangezogenen Gerichtsentscheidungen orientieren sich an den Angaben in der Datenbank Juris.

22  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

bils, eines privaten Schwimmbads oder auch eines Pelzmantels hatte der Bundesgerichtshof in der Vergangenheit abgelehnt. Anders hatte er zum Beispiel bei Nutzungsausfall eines Kraftfahrzeuges entschieden (siehe Rn. 8). Der Internetnutzung maß er nun ein vergleichbares Gewicht bei: Die Nutzbarkeit des Internets ist ein Wirtschaftsgut, dessen ständige Verfügbarkeit seit längerer [….] Zeit auch im privaten Bereich für die eigenwirtschaftliche Lebenshaltung typischerweise von zentraler Bedeutung ist und bei dem sich eine Funktionsstörung als solche auf die materiale Grundlage der Lebenshaltung signifikant auswirkt. Das Internet stellt weltweit umfassende Informationen in Form von Text-, Bild-, Video- und Audiodateien zur Verfügung. Dabei werden thematisch nahezu alle Bereiche abgedeckt und verschiedenste qualitative Ansprüche befriedigt. So sind etwa Dateien mit leichter Unterhaltung ebenso abrufbar wie Informationen zu Alltagsfragen bis hin zu hochwissenschaftlichen Themen. Dabei ersetzt das Internet wegen der leichten Verfügbarkeit der Informationen immer mehr andere Medien, wie zum Beispiel Lexika, Zeitschriften oder Fernsehen. Darüber hinaus ermöglicht es den weltweiten Austausch zwischen seinen Nutzern, etwa über E-Mails, Foren, Blogs und soziale Netzwerke. Zudem wird es zunehmend zur Anbahnung und zum Abschluss von Verträgen, zur Abwicklung von Rechtsgeschäften und zur Erfüllung öffentlich-rechtlicher Pflichten genutzt (von der unübersehbaren Vielfalt z.B. nur: Fernabsatzkäufe, Hotel-, Bahn- und Flugbuchungen, Erteilung von Überweisungsaufträgen, Abgabe von Steuererklärungen, An- und Abmeldung der Strom-, Gasund Wasserversorgung sowie der Müllabfuhr, Verifikation von Bescheinigungen). Nach dem unbestritten gebliebenen Sachvortrag des Klägers bedienen sich nahezu 70 % der Einwohner Deutschlands des Internets, wobei dreiviertel hiervon es sogar täglich nutzen. Damit hat sich das Internet zu einem die Lebensgestaltung eines Großteils der Bevölkerung entscheidend mitprägenden Medium entwickelt, dessen Ausfall sich signifikant im Alltag bemerkbar macht. Die Unterbrechung des Internetzugangs hat typischerweise Auswirkungen, die in ihrer Intensität mit dem Fortfall der Möglichkeit, ein Kraftfahrzeug zu nutzen, ohne weiteres vergleichbar sind. (Rn. 17)

Der Bundesgerichtshof sprach dem Kläger den geltend gemachten Schadensersatzanspruch zu und ließ sich dabei auch nicht von dem Gegenargument beirren, dass der Kläger für die Internetnutzung sein Handy heranziehen konnte (siehe Rn. 19).

Das Internetrecht: eine Querschnittsmaterie im Mehrebenensystem Die rasante Verbreitung und sich stetig beschleunigende, technische Entwicklung, aber auch die Internationalität des Internets forderten die nationalen Rechtsordnungen heraus. Die Nutzungsszenarien wurden zunehmend komplexer, vernetzter und differenzierten sich aus. Nach wie vor kann das Recht bisweilen mangels vorhandenen Instrumentariums nur zeitversetzt auf die Anforderungen reagieren, die die Rechtswirklichkeit stellt. Hinzu kommen Defizite in

Geschichte und Gegenwart: eine Bestandsaufnahme



23

der Rechtsdurchsetzung, die insbesondere durch die Territorialität der Rechtsordnungen begründet sind. Das Internetrecht gilt als Querschnittsmaterie, die seit Beginn der 1990er Jahre an Bedeutung gewonnen hat. Internetspezifische Regelungen verorten sich vor allem im Telekommunikations- und Telemedienrecht. Darüber hinaus finden sich relevante Bestimmungen in vielen weiteren Rechtsgebieten wie dem allgemeinen Zivilrecht, Urheberrecht, Wettbewerbsrecht, Datenschutzrecht, Jugendschutzrecht oder Strafrecht. Das Internetrecht bewegt sich zudem im Mehrebenensystem: Unionsrechtliche Vorgaben spielen bei der Ausgestaltung des Internetrechts eine entscheidende Rolle. So erlässt der EU-Gesetzgeber zum Beispiel Richtlinien, die durch die Mitgliedstaaten – auch unter Achtung der Europäischen Grundrechte-Charta – in innerstaatliches Recht umzusetzen sind und der Harmonisierung des Rechts in der Europäischen Union dienen. Hinzu treten internationale Regelwerke, die zum Beispiel im Urheber- oder Strafrecht von Bedeutung sind. Freilich läge es nahe, auf ein globales Medium wie das Internet mit einem globalen Internetrecht zu antworten. Die Staatengemeinschaft ist von einem Konsens jedoch weit entfernt: Sowohl über die Notwendigkeit einer Internetrechtsordnung als auch deren Regelungsgehalt besteht bislang keine Einigkeit. Angesichts der unterschiedlichen Regelungssysteme und Rechtstraditionen in den einzelnen Ländern und ohne eine Annäherung vor allem in zentralen gesellschaftspolitischen Fragestellungen wie der des (freien) Informationszugangs erscheint die Schaffung einer globalen Internetrechtsordnung ein kaum zu verwirklichendes Ziel (siehe Haug 2016, Rn. 11 ff.).

Die kommerzielle Nutzung des Internets beginnt Nach der Freigabe des Internets für die kommerzielle Nutzung im Jahre 1992 dauerte es nicht lange bis zu den ersten Gründungen von Unternehmen, deren Geschäftsmodell ausschließlich auf das Internet ausgerichtet war. Man sprach in Abgrenzung von bisherigen Wirtschaftszweigen, die vornehmlich der Produktion von Gütern verschrieben waren, von der sogenannten „New Economy“, die sich auf die Erbringung von technologiebasierten Dienstleistungen konzentrierte. Steigende Aktienkurse in den 1990er Jahre schufen für viele kreative StartUps in der Technologiebranche die finanzielle Grundlage. Wagten es doch nun auch vermehrt Privatanleger, ihr Geld in Aktien vielversprechender Neugründungen und aufstrebender Unternehmen in der IT-Branche zu investieren. An der Deutschen Börse wurden die 50 nach Marktkapitalisierung und Börsenum-

24  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

sätzen größten Unternehmen der New Economy im Index Nemax50 gelistet, der seinen Höchststand am 10. März 2000 mit 9.665,81 Punkten verzeichnete. Der Anfangswert des Index hatte im Juli 1999 noch bei 1.000 Punkten gelegen. Wären die „Finanzfantasien der Aktienmärkte“ (Stuhr 2011, S. 88) nicht mit der Jahrhunderttechnologie Internet zusammengetroffen, hätte es die New Economy in der ihr eigenen Dynamik vermutlich nicht gegeben. Nur gut zwei Jahre später fiel der Nemax unter die Marke von 1.000 Punkten und wurde in der Mitte des Jahres 2003 durch seinen Nachfolger, den TecDax, abgelöst. Die sogenannte Dotcomblase war geplatzt: Insolvenzen und Arbeitsplatzverluste griffen um sich. Rund 600 Milliarden Euro gingen allein in Deutschland durch den Zusammenbruch verloren. Angesichts dieser Erfahrung wuchs in der Wirtschaft die Einsicht, dass die New Economy nur im Zusammengehen mit der konventionellen, aber markterprobten „Old Economy“ nachhaltigen Erfolg bringen könne. Für die New Economy mussten ebenfalls die bisherigen Marktgesetze gelten: Ideen müssen nicht nur erdacht, sondern auch in Produkte oder Dienstleistungen umgesetzt und von soliden Geschäftsmodellen begleitet werden, um damit zumindest mittelfristig einen Gewinn erwirtschaften zu können. In der Rückschau war das Platzen der Dotcomblase eine Nagelprobe für die Zukunftsfähigkeit der in der New Economy entwickelten Geschäftsmodelle. Tatsächlich wurden Mitte der 1990er Jahre auch Internetunternehmen und -anwendungen ins Leben gerufen, denen die Krise nur wenig anhaben konnte: Der Onlinehändler Amazon nahm seine Aktivitäten ebenso wie die Suchmaschine Yahoo im Jahr 1994 auf. Die Auktionsplattform ebay folgte 1995 und die innovative Suchmaschine Google kam im Jahr 1998 auf den Markt. Der Erfolg dieser Geschäftsideen hing in einer Zeit, in der die Datenübertragungstechnik noch schnell an ihre Kapazitätsgrenzen stieß, nicht von der Übertragung umfangreicher Datenmengen ab. Darin unterschieden sie sich von vielen Innovationen, die die Start-Ups der New Economy auf den Markt bringen wollten. In der Konsolidierungsphase nach dem Zusammenbruch um die Jahrtausendwende zählten vorwiegend Dienstleistungsunternehmen mit interaktiven Angeboten zu den wichtigsten Neugründungen: Skype ging mit seiner Software für die Internettelefonie 2003 an den Start, das Videoportal Youtube 2005. Facebook trat als globales soziales Netzwerk 2004 auf die Internetbühne. Der Microbloggingdienst Twitter bot ab 2006 seine Dienste im Internet an. Diese Neugründungen waren Ergebnis und Symbol zugleich für die Weiterentwicklung des Internets und seiner Dienste, die durch verbesserte technische Rahmenbedingungen möglich wurde. Kommunikation, Interaktion und Kollaboration kennzeichneten ab Mitte der 2000er Jahre mehr und mehr das Nutzungsverhal-

Geschichte und Gegenwart: eine Bestandsaufnahme 

25

ten im Internet, dessen Beliebtheit die Krise der New Economy keineswegs geschmälert hatte.

Bezahlschranken im Internet Lange Zeit galt das Internet als Beispiel par excellence einer sogenannten Gratiskultur, für dessen Services und Inhalte kaum jemand bereit war, Geld zu bezahlen. Webseitenbetreiber mussten und müssen Umwege gehen, um die Aufwendungen für ihre Webdienste zu refinanzieren, zum Beispiel durch das Schalten von Onlinewerbung. Erst in den letzten Jahren scheint der sogenannte Paid Content etwas mehr Akzeptanz zu finden. Allerdings sahen 2018 zum Beispiel von den 699 deutschen Zeitungswebsites 205 überhaupt die Verwendung von Bezahlsystemen vor. Vielfach werden die vorhandenen Paid-Content-Angebote zudem schlecht angenommen, weil ihre Bezahlsysteme als unübersichtlich und unsicher erachtet werden. Laut einer Umfrage des Branchenverbands der deutschen Informations- und Telekommunikationsbranche Bitkom bezahlte 2014 rund ein Viertel der Internetnutzer für journalistische Inhalte, während 61 Prozent grundsätzlich nicht bereit waren, für Internetinhalte zu bezahlen. Als eine häufiger verwendete Bezahlschranke (engl. paywall) gilt die Metered Paywall, die unter anderem die New York Times (NYT) 2011 und die Süddeutsche Zeitung 2015 eingeführt haben. Bei dem Modell der NYT darf der Leser zehn Artikel pro Monat online gratis lesen; ab dem elften Artikel entstehen ihm Kosten. Abonnenten der Printausgabe müssen allerdings nicht zusätzlich bezahlen. Eine andere Variante der Paywall stellt das sogenannte FreemiumModell (Zusammensetzung aus „free“ und „premium“) dar, bei der ein Teil der Artikel kostenfrei gelesen werden kann, ein anderer wiederum nur kostenpflichtig verfügbar ist. So setzt beispielsweise das Handelsblatt auf ein Freemium-System. Bei der sogenannten harten Bezahlschranke sind alle Inhalte kostenpflichtig. Die Braunschweiger Zeitung arbeitet beispielsweise mit einer derartigen Bezahlschranke. Ein Großteil der wissenschaftlichen Verlagszeitschriften wird noch durch harte Bezahlschranken vor dem uneingeschränkten Zugriff geschützt. Diese sogenannte Exklusivitätskultur ist insbesondere von Vertretern eines restriktiven Urheberrechtsschutzes bereits kurz nach Öffnung des Internets gefordert und etabliert worden (siehe Peukert 2014, S. 80 ff.). Sie hat auch in den letzten Jahren verschiedentlich weitere Verbreitung gefunden. Ihr steht die sogenannte Zugangskultur, die die Entstehung des Internets begleitet, genau genommen sogar erst ermöglicht hat, mit ihrem zentralen Paradigma des Open

26  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

Content gegenüber. Die wertneutrale, digitale Netzwerktechnologie selbst als Ergebnis eines offenen Kommunikations- und Kollaborationsprozesses gestattet freilich beide Szenarien: ihre umfassend reglementierte (und gegebenenfalls monetarisierte) als auch ihre nicht durch Vergütungs- oder andere Anreizstrukturen gesteuerte, unkontrollierte Nutzung.

Die Zugangskultur und Open Access Wenngleich der Begriff des Open Content jüngeren Datums ist, war die ihm zugrunde liegende Idee der freien Inhalte kennzeichnend für den Entstehungsprozess des Internets. Damals waren es die Wissenschaftler, die ihre grundlegenden Erkenntnisse und Entwicklungen einander uneingeschränkt zugänglich machten und bisweilen gänzlich dem urheberrechtlichen Schutz entsagten. Sie setzten sich für die Entwicklung allgemein verständlicher Standardlizenzen ein, die sich durch eine einfache, rechtssichere Handhabung und – im Sinne der Open-Content-Idee – durch die Gestattung möglichst umfangreicher und lizenzgebührenfreier Nutzungen auszeichnen sollten. Die Bezeichnung Open Content bildet den Oberbegriff für die Idee der freien Nutzung von wissenschaftlichen Informationsobjekten ganz unterschiedlicher Art. Insbesondere für wissenschaftliche Literatur als Unterfall der wissenschaftlichen Informationsobjekte hat sich der speziellere Begriff Open Access eingebürgert. Die Open-Access-Initiative setzt sich im Verständnis einer umfassenden Zugangskultur für die freie Zugänglichkeit und (Nach-)Nutzbarkeit wissenschaftlicher Literatur und anderer Materialien ein. Insbesondere die Ergebnisse der von der öffentlichen Hand finanzierten bzw. geförderten Forschung sind nach dem Leitbild des Open Access für alle Nutzer kostenlos und möglichst ohne technische oder rechtliche Barriere zugänglich zu machen. Die Open-Access-Initiative ist in der Wissenschaftscommunity als Gegenbewegung zu der das Inflationsniveau um ein Vielfaches übersteigenden Preisentwicklung auf dem internationalen Markt für wissenschaftliche Informationen, insbesondere dem wissenschaftlichen Zeitschriftenmarkt, entstanden. Dem sich dynamisch entwickelnden Publikationsmarkt mit seinem schnell wachsenden Informationsangebot, den anhaltenden Kommerzialisierungs- und Konzentrationsprozessen im Bereich der wissenschaftlichen Verlage und den Preissteigerungen im zum Teil zweistelligen Prozentbereich steht seit Jahren oder gar Jahrzehnten ein stagnierender bzw. nur gering ansteigender Erwerbungsetat, der Kaufkraftverlust und Verteilungsnöte, Haushaltssperren und Planungsunsicherheit in den Bibliotheken mit sich bringt, gegenüber. Steigende Fixkosten im Abonnement- und Subskriptionsgeschäft gehen zu Lasten der übrigen Li-

Geschichte und Gegenwart: eine Bestandsaufnahme 

27

teratur- und Informationsversorgung. Sie zwingen zu Etatumverteilungen und Abbestellungen bis hin zur Aufgabe eines systematischen Bestandsaufbaus in einzelnen Disziplinen. Unter den Vorzeichen dieser als Zeitschriftenkrise bezeichneten Entwicklung erkennt die Open-Access-Bewegung in der Bereitstellung alternativer Publikationswege, der Liberalisierung von rechtlichen Rahmenbedingungen für die Nutzung fremder Werke und der Umgestaltung des überkommenen Subskriptionsmodells für die wissenschaftliche Literaturversorgung zentrale Instrumente zur Neuausrichtung der Informationsversorgung und des Publikationsmarktes. In der elektronischen Literatur- und Informationsversorgung bewegen sich die Bibliotheken im Spannungsfeld der Exklusivitätskultur einerseits und der Zugangskultur andererseits. Im Wege der Lizenzierung verschaffen sie Zugang zu kostenpflichtigen elektronischen Ressourcen, deren bedarfsgerechte Bereitstellung und Finanzierung eine Vielzahl an Bibliotheken vor zunehmend größere Probleme stellen. Andererseits engagieren sie sich für den freien Zugang zu wissenschaftlicher Literatur, deren uneingeschränkte Nutzbarkeit und unterstützen alternative Publikationswege. Diese Aufgabenambivalenz ist ihnen in den letzten Jahren auch vom Gesetzgeber zugewiesen worden. Gesetzesänderungen zur Förderung der Zugangskultur wie im Bereich der verwaisten und vergriffenen Werke standen zum Beispiel Konkurrenzschutzklauseln zum Vorrang vertraglicher Beziehungen in den Schrankenbestimmungen gegenüber (vgl. Peukert 2014, S. 84 f.). Die Forderung aus Teilen der Wissenschaft nach Open Access, die sich seit Beginn der 2000er Jahre mit drei zentralen, internationalen Open-Access-Erklärungen, der Budapester Erklärung zu Open Access, dem Bethesda Statement on Open Access Publishing und der Berliner Erklärung über offenen Zugang zu wissenschaftlichem Wissen, Gehör verschafft hat, wurde in den letzten Jahren in der Wissenschafts- und Forschungsförderpolitik in Deutschland mit zunehmender Offenheit vernommen. Viele Hochschulen unterstützen die Forderungen nach einem offenen Zugang zu wissenschaftlicher Information und richten ihr Handeln verstärkt an den Zielen der Open-Access-Bewegung aus. Forschungsfördereinrichtungen bieten Programme zum Aufbau von Open-Access-Infrastrukturen und -diensten an und geben Empfehlungen zur Open-Access-Veröffentlichung geförderter Projektergebnisse. Der goldene (Publikations-)Weg steht dabei für das Paradigma der OpenAccess-Primärpublikation, das sich bislang insbesondere durch die Entstehung von Gold-Open-Access-Zeitschriften Aufmerksamkeit verschaffen konnte. Ihre Finanzierung durch Veröffentlichungsgebühren, die sogenannten Article Processing Charges (APCs), bringt für den Literaturmitteleinsatz in Bibliotheken

28  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

eine neue Herausforderung mit sich: die Transformation des Erwerbungsetats von der Subskriptions- zur Publikationsfinanzierung. Der grüne (Publikations-)Weg steht für die – in der Regel nach Ablauf einer Embargofrist – ergänzende, unentgeltliche Verfügbarmachung von Publikationen, die auch weiterhin im Closed Access (erst-)veröffentlicht werden, auf Dokumentenservern, an deren Interoperabilität mit anderen Infrastrukturen und Diensten gewisse Anforderungen gestellt werden. Als Pionier der Veröffentlichungspraxis im grünen Weg gilt ursprünglich die Preprint-Kultur, die Paul Ginsparg 1991 an einem Forschungsinstitut in den USA mit der Einrichtung eines Preprint-Servers für Publikationen aus der Physik etablierte. Unter dem Namen arXiv erfuhr die Serverinfrastruktur später größere Bekanntheit. Beide Wege werden zunehmend auch für monografische Veröffentlichungen angeboten bzw. ins Gespräch gebracht. Dazu, welcher der beiden Wege am schnellsten und nachhaltigsten zur Neuausrichtung des Publikationsmarktes führen wird, gibt es – für die unselbstständigen und selbstständigen Publikationen gleichermaßen – unterschiedliche Einschätzungen, über die in der Community lebendig diskutiert wird.

Vernetzung bedeutet Verletzlichkeit Mit dem zunehmenden Maß an Vernetzung und Komplexität wurde Ende der 1980er Jahre auch offenbar, dass Computer, die mit dem Internet verbunden wurden, relativ leicht Opfer von Angriffen verschiedenster Schadprogramme aus dem Netz werden konnten. Die Verletzlichkeit dieser Struktur wurde mit dem ersten Computerwurm, einem sich selbst reproduzierenden Programm, das im Jahre 1988 von dem Informatikstudenten Robert Tappan Morris von der Cornell University in Umlauf gebracht worden war, offenbar. Rund ein Zehntel der 60.000 Internetrechner kam damals durch den nach seinem Urheber benannten Morriswurm zum Erliegen. Das lag vor allem daran, dass der Wurm, der eigentlich nur die Anzahl der vernetzten Rechner erfassen sollte, durch einen Programmierfehler die bereits infizierten Rechner wieder und wieder befiel. Bereits zum Ausgang der 1980er Jahre hatte das Internet dermaßen an Bedeutung für einzelne Lebensbereiche gewonnen, dass der Schaden vom US-amerikanischen Rechnungshof, dem General Accountability Office, auf zwischen zehn und hundert Millionen US-Dollar geschätzt wurde. Morris wurde zu einer Geldstrafe sowie gemeinnütziger Arbeit verurteilt. 1999, rund ein Jahrzehnt später, wurde er als Informatikprofessor an das Massachusetts Institute of Technology berufen.

Geschichte und Gegenwart: eine Bestandsaufnahme 

29

Das zerstörerische Potenzial des Morriswurms hatte übrigens die Gründung des ersten Computer Emergency Response Teams (dt. Computersicherheits-Ereignis- und Reaktionsteam, kurz CERT) an der Carnegie Mellon University zur Folge. Die sogenannten CERTs tragen koordinierend zur Lösung von sicherheitsrelevanten Vorfällen bei und beschäftigen sich präventiv und reaktiv mit Maßnahmen zur Computersicherheit. Sie sind heute weltweit als staatliche Einrichtungen oder Organisationseinheiten in Unternehmen verbreitet. 2001 wurde in Deutschland das CERT-Bund gegründet, das zum Bundesamt für Sicherheit in der Informationstechnik (BSI) gehört. Das Internet überstand den Angriff durch den ersten Internetwurm der Geschichte ohne irreversible Schäden. Unzählige Viren und Internetwürmer wurden aber in den kommenden Jahren in Umlauf gebracht. Die Grenzen zwischen einem Computervirus und einem Computerwurm sind fließend. Während der Virus durch Zutun eines Nutzers weiterverbreitet wird und für den Rechner in jedem Fall eine schadhafte Wirkung hat, verbreitet sich ein Wurm automatisch selbst und verursacht nicht notwendigerweise Schaden. Der Betrieb eines Rechners ohne Antivirusprogramm und aktuell gehaltenes Betriebssystem wurde im Netz zum unkalkulierbaren Sicherheitsrisiko. Unternehmen und Behörden reagierten mit der Einrichtung von Sicherheitsarchitekturen wie Firewalls und Proxys, die die Attacken aus dem Internet schon an der Pforte zum organisationsinternen Netz blockieren sollten. Auch die Notwendigkeit von Sicherheitsvorkehrungen bei privat betriebenen Rechnern rückte langsam ins Bewusstsein der Netzgemeinde.

Das Internet als digitales Schlachtfeld? Mit der zunehmenden Öffnung und Verbreitung des Netzes galt die Sicherheit des Internets mehr und mehr als bedroht. In der Anfangszeit ging die digitale Gefahr hauptsächlich von massenhaft verbreiteten Computerviren und -würmern aus, die von einzelnen Programmierern eher aus Neugier, denn aus kriminellen Motiven in die Welt gesetzt wurden. Nach und nach entwickelt sich das Internet jedoch zu einem Schlachtfeld des sogenannten Cyberkriegs (engl. cyber war), in dem Nachrichtendienste, Terroristen oder Staaten als solche zu zentralen Akteuren werden. Bei diesen Auseinandersetzungen, die mitunter als Kalter Onlinekrieg bezeichnet werden, gelten Spionage und Sabotage als die beiden maßgeblichen, gegeneinander gerichteten Handlungen. Die Spionagetätigkeiten konzentrieren sich insbesondere auf Politiker, Behörden und Unternehmen. Ihnen kann unter dem digitalen Deckmantel noch wesentlich diskreter und effizienter als in analogen Zeiten nachgegangen werden.

30  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

Die US-amerikanische National Security Agency (NSA) soll laut den Enthüllungen von Edward Snowden in der Lage sein, jegliche Internetkommunikation einer Zielperson zum Beispiel über Skype, Google, Facebook oder E-Mail-Provider abzuschöpfen und zu speichern. So sagte Edward Snowden vor dem Europäischen Parlament schriftlich aus: I am telling you that without getting out of my chair, I could have read the private communications of any member of this committee, as well as any ordinary citizen. I swear under penalty of perjury that this is true. (Snowden 2014, S. 2)

Zudem können Rechner von Zielpersonen vielfach komplett übernommen werden. Das bedeutet, dass der Nachrichtendienst jede einzelne Aktion auf dem vernetzten Computer der Zielperson sehen und nachvollziehen kann. Kamera und Mikrofon eines Notebooks können durch Manipulation der Steuerungssoftware dazu genutzt werden, den Computerbenutzer mittels seines eigenen Rechners zu beobachten und abzuhören. Noch weitaus gravierender für größere Gruppen der Bevölkerung können die Auswirkungen von Sabotageakten im virtuellen Raum sein. Die Strom- und Wasserversorgung, Kraftwerke, Telekommunikationssysteme, militärische Einrichtungen, Verkehrsinfrastrukturen und medizinische Versorgungszentren könnten Opfer einer folgenreichen Cyberattacke werden und dadurch ausfallen oder Fehlfunktionen zeigen. Als erste Cyberwaffe, die weltweit einen großen Bekanntheitsgrad erlangte, gilt Stuxnet, ein Computerwurm, der es einzig auf Industriesteuerungsanlagen der Firma Siemens abgesehen hatte. Aufgrund der signifikant hohen Verbreitung von Stuxnet im Iran und seiner außergewöhnlich professionellen Programmierung ging man schnell von einer organisierten Cyberattacke gegen den Iran aus, die zum Ziel hatte, das Nuklearprogramm des Landes zu stören. Stuxnet veränderte die Rotorgeschwindigkeiten der Nuklearzentrifugen und beschädigte sie dadurch. Heute geht man davon aus, dass Stuxnet von den USA eingesetzt worden ist. Der Bericht des US-amerikanischen Institute for Science and International Security, einer gemeinnützigen Organisation, abgekürzt ISIS, zu den Auswirkungen von Stuxnet aus dem Jahre 2010 schließt mit einem „Final Concern“: It is important for governments to approach the question of whether using a tool like Stuxnet could open the door to future national security risks or adversely and unintentionally affect U.S. allies. Countries hostile to the United States may feel justified in launching their own attacks against U.S. facilities, perhaps even using a modified Stuxnet code. Such an attack could shut down large portions of national power grids or other critical

Geschichte und Gegenwart: eine Bestandsaufnahme 

31

infrastructure using malware designed to target critical components inside a major system, causing a national emergency. (Albright, Brannan und Walrond 2010, S. 7)

Der ISIS-Bericht macht deutlich, dass beim Einsatz von Cyberwaffen die Kontrolle ihrer Verbreitung schwierig ist und ein möglicher Gegenschlag zu einem nationalen Notstand führen kann. Durch Stuxnet und andere – vor allem zum Bereich der Wirtschaftsspionage gehörige – Cyberattacken alarmiert, wurde in Deutschland 2011 zur Prävention und Abwehr von Cyberangriffen das Nationale Cyber-Abwehrzentrum, kurz Cyber-AZ, unter Federführung der Bundesamtes für Sicherheit in der Informationstechnik eingerichtet. Die Wirksamkeit des Cyber-Abwehrzentrums in Bonn wurde aufgrund seiner geringen Personalausstattung und unklaren Aufgabensetzung in Abgrenzung zu anderen Behörden zum Teil massiv, wie 2014 beispielsweise vom Bundesrechnungshof, kritisiert. So schrieben John Goetz und Hans Leyendecker in der Süddeutschen Zeitung im Juni 2014: Drei Jahre später steht fest, dass schon der Begriff Abwehrzentrum eine arge Übertreibung war. Selbst das Wort Informationszentrum wäre vermutlich zu gewaltig für die kleine Einrichtung am Rhein. Und das ist jetzt gewissermaßen amtlich.

Seit 2015 kam es in Deutschland vermehrt zu Hackerangriffen auf das Netz des deutschen Bundestages und auf das Netz der Bundesregierung, die zu Datenabflüssen führten und Systemausfälle nach sich zogen. Dass diese Angriffe mitunter im Zusammenhang mit weltweiten Angriffswellen standen, zeigt die Brisanz des Themas.

Überlegungen zur Abschottung vom Internet Um den zunehmenden Sicherheitsrisiken zu begegnen, hat die DARPA vor einiger Zeit den Zuschlag an ein Unternehmenskonsortium aus Juniper, Lockheed und Microsoft für den Auftrag, einen Ersatz für TCP/IP zu entwickeln, der militärischen Sicherheitsansprüchen gerecht wird, gegeben. Dieses neu zu entwickelnde Military Networking Protocol, kurz MNP, soll mit eigenen Hardwarekomponenten agieren und abgeschlossene kleine Netze abbilden, bei denen jedes einzelne Datenpaket mit einer sicheren Authentifizierung des Absenders versehen sein muss. Sobald sich die Technik etabliert hat, soll sie nach den Plänen der DARPA auch in Kraftwerken, Banken, Krankenhäusern, in der Luftund Raumfahrt und anderen sicherheitssensitiven Einrichtungen zum Einsatz kommen.

32  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

Die komplette physikalische Abtrennung einzelner Netze vom öffentlichen Internet bedeutet einen Paradigmenwechsel mit der Folge, dass sich die netzbasierten Infrastrukturen ausdifferenzieren werden – auch entgegen der ursprünglichen Intention der Gründergeneration des Internets. Das bestätigt auch der Verfechter einer separaten Netzinfrastruktur, Richard A. Clarke, der von 1992 bis 2003 für den Nationalen Sicherheitsrat der USA tätig war: Das wird Vint Cerf und den Befürwortern eines einzigen großen, mit allem verbundenen Netzes, bei dem jeder überall hinkann, nicht gefallen, aber uns bleibt nichts anderes übrig. (Clarke 2011, S. 339)

Literatur Albright, David, Paul Brannan und Christina Walrond: Did Stuxnet Take Out 1,000 Centrifuges at the Natanz Enrichment Plant? ISIS Report. 2010, http://isis-online.org/uploads/isisreports/documents/stuxnet_FEP_22Dec2010.pdf (04.06.2018). Andreoli-Versbach, Patrick und Frank Mueller-Langer: Open access to data: An ideal professed but not practised, in: Research Policy, Volume 43 (2014), Issue 9, S. 1621–1633, doi:10.1016/j.respol.2014.04.008. Ball, David: Open Access. Effects on Publishing Behaviour of Scientists, Peer Review and Interrelations with Performance Measures, in: Weingart, Peter und Niels Taubert (Hrsg.): Wissenschaftliches Publizieren. Zwischen Digitalisierung, Leistungsmessung, Ökonomisierung und medialer Beobachtung. Berlin/Boston, 2016, S. 179–209. Benedek, Wolfgang: Menschenrechte in der Informationsgesellschaft. Grundlagen der Menschenrechte in der Informationsgesellschaft, in: Schüller-Zwierlein, André und Nicole Zillien (Hrsg.): Informationsgerechtigkeit. Theorie und Praxis der gesellschaftlichen Informationsversorgung. Berlin/Boston, 2013, S. 69–88. Biermann, Kai: Deutsches Cyber-Abwehrzentrum kann nichts abwehren. 2014, http://www. zeit.de/digital/internet/2014-06/cyber-abwehrzentrum-bundesrechnungshof (04.06.2018). Bilgil, Melih: History of the Internet. 2008, http://www.lonja.de/the-history-of-the-internet (04.06.2018). Bitkom (Hrsg.): Jeder Vierte zahlt für redaktionelle Inhalte im Internet. 2014, http://www. bitkom.org/de/presse/81142_78373.aspx (01.06.2018). Borchers, Detlef: Innenminister eröffnet nationales Cyber-Abwehrzentrum. 2011, http://www. heise.de/newsticker/meldung/Innenminister-eroeffnet-nationales-Cyber-Abwehrzentrum1261659.html (04.06.2018). Borchers, Detlef: Vor 20 Jahren: Erster Internetwurm verzählt sich. 2008, http://www.heise. de/security/meldung/Vor-20-Jahren-Erster-Internetwurm-verzaehlt-sich-214802.html (04.06.2018). Braun, Torsten: Geschichte und Entwicklung des Internets, in: Informatik Spektrum, Band 33 (2010), S. 201–207.

Geschichte und Gegenwart: eine Bestandsaufnahme



33

Bundesverband Deutscher Zeitungsverleger e.V. (Hrsg.): Paid Content Angebote deutscher Zeitungen. 2018, https://www.bdzv.de/maerkte-und-daten/digitales/paidcontent (01.06.2018). Cerf, Vinton G. und Edward Cain: The DoD internet architecture model, in: Computer Networks (1976), Volume 7 (1983), S. 307–318. Clarke, Richard A. und Robert K. Knake: World Wide War. Angriff aus dem Internet. Hamburg, 2011. Comer, Douglas: The computer science research network CSNET. A history and status report, in: Communications of the ACM, Volume 26 (1983), S. 747–753. Crocker, Steve: Network Working Group Request for Comment 1. Host Software. 1969, http:// www.faqs.org/rfcs/rfc1.html (04.06.2018). Deppe, Arvid und Daniel Beucke: Ursprünge und Entwicklung von Open Access, in: Söllner, Konstanze und Bernhard Mittermaier (Hrsg.): Praxishandbuch Open Access. Berlin/ Boston, 2017, S. 12–20. Dyson, Esther, George Gilder, George Keyworth und Alvin Toffler: Cyberspace and the American Dream. A Magna Carta for the Knowledge Age. Release 1.2. 1994, http://www. pff.org/issues-pubs/futureinsights/fi1.2magnacarta.html (04.06.2018). Eco – Verband der Internetwirtschaft e.V. (Hrsg.): Die deutsche Internetwirtschaft 2015–2019. 2015, https://www.eco.de/wp-content/blogs.dir/studie_internetwirtschaft_2015-2019. pdf (16.06.2018). Gaycken, Sandro: Cyberwar. Das Wettrüsten hat längst begonnen. Vom digitalen Angriff zum realen Ausnahmezustand. 2. Auflage. München, 2012. Goetz, John und Hans Leyendecker: Rechnungsprüfer halten Cyber-Abwehrzentrum für „nicht gerechtfertigt“. 2014, http://sz.de/1.1989433 (04.06.2018). Hafner, Katie und Matthew Lyon: Arpa Kadabra. Die Geschichte des Internet. Heidelberg, 1997. Haug, Volker: Grundwissen Internetrecht. 3. Auflage. Stuttgart, 2016. Herb, Ulrich: Empfehlungen, Stellungnahmen, Deklarationen und Aktivitäten wissenschaftspolitischer Akteure zur Gestaltung des wissenschaftlichen Kommunikationssystems, in: Weingart, Peter und Niels Taubert (Hrsg.): Wissenschaftliches Publizieren. Zwischen Digitalisierung, Leistungsmessung, Ökonomisierung und medialer Beobachtung. Berlin/ Boston, 2016, S. 147–177. Hoeren, Thomas: IT- und Internetrecht – Kein Neuland für die NJW, in: NJW 2017, S. 1587–1592. IEEE History Committee (Hrsg.): Birthplace of the Internet. IEEE Milestones. 2014, in: http:// www.ieeeghn.org/wiki/index.php?title=Milestones:Birthplace_of_the_Internet, _1969&oldid=101175 (04.06.2018). Information Infrastructure Task Force (Hrsg.): National Information Infrastructure: Agenda for Action. 1993, https://archive.org/details/04Kahle000911 (03.06.2018). Internet Engineering Task Force (IETF): About the IETF. 2014, http://www.ietf.org/about/ (04.06.2018). Kirpal, Alfed und Andreas Vogel: Neue Medien in einer vernetzten Gesellschaft. Zur Geschichte des Internets und des World Wide Web, in: Zeitschrift für Geschichte der Wissenschaft, Technik und Medizin, Band 14 (2006), S. 137–147. Kleinrock, Leonard: An Early History of the Internet, in: IEEE Communications Magazine, Volume 48 (2010), S. 26–36. Kleinrock, Leonard: Toward a National Research Network. Washington, D.C., 1988. Kleinrock, Leonard: Queueing Systems. Volume II. Computer Applications. New York, 1976.

34  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

Kliegl, Reinhold: A Vision of Scientific Communication, in: Weingart, Peter und Niels Taubert (Hrsg.): Wissenschaftliches Publizieren. Zwischen Digitalisierung, Leistungsmessung, Ökonomisierung und medialer Beobachtung. Berlin/Boston, 2016, S. 263–269. Kovsky, Steve: A Brief History of the Internet. Vint Cerf Describes His Role (and Al Gore's). 2011, https://www.youtube.com/watch?v=e3yXkYsvGlQ (04.06.2018). Kuhlen, Rainer: In Richtung eines gerechten, inklusiven, nachhaltigen Umgangs mit dem Gemeingut (Commons) Wissen, in: Schüller-Zwierlein, André und Nicole Zillien (Hrsg.): Informationsgerechtigkeit. Theorie und Praxis der gesellschaftlichen Informationsversorgung. Berlin/Boston, 2013, S. 46–68. Licklider, Joseph C. R.: Man-Computer Symbiosis, in: IRE Transactions on Human Factors in Electronics, HFE-1 (1960), S. 4–11. Markoff, John: Robert Morris, Pioneer in Computer Security, dies at 78. 2011, http://www. nytimes.com/2011/06/30/technology/30morris.html (04.06.2018). Meinel, Christoph und Harald Sack: Internetworking. Technische Grundlagen und Anwendungen. Berlin, 2012. Moravetz-Kuhlmann, Monika: Erwerbungspolitik, Etatplanung und Mittelallokation in wissenschaftlichen Bibliotheken, in: Griebel, Rolf, Hildegard Schäffler und Konstanze Söllner (Hrsg.): Praxishandbuch Bibliotheksmanagement. Band 1. Berlin/München/Boston, 2015, S. 161–183. Peterson, Larry L. und Bruce S. Davie: Computernetze. Eine systemorientierte Einführung. 4. Auflage. Heidelberg, 2008. Peukert, Alexander: Das Urheberrecht und die zwei Kulturen der Online-Kommunikation, in: GRUR-Beilage 2014, S. 77–93. Rieger, Frank: Trojaner „stuxnet“. Der digitale Erstschlag ist erfolgt. 2010, http://www.faz.net/ aktuell/feuilleton/debatten/digitales-denken/trojaner-stuxnet-der-digitale-erstschlag-isterfolgt-1578889.html?printPagedArticle=true#pageIndex_2 (04.06.2018). Schallehn, Volker und Ralf Schimmer: Open Access, in: Griebel, Rolf, Hildegard Schäffler und Konstanze Söllner (Hrsg.): Praxishandbuch Bibliotheksmanagement. Band 1. Berlin/ München/Boston, 2015, S. 311–338. Scholz, Stefan: Internet-Politik in Deutschland. Vom Mythos der Unregulierbarkeit. Münster, 2004. Selva, Meera und Stephan Russ-Mohl: Erst zahlen, dann lesen. Geschäftsmodelle für den Online-Journalismus. 2013, http://www.nzz.ch/aktuell/feuilleton/medien/erst-zahlendann-lesen-1.18187595 (01.06.2018). Snowden, Edward: Introductory Statement. 2014, http://www.europarl.europa.eu/document/ activities/cont/201403/20140307ATT80674/20140307ATT80674EN.pdf (04.05.2018). Söllner, Konstanze: Warum und für wen Open Access?, in: Söllner, Konstanze und Bernhard Mittermaier (Hrsg.): Praxishandbuch Open Access. Berlin/Boston, 2017, S. 3–11. Statista (Hrsg.): Internetnutzung weltweit. Studie did-6331-1. Hamburg, 2018. Stewart, William: The Living Internet: Info about the Internet, its main technologies, and its human history. The first book published on the Web, on January 7, 2000. 2017, http:// www.livinginternet.com/ (04.05.2018). Strategic Technology Office (Hrsg.): Broad Agency Announcement. Military Networking Protocol (MNP). 2008, https://www.fbo.gov//utils/view?id=afa738a71c6cbdf8024d54ec5e141a1a (04.06.2018). Stuhr, Mathias: Mythos New Economy. Die Arbeit an der Geschichte der Informationsgesellschaft. Bielefeld, 2011.

Geschichte und Gegenwart: eine Bestandsaufnahme 

35

The Merit Computer Network (Hrsg.): NSFNET Annual Report 1990. November 19, 1989November 19, 1990: Management and Operation of the NSFNET Backbone Network. 1990, http://digital.hagley.org/cdm/ref/collection/p268001coll28/id/4088 (04.06.2018). Tomlinson, Ray: The First Network Email. O.J., http://openmap.bbn.com/~tomlinso/ray/firstemailframe.html (04.06.2018). Tugend, Thomas: UCLA to be the first station in nationwide computer network. 1969, http:// www.lk.cs.ucla.edu/data/files/Kleinrock/UCLA Prozent20to Prozent20be Prozent20First Prozent20Station Prozent20in Prozent20Nationwide Prozent20Computer.pdf (04.06.2018).

Entscheidungen Bundesgerichtshof, Urteil vom 24. Januar 2013, Aktenzeichen III ZR 98/12 (Ausfall des Internetzugangs).

36  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

Die technische Basis des Internets Das TCP/IP-Modell (Internet-Modell) Der Begriff TCP/IP-Modell bezeichnet nicht nur die entsprechenden Protokolle, sondern das bis in die 1960er Jahre zurückgehende Schichtenmodell der Softwarearchitektur, das der Kommunikation im Internet zugrunde liegt. Das Modell sieht frei verfügbare und offene Standards vor und erlaubt die Kommunikation unabhängig von den verwendeten Netzwerkgeräten, den Betriebssystemen der Computer und der Computerhardware. Das TCP/IP-Modell, das auch als TCP/IP-Referenzmodell, Internet-Modell oder – unter Bezugnahme auf sein Herkunftsressort, das amerikanische Verteidigungsministerium (engl. United States Department of Defense) – DoD-Modell bezeichnet wird, besteht aus vier aufeinander aufbauenden Schichten (engl. layer), denen jeweils entsprechende Protokolle zugeordnet sind. Man spricht daher auch von einem „Protokollstapel“ (engl. protocol stack). Damit ein Gerät innerhalb des Internets kommunizieren kann, muss es typischerweise mindestens ein Protokoll aus jeder Schicht implementiert haben. Die unterste Schicht, Schicht 1, ist die Netzwerkschnittstelle (engl. network interface layer oder link layer). Die erste Schicht beinhaltet die grundlegenden Protokolle zum Netzwerkzugang, die regeln, wie Daten physisch durch das Netzwerk gesendet werden. Die Internetschicht (engl. internet layer) mit dem Internet Protocol (IP) ist die zweite Schicht und das Herzstück des Modells. Das Internet Protocol ist verantwortlich für die Vermittlung der Daten und die Wahl des Weges, den die einzelnen Datenpakete nehmen (Routing). Alle Protokolle über oder unter dieser Schicht nutzen das Internet Protocol für den Datenverkehr. Die dritte Schicht, auf der u.a. das Transmission Control Protocol (TCP) angesiedelt ist, wird als Transportschicht (engl. transport layer) bezeichnet. Sie verwaltet die Kommunikationsverbindung zwischen den Kommunikationspartnern. Sie ist verantwortlich für die verlässliche und vollständige Kommunikation zwischen Sender und Empfänger der Datenpakete. Die oberste vierte Schicht ist die Anwendungsschicht (engl. application layer). Ihr sind die Protokolle zugeordnet, die mit Programmen zusammenarbeiten, die das Internet nutzen (zum Beispiel HTTP, FTP, Telnet, DNS). Während die erste Schicht als eine Art Platzhalter für beliebige Netzwerktechnologien fungiert (zum Beispiel WLAN oder Ethernet), beinhalten die Schichten 2 bis 4 ausschließlich Protokolle der sogenannten Internetprotokollfamilie (engl. internet protocol suite), zu der man immerhin rund 500 Protokolle zählt.

Die technische Basis des Internets 

37

Abb. 2: Das TCP/IP-Modell (eigene Darstellung).

TCP/IP ist daher auch der Oberbegriff für eine ganze Protokollfamilie und gewissermaßen die Weltsprache des Internets, die die Datenkommunikation global standardisiert hat. Der Request for Comments mit der Nummer 1180 aus dem Jahre 1991, vorgelegt von Theodore Socolofsky und Claudia Kale, geht in seinem TCP/IP-Tutorial auf viele weitergehende Fragen ein. Zur Begrifflichkeit TCP/IP heißt es darin: The generic term “TCP/IP” usually means anything and everything related to the specific protocols of TCP and IP. It can include other protocols, applications, and even the network medium. […] A more accurate term is “internet technology”. A network that uses internet technology is called an “internet”. (Socolofsky und Kale 1991, S. 2)

Das Protokoll TCP/IP als Kern des Internet-Modells Ursprünglich geht das Protokoll TCP/IP auf TELNET, das erste Protokoll des Arpanets, zurück, aus dem es zur Optimierung der Übertragung von umfangreichen Dateien entwickelt worden ist. Das dem TCP/IP zugrunde liegende Kon-

38  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

zept sieht vor, dass die zu sendenden Daten in einheitliche Pakete zerstückelt und mit Absender und Empfänger adressiert werden. Auf einer jeweils als optimal bestimmten Route werden die Pakete über das Netz verschickt. Dabei handelt es sich um eine sogenannte paketvermittelnde Datenübertragung. Beim Empfänger werden schließlich die Pakete wieder in der richtigen Reihenfolge zusammengebaut. Unterwegs verloren gegangene Pakete werden erneut angefordert, so dass am Ende die zuvor fragmentierte Datei wieder vollständig beim Empfänger zusammengesetzt wird. Dabei können die einzelnen Pakete je nach „Verkehrslage“ im Datennetz andere Wege genommen haben, was natürlich nur funktioniert, wenn eine große Zahl von alternativen Routen zur Verfügung steht, die Netzstruktur also hochgradig redundant aufgebaut ist. Man spricht in der Netzwerktopologie von einem „vermaschten Netz“. Im vermaschten Netz sind die einzelnen Knoten miteinander redundant verbunden, was eine hohe Ausfallsicherheit und eine gute Performanz gewährleistet.

Abb. 3: Beispiel für eine vermaschte Netzwerktopologie (eigene Darstellung).

Das Netz lässt sich als eine gigantische Containerlogistik veranschaulichen: Stellen Sie sich vor, Österreich möchte ein traditionelles Bauernhaus möglichst schnell von Tirol zur Weltausstellung nach Seoul schicken. Der Logistikpartner namens Inet hat selbstfahrende Containerwaggons entwickelt und kümmert sich um Abbau des Hauses in Tirol und auch um die anschließende Rekonstruktion auf dem Gelände der Weltausstellung in Seoul. Inet stellt dabei die

Die technische Basis des Internets 

39

Verpackungsexperten, die sogenannten IPler, zur Verfügung, die das Haus gekonnt in einzelne Teile zerlegen und diese in die normierten Eisenbahncontainer laden. Jeder Container trägt eine eindeutige Absender- und Empfängeradresse. Die IPler programmieren die selbstfahrenden Containerwaggons noch mit den Koordinaten des nächsten Stellwerks, des sogenannten Routers, und schicken die Containerwaggons dann jeweils einzeln auf die Reise. Bereits lange zuvor hat sich Inet, um seine logistischen Großaufträge gut und schnell abarbeiten zu können, in einem weltweiten Transferabkommen „TCP/IP“ über die internationalen Rahmenbedingungen seiner Transporte, insbesondere die Spurweite der Gleise, die Beschaffenheit der Container, die mitzuliefernden Baupläne, die Adressierungskonventionen sowie die Stellwerkkoordinationen, mit den Eisenbahnbetreibern geeinigt. Inet kann somit über eine weit verzweigte Infrastruktur verfügen, die es ihm nun erlaubt, beschädigte oder verstopfte Gleise durch eine alternative Routenwahl mittels automatisierter Stellwerke zu umgehen. In Seoul angekommen, öffnen die dortigen IPler der Inet-Niederlassung die Container und bauen die einzelnen Teile des Hauses anhand der mitgelieferten, standardisierten Bauanleitung wieder zusammen. Beim Absender in Tirol stellen mittlerweile spezialisierte Revisionsbeamte, die TCPler, fest, dass für einige Container keine Empfangsbestätigung aus Seoul eingegangen ist, und melden die betreffenden Containerwaggons als vermisst. Nachdem Inet als professioneller Logistiker mit Verlusten bereits gerechnet hat, wird für die verloren gegangenen Teile ein Ersatz verpackt und nach Seoul versendet. Erst nachdem die TCPler alle Eingangsquittungen auf Vollständigkeit überprüft haben, erklären Sie den Transport offiziell als beendet und wenden sich neuen Aufgaben zu. Die IPler übergeben das auf dem Ausstellungsgelände vollständig wieder aufgebaute Haus dem Veranstalter der Weltausstellung. Damit ist ihre Aufgabe erledigt. Dieses Beispiel veranschaulicht, welche Aufgaben das Protokoll TCP/IP im Internet übernimmt: die Fragmentierung der Pakete (TCP), ihre Zustellung an den Empfänger auf den jeweils optimalen Wegen (IP) und die verlustfreie Übertragung durch wiederholtes Versenden (TCP). Die eigentümliche, einen Schrägstrich beinhaltende Protokollbezeichnung kommt übrigens von der 1978 gefällten Entscheidung, die ursprünglich in TCP enthaltenen Funktionen des verlässlichen Transports und des Routings voneinander abzutrennen und IP als eigenes Protokoll auszugliedern. So wurde aus „TCP“ offiziell „TCP/IP“.

40  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

IP-Adressen als Bestandteil des Internet Protocol Damit die Datenkommunikation durch das Internet Protocol funktionieren kann, müssen die einzelnen Kommunikationspartner, die mithilfe des AccessProviders Zugang zum Internet erlangen, eindeutig adressierbar sein. Jedem Gerät, das mit dem Netz verbunden ist, wird daher vom Access-Provider eine IPAdresse zugewiesen, zum Beispiel 141.84.147.126. Es gibt sowohl statische IPAdressen, die bestimmten Internetteilnehmern dauerhaft zugewiesen sind, als auch dynamische IP-Adressen, die erst bei der Verbindung mit dem Internet vergeben werden und nur für die konkrete Session Gültigkeit haben. Ein erneuter Verbindungsaufbau zu einem späteren Zeitpunkt bedingt deshalb wiederum die Vergabe einer höchstwahrscheinlich anders lautenden IP-Adresse. Die Vergabe dynamischer IP-Adressen ist vor allem im Privatnutzerbereich gängig. Jedes Datenpaket, das mittels IP verschickt wird, erhält als „Adressaufkleber“ (Header) die IP-Adresse des Absenders und des Empfängers des Pakets. Das Internet Protocol ist übrigens so konzipiert, dass ein Computer auch mehrere IP-Adressen haben kann. Will man aus Sicherheitsgründen verhindern, dass ein Computer über das eigene lokale Netzwerk (LAN) hinaus direkt Daten senden oder empfangen kann, ist zudem die Vergabe von sogenannten privaten IP-Adressen möglich. Das Spektrum der privaten IP-Adressen wurde in RFC 1597 spezifiziert. Die privaten IP-Adressen sind nur innerhalb eines lokalen Netzes eindeutig und können weltweit dadurch nahezu beliebig oft verwendet werden, was bei der aufkommenden Knappheit der derzeit verwendeten IP-Adressen, der sogenannten IPv4-Adressen, von Bedeutung ist. Die rechnerisch mögliche Maximalzahl der IPv4-Adressen liegt nämlich bei lediglich 4,3 Milliarden Adressen. IPv4 steht dabei für „Internet Protocol Version 4“; IP in der Version 1 bis 3 waren nur Testversionen, die nie zum Einsatz kamen. Eine IPv4-Adresse besteht aus einer Bitfolge von 32 Stellen, die wiederum in vier Segmente zu je einem Byte (also 8 Bit) untergliedert sind. Die Segmente werden jeweils durch Punkte voneinander abgetrennt. Ein Byte kann maximal 28, also 256 Zustände, annehmen. Das resultiert daraus, dass ein Bit genau zwei Werte, nämlich 0 und 1, annehmen kann. Bei einer Folge von 4 Bytes (32 Bit), welche auch als binäre Oktette bezeichnet werden, bedeutet das 232 mögliche Kombinationen, womit man auf 4.294.967.296 IP-Adressen kommt. Für jedes Oktett ergibt sich in der Konvention der Internetadressen ein Wertebereich von 0 bis 255, so dass der Adressraum von IPv4, als Dezimalzahl ausgedrückt, von 0.0.0.0 bis 255.255.255.255 reicht. Um die Maximalanzahl der IP-Adressen zu erhöhen, wird seit längerem an einer neuen Version des Internet Protocol gearbeitet, bei der dann sogenannte IPv6-Adressen auf der Basis von 128 Bit

Die technische Basis des Internets 

41

verwendet werden, die zum Beispiel so aussehen: 2001:a60:234a:1101: a0dd:4dcf:4361:7bf0. Die damit verbundene Kapazitätserweiterung auf 2128, also rund 40 Sextillionen IP-Adressen (eine Zahl mit 36 Nullen), sollte einige Zeit genügen, um alle am Internet teilnehmenden Geräte – nicht nur Rechner, sondern auch Autos, Kühlschränke, Industrieroboter, Rasenmäher, RFID-Chips und andere – mit eindeutigen Adressen zu versorgen. So lässt sich ein Netz schaffen, in dem auch viele Maschinen miteinander kommunizieren, ohne dass Menschen dabei eingreifen müssen: das Internet der Dinge (engl. Internet of Things, kurz IoT). Um die aktuelle IP-Adresse des eigenen Rechners in Erfahrung zu bringen, bieten die verschiedenen Betriebssysteme Tools an. Bei den Windows-Betriebssystemen beispielsweise kann man in der Eingabeaufforderung den Befehl „ipconfig“ eingeben und erhält dann die derzeitige IP-Adresse des eigenen Rechners. Die eigene IP-Adresse kann auch auf Webseiten wie http://www.wieistmeineip.de ermittelt werden. Die Anzeige erfolgt nach dem Dezimalsystem; vom Betriebssystem wird die IP-Adresse im Binärsystem gelesen. Was für uns im Betriebssystem beispielsweise als die IP-Adresse 203.0.113.195 angezeigt wird, ist eine Übersetzung der ursprünglich vier maschinenlesbaren binären Oktette 11001011 00000000 01110001 11000011. Mit der Betrachtung der IP-Adresse können wir an dieser Stelle ein ganz neues Kapitel aufschlagen: den Datenschutz. An der IP-Adresse als einem technischen Detail, wie man meinen möchte, hat sich eine lebendige datenschutzrechtliche Debatte entzündet, auf die wir sogleich eingehen werden. Doch zuvor werfen wir einen umfassenderen Blick auf das Datenschutzrecht und seine Entstehung.

Das Datenschutzrecht betritt die Bühne Die Verrechtlichung des Datenschutzes, wie wir sie heute kennen, reicht erst in die jüngere Vergangenheit zurück. Die Privatsphäre zu schützen ist hingegen ein die Menschheit über Jahrtausende begleitendes Anliegen. Es wurde bereits im 4. Jahrhundert vor Christus im Hippokratischen Eid, benannt nach dem griechischen Arzt Hippokrates von Kos (um 460 bis 370 vor Christus), zu einer ärztlichen Schweigepflicht konkretisiert und ist als diese noch heute Teil der ärztlichen Ethik. Das zu Beginn des 13. Jahrhunderts kirchenrechtlich im IV. Laterankonzil verkörperte Beichtgeheimnis (lat. sigillum confessionis) als Verschwiegenheitspflicht eines die Beichte empfangenden Geistlichen ist ein weiteres Beispiel für den Schutz der Privatsphäre, wie er schon weit vor Einführung des modernen Datenschutzrechts verbrieft worden war.

42  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

In der rechtswissenschaftlichen Diskussion wurde dem Schutz der Privatsphäre im 19. Jahrhundert zunehmend Aufmerksamkeit zuteil. Unter dem Titel „The Right to Privacy“ veröffentlichten Samuel D. Warren und Louis Brandeis, die ihr Studium der Rechtswissenschaften an der Harvard Law School 1877 als Jahrgangsbeste abgeschlossen hatten, im Jahre 1890 einen noch heute als für die Begründung des juristischen Konzepts der Privatsphäre wegweisend wahrgenommenen Aufsatz. Eindringlich und zugleich angesichts der heutigen Bedrohung für unsere Privatsphäre zu einem Schmunzeln verleitend, beschrieben sie die Gefahren, denen sich die Privatsphäre zur damaligen Zeit ausgesetzt sah: Instantaneous photographs and newspaper enterprise have invaded the sacred precincts of private and domestic life; and numerous mechanical devices threaten to make good the prediction that “what is whispered in the closet shall be proclaimed from the house-tops.” For years there has been a feeling that the law must afford some remedy for the unauthorized circulation of portraits of private persons ; […] and the evil of the invasion of privacy by the newspapers, long keenly felt, has been but recently discussed by an able writer. […] (Warren und Brandeis 1890, S. 195)

In den Worten des damaligen Richters Thomas McIntyre Cooley bezeichneten sie das Recht auf Privatheit als „the right ‚to be let alone‘“ (S. 195), dessen eigenen Schutzgehalt sie in einer beeindruckenden juristischen Analyse- und Argumentationsleistung vom Schutz des (geistigen) Eigentums abgrenzten. Aus ihrer Betrachtung folgerten sie: These considerations lead to the conclusion that the protection afforded to thoughts, sentiments, and emotions, expressed through the medium of writing or of the arts, so far as it consists in preventing publication, is merely an instance of the enforcement of the more general right of the individual to be let alone. It is like the right not to be assaulted or beaten, the right not to be imprisoned, the right not to be maliciously prosecuted, the right not to be defamed. In each of these rights, as indeed in all other rights recognized by the law, there inheres the quality of being owned or possessed – and (as that is the distinguishing attribute of property) there may be some propriety in speaking of those rights as property. But, obviously, they bear little resemblance to what is ordinarily comprehended under that term. The principle which protects personal writings and all other personal productions, not against theft and physical appropriation, but against publication in any form, is in reality not the principle of private property, but that of an inviolate personality. If we are correct in this conclusion, the existing law affords a principle which may be invoked to protect the privacy of the individual from invasion either by the too enterprising press, the photographer, or the possessor of any other modern device for recording or reproducing scenes or sound. (Warren und Brandeis 1890, S. 205–206)

Die technische Basis des Internets 

43

Das Recht auf Privatheit definierten sie anschließend wie folgt: The principle which protects personal writings and any other productions of the intellect or of the emotions, is the right to privacy, and the law has no new principle to formulate when it extends this protection to the personal appearance, sayings, acts, and to personal relation, domestic or otherwise. […] (Warren und Brandeis 1890, S. 213)

Die Untersuchung zur Reichweite und rechtlichen Durchsetzung des Rechts auf Privatheit blieb den weiteren Betrachtungen der beiden Autoren vorbehalten. Ihr grundlegender Beitrag zur Verrechtlichung des Privatsphärenschutzes ist selbst nach über hundert Jahren noch lesenswert. Auch zu Beginn des 20. Jahrhunderts wurden vornehmlich, wie zu Warrens und Brandeis' Zeiten, die unerwünschte Einsichtnahme in persönliche Unterlagen, Briefkorrespondenzen oder ein Tagebuch ebenso wie die Wohnungsdurchsuchung, das Abhören des Telefons oder die Veröffentlichung einer unautorisierten Abbildung der Person als unmittelbare Bedrohung für die Privatsphäre empfunden. Das zeigt sich auch an den Verrechtlichungen der Folgejahre. Die computergestützte massenhafte Verarbeitung von Daten warf zu dieser Zeit ihren Schatten nur zaghaft voraus. Wenige Jahre nach Ende des Zweiten Weltkrieges fand der Schutz der Freiheitssphäre des Einzelnen unter dem Eindruck der Gefahren für eben diese in totalitären Regimen 1948 in Artikel 12 der Allgemeinen Erklärung der Menschenrechte (UN-Menschenrechtscharta) Eingang: Niemand darf willkürlichen Eingriffen in sein Privatleben, seine Familie, seine Wohnung und seinen Schriftverkehr oder Beeinträchtigungen seiner Ehre und seines Rufes ausgesetzt werden. Jeder hat Anspruch auf rechtlichen Schutz gegen solche Eingriffe oder Beeinträchtigungen.

1953 trat mit Artikel 8 der Europäischen Menschenrechtskonvention eine weitere Norm in Kraft, die den Schutz des Privat- und Familienlebens, des Rechts auf Wohnung und des Brief- und Telekommunikationsgeheimnisses verbürgt: (1) Jede Person hat das Recht auf Achtung ihres Privat- und Familienlebens, ihrer Wohnung und ihrer Korrespondenz. (2) Eine Behörde darf in die Ausübung dieses Rechts nur eingreifen, soweit der Eingriff gesetzlich vorgesehen und in einer demokratischen Gesellschaft notwendig ist für die nationale oder öffentliche Sicherheit, für das wirtschaftliche Wohl des Landes, zur Aufrechterhaltung der Ordnung, zur Verhütung von Straftaten, zum Schutz der Gesundheit oder der Moral oder zum Schutz der Rechte und Freiheiten anderer.

Mit dem technischen Fortschritt wurde das Bewusstsein für die Verletzlichkeit der Privatsphäre durch die automatisierte, in ihrer Breiten- und Tiefenwirkung

44  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

bisher ungekannten Datenverarbeitung in den folgenden Jahrzehnten weiter geschärft. Nicht zuletzt die Enthüllungen rund um die Watergate-Affäre, die die widerrechtliche Überwachung und Ausspähung von Bürgern durch staatliche Einrichtungen offenlegten, aber auch die allgemeine Gefahr des staatlichen Datenmissbrauchs durch die wachsenden und zugleich einer Zentralisierung unterworfenen Datenverarbeitungskapazitäten bildeten den rechtshistorischen Kontext für die Einführung des U.S. Privacy Act von 1974. Das erste Parlamentsgesetz der Welt zum Datenschutz stammt übrigens aus Hessen. Es wurde von Spiros Simitis, einem weltweit anerkannten Juristen und Experten für das Datenschutzrecht, verfasst und ist im Oktober 1970 in Kraft getreten. Das hessische Gesetz wurde zum Vorbild für das sieben Jahre später erlassene Bundesdatenschutzgesetz (BDSG) und die folgenden Landesdatenschutzgesetze. Den verfassungsrechtlichen Anforderungen, wie sie rund 13 Jahre später Gegenstand verfassungsgerichtlicher Erörterung waren, hätte dieses Gesetz – auch nach einer Gesetzesreform im Jahr 1978 – allerdings nicht genügt. Dennoch lässt sich nicht bestreiten, dass die Motivation für die damaligen Kodifikationen des Datenschutzrechts, den Staat daran zu hindern, mithilfe der technischen Entwicklung einen gläsernen, in der Ausübung seiner Freiheitsrechte durch die Gefahr der ständigen Überwachung beeinträchtigten Bürger zu schaffen, noch heute die datenschutzrechtlichen Bestimmungen prägt.

Der Datenschutz im Grundgesetz Verfassungsrechtlich verankert ist der Datenschutz im Grundrecht auf informationelle Selbstbestimmung, das angesichts wachsender Gefahren für die Integrität von Daten anerkennend als „eine Art ‚Grundregulierung‘ für den Umgang des Staates mit personenbezogenen Daten“ (Hornung 2015, S. 81) bezeichnet wird. Die Entstehungsgeschichte dieses Grundrechts ist keineswegs gewöhnlich: Kurz vor Weihnachten 1983 schuf das Bundesverfassungsgericht, das Gericht und Verfassungsorgan zugleich ist, in seinem Urteil vom 15. Dezember 1983, Aktenzeichen 1 BvR 209/83, 1 BvR 269/83 und weitere dieses Recht, das es bis dahin im Grundrechtskatalog des Grundgesetzes nicht gab: das Recht auf informationelle Selbstbestimmung. In dem Urteil, mit dem das Gericht über die Verfassungsbeschwerden gegen das Gesetz über eine Volkszählung, Berufszählung, Wohnungszählung und Arbeitsstättenzählung vom 25. März 1982 (Volkszählungsgesetz 1983) entschied, leitete es dieses Recht aus der Zusammenschau von Artikel 2 Absatz 1 Grundgesetz und Artikel 1 Absatz 1 Grundge-

Die technische Basis des Internets



45

setz, die das allgemeine Persönlichkeitsrecht gewährleisten, ab. Vorab stellte das Gericht in diesem sogenannten Volkszählungsurteil fest: Die durch dieses Gesetz angeordnete Datenerhebung hat Beunruhigung auch in solchen Teilen der Bevölkerung ausgelöst, die als loyale Staatsbürger das Recht und die Pflicht des Staates respektieren, die für rationales und planvolles staatliches Handeln erforderlichen Informationen zu beschaffen. Dies mag teilweise daraus zu erklären sein, daß weithin Unkenntnis über Umfang und Verwendungszwecke der Befragung bestand und daß die Notwendigkeit zur verläßlichen Aufklärung der Auskunftspflichtigen nicht rechtzeitig erkannt worden ist, obwohl sich das allgemeine Bewußtsein durch die Entwicklung der automatisierten Datenverarbeitung seit den Mikrozensus-Erhebungen in den Jahren 1956 bis 1962 […] erheblich verändert hatte. Die Möglichkeiten der modernen Datenverarbeitung sind weithin nur noch für Fachleute durchschaubar und können beim Staatsbürger die Furcht vor einer unkontrollierbaren Persönlichkeitserfassung selbst dann auslösen, wenn der Gesetzgeber lediglich solche Angaben verlangt, die erforderlich und zumutbar sind. Zur Beunruhigung mag nicht zuletzt beigetragen haben, daß auch Sachkundige die Überzeugung vertraten, das Volkszählungsgesetz 1983 genüge trotz einstimmiger Verabschiedung in den gesetzgebenden Körperschaften schon in den Vorschriften über die Erhebung der Daten und vor allem in den Bestimmungen über deren Verwertung nicht hinreichend den verfassungsrechtlichen Anforderungen. (Rn. 2)

Unter den Bedingungen der automatischen Datenverarbeitung beschwor das Gericht die wachsende Gefahr für die Autonomie des Einzelnen, über die Offenbarung persönlicher Lebenssachverhalte selbst zu entscheiden: Diese Befugnis bedarf unter den heutigen und künftigen Bedingungen der automatischen Datenverarbeitung in besonderem Maße des Schutzes. Sie ist vor allem deshalb gefährdet, weil bei Entscheidungsprozessen nicht mehr wie früher auf manuell zusammengetragene Karteien und Akten zurückgegriffen werden muß, vielmehr heute mit Hilfe der automatischen Datenverarbeitung Einzelangaben über persönliche oder sachliche Verhältnisse einer bestimmten oder bestimmbaren Person […] technisch gesehen unbegrenzt speicherbar und jederzeit ohne Rücksicht auf Entfernungen in Sekundenschnelle abrufbar sind. Sie können darüber hinaus – vor allem beim Aufbau integrierter Informationssysteme – mit anderen Datensammlungen zu einem teilweise oder weitgehend vollständigen Persönlichkeitsbild zusammengefügt werden, ohne daß der Betroffene dessen Richtigkeit und Verwendung zureichend kontrollieren kann. Damit haben sich in einer bisher unbekannten Weise die Möglichkeiten einer Einsichtnahme und Einflußnahme erweitert, welche auf das Verhalten des Einzelnen schon durch den psychischen Druck öffentlicher Anteilnahme einzuwirken vermögen. (Rn. 147) Individuelle Selbstbestimmung setzt aber – auch unter den Bedingungen moderner Informationsverarbeitungstechnologien – voraus, daß dem Einzelnen Entscheidungsfreiheit über vorzunehmende oder zu unterlassende Handlungen einschließlich der Möglichkeit gegeben ist, sich auch entsprechend dieser Entscheidung tatsächlich zu verhalten. Wer nicht mit hinreichender Sicherheit überschauen kann, welche ihn betreffende Informationen in bestimmten Bereichen seiner sozialen Umwelt bekannt sind, und wer das Wis-

46  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

sen möglicher Kommunikationspartner nicht einigermaßen abzuschätzen vermag, kann in seiner Freiheit wesentlich gehemmt werden, aus eigener Selbstbestimmung zu planen oder zu entscheiden. Mit dem Recht auf informationelle Selbstbestimmung wären eine Gesellschaftsordnung und eine diese ermöglichende Rechtsordnung nicht vereinbar, in der Bürger nicht mehr wissen können, wer was wann und bei welcher Gelegenheit über sie weiß. Wer unsicher ist, ob abweichende Verhaltensweisen jederzeit notiert und als Information dauerhaft gespeichert, verwendet oder weitergegeben werden, wird versuchen, nicht durch solche Verhaltensweisen aufzufallen. Wer damit rechnet, daß etwa die Teilnahme an einer Versammlung oder einer Bürgerinitiative behördlich registriert wird und daß ihm dadurch Risiken entstehen können, wird möglicherweise auf eine Ausübung seiner entsprechenden Grundrechte (Art 8, 9 Grundgesetz)3 verzichten. Dies würde nicht nur die individuellen Entfaltungschancen des Einzelnen beeinträchtigen, sondern auch das Gemeinwohl, weil Selbstbestimmung eine elementare Funktionsbedingung eines auf Handlungsfähigkeit und Mitwirkungsfähigkeit seiner Bürger begründeten freiheitlichen demokratischen Gemeinwesens ist. (Rn. 148)

Aus dieser Gefährdungslage folgerte das Bundesverfassungsgericht schließlich: Freie Entfaltung der Persönlichkeit setzt unter den modernen Bedingungen der Datenverarbeitung den Schutz des Einzelnen gegen unbegrenzte Erhebung, Speicherung, Verwendung und Weitergabe seiner persönlichen Daten voraus. Dieser Schutz ist daher von dem Grundrecht des Art 2 Abs. 1 in Verbindung mit Art 1 Abs. 1 GG umfaßt. Das Grundrecht gewährleistet insoweit die Befugnis des Einzelnen, grundsätzlich selbst über die Preisgabe und Verwendung seiner persönlichen Daten zu bestimmen. (Rn. 149)

Mit diesem wegweisenden Urteil wurde zu Beginn der 1980er Jahre die Befugnis des Einzelnen, über die Preisgabe und Verwendung seiner persönlichen Daten selbst zu entscheiden, von den Verfassungswächtern als grundrechtlich verbürgt anerkannt. Dem Schutz persönlicher Daten wurde über das damals bereits mit Artikel 10 Grundgesetz gewährleistete Fernmeldegeheimnis hinaus eine allgemein bedeutende, verfassungsrechtliche Rolle zugestanden.

Das Datenschutzrecht im 21. Jahrhundert Heutzutage sieht sich der Datenschutz zunehmend noch von einer anderen Seite in Bedrängnis gebracht: durch private Unternehmen. Galt das Datenschutzrecht bei seiner Kodifizierung in den 1970er und 1980er Jahren vornehmlich als Abwehrmechanismus gegen den die neuen technischen Möglichkeiten der Überwachung entdeckenden Staat, geraten im 21. Jahrhundert zunehmend

3 Artikel 8 Grundgesetz verbürgt die Versammlungsfreiheit, Artikel 9 Grundgesetz die Vereinigungsfreiheit.

Die technische Basis des Internets 

47

datenschutzrechtliche Verstöße einzelner Unternehmen in den Fokus der Datenschützer. Der Datenschutz wird – insbesondere unter den Bedingungen der elektronischen Datenverarbeitung – oft stiefmütterlich behandelt. Seine Bestimmungen sind zudem über eine Vielzahl an Rechtsakten verschiedener Gesetzgeber verstreut; der Gegenstand des Datenschutzrechts erscheint unübersichtlich. Selbst von Juristen wird das Rechtsgebiet als verschlungen und zerklüftet geschildert. Darin mag eine Begründung für die häufige Missachtung des Datenschutzes liegen. Das große Interesse an umfangreichen, personenbezogenen Datenanalysen liegt als Grund freilich näher. Die – wohlgemerkt oftmals freiwillig preisgegebenen – Daten ihrer Nutzer sind Geschäftsgrundlage für unzählige Internetunternehmen; ihr Schutz läuft kommerziellen Interessen zuwider. Geprägt wird das Datenschutzrecht vom sogenannten Verbot mit Erlaubnisvorbehalt. Danach sind die Erhebung, Verarbeitung und Nutzung personenbezogener Daten grundsätzlich untersagt. Jede Datenverarbeitung braucht folglich eine Legitimation. Diese besteht nur, sofern und soweit ein Erlaubnistatbestand wie insbesondere die Einwilligung des Betroffenen oder eine gesetzliche Gestattung vorliegt. Als Abwehrmechanismus im Verhältnis des Bürgers zum Staat hat sich dieses Verbotsprinzip bewährt. Differenzierter stellt sich die Situation im Verhältnis zwischen Privaten dar. Hier begegnen sich oftmals widerstreitende Interessen, die jeweils grundrechtlichen Schutz genießen und gegeneinander abzuwägen sind wie insbesondere die Persönlichkeitsrechte einerseits, die Kommunikations-, Berufs- oder Handlungsfreiheit andererseits. Es wird zunehmend in Zweifel gezogen, ob das Verbotsprinzip für die Handhabung dieser Interessenkollisionen mit Rücksicht auf die Bedeutung, die die Kommunikation im Internet für den Meinungs- und Informationsaustausch hat, noch ein geeignetes Instrument ist. Ungeachtet dessen hält die aktuelle EU-Gesetzgebung zum Datenschutzrecht, respektive die sogenannte Datenschutz-Grundverordnung, die unmittelbare Geltung in den Rechtsordnungen der EU-Mitgliedstaaten hat, an diesem Prinzip fest.4 Unter den Bedingungen der Netzkommunikation gerät auch die Einwilligung des von der Datenverarbeitung Betroffenen als ein Erlaubnistatbestand im Sinne des Verbotsprinzips an ihre Grenzen: Die Vorstellung, der Nutzer könne in der Datenfülle der Netzkommunikation hinsichtlich der Preisgabe seiner Da4 Die Datenschutz-Grundverordnung (DSGVO) – Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27.04.2016 hebt die Richtlinie 95/46/EG des Europäischen Parlaments und des Rates vom 24. Oktober 1995 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten und zum freien Datenverkehr auf und stellt eine Abkehr von der indirekten Steuerung und Hinwendung zur unmittelbaren Geltung von Unionsrecht im Datenschutz dar.

48  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

ten noch die Übersicht behalten und entscheidungsfähig bleiben, wird zum Mythos. Der Entäußerung seiner Daten begegnet der Nutzer wirksam wohl nur mit einem weitgehenden Verzicht auf Teilhabe an der Internetnutzung, was in vielen Fällen einem weltfremden Verhalten gleichkäme. Als Gegenkonzept zur standardisierten, in der Regel vom Internetdiensteanbieter selbst bzw. auf dessen Veranlassung vorformulierten Einwilligung wird deshalb im Datenrausch des Internets zunehmend mehr Transparenz auf Seiten der Internetdiensteanbieter mit dem Ziel, die „Verlässlichkeit und Durchschaubarkeit von Kommunikationsinfrastruktur“ (Härting 2017, Rn. 163) zu verbessern, gefordert. So würde der Nutzer in die Lage versetzt, die ihn betreffende Datenverarbeitung zu erkennen und eine informierte Entscheidung über die Nutzung des angebotenen Dienstes zu treffen. Mit Inkrafttreten der Datenschutz-Grundverordnung am 25. Mai 2018 sind zumindest die Informationspflichten der Internetdiensteanbieter verschärft worden. Die Informationen müssen für den Nutzer einfach zugänglich und auf einer Webseite oder in anderer Form elektronisch vorgehalten werden. Sie sind in möglichst prägnanter Alltagssprache und leicht verständlich, gegebenenfalls auch in grafischer Darstellung, abzufassen. Bereits bestehende Datenschutzerklärungen, die über Art, Umfang und Zweck der Verarbeitung personenbezogener Daten informieren, müssen an die neuen Anforderungen angepasst werden. So ist zum Beispiel für die Einwilligung als Erlaubnistatbestand nunmehr vorgesehen, dass der Betroffene auf die Widerruflichkeit seiner Einwilligung sowie auf die fehlende Rückwirkung dieses Widerrufs hingewiesen wird. Wird die Datenverarbeitung mit dem in der Datenschutz-Grundverordnung geregelten Tatbestand der berechtigten Interessen begründet, müssen eben diese konkret angegeben werden. Zudem sind in der Datenschutzerklärung die für die Speicherung der personenbezogenen Daten vorgesehene Dauer bzw. die Umstände, nach denen sie sich bemisst, anzuführen. Hinweise zu den Rechten des Betroffenen auf Zugang, Berichtigung, Sperrung, Löschung, Widerspruch und Datenübertragbarkeit sowie das Beschwerderecht bei einer Aufsichtsbehörde dürfen ebenso wenig fehlen wie Angaben darüber, aus welcher Quelle die personenbezogenen Daten stammen und ob der Betroffene im Nutzungsfall einer ausschließlich auf einer automatisierten Verarbeitung, einschließlich des Profilings als der systematischen Auswertung von Nutzungsverhalten, beruhenden Entscheidung unterworfen wird, die für ihn rechtliche Folgen oder sonstige erhebliche Beeinträchtigungen zeitigt. Die Datenschutz-Grundverordnung sieht nunmehr für etwaige Rechtsverstöße Bußgelder bis zu einer Höhe von 20 Millionen Euro vor, um insbesondere unternehmerisches Fehlverhalten wirksam sanktionieren zu können. Dabei tritt ein datenschutzrechtliches Paradoxon zutage, auf das in der Literatur zu Recht

Die technische Basis des Internets



49

hingewiesen wird: Das einstige Abwehrinstrument gegen den übergriffigen Staat wird selbst zu einem Instrument staatlicher Kontrolle (siehe Härting 2017, Rn. 76–77). Es wechselt gewissermaßen die Seiten.

Das neue IT-Grundrecht Im Februar 2008 hat das Bundesverfassungsgericht einen weiteren historischen Schritt gewagt: In seiner Entscheidung zur Onlinedurchsuchung nach nordrhein-westfälischem Landesrecht hat es unter den Bedingungen des digitalen Zeitalters ein neues Grundrecht auf Gewährleistung der Vertraulichkeit und Integrität informationstechnischer Systeme, das sogenannte IT-Grundrecht, geschaffen. Zur Entscheidung lagen ihm verschiedene Verfassungsbeschwerden vor, die sich gegen die Vorschriften des Verfassungsschutzgesetzes NordrheinWestfalen zur Regelung des verdeckten Zugriffes auf informationstechnische Systeme, der sogenannten Onlinedurchsuchung, wandten. Zur Gewährleistung grundrechtlichen Schutzes vor dem Ausspähen in informationstechnischen Systemen sah das Gericht in seinem Urteil vom 27. Februar 2008, Aktenzeichen 1 BvR 370/07, 1 BvR 595/07 die Notwendigkeit zur verfassungsgerichtlichen Rechtsentwicklung: Soweit kein hinreichender Schutz vor Persönlichkeitsgefährdungen besteht, die sich daraus ergeben, dass der Einzelne zu seiner Persönlichkeitsentfaltung auf die Nutzung informationstechnischer Systeme angewiesen ist, trägt das allgemeine Persönlichkeitsrecht dem Schutzbedarf in seiner lückenfüllenden Funktion über seine bisher anerkannten Ausprägungen hinaus dadurch Rechnung, dass es die Integrität und Vertraulichkeit informationstechnischer Systeme gewährleistet. Dieses Recht fußt gleich dem Recht auf informationelle Selbstbestimmung auf Art. 2 Abs. 1 in Verbindung mit Art. 1 Abs. 1 GG; es bewahrt den persönlichen und privaten Lebensbereich der Grundrechtsträger vor staatlichem Zugriff im Bereich der Informationstechnik auch insoweit, als auf das informationstechnische System insgesamt zugegriffen wird und nicht nur auf einzelne Kommunikationsvorgänge oder gespeicherte Daten. (Rn. 201)

Zum Schutzgehalt des neuen Grundrechts führte das Bundesverfassungsgericht aus: Geschützt vom Grundrecht auf Gewährleistung der Vertraulichkeit und Integrität informationstechnischer Systeme ist zunächst das Interesse des Nutzers, dass die von einem vom Schutzbereich erfassten informationstechnischen System erzeugten, verarbeiteten und gespeicherten Daten vertraulich bleiben. Ein Eingriff in dieses Grundrecht ist zudem dann anzunehmen, wenn die Integrität des geschützten informationstechnischen Systems angetastet wird, indem auf das System so zugegriffen wird, dass dessen Leistungen, Funktionen und Speicherinhalte durch Dritte genutzt werden können; dann ist die entschei-

50  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

dende technische Hürde für eine Ausspähung, Überwachung oder Manipulation des Systems genommen. (Rn. 204)

Die Vorschriften des nordrhein-westfälischen Verfassungsschutzgesetzes genügten den grundgesetzlichen Anforderungen nicht und waren deshalb verfassungswidrig. Mit seiner Entscheidung hat das Bundesverfassungsgericht den Grundrechtsschutz im digitalen Zeitalter gestärkt und die Entwicklungsfähigkeit des Rechts bewiesen.

Die IP-Adresse und der Datenschutz Kommen wir nach den zugegebenermaßen umfangreichen, allgemeinen juristischen Ausführungen zurück zur IP-Adresse: Darüber, ob die IP-Adresse ein personenbezogenes Datum im Sinne des Datenschutzrechts ist, ließ sich in der Vergangenheit – und lässt sich ein Stückweit noch heute – trefflich streiten. Diese Frage ist auch für unsere oben angestellte Überlegung von Bedeutung, ob die Nutzung der IP-Adressen durch das Datenschutzrecht reglementiert wird. Die Datenschutz-Grundverordnung wählt eine weite Definition und lässt jede Information, die sich auf eine bestimmte oder bestimmbare natürliche Person bezieht, zum personenbezogenen Datum werden. In Artikel 4 Nummer 1 der Datenschutz-Grundverordnung heißt es: […] „personenbezogene Daten“ [sind] alle Informationen, die sich auf eine identifizierte oder identifizierbare natürliche Person (im Folgenden „betroffene Person“) beziehen; als identifizierbar wird eine natürliche Person angesehen, die direkt oder indirekt, insbesondere mittels Zuordnung zu einer Kennung wie einem Namen, zu einer Kennnummer, zu Standortdaten, zu einer Online-Kennung oder zu einem oder mehreren besonderen Merkmalen identifiziert werden kann, die Ausdruck der physischen, physiologischen, genetischen, psychischen, wirtschaftlichen, kulturellen oder sozialen Identität dieser natürlichen Person sind […].

Auf die bisherige Rechtslage, die für unseren nächsten Rechtsstreit maßgeblich war und hinsichtlich des Begriffs der personenbezogenen Daten nach derzeitigem Kenntnisstand einer geringeren Veränderung unterliegt, als es der abweichende Wortlaut der Datenschutz-Grundverordnung zunächst vermuten lässt (siehe Krügel 2017, S. 455), werfen wir auch noch schnell einen Blick: Wann personenbezogene Daten vorlagen, bestimmte sich insbesondere nach § 3 Absatz 1 und § 3 Absatz 9 des Bundesdatenschutzgesetzes. Das Gesetz definierte personenbezogene Daten als Einzelangaben über persönliche oder sachliche Verhältnisse einer bestimmten oder bestimmbaren natürlichen Person. Zum Beispiel

Die technische Basis des Internets



51

der Name, das Geburtsdatum, der Familienstand, die Postadresse, die E-MailAdresse, die Telefonnummern, die Matrikelnummern eingeschriebener Studierender oder die Personalnummern von Beschäftigten galten als Daten über persönliche Verhältnisse, die bestimmten Personen zuzuordnen sind. Besondere Arten personenbezogener Daten waren nach § 3 Absatz 9 BDSG Angaben über die rassische und ethnische Herkunft, politische Meinungen, religiöse oder philosophische Überzeugungen, eine Gewerkschaftszugehörigkeit, die Gesundheit oder das Sexualleben. Als Einzelangaben über sachliche Verhältnisse wurden beispielsweise Daten über Arztbesuche und Klinikaufenthalte, Reisen oder Einkäufe, die von einer natürlichen Person getätigt wurden, angesehen. Der durch das Datenschutzrecht intendierte Schutz personenbezogener Daten darf freilich nicht als „Eigentumsschutz“ an den eigenen Daten missverstanden werden. Das Bundesverfassungsgericht hat in seinem Volkszählungsurteil vom 15. Dezember 1983 die soziale Dimension personenbezogener Daten hervorgehoben und ein uneingeschränktes Herrschaftsrecht des Einzelnen über seine Daten abgelehnt: Der Einzelne hat nicht ein Recht im Sinne einer absoluten, uneinschränkbaren Herrschaft über „seine“ Daten; er ist vielmehr eine sich innerhalb der sozialen Gemeinschaft entfaltende, auf Kommunikation angewiesene Persönlichkeit. Information, auch soweit sie personenbezogen ist, stellt ein Abbild sozialer Realität dar, das nicht ausschließlich dem Betroffenen allein zugeordnet werden kann. Das Grundgesetz hat, wie in der Rechtsprechung des Bundesverfassungsgerichts mehrfach hervorgehoben ist, die Spannung Individuum – Gemeinschaft im Sinne der Gemeinschaftsbezogenheit und Gemeinschaftsgebundenheit der Person entschieden ([…]. (Rn. 150)

Gerade in der heutigen Welt der vernetzten Kommunikation sind personenbezogene (Kontakt-)Daten, die wie die E-Mail-Adresse oder die Mobilfunknummer die Erreichbarkeit des Einzelnen gestatten, in ihrer Bedeutung für die soziale Kommunikation und Interaktion nicht zu unterschätzen und können keinem absoluten Herrschaftsrecht unterstellt werden, ohne ihre gesellschaftliche Funktion einzubüßen. Die Kontaktdaten des Einzelnen als Teil der sozialen Realität können weder ausschließlich diesem noch demjenigen, der sie zum Beispiel in seinem Adressbuch speichert, zugewiesen werden. Doch setzen wir unsere Überlegungen zur IP-Adresse fort: Wird die IPAdresse durch den Access-Provider verarbeitet, ist allgemein anerkannt, dass sie ein personenbezogenes Datum im Sinne des Datenschutzrechts ist. Bei Herstellung der Verbindung mit dem Internet vergibt der Access-Provider eine dynamische IP-Adresse, die für die konkrete Session gilt. Im Normalfall kennt er seinen Kunden, dem er den Zugang zum Internet vermittelt, mit Namen und An-

52  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

schrift; beide sind Vertragspartner. Dem Access-Provider ist mithin bekannt, von welchem Anschluss aus mit der in Frage stehenden IP-Adresse das Internet genutzt wird. Er kann die IP-Adresse einer bestimmten Person zuordnen und verarbeitet diese als personenbezogenes Datum. Für die statische IP-Adresse, die unveränderlich ist und durch dauerhafte Zuweisung an einen Internetteilnehmer die Identifizierung des an das Netz angeschlossenen Geräts ermöglicht, wird ohnehin ganz überwiegend bejaht, dass es sich bei dieser um ein personenbezogenes Datum handelt. Anders hingegen sieht es bei der dynamischen IP-Adresse in der folgenden Fallgestaltung aus. Beim Aufrufen einer – für unsere Darstellung fiktiv gewählten – Webseite wird die IP-Adresse des Anschlusses dem Betreiber der Webseite mitgeteilt. Das klingt in etwa so: Der Anschluss mit der IP-Adresse 141.84.147.199 fragt die Übersendung der Daten zur Webseite www.hollunderbluete.de an.

Da die dynamisch vergebene IP-Adresse in diesem Moment weltweit lediglich dem anfragenden Rechner zuzuordnen ist, wird die Übersendung der erbetenen Daten an eben diesen gewährleistet. Der Webseitenbetreiber benutzt einen sogenannten Webserver, um die Daten seiner Webseiten zu speichern und die an ihn adressierten Anfragen auf Datenübermittlung zu bearbeiten. Bei Beantwortung einer Datenanfrage werden die IP-Adresse des kontaktierenden Anschlusses und der Zeitpunkt der Anfrage regelmäßig im Serverlog protokolliert: 141.84.147.199 – 04/05/2018 22:36:04 – http://www.hollunderbluete.de/start.htm.

Auf einer stark frequentierten Webseite können ohne weiteres mehrere hunderttausend Einträge produziert werden. Handelt es sich bei diesen Angaben nun um personenbezogene Daten? Die Information darüber, dass bzw. wann eine Person eine bestimmte Webseite besucht hat, kann brisant sein. Deshalb ist die Frage, ob diese Angaben unter Datenschutz gestellt werden sollten, durchaus bedeutsam. Dem Webseitenbetreiber gelingt anhand der IP-Adresse allein nicht die Zuordnung zu einem Anschluss und damit einer – zumindest im Vertragsverhältnis, nicht zwingend bezüglich der konkreten Nutzung bestimmbaren – Person. Allerdings besteht für den Webseitenbetreiber die theoretische Möglichkeit, die Person, die hinter dem durch die IP-Adresse gekennzeichneten und im Serverlog erfassten Anschluss steht, unter Mitwirkung des Access-Providers zu ermitteln. Datenschützer halten diese Möglichkeit, die sogenannte objektive bzw.

Die technische Basis des Internets 

53

absolute Bestimmbarkeit der betroffenen Person, mitunter für ausreichend, um die Anwendung des Datenschutzrechtes zu begründen. Nach anderer Auffassung ist hingegen nur zu beurteilen, ob die datenverarbeitende Stelle ohne Mitwirkung Dritter, die über das erforderliche Zusatzwissen verfügen, einen Personenbezug herstellen kann. Mit diesem relativen Ansatz der subjektiven Bestimmbarkeit ist der Personenbezug auszuschließen, wenn die Bestimmung des Betroffenen für die datenverarbeitende Stelle nur mit unverhältnismäßigem Zeit-, Kosten- und Personalaufwand möglich wäre. Unter diesen Umständen könne das verbleibende Risiko einer Personalisierung, so die Vertreter dieser Auffassung, vernachlässigt werden. Mit dieser Ansicht ist es folglich denkbar, dass dieselben Daten für den Access-Provider als personenbezogen, den Webseitenbetreiber hingegen als nicht personenbezogen qualifiziert werden müssen. Im Jahre 2014 hat der Bundesgerichtshof mit seinem Beschluss vom 28. Oktober 2014, Aktenzeichen VI ZR 135/13 den Europäischen Gerichtshof (EuGH) als oberstes Rechtsprechungsorgan der Europäischen Union im sogenannten Vorabentscheidungsverfahren5 um Klärung gebeten, ob die für den im Folgenden näher skizzierten Rechtsstreit relevante Datenschutzrichtlinie 95/46/EG des Europäischen Parlaments und des Rates vom 24. Oktober 1995 [...] dahin auszulegen [ist], dass eine Internetprotokoll-Adresse (IP-Adresse), die ein Dienstanbieter im Zusammenhang mit einem Zugriff auf seine Internetseite speichert, für diesen schon dann ein personenbezogenes Datum darstellt, wenn ein Dritter (hier: Zugangsanbieter) über das zur Identifizierung der betroffenen Person erforderliche Zusatzwissen verfügt. (vor Rn. 1)

Gegenstand des Rechtsstreits war die Klage eines Internetnutzers gegen die Bundesrepublik Deutschland auf Unterlassung der nach Beendigung des Nutzungsvorgangs fortgesetzten Speicherung von IP-Adressen, die beim Abrufen von Webseiten der Beklagten, betrieben von Einrichtungen des Bundes, neben weiteren Angaben wie zum Beispiel zu den aufgerufenen Seiten bzw. Dateien, den eingegebenen Suchbegriffen, dem Zeitpunkt des Abrufs oder der übertragenen Datenmenge erhoben und in den Protokolldateien gespeichert wurden. Das Amtsgericht Tiergarten hatte in seinem Urteil vom 13. August 2008, Aktenzeichen 2 C 6/08 die Klage abgewiesen. In der Berufungsinstanz hat das Landge-

5 Im Vorabentscheidungsverfahren entscheidet der Europäische Gerichtshof auf Vorlage oder Anrufung des Gerichts eines Mitgliedstaates über die Auslegung des Vertrags über die Europäische Union und des Vertrags über die Arbeitsweise der Europäischen Union. Er entscheidet darüber hinaus über die Gültigkeit und die Auslegung der Rechtsakte der Organe, Einrichtungen oder sonstigen Stellen der Europäischen Union.

54  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

richt Berlin das erstinstanzliche Urteil in Teilen abgeändert. Die Beklagte wurde mit Urteil vom 31. Januar 2013, Aktenzeichen 57 S 87/08 verurteilt, es zu unterlassen, die Internetprotokoll-Adresse (IP-Adresse) des zugreifenden Hostsystems des Klägers, die im Zusammenhang mit der Nutzung öffentlich zugänglicher Telemedien der Beklagten im Internet […] übertragen wird, in Verbindung mit dem Zeitpunkt des jeweiligen Nutzungsvorgangs über das Ende des jeweiligen Nutzungsvorgangs hinaus zu speichern oder durch Dritte speichern zu lassen, sofern der Kläger während eines Nutzungsvorgangs seine Personalien, auch in Form einer die Personalien ausweisenden EMail-Anschrift, angibt und soweit die Speicherung nicht im Störungsfall zur Wiederherstellung der Verfügbarkeit des Telemediums erforderlich ist. (Rn. 52)

Für den Fall der Verbindung der IP-Adresse mit während des Nutzungsvorgangs hinterlassenen Personalien wie zum Beispiel dem Klarnamen hat das Berufungsgericht das Vorliegen eines personenbezogenen Datums festgestellt. Einen darüber hinausgehenden Unterlassungsanspruch hat das Gericht hingegen verneint, da für den Fall, dass der Nutzer seine Personalien während des Nutzungsvorgangs nicht preisgebe, lediglich der Access-Provider in der Lage sei, die IP-Adresse einem bestimmten Anschlussinhaber zuzuordnen. Für die Beklagte als Webseitenbetreiberin hingegen sei der Nutzer allein auf Grundlage der IP-Adresse nicht identifizierbar. Beide Parteien des Rechtsstreits haben gegen das Urteil des Berufungsgerichts Revision eingelegt und sich vor dem Bundesgerichtshof, der an der Spitze der Amtsgerichte, Landgerichte und Oberlandesgerichte in Deutschland steht, getroffen. Der Bundesgerichtshof wandte sich in seinem Beschluss vom 28. Oktober 2014 an den Europäischen Gerichtshof, um die für das im Rechtsstreit anzuwendende Telemediengesetz maßgebliche Definition in § 3 Absatz 1 BDSG zu den personenbezogenen Daten hinsichtlich der IP-Adresse zu präzisieren. So führte der Bundesgerichtshof zu der oben zitierten Vorlagefrage unter Berücksichtigung der gesetzlichen Definition personenbezogener Daten in § 3 Absatz 1 BDSG aus, dass [d]ie von der Beklagten gespeicherten dynamischen IP-Adressen […] jedenfalls im Kontext mit den weiteren in den Protokolldateien gespeicherten Daten als Einzelangaben über sachliche Verhältnisse anzusehen [sind], da die Daten Aufschluss darüber gaben, dass zu bestimmten Zeitpunkten bestimmte Seiten bzw. Dateien über das Internet abgerufen wurden […]. Diese sachlichen Verhältnisse waren solche des Klägers; denn er war Inhaber des Anschlusses, dem die IP-Adressen zugewiesen waren […], und hat die Internetseiten im Übrigen auch selbst aufgerufen. Da die gespeicherten Daten aber aus sich heraus keinen unmittelbaren Rückschluss auf die Identität des Klägers zuließen, war dieser nicht „bestimmt“ im Sinne des § 3 Abs. 1 BDSG […]. Für den Personenbezug kommt es deshalb darauf an, ob er „bestimmbar“ war. (Rn. 22)

Die technische Basis des Internets 

55

Unter Darlegung der beiden widerstreitenden Auffassungen über die Bestimmbarkeit der Person fuhr der Bundesgerichtshof in seinem Vorlagebeschluss fort: Folgt man dem objektiven Ansatz, so waren die dem Anschluss des Klägers zugewiesenen und von der Beklagten gespeicherten dynamischen IP-Adressen auch über das Ende der einzelnen Nutzungsvorgänge hinaus personenbezogen. Denn das Berufungsgericht hat angenommen, dass der Zugangsanbieter des Klägers die für dessen Identifizierung anhand der IP-Adressen erforderlichen Daten über das Ende der einzelnen Internetverbindungen hinaus gespeichert hat […]. Mit diesem Zusatzwissen hätten die von der Beklagten gespeicherten Daten ohne unverhältnismäßigen Aufwand dem Kläger als Anschlussinhaber zugeordnet werden können. (Rn. 30) Folgt man demgegenüber dem relativen Ansatz, so ist der Personenbezug im Streitfall zu verneinen. Denn die Stellen der Beklagten, die die IP-Adressen des Klägers gespeichert haben, hätten den Kläger nicht ohne unverhältnismäßigen Aufwand identifizieren können. Nach den getroffenen Feststellungen ist davon auszugehen, dass ihnen – die Nichtangabe der Personalien vorausgesetzt – keine Informationen vorlagen, die dies ermöglicht hätten. Anders als es bei statischen IP-Adressen der Fall sein kann, lässt sich die Zuordnung dynamischer IP-Adressen zu bestimmten Anschlüssen keiner allgemein zugänglichen Datei entnehmen […]. (Rn. 31)

Eine dem relativen Ansatz genügende Verfügbarkeit der Daten sah der Bundesgerichtshof auch nicht in deren Zugänglichkeit anlässlich eines Ermittlungsverfahrens: Der Zugangsanbieter des Klägers durfte den Stellen der Beklagten, welche die IP-Adressen speichern (sog. verantwortliche Stellen), keine Auskunft über dessen Identität erteilen, weil es dafür keine gesetzliche Grundlage gibt […]. Alleine die Befugnisse der zuständigen Stellen nach § 113 TKG (etwa die Staatsanwaltschaft im Rahmen eines Ermittlungsverfahrens) rechtfertigen es noch nicht, die auf Grund dieser Befugnisse beschaffbaren Informationen auch für andere staatliche Stellen (etwa die Stellen der Beklagten, welche die IPAdressen speichern), an die diese Informationen nicht weitergegeben werden dürfen, als zugänglich anzusehen. Illegale Handlungen können – erst recht bei staatlichen Stellen – nicht als Mittel der Informationsbeschaffung angesehen werden. (Rn. 32)

Der Europäische Gerichtshof kam in seinem Urteil vom 16. Oktober 2016, Rechtssache C-582/14 bei Würdigung der Vorlagefrage hingegen zu folgendem Ergebnis: [Die Datenschutzrichtlinie 95/46/EG ist] dahin auszulegen […], dass eine dynamische IPAdresse, die von einem Anbieter von Online-Mediendiensten beim Zugriff einer Person auf eine Website, die dieser Anbieter allgemein zugänglich macht, gespeichert wird, für den Anbieter ein personenbezogenes Datum im Sinne der genannten Bestimmung darstellt, wenn er über rechtliche Mittel verfügt, die es ihm erlauben, die betreffende Person

56  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

anhand der Zusatzinformationen, über die der Internetzugangsanbieter dieser Person verfügt, bestimmen zu lassen. (Rn. 49)

Hinsichtlich der Zugänglichkeit dieser beim Access-Provider verfügbaren Zusatzinformationen hielt der Gerichtshof in Abweichung von der Bewertung, die der Bundesgerichtshof in seinem Vorlagebeschluss vorgenommen hatte, fest: Das vorlegende Gericht weist in seiner Vorlageentscheidung zwar darauf hin, dass das deutsche Recht es dem Internetzugangsanbieter nicht erlaube, dem Anbieter von OnlineMediendiensten die zur Identifizierung der betreffenden Person erforderlichen Zusatzinformationen direkt zu übermitteln, doch gibt es offenbar – vorbehaltlich der vom vorlegenden Gericht insoweit vorzunehmenden Prüfungen – für den Anbieter von Online-Mediendiensten rechtliche Möglichkeiten, die es ihm erlauben, sich insbesondere im Fall von Cyberattacken an die zuständige Behörde zu wenden, damit diese die nötigen Schritte unternimmt, um die fraglichen Informationen vom Internetzugangsanbieter zu erlangen und die Strafverfolgung einzuleiten. (Rn. 47) Der Anbieter von Online-Mediendiensten verfügt somit offenbar über Mittel, die vernünftigerweise eingesetzt werden könnten, um mit Hilfe Dritter, und zwar der zuständigen Behörde und dem Internetzugangsanbieter, die betreffende Person anhand der gespeicherten IP-Adressen bestimmen zu lassen. (Rn. 48)

Die Aussicht des Webseitenbetreibers, im Falle von Cyberangriffen mithilfe der Strafverfolgungsbehörden Angaben über die Identität des Nutzers vom AccessProvider zu erlangen, nahm der Gerichtshof in seiner Entscheidung zur Grundlage, um die IP-Adresse als personenbezogenes Datum zu qualifizieren. In der Literatur stößt diese Rechtsprechung auf Kritik: Zwar knüpfe der Gerichtshof in seiner Argumentation an den relativen Ansatz an. Mit dem eher als Ausnahme anzunehmenden Fall eines Cyberangriffs liebäugle er jedoch mit einer absoluten Bestimmbarkeit der Person, die den Datenschutz überstrapaziere und kaum mehr Raum für Daten ließe, die nicht als personenbezogen qualifiziert werden könnten (siehe Härting 2017, Rn. 117–119). Die neue Datenschutz-Grundverordnung schafft in dieser Streitfrage übrigens keine Klarheit. Sie tendiert zu einem umfassenden Begriff des Personenbezugs und sieht einen möglichst weiten Anwendungsbereich des Datenschutzrechts vor. Eine unangreifbare, eindeutige Entscheidung für das absolute oder das relative Verständnis des Personenbezugs lässt sich ihren Bestimmungen allerdings nicht entnehmen. In Erwägungsgrund 26 der Datenschutz-Grundverordnung, der für die Auslegung des Personenbezugs von Bedeutung ist, heißt es dazu in Satz 3: Um festzustellen, ob eine natürliche Person identifizierbar ist, sollten alle Mittel berücksichtigt werden, die von dem Verantwortlichen oder einer anderen Person nach allgemei-

Die technische Basis des Internets



57

nem Ermessen wahrscheinlich genutzt werden, um die natürliche Person direkt oder indirekt zu identifizieren […]. Bei der Feststellung, ob Mittel nach allgemeinem Ermessen wahrscheinlich zur Identifizierung der natürlichen Person genutzt werden, sollten alle objektiven Faktoren, wie die Kosten der Identifizierung und der dafür erforderliche Zeitaufwand, herangezogen werden, wobei die zum Zeitpunkt der Verarbeitung verfügbare Technologie und technologische Entwicklungen zu berücksichtigen sind.

Die nach Beendigung des Nutzungsvorgangs fortgesetzte Speicherung der erhobenen IP-Adresse ohne Einwilligung des Nutzers beanstandete der Gerichtshof in dem konkreten Fall übrigens nicht. Soweit deren Erhebung und Verwendung erforderlich seien, um die generelle Funktionsfähigkeit der Dienste sicherzustellen, stünde deren Rechtmäßigkeit außer Frage. Allerdings bedürfe es zur Würdigung der konkreten Umstände einer Abwägung mit dem Interesse und den Grundrechten und -freiheiten des Nutzers (siehe Rn. 63–64). In seinem Urteil vom 16. Mai 2017, Aktenzeichen VI ZR 135/13 zum besagten Rechtsstreit führte der Bundesgerichtshof die Rechtsprechung des Europäischen Gerichtshofs fort.

Die Rolle der Provider Wir haben uns bereits am Rande mit ihnen befasst, denn ohne sie geht fast nichts im Internet: die Internetdiensteanbieter, auch Internet-Service-Provider genannt. Mit diesem Oberbegriff werden die Dienstleister, die Internetfunktionalitäten anbieten, bezeichnet. Folgende Providerrollen lassen sich unterscheiden: Access-Provider, Host-Provider und Content-Provider. Der Access-Provider bereitet den Zugang zum Internet. Er ermöglicht die Verbindung mit dem Netz und stellt sicher, dass die Protokollfunktionen wie IP-Adressierung und Routing für den Verbindungsaufbau reibungslos ihren Dienst versehen. Somit stellt er die Funktionalität der Schichten 1 bis 3 des TCP/ IP-Modells zur Verfügung. In der Hochschullandschaft übernehmen in der Regel die Rechenzentren die Rolle des Access-Providers. Im Allgemeinen arbeiten Provider nach dem Grundsatz der Netzneutralität, der nach dem „Best-Effort-Prinzip“ (Beckmann und Müller 2018, Rn. 9) für alle Netzteilnehmer „auf technischer Ebene gleiche Wettbewerbs- und Kommunikationsbedingungen“ (Peukert 2014, S. 87) sicherstellt. Das bedeutet, dass alle Datenpakete im Netz diskriminierungsfrei, mithin gleich behandelt werden, unabhängig von ihrem Nutzer, ihrem Inhalt, der verwendeten Software oder der benutzten Plattform etc. Der Begriff der Netzneutralität wurde von Tim Wu, einem US-amerikanischen Rechtswissenschaftler, im Jahr 2003 geprägt (siehe Wu

58  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

2003). Seit geraumer Zeit wird der Grundsatz der Netzneutralität in Frage gestellt, denn mittlerweile ist es technisch möglich, Datenpakete in unterschiedlicher Qualität weiterzuleiten. In einem Internet der zwei Geschwindigkeiten, auch Zweiklasseninternet genannt, könnten die Netzbetreiber ihren Leistungskatalog und ihre Tarifstruktur entsprechend ausdifferenzieren und, so die Erwartung, höhere Einnahmen durch die Vorzugsbehandlung zahlungskräftiger Kunden erzielen. Die Diskussionen darum, welche Beachtung der Grundsatz in der Zukunft erfahren soll, haben zuerst in den USA begonnen und werden nun auch in der Europäischen Union geführt. An dieser Stelle können wir uns einem weiteren, wirklich umfangreichen Fall aus der Rechtsprechung des Bundesgerichtshofs zuwenden, der hier allerdings nur deutlich gekürzt Erwähnung finden soll. Ausgangspunkt des Rechtsstreits war die Klage von Tonträgerherstellern gegen ein Telekommunikationsunternehmen, das als Access-Provider seinen Kunden Zugang zum Internet vermittelte. Die Klägerinnen sahen ihr Geschäftsmodell durch Angebote zum kostenlosen Herunterladen von Musikstücken in Onlinetauschbörsen (Filesharing) zunehmend bedroht. Deshalb machten sie eine Verletzung ihrer Rechte durch den Access-Provider geltend, der seinen Kunden den Zugang zu Tauschbörsen wie goldesel.to, einem der derzeit größten, deutschsprachigen Internetportale für die Vermittlung illegaler Downloads, verschaffte. Der Bundesgerichtshof ging in seinem Urteil vom 26. November 2015, Aktenzeichen I ZR 174/14 der Frage nach, ob den Access-Provider die sogenannte Störerhaftung treffen könnte. Nach den Grundsätzen der Störerhaftung haftet, wer, ohne die Rechtsverletzung selbst begangen zu haben, in irgendeiner Weise willentlich und adäquatkausal an der rechtswidrigen Beeinträchtigung mitgewirkt hat: Als Störer kann bei der Verletzung absoluter Rechte auf Unterlassung in Anspruch genommen werden, wer – ohne Täter oder Teilnehmer zu sein – in irgendeiner Weise willentlich und adäquat-kausal zur Verletzung des geschützten Rechtsguts beiträgt. Da die Störerhaftung nicht über Gebühr auf Dritte erstreckt werden kann, die die rechtswidrige Beeinträchtigung nicht selbst vorgenommen haben, setzt die Haftung des Störers nach der Rechtsprechung des Senats die Verletzung von Prüfpflichten voraus. Deren Umfang bestimmt sich danach, ob und inwieweit dem als Störer Inanspruchgenommenen nach den Umständen eine Prüfung zuzumuten ist […] (Rn. 21)

In der Vermittlung des Zugangs zum Internet, so der Bundesgerichtshof, lag die willentliche und adäquat-kausale Mitwirkung an der Veröffentlichung der fremden Musikwerke im Internet, der sogenannten öffentlichen Zugänglichmachung, die urheberrechtswidrig erfolgte. Als weitere Voraussetzung für eine Störerhaftung bedurfte es jedoch nach der Rechtsprechung des Gerichts noch einer

Die technische Basis des Internets 

59

Verletzung von Prüfpflichten. Prüfpflichten allgemeiner Art lehnte der Bundesgerichtshof ab: […] Diensteanbieter [sind] nicht verpflichtet, die von ihnen übermittelten oder gespeicherten Informationen zu überwachen oder nach Umständen zu forschen, die auf eine rechtswidrige Tätigkeit hindeuten. […] Überwachungspflichten allgemeiner Art [sind] ausgeschlossen. (Rn. 21) Die Auferlegung einer anlasslosen, allgemeinen Überwachungs- oder Nachforschungspflicht kommt daher vorliegend nicht in Betracht. Eine Prüfpflicht der Beklagten […] konnte daher erst entstehen, nachdem sie von den Klägerinnen auf eine klare Rechtsverletzung in Bezug auf die konkreten Musikwerke hingewiesen worden war […]. (Rn. 27)

Tatsächlich war der Access-Provider von den Klägerinnen auf eine Rechtsverletzung hinsichtlich konkret benannter Musikwerke hingewiesen worden. Für die Frage, ob und in welchem Umfang ihm Überwachungs- und Sperrmaßnahmen zugemutet werden konnten, forderte der Bundesgerichtshof jedoch [i]m Hinblick darauf, dass der Access-Provider ein von der Rechtsordnung gebilligtes und in Bezug auf Rechtsverletzungen Dritter neutrales Geschäftsmodell verfolgt, […] eine vorrangige Rechtsverfolgung gegenüber denjenigen Beteiligten […], die – wie die Betreiber beanstandeter Webseiten – entweder die Rechtsverletzung selbst begangen oder zu der Rechtsverletzung – wie der Host-Provider der beanstandeten Webseiten – durch die Erbringung von Dienstleistungen beigetragen haben. Dagegen kommt die Geltendmachung von Ansprüchen gegen den Zugangsvermittler unter dem Gesichtspunkt der Verhältnismäßigkeit nur in Betracht, wenn der Inanspruchnahme des Betreibers der Webseite jede Erfolgsaussicht fehlt und deshalb andernfalls eine Rechtsschutzlücke entstünde. Für dieses Ergebnis spricht auch der Umstand, dass der Betreiber der Webseite und sein HostProvider wesentlich näher an der Rechtsgutsverletzung sind als derjenige, der nur allgemein den Zugang zum Internet vermittelt. (Rn. 83)

In seinem Urteil hat der Bundesgerichtshof folglich eine subsidiäre, d.h. nachgeordnete Haftung des Access-Providers angenommen. Mit dem Dritten Gesetz zur Änderung des Telemediengesetzes vom 28. September 2017 hat der Gesetzgeber einige Haftungsfragen neu geregelt. Die Reichweite dieser gesetzlichen Änderungen in Fällen wie dem vor dem Bundesgerichtshof verhandelten ist jedoch umstritten. Das Landgericht München I hat in seinem Urteil vom 01. Februar 2018, Aktenzeichen 7 O 17752/17 die Ansicht vertreten, dass die Haftung von „‚regulären‘ Internetzugangsprovidern“ (Rn. 38) im Unterschied zu den WLAN-Betreibern (siehe dazu das Urteil des Bundesgerichtshofs vom 26. Juli 2018, Aktenzeichen I ZR 64/17) durch die Gesetzesänderung keiner Neuregelung unterworfen sei.

60  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

Dem Gericht lag der Antrag eines Filmverleihs auf Unterlassungsverfügung gegen einen Access-Provider vor, der seinen Kunden über das Internet Zugang zum Film „Fack Ju Göthe 3“ auf der Website kinox.to vermittelte. Kinox.to zählt zu den 50 beliebtesten Websites in Deutschland und bietet als Video-on-Demand-Website – zumeist unter Verstoß gegen das Urheberrecht – urheberrechtlich geschützte Werke, insbesondere Kinofilme, aber auch Serien und Dokumentationen an. Der Filmverleih ist Inhaber der Verwertungsrechte an dem Film „Fack Ju Göthe 3“, der zusammen mit den beiden bereits vorausgegangenen Teilen zu den wirtschaftlich erfolgreichsten deutschsprachigen Filmproduktionen gehört und zum Zeitpunkt des Antrags in den Kinos gezeigt wurde. Das Landgericht München I nahm in seinem Urteil Bezug auf die Entscheidung des Bundesgerichtshofs vom 25. November 2015, mit der wir uns zuvor befasst haben, und prüfte eine Störerhaftung des Access-Providers. Es hob hervor, dass sich der Filmverleih bereits bemüht hatte, gegen die Betreiber der Website kinox.to vorzugehen. Diese Anstrengungen waren jedoch erfolglos geblieben. Auf einen weiteren Unterschied zwischen den Sachverhalten wies das Gericht ausdrücklich hin: Weiter ist zu sehen, dass im vorliegenden Fall ein privater Rechteinhaber Rechte aus einem Film geltend macht, der gerade neu erschienen ist und deshalb in der wichtigsten Phase seiner wirtschaftlichen Verwertung steht. Die Antragstellerin unter diesen Umständen auf ein zeitaufwendiges vorheriges Vorgehen gegen im Ausland ansässige offensichtlich nicht erreichbare und darüber hinaus hoch kriminelle agierende Rechtsverletzer zu verweisen, ist unzumutbar. Dies ist ein erheblicher Unterschied zu dem vom Bundesgerichtshof entschiedenen Fall, in dem eine Verwertungsgesellschaft Rechte aus Werken geltend gemacht hat, die bereits über 30 Jahre alt waren und zu den Klassikern der Popmusik gerechnet werden können (z.B. Michael Jackson: Thriller). In einem derartigen Fall kann auch die Forderung nach einem langwierigeren vorherigen Vorgehen gegen die unmittelbaren Täter berechtigt sein. (Rn. 6)

Unter diesen Umständen bejahte das Landgericht die Störerhaftung des AccessProviders und verpflichtete ihn zur Zugangssperrung. Auch in der Berufungsinstanz konnte sich der Access-Provider mit seiner Rechtsauffassung nicht durchsetzen (siehe Urteil des Oberlandesgerichts München vom 14. Juni 2018, Aktenzeichen 29 U 732/18). Doch zurück zu den Providerrollen: Der Host- bzw. Webspace- oder Webhost-Provider hält verschiedene Ressourcen wie Webspace, ContentManagement-Systeme, Sicherungssysteme, E-Mail-Lösungen, Hochverfügbarkeitssysteme oder Datenbanken für seine Anwender bereit. Im TCP/IP-Modell ist der Host-Provider auf der vierten Schicht, der Application Layer, anzusiedeln. Prominente Beispiele für Host-Provider sind blogger.com und wordpress. com, die technische Plattformen zur Einrichtung und Unterhaltung von Websei-

Die technische Basis des Internets 

61

ten zur Verfügung stellen. Eine neuere Form des Hostings ist das Cloud-Hosting. Mit den die Host-Provider betreffenden Rechtsfragen werden wir uns insbesondere im zweiten Kapitel eingehender beschäftigen. Zu den Content-Providern zählen schließlich alle, die eigene Inhalte ins Internet einbringen. Vielleicht auch Sie?

Provider und Datenschutz Die Tätigkeit der Provider lässt uns wieder an das Datenschutzrecht denken: Die Erhebung, Speicherung, Veränderung und Übermittlung personenbezogener (Kunden-)Daten durch Internet-Service-Provider gehörten nämlich ebenfalls zu den umstrittenen rechtspolitischen Themen des digitalen Zeitalters. In diesem Zusammenhang schauen wir auf einen prominenten Fall, den Sie vor einigen Jahren sicherlich mitverfolgt haben: Vor Einführung der am 01. Januar 2008 in Kraft getretenen Regelungen für die Vorratsdatenspeicherung war umstritten, in welchem zeitlichen Umfang Anbieter öffentlich zugänglicher Telekommunikationsdienste berechtigt waren, die Verbindungsdaten ihrer Kunden zu speichern und auf Anfrage darüber Angaben zu machen. Hintergrund der Vorratsdatenspeicherung ist, dass zur Verfolgung von Straftaten und anderen Rechtsverstößen, zum Beispiel im Urheberrecht, die Auskunft des Providers über einzelne IP-Adressen und damit darüber, ob, zu welcher Zeit, von welchem Ort und in welchem Umfang Verbindungen zwischen Telekommunikationseinrichtungen unterhalten oder aufzunehmen versucht worden sind, dienlich sein kann. Mit dem Gesetz zur Neuregelung der Telekommunikationsüberwachung und anderer verdeckter Ermittlungsmaßnahmen sowie zur Umsetzung der Richtlinie 2006/24/EG vom 21. Dezember 2007 erließ der deutsche Gesetzgeber Regelungen zur Vorratsdatenspeicherung. Als wichtiger Beweggrund zum Erlass eben dieser durch die Mitgliedstaaten umzusetzenden Richtlinie galt die erleichterte Verfolgung von Straftaten insbesondere in den Bereichen der organisierten Kriminalität und des Terrorismus. Darüber hinaus sollte die Richtlinie der Vereinheitlichung der rechtlichen und technischen Anforderungen im Binnenmarkt, die Anbieter von öffentlich zugänglichen Telekommunikationsdiensten oder Betreiber öffentlicher Kommunikationsnetze hinsichtlich der zu speichernden Telekommunikationsdaten und der Speicherungsdauer aufgrund stark voneinander abweichender, mitgliedstaatlicher Regelungen zur Vorratsdatenspeicherung zu erfüllen hatten, dienen. Zweifel an der Gültigkeit der Richtlinie wurden mit Verweis auf ihre Unvereinbarkeit mit Gemeinschafts-

62  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

grundrechten sowie hinsichtlich der vom europäischen Gesetzgeber in Anspruch genommenen Kompetenzgrundlage vielfach geäußert. Für die vorsorgliche, sechsmonatige Speicherung von Telekommunikationsverkehrsdaten seitens der Anbieter öffentlich zugänglicher Telekommunikationsdienste sowie für die Verwendung dieser Daten wurden im deutschen Recht neben einer Änderung in der Strafprozessordnung insbesondere in das Telekommunikationsgesetz zwei Paragraphen, §§ 113a und 113b, eingefügt. Mit den neuen, telekommunikationsrechtlichen Regelungen zur Vorratsdatenspeicherung ging es nun allerdings nicht mehr um das Recht, sondern um die Pflicht der Anbieter, Telekommunikationsverkehrsdaten zu Festnetz-, Internetund Mobilfunktelefonaten, zum Versand von SMS-, MMS- und ähnlichen Nachrichten, zu E-Mail-Verbindungen und zum Internetzugang vorsorglich und anlasslos für sechs Monate zu speichern und für die staatliche Aufgabenwahrnehmung vorzuhalten. Für Anbieter, die öffentlich zugängliche Telekommunikationsdienste für Endnutzer erbrachten, ohne selbst Verkehrsdaten zu erzeugen oder zu verarbeiten, war vorgesehen, dass diese die Speicherung der besagten Daten und die Mitteilung an die Bundesnetzagentur darüber, wer diese Daten speichert, sicherstellten. Das Bundesverfassungsgericht als Hüter des Grundgesetzes erkannte in seinem Urteil vom 02. März 2010, Aktenzeichen 1 BvR 256/08, 1 BvR 263/08, 1 BvR 586/08 jedoch die Grundrechtswidrigkeit der neu eingeführten Bestimmungen und erklärte diese für nichtig. Gleichzeitig ließ es erkennen, dass die vorsorgliche, anlasslose Speicherung von Telekommunikationsverkehrsdaten durch private Diensteanbieter nicht grundsätzlich unvereinbar mit Artikel 10 Grundgesetz ist. Die zu prüfenden Bestimmungen wahrten jedoch den Grundsatz der Verhältnismäßigkeit nicht. So wurden insbesondere Berufsgeheimnisträger in ihrer vertraulichen Kommunikation nicht geschützt. Zudem wurde der behördliche Zugang zu den Daten nicht auf die Verfolgung schwerer Straftaten oder die Abwehr einer konkreten Gefahr für Leib, Leben oder Freiheit einer Person beschränkt und ohne Richtervorbehalt gewährt. Auch die Datensicherheit erschien dem Bundesverfassungsgericht nicht hinreichend berücksichtigt. In der Folge des Urteils wurde die Vorratsdatenspeicherung in Deutschland ausgesetzt. Im Jahr 2012 leitete die EU-Kommission ein Vertragsverletzungsverfahren gegen Deutschland ein, weil die Bundesrepublik als einziger Mitgliedstaat der Europäischen Union die Vorratsdatenschutzrichtlinie nicht umgesetzt hatte (siehe Europäischer Gerichtshof, Gerichtsinformation vom 11. Juli 2012, Rechtssache C-329/12). Mit einem Urteil des Europäischen Gerichtshofs erledigte sich dieses Verfahren allerdings: Die zugrunde liegende Richtlinie zur Vorratsdatenspeicherung wurde nämlich gut vier Jahre nach dem Urteil des Bundesverfassungsge-

Die technische Basis des Internets



63

richts vom Europäischen Gerichtshof mit Urteil vom 08. April 2014, Rechtssache C-293/12, C-594/12 für ungültig erklärt. Zu einer Speicherung von IP-Adressen auf Vorrat fehlte es den Access-Providern in der Folgezeit an einer wirksamen Berechtigung. Allerdings entschied der Bundesgerichtshof mit seinem Urteil vom 03. Juli 2014, Aktenzeichen III ZR 391/13, dass die Speicherung von IP-Adressen zur Vermeidung bzw. Beseitigung von Störungen der Telekommunikationsanlagen für einen Zeitraum von bis zu sieben Tagen nach Beendigung der Internetnutzung zulässig sei, da sie gerade nicht zu Zwecken der Strafverfolgung vorgenommen würde. Im Jahr 2015 hat der deutsche Gesetzgeber mit dem Gesetz zur Einführung einer Speicherpflicht und einer Höchstspeicherfrist für Verkehrsdaten neue Regelungen zur Vorratsdatenspeicherung für Zwecke der Strafverfolgung und Gefahrenabwehr verabschiedet, die noch im Dezember desselben Jahres in Kraft getreten sind. Für die darin bestimmten (Speicher-)Verpflichtungen war eine Übergangsfrist bis Ende Juni 2017 vorgesehen. Kurz vor Ablauf dieser Frist erließ das Oberverwaltungsgericht für das Land Nordrhein-Westfalen jedoch eine einstweilige Anordnung, der zufolge die Antragstellerin, ein IT-Unternehmen, bis zum rechtskräftigen Abschluss des Hauptsacheverfahrens nach den neuen Regelungen nicht zur Speicherung bestimmter Kundentelekommunikationsverkehrsdaten, die bei Vermittlung des Interzugangs anfallen, verpflichtet ist. Das Oberverwaltungsgericht wies in seinem Beschluss vom 22. Juni 2017, Aktenzeichen 13 B 238/17 sowohl auf eine objektiv-rechtliche Verletzung des Unionsrechts als auch auf eine Verletzung der Antragstellerin in subjektiv-öffentlichen Rechten hin: Dies folgt jedenfalls daraus, dass die Speicherpflicht keinen Zusammenhang zwischen den auf Vorrat zu speichernden Daten und dem durch das Gesetz verfolgten Zweck der Bekämpfung schwerer Straftaten bzw. der Abwehr schwerwiegender Gefahren für die öffentliche Sicherheit verlangt, sondern unterschiedslos ohne jede personelle, zeitliche oder geographische Begrenzung nahezu sämtliche Nutzer der von § 113b TKG erfassten Telekommunikationsmittel erfasst. (Rn. 33) Zur Überzeugung des Senats wird die Antragstellerin durch die ihr auferlegte Speicherpflicht [zudem] in ihrer unionsrechtlich garantierten unternehmerischen Freiheit verletzt. (Rn. 121)

Das Gericht kritisierte, dass auch die neuen Regelungen – ähnlich wie schon die vom Bundesverfassungsgericht 2010 für nichtig erklärten Vorgängerbestimmungen – die Speicherpflicht hinsichtlich der betroffenen Personen, der erhobenen Verkehrs- und Standortdaten und der erfassten Telekommunikationsmit-

64  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

tel zur Regel anstatt zur Ausnahmen erhoben (siehe Rn. 81) und nicht auf das nach dem Unionsrecht „absolut Notwendige beschränkt“ (Rn. 83) seien. Die Bestimmungen zur Vorratsdatenspeicherung erwartet – voraussichtlich noch im Jahr 2018 – die Prüfung durch das Bundesverfassungsgericht anlässlich der dort eingereichten Verfassungsbeschwerden. In der Literatur wird unterdessen von verschiedenen Seiten die Aufhebung des Gesetzes und – für den Fall einer Neuregelung – gefordert, die vom Europäischen Gerichtshof in seiner Rechtsprechung aufgestellten Anforderungen an nationale Regelungen zur Vorratsdatenspeicherung vollumfänglich zu erfüllen.

Das Domain Name System Kaum jemand kann sich die IP-Adressen diverser Webseiten oder -dienste auf längere Zeit merken; bei Verbalisierungen fällt dem menschlichen Gedächtnis das Erinnern in der Regel leichter. Wir wissen zum Beispiel aus dem Stand, dass die Webadresse des Ersten Deutschen Fernsehens www.ard.de lautet, aber wer hat schon das kryptische Zahlenkonstrukt der IP-Adresse des ARD-Webservers parat? Da Computer sich untereinander jedoch mit IP-Adressen identifizieren, ist für den „menschlichen“ Netzbetrieb ein Mechanismus zur Namensauflösung vonnöten. Eine entsprechende Datenbank mit den Namensauflösungen wurde bis Ende 1983 zentral durch das Stanford Research Institute's Network Information Center (SRI-NIC) geführt. Mit der wachsenden Zahl von Ressourcen im Netz geriet diese zentrale Verwaltung an ihre Grenzen, so dass eine neue Lösung gefunden werden musste. Ein Team um Paul Mockapetris stellte 1983 nach einer dreimonatigen Entwicklungsphase das Domain Name System (DNS) vor, das in den beiden RFCs 882 und 883 (siehe Mockapetris 1983a, 1983b), mittlerweile abgelöst durch 1034 und 1035 (siehe Mockpaetris 1987a, 1987b), dokumentiert wurde. Das Domain Name System zählt zu den elementaren Diensten in Netzwerken auf IP-Basis. Beim DNS handelt es sich um eine verteilte Datenbank, die auf weltweit verstreuten DNS-Servern zur Verfügung gestellt wird. Dabei werden die Rechner hierarchisch strukturiert und in Organisationseinheiten, die sogenannten Domänen, unterteilt. Die Hierarchieebenen in der Domänenstruktur verlaufen von den niedrigen zu den höheren, so dass die höchste Hierarchiestufe rechts beginnt. Der letzte Teil des Namens wird dabei als Top Level Domain (TLD) bezeichnet. 1983 einigte man sich nach langer Diskussion auf sieben TLDs: .edu (für US-Universitäten und weitere US-Bildungseinrichtungen), .com (für Firmen),

Die technische Basis des Internets 

65

.gov (für Regierungseinrichtungen der USA), .mil (für militärische Institutionen der USA), .net (für Netzwerk-Provider), .org (für nichtkommerzielle Organisationen) und .int (für internationale Organisationen). Die Liste mit den sieben Top Level Domains von 1983 wurde seither immer wieder erweitert.

Abb. 4: Hierarchieebenen von Domänenstrukturen (eigene Darstellung).

Der Name einer Domäne besteht aus mindestens einer, durch einen Punkt abgetrennten Zeichenkette vor der Top Level Domain, der sogenannten Second Level Domain. Um identische Namensgebungen zu vermeiden, ist eine bestimmte Kombination von Top Level Domain und Second Level Domain einmalig. So reicht beispielsweise „nordu.net“, bestehend aus Second Level Domain („nordu“) und Top Level Domain („.net“) aus, um eine Domäne weltweit eindeutig zu bezeichnen. Nordu.net ist übrigens die älteste noch aktive Domäne, erstmalig registriert am 01.01.1985. Eine weitere, durch einen Punkt abgetrennte Hierarchieebene benennt die Third Level Domain. Second Level Domain, Third Level Domain und alle weiteren untergeordneten Ebenen werden allgemein Subdomänen (engl. sub domains) genannt. Die Domänenebenen werden in der global verteilten DNS-Datenbank durch „Zonen“ repräsentiert, in denen Einträge, sogenannte Records, gemacht werden können. Im Normalfall besitzt jede Subdomäne einen eigenen DNS-Server mit

66  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

den entsprechenden Zoneneinträgen. Der am häufigsten verbreitete Zoneneintrag ist der A-Record, der einem Rechner eine IP-Adresse zuweist. Von Bedeutung für den E-Mail-Verkehr ist der MX-Record, der den vollständigen Namen des Mailservers beinhaltet. Top Level Domains werden in zwei Typen unterteilt, in die generischen (engl. Generic Top Level Domains, kurz gTLD) und in die länderspezifischen (engl. Country Code Top Level Domain, kurz ccTLD) Top Level Domains. Gelegentlich werden auch geografische Domains, die ursprünglich eine staatliche Zuordnung bezeichnen sollten, zweckentfremdet; so verwenden zahlreiche Fernsehstationen .tv (eigentlich für Tuvalu) oder Unternehmen aus Bayern gern .by (eigentlich für Weißrussland).

Die Vergabe und Registrierung der Domänennamen Für die Vergabe der Top Level Domains ist die Internet Assigned Numbers Authority (IANA), eine Abteilung der gemeinnützigen Körperschaft Internet Corporation for Assigned Names and Numbers (ICANN), verantwortlich. Die IANA hält auch eine vollständige Liste der aktuellen Top Level Domains in ihrer Root Zone Database vor (siehe https://www.iana.org/domains/root/db). Die ICANN stand bis September 2016 unter der Aufsicht der National Telecommunications and Information Administration, einer Regierungsbehörde im Zuständigkeitsbereich des US-Handelsministeriums. Pläne, die Aufsicht über die ICANN abzugeben und neu zu strukturieren, gab es in der US-Administration schon seit längerem. Mit Auslaufen des Vertrages zwischen der ICANN und der US-amerikanischen Regierung Ende September 2016 wurde die Kontrolle über die Aufgabenwahrnehmung der IANA an die Selbstverwaltungsgremien der ICANN übertragen. Das konnte auch der vehemente Widerstand von republikanischen Politikern aus vier US-Bundesstaaten nicht verhindern. Als zehnte Top Level Domain überhaupt ging die Country Code Top Level Domain .de im November 1986 an den Start. Die ersten registrierten deutschen Second-Level-Domains waren dbp.de, rmi.de, telenet.de, uka.de, uni-dortmund.de und uni-paderborn.de. Sie wurden zunächst in den USA verwaltet. Unter der Bezeichnung DENIC, kurz für Deutsches Network Information Center, nahm ab 1988 in Deutschland der Fachbereich Informatik an der Universität Dortmund die Namensverwaltung und -vergabe wahr: Der erste DNS-Server für .de-Adressen wurde noch im selben Jahr von der Universität Dortmund betrieben. Später gehörte die DENIC zur Universität Karlsruhe, bis die technische und finanzielle Administration 1999 vollständig von der DENIC, mittlerweile einer

Die technische Basis des Internets 

67

eingetragenen Genossenschaft mit Sitz in Frankfurt am Main, die auf Initiative von 37 Internet-Providern 1996 gegründet worden war, übernommen wurde (zur Delegation der Verwaltung von Country Code Domains siehe Postel 1994). Für die kostenpflichtige Registrierung und Verwaltung von Second Level Domain Names im Country Code .de ist auch heute noch die DENIC e.G. verantwortlich. Diese wechselvolle Geschichte zu Beginn der Verwaltung des Domain Name Systems in Deutschland zeigt wiederum, dass Deutschland eher ins Internetzeitalter gestolpert als planvoll vorangeschritten ist. In der frei zugänglichen Domänendatenbank der DENIC unter http://www. denic.de/domains/whois-service.html lässt sich recherchieren, ob die Domäne der Wahl bereits vergeben worden ist. Ist diese noch verfügbar, kann die Domäne auf den eigenen Namen registriert werden. Anderenfalls können Informationen über den Domäneninhaber eingeholt werden. Der Domäneninhaber ist nicht Eigentümer der Internetadresse, sondern hält lediglich ein vertragliches Nutzungsrecht daran. Die Liste der Top Level Domains wird übrigens immer noch erweitert: Seit Ende September 2014 steht auch .bayern als Top Level Domain zur Verfügung. Zur Freude der bayerischen Tourismusbetriebe muss nicht mehr auf die weißrussischen Namenskürzelverwandten ausgewichen werden. Die Bibliotheksakademie Bayern an der Bayerischen Staatsbibliothek, deren touristische Bedeutung freilich dahinstehen kann, ist seit 2015 auch unter der Adresse bibliotheksakademie.bayern erreichbar. Die Zahl der Domänen in Deutschland wuchs in den letzten zwei Jahrzehnten in der Tat schnell: Heute sind rund 16 Millionen .de-Domänen registriert; zu Beginn des Jahres 1998 waren es rund 100.000. Viele Domänen sind mit der Kommerzialisierung des Internets zu einem relevanten Wirtschafts- und Tauschgut geworden: Ihr Wert lässt sich in Geld bemessen; sie sind veräußerbar und können durchaus einen hohen Verkaufswert erzielen. Die Domäne business.com beispielsweise erreichte zur Jahrtausendwende einen Verkaufswert von rund 7,5 Millionen US-Dollar. Die Vergabe und Verwaltung der länderspezifischen Top Level Domains der Europäischen Union, der .eu-Domains, obliegt seit 2003 dem European Registry of Internet Domain Names (EURid), einem belgischen Unternehmen mit Sitz in Diegem nahe Brüssel. Ist ein Domänenname bereits vergeben und nicht im Wege der Klage zu beanspruchen, kann der Interessierte schließlich sein Glück durch Hinzuziehung einer der Domainhandelsplattformen wie Sedo oder eines Vermittlers versuchen. Über spezielle Suchmaschinen lässt sich herausfinden, ob der Domänenname der Wahl zum Verkauf gehandelt wird. Bei Bedarf hilft ein Domänenver-

68  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

mittler bei der Preisverhandlung; allerdings wird dafür auch eine Maklercourtage fällig.

Angriffe auf das Domain Name System Das Domain Name System ist aufgrund seiner wichtigen Rollen im Netzverkehr ein begehrtes Ziel von Hackerangriffen. Wir greifen nur zwei Angriffstypen exemplarisch heraus: das DNS-Spoofing und das DNS-Hijacking. Das DNS-Spoofing, das auch als Cache Poisoning bezeichnet wird, ist eine Angriffsform, bei der im Temporärspeicher des Computers, dem Cache, manipulierte DNS-Informationen abgelegt werden, um die Zuordnung von Domänenname und IP-Adresse fehlzuleiten. Das DNS-Hijacking hingegen bewirkt, dass auf eine Anfrage zum Abrufen einer Webseite falsche Rückmeldungen vom DNS-Server gegeben werden. Auf diese Weise erhält der Nutzer bei DNS-Anfragen zu nicht existenten Domänennamen nicht etwa eine Fehlermeldung, sondern wird auf ein alternatives Angebot, zum Beispiel die Suchmaschine des Access-Providers, umgelenkt. Dieser, als Kundenservice der Access-Provider gedachte Mechanismus, kann auf böswillige Weise von Schadsoftware so manipuliert werden, dass Anfragen zu existenten Domänen falsch beantwortet werden und der Nutzer zu einer ganz anderen Domäne als der angefragten geschickt wird. Eine spezielle Variante des DNS-Hijackings setzt zugleich am anfragenden Computer und am Server an. Die Konfiguration des Computers wird so manipuliert, dass er DNS-Anfragen zu einem von Hackern kontrollierten DNS-Server schickt, der falsche IP-Adressen als Antwort zurückgibt. Motive dieser Angriffe sind unter anderem die Erschleichung von vertraulichen Daten (Phising), das Einblenden von Werbung oder das Erzeugen von wirtschaftlichem Schaden.

Domänennamen und das Recht Verlassen wir nun den Bereich der technischen Manipulation des Domain Name Systems und schauen wir auf Sachverhalte, die das Zusammenspiel von Marken-, Wettbewerbs- und Namensrecht illustrieren. Mit der zunehmenden Bedeutung von Domänen stieg naturgemäß das Potenzial für juristische Auseinandersetzungen um Domänennamen und übrige Kennzeichnungsrechte, die auch vor dem Bundesverfassungsgericht nicht Halt machten. In seinem Nichtannahmebeschluss vom 24. November 2004, Aktenzeichen 1 BvR 1306/02 hat das Bundesverfassungsgericht hervorgehoben, dass

Die technische Basis des Internets 

69

das Domänennutzungsrecht einen verfassungsrechtlich geschützten Vermögenswert darstellt. Dem Eigentum an einer Sache vergleichbar sei es dem Inhaber der Domäne ausschließlich zugewiesen. Zwar erwerbe der Domäneninhaber weder Eigentum noch ein sonstiges absolutes Recht. Vielmehr würde ihm von der DENIC als Gegenleistung zu seiner Vergütung das Recht gewährt, für seine IP-Adresse die vereinbarte Domäne zu nutzen. Damit erhalte er aber ein relativ wirkendes, vertragliches Nutzungsrecht auf unbestimmte Zeit. Bereits die Registrierung als Geburtsstunde eines Domänennamens birgt Konfliktpotenzial. Die DENIC prüft bei Antrag auf Registrierung für eine Domäne unter einem bestimmten Namen nämlich nicht, ob der Name dem Antragsteller zusteht oder womöglich Rechte Dritter betroffen sind. Die Rechtsprechung hat vielmehr festgestellt, dass der Registrierungsstelle eine sogenannte namensrechtliche Unbedenklichkeitsprüfung bei Anmeldung einer noch nicht vergebenen Domäne nicht zugemutet werden kann. Ob die beantragte Registrierung kennzeichen- und wettbewerbsrechtlich zulässig ist, ordnet die Rechtsprechung vielmehr der Verantwortung des Antragsstellers zu. Anders liegt der Fall, wenn die Rechtsverletzung offensichtlich und ohne weiteres feststellbar ist. Dann kommt eine Haftung der DENIC in Betracht. Einen Dritten, der die Registrierungsstelle auf eine Verletzung des ihm zustehenden Kennzeichenrechts durch einen Domänennamen hinweist, kann diese zur Klärung regelmäßig an den Inhaber des streitgegenständlichen Domänennamens verweisen. Bei eindeutigem Missbrauch von Domänennamen ist sie, wie der Bundesgerichtshof in seinem Urteil vom 27. Oktober 2011, Aktenzeichen I ZR 131/10 für die auf mehrere in Panama ansässige Unternehmen angemeldeten Domänen regierung-oberfranken.de, regierung-mittelfranken.de, regierung-unterfranken.de und regierung-oberpfalz.de entschied, jedoch zur Löschung verpflichtet (siehe Rn. 20). Bei der Registrierung von Domänennamen gilt das Prinzip „First come, first served“. Dass dieses Prinzip recht einträglich sein kann, haben geschäftstüchtige Internetnutzer in den Anfangsjahren bewiesen: Sie antizipierten, welche Domänennamen zukünftig von Interesse sein und beantragt werden könnten. Eben diese ließen sie für sich registrieren und kommerzialisierten ihre Nutzungsrechte später zu hohen Preisen an die daran interessierten Unternehmen oder die öffentliche Hand. Unter dem Begriff des Domain Grabbing ist dieses Vorgehen zum Nachteil des Titel- bzw. Markeninhabers bekannt geworden, das seltener zu domänenrechtlichen als vielmehr marken- und wettbewerbsrechtlichen Komplikationen führt. Die Domänenregistrierung in der ausschließlichen Absicht, die Domäne dem wegen entsprechender Namens- oder Kennzeichenrechte am Abkauf Interessierten anzubieten, ist von der Rechtsprechung frühzeitig als sittenwidrig qualifiziert worden ist.

70  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

Auf eine besondere Form des Domain Grabbing haben sich Unternehmen spezialisiert, die vorzugsweise Registrierungen für aufgegebene Domänen vornehmen lassen. In der Hoffnung auf verirrte Webseitenbesucher versuchen diese Unternehmen, durch Werbeschaltungen auf der einst prominenten, gut eingeführten Domäne Einnahmen zu generieren. In einem Rechtsstreit vor dem Oberlandesgericht München wurde dieses Vorgehen mit Urteil vom 05. Oktober 2006, Aktenzeichen 29 U 3143/06 als wettbewerbswidrig beurteilt. Findig waren auch die Geschäftsleute, die die Flüchtigkeit der Internetnutzer für sich entdeckt haben. Wie schnell haben wir uns vertippt oder den Umlaut nicht aufgelöst und sind doch auf eine Webseite, wenngleich nicht die gesuchte gelangt? Für die weder beworbene noch verlinkte Webseite googl.de wurden in einem Frühlingsmonat des Jahres 2004 allein 470.112 Zugriffe registriert (siehe Wien 2012, S. 27); mittlerweile erreicht der eilige Nutzer über eine Verlinkung die eigentlich angesteuerte Suchmaschine des Webgiganten. Insbesondere das Markenrecht, aber auch das Wettbewerbsrecht stehen hier wiederum für die Durchsetzung der Unternehmensinteressen Pate und regeln entsprechende Unterlassungs-, Beseitigungs- und Schadensersatzansprüche. Unterlassungsansprüche richten sich gegen die rechtswidrige Nutzung einer Domäne, Beseitigungsansprüche hingegen auf deren Löschung bei der DENIC oder einer anderen zuständigen Vergabestelle. Hinzu tritt in der Praxis bisweilen zum Beispiel die Zahlung einer angemessenen Lizenzgebühr für die Zeit der unberechtigten Domänennutzung. Domänen mit Umlauten wie münchen.de statt muenchen.de können seit März 2004 verwendet werden. Sie werden als Internationalized Domain Names, kurz IDN, bezeichnet, können auch für generische Top Level Domains wie .net oder .com angemeldet werden und haben – kaum überraschend – das Domain Grabbing in der Mitte des letzten Jahrzehnts noch einmal kräftig beflügelt. Ein weiteres Recht taucht am Horizont der Domänenverwaltung auf: das Namensrecht. Es kommt außerhalb des Wirtschaftsverkehrs ins Spiel. Wird der eigene Vor- oder Nachname als Domänenname verwendet, steht das Namensrecht nach § 12 des Bürgerlichen Gesetzbuches (BGB) nicht entgegen und es gilt das von der Registrierung von Domänennamen bekannte Prinzip „First come, first served“. Sollte es zumindest! In einigen Gerichtsentscheidungen wurde jedoch die Verwendung des eigenen Namens durch Anwendung markenrechtlicher Grundsätze, nicht zuletzt des darin anerkannten Rechts des Stärkeren, untersagt. Zu Beginn der 2000er Jahre entschied der Bundesgerichtshof im Rechtsstreit um den Domänennamen shell.de, dass die gleichnamige Privatperson ihren Domänennamen dem Energieunternehmen Shell überlassen musste. Das Gericht begründete im Urteil vom 22. November 2001, Aktenzeichen I ZR 138/99

Die technische Basis des Internets 

71

seine vom Grundsatz des Vorrangs für den Erstanmelder abweichende Entscheidung mit der Erwartung der Internetnutzer, unter der Adresse shell.de den Konzern und nicht etwa eine Privatperson zu finden (siehe Rn. 4). Ähnlich, aber eben auch anders wurde in vergleichbar gelagerten Fällen zu Städtenamen entschieden. Während die Privatperson mit dem Namen Braunschweig vor dem Landgericht noch unterlegen war, konnte ein Herr namens Suhl den Domänennamen suhl.de für sich beanspruchen. Ihm kam dabei zupass, dass die Stadt Suhl, die sich bereits um die Registrierung der Domäne bemüht hatte, ihrer Gebührenpflicht gegenüber der DENIC nicht rechtzeitig nachgekommen war. Das Landgericht Erfurt ließ sich in seinem Urteil vom 31. Januar 2002, Aktenzeichen 3 O 2554/01 von einer Priorität der Stadt als Domänenberechtigte nicht überzeugen und überließ Herrn Suhl die prominente Domäne. Der Webauftritt der Stadt Suhl hingegen ist unter www.suhltrifft.de zu finden.

Die 13 Root Name Server: eine kritische Komponente des gesamten Netzes Auch wenn das Internet grundsätzlich dezentral strukturiert ist, bildet die höchste Ebene des Domain Name Systems, die Root Zone, doch eine Art zentrale, wenn auch weltweit verteilte Komponente. 13 sogenannte Root Name Server (oder kurz Root Server) mit jeweils identischen Datenbanken erteilen Auskunft über die für die Top Level Domains zuständigen Name Server und ermöglichen so das weltweite Auffinden aller registrierten Domänennamen. Aufgrund technischer Beschränkungen des in diesem Zusammenhang relevanten, sogenannten User Datagram Protocol (dt. Benutzerdatensegmentprotokoll), abgekürzt UDP, können allerdings nicht mehr als 13 Root Name Server betrieben werden. Die Root Name Server kommen dann zum Einsatz, wenn die lokalen DNSServer der Internet-Provider keine Antwort auf die an sie herangetragenen Anfragen wissen. Ein kurzes Beispiel soll die Rolle der Root Name Server verdeutlichen: Ein Studierender gibt auf einem Campus-PC die Webadresse http://www. einstein-online.info in den Browser ein. Der PC gibt die Anfrage nach der IPAdresse von www.einstein-online.info an den DNS-Server seines Internet-Providers, in diesem Fall an den Server des universitären Rechenzentrums, weiter. Dieser Vorgang der Umwandlung eines Domänennamens in eine IP-Adresse wird als „forward lookup“ bezeichnet.6 Der DNS-Server des Rechenzentrums 6 Als „reverse lookup“ wird die Umwandlung einer IP-Adresse in den Domänennamen bezeichnet.

72  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

kennt die IP-Adresse zur angefragten Domäne nicht und leitet daher die Anfrage als sogenannte „recursive query“ weiter an einen Root Name Server. Der Root Name Server kann und braucht die IP-Adresse zu www.einstein-online. info/ nicht zu kennen. Er gibt dem Server des Rechenzentrums aber einen entscheidenden Hinweis, nämlich die IP-Adresse des für die Top Level Domain .info zuständigen DNS-Servers. Mit dieser neuen Information wendet sich der Server des Rechenzentrums an den .info-DNS-Server und informiert sich bei ihm nach der IP-Adresse der Subdomäne einstein-online.info. Unser Rechenzentrumsserver ist jedoch noch nicht ganz am Ziel; er muss sich nun noch beim DNS-Server von einstein-online.info nach der IP-Adresse des Webservers www. einstein-online.info erkundigen und erhält als Antwort zum Beispiel 194.94.224.23. Die IP-Adresse 194.94.224.23 liefert der DNS-Server des Rechenzentrums an den anfragenden Campus-PC aus, woraufhin der Browser des Studierenden die 194.94.224.23 anwählt und dadurch die Website von www.einstein-online.info angezeigt bekommt. Damit die nächste gleichlautende Anfrage innerhalb des Campusnetzes schneller beantwortet werden kann, speichert der DNS-Server des Rechenzentrums den DNS-Eintrag zu www.einstein-online.info für eine bestimmte Zeit in seinem Zwischenspeicher, dem Cache.

Abb. 5: Die DNS-Hierarchie (eigene Darstellung).

Die technische Basis des Internets 

73

Das Name-Root-Server-System ist eine kritische infrastrukturelle Komponente, deren (langfristiger) Ausfall den gesamten Netzverkehr empfindlich beeinträchtigen würde. Tatsächlich gab es bereits nennenswerte, bekannt gewordene Hackerattacken auf die Root Server, und zwar am 21. Oktober 2002 und am 06. Februar 2007. Die Beeinträchtigungen des Netzverkehrs blieben zwar gering; im Hinblick auf eine stabile und schnelle Verbindung wurden dennoch Klone der 13 Root Server, von denen zehn den USA zugehörig sind, installiert, so dass heute über 300 Root Server weltweit ansprechbar sind (zur Anycasttechnik, durch die mehrere Server mit einer identischen IP-Adresse betrieben werden können, siehe Ermert 2004). Eine Grafik zu den Standorten weltweit mit weiteren Informationen findet man auf der offiziellen Website der DNS Root Server http://www.root-servers.org/. Anfang 2014 wurde in Frankfurt am Main ein Klon des Londoner Root Servers in Betrieb genommen.

Weitere Aufgaben des Domain Name Systems Seit 1983 wurde das Domain Name System neben seiner Kernaufgabe, der Namensauflösung, noch für weitere Aufgaben herangezogen. DNS-Server können zur Spamabwehr konfiguriert werden, so dass Spam-E-Mails bereits auf Netzwerkebene herausgefiltert werden können. Eine relativ neue Aufgabe ist die Auflösung von Telefonnummern in Internetadressen zur Unterstützung der Konnektivität der Internettelefonie mit dem klassischen Telefonfestnetz. Sie wird in RFC 6116 definiert.

DNS- und IP-Sperren Mit DNS- und IP-Sperren lassen sich Websites blockieren, deren Besuch verhindert oder zumindest erschwert werden soll. In der politischen Debatte werden diese Zugriffssperren insbesondere zur Kriminalitätsbekämpfung regelmäßig ins Spiel gebracht. Durch sie kann aber auch politisch Unliebsames unterdrückt werden: So ließ der türkische Ministerpräsident Recep Tayyip Erdogan 2014 die Twitterwebsite per DNS-Sperre verbieten, weil sie Tondokumente enthielt, die ihn im Vorfeld der Kommunalwahlen mit Korruptionsdelikten in Verbindung brachten. Wie funktionieren die Sperrmechanismen? Mit einer DNS-Sperre wird die Zuordnung von Domänenbezeichnung und IP-Adresse auf dem DNS-Server des Access-Providers unterbunden. Der zu einer unerwünschten Website gehörige DNS-Eintrag wird gelöscht bzw. auf eine andere Website umgeleitet. Die Domä-

74  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

nenbezeichnung kann den Nutzer in der Folge nicht mehr an das eigentlich angesteuerte Ziel vermitteln. Unter der IP-Adresse ist diese jedoch weiterhin erreichbar. Deshalb wird die DNS-Sperre bisweilen mit einer Löschung eines Telefonbucheintrags verglichen. Politische Aktivisten in der Türkei sprühten damals die IP-Adresse des frei zugänglichen DNS-Servers von Google, 8.8.8.8, an Hauswände als Hinweis darauf, dass bei Eintrag dieser IP-Adresse als DNS-Server eines lokalen PCs die DNS-Sperre der lokalen Provider relativ einfach ausgehebelt werden konnte. Die IP-Sperre verhindert, dass eine Website über ihre IPAdresse im Internet aufgefunden wird. Dazu wird die beim Access-Provider unterhaltene Routingtabelle so verändert, dass die Weitersendung von Daten an die Zieladresse, die gesperrt werden soll, nicht mehr möglich ist. Die unter der gesperrten IP-Adresse betriebenen Seiten sind nicht mehr erreichbar. Der Nutzer kann die Sperre jedoch durch Einsatz eines Proxy-Servers oder durch Verwendung von Anonymisierungsdiensten umgehen. Der Websitebetreiber kann die Sperre durch Verlegung seines Auftritts auf eine andere IP-Adresse aushebeln. Um ihre Wirksamkeit zu erhöhen, können die Sperrmechanismen kombiniert werden. Das Sperren von Inhalten durch Access-Provider mit dem Ziel, Rechtsverletzungen im Internet zu begegnen, beschäftigt die Gerichte immer wieder. Im Jahre 2015 trafen sich die Gesellschaft für musikalische Aufführungs- und mechanische Vervielfältigungsrechte (GEMA) und ein Access-Provider vor dem Bundesgerichtshof in Karlsruhe. Die deutsche Wahrnehmungsgesellschaft für die urheberrechtlichen Nutzungsrechte an geschützten Werken der Musik hatte gegen den Access-Provider geklagt, weil dieser wiederholt eine Liste mit Links zum Abruf bereitgehalten hatte, über die widerrechtlich im Internet eingestellte Musikstücke heruntergeladen werden konnten. Die Klägerin drang darauf, dass der Access-Provider den Zugriff auf die verlinkten Inhalte sperren müsse. In seinem Urteil vom 26. November 2015, Aktenzeichen I ZR 3/14 hat der Bundesgerichtshof im Rahmen der Entscheidungsfindung unter anderem die Effektivität und Zumutbarkeit von (DNS-)Sperren erörtert. Er befand, dass zur Beurteilung der Effektivität von Sperrmaßnahmen zu berücksichtigen sei, welche negativen Folgen die Zugangssperre zu den konkret beanstandeten Internetseiten für den Betrieb eines Unternehmens, insbesondere organisatorischer, technischer oder finanzieller Art, habe (siehe Rn. 37–38). Dass es technisch möglich sei, Sperren zu umgehen, spreche nach seiner Einschätzung nicht gegen eine zumutbare Sperranordnung, solange der Zugriff auf rechtsverletzende Inhalte unterbunden oder zumindest erschwert würde und die Internetnutzer zuverlässig vom Zugriff abgehalten würden (siehe Rn. 39–40). Zur Frage, ob der Einrichtung einer Sperre entgegenstehe, dass auf den beanstandeten Internetseiten neben rechtswidri-

Die technische Basis des Internets



75

gen auch rechtmäßige Inhalte zugänglich gemacht würden, erklärte das Gericht: Im Hinblick auf das Grundrecht der Internetnutzer auf Informationsfreiheit […] verlangt der Gerichtshof der Europäischen Union, dass Sperrmaßnahmen streng zielorientiert sind, indem sie die Urheberrechtsverletzung beenden, ohne Internetnutzern die Möglichkeit zu nehmen, rechtmäßig Zugang zu Informationen zu erlangen […]. Soll sich der Anbieter eines auf Rechtsverletzungen angelegten Geschäftsmodells nicht hinter wenigen legalen Angeboten verstecken können, liegt es auf der Hand, dass eine Sperrung nicht nur dann zulässig sein kann, wenn ausschließlich rechtswidrige Informationen auf der Webseite bereitgehalten werden […]. Im Rahmen der Grundrechtsabwägung hat auch der Gerichtshof der Europäischen Union das Kriterium der strengen Zielorientierung dahingehend formuliert, dass die ergriffenen Sperrmaßnahmen den Internetnutzern die Möglichkeit, in rechtmäßiger Weise Zugang zu den verfügbaren Informationen zu erhalten, „nicht unnötig“ vorenthalten dürfen […]. In der das File-Hosting betreffenden Rechtsprechung hat der Senat anerkannt, dass die Erfüllung von Prüfpflichten im Interesse eines wirksamen Schutzes des Urheberrechts nicht unzumutbar ist, auch wenn dies im Einzelfall zu einer Löschung rechtmäßiger Inhalte führt, sofern auf diese Weise die legale Nutzung des Angebots des Diensteanbieters nur in geringem Umfang eingeschränkt und dessen Geschäftsmodell dadurch nicht grundlegend in Frage gestellt wird […]. Bei der vorzunehmenden Gewichtung ist deshalb nicht auf eine absolute Zahl rechtmäßiger Angebote auf der jeweiligen Seite, sondern auf das Gesamtverhältnis von rechtmäßigen zu rechtswidrigen Inhalten abzustellen und zu fragen, ob es sich um eine nicht ins Gewicht fallende Größenordnung von legalen Inhalten handelt […]. (Rn. 44)

Das Sperren von Inhalten durch Zugangsanbieter ist rechtspolitisch äußerst umstritten. Mit dem Gesetz zur Erschwerung des Zugangs zu kinderpornographischen Inhalten in Kommunikationsnetzen vom 17. Februar 2010 (Zugangserschwerungsgesetz, kurz ZugErschwG) unternahm die Bundesregierung vor einigen Jahren den Versuch, auf Grundlage dieser gesetzlichen Regelung den Zugang zu kinderpornografischen Inhalten im Internet durch technische Maßnahmen der Access-Provider zu erschweren. Das Gesetz trat am 23. Februar 2010 in Kraft. Nur rund 22 Monate später wurde es wieder aufgehoben. Aufgrund eines zwischenzeitlichen Ministerialerlasses war der Gesetzesvollzug ohnehin unterblieben. Die Diskussionen rund um die Verabschiedung des Gesetzes verdeutlichten die Zweifel an der Wirksamkeit und – hinsichtlich des Schutzes der Kommunikation im Netz und des Telekommunikationsgeheimnisses – an der Verfassungsmäßigkeit von Zugangssperren. In der Begründung zum Aufhebungsgesetz wurde anstelle einer Sperrung strafbarer Inhalte deren Löschung als vorzugswürdige Maßnahme genannt.

76  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

Literatur Beckmann, Kirsten und Ulf Müller: Teil 10 Kartellrecht, in: Hoeren, Thomas, Ulrich Sieber und Bernd Holznagel (Hrsg.): Handbuch Multimedia-Recht. 46. Ergänzungslieferung (Stand: Februar 2018). München, 2018. Braden, Robert: Request for Comments 1122. Requirements for Internet Hosts – Communication Layers. 1989, http://tools.ietf.org/html/rfc1122 (14.06.2018). Bradner, Scott, Lawrence Conroy und Kazunori Fujiwara: Internet Engineering Task Force Request for Comments 6116. The E.164 to Uniform Resource Identifiers (URI). Dynamic Delegation Discovery System (DDDS) Application (ENUM). 2011, http://tools.ietf.org/html/ rfc6116 (14.06.2018). Brown, Barry: DNS Resolution, Step by Step. 2012, https://www.youtube.com/watch? v=3EvjwlQ43_4 (14.06.2018). Cerf, Vinton G. und Edward Cain: The DoD internet architecture model, in: Computer Networks (1976), Vol. 7 (1983), S. 307–318. Clarke, Richard A. und Robert K. Knake: World Wide War. Angriff aus dem Internet. Hamburg, 2011. Dietrich, Christian J.: 25 Jahre Domain Name System. Nachschlagewerk, in: Magazin für professionelle Informationstechnik 2008, Heft 11, http://heise.de/-506953 (14.06.2018). Dodd, Annabel Z.: The Essential Guide to Telecommunications. 5. Auflage. Upper Saddle River, 2012. Ermert, Monika: Domain Name System: Weniger US-Übermacht, mehr Sicherheit durch mehr DNS-Rootserver?. 2014, http://heise.de/-2267159 (14.06.2018). Ermert, Monika: Internet in Deutschland bekommt eigenen DNS-Rootserver. 2004, http:// heise.de/-91959 (06.06.2018). Frey, Dieter, Matthias Rudolph und Jan Oster: Internetsperren und der Schutz der Kommunikation im Internet. Am Beispiel behördlicher und gerichtlicher Sperrungsverfügungen im Bereich des Glücksspiel- und Urheberrechts, in: MMR-Beilage 2012, S. 1–26. Genz, Alexander: Datenschutz in Europa und den USA. Eine rechtsvergleichende Untersuchung unter besonderer Berücksichtigung der Safe-Harbor-Lösung. Wiesbaden, 2004. Gernroth, Jana: Die Internet Corporation for Assigned Names and Numbers (ICANN) und die Verwaltung des Internets. Ilmenau, 2008. Geuer, Ermano: Keine Verantwortlichkeit eines Internetproviders für Rechtsverletzungen seiner Kunden. Anmerkung zu VG Düsseldorf, Urteil vom 29.11.2011, Az. 27 K 3883/11, in: jurisPR-ITR 14/2012, Anm. 6. Günther, Oliver, Gerrit Hornung, Kai Rannenberg, Alexander Roßnagel, Sarah Spiekermann und Michael Waidner: Auch anonyme Daten brauchen Schutz. 2013, http://www.zeit.de/ digital/datenschutz/2013-02/stellungnahme-datenschutz-professoren (14.06.2018). Hakala, Juha: Request for Comments 3188. Using National Bibliography Numbers as Uniform Resource Names. 2001, https://www.ietf.org/rfc/rfc3188.txt (14.06.2018). Härting, Niko: Internetrecht. 6. Auflage. Köln, 2017. Heilbock, Jürgen: Icann reorganisiert die weltweite Internet-Domain-Vergabe. 1999, http:// www.computerwoche.de/a/icann-reorganisiert-die-weltweite-internet-domainvergabe,1083143 (14.06.2018). Hetmank, Sven: Internetrecht. Grundlagen, Streitfragen, aktuelle Entwicklungen. Wiesbaden, 2016.

Die technische Basis des Internets 

77

Hoeren, Thomas: Internetrecht. Ein Grundriss. Berlin/Boston, 2017. Höfinger, Frank Michael: Access-Provider haften weiterhin als Störer auf Sperrung von Informationen – Anmerkung zu LG München I, Urteil vom 1.2.2018 – 7 O 17752/17, in: ZUM 2018, S. 382–386. Internet Assigned Numbers Authority (IANA): Root Servers. 2015, http://www.iana.org/ domains/root/servers (14.06.2018). Krügel, Tina: Das personenbezogene Datum nach der DS-GVO. Mehr Klarheit und Rechtssicherheit?, in: ZD 2017, S. 455–460. Krüger, Stefan und Svenja-Ariane Maucher: Ist die IP-Adresse wirklich ein personenbezogenes Datum? Ein falscher Trend mit großen Auswirkungen auf die Praxis, in: MMR 2001, S. 433–439. Kurose, James F. und Keith W. Ross: Computer Networking. A Top-Down Approach. 7. Auflage. Boston, 2016. Leistner, Matthias und Karina Grisse: Sperrverfügungen gegen Access-Provider im Rahmen der Störerhaftung (Teil 1), in: GRUR 2015, S. 19–27. Mantz, Reto: Die (neue) Haftung des (WLAN-)Access-Providers nach § 8 TMG. Einführung von Websperren und Abschaffung der Unterlassungshaftung, in: GRUR 2017, S. 969–977. Meyerdierks, Per: Sind IP-Adressen personenbezogene Daten?, in: MMR 2009, S. 8–13. Mockapetris, Paul (1987a): Network Working Group Request for Comments 1034. Domain Names. Concepts and Facilities. 1987, http://tools.ietf.org/html/rfc1034 (14.06.2018). Mockapetris, Paul (1987b): Network Working Group Request for Comments 1035. Domain Names. Implementation and Specification. 1987, http://tools.ietf.org/html/rfc1035 (14.06.2018). Mockapetris, Paul (1983a): Network Working Group Request for Comments 883. Domain Names. Implementation and Specification. 1983, http://tools.ietf.org/html/rfc883 (14.06.2018). Mockapetris, Paul (1983b): Network Working Group Request for Comments 882. Domain Names. Concepts and Facilities. 1983, http://tools.ietf.org/html/rfc882 (14.06.2018). Paal, Boris und Daniel Pauly (Hrsg.): Datenschutzgrundverordnung. Bundesdatenschutzgesetz. 2. Auflage. München, 2018. Postel, Jon: Network Working Group Request for Comments 1591. Domain Name System Structure and Delegation. 1994, http://tools.ietf.org/html/rfc1591 (14.06.2018). Postel, Jon: Request for Comments 768. User Datagram Protocol. 1980, http://tools.ietf.org/ html/rfc768 (14.06.2018). Rekhter, Yakov, Bob Moskowitz, Daniel Karrenberg und Geert Jan de Groot: Network Working Group Request for Comments 1597. Address Allocation for Private Internets. 1994, http:// tools.ietf.org/html/rfc1597 (14.06.2018). Roßnagel, Alexander: Vorratsdatenspeicherung rechtlich vor dem Aus?, in: NJW 2017, S. 696– 698. Schwartmann, Rolf (Hrsg.): Praxishandbuch Medien-, IT- und Urheberrecht. 4. Auflage. Heidelberg, 2018. Socolofsky, Theodore John und Claudia Jeanne Kale: Request for Comments 1180. A TCP/IP Tutorial. 1991, https://tools.ietf.org/html/rfc1180 (06.06.2018). Spindler, Gerald: Sperrverfügungen gegen Access-Provider. Klarheit aus Karlsruhe?, in: GRUR 2016, S. 451–460. Warren, Samuel D. und Louis Brandeis: The Right To Privacy, in: Harvard Law Review, Volume 4 (1890), 5, S. 193–220.

78  1 Das Internet – die Infrastruktur des Wissens im 21. Jahrhundert

Wien, Andreas: Internetrecht. Eine praxisorientierte Einführung. 3. Auflage. Wiesbaden, 2012. World Wide Web Foundation (Hrsg.): The World Wide Web Foundation … at a Glance. 2015, http://webfoundation.org/wp-content/uploads/2015/05/Web-Foundation-Overview-Webor-Email-Version-APPROVED-AS-OF-MARCH-20151.pdf (06.06.2018). Wu, Tim: Network Neutrality, Broadband Discrimination, in: Journal of Telecommunications and High Technology Law, Volume 2 (2003), p. 141, https://ssrn.com/abstract=388863 (25.06.2018).

Entscheidungen Bundesverfassungsgericht, Urteil vom 15. Dezember 1983, Aktenzeichen 1 BvR 209/83, 1 BvR 269/83, 1 BvR 362/83, 1 BvR 420/83, 1 BvR 440/83, 1 BvR 484/83 (Volkszählungsurteil). Bundesgerichtshof, Urteil vom 22. November 2001, Aktenzeichen I ZR 138/99 (shell.de). Landgericht Erfurt, Urteil vom 31. Januar 2002, Aktenzeichen 3 O 2554/01 (suhl.de). Bundesverfassungsgericht, Nichtannahmebeschluss vom 24. November 2004, Aktenzeichen 1 BvR 1306/02 (Internet-Domain-Adresse, „ad-acta.de“). Oberlandesgericht München, Urteil vom 05. Oktober 2006, Aktenzeichen 29 U 3143/06. Bundesverfassungsgericht, Urteil vom 27. Februar 2008, Aktenzeichen 1 BvR 370/07, 1 BvR 595/07 (Online-Durchsuchung). Amtsgericht Tiergarten, Urteil vom 13. August 2008, Aktenzeichen 2 C 6/08. Bundesverfassungsgericht, Urteil vom 02. März 2010, Aktenzeichen 1 BvR 256/08, 1 BvR 263/ 08, 1 BvR 586/08 (Vorratsdatenspeicherung). Bundesgerichtshof, Urteil vom 27. Oktober 2011, Aktenzeichen I ZR 131/10 (regierungoberfranken.de). Landgericht Berlin, Urteil vom 31. Januar 2013, Aktenzeichen 57 S 87/08. Europäischer Gerichtshof, Urteil vom 08. April 2014, Rechtssachen C-293/12, C-594/12 (Digital Rights Ireland). Bundesgerichtshof, Urteil vom 03. Juli 2014, Aktenzeichen III ZR 391/13. Bundesgerichtshof, Beschluss vom 28. Oktober 2014, Aktenzeichen VI ZR 135/13 (EuGHVorlage). Bundesgerichtshof, Urteil vom 26. November 2015, Aktenzeichen I ZR 3/14. Bundesgerichtshof, Urteil vom 26. November 2015, Aktenzeichen I ZR 174/14 (Störerhaftung des Access-Providers). Europäischer Gerichtshof, Urteil vom 16. Oktober 2016, Rechtssache C-582/14 (Breyer). Bundesgerichtshof, Urteil vom 16. Mai 2017, Aktenzeichen VI ZR 135/13. Oberverwaltungsgericht für das Land Nordrhein-Westfalen, Beschluss vom 22. Juni 2017, Aktenzeichen 13 B 238/17. Landgericht München I, Urteil vom 01. Februar 2018, Aktenzeichen 7 O 17752/17 (Fack Ju Göthe 3). Oberlandesgericht München, Urteil vom 14. Juni 2018, Aktenzeichen 29 U 732/18 (Fack Ju Göthe 3). Bundesgerichtshof, Urteil vom 26. Juli 2018, Aktenzeichen I ZR 64/17 (Dead Island).

2 Das World Wide Web als eine Anwendung des Internets Das World Wide Web als europäische Idee: seine Entstehung Zwanzig Jahre nach dem Experiment von Leonard Kleinrock und seinen Kollegen unterbreitete auf der anderen Seite des Atlantiks beim Europäischen Forschungszentrum für Teilchenphysik CERN (Conseil Européen pour la Recherche Nucléaire, dt. Europäische Organisation für Kernforschung) in Genf ein junger Physiker einen wegweisenden Vorschlag zur Verbesserung des internen Informationsflusses und der Wissensorganisation. Ziel war es, nicht nur einfache Textdateien, sondern komplexere Informationen und Inhalte, als es bis dahin möglich war, über das Netz zur Verfügung stellen zu können. Die Computer und Betriebssysteme, aber vor allem die stark divergierenden Datenstrukturen, Parameter und Programme, die bei den bislang über das Internet verbundenen Computern zum Einsatz kamen, hatten sich zunehmend als für den wissenschaftlichen Austausch hinderlich erwiesen. Gesucht wurde deshalb nach einer Lösung, die den rechnergestützten Informations- und Wissensaustausch erleichtern und der Skepsis gegenüber dem Internet, die zu dieser Zeit am CERN trotz der Internationalität, Interdisziplinarität und Dezentralität der Forschung vorherrschte, entgegenwirken konnte.

Eine Verweisstruktur zur digitalen Wissensorganisation Die Anregungen für seinen Vorschlag fand der junge Wissenschaftler Tim Berners-Lee in einer Verweisstruktur, die der analogen Welt nicht neu war. In gedruckten Lexika war es üblich, Querverweise zu verwenden, um auf verwandte oder weiterführende Informationen und Lemmata hinzuweisen. Diese Verweise (frz. renvois: voyez oder voir aussi) wurden schon gegen Ende des 18. Jahrhunderts in der „Encyclopédie des sciences, des arts et des métiers“ von Denis Diderot und Jean d'Alembert eingeführt und dienten in Ergänzung zur alphabetischen Gliederung des Nachschlagewerkes dem Aufbau einer non-linearen, netzartigen Inhaltsstruktur. Doch in einem gedruckten Werk ließ sich die Verknüpfung von einzelnen Wissensbeständen lediglich imitieren; ein intuitives Browsen in einer verzweigten Struktur stieß an die Grenzen des Printmediums. Die Anstrengungen, Wissen zu ordnen und in einer Ordnungsstruktur sichtbar zu machen, sind kein originäres Sujet der Informationstechnologie. Fragen https://doi.org/10.1515/9783110338966-003

80  2 Das World Wide Web als eine Anwendung des Internets

der Wissensorganisation und Wissensrepräsentation zählen vielmehr „zu den grundlegendsten anthropologischen Konstanten der Menschheitsgeschichte“ (Keller, Schneider und Volk 2014, S. 1). Jede bibliothekarische Klassifikation beispielsweise ist der Versuch, Wissen zu systematisieren. Die Digitalisierung und Digitalität von Wissen eröffnen seit dem letzten Jahrhundert dazu neue Formen der Aufbereitung, Vernetzung und Vermittlung von Wissen, die das individuelle wie kollektive, isolierte wie kollaborative Organisieren und Repräsentieren von Wissen erlauben und mit dem Begriff des semantischen Webs einen idealisierten Kontext erhalten haben.

Die Vorläufer des Hypertextsystems Tim Berners-Lee schlug eine mit dem Internet als einheitlicher Netzwerkinfrastruktur verbundene, netzartige Verweisstruktur vor: das Hypertextsystem. Es sollte die CERN-Wissenschaftler an allen Forschungsstandorten in die Lage versetzen, ihre Daten und Erkenntnisse mit dem Kollegenkreis in einer Art „Geflecht“ (engl. mesh; ursprüngliche Bezeichnung für das Web), durch das sie mit einer Software navigieren konnten, zu teilen. Die Verknüpfungen mit anderen Inhalten, kleinen Wissenseinheiten, die beliebig miteinander kombinierbar waren, erfolgten darin nicht mehr als analoge Siehe-auch-Verweise, sondern konnten im Netz durch sogenannte (Hyper-)Links, die elektronische Variante des Verweises, hergestellt werden. Diese Technologie ermöglichte erstmals, was bis dahin nur unvollkommen nachgeahmt worden war: die Abbildung assoziativen Denkens und Konstruierens von Wissen. Der Begriff des (digitalisierten) Hypertexts stammte bereits aus den 1960er Jahren. Er wurde von Ted Nelson und seinem Projekt „Xanadu“, einem aufgrund seiner Komplexität nie realisierten Speichersystem untereinander vernetzter Dokumente, geprägt. Die diesem als „verteilt nutzbare Weltbibliothek“ (Keil 2014, S. 169) entworfenen Projekt vorausgehende Idee aus der Jahrzehntenwende der 1930er und 1940er Jahre, eine assoziative Verknüpfung wissenschaftlicher Informationen mit der Technik des Analogrechners umzusetzen, ging auf den US-amerikanischen Ingenieur Vannevar Bush, der anstatt von Hypertexten noch von „trails“ sprach (siehe Nelson 1991, S. 246, 252–255), zurück: Consider a future device for individual use, which is a sort of mechanized private file and library. It needs a name, and, to coin one at random, „memex“ will do. A memex is a device in which an individual stores all his books, records, and communications, and which is mechanized so that it may be consulted with exceeded speed and flexibility. It is an enlarged intimate supplement to his memory. (Bush 1991a, S. 102)

Das World Wide Web als europäische Idee: seine Entstehung



81

Two mental processes the machine (Memex II; Anmerkung der Verfasser) can do well: first, memory storage and recollection, and this is the primary function of the Memex; and second, logical reasoning, which is the function of the computing and analytical machines. (Bush 1991b, S. 178)

Zu diesem frühen Projekt der rechnergestützten Wissensorganisation in dem auf den Namen Memex getauften Informationssystem, das von Zeitgenossen Bushs vielfach als Utopie bezeichnet worden war und letztlich unverwirklicht blieb, schrieben James Nyce und Paul Kahn rund ein halbes Jahrhundert später: In brief, Bush was not only interested in improving work flow and output but in inventing a technology that would directly aid, even add to, the mental processes of classification and knowledge representation. Memex got its name because it was to support and extend the powers of human memory and association. […] It is this principle, this direct modeling of the brain and neural pathways, that sets Bush's work apart from others of his time, this and the promise this principle has for personalizing and linking information. (Nyce und Kahn 1991, S. 57–58)

Die Entwicklung des Hypertextsystems Gemeinsam mit einer Arbeitsgruppe durfte Tim Berners-Lee seinen Vorschlag für das hyperlinkbasierte Informationsgeflecht umsetzen und entwickelte daraus das WWW, das World Wide Web (dt. weltweites Gewebe). Die von BernersLee erdachte Hypertextstruktur des Webs, die es erlaubte, verlinkte Inhalte per Mausklick von entlegenen Servern am anderen Ende der Welt in Sekundenbruchteilen auf den eigenen Bildschirm zu holen, war sicher ein Grund für den durchschlagenden Erfolg des Webs. Auf diese Weise wurde es möglich, Informationen, die an einer beliebigen Stelle im Netz verfügbar waren, miteinander zu verbinden und eine standortunabhängige, vernetzte Struktur von Informationen zu erzeugen, die bislang in dieser Dimension nicht realisierbar gewesen war. Entscheidend für die weite Verbreitung seiner Entwicklung, das lag auf der Hand, war die Verwendung des TCP/IP. Tim Berners-Lee programmierte das Hypertext Transfer Protocol, abgekürzt HTTP, zum Suchen und Finden vernetzter Dateien im Internet. Diese Dateien waren über eine eindeutige Webadresse, den Uniform Resource Locator, abgekürzt URL (dt., wörtlich übersetzt einheitlicher Quellenanzeiger), aufrufbar. In Anlehnung an das Durchblättern eines Buches bezeichnete Berners-Lee das Programm, das den Datentransfer umsetzte und die Anzeige des aus den verschiedenen, miteinander vernetzten Dateien zusammengesetzten Dokuments

82  2 Das World Wide Web als eine Anwendung des Internets

ermöglichte, als Browser (to browse, dt. durchblättern). Er etablierte außerdem die Beschreibungssprache Hypertext Markup Language, abgekürzt HTML. Mit ihr gelang es, die mithilfe des HTTP gefundenen, URL-adressierten Dateien in ein Format zu bringen, das der Browser darstellen konnte. Zur Verwaltung der Dateien ergänzte er schließlich noch eine Serversoftware. Für seine Verdienste um die Wissenschaft verlieh ihm Königin Elisabeth II. 2004 den Orden „Knight Commander of the British Empire“ und erhob ihn damit in den Ritterstand. Anlässlich dieser Auszeichnung mahnte er: The Web must remain a universal medium, open to all and not biasing the information it conveys. As the technology becomes ever more powerful and available, using more kinds of devices, I hope we learn how to use it as a medium for working together, and resolving misunderstandings on every scale. (zitiert nach W3C 2004)

Die Verbreitung des World Wide Webs Tim Berners-Lee verwendete das HTTP als Übertragungsprotokoll, das auf das Internet aufsetzte, und betrieb den ersten Webserver, der am 20. Dezember 1990 online ging, zunächst nur für das interne CERN-Netz. Seine Anwendung zur Wissensorganisation stellte er in der Folge auf wissenschaftlichen Tagungen vor. Im Geiste der Network Working Group, die seit ihrem Zusammentreffen im Sommer 1968 eine offene, die Kooperation fördernde Netzkultur vorgelebt hatte, brachte er der Community seine Idee näher und lud zur Weiterentwicklung und Anpassung an die eigenen Systemvoraussetzungen, insbesondere durch Programmierung eigener Browser, für die Berners-Lee angesichts unterschiedlicher Computersysteme keine Vorgaben traf, ein. Die erste Webseite der Welt hatte die Adresse http://info.cern.ch/hypertext/ WWW/TheProject.html. Sie war für eine lange Zeit nicht mehr verfügbar und wurde erst 2013 im letzten auffindbaren Zustand von 1992 wiederhergestellt. Ab August 1991 war das WWW weltweit erreichbar; im Dezember 1991 ging der erste WWW-Server außerhalb Europas im Stanford Linear Accelerator Center (SLAC) in Kalifornien online. Die Unterstützung für Berners-Lees Entwicklung blieb zunächst jedoch verhalten. Die Idee, Dokumente aus dezentral verfügbaren Dateien durch Vernetzung standortunabhängig zu erzeugen, ging über die bisherige Internetnutzung, nämlich den Austausch von Dateien sowie den Zugriff auf Dateien und Anwendungen physisch entfernter Rechner, weit hinaus und begegnete Vorbehalten. Die Anforderung zur Programmierung eigener Browser, wie Berners-Lee sie formuliert hatte, erschwerte anfangs zusätzlich die Verbreitung sei-

Das World Wide Web als europäische Idee: seine Entstehung 

83

ner Anwendung, war doch das Wissen darüber noch kaum vorhanden. Es dauerte dennoch nicht lang: Bald waren nichtkommerzielle Browserentwicklungen im Internet verfügbar, die mitunter sogar Funktionalitäten zur Webseitenerstellung aufwiesen. Die nunmehr vergleichsweise einfache Installation und Handhabung von Webservern und die Entscheidung des CERN im Jahre 1993, die WWW-Applikation unter eine offene Lizenz zu stellen und damit die freie Nutzung und Weiterentwicklung auf Dauer zu ermöglichen, beflügelten jedenfalls die schnelle, weltweite Verbreitung des Webs. Als eine mittelbare Folge des High Performance Computing Act aus dem Jahre 1991 entwickelte in dieser Zeit ein Team um Eric Bina und Marc Andreessen im National Center for Supercomputing Applications (NSCA) an der University of Illinois ein Programm, das Webgrafiken direkt anzeigen konnte: Der erste massentaugliche Browser namens NSCA Mosaic war geboren. Zum zehnjährigen Jubiläum der Veröffentlichung des Mosaic-Browers schrieb Detlef Borchers zu dessen neuartiger Funktionalität: Ältere Software wie der Ur-Browser des WWW-Erfinders Tim Berners-Lee oder der damals populäre Viola konnte zwar Grafiken anzeigen, doch mussten die Anwender dafür den jeweiligen Verweis im Text anklicken. Mosaic beendete die Trennung von Text und Grafik; das textorientierte WWW wurde bunt. Die Zugriffszahlen auf die damals verfügbaren Webseiten explodierten. (Borchers 2003)

Aus dem NSCA Mosaic entwickelte das Unternehmen Microsoft, das sich die Rechte an dem Browser sichern konnte, später den Internet Explorer. Bill Gates, Gründer des mächtigen US-amerikanischen Konzerns Microsoft, welcher in den 1990er Jahren mit Windows eine monopolartige Stellung bei PC-Betriebssystemen innehatte, unterschätzte anfangs die Rolle des Internets fundamental. In Gates' millionenfach verkauftem Bestseller „Der Weg nach vorn. Die Zukunft der Informationsgesellschaft“ von 1995 spielte das Internet praktisch noch keine Rolle. Erst im selben Jahr, das zugleich das 20-jährige Bestehen des Unternehmens markierte, schaffte es Microsoft, einen Browser, den damals wegen seiner zahlreichen Schwächen oft belächelten Internet Explorer, auf den Markt zu bringen. Mittlerweile verfügt natürlich auch Microsoft mit den neueren Versionen des Internet Explorers über einen modernen, wenn auch häufig wegen Sicherheitsmängeln kritisierten Browser. Nach der Öffnung des Netzes für kommerzielle Anbieter im Jahre 1992 erwies sich die Veröffentlichung des Mosaic-Browsers im April 1993 als entscheidender Auslöser für den digitalen Dammbruch: Das Netz wurde ausgehend von den USA zum Massenphänomen. Das Internetzeitalter begann.

84  2 Das World Wide Web als eine Anwendung des Internets

Die Anfänge der Kommerzialisierung des World Wide Webs Überlegungen zur Kommerzialisierung des Browservertriebs wie auch des Webs insgesamt, das als offenes Netzwerk für alle Akteure zugänglich und nutzbar war, ließen wider die ursprüngliche Intention und Motivation zur freien Nutzung und Weiterentwicklung des Webs angesichts zunehmender Verwendung in Wirtschaft und Verwaltung, ab Mitte der 1990er Jahre insbesondere auch in den Privathaushalten, allerdings nicht auf sich warten. Die Wege zur Kommerzialisierung waren vielfältig: Neben die entgeltpflichtige Softwarelizenzierung traten die gebührenpflichtige Zugangsvermittlung zum Internet bzw. zum Web sowie die Vermarktung von kostenpflichtigen Produkten und Dienstleistungen über das Web. Um die Nutzung des World Wide Webs zu fördern und nicht zu behindern, kam die Kommerzialisierung des Browservertriebs – anders als ursprünglich erwogen – nicht in Frage. Aussichtsreicher erschien es, den Zugang zum Web entgeltpflichtig auszugestalten. Internet-Service-Provider eröffneten sich einen lukrativen Markt, indem sie die Verbindung über einen Knotenrechner des Providers mit dem Web – durch Modemoder ISDN-Einwahl – gegen Zahlung von Nutzungsentgelten anboten. Noch vor Ausgang des letzten Jahrtausends etablierte sich ein expandierender E-Commerce-Sektor. Insbesondere der Preisverfall bei PC-Hardware ermöglichte mehr und mehr Privatpersonen und folglich einem größeren Kreis potenzieller Kunden den Zugang zum Web und zum Onlinegeschäft, das für den stationären Verkauf von Waren und Dienstleistungen zur beachtlichen Konkurrenz wurde.

Der bedeutendste Dienst im Internet Das World Wide Web ist der bedeutendste Internetdienst und wird deshalb häufig als Synonym für das Internet verwendet; tatsächlich ist es aber eine von vielen Applikationen, die auf der Infrastruktur des Internets aufsetzt – vergleichbar mit einem Auto (= WWW), das auf einer Straße (= Internet) fährt. Andere Internetdienste wie Internetfernsehen, Internetradio oder E-Mail wurden allerdings nach und nach über das Web zugänglich, weil mit dem Onlinezugang keine lokalen Installationen mehr erforderlich waren. Weitere Onlinedienste wie soziale Netzwerke oder Video-Sharing-Plattformen waren sogar von Beginn an webbasiert. Aufgrund der zentralen Bedeutung des World Wide Webs als Wissensinfrastruktur im Internet konzentrieren wir uns in diesem Kapitel auf dessen (weitere) Entwicklung. Zuvor gehen wir an dieser Stelle noch auf zwei Internetdienste ein, deren Anwendung auch außerhalb des Webs zu sehen ist: die EMail und das Instant Messaging.

Das World Wide Web als europäische Idee: seine Entstehung



85

Von der E-Mail zur „Webmail“ Neben dem World Wide Web waren im Internet sehr früh zahlreiche weitere Dienste verfügbar, an deren Entwicklung bereits in den 1970er und 1980er Jahren geforscht worden war. Analoge Kommunikationsmittel und -techniken, allen voran der Brief, das Telegramm und das Telefon, wurden durch eine digitale Variante, die E-Mail, den Chat oder die Internettelefonie, ergänzt bzw. ersetzt. Auch die Massenmedien Radio und Fernsehen bildeten sich im Internet schnell ab: teils als originäre Internetsender, teils als Netzvarianten der konventionellen Radio- und Fernsehanbieter, die im Internet bzw. Web ihre Inhalte wiederverwerten konnten. Mit der Ausbreitung des Internets in beruflichen und privaten Kontexten wurde die Kommunikation per E-Mail zum Standard. Umfragen des Pew Research Centers unter erwachsenen US-Bürgern ergaben, dass „Send or read Email“ in den Jahren 2002 bis 2011 durchgängig für mindestens 92 Prozent der Befragten zu den persönlichen Aktivitäten im Internet zählte. Die E-Mail war damit noch vor „Use a search engine“ die populärste aller genannten Internetanwendungen. In Deutschland wurde die erste E-Mail 1984 an der Universität Karlsruhe empfangen. Die Testmail aus den USA an den Informatiker Michael Rotert, der ein Jahr später den ersten Internetanschluss an einer deutschen Hochschule einrichtete, war immerhin einen Tag lang unterwegs und überbrachte den orthografisch eigenwilligen Gruß „Wilkomen in CSNET!“. Kommerzielle Internet-Provider und Rechenzentren von Behörden und Universitäten stellten ihren Nutzern bald darauf E-Mail-Adressen – anfangs zum Teil entgeltlich, später meist kostenlos – zur Verfügung. Der Nutzerkreis wuchs schnell, wenngleich bis dahin für den E-Mail-Verkehr die lokale Installation einer E-Mail-Anwendung auf dem eigenen PC erforderlich war. Um den E-Mail-Zugriff unabhängig vom eigenen Standort zu erleichtern, wurde früh an einer Implementierung des E-Mail-Services im World Wide Web gearbeitet. Beim webbasierten E-Mailen sollte nur ein beliebiger Webbrowser und keine lokal installierte Software mehr benötigt werden. Am CERN wurde 1993 erstmals mit webbasierter Mailsoftware experimentiert. In der Folge tüftelten viele Entwickler an einer entsprechenden Softwarelösung – mit Erfolg: 1995 wurden erste webbasierte Mailzugänge angeboten. US-amerikanische Webmail-Provider wie Hotmail oder Rocket Mail gewannen ab 1996 mit ihrem kostenlosen Service schnell an Popularität. In Deutschland starteten unter anderem GMX und Web.de 1997 bzw. 1998 ihre kostenfreien Webmailportale und errangen damit alsbald hohe Marktanteile. Der Postfachzugriff durch ein lokal installiertes Programm blieb dabei grundsätzlich weiterhin

86  2 Das World Wide Web als eine Anwendung des Internets

möglich. Großer Vorteil der Webmailfunktionalität war jedoch die Abrufbarkeit der E-Mails von jedem internetfähigen Rechner ohne Installation einer eigenen Mailsoftware. Diese technische Raffinesse wurde rund zehn Jahre später Anknüpfungspunkt für eine juristische Auseinandersetzung, die das Bundesverfassungsgericht in verschiedenen Verfahren herausforderte. Im Beschluss des Gerichts vom 16. Juni 2009, Aktenzeichen 2 BvR 902/06 war eine der entscheidenden Fragen, ob der Schutzbereich des nach seiner damaligen Bezeichnung altmodisch anmutenden Fernmeldegeheimnisses aus Artikel 10 Absatz 1 Grundgesetz bei Sicherstellung und Beschlagnahme von E-Mails auf dem Mailserver des Providers durch Strafverfolgungsbehörden eröffnet war. In analogen Zeiten hatte das Grundrecht aus Artikel 10 Grundgesetz Berühmtheit in der verfassungsgerichtlichen Entscheidung zum Schutz des Briefgeheimnisses eines Inhaftierten erlangt. Artikel 10 Absatz 1 Grundgesetz schützt die unkörperliche Übermittlung von Informationen an individuelle Empfänger nach Inhalt und Umstand der Telekommunikation und dient der Gewährleistung einer Privatheit auf Distanz. Das Grundrecht entfaltet sowohl Schutz vor staatlicher Kenntnisnahme der Kommunikation als auch vor den anschließenden Informations- und Datenverarbeitungsprozessen. Zur Reichweite des Schutzes führte das Bundesverfassungsgericht aus: Die Reichweite des Grundrechts erstreckt sich ungeachtet der Übermittlungsart (Kabel oder Funk, analoge oder digitale Vermittlung) und Ausdrucksform (Sprache, Bilder, Töne, Zeichen oder sonstige Daten) auf sämtliche Übermittlungen von Informationen mit Hilfe verfügbarer Telekommunikationstechniken […], auch auf Kommunikationsdienste des Internet […]. (Rn. 43)

Dass sich der Schutz des Telekommunikationsgeheimnisses, wie das in Artikel 10 Grundgesetz verbürgte Grundrecht mittlerweile bezeichnet wird, ebenfalls auf Kommunikationsdienste im Internet erstreckt, hatte das Bundesverfassungsgericht in seinem Urteil zur Onlinedurchsuchung vom 27. Februar 2008, Aktenzeichen 1 BvR 370, 595–07, 1 BvR 370, 595/07, mit dem wir uns noch näher beschäftigen werden, betont. In seiner Entscheidung zur E-Mail-Beschlagnahme fuhr es fort: Der Grundrechtsschutz erstreckt sich nicht auf die außerhalb eines laufenden Kommunikationsvorgangs im Herrschaftsbereich des Kommunikationsteilnehmers gespeicherten Inhalte und Umstände der Kommunikation. Der Schutz des Fernmeldegeheimnisses endet insoweit in dem Moment, in dem die E-Mail beim Empfänger angekommen und der Übertragungsvorgang beendet ist. (Rn. 45)

Das World Wide Web als europäische Idee: seine Entstehung



87

Davon zu unterscheiden sei allerdings die folgende Kommunikationssituation: Demgegenüber ist der zugangsgesicherte Kommunikationsinhalt in einem E-Mail-Postfach, auf das der Nutzer nur über eine Internetverbindung zugreifen kann, durch Art. 10 Abs. 1 GG geschützt […]. Das Fernmeldegeheimnis knüpft an das Kommunikationsmedium an und will jenen Gefahren für die Vertraulichkeit begegnen, die sich gerade aus der Verwendung dieses Mediums ergeben, das einem staatlichem Zugriff leichter ausgesetzt ist als die direkte Kommunikation unter Anwesenden […]. Die auf dem Mailserver des Providers vorhandenen E-Mails sind nicht im Herrschaftsbereich des Kommunikationsteilnehmers, sondern des Providers gespeichert. Sie befinden sich nicht auf in den Räumen des Nutzers verwahrten oder in seinen Endgeräten installierten Datenträgern. Der Nutzer kann sie für sich auf einem Bildschirm nur lesbar machen, indem er eine Internetverbindung zum Mailserver des Providers herstellt. Zwar kann der Nutzer versuchen, die auf dem Mailserver gespeicherten E-Mails durch Zugangssicherungen – etwa durch Verwendung eines Passworts – vor einem ungewollten Zugriff Dritter zu schützen. Der Provider und damit auch die Ermittlungsbehörden bleiben jedoch weiterhin in der Lage, jederzeit auf die auf dem Mailserver gespeicherten E-Mails zuzugreifen. Der Kommunikationsteilnehmer hat keine technische Möglichkeit, die Weitergabe der E-Mails durch den Provider zu verhindern. Dieser technisch bedingte Mangel an Beherrschbarkeit begründet die besondere Schutzbedürftigkeit durch das Fernmeldegeheimnis. Dies gilt unabhängig davon, ob eine E-Mail auf dem Mailserver des Providers zwischen- oder endgespeichert ist. In beiden Fällen ist der Nutzer gleichermaßen schutzbedürftig, weil sie sich hinsichtlich der faktischen Herrschaftsverhältnisse nicht unterscheiden. (Rn. 46)

Die nächste juristische Hürde auf dem Weg zur Eröffnung des Schutzbereichs von Artikel 10 Absatz 1 Grundgesetz war die vom Bundesverfassungsgericht erörterte Frage, ob der Schutz des Telekommunikationsgrundrechts sich auch dann entfaltet, wenn eine E-Mail bereits in den E-Mail-Account eingegangen und vom Empfänger, wie im vorliegenden Rechtsstreit, zur Kenntnis genommen worden ist. Das Gericht würdigte diesen Sachverhalt wie folgt: Der Schutz der auf dem Mailserver des Providers gespeicherten E-Mails durch das Fernmeldegeheimnis entfällt auch nicht dadurch, dass ihr Inhalt oder Eingang vom Empfänger möglicherweise schon zur Kenntnis genommen worden ist. Die Reichweite des Schutzes von Art. 10 Abs. 1 GG endet nicht in jedem Fall mit der Kenntnisnahme des Kommunikationsinhalts durch den Empfänger. Ob Art. 10 Abs. 1 GG Schutz vor Zugriffen bietet, ist mit Blick auf den Zweck der Freiheitsverbürgung unter Berücksichtigung der spezifischen Gefährdungslage zu bestimmen […]. Die spezifische Gefährdungslage und der Zweck der Freiheitsverbürgung von Art. 10 Abs. 1 GG bestehen auch dann weiter, wenn die E-Mails nach Kenntnisnahme beim Provider gespeichert bleiben. Durch die Endspeicherung wird der von Art. 10 Abs. 1 GG zuvörderst geschützte Kommunikationsinhalt infolge der Nutzung eines bestimmten Kommunikationsmediums auf einem vom Kommunikationsmittler bereit gestellten Speicherplatz in einer von keinem Kommunikationsteilnehmer beherrschbaren Sphäre abgelegt. Weder bei einer Zwischen- noch bei einer Endspeicherung der E-Mails auf dem Mailserver des Providers ist dessen Tätigkeit beendet; der Provider

88  2 Das World Wide Web als eine Anwendung des Internets

bleibt dauerhaft in die weitere E-Mail-Verwaltung auf seinem Mailserver eingeschaltet. (Rn. 48)

Weil der Nutzer bei jedem erneuten Zugriff auf seine E-Mails wieder den typischen, aus der Verwendung des Kommunikationsmediums folgenden Gefahren für die Vertraulichkeit seines Kommunikationsinhaltes ausgesetzt ist, sah das Gericht den Schutzbereich von Artikel 10 Absatz 1 Grundgesetz bei Sicherstellung und Beschlagnahme von E-Mails, die als zugangsgesicherter Kommunikationsinhalt nach Kenntnisnahme auf dem E-Mail-Server des Providers verblieben sind, als eröffnet an. Die staatliche Maßnahme musste deshalb zur Vermeidung ihrer Verfassungswidrigkeit mit dem Fernmeldegeheimnis aus Artikel 10 Absatz 1 Grundgesetz vereinbar sein. Dieser verfassungsgerichtliche Beschluss gehört zweifellos zu den wichtigsten Gerichtsentscheidungen, die im Kontext des Internets und seiner Dienste bisher getroffen worden sind. Ein Geheimhaltungswille ist für den grundrechtlichen Schutz von Artikel 10 Grundgesetz übrigens konstitutiv: Die Kommunikation in öffentlichen Chaträumen, Newsgroups oder Internetforen, die sich an die Allgemeinheit richtet, ist vom Schutzbereich des Artikels 10 Grundgesetz nicht umfasst. Mit der Frage, ob bei der Kommunikation über E-Mails ein entsprechender Geheimhaltungswille der Beteiligten anzunehmen ist, befasste sich das Gericht in der hier Pate stehenden Entscheidung nicht. Die Enthüllungen zur millionenfachen, staatlichen Überwachung der Internetkommunikation, die bereits im ersten Jahrzehnt der 2000er Jahre die Medien beschäftigten, hätten dazu freilich Anlass geben können. Schließlich hatte das Bundesverfassungsgericht frühzeitig in seiner Rechtsprechung festgestellt, dass nur die verborgene Kommunikation durch das Fernmeldegeheimnis geschützt ist. Unter Rechtswissenschaftlern wird durchaus vertreten, die Möglichkeit zur Einsicht und Manipulation stelle die E-Mails den Postkarten oder unverschlossenen Briefen gleich. Nach anderer, wohl herrschender Auffassung wird auf die objektive Schutzgeeignetheit und -fähigkeit des Kommunikationsmediums Bezug genommen. Diese wäre nur abzulehnen, wenn die technische Anfälligkeit und Unvollkommenheit die Kommunikation per E-Mail einer öffentlichen Kommunikation mit allgemeiner Teilnahmemöglichkeit vergleichbar werden ließe. Werden jedoch vom E-Mail-Provider zur Vermeidung des Zugriffs Dritter auf die Kommunikation seiner Nutzer technische Vorkehrungen getroffen, das heißt als sicher anerkannte Verschlüsselungstechniken eingesetzt, kann der E-Mail-Verkehr juristisch als verborgene Kommunikation gewertet werden. Dass trotz der Abschottung der Kommunikation Zugriffe Dritter geschehen, ist dann vielmehr ein Argument für das besondere Bedürfnis nach Schutz durch das Grundrecht aus Artikel 10 Grundgesetz.

Das World Wide Web als europäische Idee: seine Entstehung



89

Mit der Vertraulichkeit der E-Mail-Kommunikation befasste sich auch das Landgericht Hamburg im Jahr 2017. Der Fall lag hier jedoch gänzlich anders. So klagte ein Geschichtsprofessor der Humboldt-Universität zu Berlin, dessen E-Mail-Korrespondenz mit dem Beklagten für den Kläger ungeahnt Ausgangspunkt für einen journalistischen Beitrag wurde. Das Gericht betonte in seinem Urteil vom 10. März 2017, Aktenzeichen 324 O 687/16 die berechtigte Erwartung der Kommunikationsteilnehmer, dass E-Mail-Nachrichten unberechtigten Dritten nicht zur Kenntnis gelangten: Die Achtung des ungestörten Gedankenaustauschs ist eine Grundbedingung für die Freiheit der Meinungsäußerung, die empfindlich gestört würde, wenn der Äußernde in einem E-Mail-Austausch jederzeit damit rechnen müsste, öffentlich zitiert zu werden, obwohl diesbezüglich kein Anhaltspunkt in der Kommunikation ersichtlich ist.

Zweifeln an dem Vertrauen in die Vertraulichkeit der Kommunikation, seien sie in dem technisch bedingten, unvollständigen Schutz vor dem Zugriff Fremder oder in der aufgrund der technischen Möglichkeiten erleichterten Verwertbarkeit des Kommunikationsinhalts durch den Kommunikationspartner begründet, stellte das Landgericht die im Zeitalter der elektronischen Kommunikation schützenswerte Erwartung entgegen, dass im E-Mail-Austausch getroffene Äußerungen den Rahmen des Dialogs nicht verlassen werden. 2017, 33 Jahre nach der ersten Mail an Michael Rotert, wurden übrigens tagtäglich 269 Milliarden E-Mails von rund 3,8 Milliarden E-Mail-Teilnehmern weltweit versandt. Einen großen Anteil davon machten und machen allerdings Spam-E-Mails, also massenhaft unverlangt zugestellte Nachrichten, aus. Durch die Verwendung von E-Mail-Apps auf dem Smartphone verliert der direkte Webzugriff auf die E-Mails allerdings an Bedeutung.

Instant-Messenger-Dienste Die sofortige Übertragung von Nachrichten wird als Instant Messaging bezeichnet. Die entsprechende Tätigkeit nennt man „chatten“, die eingesetzten Programme Messenger. Neben Nachrichten können auch Fotos, Videos, Audiodateien oder Weblinks versendet werden. Der Sender kann sehen, ob und wann der Empfänger die Nachricht gelesen hat. Voraussetzung bei Instant Messaging ist, dass die Gesprächspartner den gleichen Messenger benutzen. Im Unterschied zur SMS, kurz für Short Message Service, fallen beim Instant Messaging keine Zusatzkosten an; die Verbindung wird direkt über das Internet hergestellt. Verbreitete Messenger-Programme sind WhatsApp, Facebook Messenger und

90  2 Das World Wide Web als eine Anwendung des Internets

Skype. Obwohl heute in der Regel mit Smartphones über entsprechende Apps gechattet wird, sind gängige Messengerprogramme auch als Webapplikation verfügbar. Eine unbedachte WhatsApp-Nachricht, die heimlich angefertigte Fotos enthielt, war 2015 Ausgangspunkt für folgenden Rechtsstreit: Die Klägerin und die Beklagte besuchten die elfte Klasse in der gymnasialen Oberstufe und nahmen im Schuljahr 2013/14 gemeinsam an einem Spanischkurs teil. Dabei fotografierte die Beklagte die Klägerin im Unterricht heimlich von hinten. Das angefertigte Bild schickte die Beklagte über den Messengerdienst WhatsApp an eine WhatsApp-Gruppe, in der sie gemeinsam mit der Klägerin Mitglied war. Im Weiteren veröffentlichte sie das Bild im Internet auf der Media-Sharing-Plattform 9GAG, auf der Bilder, Animationen und Videos von Nutzern eingestellt, geteilt und mit Kommentaren und Bewertungen versehen werden können. Von der Veröffentlichungsplattform gelangte das Bild in andere Internetangebote, darunter auch Facebook, und wurde dort geteilt, vielfach bewertet und kommentiert. Schließlich wurde das Bild auf der Videoplattform YouTube, bei Instagram und Twitter veröffentlicht. Das Landgericht Frankfurt entschied mit seinem Beschluss vom 28. Mai 2015, Aktenzeichen 2-3 O 452/14, 2/3 O 452/14 und weitere, dass die Klägerin mit Blick auf das allgemeine Persönlichkeitsrecht von der Beklagten verlangen konnte, künftig keine heimlichen Bildnisse mehr von ihr anzufertigen, das erstellte Bild ohne Einwilligung der Klägerin bzw. ihrer gesetzlichen Vertreter nicht weiterzuverbreiten und nach den Bestimmungen des Kunsturhebergesetzes nicht öffentlich zur Schau zu stellen (Rn. 12–24). Der Auffassung, dass sich zumindest aus der Mitgliedschaft in einer gemeinsamen WhatsApp-Gruppe auf die konkludente Einwilligung in die Verbreitung heimlich von einzelnen Mitgliedern aufgenommener Fotografien an die Gruppe schließen ließe, folgte das Gericht nicht (Rn. 20).

Das W3C (World Wide Web Consortium) Um die weitere technische Entwicklung des World Wide Webs zu gewährleisten, wurde 1994 das W3C (World Wide Web Consortium) gegründet. Die Mitglieder des W3C – im Juni 2018 sind es 475, darunter auch die Library of Congress, die Deutsche Nationalbibliothek und das Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen – verabschieden die Standards für Protokolle und Techniken, mit denen das WWW arbeitet. Dabei hat sich das W3C verpflichtet, nur Technologien zu verwenden, auf die keine Patentgebühren erhoben werden. Die Standards selbst sind offen, so dass jeder ohne rechtliche Hürden WWWAnwendungen entwickeln und vertreiben darf, was der wesentliche Grund für

Das World Wide Web als europäische Idee: seine Entstehung



91

die schnelle Ausbreitung des Internets – nicht zuletzt auf dem kommerziellen Sektor – war. Beispiele für solche vom WWW veröffentlichten Standards sind die Auszeichnungssprachen HTML und XML. Der Sitz des Deutsch-Österreichischen Regionalbüros befindet sich in Berlin am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Direktor des W3C ist Tim Berners-Lee.

Die World Wide Web Foundation Tim Berners-Lee war es auch, der 2009 die World Wide Web Foundation gründete. Ziel der Organisation ist es, dass jeder Mensch am offenen Web teilnehmen kann, ohne durch politische oder wirtschaftliche Restriktionen daran gehindert zu werden: Die von Sir Tim Berners-Lee gegründete World Wide Web Foundation (webfoundation. org) strebt die Etablierung des Open Web als ein globales, öffentliches Gut und Grundrecht an, wodurch eine Welt geschaffen wird, in der das Netz von allen überall benutzt werden kann, um frei zu kommunizieren, zu kollaborieren und an Innovationen zu arbeiten. (Jacobs 2014)

Die World Wide Web Foundation arbeitet an mehreren Projekten: – Alliance for Affordable Internet (A4AI): Die A4AI hat sich zum Ziel gesetzt, den Zugang zum Breitbandinternet für einen möglichst großen Anteil der Weltbevölkerung zu bezahlbaren Preisen (maximal 5 Prozent vom Einkommen) durchzusetzen. – The Web Index: Beim Webindex handelt es sich um ein analytisches Messinstrument, das den Beitrag des Webs zum sozialen, ökonomischen und politischen Fortschritt in einzelnen Staaten erfasst und daraus ein jährliches Länderranking erstellt. Zum Zeitpunkt der letzten Erstellung des Index 2014 waren darin 86 Länder enthalten. Gemessen werden zahlreiche Einflussfaktoren wie beispielsweise die Zugangsmöglichkeiten zum Internet, staatliche Zensur, Pressefreiheit im Netz, Gesetzgebung gegen Cyberkriminalität sowie Verfügbarkeit von Open Data aus Politik und Wirtschaft. Das Ranking wird angeführt von Dänemark, Finnland und Norwegen. Deutschland landete auf Platz 14, China auf Rang 44. – Web We Want: Die globale „Web We Want“-Bewegung arbeitet an einer positiven Vision des Webs der Zukunft. In Anlehnung an die Allgemeine Erklärung der Menschenrechte der Vereinten Nationen kreisen die Tätigkeiten von Web We Want um die Verwirklichung von fünf grundsätzlichen Zielen:

92  2 Das World Wide Web als eine Anwendung des Internets

1. 2. 3.





freedom of expression online and offline affordable access to a universally available communications platform protection of personal user information and the right to communicate in private 4. diverse, decentralised and open infrastructure 5. neutral networks that don't discriminate against content or users Open Data Barometer sowie weitere Projekte zu Open Government Data: Die Open-Data-Projekte der World Wide Web Foundation untersuchen weltweite Trends auf dem Gebiet der Open Data und vergleichen den Status von Open Data in einzelnen Staaten. Es wird untersucht, welchen Einfluss Open-Data-Projekte auf die Gesellschaft hinsichtlich erhöhter Transparenz staatlicher Entscheidungen und verbesserter Partizipationsmöglichkeiten der Bürger haben. Women's Rights Online: Mit dem Projekt Women's Rights Online versucht die Stiftung, die Benachteiligung von Frauen bei den Nutzungsmöglichkeiten des Webs weltweit einzudämmen.

Digitale Kluft, digitale Kompetenz Ein zentrales Anliegen der World Wide Web Foundation ist die Überwindung der digitalen Spaltung, auch digitale Kluft genannt (engl. digital divide). Die These der digitalen Spaltung besagt, […] dass insbesondere eine höhere Bildung und ein höheres Einkommen eine gewinnbringende Internetverwendung begünstigten, weshalb die Verbreitung des Internets eher mit wachsenden als schrumpfenden sozialen Ungleichheiten einhergehe. (Zillien 2013)

Diese These lässt sich wie folgt erläutern: Durch die Verbreitung des Internets entstehen zwangsläufig zwei Gruppen in der Weltbevölkerung: eine Gruppe mit Onlinezugang und eine andere, die offline bleibt. Der fehlende Zugang zum Internet liegt oft an finanziellen und technischen Gründen, häufig aber auch an einem Mangel an digitaler Kompetenz. Die These geht davon aus, dass gesellschaftlich besser gestellte Gruppen schneller und besser am Internet und den technologischen Entwicklungen teilhaben und davon profitieren. Die Gruppe ohne Internetzugang hingegen kann aus den vielen durch das Internet begünstigten Entwicklungen keinen Nutzen ziehen. Dadurch vertieft sich die bereits bestehende gesellschaftliche Kluft. Der Zugang zum Internet bzw. eine ausgeprägte digitale Kompetenz ist somit der These zufolge ein Katalysator für gesell-

Das World Wide Web als europäische Idee: seine Entstehung



93

schaftliche Ungleichheit sowohl innerhalb eines Staates als auch im internationalen Vergleich. Zu hinterfragen ist, ob bzw. wie sich diese These tatsächlich empirisch belegen lässt. Das ist Gegenstand der Digital-Divide-Forschung, die tatsächlich ein „Muster sich selbst verstärkender Ungleichheiten“ (Zillien 2013) erkennen konnte. Der niederländische Kommunikationswissenschaftler Jan van Dijk bezeichnet die Folgen der ungleichen Internetnutzung als „Matthäus-Effekt“, der auf den Soziologen Robert Merton zurückgeht und nach Matthäus 25, 29 benannt ist: Denn wer da hat, dem wird gegeben werden, und er wird die Fülle haben. (nach Van Dijk 2005, S. 125)

In der Wissenschaft hat der Digital Divide mit der Unterteilung in First und Second Digital Divide eine weitere Ausdifferenzierung erfahren. Während der First Digital Divide die Unterschiede des technischen Zugangs zum Internet beschreibt, bezieht sich der Second Digital Divide auf die unterschiedlichen Nutzungsarten des Internets (siehe Zillien 2009, S. 97). Entscheidend ist dabei, wie das Internet genutzt wird. Kann das Individuum das Internet effizient dazu nutzen, die eigene Lebensqualität zu verbessern, steht es auf der Seite der Digitalisierungsgewinner. Da sich die Zahl der Internetzugänge nicht zuletzt durch die mobilen Technologien in den letzten Jahren stark erhöht hat, richtet sich die Aufmerksamkeit nun eher auf den Second Digital Divide. Seine Definition legt nahe, dass die dichotome Unterteilung der Menschen in On- und Offliner nicht aufrechterhalten werden kann, da sich die Nutzungsszenarien des Internets auch trotz vorhandenen Zugangs zum Internet sehr unterschiedlich darstellen. Potenzieller Verlierer der Digitalisierung ist nicht nur die Bevölkerung ärmerer Länder, in denen 4 Milliarden Menschen keinen Zugang zum Internet haben. Auch Menschen aus Haushalten mit niedrigem Einkommen, Geringqualifizierte, ältere Menschen und Menschen mit Migrationshintergrund haben oft das Nachsehen (vgl. Kühl 2010). Das Hauptproblem der digitalen Kluft besteht darin, [...] that a large part of the population might be excluded from meaningful participation in the society of the future. (van Dijk 2005, S. 166)

Dem Problem der fehlenden Teilhabe an der digitalen Gesellschaft entgegenzutreten, das haben sich verschiedene Organisationen und Initiativen zum Ziel gesetzt. Exemplarisch benannt seien die gemeinnützige Organisation „Close the Gap“ mit Sitz in Brüssel, die von Unternehmen gespendete, gebrauchte

94  2 Das World Wide Web als eine Anwendung des Internets

Computer in Entwicklungs- und Schwellenländern für soziale, medizinische oder Bildungsprojekte zur Verfügung stellt, sowie das von MIT-Professor Nicolas Negroponte initierte Bildungsprojekt „One Laptop per Child“ (OLPC), das Kindern aus Schulen in Entwicklungs- und Schwellenländern die Möglichkeit gibt, mit dem XO-Laptop, einem eigens für das Projekt entwickelten Laptop mit Bildungssoftware, an kollaborativen E-Learning-Projekten teilzunehmen. Das Projekt OLPC wird unter anderem vom Development Programme der Vereinten Nationen (UNDP) unterstützt.

Das Urheberrecht und sein Bedeutungsgewinn: von den Anfängen bis ins digitale Zeitalter Erinnern wir uns zurück an das Spannungsverhältnis von Exklusivitäts- und Zugangskultur, das wir im ersten Kapitel unter den Vorzeichen des Urheberrechtsschutzes im Internet skizziert haben, lässt sich auch dort eine Spaltung erkennen, die die digitale Kluft zu verschärfen geeignet ist. Wir sollten uns deshalb kurz Zeit nehmen und einen Blick auf das Urheberrecht und seine Entwicklung werfen. Mit der stark beschleunigten Informationsverbreitung über den Globus und den technischen Möglichkeiten der modernen Werknutzung geriet es in seinem Geltungsanspruch unter Druck und ins Blickfeld sowohl der Rechteinhaber als auch der interessierten Öffentlichkeit. Der Autor- bzw. Urheberschutz hat eine deutlich längere Geschichte als das Internet. Sie ist vergleichsweise so überaus lang, dass wir sie hier nur mit Stichworten umreißen können, und gilt im Vergleich mit traditionsreichen Rechtsgebieten dennoch als überschaubar und kurz. Mit der Geburtsstunde des Internets hat das Urheberrecht in der modernen Zeit eine gesamtgesellschaftliche Aufmerksamkeit gefunden, wie sie wohl allenfalls mit dem Bedeutungsgewinn seiner Vorläufer bei Erfindung des Buchdrucks zu vergleichen ist. Der Buchdruck machte möglich, was Jahrhunderte zuvor nur in mühsamer Handschriftlichkeit geleistet werden konnte: die Vervielfältigung und Verbreitung von Texten. Nur wenige Jahrzehnte nach seiner Erfindung, um 1480 herum, hatte der Buchdruck die handschriftliche Abschrift, wie sie in der Spätantike und dem Mittelalter vor allem in den Skriptorien der Klöster betrieben worden war, abgelöst. Die Literaturproduktion schwoll an und es entwickelte sich ein reger, überregionaler Buchhandel, der die Zugänglichkeit von Druckwerken organisierte. Die Erfindung des Buchdrucks gilt als die Medienrevolution des Mittelalters. Die vor ihrem Hintergrund entstandenen Autorenprivilegien, die im 16. Jahrhundert neben die dem Schutz des Druckers dienenden Druckerprivilegien

Das World Wide Web als europäische Idee: seine Entstehung



95

traten, sprachen zugunsten des Autors für eine Frist von in der Regel wenigen Jahren ein – allerdings territorial begrenztes und in der Durchsetzung keinesfalls gesichertes – Nachdruckverbot aus. Unter Historikern herrscht Uneinigkeit darüber, ob die frühen Privilegien als Indiz für ein erstarkendes Urheberrechtsbewusstsein, das insbesondere als Angst vor der Entstellung der eigenen Werke auch schon vor der Erfindung des Buchdrucks vereinzelt geäußert worden war, gedeutet werden können. Mit ihnen verfolgt wurden freilich Ziele einer staatlichen Bücheraufsicht und Zensur, die als Gegenmaßnahmen zur schnelleren Verbreitung von Informationen, Wissen und Meinungen ausgeübt wurden. Buchflüche und die Drohung mit dem Zorn Gottes blieben für lange Zeit die moralischen Mittel, mit denen sich die Autoren gegen Vervielfältigungen und Entstellungen ihrer Werke zu verwahren suchten. Eine Vergütung für die Verwertung des erschaffenen Werkes zu fordern war anfangs unüblich. Zur Konvention wurde erst seit dem 17. Jahrhundert erhoben, dass die Autoren für die Übereignung des Manuskripts an einen Verleger eine Honorarzahlung erhielten. Aus dieser Zahlung leiteten die Verleger jedoch zugleich ein unbeschränktes Verlagsrecht zum beliebigen Nachdruck des übergebenen Werkes ab. Ein geschäftstüchtiger Verleger konnte diese Investition somit geschwind amortisieren und ein Vielfaches an Erträgen erzielen. In England wurde dieses Verlagseigentum unter der Bezeichnung „copy right“ bekannt. Mit der Aufklärung und Besinnung auf das Naturrecht entwickelte sich die Vorstellung vom geistigen Eigentum, das der Urheber an seinem (Gedanken-) Werk hält. Das Recht des Verfassers, so Johann Gottlieb Fichte am Ausgang des 18. Jahrhunderts, [ist] sein natürliches, angeborenes, unzuveräußerndes Eigenthumsrecht. Dass man ein solches Recht nicht verletzt sehen wolle, wird wohl ohne ausdrückliche Erinnerung voraus gesetzt; vielmehr müßte man dann es sagen, wenn man auf die Ausübung desselben Verzicht thun wollte. (Fichte 1793, S. 463)

Die der deutschen Kleinstaaterei geschuldete Rechtszersplitterung erschwerte jedoch den Schutz der urheberrechtlichen Interessen. Erst in Folge der Reichsgründung wurden das Urheberrecht harmonisiert und ein einheitliches Schutzniveau erreicht. Mit der dogmatischen Grundlegung des Urheberrechts befasste sich nun zunehmend die Rechtswissenschaft, von der ebenso wie von der Rechtsprechung maßgebliche Impulse für die Rechtsentwicklung ausgingen. Im Nationalsozialismus drohte das Urheberrecht, unter dem Dogma „Gemeinnutz geht vor Eigennutz“ (Punkt 24 des Parteiprogramms der NSDAP, zitiert nach Otte 1988, S. 2840) sein individualrechtliches Gepräge einzubüßen und der Vergemeinschaft von Werken Vorschub zu leisten.

96  2 Das World Wide Web als eine Anwendung des Internets

Die durch das Dritte Reich bedingte Zäsur in der Urheberrechtsentwicklung, aber auch technische Neuerungen und das internationale Recht ließen nach dem Zweiten Weltkrieg die Dringlichkeit einer Neuregelung des Urheberrechts offenbar werden. Verschiedene Entwürfe aus den 1950er und 1960er Jahren bereiteten schließlich den Weg für das Gesetz über Urheberrecht und verwandte Schutzrechte, das am 01. Januar 1966 in Kraft trat. An dieser Stelle wollen wir nun endlich der Frage nachgehen, wovon eigentlich die Rede ist, wenn wir vom Urheberrecht sprechen: Das Urheberrecht bezeichnet einerseits in seiner objektiven Bedeutung die Gesamtheit aller Rechtsnormen, die die Beziehung des Urhebers beziehungsweise Urheberrechtsinhabers zum Werk regeln. Das Urheberrecht als subjektives Recht, also als individuelle Rechtsposition, verschafft dem Urheber(rechtsinhaber) andererseits ein Herrschaftsrecht über seine konkrete geistige Schöpfung. Diese Herrschaft ist im geltenden Gesetzesrecht als umfassendes absolutes Recht ausgestaltet, das dem Urheber sowohl alle bereits bestehenden als auch künftig neu entstehenden Verwertungsmöglichkeiten seiner geistigen Schöpfung reserviert. Unter Beachtung der Grenzen dieses Herrschaftsrechts ist der Urheber zur alleinigen und ausschließlichen Nutzung berechtigt. Ihm ist mithin die Entscheidungsmacht darüber verliehen, ob, wem und in welcher Form er anderen die Werknutzung gestatten möchte. Das Verständnis des Urheberrechts als Recht, Dritte von der Nutzung der geistigen Schöpfung durch Verbotsrechte auszuschließen, prägt das deutsche Urheberrecht. Das Monopol des Urhebers an seiner geistigen Schöpfung sichert ihm die Verwertung seines Werkes und damit die Anerkennung und Entlohnung für seine schöpferische Leistung. Der Begriff des geistigen Eigentums verkörpert dieses Ausschließlichkeitsrecht. So oft er auch verwendet werden mag, erhebt sich doch Kritik daran: Eigentum könne nur an körperlichen Sachen entstehen und auf immaterielle Güter nicht übertragen werden. Das Herrschaftsrecht über ein Geisteswerk wird deshalb vorzugsweise als Immaterialgüterrecht bezeichnet. Die Konzeption des neuen Urheberrechtsgesetzes aus dem Jahr 1966 umriss der Gesetzgeber in der Gesetzesbegründung in Abgrenzung zum bis dahin geltenden Regelungsmodell: Die geltenden Urheberrechtsgesetze zählen die Verwertungsbefugnisse des Urhebers abschließend auf, mit der Folge, daß andere als die genannten grundsätzlich dem Urheber nicht zustehen. [Das] hat im Laufe der Zeit zu Schwierigkeiten geführt, da durch die technische Entwicklung neue, vom Gesetz noch nicht berücksichtigte Verwertungsmöglichkeiten entstanden sind (z.B. die Verwertung des Werkes durch Rundfunksendung), die nur durch die Rechtsprechung in ergänzender Auslegung der Gesetze dem Urheber vorbehalten werden konnten. Um diese Schwierigkeiten für die Zukunft zu vermeiden, gestaltet der Entwurf das Urheberrecht als ein umfassendes absolutes Recht, das dem Urheber alle

Das World Wide Web als europäische Idee: seine Entstehung



97

vorhandenen und künftig etwa neu entstehenden Verwertungsmöglichkeiten seines Werkes vorbehält […]. (Bundestagsdrucksache IV/270, S. 29)

Seit der grundlegenden Reform der 1960er Jahre sieht das geltende Recht bei überwiegendem Interesse an einer erlaubnisfreien Nutzung die Beschränkung der Herrschaftsmacht des Urhebers und in der Regel eine Kompensation der Einbuße durch Vergütungsansprüche vor. Die Schrankenbestimmungen des Urheberrechts, an denen sich der Widerstreit der miteinander konkurrierenden Interessen des Urhebers und des Werknutzers entzündet, beruhen auf dieser Systematik. Wir werden in diesem Buch gelegentlich darauf zurückkommen, denn die gegensätzlichen Interessen sind im digitalen Zeitalter vielfach Ausgangspunkt für erbitterte Auseinandersetzungen um die Reichweite der urheberrechtlichen Herrschaftsmacht – in der weitgehend durch europarechtliche Vorgaben geprägten Rechtsetzung, wie wir es zuletzt im Gesetzgebungsprozess für das Urheberrechts-Wissensgesellschafts-Gesetz beobachten konnten, und der unter den Bedingungen der rasanten technologischen Entwicklung von der Rechtswirklichkeit geforderten Rechtsprechung. Die Schutzlogik des Urheberrechts wird zunehmend als Fessel aus kräftigem Tau empfunden, die die Entfaltung neuer Formen des Austausches und Zusammenwirkens im Web nicht fördert, sondern behindert.

Website, Webseite oder Homepage? Die Termini Website, Webseite und Homepage werden oft synonym verwendet. Doch sie lassen sich trennscharf unterscheiden: Als Website wird der vollständige Inhalt der Webpräsenz einer Organisation verstanden, also zum Beispiel alle Inhalte, die unter berlin.de aufrufbar sind. Eine Webseite, umgangssprachlich auch Internetseite, ist eine Seite mit einer eigenen URL, so dass eine Website aus mehreren Webseiten besteht. Der Begriff Homepage, der zu Beginn des Internets sehr populär war, bezeichnet die Startseite einer Domäne, also die Seite, die man im Browser sieht, wenn man berlin.de aufruft. Andere Begriffe dafür sind Hauptseite, Frontpage oder Startseite. Noch ein kurzes Wort zu den Hyperlinks: Link ist nicht gleich Link! Es gibt zwei Arten, die man unterscheiden können sollte: den Surface Link und den Deep Link. Ein Surface Link ist ein Link, der ganz unspezifisch auf eine Domäne führt, also zum Beispiel ein Link auf www.bundesregierung.de. Demgegenüber ist ein Deep Link ein Link, der gezielt auf einen hierarchisch untergeordneten Webinhalt einer Domäne verweist.

98  2 Das World Wide Web als eine Anwendung des Internets

Webadressen Zur Nennung einer vollständigen Webadresse gehört das Kommunikationsprotokoll. Ein Kommunikationsprotokoll enthält die Vereinbarungen, nach denen der Datenaustausch abläuft. Fügt man dem Domänennamen berlin.de das Hypertext Transfer Protocol (HTTP) hinzu, erhält man eine vollständige Webadresse, die URL: http://berlin.de. Jede URL ist weltweit eindeutig. Im Sprachgebrauch hat sich übrigens die weibliche Form „die URL“ eingebürgert, obwohl es sich, streng genommen, um den Locator handelt. Völlig korrekt, aber kaum gebräuchlich ist also „der URL“. Gibt man die URL eines Dokuments an, so nennt man seinen elektronischen Standort, über den das Dokument adressiert wird. Als Verweis auf ein Dokument in wissenschaftlichen Arbeiten oder in Bibliothekskatalogen wird daher die URL verwendet. Verändert sich aber einmal der Standort des Dokuments, gehen alle Verweise ins Leere, da die URL gewissermaßen eine Adresse ohne Bewohner geworden ist.

Persistent Identifier: ein Mittel gegen die Instabilität von Links Auf der Website der Deutschen Nationalbibliothek wurde ein großes Problem bei der Angabe von Onlinequellen auf den Punkt gebracht: Hypertexte verlieren jedoch ihre Konsistenz und die Funktionalität der Navigation, wenn die Verweise nicht stabil sind. Die Ursache ist die Bindung des Verweises an den Standort der Ressource. (Deutsche Nationalbibliothek 2008)

Theoretisch müssten bei einer Änderung der URL alle Verweise ebenfalls aktualisiert werden, um den Bibliothekskatalog und andere Nachweisinstrumente aktuell zu halten. Aufgrund der Flüchtigkeit der Webadressen wäre das allerdings eine Herkulesaufgabe und ist bei bereits erschienenen Publikationen nachträglich nicht mehr möglich. Deshalb sind dauerhafte, standortunabhängige Adressierungskonzepte nötig, bei denen aus dem digitalen Namen eines Objekts seine Adresse ermittelt werden kann. Man bezeichnet derartige Anwendungen als Persistent Identifier (PI). Die grundlegende Konzeption bei Persistent Identifiern ist die Trennung von der Identifikation eines digitalen Objekts und ihrem Standortverweis. Anstelle von URLs werden Persistent Identifier als Identifikatoren verwendet und in Katalogen und Publikationen auch entsprechend angegeben. Über einen zwischengeschalteten Mechanismus zur Übersetzung des PI in die URL, dem Resol-

Das World Wide Web als europäische Idee: seine Entstehung



99

vingserver, können die Persistent Identifier wieder in die zugehörigen URLs aufgelöst werden. Mittlerweile haben vier Persistent-Identifier-Systeme eine weite Verbreitung erfahren: das Handle-System, der Persistent Uniform Resource Locator (PURL), der Digital Object Identifier (DOI) und der Uniform Resource Name (URN). Der URN wurde wie auch die URL von der IETF standardisiert. Die URN-Syntax ist in RFC 2141 dokumentiert. Die hierarchisch gegliederte Syntax sieht schematisch so aus: URN:"Namespace":"Subnamespace(s)"-"Namespace Specific String", zum Beispiel urn: nbn:de:kobv:b103-030012.

Der Namensraum urn:nbn:de wird von der Deutschen Nationalbibliothek (DNB) verwaltet. Nbn bedeutet National Bibliography Number und stellt einen international verwalteten Namensraum der Nationalbibliotheken dar (siehe RFC 3188). Der Namensraum wird derzeit für Onlinehochschulschriften und Netzpublikationen, die in vertrauenswürdigen Quellen archiviert werden, verwendet. Für Bibliotheken innerhalb von Verbünden haben die URNs folgende Struktur: urn:nbn:de:[Verbundabkürzung]:[Sigelnummer]-[Nummer] [Prüfziffer]

Mit dem Resolvingserver der Deutschen Nationalbibliothek kann die URN in die aktuelle URL übersetzt werden. Die Einträge auf dem Resolvingserver werden von der Deutschen Nationalbibliothek und den über 370 Partnerinstitutionen aktuell gehalten (siehe die Auflistung unter http://nbn-resolving.org/ institutions). Pro URN können auch mehrere URLs angegeben werden. Folgendes Beispiel veranschaulicht die Theorie: In einer Bibliografie finden Sie die Onlinedissertation „Der Blaue Reiter und der Japonismus“ mit der Angabe urn:nbn:de:bvb:19-103990. Sie möchten gerne den Volltext der Dissertation lesen und erkennen zwar an dem Kürzel „bvb:19“, dass das Werk auf dem Repositorium der Universitätsbibliothek der Ludwig-Maximilians-Universität München archiviert wurde. Sie brauchen aber zum Entschlüsseln der URL noch den Resolvingserver der Deutschen Nationalbibliothek. Dieser gibt Ihnen die aktuellen URLs aus. Sie erfahren, dass das Werk gleich an zwei Standorten im Volltext zur Verfügung steht: 1. http://edoc.ub.uni-muenchen.de/10399/1/Oh_Myung-Seon.pdf 2. http://d-nb.info/99595917x/34

100  2 Das World Wide Web als eine Anwendung des Internets

Auch wenn sich die URL in Zukunft ändern sollte, bleibt die URN-Angabe in der Bibliografie auf lange Sicht dank des URN-Services der Deutschen Nationalbibliothek gültig.

Der Link und das Urheberrecht Sogar das Setzen eines Links, so harmlos es daherkommen mag, ist mehrfach beanstandet und einer rechtlichen Prüfung unterzogen worden. Insbesondere am Maßstab des Urheberrechts sollte die rechtliche Einordnung des Links gerichtlich geklärt werden. Im Sommer 2003 hatte der Bundesgerichtshof in seinem später als Paperboy-Entscheidung bekannten Urteil darüber zu befinden, ob die Verlinkung auf ein urheberrechtlich geschütztes Werk eine urheberrechtsrelevante Nutzung sei, die der Zustimmung des Rechteinhabers bedürfe. Geklagt hatte die Verlagsgruppe Handelsblatt. Beiträge aus den bei ihr erscheinenden Zeitungen Handelsblatt und DM waren von der Beklagten, einer Gesellschaft bürgerlichen Rechts, in deren Suchdienst für aktuelle Nachrichten aufgenommen worden. Unter www.paperboy.de verlinkte die Beklagte direkt auf die ausgewählten Beiträge. Ihr Angebot umfasste darüber hinaus den Versand bedarfsgerechter, anhand von kundenspezifischen Suchworten zusammengestellter Linklisten als „persönliche Tageszeitung“ per E-Mail. Durch die Verlinkung auf Inhalte in Unterverzeichnissen der Websites mithilfe von Deep Links entgingen die vornehmlich auf der Startseite platzierten Werbeschaltungen der Wahrnehmung durch die Informationssuchenden. Die Klägerin begehrte die Unterlassung des Informationsangebots. Der Bundesgerichtshof befand in seinem Urteil vom 17. Juli 2003, Aktenzeichen I ZR 259/00 jedoch: Die Beklagten greifen durch das Setzen von Hyperlinks auch dann nicht in Vervielfältigungsrechte ein, wenn die Datei, zu der eine Verknüpfung hergestellt wird, ein geschütztes Werk enthält. Durch einen Hyperlink wird das Werk nicht im Sinne des § 16 UrhG vervielfältigt […]. Ein Link ist lediglich eine elektronische Verknüpfung der den Link enthaltenden Datei mit einer anderen in das Internet eingestellten Datei. Erst wenn der Nutzer den Link anklickt, um diese Datei abzurufen, kann es zu einer urheberrechtlich relevanten Vervielfältigung – im Bereich des Nutzers – kommen. (Rn. 47)

Sodann fuhr er fort, ohne die technische Erläuterung der damals noch nicht für alle Leser vertrauten Verlinkung zu vernachlässigen:

Das World Wide Web als europäische Idee: seine Entstehung



101

Ein Berechtigter, der ein urheberrechtlich geschütztes Werk ohne technische Schutzmaßnahmen im Internet öffentlich zugänglich macht, ermöglicht dadurch bereits selbst die Nutzungen, die ein Abrufender vornehmen kann. Es ist seine Entscheidung, ob er das Werk trotz der Möglichkeit, daß nach Abruf auch rechtswidrige Nutzungen vorgenommen werden, weiter zum Abruf bereithält. Es wird deshalb grundsätzlich kein urheberrechtlicher Störungszustand geschaffen, wenn der Zugang zu dem Werk durch das Setzen von Hyperlinks (auch in der Form von Deep-Links) erleichtert wird […]. Die Gefahr rechtswidriger Nutzungen eines vom Berechtigten selbst im Internet öffentlich bereitgehaltenen Werkes wird durch Hyperlinks Dritter nicht qualitativ verändert, sondern nur insofern erhöht, als dadurch einer größeren Zahl von Nutzern der Zugang zum Werk eröffnet wird. Auch ohne Hyperlink kann ein Nutzer unmittelbar auf eine im Internet öffentlich zugängliche Datei zugreifen, wenn ihm deren URL (Uniform Resource Locator), die Bezeichnung ihres Fundorts im World Wide Web, genannt wird. Ein Hyperlink verbindet mit einem solchen Hinweis auf die Datei, zu der die Verknüpfung gesetzt wird, lediglich eine technische Erleichterung für ihren Abruf. Er ersetzt die sonst vorzunehmende Eingabe der URL im Adreßfeld des Webbrowsers und das Betätigen der Eingabetaste. (Rn. 51)

Wie es damals durchaus kennzeichnend für die anfängliche Bewertung des neuen Mediums unter juristischen Gesichtspunkten war, zeigte der Bundesgerichtshof schließlich eine Analogie zur gedruckten Welt auf: Wer einen Hyperlink auf eine vom Berechtigten öffentlich zugänglich gemachte Webseite mit einem urheberrechtlich geschützten Werk setzt, begeht damit keine urheberrechtliche Nutzungshandlung, sondern verweist lediglich auf das Werk in einer Weise, die Nutzern den bereits eröffneten Zugang erleichtert […]. Er hält weder das geschützte Werk selbst öffentlich zum Abruf bereit, noch übermittelt er dieses selbst auf Abruf an Dritte. Nicht er, sondern derjenige, der das Werk in das Internet gestellt hat, entscheidet darüber, ob das Werk der Öffentlichkeit zugänglich bleibt. Wird die Webseite mit dem geschützten Werk nach dem Setzen des Hyperlinks gelöscht, geht dieser ins Leere. Einem Nutzer, der die URL als genaue Bezeichnung des Fundorts der Webseite im Internet noch nicht kennt, wird der Zugang zu dem Werk durch den Hyperlink zwar erst ermöglicht und damit das Werk im Wortsinn zugänglich gemacht; dies ist aber auch bei einem Hinweis auf ein Druckwerk oder eine Webseite in der Fußnote einer Veröffentlichung nicht anders. (Rn. 56)

Knapp sieben Jahre später lag dem Bundesgerichtshof der Fall einer technischen Schutzmaßnahme vor, die den Zugriff auf das urheberrechtlich geschützte Werk beschränken sollte. Geklagt hatte eine Anbieterin elektronischer Stadtpläne, deren kurzfristige private Nutzung sie entgeltfrei, deren kommerzielle oder dauerhafte Nutzung sie hingegen lizenzgebührenpflichtig im Internet anbot. Als technische Schutzmaßnahme verwendete die Klägerin sogenannte Session-IDs, die bei Aufruf der Startseite vergeben und zeitlich befristet wurden. Die Beklagte, ein Wohnungsunternehmen, verlinkte aus ihren Wohnungsanzei-

102  2 Das World Wide Web als eine Anwendung des Internets

gen heraus auf den Kartendienst der Klägerin. Dabei umging sie die Startseite und verlinkte direkt auf den passenden Kartenausschnitt. Unter Bezugnahme auf seine Paperboy-Entscheidung entschied der Bundesgerichtshof in seinem Urteil vom 29. April 2010, Aktenzeichen I ZR 39/08: Macht ein Berechtigter ein urheberrechtlich geschütztes Werk ohne technische Schutzmaßnahmen im Internet öffentlich zugänglich, haftet der Linksetzende nicht […], weil der Berechtigte dadurch bereits selbst den Nutzern die Vervielfältigung ermöglicht und den Zugang eröffnet hat und der Linksetzende die ohnehin mögliche Vervielfältigung und den ohnehin eröffneten Zugang lediglich erleichtert […]. Bedient der Berechtigte sich dagegen technischer Schutzmaßnahmen, um den Zugang zu dem geschützten Werk beispielsweise nur bestimmten Nutzern zu eröffnen oder nur auf einem bestimmten Weg zu ermöglichen, macht er das Werk auch nur in dieser eingeschränkten Weise zugänglich. Wer einen Hyperlink setzt, der derartige Schutzmaßnahmen umgeht, eröffnet einen Zugang zum Werk, der ansonsten für diese Nutzer oder auf diesem Weg nicht bestünde. Bedient der Berechtigte sich technischer Schutzmaßnahmen, um den öffentlichen Zugang zu dem geschützten Werk nur auf dem Weg über die Startseite seiner Website zu eröffnen, greift das Setzen eines Hyperlink, der unter Umgehung dieser Schutzmaßnahmen einen unmittelbaren Zugriff auf das geschützte Werk ermöglicht, in das Recht der öffentlichen Zugänglichmachung des Werkes ein. (Rn. 27)

Dabei genüge es, so der Bundesgerichtshof, dass die Schutzmaßnahmen den Willen des Berechtigten erkennbar machen, den öffentlichen Zugang zu dem geschützten Werk nur mit den von ihm vorgesehenen Einschränkungen zu ermöglichen. (Rn. 30)

Mit der Verwendung von Session-IDs sei dieses Erfordernis erfüllt. Im Februar 2014 entschied der Europäische Gerichtshof in einem zur Paperboy-Entscheidung des Bundesgerichtshofs ähnlich gelagerten, schwedischen Rechtsstreit. In Konflikt geraten waren vier Journalisten auf der einen und ein Unternehmen auf der anderen Seite über die Verlinkung aus einer Linksammlung des Unternehmens heraus auf die von den Klägern verfassten, im Internet frei zugänglichen Presseartikel. Die klagenden Journalisten beanstandeten, dass mit der Verlinkung für die am urheberrechtlich geschützten Werk interessierten Kunden des Unternehmens nicht erkennbar sei, dass sie auf unternehmensfremde Inhalte geleitet würden. Sie machten geltend, das Recht der öffentlichen Wiedergabe im Internet sei ihnen als Urheberrechtsinhaber vorbehalten. Eine öffentliche Zugänglichmachung durch Dritte bedürfe daher ihrer Zustimmung. Das Gericht ging zur Klärung der unionsrechtlichen Anforderungen der Frage nach, wann eine öffentliche Wiedergabe im Internet vorliegt. Aus seiner ständigen Rechtsprechung leitete der Europäische Gerichtshof in seinem Svens-

Das World Wide Web als europäische Idee: seine Entstehung



103

son-Urteil vom 13. Februar 2014, Rechtssache C-466/12 das Erfordernis des „neuen Publikums“ ab. Eine öffentliche Wiedergabe im Internet läge danach vor, […], wenn sie sich an ein neues Publikum richtet, d.h. an ein Publikum, das die Inhaber des Urheberrechts nicht hatten erfassen wollen, als sie die ursprüngliche öffentliche Wiedergabe erlaubten. (Rn. 24)

Er fuhr in Sätzen, die mitunter einer mehrfachen Lektüre bedürfen, fort: Im vorliegenden Fall führt der Umstand, dass die betreffenden Werke über einen anklickbaren Link der […] verwendeten Art zugänglich gemacht werden, nicht zu einer Wiedergabe der fraglichen Werke für ein neues Publikum. (Rn. 25) Das Zielpublikum der ursprünglichen Wiedergabe waren nämlich alle potenziellen Besucher der betreffenden Seite; da feststeht, dass der Zugang zu den Werken auf dieser Seite keiner beschränkenden Maßnahme unterlag, war sie demnach für sämtliche Internetnutzer frei zugänglich. (Rn. 26) Da die betreffenden Werke auf der Seite, auf der sie ursprünglich wiedergegeben wurden, sämtlichen Nutzern einer anderen Seite, für die eine Wiedergabe dieser Werke über einen anklickbaren Link erfolgte, ohne Zutun des Betreibers dieser anderen Seite unmittelbar zugänglich waren, sind die Nutzer dieser von ihm betriebenen Seite demnach als potenzielle Adressaten der ursprünglichen Wiedergabe und daher als Mitglieder der Öffentlichkeit anzusehen, die die Inhaber des Urheberrechts hatten erfassen wollen, als sie die ursprüngliche Wiedergabe erlaubten. (Rn. 27) Mangels neuen Publikums ist deshalb […] keine Erlaubnis der Urheberrechtsinhaber erforderlich. (Rn. 28)

Mit seiner Entscheidung erteilte der Europäische Gerichtshof der Vorstellung, im Internet gäbe es grundsätzlich unterscheidbare Öffentlichkeiten, denen frei zugängliche Inhalte durch Verlinkung wieder und wieder eröffnet würden, eine Absage. Vielmehr erkannte er für verlinkte Inhalte, die keiner Zugriffsbeschränkung unterliegen, das Publikum im Internet als Ganzes an. Die Verlinkung auf urheberrechtlich geschützte Inhalte ist nach der Rechtsprechung des Gerichtshofs folglich auch ohne Einwilligung des Rechteinhabers rechtmäßig. Nach dieser Rechtsauffassung, die der Europäische Gerichtshof mit dem Bundesgerichtshof teilt, liegen in der Verlinkung auf Inhalte ohne Zugriffsbeschränkung weder eine zustimmungsbedürftige Vervielfältigung noch eine zustimmungsbedürftige öffentliche Zugänglichmachung. Zu einem anderen Ergebnis kam der Europäische Gerichtshof in seinem Córdoba-Urteil vom 07. August 2018, Rechtssache C-161/17: Das Erfordernis der an ein neues Publikum gerichteten, öffentlichen Wiedergabe sah er darin für den

104  2 Das World Wide Web als eine Anwendung des Internets

Fall als erfüllt an, dass eine urheberrechtlich geschützte Fotografie der spanischen Stadt Córdoba, die zuvor mit Zustimmung des Fotografen, mithin des Rechteinhabers, und ohne Zugriffsbeschränkung in einem Reiseportal veröffentlicht worden war, später auf der Website einer Schule hochgeladen und öffentlich zugänglich gemacht wurde, ohne dass eine entsprechende Zustimmung des Rechteinhabers vorlag. In Abgrenzung zu seinem Svensson-Urteil, das wir uns soeben angeschaut haben, begründete der Europäische Gerichtshof seine für den Córdoba-Fall abweichende Beurteilung wie folgt: [...] Bei einer Handlung der Wiedergabe in der Gestalt der Einfügung eines Hyperlinks auf einer Website, der auf ein zuvor mit der Zustimmung des Urheberrechtsinhabers wiedergegebenes Werk verweist, [kann] der Urheber sein Werk, wenn er es auf der betreffenden Website nicht mehr wiedergeben möchte, von der Website entfernen [...], auf der er es ursprünglich wiedergegeben hat, wodurch jeder Hyperlink, der auf es verweist, hinfällig wird. Unter Umständen wie denen des Ausgangsverfahrens hingegen führt die Einstellung eines Werkes auf eine andere Website zu einer neuen, von der ursprünglich genehmigten Wiedergabe unabhängigen Wiedergabe. Infolge dieses Einstellens könnte das betreffende Werk auf der letztgenannten Website weiterhin zugänglich sein, unabhängig von der vorherigen Zustimmung des Urhebers und unbeschadet jeder Handlung, mit der der Rechteinhaber beschlösse, sein Werk auf der Website, auf der es ursprünglich mit seiner Genehmigung wiedergegeben worden ist, nicht mehr wiederzugeben. (Rn. 44)

Für den Fall des eingeschränkten Zugriffs, obgleich dieser im Ausgangsverfahren nicht zur Entscheidung anlag, ergänzte das Gericht in seinem Svensson-Urteil mit wiederum verschachtelten Sätzen und im Gleichklang mit dem Bundesgerichtshof: Demgegenüber sind in dem Fall, in dem ein anklickbarer Link es den Nutzern der Seite, auf der sich der Link befindet, ermöglicht, beschränkende Maßnahmen zu umgehen, die auf der Seite, auf der das geschützte Werk zu finden ist, getroffen wurden, um den Zugang der Öffentlichkeit allein auf ihre Abonnenten zu beschränken, und es sich damit um einen Eingriff handelt, ohne den die betreffenden Nutzer auf die verbreiteten Werke nicht zugreifen könnten, alle diese Nutzer als neues Publikum anzusehen, das die Inhaber des Urheberrechts nicht hatten erfassen wollen, als sie die ursprüngliche Wiedergabe erlaubten, so dass für eine solche öffentliche Wiedergabe die Erlaubnis der Urheberrechtsinhaber erforderlich ist. Dies ist insbesondere dann der Fall, wenn das Werk auf der Seite, auf der die ursprüngliche Wiedergabe erfolgte, nicht mehr öffentlich zugänglich ist oder wenn es nunmehr auf dieser Seite nur einem begrenzten Publikum zugänglich ist, während es auf einer anderen Internetseite ohne Erlaubnis der Urheberrechtsinhaber zugänglich ist. (Rn. 31)

In seiner Playboy-Entscheidung vom 08. September 2016, Rechtssache C-160/15 fügte der Europäische Gerichtshof seiner bisherigen Rechtsprechung eine weitere Differenzierung hinzu: Der Rechtsstreit drehte sich um Aktfotos einer nieder-

Das World Wide Web als europäische Idee: seine Entstehung 

105

ländischen Moderatorin, deren Veröffentlichung der Fotograf exklusiv dem Magazin Playboy vorbehalten hatte. Im Oktober 2011 erhielt die Redaktion des niederländischen Nachrichtenanbieters GeenStijl, dessen Betreiberin das Unternehmen GS Media war, noch vor der Veröffentlichung der Fotos eine E-Mail mit einem Link zu einer elektronischen Datei auf der australischen Website Filefactory.com. Die dort hinterlegte und für die Redaktion über den Link zugängliche Datei enthielt die für das Magazin aufgenommenen Fotos. GeenStijl veröffentlichte am Folgetag einen Artikel über die Fotos, die vom Beitrag aus über eine zweistufige Verlinkung – zunächst auf die Website Filefactory.com und von dort über einen zweiten Link auf die Fotodatei – allen Lesern zur Ansicht und zum Download zur Verfügung standen. Der Streit um die Rechtswidrigkeit der Verlinkung auf die Fotos führte bis vor den obersten Gerichtshof der Niederlande. Dieser setzte das Verfahren aus und legte dem Europäischen Gerichtshof im Vorabentscheidungsverfahren die folgenden Vorlagefragen vor: Mit seinen drei Fragen, die zusammen zu prüfen sind, möchte das vorlegende Gericht wissen, ob und unter welchen etwaigen Bedingungen das Setzen eines Hyperlinks auf eine Website zu geschützten Werken, die auf einer anderen Website ohne Erlaubnis des Urheberrechtsinhabers frei zugänglich sind, eine „öffentliche Wiedergabe“ im Sinne von Artikel 3 Abs. 1 der Richtlinie 2001/29 darstellt. (Rn. 25) Das vorlegende Gericht möchte insoweit insbesondere wissen, ob es erheblich ist, dass die in Rede stehenden Werke noch nicht in anderer Weise mit Erlaubnis dieses Rechtsinhabers veröffentlicht worden sind, dass die Bereitstellung dieser Hyperlinks das Auffinden dieser Werke in hohem Maß erleichtert, da die Website, auf der sie für das gesamte Internetpublikum zugänglich sind, nicht leicht auffindbar ist, und dass demjenigen, der diese Links setzt, diese Tatsachen sowie der Umstand, dass der Rechtsinhaber die Veröffentlichung der Werke auf dieser Website nicht erlaubt hatte, bekannt war oder hätte bekannt sein müssen. (Rn. 26)

Der Gerichtshof rekapitulierte seine bisherige Rechtsprechung und betonte für den vorliegenden Fall noch einmal das mit der Harmonisierung des Rechts verfolgte Ziel eines angemessenen Ausgleich[s] zwischen dem Interesse der Inhaber von Urheberrechten und verwandten Schutzrechten am Schutz ihres durch Art. 17 Abs. 2 der Charta der Grundrechte der Europäischen Union […] garantierten Rechts am geistigen Eigentum einerseits und dem Schutz der Interessen und Grundrechte der Nutzer von Schutzgegenständen, insbesondere ihrer durch Art. 11 der Charta garantierten Freiheit der Meinungsäußerung und Informationsfreiheit, sowie dem Gemeinwohl andererseits. (Rn. 31) Insoweit ist festzustellen, dass das Internet für die durch Art. 11 der Charta gewährleistete Freiheit der Meinungsäußerung und Informationsfreiheit tatsächlich von besonderer Bedeutung ist und dass Hyperlinks zu seinem guten Funktionieren und zum Meinungs- und

106  2 Das World Wide Web als eine Anwendung des Internets

Informationsaustausch in diesem Netz beitragen, das sich durch die Verfügbarkeit immenser Informationsmengen auszeichnet. (Rn. 45)

Im Folgenden nahm der Gerichtshof eine Unterscheidung nach der Gewinnerzielungsabsicht des Linksetzenden und danach, ob er von der rechtswidrigen Veröffentlichung auf der verlinkten Website Kenntnis hatte oder hätte haben müssen, vor: Zum Zweck der individuellen Beurteilung des Vorliegens einer „öffentlichen Wiedergabe“ muss daher, wenn das Setzen eines Hyperlinks zu einem auf einer anderen Website frei zugänglichen Werk von jemandem vorgenommen wird, der dabei keine Gewinnerzielungsabsicht verfolgt, berücksichtigt werden, dass der Betreffende nicht weiß und vernünftigerweise nicht wissen kann, dass dieses Werk im Internet ohne Erlaubnis des Urheberrechtsinhabers veröffentlicht wurde. (Rn. 47) Wenn auch in einem solchen Fall der Betreffende das Werk der Öffentlichkeit dadurch verfügbar macht, dass er anderen Internetnutzern direkten Zugang zu ihm bietet […], handelt er doch im Allgemeinen nicht in voller Kenntnis der Folgen seines Tuns, um Kunden Zugang zu einem rechtswidrig im Internet veröffentlichten Werk zu verschaffen. Überdies konnte, wenn das fragliche Werk bereits ohne Zugangsbeschränkung im Internet auf der Website verfügbar war, zu der der Hyperlink Zugang gibt, grundsätzlich das gesamte Internetpublikum darauf bereits auch ohne diese Handlung zugreifen. (Rn. 48) Ist dagegen erwiesen, dass der Betreffende wusste oder hätte wissen müssen, dass der von ihm gesetzte Hyperlink Zugang zu einem unbefugt im Internet veröffentlichten Werk verschafft – weil er beispielsweise von dem Urheberrechtsinhaber darauf hingewiesen wurde –, so ist die Bereitstellung dieses Links als eine „öffentliche Wiedergabe“ im Sinne von Art. 3 Abs. 1 der Richtlinie 2001/29 zu betrachten. (Rn. 49) Ebenso verhält es sich, wenn es der Link den Nutzern der ihn offerierenden Website ermöglicht, beschränkende Maßnahmen zu umgehen, die auf der das geschützte Werk enthaltenden Website getroffen wurden, um den Zugang der Öffentlichkeit allein auf ihre Abonnenten zu beschränken, da es sich bei der Platzierung eines solchen Links dann um einen bewussten Eingriff handelt, ohne den die Nutzer auf die verbreiteten Werke nicht zugreifen könnten […]. (Rn. 50) Im Übrigen kann, wenn Hyperlinks mit Gewinnerzielungsabsicht gesetzt werden, von demjenigen, der sie gesetzt hat, erwartet werden, dass er die erforderlichen Nachprüfungen vornimmt, um sich zu vergewissern, dass das betroffene Werk auf der Website, zu der die Hyperlinks führen, nicht unbefugt veröffentlicht wurde, so dass zu vermuten ist, dass ein solches Setzen von Hyperlinks in voller Kenntnis der Geschütztheit des Werks und der etwaig fehlenden Erlaubnis der Urheberrechtsinhaber zu seiner Veröffentlichung im Internet vorgenommen wurde. Unter solchen Umständen stellt daher, sofern diese widerlegliche Vermutung nicht entkräftet wird, die Handlung, die im Setzen eines Hyperlinks zu einem unbefugt im Internet veröffentlichten Werk besteht, eine „öffentliche Wiedergabe“ im Sinne von Art. 3 Abs. 1 der Richtlinie 2001/29 dar. (Rn. 51)

Das World Wide Web als europäische Idee: seine Entstehung



107

Jedoch wird mangels eines neuen Publikums keine „öffentliche“ Wiedergabe im Sinne dieser Vorschrift in dem […] Fall vorliegen, in dem die Werke, zu denen die Hyperlinks Zugang geben, auf einer anderen Website mit Erlaubnis des Rechtsinhabers frei zugänglich sind. (Rn. 52) Eine solche Auslegung von Art. 3 Abs. 1 der Richtlinie 2001/29 stellt das mit der Richtlinie bezweckte erhöhte Schutzniveau der Urheber sicher. Nach dieser Auslegung und in den durch Art. 5 Abs. 3 dieser Richtlinie festgelegten Grenzen können Urheberrechtsinhaber nämlich nicht nur gegen die ursprüngliche Veröffentlichung ihres Werks auf einer Website vorgehen, sondern auch gegen jede Person, die zu Erwerbszwecken einen Hyperlink zu einem unbefugt auf dieser Website veröffentlichten Werk setzt, sowie ebenso gegen Personen, die unter den in den Rn. 49 und 50 des vorliegenden Urteils dargelegten Voraussetzungen solche Links ohne Erwerbszwecke gesetzt haben. Insoweit ist nämlich zu beachten, dass diese Rechtsinhaber unter allen Umständen die Möglichkeit haben, solche Personen über die Rechtswidrigkeit der Veröffentlichung ihrer Werke im Internet zu informieren und gegen diese vorzugehen, falls sie sich weigern, diesen Link zu entfernen […]. (Rn. 53)

Der Gerichtshof schloss mit folgender Zusammenfassung: Nach alledem ist auf die Vorlagefragen zu antworten, […] dass zur Klärung der Frage, ob das Setzen von Hyperlinks auf eine Website zu geschützten Werken, die auf einer anderen Website ohne Erlaubnis des Urheberrechtsinhabers frei zugänglich sind, eine „öffentliche Wiedergabe“ im Sinne dieser Bestimmung darstellt, zu ermitteln ist, ob die Links ohne Gewinnerzielungsabsicht durch jemanden, der die Rechtswidrigkeit der Veröffentlichung der Werke auf der anderen Website nicht kannte oder vernünftigerweise nicht kennen konnte, bereitgestellt wurden oder ob die Links vielmehr mit Gewinnerzielungsabsicht bereitgestellt wurden, wobei im letzteren Fall diese Kenntnis zu vermuten ist. (Rn. 55)

Mit dieser Rechtsprechung hat der Europäische Gerichtshof eine urheberrechtliche Relevanz von Verlinkungen betont. Ob seine Unterscheidungskriterien in der weiteren (Gerichts-)Praxis für Rechtssicherheit sorgen werden, lässt sich jedoch in Zweifel ziehen. Die Paperboy-Entscheidung des Bundesgerichtshofs muss jedenfalls mit der neuen Rechtsprechung des Europäischen Gerichtshofs als überholt angesehen werden.

Die Haftung für Verlinkungen Mit der Verwendung von Links stellen sich weitere spannende Rechtsfragen, von denen die folgende Erwähnung finden soll: Viele Jahre nach der PaperboyEntscheidung hatte der Bundesgerichtshof Gelegenheit, sich mit der Haftung für Verlinkungen noch einmal näher zu beschäftigen.

108  2 Das World Wide Web als eine Anwendung des Internets

Der Tatbestand war der folgende: Der Beklagte, ein Facharzt für Orthopädie, bewarb auf seiner Webseite eine spezielle Akupunkturbehandlung. Für weitere Informationen zum Anwendungsgebiet und zur Wirkung dieser Behandlung verlinkte er auf die Startseite vom Internetauftritt des Forschungsverbands Implantat-Akupunktur e.V. Der Kläger, der Verband Sozialer Wettbewerb e.V., mahnte den Beklagten für die Verlinkung mit der Begründung ab, die Aussagen auf den Unterseiten des Forschungsverbandes seien irreführend. Der Beklagte entfernte daraufhin die Verlinkung. Der Bundesgerichtshof befand in seinem Urteil vom 18. Juni 2015, Aktenzeichen I ZR 74/14 dazu: Wer sich die fremden Informationen zu Eigen macht, auf die er mit Hilfe eines Hyperlinks verweist, haftet dafür wie für eigene Informationen […]. Maßgeblich für die Frage, ob sich der Unternehmer mit seinem eigenen Internetauftritt verlinkte Inhalte zu Eigen macht, ist die objektive Sicht eines verständigen Durchschnittsnutzers auf der Grundlage einer Gesamtbetrachtung aller Umstände […]. (Rn. 13) Darüber hinaus kann derjenige, der seinen Internetauftritt durch einen elektronischen Verweis mit wettbewerbswidrigen Inhalten auf den Internetseiten eines Dritten verknüpft, im Fall der Verletzung absoluter Rechte […] in Anspruch genommen werden, wenn er zumutbare Prüfungspflichten verletzt hat. (Rn. 14) Danach begründet auch eine als geschäftliche Handlung zu qualifizierende Linksetzung als solche noch keine Haftung für die verlinkten Inhalte […]. (Rn. 15) Allerdings kann sich eine Rechtspflicht zur Prüfung und zur Abwendung einer Rechtsverletzung nach ständiger Rechtsprechung des Senats auch aus dem Gesichtspunkt eines gefahrerhöhenden Verhaltens ergeben, insbesondere aus der Verletzung von Verkehrspflichten […]. Ein solches gefahrerhöhendes Verhalten kann sich grundsätzlich auch aus dem Setzen eines Hyperlinks auf die Internetseite eines Dritten ergeben […]. Der Hyperlink erhöht die Gefahr der Verbreitung etwaiger rechtswidriger Inhalte, die sich auf den Internetseiten Dritter befinden. Aus dieser Gefahrerhöhung für eine Verletzung durch das Wettbewerbsrecht geschützter Interessen von Marktteilnehmern folgt die Verpflichtung desjenigen, der den Link setzt, diese Gefahr im Rahmen des Möglichen und Zumutbaren zu begrenzen. Wie bei einem Telediensteanbieter […] konkretisiert sich auch für den geschäftlich einen Hyperlink setzenden Unternehmer die wettbewerbsrechtliche Verkehrspflicht hinsichtlich rechtsverletzender fremder Inhalte als Prüfungspflicht. Deren Bestehen und Umfang richtet sich im Einzelfall nach einer Abwägung aller betroffenen Interessen und relevanten rechtlichen Wertungen. Dabei kommt es entscheidend darauf an, ob und inwieweit dem in Anspruch Genommenen nach den Umständen eine Prüfung zuzumuten ist. Damit wird einer unangemessenen Ausdehnung der Haftung für Rechtsverstöße Dritter entgegengewirkt. (Rn. 23) Sofern ein rechtsverletzender Inhalt der verlinkten Internetseite nicht deutlich erkennbar ist, haftet derjenige, der den Link setzt, für solche Inhalte grundsätzlich erst, wenn er von der Rechtswidrigkeit der Inhalte selbst oder durch Dritte Kenntnis erlangt. (Rn. 25)

Das World Wide Web als europäische Idee: seine Entstehung 

109

Eine Haftung des Unternehmers im konkreten Fall schied deshalb aus. Noch etwas anders gelagert war ein Fall, der dem Bundesgerichtshof im Jahre 2010 zur Entscheidung vorlag und in dem sogar die Deutsche Nationalbibliothek, damals noch unter ihrem Namen Die Deutsche Bibliothek, eine Nebenrolle spielte. Darin ging es um die Frage nach der Haftung eines Presseunternehmens wegen einer Verlinkung im Rahmen seiner Onlineberichterstattung. Die Klägerinnen, Inhaberinnen von Bild- und Tonträgerrechten an MusikCDs und -DVDs, wandten sich mit ihrer Klage gegen den Heise Zeitschriften Verlag. Hintergrund war ein in dem Nachrichtenportal des Verlages „heise online“ im Januar 2005 erschienener Beitrag über den damals in Antigua und Barbuda ansässigen Hersteller Slysoft, welcher neue Programmversionen zur Umgehung von auf DVDs und Audio-CDs vorgesehenen Kopierschutzeinrichtungen herausgebracht hatte. In dem Beitrag, der auf das Verbot der Nutzung in Deutschland hinwies, wurde die Internetpräsenz des Herstellers angegeben; über den genannten Link wurden die als deutschsprachig erkannten Nutzer zum deutschsprachigen Internetauftritt von Slysoft weitergeleitet. Die Klägerinnen forderten den Beklagten zur Unterlassung des auf die Webseiten von Slysoft führenden Links auf und verwiesen auf die Rechtswidrigkeit der Software. Der Verlag kam dieser Aufforderung jedoch nicht nach und informierte die Öffentlichkeit über den Vorgang im eigenen Nachrichtenportal. Im Februar berichtete der Verlag in einem weiteren Beitrag, in dem er die Software als Programme zur Umgehung technischer Schutzmaßnahmen bezeichnete, über eine Kuriosität, die sich am Rand des Rechtsstreites ereignet hatte: Kurz nach Abschluss einer vertraglichen Vereinbarung zwischen dem Börsenverein des Deutschen Buchhandels und dem Bundesverband der Phonographischen Wirtschaft mit Der Deutschen Bibliothek, der zufolge die Bibliothek Vervielfältigungen von technisch kopiergeschützten Werke auch unter Umgehung technischer Schutzmaßnahmen für die eigene Archivierung, den wissenschaftlichen Gebrauch von Nutzern, für Sammlungen für den Schul- oder Unterrichtsgebrauch, für Unterricht und Forschung sowie von vergriffenen Werken anfertigen können sollte, bot eben dieses umstrittene Unternehmen SlySoft der Bibliothek unentgeltlich Lizenzen der von ihm hergestellten Programme zur Umgehung der technischen Schutzmaßnahmen an. Doch zurück zum Rechtsstreit: Das Landgericht verurteilte den Heise Zeitschriften Verlag wie beantragt. Die Berufung des Beklagten blieb ohne Erfolg. Die Revision hingegen ging zugunsten der Beklagten aus. Die Entscheidung des Berufungsgerichts hielt einer rechtlichen Nachprüfung durch den Bundesgerichtshof nicht Stand, da sie dem Gewährleistungsgehalt der Meinungs- und Pressefreiheit nicht im gebotenen Maße Rechnung trug. Der Bundesgerichtshof

110  2 Das World Wide Web als eine Anwendung des Internets

gab in seinem Urteil vom 14. Oktober 2010, Aktenzeichen I ZR 191/08 zu bedenken: Der Schutz der Pressefreiheit umfasst ebenso wie der Schutz der Meinungsfreiheit das Recht, den Gegenstand einer Berichterstattung frei zu wählen. Inhalt und Qualität der vermittelten Information oder Meinung sind für die Anwendung von Art. 11 EU-Grundrechtecharta ohne Belang […]. Es ist daher insbesondere nicht Aufgabe der Gerichte zu entscheiden, ob ein bestimmtes Thema überhaupt berichtenswert ist oder nicht […]. Der Grundrechtsschutz umfasst die Meinungs- und Pressefreiheit in sämtlichen Aspekten. Er erstreckt sich nicht nur auf den Inhalt, sondern auch auf die Form der Meinungsäußerung oder Berichterstattung […]; zum Recht auf freie Presseberichterstattung gehört gleichfalls neben der inhaltlichen die formale Gestaltungsfreiheit […]. (Rn. 21) Der beanstandete Link in den Beiträgen des Beklagten auf die Internetseite von SlySoft gehört in diesem Sinne zum nach Art. 11 EU-Grundrechtecharta, Art. 5 Abs. 1 Satz 1 und 2 GG geschützten Bereich der freien Berichterstattung. Er beschränkt sich nicht, wie das Berufungsgericht angenommen hat, auf eine bloß technische Erleichterung für den Aufruf der betreffenden Internetseite. Wie auch das Berufungsgericht im Ansatz nicht verkannt hat, erschließt ein Link vergleichbar einer Fußnote zusätzliche Informationsquellen […]. Indem das Berufungsgericht diesen informationsverschaffenden Charakter des Links auf der einen Seite und seine in der Erleichterung des Aufrufs der verlinkten Internetseite bestehende technische Funktion auf der anderen Seite als zwei gesondert zu würdigende Aspekte betrachtet, berücksichtigt es nicht hinreichend, welche Bedeutung den vom Beklagten gesetzten Links auf fremde Internetseiten nach dem Gesamteindruck der beanstandeten Beiträge […] für das Recht auf freie Berichterstattung zukommt. (Rn. 22)

Der Bundesgerichtshof führte aus, dass die verwendeten Links als Beleg für einzelne Angaben oder aber weiterführende Informationen die Beiträge ergänzten und sich nicht darauf reduzieren ließen, den erleichterten Aufruf der verlinkten Seiten zu ermöglichen. Er setzte fort: Der vom Berufungsgericht angeführte Umstand, dass die durch die Linksetzung zugänglich gemachten Informationen auch im Wege der (ausdrücklichen) Berichterstattung vermittelt werden könnten, also auch durch unmittelbare Wiedergabe in dem entsprechenden Beitrag, steht dem nicht entgegen, da – wie dargelegt – zum einen der Schutz der Meinungs- und Pressefreiheit auch die äußere Form der Berichterstattung umfasst und es zum anderen wegen des Selbstbestimmungsrechts des jeweiligen Grundrechtsträgers diesem überlassen bleiben muss, welche Form der Gestaltung er für seine Berichterstattung wählt. Auch die Entscheidung darüber, ob weitere Angaben über ein Unternehmen und die Produkte (hier: SlySoft), über seine in einem grundsätzlich in den Schutzbereich der Meinungs- und Pressefreiheit fallenden Beitrag berichtet wird, ausdrücklich in den Beitrag aufgenommen oder mit Hilfe eines Links auf die Internetseite dieses Unternehmens zugänglich gemacht werden, genießt folglich den Grundrechtsschutz. (Rn. 24)

Das World Wide Web als europäische Idee: seine Entstehung



111

Schließlich äußerte sich der Bundesgerichtshof noch zu dem Umstand, dass der Beklagte Kenntnis von der Rechtswidrigkeit des Angebots hatte: Der Schutz der Meinungs- und Pressefreiheit umfasst auch Informationen, die Dritte beleidigen, aus der Fassung bringen oder sonst stören können […]. Grundsätzlich darf daher auch über Äußerungen, durch die in rechtswidriger Weise Persönlichkeitsrechte Dritter beeinträchtigt worden sind, trotz der in der Weiterverbreitung liegenden Perpetuierung oder sogar Vertiefung des Ersteingriffs berichtet werden, wenn ein überwiegendes Informationsinteresse besteht und der Verbreiter sich die berichtete Äußerung nicht zu eigen macht […]. Ein solches überwiegendes Informationsinteresse kann auch gegeben sein, wenn die Berichterstattung eine unzweifelhaft rechtswidrige Äußerung zum Gegenstand hat […], also gegebenenfalls selbst dann, wenn dem Verbreiter die Rechtswidrigkeit des Vorgangs bekannt ist, über den er berichtet. (Rn. 26)

Dieses Ergebnis würde auch dadurch bestätigt, dass der Beklagte in seinen Beiträgen auf die Rechtswidrigkeit ausdrücklich hingewiesen habe (siehe Rn. 28).

Alles im Rahmen? – Das Framing und das Urheberrecht Ähnlich umstritten wie beim Verlinken war anfänglich die urheberrechtliche Würdigung des Framings. Beim Framing werden Inhalte einer fremden Webseite in die eigene Webseite eingebunden, ohne dass eine urheberrechtlich relevante Vervielfältigung erfolgt. Das Framing erleichtert vielmehr wie das Linking auch den Zugriff Dritter auf ein Werk, das bereits an anderer Stelle im Web öffentlich zugänglich gemacht worden ist. Der Europäische Gerichtshof musste im Herbst 2014 nach Vorlage durch den Bundesgerichtshof darüber entscheiden, ob das Framing eines Videos, das auf der Videoplattform YouTube verfügbar war, eine öffentliche Wiedergabe im urheberrechtlichen Sinne darstellt. Bereits im Februar 2014 hatte der Europäische Gerichtshof in seiner Entscheidung im Vorabentscheidungsverfahren C-466/12, das wir uns zu den rechtlichen Aspekten des Verlinkens angeschaut haben, in seinen konsequent am Anknüpfungspunkt des neuen Publikums ausgerichteten, über die Entscheidungserheblichkeit im konkreten Fall hinausgehenden Ausführungen festgehalten, dass seine rechtliche Beurteilung auch dadurch keine Veränderung erfahren würde […], dass das Werk bei Anklicken des betreffenden Links durch die Internetnutzer in einer Art und Weise erscheint, die den Eindruck vermittelt, dass es auf der Seite erscheint, auf der sich dieser Link befindet, obwohl es in Wirklichkeit einer anderen Seite entstammt. (Rn. 29)

112  2 Das World Wide Web als eine Anwendung des Internets

Dieser weitere Umstand ändert nämlich nichts an der Schlussfolgerung, dass die auf einer Seite erfolgte Bereitstellung eines anklickbaren Links zu einem geschützten Werk, das auf einer anderen Seite veröffentlicht und frei zugänglich ist, bewirkt, dass dieses Werk den Nutzern der erstgenannten Seite zugänglich gemacht wird und deshalb eine öffentliche Wiedergabe darstellt. Da es jedoch kein neues Publikum gibt, ist jedenfalls für eine solche öffentliche Wiedergabe keine Erlaubnis der Urheberrechtsinhaber erforderlich. (Rn. 30)

Das Gericht kam in der für die Social-Media-Nutzung durchaus zentralen Vorlagesache des Bundesgerichtshofs einige Monate später deshalb wenig überraschend zu dem Schluss, dass eine öffentliche Wiedergabe nur dann vorliegt, wenn bei Verwendung desselben technischen Verfahrens, wie es für die ursprüngliche Wiedergabe auf der Ausgangswebseite gewählt worden war, die Handlung gegenüber einem neuen Publikum vorgenommen worden ist. Davon kann jedoch nicht ausgegangen werden, wenn das Werk bereits auf der Ausgangswebseite mit Zustimmung des Urheberrechtsinhabers für die Internetnutzung frei zugänglich gemacht worden war. Der Europäische Gerichtshof führte in seinem sogenannten BestWater-International-Beschluss vom 21. Oktober 2014, Rechtssache C-348/13 aus […], dass diese Feststellung nicht durch den Umstand in Frage gestellt wird, dass das Werk bei Anklicken des betreffenden Links durch die Internetnutzer in einer Art und Weise erscheint, die den Eindruck vermittelt, dass es von der Website aus gezeigt wird, auf der sich dieser Link befindet, obwohl es in Wirklichkeit einer anderen Website entstammt. Dieser Umstand ist im Wesentlichen das Charakteristikum der Framing-Technik, die im Ausgangsverfahren streitig ist und darin besteht, dass eine Internetseite eines Webauftritts in mehrere Rahmen unterteilt wird und in einem dieser Rahmen mittels eines „eingebetteten“ Internetlinks (Inline Linking) ein einer anderen Website entstammender Bestandteil angezeigt wird, damit den Nutzern dieses Webauftritts die ursprüngliche Umgebung dieses Bestandteils verborgen bleibt. (Rn. 17) Zwar kann diese Technik, wie das vorlegende Gericht feststellt, verwendet werden, um ein Werk der Öffentlichkeit zugänglich zu machen, ohne es kopieren zu müssen und damit dem Anwendungsbereich der Vorschriften über das Vervielfältigungsrecht zu unterfallen. Unbeschadet dessen führt aber ihre Verwendung nicht dazu, dass das betreffende Werk für ein neues Publikum wiedergegeben wird. Denn sofern und soweit dieses Werk auf der Website, auf die der Internetlink verweist, frei zugänglich ist, ist davon auszugehen, dass die Inhaber des Urheberrechts, als sie diese Wiedergabe erlaubt haben, an alle Internetnutzer als Publikum gedacht haben. (Rn. 18)

Mit dem Beschluss des Europäischen Gerichtshofs und dem ihm folgenden Urteil des Bundesgerichtshofs vom 09. Juli 2015, Aktenzeichen I ZR 46/12 wurde die urheberrechtliche Rechtsprechung zur Verlinkung und zum Framing in Übereinstimmung gebracht.

Das World Wide Web als europäische Idee: seine Entstehung



113

Einige Begriffserläuterungen zum Web: Deep Web und Dark Web Der Teil des World Wide Webs, der im Index von allgemeinen Suchmaschinen enthalten ist, wird Visible Net oder Surface Net genannt. Der verborgen gebliebene Teil wird als Deep Web (oder auch Invisible Net, gelegentlich auch Opaque Web) bezeichnet. Viele Internetforscher gehen davon aus, dass das Deep Web weitaus mehr Daten als das Visible Net enthält. Für Bibliotheken stellt das Deep Web in gewisser Weise auch ein Problem dar. Die Inhalte der von ihnen angebotenen Kataloge und Datenbanken können nicht von den allgemeinen Suchmaschinen angezeigt werden, so dass neue Lösungen gefunden werden mussten, um die Angebote der Bibliotheken komfortabel und effizient im Internet auffindbar zu machen. Darüber können Sie im Unterkapitel „Vom Bibliothekskatalog zum Discovery Dienst“ in Kapitel 3 mehr erfahren. Der „dunkle“ Teil des Deep Webs, der ohne besondere Anonymisierungssoftware nicht zu erreichen ist, wird als Dark Web bezeichnet. Im Dark Web werden gestohlene Kreditkartendaten ebenso gehandelt wie Waffen, Drogen, Tools zum Entschlüsseln von Passwörtern oder Raubkopien. Es hilft aber auch Dissidenten und Whistleblowern, unentdeckt über das Internet zu kommunizieren. Das Dark Web ist ein Dienst des Darknets. Das Darknet besteht aus Rechnern, deren Verbindungsdaten verschlüsselt und anonymisiert werden. Dazu wird in der Regel das sogenannte Tor-System verwendet, das im Auftrag des United States Naval Research Laboratory und der DARPA konzipiert worden ist. Mit der Tor-Software, die 2002 von Paul Syverson, Roger Dingledine und Nick Mathewson entwickelt und 2004 unter eine freie Lizenz gestellt wurde, war fortan der Zugang zum Anonymisierungsnetzwerk möglich. Ursprünglich hatte es nicht das Ziel, kriminelle Aktivitäten zu decken oder die Privatheit zu schützen, sondern einen anonymen Netzverkehr bei militärischen oder nachrichtendienstlichen Aktionen zu ermöglichen. Das Tor-System, das der Verschleierung der eigenen Netzidentität dient, schaltet mehrere, weltweit verstreute Proxy-Server hintereinander und ändert laufend die Routen, die die Daten durch die einzelnen Proxys bis zum Endpunkt nehmen. Durch ein spezielles Verschlüsselungsschema weiß der einzelne Proxy-Server, der bei Tor als Knoten bezeichnet wird, lediglich, von welchem Server er die Daten erhalten und wem er sie weitergeben wird. Er kann aber die Daten darüber hinaus nicht weiterverfolgen und auch selbst nicht lesen. Dieses Prinzip wird als Onion-Routing bezeichnet. Stellen Sie sich zur Veranschaulichung die Schichten einer Zwiebel vor. Jede einzelne Schicht symbolisiert einen Tor-Knoten. Im Kern der Zwiebel liegt

114  2 Das World Wide Web als eine Anwendung des Internets

die eigentliche Botschaft, deren Absender und Empfänger es zu verbergen gilt. Der Kommunikationspartner und auch der Betreiber eines einzelnen Tor-Knotens sind also nicht in der Lage, eine Zuordnung zwischen dem Internetnutzer und den aufgerufenen Webinhalten herzustellen. Viele Oppositionelle in autoritären Staaten nutzen heute das Tor-System, um sich dem Zugriff der staatlichen Kontrolle zu entziehen. Auch der weltbekannte Whistleblower Edward Snowden gab seine Enthüllungen an die britische Tageszeitung The Guardian mittels des Tor-Systems weiter. Seit 2006 liegt die weitere Entwicklung von Tor in den Händen der NonProfit-Organisation The Tor Project, die sich durch Zuwendungen finanziert. Sponsoren sind unter anderem die US-amerikanische, die schwedische und die deutsche Regierung sowie zahlreiche einzelne Spender. Im Kampf gegen die Kriminalität im Dark Web arbeitete die DARPA unter anderem mit den Tor-Softwareexperten bei der Entwicklung der Dark-WebSuchmaschine Memex zusammen, die das Dark Web zur Verbrechensbekämpfung durchsucht und deren Name in Anlehnung an Vannevar Bush gewählt worden ist.

Literatur Berners-Lee, Tim: Der Web-Report. München, 1999. Berners-Lee, Tim: Web Inventor and Founding Director of the World Wide Web Foundation. O.J., http://webfoundation.org/about/sir-tim-berners-lee (05.06.2018). Borchers, Detlef: Das erste Steinchen – Happy Birthday. Der Mosaic-Browser ist zehn Jahre alt. 2003, http://heise.de/-288826 (05.06.2018). Burke, Peter: Die Explosion des Wissens. Von der Encyclopédie bis Wikipedia. Berlin, 2014. Bush, Vannevar (1991a): As We May Think, in: Nyce, James M. und Paul Kahn (Hrsg.): From Memex to Hypertext. Vannevar Bush and the Mind's Machine. San Diego, 1991, S. 85–110. Bush, Vannevar (1991b): Memex II, in: Nyce, James M. und Paul Kahn (Hrsg.): From Memex to Hypertext. Vannevar Bush and the Mind's Machine. San Diego, S. 165–184. Bush, Vannevar (1991c): Memex Revisited, in: Nyce, James M. und Paul Kahn (Hrsg.): From Memex to Hypertext. Vannevar Bush and the Mind's Machine. San Diego, 1991, S. 197– 216. Crane, Gregory: Aristotle's Library: Memex as Vision and Hypertext as Reality, in: Nyce, James M. und Paul Kahn (Hrsg.): From Memex to Hypertext. Vannevar Bush and the Mind's Machine. San Diego, 1991, S. 339–352. Deutscher Bundestag: Drucksache IV/270. 1962, http://dipbt.bundestag.de/doc/btd/04/002/ 0400270.pdf (02.07.2018). Deutsche Nationalbibliothek: Adressierung im Internet und Leistungsgrenzen standortgebundener Verweise. 2008, http://www.persistent-identifier.de/?link=202 (13.06.2018).

Das World Wide Web als europäische Idee: seine Entstehung



115

Dijk, Jan A.G.M. van: Digitale Spaltung und digitale Kompetenzen, in: Schüller-Zwierlein, André und Nicole Zillien (Hrsg.): Informationsgerechtigkeit. Theorie und Praxis der gesellschaftlichen Informationsversorgung. Berlin/Boston, 2013, S. 108–133. Dijk, Jan A.G.M. van: The Deepening Divide: Inequality in the Information Society. Thousand Oaks, 2005. Dommann, Monika: Autoren und Apparate. Die Geschichte des Copyrights im Medienwandel. Frankfurt am Main, 2014. Email Statistics Report 2017–2021. 2017, https://www.radicati.com/wp/wp-content/uploads/ 2017/01/Email-Statistics-Report-2017-2021-Executive-Summary.pdf (04.06.2018). Hetmank, Sven: Internetrecht. Grundlagen, Streitfragen, aktuelle Entwicklungen. Wiesbaden, 2016. Fichte, Johann Gottlieb: Beweis der Unrechtmäßigkeit des Büchernachdrucks. Ein Räsonnement und eine Parabel, in: Berliner Monatsschrift 1 (1793), S. 443–483, http://ds.ub. uni-bielefeld.de/viewer/image/2239816_021/469/LOG_0041/ (02.07.2018). Keil, Reinhard: Wissensintegrationsprozesse und verteilte Wissensorganisation, in: Keller, Stefan Andreas, René Schneider und Benno Volk (Hrsg.): Wissensorganisation und -repräsentation mit digitalen Technologien. Berlin/Boston, 2014, S. 161–179. Keller, Stefan Andreas, René Schneider und Benno Volk: Die Digitalisierung des philosophischen Zettelkastens, in: Keller, Stefan Andreas, René Schneider und Benno Volk (Hrsg.): Wissensorganisation und -repräsentation mit digitalen Technologien. Berlin/Boston, 2014, S. 1–19. Keller, Stefan Andreas und Philipp Sarasin: Digitale Wissensräume. Möglichkeiten der hypertextbasierten Wissensorganisation am Beispiel von Litlink, in: Keller, Stefan Andreas, René Schneider und Benno Volk (Hrsg.): Wissensorganisation und -repräsentation mit digitalen Technologien. Berlin/Boston, 2014, S. 23–38. Kühl, Eike: Hilfe für digitale Außenseiter. 2010, https://www.zeit.de/digital/internet/2010-08/ internet-digitale-spaltung (30.06.2018). Jacobs, Ian: Die Welt feiert den 25. Geburtstag des World Wide Web. 2014, https://www.w3. org/webat25/news/press-release-launch-de (12.06.2018). Landow, George P.: Hypertext. The Convergence of Contemporary Critical Theory and Technology. Baltimore/London, 1992. Levine, Yasha: Almost everyone involved in developing Tor was (or is) funded by the US government. 2014, https://pando.com/2014/07/16/tor-spooks/ (05.06.2018). Loewenheim, Ulrich und Martin Vogel: § 2 Geschichte und Quellen des Urheberrechts, in: Loewenheim, Ulrich (Hrsg.): Handbuch des Urheberrechts. 2. Auflage. München, 2010. Meyrowitz, Norman: Hypertext. Does It Reduce Cholesterol, Too?, in: Nyce, James M. und Paul Kahn (Hrsg.): From Memex to Hypertext. Vannevar Bush and the Mind’s Machine. San Diego, 1991, S. 287–318. Nelson, Theodor H.: As We Will Think, in: Nyce, James M. und Paul Kahn (Hrsg.): From Memex to Hypertext. Vannevar Bush and the Mind's Machine. San Diego, 1991, S. 245–260. Nelson, Theodor H.: Computer Lib. Redmond, 1987. Noyes, Dan: First URL active once more. 2013, http://first-website.web.cern.ch/blog/first-urlactive-once-more (05.06.2018). Nyce, James M. und Paul Kahn: A Machine for the Mind: Vannevar Bush's Memex, in: Nyce, James M. und Paul Kahn (Hrsg.): From Memex to Hypertext. Vannevar Bush and the Mind's Machine. San Diego, 1991, S. 39–66.

116 

2 Das World Wide Web als eine Anwendung des Internets

Nyce, James M. und Paul Kahn: The Idea of a Machine: The Later Memex Essays, in: Nyce, James M. und Paul Kahn (Hrsg.): From Memex to Hypertext. Vannevar Bush and the Mind's Machine. San Diego, 1991, S. 113–144. Oren, Tim: Memex. Getting Back on the Trail, in: Nyce, James M. und Paul Kahn (Hrsg.): From Memex to Hypertext. Vannevar Bush and the Mind's Machine. San Diego, 1991, S. 319– 338. Otte, Gerhard: Die zivilrechtliche Gesetzgebung im „Dritten Reich“, in: NJW 1988, S. 2836– 2842. Purcell, Kristen: Search and email still top the list of most popular online activities. 2011, http://www.pewinternet.org/files/old-media//Files/Reports/2011/PIP_Search-and-Email. pdf (05.06.2018). Sachs, Michael (Hrsg.): Grundgesetz. Kommentar. München, 2018. Schack, Haimo: Urheber- und Urhebervertragsrecht. 8. Auflage. Tübingen, 2017. Schimann, Markus: Das Urheberrecht – von Buchdruck bis Filesharing. Alte und neue Diskussionen im Zusammenhang mit dem Urheberschutz. Marburg, 2009. Shcherbakova, Tatyana, Maria Vergelis und Nadezhda Demidova: Spam in July 2014. 2014, http://securelist.com/analysis/monthly-spam-reports/66297/spam-in-july-2014/ (05.06.2018). Stuhr, Mathias: Mythos New Economy. Die Arbeit an der Geschichte der Informationsgesellschaft. Bielefeld, 2011. The Webby Awards: Not the same thing: The Internet vs. the Web. 2015, http://www.webbyawards.com/the-difference-between-the-internet-and-the-web/ (05.06.2018). W3C (Hrsg.): Tim Berners-Lee. Inventor of the World Wide Web. Knighted by Her Majesty Queen Elizabeth II. 2004, http://www.w3.org/2004/07/timbl_knighted (05.06.2018). Zillien, Nicole: Digitale Spaltung – Reproduktion sozialer Ungleichheiten im Internet. 2013, https://www.bpb.de/dialog/netzdebatte/171701/digitale-spaltung-reproduktion-sozialerungleichheiten-im-internet (29.06.2018). Zillien, Nicole: Digitale Ungleichheit. 2. Auflage. Wiesbaden, 2009.

Entscheidungen Bundesgerichtshof, Urteil vom 17. Juli 2003, Aktenzeichen I ZR 259/00 (Paperboy). Bundesverfassungsgericht, Urteil vom 27. Februar 2008, Aktenzeichen 1 BvR 370, 595–07, 1 BvR 370, 595/07 (Online-Durchsuchung). Bundesverfassungsgericht, Beschluss vom 16. Juni 2009, Aktenzeichen 2 BvR 902/06 (E-MailBeschlagnahme). Bundesgerichtshof, Urteil vom 29. April 2010, Aktenzeichen I ZR 39/08 (Session-ID). Bundesgerichtshof, Urteil vom 14. Oktober 2010, Aktenzeichen I ZR 191/08 (AnyDVD). Europäischer Gerichtshof, Urteil vom 13. Februar 2014, Rechtssache C-466/12 (Svensson u.a.). Europäischer Gerichtshof, Beschluss vom 21. Oktober 2014, Rechtssache C-348/13 (BestWater International). Landgericht Frankfurt, Beschluss vom 28. Mai 2015, Aktenzeichen 2-3 O 452/14, 2/3 O 452/14, 2-03 O 452/14, 2/03 O 452/14. Bundesgerichtshof, Urteil vom 18. Juni 2015, Aktenzeichen I ZR 74/14 (Haftung für Hyperlink). Bundesgerichtshof, Urteil vom 09. Juli 2015, Aktenzeichen I ZR 46/12 (Die Realität II).

Das World Wide Web als europäische Idee: seine Entstehung



117

Europäischer Gerichtshof, Urteil vom 08. September 2016, Rechtssache C-160/15 (Playboy, GS Media). Landgericht Hamburg, Urteil vom 10. März 2017, Aktenzeichen 324 O 687/16. Europäischer Gerichtshof, Urteil vom 07. August 2018, Rechtssache C-161/17 (Córdoba).

118  2 Das World Wide Web als eine Anwendung des Internets

Von Web 1.0 zu Web 2.0 Ironically, Tim Berners-Lee's original Web 1.0 is one of the most „Web 2.0“ systems out there – it completely harnesses the power of user contribution, collective intelligence, and network effects. (Tim O'Reilly 2006)

Nach dem Platzen der Dotcomblase überlegte der IT-Experte, Unternehmer und Gründer des nach ihm benannten Computerbuchverlages O'Reilly Media, Tim O'Reilly, gemeinsam mit der MediaLive International Inc., einer EventManagement-Firma speziell für die Technologiebranche, welche Geschäftsmodelle und Entwurfsmuster im Web nach dessen bis dahin schwerster Krise noch wirtschaftlich erfolgreich sein könnten. Man einigte sich darauf, diese Modelle und Muster unter dem griffigen Namen „Web 2.0“, gewissermaßen dem Web der zweiten Generation, zu subsumieren. Inspiriert von diesen Überlegungen, beschlossen Tim O'Reilly und MediaLive International, eine „Web-2.0-Konferenz“ abzuhalten, zu der einflussreiche Größen der Internetindustrie wie Jeff Bezos, Gründer von Amazon, oder Jerry Yang, Mitbegründer von Yahoo, eingeladen wurden. Die erste Web-2.0-Konferenz fand 2004 in San Francisco statt. Seit dieser fand der Begriff mehr und mehr Verbreitung, wobei heute noch stärker als früher viele verschiedene Konnotationen des Begriffs Web 2.0 nebeneinander existieren. Landläufig wird „2.0“ als Versionsbezeichnung einer Software verstanden. Die Bezeichnung suggerierte anfangs sogar, das World Wide Web sei rund zehn Jahre nach seiner „Markteinführung“ neu in der Version 2.0 programmiert worden, was aber eine in der Marketingsprache übliche Übertreibung darstellte. Tatsächlich handelt es sich nur um eine veränderte Nutzung der interaktiven und kollaborativen Möglichkeiten des Webs, sowohl auf Seiten der (kommerziellen) Softwareentwickler als auch der Internetnutzer. In einer Beitragsskizze mit dem Titel „What is Web 2.0“ (2005) und einem später zu deren Ergänzung veröffentlichten, kürzeren Beitrag (2006) mit dem Titel „Web 2.0: Compact Definition: Trying again“ umriss O'Reilly die Kennzeichen vom Web 2.0, ohne dass daraus eine vollständige bzw. eindeutige Begriffsdefinition abgeleitet werden konnte. Das erklärt auch, warum der Begriff oftmals debattiert und kritisiert worden ist. Tim Berners-Lee (zitiert nach Farber 2006) nannte den Web-2.0-Begriff beispielsweise „a piece of jargon, nobody even knows what it means“ und sah den Unterschied zwischen Web 1.0 und Web 2.0 als künstlich an, denn „Web 1.0 was all about connecting people“. Nach O'Reilly ist das Web 2.0 (oder die Web-2.0-Ära) durch eine Reihe von Prinzipien, Leitgedanken und Praktiken bestimmt, mit deren Hilfe sich dominante Marktpositionen erringen lassen:

Von Web 1.0 zu Web 2.0

– –











119

Das Web ist eine Plattform. Als Plattform kann es programmiert und so den eigenen Bedürfnissen angepasst werden. Software wird als Service im Web angeboten, nicht als Paket verkauft. Für den Service wird direkt oder indirekt bezahlt. Die Software wird kontinuierlich verbessert und von den Webteilnehmern lediglich im Web ausgeführt. Sie muss nicht – wie bislang für Applikationen üblich – auf einem DesktopPC lokal installiert werden. Die Softwarefirmen besitzen Kernkompetenzen im Datenmanagement und agieren als Vermittler zwischen dem Webteilnehmer und der Onlinewelt. Das prominenteste Beispiel dafür ist das US-amerikanische Unternehmen Google Inc. alias Alphabet. Web-2.0-Unternehmen richten sich, um alle Nischen und Winkel des Netzes zu erreichen und erfolgreich zu sein, an ihrer Zielgruppe, der Masse der vielen kleinen Seiten im Netz, aus und nicht etwa an großen Webanbietern. Man spricht dann vom „Long Tail“. Dieses Konzept geht auf den Journalisten Chris Anderson zurück. Dessen Theorie zufolge besteht für ein Unternehmen im Handel mit virtuellen Gütern eine höhere Gewinnerwartung bei Nischenprodukten als bei Verkaufsschlagern. Als Beispiele lassen sich ebay, das Internetauktionshaus des gleichnamigen Unternehmens aus den USA, sowie die kontextsensitive Onlinewerbung Google Adsense anführen. Web-2.0-Software ist so gestaltet, dass sie umso besser ihren Zweck erfüllt, je mehr Webteilnehmer sie nutzen. Dieses Softwaredesign bezeichnet O'Reilly als implizite „Architecture of Participation“, das heißt „Architektur der Teilhabe“. Als Beispiel nennt er BitTorrent. Das BitTorrent-Protokoll dient dem (Ver-)Teilen von digitalen Dateien durch die Nutzer untereinander (Peer-to-Peer). Je beliebter eine Datei ist, umso öfter wird sie von den Peers zur Verfügung gestellt, umso schneller kann sie von anderen Peers, die diese Datei noch nicht haben, heruntergeladen werden. Die Software bündelt die Ressourcen der Nutzer und stellt sie ihnen auch selbst wieder als Vermittler zwischen diesen und dem Netz(-kollektiv) zur Verfügung. Web-2.0-Anwendungen gehen von einer kollektiven Intelligenz der Webteilnehmer aus und nutzen diese zur Verbreitung und Mehrung von Wissen im Netz oder zur zielgerichteten persönlichen Onlinewerbung. Beispiele für die Nutzung der kollektiven Intelligenz sind:: – der PageRank-Algorithmus der Suchmaschine Google, der unter anderem die Zahl der Verlinkungen der Webteilnehmer auf bestimmte Seiten zu einem wesentlichen Kriterium für das Relevanzranking in der Trefferliste zu einer Suchanfrage macht.

120  2 Das World Wide Web als eine Anwendung des Internets













das Recommender-System, das der US-amerikanische Onlineversandhändler Amazon durch gezielte Analyse der Nutzeraktivitäten zur Verbesserung der Resultate bei der Suche nach Produkten einsetzt. – die Onlineenzyklopädie Wikipedia, die durch die geistige Leistung einzelner Webteilnehmer erstellt wird. Der Betreiber, die Wikimedia-Foundation, liefert nur die (technische) Infrastruktur. – der Social-Bookmarking-Dienst Delicious und der Bilderhoster Flickr, die Dokumente und Bilder durch die Nutzer, die in diesem Kontext als Folks bezeichnet werden, kollaborativ und dezentral kategorisieren lassen. Mit freien, assoziativ gewählten Schlagworten, den sogenannten Tags, die keiner vorgegebenen Wissensorganisation folgen und in der Summe als „Folksonomy“ bezeichnet werden, werden diese erschlossen. Folksonomies sind in ihrer Grundform strukturell eindimensional, da die vergebenen Tags zueinander nicht, wie es zum Beispiel bei einer (hierarchischen) Klassenzuordnung erforderlich wäre, in Beziehung gesetzt werden. – Open-Source-Software, die Bestandteil der Internetinfrastruktur ist (zum Beispiel Linux, Apache, Perl, Python, MySQL) und auf dem Zusammenwirken von vielen Netzteilnehmern beruht. Blogs spiegeln die Gedanken von Individuen (nämlich der Blogger) wider und filtern die kollektive Intelligenz, indem sie durch die Zahl der Verknüpfungen, die auf einen einzelnen Beitrag hinweisen, die Aufmerksamkeit für einen Beitrag und somit seinen Wert wiedergeben. Die Kontrolle von bedeutsamen Datenquellen ist insbesondere dann ein großer Vorteil, wenn die Produktion der Daten kostenintensiv ist oder sie durch aktuell einlaufende Daten aus Netzwerken laufend an Bedeutung gewinnen. Geschäftsprozesse eines erfolgreichen Web-2.0-Unternehmens müssen uneingeschränkt auf das Software-als-Service-Modell orientiert und auf einen dynamischen, von Millionen von Webteilnehmern geprägten Markt zugeschnitten sein. Nutzer müssen als Mitentwickler betrachtet werden, wobei Software kontinuierlich und nicht etwa nur in Updateschritten weiterentwickelt wird. Die Nutzung neuer Softwareelemente wird in Echtzeit beobachtet. Bleiben neue Softwarefeatures ungenutzt, werden sie schnell wieder entfernt. Einzelne Webservices sollen auf leichte Weise miteinander verknüpft werden können. Durch die effektive Zusammenfügung von bereits bestehenden Komponenten kann ein neuer Mehrwert entstehen.

Von Web 1.0 zu Web 2.0 



121

Die Barrieren für die Wiederverwendung von Websoftware sollten möglichst gering sein. Das geistige Eigentum sollte nur gering geschützt werden, um Weiterentwicklungen nicht zu behindern.

Nachdem die Einlassungen von Tim O'Reilly für Diskussionen darüber gesorgt hatten, was das Web 2.0 genau sei und wie es eindeutig definiert werden könne, verwies O'Reilly auf die Schwierigkeit, eine genaue Definition für Geschäftsmodelle zu erstellen: “Defining“ a business model transition is always hard. We had a „personal computer“ era long before the business rules were clear. A deeper understanding of the new rules of business in the PC era, and a ruthless application of them before anyone else understood them as well, is what made Microsoft the king of the hill in that era. (O'Reilly 2006)

Dennoch versuchte er sich an einer kürzeren Definition: Web 2.0 is the business revolution in the computer industry caused by the move to the internet as platform, and an attempt to understand the rules for success on that new platform. Chief among those rules is this: Build applications that harness network effects to get better the more people use them. (This is what I've elsewhere called „harnessing collective intelligence“.) (O'Reilly 2006)

O'Reilly selbst löste das begriffliche Spannungsverhältnis zwischen Web 1.0 und Web 2.0 auf, indem er das Web 1.0 von Tim Berners-Lee als ausgeprägtes „Web-2.0-System“ bezeichnete: Ironically, Tim Berners-Lee's original Web 1.0 is one of the most „Web 2.0“ systems out there – it completely harnesses the power of user contribution, collective intelligence, and network effects. (O'Reilly 2006)

Umgangssprachlich wird das Web 2.0 häufig als „Mitmachnetz“ bezeichnet, wobei aus dem bisher zum Thema Dargelegten hervorgeht, dass die umgangssprachliche Variante zu kurz greift. Das „Mitmachen“ (Kontribuieren) ist beim Web 2.0 nur eine Konsequenz aus der Intention der Unternehmen, ökonomisch erfolgreich sein zu wollen (bzw. zu müssen). Anders ausgedrückt: Spricht man heute allgemein vom Web 2.0, dann meint man in der Regel ein „modernes“ Web mit verschiedenen Formen der Onlinekommunikation auf Plattformen, die neben der Interaktion auch das Austauschen von Dateien und das Erstellen von gemeinsam zu erarbeitenden, das heißt kollaborativen Projekten ermöglichen. Im Grunde handelt es sich dabei um das softwaretechnologisch evolutiv weiterentwickelte Web von Tim Berners-Lee.

122  2 Das World Wide Web als eine Anwendung des Internets

Mit dem Web 2.0 nach Tim O'Reilly sollten der jungen Internetbranche nach dem Platzen der Dotcomblase mit den vielen Firmenpleiten, enttäuschten Markteilnehmern und regelrechten Kapitalverbrennungen Überlebensstrategien aufgezeigt werden, die zum ökonomischen Erfolg führen. Aus dieser Perspektive ist das Attribut 2.0 vielleicht sogar berechtigt, weil die ursprüngliche Idee des Webs eine idealistische war, bei der es um das Zusammenarbeiten im Interesse der Wissenschaft ging. Beim Web 2.0 nach O'Reilly geht es hingegen um die Möglichkeit, den Hebel zu finden, um mit dem Web Gewinne zu erwirtschaften. Der Unterschied zwischen Web 1.0 nach Berners-Lee und Web 2.0 nach O'Reilly lässt sich am ehesten noch mit der Situation der Fernsehkanäle in Deutschland vergleichen: Auf der einen Seite gibt es die gebührenfinanzierten öffentlich-rechtlichen Sender. Sie müssen nur einen Teil ihrer Einnahmen mit Werbung erzielen und verbreiten umfassend und ausgewogen Information, Bildung, Kultur und Unterhaltung, ohne in erster Linie auf die Quote schauen zu müssen, da ihre Finanzierung weitgehend a priori gesichert ist. Die Privatsender auf der anderen Seite müssen sich mit Werbung finanzieren und eine möglichst große Aufmerksamkeit auf sich lenken, um eine gute Quote zu erzielen, da nur eine hohe Zuschauerzahl hohe Werbeeinnahmen garantiert. Der Vergleich hinkt natürlich, unter anderem deshalb, weil bei den meisten Webdiensten die vollständige Privatisierung eingesetzt hat. Gelingt es zumindest als Angehöriger einer Hochschule noch, eine E-Mail-Adresse von einem nichtkommerziellen Anbieter, respektive dem Rechenzentrum, zu erhalten, so ist die Teilnahme an einem nichtkommerziellen, werbefreien sozialen Netzwerk schon relativ schwierig und auch zu professionellen Zwecken in einer Organisation mit einer geschlossenen Benutzergruppe wie einer Universität oder einem Unternehmen nicht standardmäßig verfügbar. Um für die weiteren Kapitel ein einheitliches und auf die Funktionalität fokussiertes Verständnis des Begriffs Web 2.0 zugrunde zu legen, soll die Begriffsbestimmung der Schweizer Wissenschaftlerin Miriam Meckel (2008) aufgegriffen werden: Web 2.0 ermöglicht die selbst organisierte Interaktion und Kommunikation der Nutzerinnen und Nutzer durch Herstellung, Tausch und Weiterverarbeitung von nutzerbasierten Inhalten über Weblogs, Wikis und Social Networks.“ (S. 17)

Um Begriffsverwirrungen auszuschließen, verwenden wir in den weiteren Kapiteln anstelle des Begriffs Web 2.0 unter Betonung der kollaborativen Funktion des Webs den Terminus „Social Web“.

Von Web 1.0 zu Web 2.0 

123

Mit dem Erfolg der großen Social-Web-Plattformen ist die einstige Interoperabilität des Webs verloren gegangen. Schrieb man bisher eine E-Mail, war es unabhängig vom E-Mail-Provider möglich, den E-Mail-Adressaten zu erreichen. In Facebook können aber nur noch Facebook-Mitglieder erreicht werden, bei Twitter nur Twitter-User etc. Das Web ist so aufgeteilt in einzelne Onlinegemeinschaften, denen kein gemeinsamer Standardkommunikationsweg wie bei der EMail mehr zugrunde liegt. Dieses Phänomen wird gelegentlich unter dem Schlagwort „Cyberbalkanisierung“ problematisiert. Obwohl der Terminus „Balkanisierung“ auf viele kleine zersplitterte, virtuelle Gemeinschaften hinweist und damit die Situation im Web angesichts einiger weniger, oft nicht einmal konkurrierender Big Player (Facebook, Google, Amazon, Ebay, YouTube) nicht abbildet, stimmt das grundsätzliche Moment des Vergleichs: Das WWW ist der Welt analog, in der die Bürger in einzelnen Staaten (Onlinegemeinschaften) leben und über deren Grenzen reisen müssen, um anderen Staatsangehörigen zu begegnen.

Agieren im Social Web Das Social Web hat unseren Alltagswortschatz mit Begrifflichkeiten wie posten, liken, sharen oder tweeten bereichert. Diese Neologismen beschreiben einen Teil der Funktionalität der neu entwickelten Software, die Interaktion, Kollaboration und Austausch von Inhalten im Social Web möglich macht. Wer etwas postet, schreibt einen Kommentar oder ähnliches in einem sozialen Netzwerk; ein anderer Nutzer versieht diesen Kommentar mit einem „Gefällt mir“-Button: Somit hat er den Beitrag (engl. post) gelikt. Ein dritter möchte diesen Kommentar auch in seinem eigenen Profil verfügbar machen: Somit sharet er ihn, damit auch seine Freunde den Post lesen und kommentieren können. Setzt man einen Kommentar über die Microbloggingplattform Twitter ab, so tweetet oder twittert man. Der Kommentar selbst heißt bei Twitter nicht Post, sondern im exakten Sprachgebrauch Tweet. Um die Verwirrung noch etwas zu steigern: Wer einen Tweet teilt, der sharet ihn nicht, sondern er re-tweetet ihn. Doch was ist eigentlich „sozial“ am Social Web? Das Onlinemagazin edge. org fragte 2010: „Wie hat das Internet Ihr Denken verändert?“ Der kanadischamerikanische Psychologe und Autor Paul Bloom (2001) schrieb dazu in seinem Essay sehr optimistische Zeilen: Anscheinend ruft das Internet dieselben sozialen Impulse hervor, die auch bei Interaktionen von Angesicht zu Angesicht vorkommen. Wenn sich jemand verirrt hat und Sie nach dem Weg fragt, werden Sie wahrscheinlich nicht ablehnen zu antworten oder lügen. In

124  2 Das World Wide Web als eine Anwendung des Internets

den meisten wirklichen sozialen Kontexten ist es ganz natürlich, dass man seine Meinung über Bücher oder Filme äußert, die man mag, oder dass man das Wort ergreift, wenn es um etwas geht, worüber man viel weiß. Das Anbieten von Informationen im Internet ist die Fortsetzung dieses alltäglichen Altruismus. Es illustriert das Ausmaß der menschlichen Großzügigkeit in unserem Alltagsleben und zeigt auch, wie die Technik diesen positiven menschlichen Zug durch wirklich nutzbringende Ergebnisse fördern und erweitern kann. Man hat schon lange gesagt, dass uns das Web klüger macht; es macht uns auch liebenswürdiger.

Wenn wir einen ersten Einstieg zur Vita von Barack Obama suchen, vertrauen wir darauf, dass ein Spezialist unter den Wikipedia-Autoren bereits einen fundierten Artikel über ihn verfasst hat. Wenn man als IT-Experte bei einem bestimmten Problem nicht mehr weiterweiß, wendet man sich an eine entsprechende Community und gibt auch selbst online Auskunft über technische Probleme, die man am eigenen Arbeitsplatz bereits gelöst hat. Bittet uns ein Freund in einem sozialen Netzwerk, an einer Onlinepetition für artgerechtere Tierhaltung teilzunehmen, so gibt es gute Chancen, dass wir die Petition auch unterschreiben. Das Social Web hat uns Werkzeuge an die Hand gegeben zum kooperativen, manchmal auch altruistischen Handeln und es ermöglicht multimediale Kommunikation unabhängig von Entfernungen und Ländergrenzen. Da menschliches Handeln allerdings meist ambivalent ist und unsoziales wie unethisches Handeln auch vor dem Social Web nicht Halt macht, haben wir den Schattenseiten des Internets, auch denen der sozialen Medien, das gesamte vierte Kapitel gewidmet. In den folgenden Abschnitten dieses Kapitels wenden wir uns aber nun den unterschiedlichen Plattformtypen und den Phänomenen zu, die das Social Web in den letzten Jahren geprägt haben. Bemerkenswert ist dabei, dass in jüngster Zeit die neuen Kulturtechniken des Sharens, Likens und Tweetens, die zunächst nur den privaten Bereich geprägt haben, ihren Weg zurück zu den geistigen Wurzeln des Internets, zur wissenschaftlichen Welt, gefunden haben. Wissenschaftler haben die Möglichkeiten des Social Webs für sich entdeckt und integrieren die neuen digitalen Techniken in ihren wissenschaftlichen Alltag. Forscher verbreiten Hinweise auf lesenswerte Artikel auf Twitter, posten in Blogs oder arbeiten kollaborativ im Web an einem Forschungsprojekt oder einer Publikation. Man spricht in diesem Kontext von „Science 2.0“: Der Überbegriff Science 2.0 greift ein Phänomen auf, das schon seit geraumer Zeit stattfindet, dessen Wirkungsmechanismen bislang aber nicht erforscht sind: Die Entwicklung der Wissenschaft hin zu einer völlig veränderten und primär digitalen Partizipation, Kommunikation, Kollaboration und Diskussion in Forschungs- und Publikationsprozessen. Wissenschaftlerinnen und Wissenschaftler nutzen zunehmend Wikis, Blogs und andere

Von Web 1.0 zu Web 2.0



125

kooperative Kommunikationskanäle, wie soziale Netzwerke, um Ideen, Theorien und Konzepte bis hin zu Erkenntnissen online zu teilen. (Siegfried 2014, S. 40)

Der User-generated Content als gemeinsamer Nenner der Social-Web-Dienste Social-Web-Dienste haben alle einen kleinsten gemeinsamen Nenner – nämlich die Möglichkeit, nutzergenerierte Inhalte einzubringen. Dafür hat sich der Begriff User-generated Content (oder kurz UGC) auch im deutschen Sprachraum durchgesetzt. User-generated Content wird nicht vom Anbieter eines Webdienstes erzeugt, sondern ausschließlich von dessen Nutzern. Ihnen wird auch die Bezeichnung als Content-Provider zuteil. Der User-generated Content kann aus Textbeiträgen wie Berichten, Kommentaren, Artikeln oder Rezensionen, aber auch aus Fotos, Video- bzw. Audiodateien, Software oder nur aus einem Mausklick als einer die Zustimmung signalisierenden Geste bestehen. Diese Internetnutzer sind so zugleich Produzenten und Konsumenten der Social-Web-Inhalte. Die zunächst eigensinnig anmutende Wortschöpfung aus Produzent und Konsument „Prosument“ hat sich als Bezeichnung für sie mittlerweile etabliert. Insbesondere bei Erstellung von User-generated Content verarbeiten private Internetnutzer in erheblichem Umfang (fremde) Daten. Das wirft natürlich die Frage auf, inwieweit dadurch das Datenschutzrecht berührt sein könnte. Datenschutzrechtliche Beanstandungen von Tweets in Mikrobloggingdiensten, Postings in sozialen Netzwerken oder eben Beiträgen in Blogs führen die streitenden Parteien nicht selten bis vor Gericht. Eine wichtige Befreiung vom Datenschutzrecht ist dabei jedoch im Blick zu behalten: Das Bundesdatenschutzgesetz behält auch nach Inkrafttreten der Datenschutz-Grundverordnung für die private Datenverarbeitung einen Ausschluss aus dem Anwendungsbereich des Datenschutzrechts, die sogenannte Haushaltsausnahme, bei. Sie gilt, sofern die Erhebung, Verarbeitung oder Nutzung der Daten ausschließlich für persönliche oder familiäre Tätigkeiten erfolgt. Darin lässt sich die Einschätzung des Gesetzgebers erkennen, das weit überwiegende Gefährdungspotenzial für die datenschutzrechtlichen Interessen der Betroffenen folge aus der nicht aus persönlichen oder familiären Zwecken motivierten Datenverarbeitung öffentlicher und nichtöffentlicher Stellen. Die datenschutzrechtlichen Bestimmungen richteten sich nach Art und Umfang vornehmlich an Behörden und Unternehmen und könnten bei der privaten Datenverarbeitung kaum umfassende Berücksichtigung finden.

126  2 Das World Wide Web als eine Anwendung des Internets

Um den Datenschutz bei der privaten Datenverarbeitung angesichts der technologischen Entwicklungen und der vielfältigen Online- und Social-MediaAktivitäten nicht über Gebühr zu vernachlässigen, muss die Haushaltsausnahme jedoch eng ausgelegt werden. Das lässt sich an dem folgenden Fall – wenngleich außerhalb des Social Webs – illustrieren, der Sie sicherlich auch an die im Jahr 2018 vor dem Bundesgerichtshof verhandelte Verwertbarkeit von Dashcam-Aufnahmen als Beweismittel im Unfallhaftpflichtprozess (Urteil vom 15. Mai 2018, Aktenzeichen VI ZR 233/17) erinnert: Dem Oberlandesgericht Celle lag ein Fall zur Entscheidung vor, in dem ein Autofahrer mutmaßlich ordnungswidriges Verhalten Dritter im Straßenverkehr in rund 56.000 Fällen seit dem Jahr 2004 in Fotografien oder Videoaufzeichnungen festhielt und die auf diesem Weg erhobenen Daten an die zuständige Bußgeldbehörde zur Verfolgung und gegebenenfalls zur Ahndung übermittelte. Zu Beginn des Jahres 2014 installierte er zu diesem Zweck in seinem Pkw eine sogenannte Dashcam. In der Folge rüstete er seine Datenerfassungsanlage derart auf, dass er mit zwei fernbedienbaren Kameras auch in der Nacht mithilfe eingebauter Infrarotsensoren sowohl Einzelbilder als auch Videoaufnahmen anfertigen konnte. Seine Installation war zudem mit einem Global Positioning System (GPS) versehen, das satellitenbasiert sowohl die Geschwindigkeit der erfassten Verkehrsteilnehmer als auch den genauen Standort bestimmen konnte. Das Gericht hatte die Frage zu klären, ob diese Art der Erhebung, Verarbeitung und Nutzung personenbezogener Daten durch nichtöffentliche Stellen unter Einsatz von Datenverarbeitungsanlagen noch unter die datenschutzrechtliche Haushaltsausnahme zu fassen oder vielmehr als nicht ausschließlich persönliche oder familiäre Tätigkeit einzustufen war. Das Oberlandesgericht Celle äußerte sich in seinem Beschluss vom 04. Oktober 2017, Aktenzeichen 3 Ss (OWi) 163/17 dazu wie folgt: Mit der Wendung „für persönliche oder familiäre Tätigkeiten“ grenzt das Gesetz einen Bereich persönlicher Lebensführung ab von der beruflichen oder geschäftlichen Sphäre. Entscheidend ist mithin, dass der Datenumgang im privaten Aktionskreis stattfindet und mit all seinen Bestandteilen und während der gesamten Dauer ausschließlich für persönliche oder familiäre Tätigkeiten erfolgt. Die Frage, was dabei als persönlich oder familiär einerseits oder als beruflich bzw. geschäftlich andererseits anzusehen ist, richtet sich nach der Verkehrsanschauung […]. Vorliegend nutzte der Betroffene die Onboard-Kamera ausschließlich, um Verkehrsordnungswidrigkeiten anderer Verkehrsteilnehmer und damit das Verhalten Dritter zu dokumentieren. Schon der dadurch betroffene Personenkreis spiegelt keinerlei persönlichen oder familiären Bezug wider. Die Erhebung dieser personenbezogenen Daten erfolgte zudem ausschließlich zu dem Zweck, sich Beweismittel für mögliche Bußgeld- oder Strafverfahren zu beschaffen und die Aufnahmen bei den für die Ahndung derartige [sic!] Verstöße zuständigen Behörde vorzulegen. Werden personenbe-

Von Web 1.0 zu Web 2.0 

127

zogene Daten zu einem solchen Zweck erhoben, wird dadurch der persönliche bzw. familiäre Bereich evident verlassen […]. (Rn. 23)

Das Gericht entschied, dass die Handlungen des Betroffenen in den Anwendungsbereich der entsprechenden Schutzvorschriften des Bundesdatenschutzgesetzes fielen und als Ordnungswidrigkeiten zu sanktionieren waren (siehe Rn. 13). Die Datenschutz-Grundverordnung sieht, wie bereits angedeutet, keine explizite Änderung der Haushaltsausnahme vor. Kritische Stimmen warnen jedoch vor den Gefahren, denen die Persönlichkeitsrechte durch die zunehmende Erstellung und Verbreitung von User-generated Content ausgesetzt sind. Nun schauen wir etwas genauer auf die verschiedenen Social-Web-Anwendungen. Wie sind sie beschaffen? Wodurch zeichnen sie sich aus und haben sie sich (schon) in der Rechtsprechung einen Namen gemacht? Machen wir den Anfang mit Anwendungen aus dem Bereich des Personal Publishings.

Blogs Ende der 1990er Jahre wurde ein oft als altmodisch belächeltes Hobby wieder modern: Das Tagebuchschreiben ging online! Unter dem Namen Blog, kurz für Weblog, erschienen um 1997 herum die ersten digitalen Tagebücher, die mit dem verstaubten Büchlein von gestern nicht mehr viel gemein hatten. Alltägliches und Kurioses konnte fortan der Netzgemeinde mitgeteilt werden. Viele Autoren bekannter Weblogs, die Blogger, machten in dieser Zeit ihre ersten journalistischen Schritte und bewegen sich heute äußerst souverän und professionell in der sogenannten Blogosphäre, der Gesamtheit der Internetweblogs und ihrer Vernetzungen. In tagebuch- oder journalähnlichen Einträgen, chronologisch sortiert und bisweilen mit (langen) Linklisten zu anderen Onlinequellen, sogenannten Blogrolls, versehen, berichten Privatpersonen, aber auch Institutionen aus dem politischen, wirtschaftlichen und kulturellen Leben über aktuelle Beobachtungen und Begebenheiten, die von Interessierten in der Regel abonniert und so zeitnah verfolgt werden können. Über Ping- und Trackbacks, spezielle Funktionen der Weblogsoftware, werden die Weblogs miteinander vernetzt. So sind die Autoren mithilfe automatisierter Benachrichtigungsdienste stets darüber im Bilde, ob und von wem ein Link gesetzt oder Bezug auf ihre Inhalte genommen worden ist. Wohlgemerkt: Mit der Privatheit überkommener Tagebücher, deren mühsame Geheimhaltung vor neugierigen Eltern oder Geschwistern die Verfasser Nerven kosten konnte, haben Weblogs nicht mehr viel zu tun. Sie richten sich

128  2 Das World Wide Web als eine Anwendung des Internets

vielmehr bewusst an ein öffentliches Publikum, das sich auch jenseits etablierter Medien informieren möchte. Kommentare der Leserschaft sind übrigens sehr willkommen. Schließlich möchten viele Blogger auch den interaktiven Diskurs über gesellschaftlich relevante Themen anstoßen, die nur wenig Beachtung in der übrigen Medienlandschaft finden. Unter ihnen gibt es viele, die einen Beitrag zur demokratischen Meinungs- und Willensbildung durch Vielfalt an Information und Transparenz leisten möchten und gegen jegliche Form von Zensur eintreten.

Der Blog und das Recht Doch wo gehobelt wird, fallen Späne: Persönlichkeitsbeeinträchtigungen sind im Web alltäglich und über Blogs schnell verbreitet zumal. Einmal entäußert, können sie sich rasant und öffentlichkeitswirksam ihren Weg durch die digitale Informationswelt bahnen und für den Betroffenen gravierende Folgen haben. Natürlich ließen in der Vergangenheit deshalb gerade im Bereich der Weblogs Rechtsstreitigkeiten nicht lange auf sich warten. Doch wie ist mit problematischen Einträgen in Blogs umzugehen, mögen Sie sich fragen. Dem ging der Bundesgerichtshof im Jahre 2011 nach. Zum Ausgangsfall: In einem unter www.blogspot.com eingerichteten Beitrag mit dem Titel „Hat Pleitier … F… ein Intelligenzproblem?“ war zu lesen, dass der im Immobiliengeschäft tätige Geschäftsführer F. kostenpflichtige Aktivitäten in Sexclubs mit seiner Firmenkreditkarte bezahle. F. klagte gegen den Host-Provider, der die technische Infrastruktur für den Blog und dessen Speicherung zur Verfügung stellte. Er drang darauf, dass der Provider die Verbreitung dieser dem Blogger D. zuzurechnenden Behauptung zu unterlassen und die Passage zu löschen verpflichtet würde. Der Bundesgerichtshof stellte in seinem grundlegenden Urteil vom 25. Oktober 2011, Aktenzeichen VI ZR 93/10 jedoch zunächst fest: Ein Hostprovider ist nicht verpflichtet, die von den Nutzern in das Netz gestellten Beiträge vor der Veröffentlichung auf eventuelle Rechtsverletzungen zu überprüfen. (Rn. 24)

Das gelte jedenfalls dann, wenn der Host-Provider den beanstandeten Beitrag „weder verfasst noch sich seinen Inhalt zu Eigen gemacht“ (Rn. 20) habe. Das Gericht fuhr im Weiteren fort: Er ist aber verantwortlich, sobald er Kenntnis von der Rechtsverletzung erlangt. Weist ein Betroffener den Hostprovider auf eine Verletzung seines Persönlichkeitsrechts durch den

Von Web 1.0 zu Web 2.0



129

Nutzer eines Blogs hin, kann der Hostprovider […] verpflichtet sein, zukünftig derartige Verletzungen zu verhindern. (Rn. 24)

Dass es für den Provider auch nach Hinweis durch den Betroffenen schwierig sein dürfte, aufgrund der Behauptung eine Rechtsverletzung im Spannungsfeld des Persönlichkeitsschutzes einerseits und der Meinungs- sowie Medienfreiheit andererseits festzustellen, räumte der Bundesgerichtshof ein. Deshalb bedürfe es eines hinreichend konkreten Hinweises, damit […] der Rechtsverstoß auf der Grundlage der Behauptungen des Betroffenen unschwer – das heißt ohne eingehende rechtliche und tatsächliche Überprüfung – bejaht werden kann“. (Rn. 26)

Eine Pflicht zur Löschung des in Frage stehenden Eintrags war nach der Entscheidung des Bundesgerichtshofs unter folgenden Voraussetzungen gegeben: Ergibt sich aus der Stellungnahme des Betroffenen oder den vorgelegten Belegen auch unter Berücksichtigung einer etwaigen Äußerung des für den Blog Verantwortlichen eine rechtswidrige Verletzung des Persönlichkeitsrechts, ist der beanstandete Eintrag zu löschen. (Rn. 27)

Es könnte im Einzelfall also kniffelig werden, zumal die Einschätzung, wann eine Persönlichkeitsrechtsverletzung vorliegt, alles andere als trivial ist. Wir gehen darauf im Verlaufe des Kapitels noch näher ein. Angesichts dieser Schwierigkeiten sprechen sich einige Autoren dafür aus, dass der Provider im Zweifel nach erster „überblicksartiger Prüfung“ die als ehrverletzend bezichtigten Beiträge entfernen sollte, um der Fortwirkung der Persönlichkeitsrechtsverletzung entgegenzuwirken (siehe Voskamp und Kipker 2013, S. 790). Dagegen lässt sich jedoch einwenden, dass dieses Vorgehen der entgegenstehenden Meinungsund Medienfreiheit kaum gerecht werden kann. In der Rechtsprechung noch nicht abschließend geklärt ist auch die Frage, ob ein Blogger für sich das sogenannte Laienprivileg in Anspruch nehmen kann. Nach diesem Prinzip gilt für Privatpersonen, die sich in gutem Glauben zu intransparenten Vorgängen in Politik und Wirtschaft bzw. Angelegenheiten von öffentlichem Interesse unter Hinzuziehung von Presseberichten nachteilig zu Wort melden, dass sie nur unter engen Voraussetzungen auf Unterlassung oder Widerruf in Anspruch genommen werden können. Dazu entschied das Bundesverfassungsgericht noch in der analogen Welt der beginnenden 1990er Jahre in seinem Beschluss vom 09. Oktober 1991, Aktenzeichen 1 BvR 1555/88: Der Presse obliegt zwar nach der Rechtsprechung der Zivilgerichte eine besondere Sorgfaltspflicht bei der Verbreitung nachteiliger Tatsachen. Vom Einzelnen darf eine ver-

130  2 Das World Wide Web als eine Anwendung des Internets

gleichbare Sorgfalt aber nur verlangt werden, soweit er Tatsachenbehauptungen aus seinem eigenen Erfahrungs- und Kontrollbereich aufstellt. Dagegen ist es ihm bei Vorgängen von öffentlichem Interesse, namentlich solchen aus nicht transparenten Politik- und Wirtschaftsbereichen, regelmäßig nicht möglich, Beweise oder auch nur Belegtatsachen aufgrund eigener Nachforschungen beizubringen. Er ist insoweit vielmehr auf die Berichterstattung durch die Medien angewiesen. (Rn. 62) Würde man dem Einzelnen gleichwohl auch insoweit nachprüfbare Angaben abverlangen, so hätte das zur Folge, daß er herabsetzende Tatsachen, die er der Presse entnommen hat, überhaupt nicht mehr aufgreifen und zur Stützung seiner Meinung anführen dürfte. Damit träte aber nicht nur eine Lähmung der individuellen Meinungsfreiheit ein. Vielmehr würde auch der gesellschaftliche Kommunikationsprozeß verengt, wenn Presseberichte, die ihre meinungsbildende Funktion erfüllen, vom Einzelnen, der sich aufgrund solcher Berichte eine Meinung gebildet hat, nicht mehr verwertet werden dürften, weil er den Beweis für ihre Wahrheit nicht antreten kann. Beides ließe sich mit dem Sinn von Art. 5 Abs. 1 GG nicht vereinbaren. Werden die zivilrechtlichen Vorschriften im Lichte dieses Grundrechts ausgelegt, so darf ein Einzelner, der Presseberichte guten Glaubens aufgreift und daraus verallgemeinernde Schlußfolgerungen zieht, erst dann zur Unterlassung oder zum Widerruf verurteilt werden, wenn die Berichterstattung erkennbar überholt oder widerrufen ist. (Rn. 63)

Nach einem Beschluss des höchsten Berliner Gerichts der ordentlichen Gerichtsbarkeit, des Kammergerichts Berlin vom 29. Januar 2009, Aktenzeichen 10 W 73/08, gilt das Laienprivileg auch für den privaten Betreiber einer Webseite (siehe Rn. 3). Dieser müsse Presseberichte nicht auf ihren Wahrheitsgehalt überprüfen. Die Voraussetzungen für eine Haftung seien nur bei Kenntnis von der Unwahrheit der in Frage stehenden Äußerungen bzw. dem Umstand, dass der Verlag eine Unterlassungserklärung abgegeben hat, erfüllt. Diese Anforderung unterscheide auch nicht danach, ob der private Webseitenbetreiber den Inhalt des Presseberichts zur Grundlage eigener Äußerungen nimmt oder unkommentiert heranzieht. Das Landgericht Köln schloss hingegen in dem ihm vorliegenden Fall eines langjährigen und in hohem Maße an der öffentlichen Diskussion zu dem auf seiner Webseite erörterten Sachverhalt beteiligten Forumbetreibers die Anwendung des Laienprivilegs aus. In der Begründung seines Urteils vom 11. Mai 2011, Aktenzeichen 28 O 72/11 führte das Gericht aus: Der Verfügungsbeklagte [i.e. der Forumsbetreiber; Anmerkung der Verfasser] beschränkt sich nicht darauf, durch einzelne Äußerungen punktuell an der öffentlichen Auseinandersetzung mitzuwirken, sondern schafft durch die von ihm betriebene Webseite eine auf Dauer angelegte mediale Öffentlichkeit, die nach eigenen Angaben des Verfügungsbeklagten weit beachtet ist („60.000 Einträge“). Als Betreiber des Forums kann er sich daher nicht auf das Laienprivileg berufen, unabhängig davon, ob er sich dieser Tätigkeit hauptberuflich oder in seiner Freizeit widmet. (Rn. 42)

Von Web 1.0 zu Web 2.0 

131

Hinsichtlich der Bedeutsamkeit des Laienprivilegs für diesen Fall kam die nächste Instanz zu einer abweichenden Beurteilung. Das Oberlandesgericht Köln äußerte sich in seinem Beschluss vom 22. November 2011, Aktenzeichen I15 U 91/11, 15 U 91/11 zunächst wie folgt: Das Bundesverfassungsgericht hat dieses „Laienprivileg“ vor dem Hintergrund der bei persönlichkeitsrechtsverletzenden Äußerungen in jedem Fall erforderlichen Abwägung mit dem auf Seiten des Äußernden bestehenden Recht auf freie Meinungsäußerung entwickelt […]: Für die Verbreitung unwahrer Tatsachenbehauptungen gibt es danach regelmäßig keinen rechtfertigenden Grund. Indessen bedeutet das nicht, dass unwahre Tatsachenbehauptungen von vornherein aus dem Schutzbereich der Meinungsfreiheit herausfallen. Zwar hat das Bundesverfassungsgericht festgestellt, dass die unrichtige Information unter dem Gesichtspunkt der Meinungsfreiheit kein schützenswertes Gut sei […]. Außerhalb des Schutzbereichs von Art. 5 Abs. 1 Satz 1 GG liegen aber nur bewusst unwahre Tatsachenbehauptungen und solche, deren Unwahrheit bereits im Zeitpunkt der Äußerung unzweifelhaft feststeht. Alle übrigen Tatsachenbehauptungen mit Meinungsbezug genießen den Grundrechtsschutz, auch wenn sie sich später als unwahr herausstellen […]. Der Wahrheitsgehalt fällt dann aber bei der Abwägung ins Gewicht […]. Grundsätzlich hat die Meinungsfreiheit bei unwahren ehrenrührigen oder rufschädigenden Äußerungen zurückzutreten. Dabei muss aber bedacht werden, dass die Unwahrheit vielfach im Zeitpunkt der Äußerung ungewiss ist und sich erst später etwa durch eine gerichtliche Klärung herausstellt. Zur Vermeidung eines vom Grundrechtsgebrauch abschreckenden Effekts, der mit der Sanktionierung einer erst nachträglich als unwahr erkannten Äußerung einherginge, hat die Rechtsprechung der Zivilgerichte dem sich Äußernden Sorgfaltspflichten auferlegt. Da die Ermittlung der Wahrheit von Tatsachenbehauptungen oft außerordentlich schwierig ist, haben die Zivilgerichte demjenigen, der sich nachteilig über einen Dritten äußert, außerdem eine erweiterte Darlegungslast auferlegt, die ihn anhält, Belegtatsachen für seine Behauptung anzugeben […]. Diese Darlegungslast bildet die prozessuale Entsprechung der materiell-rechtlichen Regel, dass bei haltlosen Behauptungen der Schutz der Meinungsfreiheit zurückzutreten hat. Ist der sich Äußernde nicht in der Lage, seine Behauptung mit Belegtatsachen zu erhärten, wird sie wie eine unwahre behandelt […]. Die Anforderungen an diese Pflichten dürfen indessen nicht überspannt werden. Denn der freie Kommunikationsprozess, den Art. 5 Abs. 1 GG im Sinn hat, darf nicht eingeschnürt werden […]. (Rn. 11)

Seinen Ausführungen fügte das Oberlandesgericht Köln sodann den oben zitierten Auszug aus der bundesverfassungsgerichtlichen Entscheidung von 1991 bei und setzte anschließend fort: Das im Rahmen der Grundrechtsabwägung zu platzierende „Laienprivileg“ definiert somit Sorgfaltspflichten des Äußernden den Wahrheitsgehalt der von ihm verbreiteten meinungsbezogenen Tatsachen bzw. die tatsächlichen Elemente einer Meinungsäußerung betreffend […]. Das Ergebnis dieser Abwägung hängt danach von der Beachtung dieser Sorgfaltspflichten ab. Sind sie eingehalten, stellt sich aber später die Unwahrheit der Äußerung heraus, ist die Äußerung als im Äußerungszeitpunkt rechtmäßig anzusehen, so dass

132  2 Das World Wide Web als eine Anwendung des Internets

weder Bestrafung noch Widerruf oder Schadensersatz in Betracht kommen. Dagegen gibt es kein legitimes Interesse, nach Feststellung der Unwahrheit an der Behauptung festzuhalten […]. Besteht die Gefahr, dass die Äußerung dessen ungeachtet aufrechterhalten wird, kann der sich Äußernde folglich zur Unterlassung verurteilt werden […]. (Rn. 12)

Bis zum Zeitpunkt der in diesem Rechtsstreit erfolgten Abmahnung der Verfügungskläger und der daraus gewonnenen Kenntnis von der bestandskräftig gewordenen einstweiligen Verfügung gegen die Zeitung, dessen in Frage stehende Äußerung sich der Verfügungsbeklagte zu eigen gemacht hatte, konnte sich dieser, so das Gericht, deshalb auf das Laienprivileg berufen. An dieser Stelle können wir uns noch mit der Verwendung fremden Bildmaterials für den eigenen Webauftritt beschäftigen. Dazu schauen wir uns einen vor dem Oberlandesgericht Düsseldorf verhandelten Fall, der die urheberrechtlichen Grundlagen für die Verwendung fremden Bildmaterials verständlich skizziert, an: Der Beklagte, Inhaber eines spanischen Restaurants, hatte auf mindestens zwei Seiten seines Internetauftritts die Fotografie eines kanadischen Fotografen eingestellt. Dabei hatte er das Ausgangsmotiv eines Stierkämpfers samt Stier leicht modifiziert und um ein tanzendes Paar als weiteres Motiv ergänzt. Ein Urhebervermerk fehlte. Die Klägerin bot im Internet Bildmaterial zur entgeltlichen Nutzung an und führte die Fotografie in ihrem Katalog. Sie ließ den Beklagten erfolglos unter anderem wegen unzulässiger Vervielfältigung und öffentlicher Zugänglichmachung der Fotografie abmahnen und zur Abgabe einer strafbewehrten Unterlassungserklärung auffordern. Das Oberlandesgericht kam in seinem Urteil vom 16. Juni 2015, Aktenzeichen I-20 U 203/14, 20 U 203/14 zu folgendem Ergebnis: Durch die Einbindung des bearbeiteten Lichtbildes des Fotografen P.C. in seine Internetseite hat der Beklagte das ausschließliche Recht der Klägerin auf Vervielfältigung und öffentliche Zugänglichmachung des Werks verletzt. (Rn. 16)

Zur Begründung führte es aus: Dem im Tatbestand wiedergegebenen Lichtbild des Fotografen P.C. kommt urheberrechtlicher Schutz zu. Fotografien werden als Lichtbildwerke im Sinne des § 2 Abs. 1 Nr. 5 UrhG urheberrechtlich geschützt, wenn sie eine eigenschöpferische Prägung und Gestaltung aufwiesen [sic!]. Nach Art. 6 der Richtlinie 93/ 98/EWG des Rates zur Harmonisierung der Schutzdauer des Urheberrechts und bestimmter verwandter Schutzrechte vom 29. Oktober 1993 Richtlinie sollen Fotografien geschützt werden, wenn sie individuelle Werke in dem Sinne darstellen, dass sie das Ergebnis der eigenen geistigen Schöpfung ihres Urhebers sind; eines besonderen Maßes an schöpferischer Gestaltung bedarf es danach für den Schutz als Lichtbildwerk nicht […]. Maßgeblich ist die Prägung durch die Individualität ihres Urhebers, etwa durch die Auswahl des Motivs, der Perspektive oder des richtigen Moments bei Bewegungsvorgängen […]. Dabei zeichnen sich Lichtbildwerke im Allgemei-

Von Web 1.0 zu Web 2.0 

133

nen dadurch aus, dass sie über die bloße Abbildung hinaus eine Stimmung besonders gut einfangen oder den Betrachter zum Nachdenken anregen […]. (Rn. 17)

Diese Anforderungen erfüllte die streitgegenständliche Fotografie des kanadischen Fotografen. Das Gericht setzte für den Fall einer abweichenden Beurteilung fort: Im Übrigen wäre die Fotografie selbst bei einer Verneinung der Werkqualität jedenfalls als Lichtbild im Sinne des § 72 UrhG geschützt. Für den Lichtbildschutz ist kein eigenschöpferisches Schaffen im Sinne des § 2 Abs. 2 UrhG erforderlich; es genügt vielmehr ein Mindestmaß an persönlicher geistiger Leistung, wie es in der Regel schon bei einfachen Fotografien gegeben ist […]. (Rn. 19)

Zu den urheberrechtlich relevanten Handlungen des Beklagten hielt es fest: Durch das Aufspielen der in seinen eigenen Internetauftritt integrierten Fotografie auf einem Server hat der Beklagte das Werk vervielfältigt und durch deren Freischaltung der Öffentlichkeit zugänglich gemacht. (Rn. 20) Das Aufspielen auf einen Server oder ein anderes Speichermedium ist eine dem Urheber vorbehaltene Vervielfältigung […]. Die Freischalten [sic!] des aufgespielten Internetauftritts ist eine öffentliche Zugänglichmachung; die Integration eines Lichtbildes in den eigenen Internetauftritt stellt – anders als das Setzen eines Links, der lediglich auf ein bereits zuvor öffentlich zugänglich gemachtes Vervielfältigungsstück des Werkes verweist – einen Eingriff in das Verwertungsrecht de[r öffentlichen Zugänglichmachung] dar […]. (Rn. 21)

Anschließend grenzte es den vorliegenden Fall von der EuGH-Rechtsprechung zum Verlinken und Framing, mit wir uns im vorhergehenden Unterkapitel befasst haben, ab: Anderes ergibt sich auch aus den zum Framing ergangenen Entscheidungen des Europäischen Gerichtshofs […] nicht. Der Europäische Gerichtshof hat gerade darauf abgestellt, dass infolge der Verlinkung die Wiedergabe nach demselben technischen Verfahren erfolgt und sich dann nicht an ein neues Publikum richtet, wenn dabei keine Beschränkungen umgangen werden […]. Entscheidend ist, dass bei dieser Technik das Werk der Öffentlichkeit zugänglich gemacht wird, ohne es kopieren zu müssen und damit dem Anwendungsbereich der Vorschriften über das Vervielfältigungsrecht zu unterfallen […]. Der Berechtigte behält hier die Herrschaft über die öffentliche Zugänglichmachung des Werks, durch eine Entfernung des digitalen Vervielfältigungsstücks von seiner Seite oder die Einrichtung zugangsbeschränkender Maßnahmen kann er diese unmittelbar beenden. Demgegenüber hat der Beklagte jedoch das Lichtbild durch die Integration in seine auf einem Server abgelegte Internetseite vervielfältigt und damit zugleich dessen öffentliche Zugänglichkeit von der Einstellung der Fotografie in die Datenbank der Klägerin entkoppelt. (Rn. 22)

134  2 Das World Wide Web als eine Anwendung des Internets

Das Gericht ging des Weiteren auf den fehlenden Urhebervermerk ein: Für die Frage der Rechtsverletzung spielt es keine Rolle, ob das vom Beklagten verwandte Vervielfältigungsstück als urheberrechtlich geschützt gekennzeichnet gewesen ist. Ebenso wenig wie ein Sacheigentümer die ihm gehörenden Sachen muss der Urheber oder Leistungsschutzberechtigte sein Werk als seine Schöpfung kennzeichnen. Ein fehlender Hinweis ist kein Indiz dafür, dass ein Werk oder eine Leistung gemeinfrei ist. Vielmehr obliegt es jedem Nutzer in eigener Verantwortung, sich Kenntnis davon zu verschaffen, ob und gegebenenfalls zu welchen Bedingungen ihm der Urheber eine Nutzung seines Werkes gestatten will […]. (Rn. 23)

Schließlich warf das Gericht in diesem beinahe lehrbuchhaften Fall noch einen Blick auf die an der Fotografie vorgenommene Ergänzung des tanzenden Paares: Der Beklagten (sic!) hat durch die von ihm vorgenommene Bearbeitung der Fotografie kein selbständiges Werk geschaffen, die Benutzung der Fotografie ist nicht als freie im Sinne des § 24 Abs. 1 UrhG zu qualifizieren. (Rn. 24) Für die Frage, ob die Übernahme gestalterischer Elemente eine abhängige Bearbeitung im Sinne des § 23 UrhG darstellt oder ob es sich um eine freie Benutzung im Sinne des § 24 Abs. 1 UrhG handelt, kommt es nach ständiger Rechtsprechung des Bundesgerichtshofs entscheidend auf den Abstand an, den das neue Werk zu den entlehnten eigenpersönlichen Zügen des benutzten Werkes hält. Eine freie Benutzung setzt voraus, dass angesichts der Eigenart des neuen Werkes die entlehnten eigenpersönlichen Züge des geschützten älteren Werkes verblassen. In der Regel ist diese Voraussetzung erfüllt, wenn die dem geschützten älteren Werk entlehnten eigenpersönlichen Züge im neuen Werk zurücktreten, so dass die Benutzung des älteren Werkes durch das neuere nur noch als Anregung zu einem neuen, selbstständigen Werkschaffen erscheint […]. Durch Vergleich der sich gegenüberstehenden Werke ist zu ermitteln, ob und gegebenenfalls in welchem Umfang eigenschöpferische Züge des älteren Werkes übernommen worden sind. Maßgebend dabei ist ein Vergleich des jeweiligen Gesamteindrucks der Gestaltungen, in dessen Rahmen sämtliche übernommenen schöpferischen Züge in einer Gesamtschau zu berücksichtigen sind […]. (Rn. 25)

Die Anforderungen an ein selbstständiges Werk, das in freier Benutzung des Werkes eines anderen geschaffen worden ist und nach § 24 Absatz 1 Urheberrechtsgesetz ohne Zustimmung des Urhebers des benutzten Werkes veröffentlicht und verwertet werden darf, erfüllte die Modifizierung der Fotografie im zu entscheidenden Fall nach Einschätzung des Gerichts nicht (siehe Rn. 26). Vielmehr ging das Gericht von einer Bearbeitung nach § 23 Satz 1 Urheberrechtsgesetz aus, die nur mit Einwilligung des Urhebers des bearbeiteten oder umgestalteten Werkes veröffentlicht werden darf.

Von Web 1.0 zu Web 2.0



135

Das Gericht sprach der Klägerin daher insbesondere einen Anspruch aus Schadensersatz wegen der Verletzung des Rechts der Klägerin auf Vervielfältigung und öffentliche Zugänglichmachung des fremden Werkes zu (siehe Rn. 27).

Das Abonnieren von Blogs Die meisten Blogs verfügen über eine RSS-Anwendung, mit der die neuen Beiträge abonniert werden können. RSS steht dabei für Really Simple Syndication und bezeichnet ein standardisiertes Format zur Information über Änderungen an Webseiten. Ein RSS-Newsfeed versorgt („füttert“, daher der Name „feed“) seine Abonnenten automatisch mit Hinweisen auf neue Beiträge (Posts), ohne dass dafür die zugehörige Website aufgesucht werden muss. Der Abonnent braucht nur eine spezielle Software, den sogenannten Feedreader, der heute häufig in Browsern oder Mailprogrammen integriert ist. Newsfeeds werden neben Blogs auch häufig bei Websites von Tageszeitungen und Nachrichtenmagazinen eingesetzt.

Der RSS-Feed vor Gericht Auch dazu haben wir wieder einen juristischen Fall parat: Mit der Schlagzeile „Ex-RAF-Terroristin H. radelt in Freigang“ erregte vor einigen Jahren ein Informationsportal überregionale Aufmerksamkeit. Die in Luxemburg ansässige Portalbetreiberin bindet in einem automatisierten Verfahren über RSS-Dienste Nachrichten verschiedener Internetmedien in eine durchsuchbare Informationsplattform ein. Die markige Titelzeile, die Ausgangspunkt für den Rechtsstreit war, entstammte einem bebilderten Artikel, der über die Website www.bild.de verbreitet und auf der Grundlage eines Abonnementvertrages über ein RSSFeed ohne eigene redaktionelle Kontrolle durch die Betreiberin in das Informationsportal integriert worden war. Dass es sich nicht etwa um eine Berichterstattung der Betreiberin, sondern vielmehr um fremde Inhalte handelte, ließ sich dem Link auf den Artikel der Ursprungsseite entnehmen. Unter Hinweis auf die Beeinträchtigung ihres Persönlichkeitsrechts wandte sich Frau H. nach erfolgreicher Klage gegen den Verantwortlichen der Website bild.de auch gegen die Portalbetreiberin, die den Hinweis auf den Beitrag daraufhin entfernte. Sie weigerte sich jedoch, zusätzlich die entstandenen Rechtsanwaltskosten zu tragen. In letzter Instanz trat deshalb der VI. Zivilsenat des

136  2 Das World Wide Web als eine Anwendung des Internets

Bundesgerichtshofs zusammen und stand der Portalbetreiberin zur Seite. Er entschied mit seinem Urteil vom 27. März 2012, Aktenzeichen VI ZR 144/11: Der Betreiber eines Informationsportals, der wie die Beklagte [die Portalbetreiberin; Anmerkung der Verfasser] erkennbar fremde Nachrichten anderer Medien und Blogs ins Internet stellt, ist […] grundsätzlich nicht verpflichtet, die Beiträge vor der Veröffentlichung auf eventuelle Rechtsverletzungen zu überprüfen. Das würde den Betrieb des dem Informationsinteresse der Mediennutzer dienenden, auf schnelle und aktuelle Information ausgerichteten Informationsportals unzuträglich hemmen. Den Betreiber eines Informationsportals trifft deshalb erst dann eine Prüfpflicht, wenn er Kenntnis von der Rechtsverletzung erlangt. Weist ein Betroffener den Betreiber eines Informationsportals auf eine Verletzung seines Persönlichkeitsrechts durch den Inhalt einer in das Portal eingestellten Nachricht hin, kann der Betreiber des Portals […] verpflichtet sein, zukünftig derartige Verletzungen zu verhindern […]. (Rn. 19)

Erkennen Sie die Parallelen zur oben behandelten Weblog-Entscheidung? Durch die rechtzeitige Entfernung des Feeds von ihrer Informationsplattform musste sich die Portalbetreiberin auch keinem Unterlassungsanspruch ausgesetzt sehen und durfte auf Ersatz der Rechtsanwaltskosten nicht in Haftung genommen werden. In seinem Urteil vom 11. November 2014, Aktenzeichen VI ZR 18/14 hatte der Bundesgerichtshof Gelegenheit, sich noch einmal mit dem Fall der Ex-Terroristin zu befassen. Darin entschied das Gericht, dass die Betreiberin des Internetauftritts www.bild.de, über den auch das streitgegenständliche Bild als RSSFeed verbreitet worden war, trotz der wirksamen Erklärung, die weitere Verbreitung des Bildes zu unterlassen, nicht verpflichtet ist, RSS-Feed-Abonnenten, die das Bild vor Abschluss des Unterlassungsvertrages bezogen haben, von einer weiteren Veröffentlichung und Verbreitung abzubringen. Nach einem Beschluss des Hanseatischen Oberlandesgerichts vom 18. Februar 2015, Aktenzeichen 7 W 24/15 ist der durch gerichtliche Entscheidung zur Unterlassung der Verbreitung rechtswidriger Inhalte Verpflichtete hingegen unter den dort genannten Voraussetzungen gehalten, aktiv dafür zu sorgen, dass weitere Störungen der untersagten Art verhindert werden: Diese Verpflichtung erstreckt sich aber nur auf solche Störungen, die ihre Quelle im eigenen Einwirkungsbereich des Unterlassungsschuldners haben. So ist derjenige, der die von ihm zu unterlassende Äußerung in das Internet gestellt hat, aufgrund des Unterlassungstitels dazu verpflichtet, alles im Rahmen des ihm Möglichen zu unternehmen, um sie auch wieder aus dem Internet zu entfernen […]; deswegen kann der Schuldner, der einen Beitrag anderen Stellen zum Zweck der Veröffentlichung über deren Internetauftritte überlassen hat, aus dem Unterlassungstitel auch verpflichtet sein, im Rahmen des ihm Möglichen auf diese Stellen einzuwirken, den Beitrag von ihren Internetauftritten zu löschen. (Rn. 3)

Von Web 1.0 zu Web 2.0 

137

Das Oberlandesgericht Celle ergänzte dazu in seinem Urteil vom 29. Januar 2015, Aktenzeichen 13 U 58/14 noch die Pflicht, für eine Löschung der rechtswidrigen Inhalte zumindest aus dem Google-Cache zu sorgen: Der Schuldner eines Unterlassungsgebots hat durch geeignete Maßnahmen sicherzustellen, dass die durch die Unterlassungserklärung betroffenen Inhalte seiner Webseite nicht mehr im Internet aufgerufen werden können, weder über die Webseite direkt noch über eine Internetsuchmaschine […]. Dazu gehört es, nicht nur die betroffenen Inhalte durch Änderung oder Löschung der Webseite zu entfernen, sondern auch die Abrufbarkeit wenigstens über Google als die am häufigsten genutzte Suchmaschine im Internet auszuschließen […]. Dem Schuldner obliegt es dabei, zu überprüfen, ob die auf der Webseite entfernten Inhalte bzw. die gelöschten Webseiten noch über die Trefferliste dieser Suchmaschine aufgerufen werden können. In diesem Fall muss der Schuldner gegenüber Google den Antrag auf Löschung im Google-Cache bzw. auf Entfernung der von der Webseite bereits gelöschten Inhalte stellen. (Rn. 20)

Microbloggingdienste Eine spezielle Variante des Bloggens bieten Microbloggingdienste, auch Kurznachrichtendienste genannt, bei denen nur sehr kurze Beiträge in Text-, Fotooder Videoform gepostet werden können. Microblogging wird häufig von mobilen Endgeräten, meist Smartphones, aus eingesetzt und ist besonders zur Echtzeitübertragung von Nachrichten geeignet. Der bekannteste Anbieter ist Twitter, der 2006 unter dem Namen „twttr“ gegründet wurde und weltweit über 300 Millionen aktive Teilnehmer aufweisen kann. Bei Twitter sind die Beiträge, die Tweets genannt werden, auf eine bestimmte Zeichenzahl begrenzt. Im November 2017 wurde die bislang gültige, maximale Länge von 140 Zeichen auf 280 Zeichen verdoppelt. Tweets können Zustimmung erhalten, das heißt „geliked“ und geteilt werden. Einen weltweit beachteten Beitrag zum Bürgerjournalismus und damit weltweite Aufmerksamkeit für Twitter lieferte Twitterer Janis Krums im Januar 2009, als er vor allen anderen Medien überhaupt von der Notwasserung eines Airbus der U.S. Airways im Hudson River berichtete. Er tat das mit dem Tweet: There's a plane in the Hudson. I'm on the ferry going to pick up the people. Crazy. (Krums 2009)

Dazu sendete er noch ein Handyfoto von Passagieren, die, auf den Tragflächen verharrend, auf ihre Rettung warteten (siehe unter http://twitpic.com/135xa). In einem Bericht über das Ereignis bezeichnete der Redakteur des Nachrichtenma-

138  2 Das World Wide Web als eine Anwendung des Internets

gazins Spiegel online, Frank Patalong (2009), Twitter noch als „seltsamen Kurznachrichtendienst“. Derzeit werden täglich rund 6.000 Tweets pro Sekunde abgesetzt, um Meinungen, Gefühle oder Statusberichte an die digitale Welt zu versenden. Tweets können öffentlich oder geschützt verfasst werden. Bei geschützten Tweets können nur ausgewählte Twitterbenutzer den Tweet lesen. Jeder Tweet kann mit sogenannten Hashtags, die durch ein vorgestelltes „#“ (engl. hash) eingeleitet werden, frei beschlagwortet werden. Hashtags werden übrigens außer bei Twitter auch in vielen sozialen Netzwerken wie Facebook unterstützt; sie sind dort aber weit weniger populär als bei Twitter. In Deutschland erlangte der Twitter-Hashtag „#aufschrei“, in dem Frauen von ihren Erfahrungen mit alltäglichem Sexismus berichteten und dafür den Grimme Online Award erhielten, 2013 einen größeren Bekanntheitsgrad. Der Hashtag #MeToo wurde dann ab 2017 international von Frauen tausendfach verwendet, um auf das Ausmaß sexueller Belästigungen und sexueller Gewalt aufmerksam zu machen. Einzelne Twitter-Accounts können verfolgt und deren Nachrichten durch sogenannte Follower abonniert werden. Papst Franziskus hat – auf Twitter – 2018 rund 18 Millionen, Ex-US-Präsident Barack Obama 103 Millionen Follower. Mit 109 Millionen Followern ist die US-amerikanische Sängerin Kate Perry die Twitterkönigin, was auch ein Indiz für das niedrige Durchschnittsalter der Twitterer sein dürfte. Neben persönlichen Twitterkonten sind institutionelle Accounts weit verbreitet. So unterhalten zum Beispiel Zeitungen und Nachrichtensendungen ebenso eigene Twitter-Accounts wie Unternehmen und Vereine. Den CNN Breaking News folgen 55 Millionen Twitterer, der New York Times 42 Millionen und der NASA 12 Millionen. Viele soziale Netzwerke haben Microbloggingdienste bereits integriert, die ihre Nutzer zu aktuellen Statusnachrichten einladen. Bei größeren Konferenzen und Vorträgen werden gelegentlich auch sogenannte Twitterwalls eingesetzt. Twitterwalls sind virtuelle schwarze Bretter für die Tweets, die zu einer bestimmten Veranstaltung gepostet und auf diesem Wege in die Liveveranstaltung eingebunden werden. Dazu wird ein vorher vereinbarter Hashtag genutzt. Abkürzungen und Akronyme im Netzjargon sind nicht nur unter Microbloggern beliebt. Sie eignen sich dort jedoch bestens für die zeichenlimitierte Kommunikation: „lol“ für „laughing out loud“, „imho“ für „in my humble opinion“ oder „H4T5“ für „home for tea at 5“. Weil die oft über 140 Zeichen hinausgehende Länge der URLs für Mikronachrichten problematisch ist, wurden mit dem Aufkommen von Twitter KurzURL-Dienste sehr beliebt. Kurz-URL-Dienste (engl. URL Shortener) verkürzen

Von Web 1.0 zu Web 2.0



139

URLs durch eine relativ simple Weiterleitungsfunktion auf eine Zeichenkette von nur noch rund 20 Buchstaben. Twitter hat seinen Kurz-URL-Dienst t.co in seinen Microbloggingdienst integriert, so dass Links, die auf Twitter geteilt werden, automatisch zu einem http://t.co-Link abgekürzt werden. Die Verwendung von Kurz-URLs ist zwar praktisch, birgt aber auch Sicherheitsrisiken, zum Beispiel im Falle eines Hackerangriffs auf die Weiterleitungskonkordanzen der Anbieter. 2009 manipulierten Hacker die Datenbank des Kurz-URL-Dienstes Cli.gs und leiteten alle gespeicherten 2,2 Millionen URLs auf eine einzige Webadresse um, um die Verwundbarkeit dieses Services zu demonstrieren. Doch der Sicherheitsaspekt ist nicht das einzige Problem bei Kurz-URLs: Sollte ein Anbieter zum Beispiel aus wirtschaftlichen Gründen seinen Dienst einstellen, werden alle Kurz-URLs nicht mehr auf ihre Ziele umgeleitet; die Links gehen sprichwörtlich ins Leere.

140 (280) Zeichen vor Gericht Auch wenn es nur wenige Zeichen sind: Das Urheberrecht hat selbst beim Microblogging seine Finger im Spiel. Ist die geistige Schöpfungshöhe, das Mindestmaß an persönlich-individuellem, geistigem Schaffen, erreicht, genießen auch kurze Tweets urheberrechtlichen Schutz. Mit der Kürze des Textes steigen allerdings die Anforderungen an dessen Originalität. Über einfache Redewendungen soll der Schutzmantel des Urheberrechts nicht gelegt werden, um ihre Gebrauchsfähigkeit im Alltag zu erhalten. Nur eine überschaubare Anzahl von Gerichtsentscheidungen hat sich allerdings mit dieser Frage in der Vergangenheit befasst. Dem Landgericht Bielefeld lag zur Entscheidung vor, ob der Tweet „Wann genau ist aus ‚Sex, Drugs & Rock n Roll‘ eigentlich ‚Laktoseintoleranz, Veganismus und & Helene Fischer‘ geworden?“ urheberrechtlichen Schutz genießt. Immerhin hatte er es nach Veröffentlichung auf eine kommerziell vertriebene Postkarte geschafft. Das Landgericht sprach dem Tweet jedoch in seinem Beschluss vom 03. Januar 2017, Aktenzeichen 4 O 144/16 einen urheberrechtlichen Schutz ab: Sprachwerke sind alle persönlichen geistigen Schöpfungen, deren Inhalt durch eine Sprache als Ausdrucksmittel geäußert wird […]. Damit das Schriftwerk urheberrechtlichen Schutz genießt, bedarf es grundsätzlich einer gewissen Schöpfungshöhe, die bei unterschiedlichen Werkarten unterschiedlich hoch angesetzt wird […]. (Rn. 5) […] Zwar setzt ein urheberrechtlich geschütztes Werk grundsätzlich keinen Mindestumfang voraus. Die Kürze einer Äußerung kann jedoch als Indiz gegen den Urheberrechtsschutz sprechen. Kurze Äußerungen bieten häufig nicht genug Gestaltungsspielraum, um

140  2 Das World Wide Web als eine Anwendung des Internets

die notwendige Schöpfungshöhe für den Urheberrechtsschutz zu erreichen […]. […] Je länger ein Text ist, desto größer sind die Gestaltungsmöglichkeiten, so dass umso eher eine hinreichende eigenschöpferische Prägung erkannt werden kann. […] (Rn. 6) Ähnlich wie bei Werbeaussagen sind bei der von dem Antragsteller gewählten Ausdrucksform als Tweet strenge Anforderungen an den urheberrechtlichen Schutz zu stellen. Der kurze Text, der aus einem einzelnen Satz besteht, bedient sich der Alltagssprache. Der notwendige Grad der Gestaltungshöhe wird durch die bloße Anordnung, Verknüpfung und Gegenüberstellung des allgemein bekannten und seit Jahrzehnten verwendeten Begriffs „Sex, Drugs an Rock n Roll“ [sic!] mit schlagwortartigen Begriffen aus dem alltäglichen und aktuellen Sprachgebrauch nicht erreicht. Der damit verbundene Sprachwitz genügt nicht, um die notwendige Gestaltungshöhe und einen Urheberrechtsschutz als Sprachwerk zu begründen. Vielmehr entspricht der „Tweet“, der in dem sozialen Medium Twitter abgesetzt worden ist, einem urheberrechtlich nicht schutzfähigen bloßen Slogan. (Rn. 7)

Die Entscheidung des Landgerichts Bielefeld fand in der rechtswissenschaftlichen Diskussion ein geteiltes Echo. Vielleicht verhilft die Verdopplung der zulässigen Zeichenzahl künftig dem einen oder anderen Texter zu Ruhm und urheberrechtlichem Schutz? Für den Re-Tweet kommt uns die konkludente, das heißt die durch schlüssiges Verhalten erteilte Einwilligung des Urhebers zupass. Bereits mit Veröffentlichung eines Tweets ist nach dieser Lesart die Zustimmung des Absenders verbunden, dass seine Äußerung, wie es für Social Media und vornehmlich Microbloggingdienste charakteristisch ist, aufgenommen und insbesondere im ReTweet weiterverwendet wird. Anderenfalls ließen sich die Aktivitäten zum Beispiel auf Twitter, die auf schnelle und möglichst große Verbreitung gerichtet sind, kaum urheberrechtskonform entfalten. Ein Tweet, der nicht als Re-Tweet erkennbar ist, kann aber eine Verletzung des Rechts des Urhebers auf Anerkennung seiner Urheberschaft darstellen. Zu einer gänzlich anderen Konstellation kommen wir nun, die wir in der, soweit ersichtlich, ersten Entscheidung eines deutschen Gerichts zur Nutzung von Twitter antreffen: Im Jahre 2010 entschied das Landgericht Frankfurt am Main in einer einstweiligen Verfügung mit Beschluss vom 20. April 2010, Aktenzeichen 3-08 O 46/10, dass das mit Zustimmung begleitete Verlinken über einen Twitter-Account auf Websites, die unerlaubte Äußerungen enthalten, rechtswidrig ist. Den Antrag hatte ein Unternehmen, über das ein anonymer, nicht identifizierbarer Nutzer in verschiedenen Foren wahrheits- und wettbewerbswidrige sowie kreditgefährdende Behauptungen verbreitete, gestellt. Ein früherer Geschäftspartner verlinkte aus seinen Twitter-Accounts heraus auf die Beiträge und versah, obwohl ihm die Unwahrheit der Behauptungen bekannt war, seine Links mit zustimmenden, den Ruf des Unternehmens zusätzlich schädi-

Von Web 1.0 zu Web 2.0



141

genden Anmerkungen. Der Antragsgegner fügte seinen Links unter Nennung des Unternehmenskennzeichens den Kommentar „sehr interessant“ zu. Damit gab er eine Empfehlung für die Lektüre und lenkte die Aufmerksamkeit seiner Leser gezielt auf die wahrheits- und wettbewerbswidrigen Behauptungen. Das Gericht erkannte die bei Twitter gehosteten (Profil-)Seiten als mit übrigen Websites vergleichbar an und sah in dem Verhalten des ehemaligen Geschäftspartners ein Zueigenmachen der wahrheits- und wettbewerbswidrigen Aussagen. Es rechnete dem Antragsgegner die verlinkten, rechtswidrigen Inhalte zu und bejahte eine Haftung für die Rechtsverletzung. Nach der Rechtsprechung genügt mitunter für das Zueigenmachen sogar eine kommentarlose oder mit neutraler Anmerkung versehene Verlinkung. Die Haftung kann zum Beispiel im Falle eines Re-Tweets bereits durch das aktive Setzen eines Links ausgelöst werden, wenn anzunehmen ist, dass der verlinkende Nutzer den Inhalt zur Kenntnis genommen hat und durch seinen Link aktiv zu fördern beabsichtigt. Fügt der Nutzer seinem Link hingegen einen Kommentar bei, mit dem er sich vom verlinkten Inhalt erkennbar distanziert, ist die Haftung in der Regel abzulehnen.

Wikis Ein Wiki ist ein Hypertext-System, in dem von mehreren Benutzern Inhalte im Internet direkt über den Webbrowser gemeinsam, das heißt kollaborativ, generiert und editiert werden können. Die Bezeichung Wiki kommt aus dem Hawaiianischen und bedeutet „schnell“. Das bekannteste Wiki ist sicherlich die Onlineenzyklopädie Wikipedia. Die erste Wikisoftware, das „WikiWikiWeb“, stammte vom US-amerikanischen Programmierer Ward Cunningham und wurde von ihm konzipiert, um die Kommunikation und Dokumentation bei der Softwareentwicklung effizienter zu gestalten. Im März 1995 stellte er seine Software der Internetgemeinde kostenfrei zur Verfügung. Wikis sind vielseitig einsetzbar: Von ihrer Bedeutung als Infrastruktur für die Onlineenzyklopädie abgesehen, haben sie u.a. als Instrument zum gemeinschaftlichen Dokumentieren von wissenschaftlichen Plagiaten wie zum Beispiel durch die Plagiatsdokumentation Vroniplag Wiki eine gewisse Bekanntheit erlangt. An dieser Plagiatsdokumentation lässt sich das Prinzip der Schwarmintelligenz, das im Zusammenhang mit dem Social Web häufig diskutiert wurde, veranschaulichen: Gemeint ist nicht, dass eine große Zahl von Menschen intelligenter ist als ein Individuum. Vielmehr wird unter dem Begriff verstanden, dass eine Gruppe von Menschen, die mit einer geeigneten Infrastruktur zu-

142  2 Das World Wide Web als eine Anwendung des Internets

sammenarbeitet, bei einem konkreten Projekt ein wesentlich besseres Ergebnis erzielt als ein Einzelner (siehe Lobo 2013).

Das Wiki vor Gericht Auch das Wiki hat es vor Gericht schon weit gebracht. Dazu schauen wir wieder nach Karlsruhe und Luxemburg: Am 01. Juni 2017 hat der Bundesgerichtshof zu einem Sachverhalt, der politisch hohe Wellen geschlagen hat, einen Beschluss zur Vorlage an den Europäischen Gerichtshof, Aktenzeichen I ZR 139/15 gefasst. In dem Fall ging es um militärische Lageberichte der Bundeswehr zur Unterrichtung des Bundestages über die Sicherheitslage insbesondere in Afghanistan in den Jahren von 2005 bis 2012. Die damalige WAZ-Mediengruppe veröffentlichte die Dokumente, die als sogenannte Afghanistan-Papiere bekannt wurden, auf der Website derwesten-recherche.org. Die Lageberichte unterlagen als Unterrichtungen des Parlaments (UdP) allerdings der Geheimhaltung. Wer die rund 5.000 Scans der geheimen Dokumente dem Verlag übermittelt hat, ist nicht bekannt. Ihre Scanqualität war unzureichend. Zudem waren die Dateien nicht durchsuchbar. Die WAZ-Mediengruppe sah sich aus Kapazitätsgründen nicht in der Lage, die Dokumente in Eigenregie auszuwerten. Sie kam deshalb auf die Idee, von der Schwarmintelligenz ihrer Leser zu profitieren. Sie stellte die Transkripte zu den Dokumenten über ein von ihr betriebenes Wiki zur Verfügung und ermunterte ihre Leser, anhand der veröffentlichten Scans mögliche Fehler und Lücken in den Transkripten zu korrigieren sowie neue, bei der Lektüre gewonnene Erkenntnisse über eine anonyme Kontaktfunktion der Mediengruppe mitzuteilen: Die Afghanistan Papiere Jahrelang wurde der deutschen Öffentlichkeit der Krieg in Afghanistan als Friedenmission verkauft. Tatsächlich aber sind die deutschen Soldaten in Afghanistan mitten in einem Krieg, der kaum noch zu gewinnen ist. Dabei riskieren sie ihr Leben im Auftrag des deutschen Bundestages für einen korrupten Staat, dessen Herrscher in Drogenmachenschaften verwickelt sind. Wir veröffentlichen hier einige tausend Seiten aus den Einsatzberichten der Bundeswehr. Diese so genannten „Unterrichtungen des Parlamentes“ sind „VS – nur für den Dienstgebrauch“ gestempelt. Das ist die niedrigste von vier Geheimhaltungsstufen der Bundesrepublik. Sie beschreiben alle Einsätze der Bundeswehr in der ganzen Welt – vor allem in Afghanistan. Die Berichte wurden uns zugespielt; sie liegen teilweise nur in schlechter Qualität vor – deswegen brauchen wir Ihre Hilfe.

Von Web 1.0 zu Web 2.0 

143

Editieren Sie die Berichte: Bei der datentechnischen Verarbeitung der Berichte sind viele Seiten fast unlesbar geworden. Deswegen können die Seiten in einer Volltextsuche nicht erkannt werden. Und wir können keine weiteren Auswertungen veranlassen. Helfen Sie mit, indem Sie die Transkripte einzelner Seiten von Hand verbessern und so die Texte in unserem Wiki ergänzen oder Fehler beseitigen. Rot sind die schlecht lesbaren Seiten, grün die fertig editierten. Geben Sie Hinweise: Sagen Sie uns Bescheid, wenn Ihnen eine Besonderheit in den Berichten auffällt, eine Auslassung, ein falsch dargestellter Sachverhalt oder eine bislang untergegangene Tatsache. Nutzen Sie unsere anonyme Kontaktfunktion oder schreiben Sie uns unter recherche (at) waz.de eine Email. Oder teilen Sie Ihre Hinweise über Twitter oder Facebook. Diskutieren Sie mit: Über die Kommentarfunktion können Sie mitreden; welche Schlüsse müssen wir aus den Berichten ziehen? Welche Maßnahmen sind in Zukunft richtig? (WAZ-Mediengruppe 2012)

Unter Mitwirkung seiner Leser wollte das Verlagshaus auch ermitteln, inwiefern sich die Unterrichtungen des Parlaments von den in gekürzter Form für die Allgemeinheit durch das Bundesministerium der Verteidigung bereitgestellten Unterrichtungen der Öffentlichkeit (UdÖ) unterschieden. Der Verlag erhoffte sich davon neue Impulse für die journalistische Berichterstattung. Die Bundesrepublik Deutschland klagte auf Unterlassung der Veröffentlichung. Sie machte die Verletzung von Urheberrechten geltend und versuchte, ihrem Geheimhaltungsinteresse auf dem Umweg über das Urheberrechts zur Geltung zu verhelfen. In den Vorinstanzen hatte die Klägerin Erfolg, denn die WAZ-Mediengruppe konnte sich nach Einschätzung der Gerichte für ihr Vorgehen nicht auf die Schrankenregelungen des Urheberrechtsgesetzes berufen. Sie wurde deshalb verpflichtet, die Dokumente zu depublizieren. So bestätigte das Oberlandesgericht Köln in seinem Urteil vom 12. Juni 2015, Aktenzeichen I-6 U 5/15, 6 U 5/15 die vorausgegangene Entscheidung des Landgerichts hinsichtlich der Unanwendbarkeit der Schrankenbestimmungen im konkreten Fall: Das Landgericht hat zutreffend festgestellt und ausführlich begründet, dass weder eine Berichterstattung über Tagesereignisse im Sinne von § 50 UrhG vorliegt noch ein zulässiges Zitat im Sinne von § 51 UrhG gegeben ist, wenn sich das Internetportal eines Zeitungsverlages darauf beschränkt, die militärischen Lageberichte in systematisierter Form einzustellen und zum Abruf bereitzuhalten; […]. (Rn. 38)

Der schließlich ebenfalls mit dem Rechtsstreit befasste Bundesgerichtshof hat sich an den Europäischen Gerichtshof gewandt. Er bat ihn um Klärung, ob mit Rücksicht auf das große öffentliche Interesse an der öffentlichen Zugänglichmachung der Unterlagen den Grundrechten der Pressefreiheit und Informationsfreiheit nicht auch außerhalb des Systems der gesetzlich normierten Schrankenbestimmungen des Urheberrechts Rechnung getragen werden könne. Er legte

144  2 Das World Wide Web als eine Anwendung des Internets

dem Gericht unter anderem mit Bezug zur EU-Grundrechtecharta deshalb die Frage vor, [ob] die Grundrechte der Informationsfreiheit […] oder der Pressefreiheit […] Ausnahmen oder Beschränkungen des ausschließlichen Rechts der Urheber zur Vervielfältigung […] und zur öffentlichen Wiedergabe einschließlich der öffentlichen Zugänglichmachung […] ihrer Werke außerhalb der in […] der Richtlinie 2001/29/EG vorgesehenen Ausnahmen oder Beschränkungen rechtfertigen. (Rn. 37)

Eine Entscheidung dazu ist in Luxemburg noch nicht gefallen. Das Verfahren ist beim Europäischen Gerichtshof als Rechtssache C-469/17 anhängig. Das Portal, das der Veröffentlichung der Dokumente diente, war 2010 von der damaligen WAZ-Mediengruppe ins Leben gerufen worden. Nach Angaben des Verlagshauses handelte es sich in Deutschland um die erste Plattform dieser Art, die Lesern die Möglichkeit zum anonymen Upload von Dokumenten eröffnete, die zum Ausgangspunkt für journalistische Recherchen und Berichterstattungen werden sollten (näher dazu Kramp et al. 2013). Von der Whistleblower-Plattform Wikileaks als Pionier der Enthüllungsplattformen, die „einen Boom an weiteren Leaking-Plattformen“ (Oswald 2013, S. 75) ausgelöst hatte, grenzte sich der Verlag jedoch ab. Es ginge nicht darum, massenhaft Informationen zu sammeln und sie ungeprüft online zugänglich zu machen. Vielmehr sei das Ziel, Recherchehinweise auf Vorgänge zu erhalten, die Gegenstand einer journalistischen Berichterstattung werden könnten (Der Westen 2010). Mittlerweile ist die Website nicht mehr erreichbar.

Webforen Virtuelle Räume zum asynchronen Austausch von Meinungen und Erfahrungen, zur Diskussion oder zur Gewährung von Rat und Hilfestellungen werden als Internetforen, Webforen oder Onlineforen bezeichnet. Meist sind Foren hierarchisch nach Themengebieten untergliedert. Ein Thema wird Topic oder Thread (dt. Gesprächsfaden) genannt. Mit der Erstellung eines Threads durch einen Forenteilnehmer beginnt eine neue Diskussion, an der sich die anderen Forenteilnehmer schriftlich beteiligen können. Die Threads werden von der Forensoftware archiviert und bleiben so über einen längeren Zeitraum nachlesbar. Internetforen widmen sich häufig sehr speziellen Themen und werden daher für den sachbezogenen Austausch verwendet. Häufige Sujets sind Autos, Medien, Sport, Kochen, Reisen oder Haustiere. Sehr verbreitet sind Supportforen, in denen sich Hilfesuchende Rat von erfahrenen Forenteilnehmern erhoffen, zum Beispiel bei Problemen im IT-Bereich. Beispiele für Internetforen sind

Von Web 1.0 zu Web 2.0



145

motor-talk.de (Autos) oder computerbase.de. Moderiert werden Foren von einem oder mehreren Administratoren, die auch die Einhaltung der Diskussionsregeln überwachen.

Zwei Foren im Rechtsstreit Zur Frage, ob bzw. wann ein Forumsbetreiber für rechtswidrige Inhalte, die Dritte in sein Forum eingebracht haben, haftet, kommt unser nächster Fall wie gerufen: Unter www.marions-kochbuch.de stellte der Kläger gemeinsam mit seiner Frau Kochrezepte, begleitet von kulinarischer Fotografie, zum kostenlosen Abrufen bereit. Die beklagte Portalbetreiberin sammelte unter www.chefkoch.de Rezepte, die ihr überwiegend von Privatpersonen zur Verfügung gestellt und vor der Freischaltung von ihr auf Richtigkeit, Vollständigkeit und professionelle Bebilderung geprüft wurden. Sowohl die Rezepttexte als auch die Bilder bot die Beklagte darüber hinaus zur weiteren kommerziellen Verwertung an. Der Kläger beanstandete, dass wiederholt von ihm erstellte Fotografien ohne sein Wissen und ohne seine Zustimmung in der Rezeptesammlung der Beklagten aufgenommen worden seien. Er begehrte eine Verurteilung der Beklagten, es insbesondere zu unterlassen, unter www.marions-kochbuch.de abrufbare Fotos ganz oder in Teilen unter www.chefkoch.de öffentlich zugänglich zu machen. Der Rechtsstreit wurde – auf den ersten Blick vielleicht etwas verblüffend – bis zum Bundesgerichtshof getragen. Dieser musste die Frage klären, ob die Betreiberin des Webangebots www.chefkoch.de für die durch Dritte eingestellten, rechtswidrigen Inhalte zur Haftung für eigene Inhalte herangezogen werden konnte. Dazu befand der Bundesgerichtshof in seinem Urteil vom 12. November 2009, Aktenzeichen I ZR 166/07: […] Eigene Inhalte sind nicht nur selbst geschaffene, sondern auch solche Inhalte, die sich der Anbieter zu Eigen gemacht hat. Maßgeblich ist dafür eine objektive Sicht auf der Grundlage einer Gesamtbetrachtung aller relevanten Umstände […]. (Rn. 23) […] Das Berufungsgericht hat ausgeführt, dass dem verständigen Internetnutzer der Eindruck vermittelt worden sei, die Beklagte […] mache sich den Inhalt der von ihren Nutzern hochgeladenen Rezepte und Bilder zu Eigen. Das hält der Nachprüfung durch das Revisionsgericht stand. Die Beklagte […] betreibt nicht lediglich eine Auktionsplattform […] oder einen elektronischen Marktplatz, auf denen fremde Inhalte eingestellt werden. Sie hat vielmehr tatsächlich und nach außen sichtbar die inhaltliche Verantwortung für die auf ihrer Internetseite veröffentlichten Rezepte und Abbildungen übernommen. (Rn. 24)

146  2 Das World Wide Web als eine Anwendung des Internets

[…] Zwar hat die Beklagte […] die vom Kläger gefertigten Lichtbilder weder selbst ohne seine Zustimmung von dessen Internetseite heruntergeladen noch ihre Nutzer dazu veranlasst. Sie hat diese Bilder aber nebst den jeweiligen Rezepten nach einer redaktionellen Kontrolle als eigenen Inhalt auf ihrer Internetseite öffentlich zugänglich gemacht. Ohne Rechtsfehler hat das Berufungsgericht angenommen, dass die Internetnutzer die Kochrezepte nebst Fotografien infolge der Kennzeichnung der Rezepte wie auch etwa der Abbildung „Sigara Böregi“ mit dem Kochmützen-Emblem der Beklagten […] zuordneten. Dabei ist auch zu berücksichtigen, dass Nutzer, die ein bestimmtes Rezept verwenden wollen, es regelmäßig für den Gebrauch in der Küche ausdrucken werden. In der Druckansicht erscheint das Rezept aber unter dem „Chefkoch-Emblem“, das wesentlich größer gestaltet ist als die als Aliasname verschlüsselte Verfasserangabe (z.B. b. oder T.) unter der Zutatenliste. (Rn. 25) Dafür, dass sich die Beklagte […] die Rezepte und Abbildungen zu eigen gemacht hat, spricht ferner, dass die Kochrezepte den redaktionellen Kerngehalt der Internetseite „www.chefkoch.de“ bilden und dass die Beklagte […] in ihren Nutzungsbedingungen auf die vor dem Einstellen in das Internet durchgeführte Kontrolle der Rezepte durch ihre Redaktion hinweist. Rezepte und Fotografien wurden also keineswegs ohne inhaltliche Kontrolle automatisch freigeschaltet. Zudem hat die Beklagte […] in ihren Allgemeinen Geschäftsbedingungen das Einverständnis ihrer Nutzer damit verlangt, dass alle von ihnen zur Verfügung gestellten Daten (Rezepte, Bilder, Texte usw.) von „Chefkoch“ selbst oder durch Dritte vervielfältigt und in beliebiger Weise weitergegeben werden dürfen. Ferner hat sie die Rezepte auch Dritten zur weiteren kommerziellen Nutzung angeboten. (Rn. 26) […] Unter diesen Umständen hat es das Berufungsgericht mit Recht als unerheblich angesehen, dass die Nutzer die Herkunft der Rezepte, die nicht von der Beklagten […] als der Betreiberin der Internetseite, sondern von Dritten stammten, erkennen konnten. Bei einer Gesamtbetrachtung reicht angesichts der inhaltlichen Kontrolle durch die Beklagte […] sowie der Art der Präsentation der Hinweis auf den unter einem Aliasnamen auftretenden Einsender des Rezepts nicht aus, um aus der Sicht eines objektiven Nutzers eine ernsthafte und genügende Distanzierung des Diensteanbieters von den auf seiner Webseite eingestellten Inhalten deutlich zu machen. Allein die Kenntlichmachung eines fremden Inhalts als solchen schließt dessen Zurechnung zu dem Anbieter nicht zwingend aus […]. Bei Internetportalen wie im Streitfall ist in aller Regel ohne weiteres erkennbar, dass es sich um Beiträge handelt, die nicht vom Provider, sondern von Dritten stammen. Indem die Beklagte […] eine Kontrolle hinsichtlich der Vollständigkeit und Richtigkeit der Rezepte ausübt, die Beiträge in ihr eigenes Angebot integriert und unter ihrem Emblem veröffentlicht, erweckt sie den zurechenbaren Anschein, sich mit den fremden Inhalten zu identifizieren und sich diese zu eigen zu machen […]. Im Streitfall lässt sich die Beklagte […] sogar gemäß Nummer 1 ihrer Allgemeinen Geschäftsbedingungen umfassende Nutzungsrechte einräumen und bietet Dritten an, die Beiträge und Abbildungen kommerziell zu nutzen. Damit ordnet sie sich diese auch wirtschaftlich zu. Sie beschränkt sich nicht lediglich auf eine technische Vermittlerrolle. (Rn. 27)

Die Beklagte haftete mithin für eine eigene widerrechtliche Werknutzung. Der Kläger hatte mit seiner Klage Erfolg.

Von Web 1.0 zu Web 2.0



147

Ein für diese Haftung vorausgesetztes Zueigenmachen fremder Inhalte kann auch zum Beispiel durch beipflichtende Äußerungen hervorgerufen werden. Anders sieht es bei fremden Inhalten, die dem Forumsbetreiber nicht zugerechnet werden können, aus. Ob es sich um fremde, nicht zuzurechnende Inhalte handelt, bestimmt sich, wie der Bundesgerichtshof ausgeführt hat, nach einer objektiven Betrachtung. Voraussetzung ist, dass von außen eindeutig erkennbar ist, dass es sich um Fremdinhalte handelt und sich der Forumsbetreiber davon distanziert. Das Landgericht Hamburg formulierte es in einem Urteil vom 27. April 2007, Aktenzeichen 324 O 600/06 wie folgt: Eine Grenze der Zurechnung ist allenfalls dann erreicht, wenn durch das Umfeld, in dem die jeweilige Information steht, hinreichend deutlich wird, dass es sich dabei um eine solche Äußerung handelt, deren Verbreitung trotz ihrer Aufnahme in den Internetauftritt der Inhaber der Domain gerade nicht wünscht. Das setzt voraus, dass der Betreiber der Internetseite sich von der betreffenden Äußerung nicht pauschal, sondern konkret und ausdrücklich distanziert. (Rn. 38)

Ob ein sogenannter Disclaimer, das heißt ein Hinweis darauf, dass der Forumsbetreiber keine Haftung für die Inhalte seines Forums übernimmt, die Haftung wirksam ausschließen kann, hat das Oberlandesgericht München in einem recht frühen Urteil vom 15. Mai 2002, Aktenzeichen 21 U 5569/01 zu Beginn der 2000er Jahre geprüft. Zu Äußerungen in einem Diskussionsforum entschied es: Ein Ausschluss der Haftung [kommt] allenfalls und auch nur unter Umständen in Betracht, wenn der Nutzer die Seiten nur über den Disclaimer erreichen kann oder wenn jede Seite einen deutlichen direkten Text zum Haftungsausschluss [enthält]. Dabei ist zu bedenken, dass grundsätzlich nur ein vertraglicher Haftungsausschluss möglich wäre, nicht ein solcher ggü. geschädigten Dritten […]. Deshalb bestünde allenfalls die Möglichkeit, in einem deutlich angebrachten Disclaimer eine ausreichende Distanzierung zu sehen. […] Allein aus dem Charakter [eines] Angebots als Meinungsforum kann eine hinreichende Distanzierung nicht entnommen werden, […]. (Rn. 16)

Für fremde Inhalte träfe den Forumsbetreiber eine – schon in Kapitel 1 erwähnte – Störerhaftung bei Kenntnis von einer Rechtsverletzung.

Soziale Netzwerke Analoge soziale Netzwerke sind allgemein bekannt: Vereine, Interessengemeinschaften, Stammtische oder Selbsthilfegruppen bilden eine Gruppe von Personen, die miteinander in Kontakt treten. Diese teilen meist ein gewisses Interesse und suchen in der Gemeinschaft nach Sinnstiftung durch gemeinsame

148  2 Das World Wide Web als eine Anwendung des Internets

Interessenvertretung, gegenseitige Unterstützung, Erfahrungsaustausch, Integration oder Selbstklärung. Ab ungefähr der Jahrtausendwende begannen vereinzelt Unternehmen damit, digitale soziale Netzwerke als Webplattformen zu entwickeln. Bekannt wurden MySpace, Lokalisten, StayFriends, StudiVZ, Facebook oder Google Plus. In einem internetbasierten sozialen Netzwerk bilden die registrierten Teilnehmer eine Onlinegemeinschaft, in der sie zum Beispiel mit Kurznachrichten oder im Chat kommunizieren und Fotos, Videos und sonstige Inhalte als für die breite Öffentlichkeit oder nur für bestimmte Mitglieder, sogenannte „Freunde“ bei Facebook oder „Kreise“ bei Google Plus, einsehbare Informationen auf der eigenen Profilseite einstellen. Auf einzelne Inhalte kann auch außerhalb des Netzwerkes zugriffen werden. Die Studie EU Kids Online II aus dem Jahre 2011 legte offen, dass lediglich 43 Prozent der befragten Jugendlichen im Alter von 9 bis 16 Jahren, die ein eigenes Profil in einem der sozialen Netzwerke pflegen, den Zugriff darauf durch sogenannte Privacy Settings (dt. Datenschutzeinstellungen) auf Freunde beschränken. 26 Prozent EU-weit, in Deutschland immerhin 22 Prozent hingegen ermöglichen einen ungehinderten Zugriff. 28 Prozent schränkten den Zugriff auf Freunde von Freunden und Netzwerken ein (siehe Livingstone et al. 2011, S. 38). Die Kommunikation auf Facebook richtet sich häufig nicht an einen bestimmten Empfänger, sondern an den gesamten Onlinefreundeskreis bzw. das ganze Netzwerk. Sie wird oftmals auf minimale Gesten reduziert, wie zum Beispiel auf den „Gefällt mir“-Button bei Facebook, um Kenntnisnahme oder Zustimmung zu signalisieren. Durch die Verknüpfung verschiedener Profile entsteht ein „weitverzweigtes Beziehungsgeflecht“ (Hilgert und Greth 2014, S. 91). Facebook, das mittlerweile weltweit größte soziale Netzwerk, breitete sich seit seiner Gründung 2004, ausgehend von US-amerikanischen Universitäten, rasch über den gesamten Erdball aus und hat heute über zwei Milliarden Mitglieder. Wegen seiner undurchsichtigen Datenschutzpraxis ist es immer wieder zum Gegenstand der Kritik von Verbraucherschützern und IT-Experten geworden. Kritische Stimmen wie zum Beispiel vom Chaos Computer Club e.V. sahen Facebook schon vor Jahren eher als eine gigantische Werbeplattform (siehe Garber und Kurz 2011). Tatsächlich sind es auch die Möglichkeiten der personalisierten Werbung, durch die das Unternehmen Facebook Inc., das 2012 an die Börse ging, 2018 einen Börsenwert von über 500 Milliarden US-Dollar aufweisen kann. Soziale Netzwerke werden nicht nur von Privatpersonen, sondern auch von Unternehmen, staatlichen wie nichtstaatlichen Organisationen, Politikern und anderen Personen des öffentlichen Lebens zur Öffentlichkeitsarbeit genutzt. Auch Massenmedien nutzen mittlerweile die Kommunikationskanäle der sozia-

Von Web 1.0 zu Web 2.0



149

len Netzwerke. Kritisch muss in diesem Zusammenhang die Verwendung von Social Bots gesehen werden. Social Bots sind Programme, die in sozialen Netzwerken vorgeben, natürliche Personen zu sein, und auf bestimmte Schlagworte oder Hashtags reagieren, unter anderem, um eine bestimmte Meinung zu posten oder Werbung zu verbreiten. Einige soziale Netzwerke haben sich spezialisiert. Zur Pflege und zum Aufbau von geschäftlichen Kontakten und Austausch von Fachleuten wurden die Plattformen LinkedIn, Xing und Viadeo als sogenannte Karrierenetzwerke gegründet. Die Netzwerke Instagram, Pinterest und Flickr sind spezialisiert auf den Austausch von Fotos und Videos. In den letzten Jahren haben sich auch soziale Netzwerke für Wissenschaftler etabliert. Auf ResearchGate, Mendeley oder Academic.edu können Wissenschaftler, zum Teil auch Studierende, sich selbst vorstellen, ihre Forschungsergebnisse platzieren und sich darüber mit Fachkollegen austauschen oder zusammen mit Co-Autoren gemeinsam an neuen Veröffentlichungen arbeiten. Anhand von statistischen Auswertungen können sie erkennen, wie oft ihre Veröffentlichungen von welcher Personengruppe aufgerufen wurden. Im Umfeld des Wissensmanagements lassen sich erste Bemühungen von Informationseinrichtungen erkennen, an wissenschaftlichen sozialen Netzwerken teilzunehmen, darin Mehrwertdienstleistungen für die eigenen Nutzer anzubieten oder wissenschaftliche soziale Netzwerke selbst zu initiieren. Gerade bei der Nutzung dieser Netzwerke ergeben sich verstärkt urheberrechtliche Probleme, sobald zum Beispiel wissenschaftliche Publikationen ohne Zustimmung des Verlages bzw. der Rechteinhaber in einem solchen Netzwerk eingestellt und geteilt werden. Das Netzwerk ResearchGate lässt sich von seinen Nutzern versichern, dass sie zu der konkreten Nutzung im Netzwerk befugt sind. Tatsächlich kann jedoch davon ausgegangen werden, dass ein großer Teil des Materials unter Verstoß gegen die Rechte Dritte, insbesondere urheberrechtswidrig, auf die Plattform gelangt ist. Zwei zentrale Akteure auf dem naturwissenschaftlichen Publikationsmarkt, die American Chemical Society und der Wissenschaftsverlag Elsevier, haben Ende 2017 deshalb Klage gegen ResearchGate beim Landgericht München eingereicht. Welches Netzwerk von den einzelnen Wissenschaftlern benutzt wird, hängt stark von den Publikationskulturen in den einzelnen Disziplinen ab. Academic. edu hat derzeit über 63 Millionen forschende Mitglieder, ResearchGate zehn Millionen und Mendeley, das 2013 vom Verlag Elsevier gekauft wurde, spricht selbst von über drei Millionen Nutzern. Wie es im realen Leben elitäre Clubs gibt, zu denen nur ein ausgewählter Personenkreis Zutritt hat, ließ die digitale Variante der Netzwerke mit Türsteher nicht lange auf sich warten. Bei inmobile.org wird nur zugelassen, wer zu den

150  2 Das World Wide Web als eine Anwendung des Internets

Führungskräften der mobilen Kommunikationsindustrie zählt. Dem Lifestyle Club asmallworld.com darf man nur mit persönlicher Einladung eines „kulturell einflussreichen Menschen“ (Klopp 2010) beitreten und bei affluence.org sollte man schon ein jährliches Haushaltseinkommen von mindestens 200.000 USDollar vorweisen können, um dabei sein zu können.

Soziale Netzwerke und das Recht Im Kontext der Social-Media-Aktivitäten von und in Bibliotheken1 stand von Beginn an überwiegend außer Frage, für Microbloggingdienste und soziale Netzwerke bereits existierende Plattformen privater Unternehmen einzusetzen. Deshalb kam wie ein Paukenschlag aus dem hohen Norden daher, was das Unabhängige Landeszentrum für Datenschutz in Schleswig-Holstein (ULD) auf der Grundlage einer für das Zentrum angefertigten, technischen und datenschutzrechtlichen Untersuchung zur Reichweitenanalyse von Facebook im August 2011 forderte: die Einstellung der Auftritte, sogenannter Fanseiten, von Landesverwaltung und Privatunternehmen im sozialen Netzwerk Facebook. Anders als natürliche Personen können juristische Personen des Privatund öffentlichen Rechts keine Profil-, sondern ausschließlich Fanseiten anlegen. Die Vernetzung über die Fanseite, mit der man nicht befreundet sein kann, ist lediglich einseitig möglich. Während dem Fanseitenbetreiber nur die öffentliche Profilsicht seiner Fans eröffnet ist, können seine Anhänger die Fanseite ohne Einschränkung einsehen. Doch eine von Nutzern vielfach geschätzte, technische Raffinesse in dem sozialen Netzwerk beunruhigte die Datenschützer in diesem Zusammenhang zunehmend: die Social Plug-ins. Die Profilerstellung bzw. Einrichtung von (Fan-)Seiten in sozialen Netzwerken bringt in der Regel die Einbindung von Social Plug-ins als einer Spezialform der Verlinkung zum Netzwerk sowie zum eigenen Aufritt mit sich. Über diese Anwendung lassen sich die Nutzer leicht auf das soziale Netzwerk leiten und dort mit weiteren Informationen versorgen. Beiträge, Kommentare oder Links auf der behördlichen Webseite können via Social Plug-in beworben, empfohlen und mit einem größeren Interessentenkreis geteilt werden. Das wohl bekannteste Social Plug-in auf Facebook ist der „Gefällt mir“-Button. 1 Beim dienstlich begründeten wie privaten Einsatz sozialer Medien in Bibliotheken und Informationseinrichtungen sind dienstrechtliche Belange zu beachten, auf die hier nicht näher eingegangen werden kann. Siehe dazu Schulz 2015 sowie insbesondere für die behördeninterne Verwendung Hoffmann 2012, S. 92–95. Zu den Social Media Guidelines als Vorgaben für die dienstliche Nutzung sozialer Medien statt aller Klessmann und Gorny 2012 sowie Schulz 2012.

Von Web 1.0 zu Web 2.0



151

Fanseiten stellen zum Beispiel von Unternehmen, gemeinnützigen Organisationen, Künstlern oder Prominenten eingerichtete, spezielle Nutzeraccounts in Facebook dar, mit denen sich die Accountinhaber im sozialen Netzwerk präsentieren und einbringen können. Unter Verwendung der von Facebook zur Verfügung gestellten Statistikwerkzeuge Facebook Insights ist es den Accountinhabern möglich, anonymisierte Statistikinformationen zu Nutzerzahlentwicklung, Nutzerdemografie und -verhalten auf ihren Fanseiten zu erhalten. Facebook Insights werden von Facebook unentgeltlich bereitgestellt; diese Bereitstellung ist unabdingbarer Teil des Benutzungsverhältnisses. Die durch Facebook damit erzeugten Statistiken weisen aggregiert und anonymisiert Angaben über die Fanseitennutzung aus. Ein dafür auf den Endgeräten der einzelnen Nutzer gespeicherter persistent Cookie trägt eine ID-Nummer, die mit den Anmeldedaten der bei Facebook registrierten Nutzer verknüpft werden kann und zumindest in diesen Fällen Personenbezug herstellt. Für nichtregistrierte Nutzer entscheidet sich der Personenbezug der ID-Nummer wieder nach dem zugrunde gelegten Verständnis der absoluten oder relativen Bestimmbarkeit der Person. Bei Aufruf von Facebookinhalten wird diese ID-Nummer erfasst und verarbeitet, ohne dass in dem für die Untersuchung zur Reichweitenanalyse relevanten Zeitraum darauf hingewiesen worden ist. Die Autoren der für das ULD 2011 erstellten Untersuchung, Moritz Karg und Sven Thomsen, kamen nach eingehender Würdigung der Abläufe und Datenverarbeitungsprozesse zu dem Ergebnis, dass das Betreiben einer Fanpage und die Einbindung von Social-Plugins zwangsläufig zu Datenschutzverstößen führt [und von öffentlichen und nicht-öffentlichen Stellen in Schleswig-Holstein daher zu verlangen ist], die Nutzung dieser Facebook-Anwendungen für die Zukunft zu unterlassen. (S. 25)

Wie in Schleswig-Holstein wurden auch in anderen Bundesländern datenschutzrechtliche Bedenken gegen das Betreiben von Fanseiten in sozialen Netzwerken erhoben. Nicht zuletzt das Gutachten aus Kiel hat die Diskussion um Auftritte der öffentlichen Verwaltung in sozialen Netzwerken wie Facebook nachhaltig belebt. Einen Dämpfer erhielten die schleswig-holsteinischen Datenschützer allerdings in einem Rechtsstreit, der nun der weiteren Befassung beim obersten deutschen Verwaltungsgericht (Aktenzeichen 6 C 15/18) harrt. Sie unterlagen der Wirtschaftsakademie Schleswig-Holstein GmbH, einem Bildungsunternehmen, das im Auftrag der drei Industrie- und Handelskammern in Schleswig-Holstein Weiterbildungsmaßnahmen anbietet und seine Weiterbildungsangebote auf einer Facebook-Fanseite bewirbt. Die Gesellschaft berief sich in dem Rechts-

152  2 Das World Wide Web als eine Anwendung des Internets

streit im Wesentlichen darauf, dass sie für das Setzen und Speichern des Cookies und die dadurch ermöglichte Datenverarbeitung durch Facebook in Ermangelung der rechtlichen und tatsächlichen Möglichkeit, darauf Einfluss zu nehmen, diese selbst zu steuern, zu gestalten oder gar zu kontrollieren, datenschutzrechtlich nicht verantwortlich sei. Mit dieser Argumentation setzte sie sich vor dem Schleswig-Holsteinischen Verwaltungsgericht (Urteil vom 09. Oktober 2013, Aktenzeichen 8 A 218/11) und dem Oberverwaltungsgericht Schleswig-Holstein (Urteil vom 04. September 2014, Aktenzeichen 4 LB 20/13) erfolgreich gegen die Anordnung zur Deaktivierung ihrer Fanseite zur Wehr. Endgültig ausgefochten ist dieser Rechtsstreit jedoch noch nicht: Das ULD hat Revision beim Bundesverwaltungsgericht eingelegt und am 14. Januar 2015 seine Revisionsbegründung eingereicht. Das Bundesverwaltungsgericht hat sich daraufhin zu Beginn des Jahres 2016 mit einem Vorabentscheidungsersuchen an den Europäischen Gerichtshof gewandt. In seiner Vorlage vom 25. Februar 2016, Aktenzeichen 1 C 28/14 begehrte das Gericht insbesondere eine Klärung zu der Frage nach einer datenschutzrechtlichen Verantwortlichkeit für die Auswahl des Betreibers eines Informationsangebotes: In Informationsanbieterverhältnissen, in denen Anbieter von (auch) an eine breitere Öffentlichkeit gerichteten Informationen eine Infrastruktur wie die […] angebotene benutzen, bei der sie aufgrund der Nutzungsbedingungen die Verarbeitung personenbezogener Daten durch den Infrastrukturanbieter selbst nicht beherrschen können (gestufte oder mehrstufige Informationsanbieterverhältnisse), wird es im Interesse eines wirksamen Schutzes der Grundrechte und -freiheiten der Nutzer des Informationsangebotes für erforderlich gehalten, auch den Informationsanbieter selbst in die Verantwortung zu nehmen […]. Diese datenschutzrechtliche Verantwortung bezieht sich zwar nicht auf die Erhebung und Verarbeitung der Daten durch den Infrastrukturanbieter selbst, die in einer Infrastruktur wie der […] angebotenen rechtlich und tatsächlich durch den Informationsanbieter nicht gesteuert werden kann. Sie bezieht sich aber auf die sorgfältige Auswahl des Betreibers der Infrastruktur, die für das eigene Informationsangebot genutzt wird. Für den Nutzer des Informationsangebotes ist regelmäßig nicht erkennbar, dass für eine an die bloße Nutzung anknüpfende Datenverarbeitung nicht der Informationsanbieter, sondern der Infrastrukturbetreiber „verantwortliche Stelle“ ist; auch soweit aus dem Seitendesign des Informationsangebotes erkannt werden kann, dass es sich um ein Informationsangebot im Rahmen einer bestimmten Infrastruktur handelt, erschließt sich daraus nicht die Verteilung der Verantwortlichkeiten. […] Vor diesem Hintergrund erstrebt die erste Vorlagefrage die Klärung, ob mit dem Begriff des „für die Verarbeitung Verantwortlichen“ (Art. 2 Buchst. d) RL 95/46/EG) auch die möglichen Adressaten von Eingriffsmaßnahmen abschließend und erschöpfend umschrieben sind oder ob im Rahmen der „geeigneten Maßnahmen“ nach Art. 24 und der „wirksamen Eingriffsbefugnisse“ nach Art. 28 Abs. 3 Spiegelstrich 2 RL 95/46/EG daneben Raum für eine datenschutzrechtliche Verantwortlichkeit für die Auswahl des Betreibers eines Informationsangebotes bleibt. (Rn. 33–34)

Von Web 1.0 zu Web 2.0



153

Die Vorlage war als Rechtssache C-210/16 beim Europäischen Gerichtshof anhängig. Mit seinem Urteil vom 05. Juni 2018 hat der Gerichtshof eine datenschutzrechtliche Verantwortung des Betreibers einer Facebook-Fanpage für die Erhebung von Fanpagebesucherdaten, die Facebook zur Erstellung von Besucherstatistiken vornimmt, bejaht. Die Datenverarbeitungsvorgänge fasste er zunächst wie folgt zusammen: Wie aus den dem Gerichtshof vorgelegten Akten hervorgeht, erfolgt die im Ausgangsverfahren in Rede stehende Datenverarbeitung im Wesentlichen in der Weise, dass Facebook auf dem Computer oder jedem anderen Gerät der Personen, die die Fanpage besucht haben, Cookies platziert, die die Speicherung von Informationen in den Web-Browsern bezwecken und für die Dauer von zwei Jahren wirksam bleiben, sofern sie nicht gelöscht werden. Außerdem geht aus den Akten hervor, dass in der Praxis Facebook die in den Cookies gespeicherten Informationen empfängt, aufzeichnet und verarbeitet, insbesondere wenn eine Person die „Facebook-Dienste, Dienste, die von anderen Mitgliedern der Facebook-Unternehmensgruppe bereitgestellt werden, und Dienste, die von anderen Unternehmen bereitgestellt werden, die die Facebook-Dienste nutzen“, besucht. Außerdem können andere Stellen wie Facebook-Partner oder sogar Dritte „auf den FacebookDiensten Cookies verwenden, um [diesem sozialen Netzwerk direkt] bzw. den auf Facebook werbenden Unternehmen Dienstleistungen bereitzustellen“. (Rn. 33) Diese Verarbeitungen personenbezogener Daten sollen u. a. zum einen Facebook ermöglichen, sein System der Werbung, die es über sein Netzwerk verbreitet, zu verbessern. Zum anderen sollen sie dem Betreiber der Fanpage ermöglichen, zum Zweck der Steuerung der Vermarktung seiner Tätigkeit Statistiken, die Facebook aufgrund der Besuche dieser Seite erstellt, zu erhalten, die es ihm beispielsweise ermöglichen, Kenntnis von den Profilen der Besucher zu erlangen, die seine Fanpage schätzen oder die seine Anwendungen nutzen, um ihnen relevantere Inhalte bereitstellen und Funktionen entwickeln zu können, die für sie von größerem Interesse sein könnten. (Rn. 34)

Über die Veranlassung und Beiträge des Fanpage-Betreibers zu der Datenverarbeitung sowie die daraus gewonnenen Informationen führte der Europäische Gerichtshof sodann aus: Auch wenn der bloße Umstand der Nutzung eines sozialen Netzwerks wie Facebook für sich genommen einen Facebook-Nutzer nicht für die von diesem Netzwerk vorgenommene Verarbeitung personenbezogener Daten mitverantwortlich macht, ist indes darauf hinzuweisen, dass der Betreiber einer auf Facebook unterhaltenen Fanpage mit der Einrichtung einer solchen Seite Facebook die Möglichkeit gibt, auf dem Computer oder jedem anderen Gerät der Person, die seine Fanpage besucht hat, Cookies zu platzieren, unabhängig davon, ob diese Person über ein Facebook-Konto verfügt. (Rn. 35) In diesem Rahmen geht aus den dem Gerichtshof unterbreiteten Angaben hervor, dass die Einrichtung einer Fanpage auf Facebook von Seiten ihres Betreibers eine Parametrierung u. a. entsprechend seinem Zielpublikum sowie den Zielen der Steuerung oder Förderung

154  2 Das World Wide Web als eine Anwendung des Internets

seiner Tätigkeiten impliziert, die sich auf die Verarbeitung personenbezogener Daten zum Zweck der Erstellung der aufgrund der Besuche der Fanpage erstellten Statistiken auswirkt. Mit Hilfe von durch Facebook zur Verfügung gestellten Filtern kann der Betreiber die Kriterien festlegen, nach denen diese Statistiken erstellt werden sollen, und sogar die Kategorien von Personen bezeichnen, deren personenbezogene Daten von Facebook ausgewertet werden. Folglich trägt der Betreiber einer auf Facebook unterhaltenen Fanpage zur Verarbeitung der personenbezogenen Daten der Besucher seiner Seite bei. (Rn. 36) Insbesondere kann der Fanpage-Betreiber demografische Daten über seine Zielgruppe – und damit die Verarbeitung dieser Daten – verlangen, so u. a. Tendenzen in den Bereichen Alter, Geschlecht, Beziehungsstatus und berufliche Situation, Informationen über den Lebensstil und die Interessen seiner Zielgruppe und Informationen über die Käufe und das Online-Kaufverhalten der Besucher seiner Seite, die Kategorien von Waren oder Dienstleistungen, die sie am meisten interessieren, sowie geografische Daten, die ihn darüber informieren, wo spezielle Werbeaktionen durchzuführen oder Veranstaltungen zu organisieren sind, und ihm ganz allgemein ermöglichen, sein Informationsangebot so zielgerichtet wie möglich zu gestalten. (Rn. 37) Zwar werden die von Facebook erstellten Besucherstatistiken ausschließlich in anonymisierter Form an den Betreiber der Fanpage übermittelt, jedoch beruht die Erstellung dieser Statistiken auf der vorhergehenden Erhebung – durch die von Facebook auf dem Computer oder jedem anderen Gerät der Personen, die diese Seite besucht haben, gesetzten Cookies – und der Verarbeitung der personenbezogenen Daten dieser Besucher für diese statistischen Zwecke. Die Richtlinie 95/46 verlangt jedenfalls nicht, dass bei einer gemeinsamen Verantwortlichkeit mehrerer Betreiber für dieselbe Verarbeitung jeder Zugang zu den betreffenden personenbezogenen Daten hat. (Rn. 38)

Aus dem zuvor Gesagten zog der Europäische Gerichtshof den Schluss, dass der Fanpage-Betreiber als für die Datenverarbeitung verantwortlich zu beurteilen ist: Unter diesen Umständen ist festzustellen, dass der Betreiber einer auf Facebook unterhaltenen Fanpage wie die Wirtschaftsakademie durch die von ihm vorgenommene Parametrierung u. a. entsprechend seinem Zielpublikum sowie den Zielen der Steuerung oder Förderung seiner Tätigkeiten an der Entscheidung über die Zwecke und Mittel der Verarbeitung der personenbezogenen Daten der Besucher seiner Fanpage beteiligt ist. Daher ist der Betreiber im vorliegenden Fall als in der Union gemeinsam mit Facebook Ireland für diese Verarbeitung Verantwortlicher im Sinne von Art. 2 Buchst. d der Richtlinie 95/46 einzustufen. (Rn. 39) Der Umstand, dass ein Betreiber einer Fanpage die von Facebook eingerichtete Plattform nutzt, um die dazugehörigen Dienstleistungen in Anspruch zu nehmen, kann diesen nämlich nicht von der Beachtung seiner Verpflichtungen im Bereich des Schutzes personenbezogener Daten befreien. (Rn. 40) Im Übrigen ist hervorzuheben, dass die bei Facebook unterhaltenen Fanpages auch von Personen besucht werden können, die keine Facebook-Nutzer sind und somit nicht über

Von Web 1.0 zu Web 2.0 

155

ein Benutzerkonto bei diesem sozialen Netzwerk verfügen. In diesem Fall erscheint die Verantwortlichkeit des Betreibers der Fanpage hinsichtlich der Verarbeitung der personenbezogenen Daten dieser Personen noch höher, da das bloße Aufrufen der Fanpage durch Besucher automatisch die Verarbeitung ihrer personenbezogenen Daten auslöst. (Rn. 41) Unter diesen Umständen trägt die Anerkennung einer gemeinsamen Verantwortlichkeit des Betreibers des sozialen Netzwerks und des Betreibers einer bei diesem Netzwerk unterhaltenen Fanpage im Zusammenhang mit der Verarbeitung personenbezogener Daten der Besucher dieser Fanpage dazu bei, entsprechend den Anforderungen der Richtlinie 95/46 einen umfassenderen Schutz der Rechte sicherzustellen, über die die Personen verfügen, die eine Fanpage besuchen. (Rn. 42)

Zum Umfang der datenschutzrechtlichen Verantwortung ergänzte der Gerichtshof: Klarzustellen ist, dass das Bestehen einer gemeinsamen Verantwortlichkeit […] aber nicht zwangsläufig eine gleichwertige Verantwortlichkeit der verschiedenen Akteure zur Folge hat, die von einer Verarbeitung personenbezogener Daten betroffen sind. Vielmehr können diese Akteure in die Verarbeitung personenbezogener Daten in verschiedenen Phasen und in unterschiedlichem Ausmaß in der Weise einbezogen sein, dass der Grad der Verantwortlichkeit eines jeden von ihnen unter Berücksichtigung aller maßgeblichen Umstände des Einzelfalls zu beurteilen ist. (Rn. 43)

Der Gerichtshof resümierte schlussendlich: Nach alledem ist auf die erste und die zweite Frage zu antworten, dass Art. 2 Buchst. d der Richtlinie 95/46 dahin auszulegen ist, dass der Begriff des „für die Verarbeitung Verantwortlichen“ im Sinne dieser Bestimmung den Betreiber einer bei einem sozialen Netzwerk unterhaltenen Fanpage umfasst. (Rn. 44)

In einer ersten Reaktion auf das Urteil des Europäischen Gerichtshofs hat die Konferenz der unabhängigen Datenschutzbehörden des Bundes und der Länder (DSK) nur wenige Tage nach Urteilsverkündung eine Entschließung veröffentlicht. Darin skizziert sie den dringenden Handlungsbedarf, der sich aus der Mitverantwortung für die Datenverarbeitung ergibt. Die Datenschutzbehörden des Bundes und der Ländern fordern zugleich datenschutzkonforme Lösungsvorschläge von Facebook für den europäischen Rechtsraum ein, ohne die eine Einhaltung der Datenschutzvorgaben auch von Seiten der Fanpage-Betreiber nicht gewährleistet werden kann. Zugleich verweist die Konferenz auf einen nicht zu vernachlässigenden Aspekt in der Durchsetzung des Datenschutzrechts: Die Durchsetzung der datenschutzrechtlichen Vorgaben im Falle einer Fanpage liegt bei der Aufsichtsbehörde, die für das Unternehmen oder die Behörde als Fanpage-Betreiber zuständig ist: Für die Wirtschaftsakademie Schleswig-Hol-

156  2 Das World Wide Web als eine Anwendung des Internets

stein GmbH ist die Datenschutzbehörde mit Sitz in Kiel zuständig. Für Facebook hingegen, dessen maßgeblicher Unternehmenssitz in Dublin belegen ist, sind die irischen Aufsichtsbehörden zuständig. Sie müssen die Einhaltung der Datenschutzvorgaben kontrollieren und bei Verstößen deren Durchsetzung erzwingen. Schon lange vor der Beschäftigung des Europäischen Gerichtshofs mit diesem Fall hatten die Datenschutzbeauftragten Hinweise für die Nutzung von sozialen Medien durch die Verwaltung gegeben: Nach Möglichkeit sollten inhaltliche Informationen auf der behördeneigenen Website bereitgehalten und das soziale Netzwerk im Sinne einer Brückenfunktion lediglich verlinkt werden. Die Kommunikation mit dem Bürger sollte möglichst über „datenschutzgerechte Kanäle“ (Schulz 2015, S. 452) unterhalten werden. Dieses sogenannte Rückkanalverbot wurde in der Verwaltungspraxis und zunehmend auch in der Politik allerdings als lebensfremd und wenig praktikabel abgelehnt: Mit ihrem Auftritt im sozialen Netzwerk suche die staatliche Stelle gerade den Kontakt mit dem Bürger in seiner Lebenswelt. Überlegungen zur Konzeption und Umsetzung behörden- bzw. verwaltungseigener sozialer Netzwerke, wie sie von den Datenschutzbeauftragten gefordert werden, werden auch im Wissenschaftsbetrieb bisweilen angestellt. Die Übermacht der kommerziellen Anbieter und die allen Orten beklagte Ressourcenknappheit lassen jedoch ein Scheitern befürchten (siehe Schulz 2015, S. 450–452). Um soziale Netzwerke wie Facebook ranken sich erwartungsgemäß unzählige Rechtsfragen: Mit den Social Plug-ins, hier der Teilen-Funktion, ist zum Beispiel wiederum die haftungsrechtliche Frage verbunden, ob sich der „teilende“ Nutzer die „geteilten Inhalte“ sogleich zu eigen macht und im Falle von deren Rechtswidrigkeit für eben diese eigenen Inhalte auch haften muss. Die Rechtsprechung misst der Teilen-Funktion keine über die Verbreitung des geteilten Postings hinausgehende Bedeutung zu. Darin unterscheidet sich das Teilen von der „Gefällt mir“-Funktion (vgl. Urteil des Oberlandesgerichts Frankfurt vom 26. November 2015, Aktenzeichen 16 U 64/15, Rn. 39). Wird mit der Verbreitung jedoch eine zustimmende Bewertung verknüpft, macht sich der „teilende“ Nutzer wie zum Beispiel im Fall des Oberlandesgerichts Dresden, Urteil vom 07. Februar 2017, Aktenzeichen 4 U 1419/16 durch eine Leseempfehlung einen Beitrag zu eigen und übernimmt dafür auch die inhaltliche Verantwortung. Einige weitere Fragen haben wir bereits in vergleichbaren Konstellationen, aber anderen Kontexten erörtert: So hatte das Landgericht Saarbrücken im November 2017 darüber zu entscheiden, unter welchen Umständen die Weitergabe einer persönlichen Nachricht innerhalb eines sozialen Netzwerks samt Namensnennung des Absenders zulässig ist. Der Schauspieler Til Schweiger hatte

Von Web 1.0 zu Web 2.0



157

eine Nachricht auf seiner Facebookseite veröffentlicht, die eine Nutzerin aus dem Saarland an ihn gerichtet hatte: Sie wollten doch Deutschland verlassen. Warum lösen Sie Ihr Versprechen nicht endlich ein. (sic!) Ihr Demokratieverständnis und Ihr Wortschatz widern mich an. Mfg.

Hintergrund war eine von der Nutzerin unterstellte, jedoch nicht nachweisbare Ankündigung Schweigers, Deutschland bei einem Einzug der Partei Alternative für Deutschland in den Bundestag verlassen zu wollen. Pikant an dem Fall war, dass der Schauspieler die fremde Nachricht samt Klarnamen der Absenderin veröffentlichte. Diese sah sich dadurch in ihrem Persönlichkeitsrecht verletzt. Erinnern Sie sich an dieser Stelle an den Geschichtsprofessor aus unserem ersten Kapitel, dessen Mailkorrespondenz journalistisch verarbeitet wurde? Zur Schutzwürdigkeit persönlicher Nachrichten in sozialen Netzwerken erklärte das Landgericht Saarbrücken in seinem Urteil vom 23. November 2017, Aktenzeichen 4 O 328/17: Die Veröffentlichung der an ihn persönlich gerichteten Nachricht der Klägerin durch den Beklagten betrifft die Vertraulichkeitssphäre der Klägerin und deren Recht auf informationelle Selbstbestimmung als Ausprägungen des allgemeinen Persönlichkeitsrechts […]. (Rn. 45) Die Vertraulichkeitssphäre und das Recht auf informationelle Selbstbestimmung schützen als Ausprägung des allgemeinen Persönlichkeitsrechts das Interesse des Kommunikationsteilnehmers daran, dass der Inhalt privater Nachrichten nicht an die Öffentlichkeit gelangt […]. Sie gewährleisten die Selbstbestimmung über die eigene Darstellung in der Kommunikation mit anderen und beziehen sich neben gesprochenen und geschriebenen Worten auch auf alle weiteren Kommunikationswege. Allein dem Betroffenen steht die Befugnis zu, selbst zu bestimmen, ob die betreffende Äußerung in ihrem jeweils übermittelten Inhalt nur dem jeweiligen Gesprächspartner, einem eingeschränkten Personenkreis oder uneingeschränkt der Öffentlichkeit übermittelt werden soll. Denn der Einzelne hat ein grundsätzliches Recht darauf, nicht den Blicken der Öffentlichkeit ausgesetzt zu sein und selbst zu bestimmen, ob er Äußerungen z.B. nur einem Gesprächspartner, einem bestimmten Adressatenkreis oder der Öffentlichkeit zugänglich macht […]. (Rn. 46) Dabei tangiert nicht nur die Veröffentlichung von Briefen, sondern auch die Veröffentlichung von E-Mails das allgemeine Persönlichkeitsrecht. Der Einzelne hat grundsätzlich ein Recht darauf, selbst zu bestimmen, ob und wie er sich in der Öffentlichkeit darstellt. Dies umfasst auch das Recht des Verfassers einer Mail, den Inhalt geheim zu halten, wenn die Mail nicht für die Öffentlichkeit bestimmt war […]. Mit den E-Mails gleichzusetzen sind persönliche Nachrichten bei Sozialen Netzwerken. Auch hier hat der Absender einer persönlichen Nachricht ein schutzwürdiges Interesse, dass die gesendeten Nachrichten weder vom Empfänger noch von Dritten veröffentlicht werden […]. (Rn. 47)

158  2 Das World Wide Web als eine Anwendung des Internets

Nach diesen Maßstäben stand auch hier – vorbehaltlich der Frage der Rechtswidrigkeit der Veröffentlichung – zunächst allein der Klägerin die Befugnis zu, selbst zu bestimmen, ob die betreffende Äußerung in ihrem konkreten Wortlaut uneingeschränkt der Öffentlichkeit übermittelt werden soll. (Rn. 48) Das gilt auch dann, wenn die Nachricht etwa lediglich geschäftlicher bzw. wie hier politischer/gesellschaftlicher Natur war und damit nicht die Privat- oder Intimsphäre der sie verfassenden Klägerin berührte. Auch dann durfte die Klägerin jedoch davon ausgehen, dass sie nicht ohne weiteres einer breiten Öffentlichkeit zugänglich gemacht werden würde […]. (Rn. 49) Dies gilt auch, wenn die Klägerin wie hier ihre Äußerung auf dem Weg einer persönlichen Nachricht in dem Sozialen Netzwerk „Facebook“ an den Beklagten richtet. Denn die getroffene Geheimhaltungsbestimmung der Klägerin gilt unabhängig davon, ob sie für den Versand ihrer Erklärungen den traditionellen Postweg oder – wie hier – ein modernes Kommunikationsmittel gewählt hat. Der Postversand im Kuvert gewährleistet lediglich, dass sich Dritte vom Inhalt des Schreibens nicht ohne weiteres selbst Kenntnis verschaffen können. Diese Garantie ist beim Versand von E-Mails und SMS-Nachrichten oder auch persönlichen Nachrichten über ein Soziales Netzwerk aufgrund der modernen technischen Möglichkeiten zwar nicht verlässlich gegeben. Daraus ergeben sich jedoch keine Unterschiede in Bezug auf die vom Verfasser nicht gewollte und damit persönlichkeitsrechtsbeeinträchtigende Veröffentlichung ihres Inhaltes […]. (Rn. 50)

Die Veröffentlichung der Nachricht war jedoch nach Einschätzung des Gerichts nicht rechtswidrig, da das Informationsinteresse der Öffentlichkeit und das Recht des Schauspielers auf Meinungsfreiheit das Interesse der Klägerin am Schutz ihrer Persönlichkeit überwogen. Mit drei weiteren Fällen möchten wir noch auf das Recht am eigenen Bild im Kontext der sozialen Netzwerke eingehen: Vor dem Oberlandesgericht Frankfurt stritten zwei Parteien um die Verwendung des Bildausschnitts aus einem Foto, das auf einer politischen Demonstration in Frankfurt im Februar 2014 aufgenommen und zusammen mit weiteren Aufnahmen von der Demonstration auf Facebook, im Twitter-Account des Beklagten und in weiteren Internetforen veröffentlicht worden war. Auf dem Foto zu sehen war der Kläger, der als Teilnehmer der Demonstration, die sich gegen das Töten von Delfinen in Japan richtete, einer szenischen Darstellung beiwohnte und diese mit dem Handy aufnahm. Der Kläger wandte sich gegen die konkrete Veröffentlichung des Bildausschnitts, da er dazu keine Einwilligung erteilt habe. Das Oberlandesgericht Frankfurt schloss sich in seinem Urteil vom 21. April 2016, Aktenzeichen 16 U 251/15 der Auffassung des Landgerichts Frankfurt, dass der Kläger mit der Teilnahme an der Demonstration nicht zugleich stillschweigend in die Nutzung vor Ort erstellter Bildaufnahmen eingewilligt habe, an:

Von Web 1.0 zu Web 2.0 

159

Ein Bildnis wird nicht gleichsam dadurch zum allgemeinen Gebrauch freigegeben, weil der Abgebildete sich in einem öffentlichen Raum bewegt und weiß, dass dort Fotos gefertigt werden. Denn die Teilnahme an einer öffentlichen Demonstration ist zweckbestimmt. Sie dient der Kundgabe der Überzeugung, die Ziele der Veranstaltung zu teilen und zu unterstützen und dafür mit seiner Person offen einzutreten. Auf andere Zwecke kann dieser Wille nicht übertragen werden. (Rn. 25) Dass der Kläger aus Anlass der gezeigten szenischen Darbietung auf der Kundgebung – dies scheint augenscheinlich so zu sein – mit seinem Handy Fotos angefertigt haben mag, ist für die Bewertung dieses Verhaltens als Einwilligung ohne jeden Erklärungswert. Das Anfertigen eigener Fotos lässt keinen Schluss auf den eigenen Willen zu, wie mit solchen Fotos nach der Vorstellung des Fotografierenden zu verfahren ist. Denn geschützt ist nach der Konzeption des Bildnisschutzes nicht das Herstellen von Fotos, sondern nur deren unbefugte Nutzung. (Rn. 27)

Aus der Teilnahme an der öffentlichen Veranstaltung konnte mithin nicht die konkludente Einwilligung des Abgebildeten in die Veröffentlichung von seine Person zeigenden Bildausschnitten gefolgert werden. In der folgenden, aufgrund der näheren Umstände des Falles umfangreichen Prüfung und Abwägung der widerstreitenden Rechtspositionen bestätigte das Oberlandesgericht auch im Übrigen das vorinstanzliche Ergebnis: Die Informations- und Meinungsäußerungsfreiheit des Beklagten musste zugunsten des Persönlichkeitsschutzes des Klägers zurücktreten: Bei dem herauskopiertes Einzelbild des Klägers handelt es sich um einen Ausschnitt, der aus dem Bildzusammenhang genommen worden ist. Es hat für sich gesehen als solches keinen Informationswert für die öffentliche Meinungsbildung, da es lediglich die Identifizierung des Klägers als Person ermöglicht. Über den Kontext der Demonstration, in dem das Bild aufgenommen wurde, wird gerade nicht berichtet. Der Kläger wird in hockender Stellung gezeigt, wie er auf sein Mobiltelefon schaut und möglicherweise Fotos fertigt, wobei dies aus dem Ausschnitt heraus nicht erkennbar ist. (Rn. 31) Nimmt man den [beigefügten] Wortbeitrag […] hinzu, erhält man die Information, welches „Gesicht“ dem Namen des im Internet aktiven Klägers zuzuordnen ist. […] Welcher Beitrag damit aber zur öffentlichen Meinungsbildung in diesem konkreten Kontext geleistet wird, erschließt sich dem Betrachter und Leser der Nachricht nicht. […] Das Grundrecht der freien Meinungsäußerung hat gegenüber dem Persönlichkeitsrecht des Klägers an seinem Bildnis im Rahmen der vorzunehmenden Abwägung der Grundrechte gegeneinander hier zurückzutreten. (Rn. 32)

In der Debatte um die Flüchtlingspolitik der Jahre 2015 und 2016 ereignete sich der folgende Fall, der sich mit der Nutzung von in einem sozialen Netzwerk eingestellten Bildern befasste: In einem Facebook-Eintrag hatte sich eine Nutzerin abfällig über nach Deutschland kommende Flüchtlinge geäußert:

160  2 Das World Wide Web als eine Anwendung des Internets

Wie die Tiere und noch schlimmer, alles rennt zum gutgefüllten Fressnapf, mal sehen (sic!) wo Sie (sic!) hin rennen (sic!), wenn unser Napf leer gefressen ist???

Eine große deutsche Boulevardzeitung zitierte diesen Eintrag in einem Onlinebeitrag unter der Überschrift „Hass auf Flüchtlinge – BILD stellt die Hetzer an den Pranger“. Dabei veröffentlichte sie auch ein im Internet verfügbares Lichtbild der Nutzerin, wogegen sich diese gerichtlich wehrte. Das bloße Einstellen eines Lichtbilds in ein soziales Netzwerk, so das Oberlandesgericht München in seinem Urteil vom 17. März 2016, Aktenzeichen 29 U 368/16, erfülle nicht ohne weiteres die Anforderungen an die Einwilligung in die Nutzung des Bildes durch Dritte: Aus dem Umstand, dass die Antragstellerin das streitgegenständliche Bildnis auf facebook eingestellt hat, kann nicht auf eine wirksame Einwilligung in eine Wiedergabe dieser Fotografie auf „www....de“ geschlossen werden. Wer ein Foto auf seinen Account bei einem Social Network hochlädt, ohne von möglichen Zugriffssperren Gebrauch zu machen, willigt nicht in die Weiterverbreitung des Fotos durch Dritte außerhalb des Kreises der zugriffsberechtigten Mitglieder des Netzwerks im Rahmen eines gänzlich anderen Kontextes ein […]. Der streitgegenständliche Eintrag der Antragstellerin auf Facebook durfte von der Antragsgegnerin schon deshalb nicht als Einwilligung zur Veröffentlichung auf „www....de“ verstanden werden, weil der Antragstellerin Zweck, Art und Umfang der Veröffentlichung nicht bekannt waren. (Rn. 25)

Das Gericht fuhr sodann zur Frage, ob das Bildnis dem Bereich der Zeitgeschichte zugeordnet und deshalb ohne Einwilligung der Nutzerin in der Onlineausgabe der Boulevardzeitung veröffentlicht werden konnte, fort: Gegenstand der Berichterstattung der Antragsgegnerin ist die Flüchtlingskrise und damit ein Vorgang von historisch-politischer Bedeutung. Es steht folglich außer Frage, dass es Aufgabe der Antragsgegnerin ist, die in Politik und Gesellschaft geführte Flüchtlingsdebatte in ihrer Berichterstattung aufzugreifen, abzubilden und auch zu bewerten. Dazu zählt selbstverständlich auch die kritische Würdigung der Haltung bestimmter Bevölkerungskreise, die dem Zuzug von Flüchtlingen ablehnend gegenüberstehen. Nicht zu beanstanden ist auch, dass die Antragsgegnerin im Rahmen ihrer Berichterstattung – etwa zur Darstellung der Stimmungslage in der Bevölkerung – Äußerungen wie die der Antragstellerin wiedergibt, mit denen sich einzelne Personen in der Flüchtlingsdebatte außerhalb ihres privaten Umfeldes zu Wort gemeldet haben. Die Antragstellerin räumt selbst ein, dass zumindest einige hundert Personen ihren Interneteintrag bei Facebook gelesen haben, so dass die fragliche Äußerung nicht mehr als rein privat bewertet werden kann. Die Antragstellerin hat sich mit ihrer Äußerung bewusst in die Öffentlichkeit gewagt und darf sich daher nicht wundern, wenn die Antragsgegnerin diese Äußerung in ihrer Berichterstattung aufgreift, um den Informationsanspruch des Publikums zu erfüllen und damit auch einen Beitrag zur öffentlichen Meinungsbildung zu leisten. Es besteht allerdings kein berechtigtes Interesse der Antragsgegnerin, die Antragstellerin im Rahmen der Wiedergabe ihrer Äußerung durch die Abbildung eines mit ihrem Namen versehenen Fo-

Von Web 1.0 zu Web 2.0 

161

tos kenntlich zu machen. Denn es ist nicht erkennbar, welche Bedeutung es für eine sachbezogene Erörterung der in der Flüchtlingsdebatte in einem Interneteintrag geäußerten Meinung einer beliebigen Person aus Sicht des angesprochenen Publikums haben könnte, zu wissen, wie diese Person heißt und aussieht. Zur Darstellung des Meinungsbildes und dessen Bewertung durch die Antragsgegnerin bedarf es lediglich der Mitteilung der Äußerung selbst. Das Bildnis einer Person wird nicht schon dadurch zu einem solchen der Zeitgeschichte, dass sich die fragliche Person in einem Interneteintrag zum Zeitgeschehen geäußert hat. Anders etwa als das Bildnis einer Person, die ihre Meinung im Rahmen eines Demonstrationszuges auf einem mitgeführten Plakat äußert, weist das Bildnis der Antragstellerin mit Blick auf den Gegenstand der Berichterstattung keinen weiterführenden Informationsgehalt auf, der seine Wiedergabe rechtfertigen könnte. Ein Informationsanspruch des Publikums besteht daher insoweit nicht. (Rn. 31–32)

Die Nutzerin setzte sich vor dem Oberlandesgericht München mit ihrem Unterlassungsanspruch durch. Die Boulevardzeitung, der das Landgericht München noch Recht gegeben hatte, unterlag schließlich in dem Rechtsstreit. In einem noch neueren Fall musste das Landgericht Nürnberg-Fürth darüber entscheiden, ob die technische Voreinstellung im Profil neuangemeldeter Nutzer eines sozialen Netzwerkes vorsehen darf, dass Profilbilder des Nutzers auch in Suchmaschinen und auf Partnerwebseiten angezeigt werden dürfen. Das Landgericht verneinte diese Frage, da es an einer erforderlichen Einwilligung der Nutzer in diese Verwendung außerhalb des Netzwerkes fehle. Der Fall betraf das Schulfreundeportal StayFriends, das dazu dient, seine nach eigenen Angaben derzeit rund 20 Millionen Nutzer bei der Suche nach ehemaligen Schulfreunden zu unterstützen. Nach Auffassung des Gerichts genügte es nicht, dass der Nutzer bei Anmeldung die Datenschutzbestimmungen des Unternehmens mit dem Setzen eines kleinen Häkchens annehme, da die Datenschutzbestimmungen nicht widerspruchsfrei seien. So würde eingangs der Bestimmungen versichert, eine Einwilligung zur Weitergabe von Kundendaten an Dritte sei nicht voreingestellt. Im weiteren Text würde jedoch erklärt, dass Kundendaten auch auf Partnerseiten und über die Suchmaschine Google veröffentlicht werden. Es sei für den Kunden deshalb nicht zweifelsfrei erkennbar, welche Daten für Dritte außerhalb des Netzwerks sichtbar sind. Der Vertragszweck, die Suche und Kontaktaufnahme von alten Schulfreunden zu unterstützen, rechtfertige diese Datennutzung, so das Landgericht in seinem Urteil vom 17. April 2018, Aktenzeichen 7 O 6829/17 ebenfalls nicht.2 Inwiefern die Datenschutz-Grundverordnung veränderte Vorgaben für die Nutzung fremder Bildnisse trifft, ist umstritten. Es wird erwartet, dass sich erst durch die Rechtsprechung Klärung in dieser Frage herbeiführen lässt. 2 Eine veröffentlichte Urteilsbegründung lag bei Manuskripteinreichung noch nicht vor. Zum Urteil siehe die Vorabinformation von der Verbraucherzentrale Bundesverband e.V. 2018.

162  2 Das World Wide Web als eine Anwendung des Internets

Social Bookmarking Mit Social Bookmarking, sogenannten sozialen Lesezeichen im Internet, können Sammlungen zu Netzquellen angelegt, strukturiert, mit Kommentaren versehen und Schlagwörtern, sogenannten Tags, erschlossen werden. Gerade für das kollaborative Arbeiten eignen sich webbasierte Social-Bookmarks-Systeme wie Delicious, Diigo, Faviki oder Bibsonomy: Über die Aktualisierung der Sammlungen durch die anderen Nutzer kann ein abonnierter RSS-Feeds auf dem Laufenden halten.

Social News Social-News-Dienste dienen zum Verbreiten, Bewerten und Diskutieren von Nachrichten gewissermaßen „von unten“ (engl. bottom up) durch einzelne Internetbenutzer, die darüber abstimmen, welche Nachrichten an prominenter Stelle platziert werden sollen. Die Nutzer können Nachrichten in Form von Links einreichen oder auch eigene originäre Nachrichten ohne Bezug auf eine Quelle aus dem Web vorschlagen. Beispiele für populäre Socials-News-Dienste sind reddit.com, buzzfeed.com oder digg.com. News-Aggregatoren wie Rivva oder 10000flies werten das Social Web aus und ranken einzelne Nachrichtenbeiträge nach der Häufigkeit der Erwähnung, so dass man einen Eindruck davon erhalten kann, was im Netz gerade besonders aufmerksam verfolgt wird.

Empfehlungsdienste (Recommender-Systeme) Recommender-Systeme analysieren statistisch das Rechercheverhalten der Benutzer und leiten daraus Empfehlungen ab. Am bekanntesten dürfte die daraus resultierende Anzeige bei Amazon sein, die eingeleitet wird mit: „Kunden, die diesen Artikel gekauft haben, kauften auch …“. Im Bibliotheksbereich wird die von der Bibliothek des Karlsruher Instituts für Technologie (KIT) stammende Software BibTip eingesetzt, die innerhalb von Onlinekatalogen Buchempfehlungen anzeigt. Bei automatisch erzeugten Empfehlungen spricht man von impliziten Empfehlungen im Gegensatz zu expliziten Empfehlungen, bei denen der Nutzer selbst tätig wird, zum Beispiel durch das Vergeben von Sternen oder Schreiben einer Rezension.

Von Web 1.0 zu Web 2.0



163

Bewertungsportale Onlinebewertungen zählen zu den frühen Phänomenen des Internets. Beim Onlineauktionshaus ebay können die Leistungen des Verkäufers und Käufers bewertet und bei Amazon Rezensionen über Bücher und Produkte abgegeben werden, um nur zwei markante Beispiele aus der Welt der elektronischen Marktplätze zu nennen. Bewertungsportale sind Websites, die Kundenrezensionen zu bestimmten Themen aufnehmen. Bewertet werden unter anderem Hotels, Restaurants, Ärzte, Lehrer, Handwerker, Professoren, Kliniken oder schlicht kürzlich eingekaufte Produkte. Obwohl Bewertungsportale für die Entscheidungsfindung eine große Rolle spielen können, sind sie nicht ganz unumstritten. Schließlich enthalten sie subjektive Einschätzungen vornehmlich von Laien und sind schon gelegentlich Gegenstand von Manipulationen mit dem Ziel der Erschleichung eines positiven Images durch Fakebewertungen geworden. Beispiele für Bewertungsportale sind Tripadvisor mit über 500 Millionen Reisebewertungen zu Hotels, Ferienwohnungen und Restaurants, Yelp für lokale Unternehmen, das Arztempfehlungsportal Jameda oder das für die folgende Entscheidung des Bundesgerichtshofs namensgebende Portal SpickMich.

Bewertungsportale auf dem Prüfstand In seinem spickmich.de-Urteil vom 23. Juni 2009, Aktenzeichen VI ZR 196/08 befand der Bundesgerichtshof anlässlich der Nutzung des Portals zur Bewertung von Lehrern durch Schüler darüber, welchem Rechtsgut – dem Recht auf informationelle Selbstbestimmung auf der einen Seite oder der Kommunikationsfreiheit auf der anderen Seite – der Vorrang zu geben sei. Die Parteien befanden sich im Streit darüber, ob die Speicherung und Veröffentlichung des Namens, der Schule, der unterrichteten Fächer, einer Benotung und von Zitaten der Klägerin auf dem für Schüler angebotenen Bewertungsportal www.spickmich.de zulässig war. Als sogenanntes Community-Portal erlaubte www.spickmich.de registrierten Nutzern im durch den Portalbetreiber vorgegebenen Rahmen, Informationen über sich selbst zu veröffentlichen, mit anderen Nutzern zu kommunizieren und soziale Kontakte zu verwalten. Darüber hinaus konnten die Nutzer Angaben zu der von ihnen besuchten Schule, zu deren Ausstattung, Lehrangebot oder Lehrkräften machen und diese bewerten. Für die Beurteilung der mit Klarnamen, Unterrichtsfach und Schulzugehörigkeit aufgeführten Lehrkräfte sah ein Bewertungsmodul Kriterien wie beispielsweise „cool und witzig“, „beliebt“, „motiviert“, „menschlich“, „guter Unterricht“ oder „faire Noten“ vor. In diesen Kategorien konnten Schulnoten von 1 bis 6 vergeben

164  2 Das World Wide Web als eine Anwendung des Internets

werden. Bei mindestens zehn abgegebenen Einzelbewertungen wurde aus dem Durchschnitt eine Gesamtnote gebildet, wobei Benotungen mit ausschließlich der Note 1 oder 6 unberücksichtigt blieben. Das Bewertungsergebnis konnte in Zeugnisform angezeigt und ausgedruckt werden. In einer separaten Rubrik bestand die Möglichkeit, Zitate der Lehrkraft einzutragen. Auf Unstimmigkeiten konnten die Nutzer den Portalbetreiber über den Button „Hier stimmt was nicht“ aufmerksam machen. Der Portalbetreiber nahm routinemäßig eine Löschung der Eintragungen vor, sofern innerhalb der folgenden zwölf Monate keine Neubewertung für die Lehrkraft abgegeben wurde. Die Klägerin, eine Deutschlehrerin, wandte sich gegen die sie betreffenden Eintragungen und forderte deren Löschung. Darüber hinaus begehrte sie die Verurteilung der Portalbetreiber, künftig die Veröffentlichung ihres Namens, der Schule und der unterrichteten Fächer im Zusammenhang mit der notenbasierten Gesamt- und Einzelbewertung sowie der Eintragungen in der Zitat- und Zeugnisfunktion zu unterlassen. Zur Bestimmung der Schutzbedürftigkeit des Persönlichkeitsrechts der Klägerin zog der Bundesgerichtshof in seiner Entscheidung die vom Bundesverfassungsgericht in langjähriger Rechtsprechung entwickelte Sphärentheorie heran. Auf diese Theorie sollten wir deshalb einen Blick werfen: Ihr zufolge entfaltet sich der grundrechtliche Schutz je nach betroffener Sphäre in Abstufung. Als Sphären mit abnehmender Schutzbedürftigkeit anerkannt sind die Intimsphäre, die Privatsphäre und die Sozial-, Öffentlichkeitsbzw. Individualsphäre. Nach der Sphärentheorie bezieht sich die Intimsphäre auf den Bereich des menschlichen Lebens, der der Öffentlichkeit verborgen bleiben sollte. Ergänzt durch den absoluten Schutz des Kernbereichs höchstpersönlicher Lebensgestaltung, gewährleistet das Grundgesetz nach der verfassungsgerichtlichen Rechtsprechung einen der Menschenwürde besonders nahe stehenden Bereich zur Entfaltung der Persönlichkeit, dessen Schutz absolut und einer Abwägung auf der Grundlage des Verhältnismäßigkeitsgrundsatzes entzogen ist. In seinem Beschluss vom 15. Januar 1970, Aktenzeichen 1 BvR 13/68 zur Frage, ob Ehescheidungsakten in einem gegen einen Beamten wegen des Verdachts auf ehebrecherisches Verhalten eingeleiteten Disziplinarverfahren herangezogen werden dürfen, äußerte sich das Bundesverfassungsgericht zum Schutz der Intimsphäre wie folgt: Das Bundesverfassungsgericht hat in ständiger Rechtsprechung anerkannt, daß das Grundgesetz dem einzelnen Bürger einen unantastbaren Bereich privater Lebensgestaltung gewährt, der der Einwirkung der öffentlichen Gewalt entzogen ist […]. Das verfassungskräftige Gebot der Achtung der Intimsphäre des Einzelnen hat seine Grundlage in dem durch Art. 2 Abs. 1 GG verbürgten Recht auf freie Entfaltung der Persönlichkeit. Bei der Bestimmung von Inhalt und Reichweite dieses Grundrechts ist zu beachten, daß nach

Von Web 1.0 zu Web 2.0



165

der Grundnorm des Art. 1 Abs. 1 GG die Würde des Menschen unantastbar ist und von aller staatlichen Gewalt geachtet und geschützt werden muß. Überdies darf nach Art. 19 Abs. 2 GG auch das Grundrecht aus Art. 2 Abs. 1 GG nicht in seinem Wesensgehalt angetastet werden. (Rn. 17)

Der absolute Schutz entfaltet sich gemäß der verfassungsgerichtlichen Theorie jedoch nicht für alle Kontexte des privaten Lebens. Maßnahmen, die nicht den unantastbaren Bereich privater Lebensgestaltung berühren, sind einer Interessenabwägung zugänglich. Der Schutz der Privatsphäre bestimmt sich dabei nach thematischen und räumlichen Gesichtspunkten. Ein Eingriff darin muss dem Schutz eines besonders wichtigen Rechtsguts dienen. In seinem Urteil Caroline von Monaco II vom 15. Dezember 1999, Aktenzeichen 1 BvR 653/96 führte das Bundesverfassungsgericht dazu aus: Er [Der Schutz der Privatsphäre; Anmerkung der Verfasser] umfaßt zum einen Angelegenheiten, die wegen ihres Informationsinhalts typischerweise als „privat“ eingestuft werden, weil ihre öffentliche Erörterung oder Zurschaustellung als unschicklich gilt, das Bekanntwerden als peinlich empfunden wird oder nachteilige Reaktionen der Umwelt auslöst, wie es etwa bei Auseinandersetzungen mit sich selbst in Tagebüchern (BVerfGE 80, 367), bei vertraulicher Kommunikation unter Eheleuten (BVerfGE 27, 344), im Bereich der Sexualität (BVerfGE 47, 46; 49, 286), bei sozial abweichendem Verhalten (BVerfGE 44, 353) oder bei Krankheiten (BVerfGE 32, 373) der Fall ist. Fehlte es hier an einem Schutz vor der Kenntniserlangung anderer, wären die Auseinandersetzung mit sich selbst, die unbefangene Kommunikation unter Nahestehenden, die sexuelle Entfaltung oder die Inanspruchnahme ärztlicher Hilfe beeinträchtigt oder unmöglich, obwohl es sich um grundrechtlich geschützte Verhaltensweisen handelt. (Rn. 73) Zum anderen erstreckt sich der Schutz auf einen räumlichen Bereich, in dem der Einzelne zu sich kommen, sich entspannen oder auch gehen lassen kann […]. Zwar bietet auch dieser Bereich Gelegenheit, sich in einer Weise zu verhalten, die nicht für die Öffentlichkeit bestimmt ist und deren Beobachtung oder Darstellung durch Außenstehende für den Betroffenen peinlich oder nachteilig wäre. Im Kern geht es aber um einen Raum, in dem er die Möglichkeit hat, frei von öffentlicher Beobachtung und damit der von ihr erzwungenen Selbstkontrolle zu sein, auch ohne daß er sich dort notwendig anders verhielte als in der Öffentlichkeit. Bestünden solche Rückzugsbereiche nicht mehr, könnte der Einzelne psychisch überfordert sein, weil er unausgesetzt darauf achten müßte, wie er auf andere wirkt und ob er sich richtig verhält. Ihm fehlten die Phasen des Alleinseins und Ausgleichs, die für die Persönlichkeitsentfaltung notwendig sind und ohne die sie nachhaltig beeinträchtigt würde. (Rn. 74)

Die Sozial-, Öffentlichkeits- bzw. Individualsphäre bezieht sich hingegen auf den der Öffentlichkeit zugewandten Bereich des menschlichen Lebens wie das Berufs- und Erwerbsleben, womit wir wieder zur spickmich.de-Entscheidung zurückkommen können:

166  2 Das World Wide Web als eine Anwendung des Internets

Bei seiner Abwägung der widerstreitenden Rechtsgüter und Klärung der Frage, welche Sphäre der Persönlichkeit im vorliegenden Fall betroffen war, hob der Bundesgerichtshof unter Berücksichtigung der Sphärentheorie und auf der Grundlage des Volkszählungsurteils in den Worten des Bundesverfassungsgerichts die Bedeutung personenbezogener Daten als Teil der sozialen Realität hervor: In der Rechtsprechung sind wegen der Eigenart des allgemeinen Persönlichkeitsrechts als eines Rahmenrechts, dessen Reichweite nicht absolut feststeht, Abwägungskriterien u.a. nach Maßgabe einer abgestuften Schutzwürdigkeit bestimmter Sphären, in denen sich die Persönlichkeit verwirklicht, herausgearbeitet worden […]. Danach genießen besonders hohen Schutz die sogenannten sensitiven Daten, die der Intim- und Geheimsphäre zuzuordnen sind. Geschützt ist aber auch das Recht auf Selbstbestimmung bei der Offenbarung von persönlichen Lebenssachverhalten, die lediglich zur Sozial- und Privatsphäre gehören. Allerdings hat der Einzelne keine absolute, uneingeschränkte Herrschaft über „seine“ Daten; denn er entfaltet seine Persönlichkeit innerhalb der sozialen Gemeinschaft. In dieser stellt die Information, auch soweit sie personenbezogen ist, einen Teil der sozialen Realität dar, der nicht ausschließlich dem Betroffenen allein zugeordnet werden kann. Vielmehr ist über die Spannungslage zwischen Individuum und Gemeinschaft im Sinne der Gemeinschaftsbezogenheit und -gebundenheit der Person zu entscheiden. Deshalb muss der Einzelne grundsätzlich Einschränkungen seines Rechts auf informationelle Selbstbestimmung hinnehmen, wenn und soweit solche Beschränkungen von hinreichenden Gründen des Gemeinwohls oder überwiegenden Rechtsinteressen Dritter getragen werden und bei einer Gesamtabwägung zwischen der Schwere des Eingriffs und dem Gewicht der ihn rechtfertigenden Gründe die Grenze des Zumutbaren noch gewahrt ist […]. (Rn. 30)

In wiederkehrender Rechtsprechung betonte auch das Bundesverfassungsgericht wie hier in seinem Urteil Caroline von Monaco II, dass […] das allgemeine Persönlichkeitsrecht dem Einzelnen nicht den Anspruch gibt, nur so von anderen dargestellt zu werden, wie er sich selber sieht oder gesehen werden möchte […]. Ein derart weiter Schutz würde nicht nur das Schutzziel, Gefährdungen der Persönlichkeitsentfaltung zu vermeiden, übersteigen, sondern auch weit in die Freiheitssphäre Dritter hineinreichen. (Rn. 68)

Dieses Grundrecht verschafft seinem Träger mithin keine umfassende Verfügungsbefugnis darüber, wie die eigene Person in der Öffentlichkeit dargestellt wird. In seiner spickmich.de-Entscheidung sah der Bundesgerichtshof die Sozialsphäre der Klägerin betroffen, da die von den Beklagten erhobenen und gespeicherten Bewertungen als Werturteile deren berufliche Tätigkeit als einen Kontext, in dem sich die Persönlichkeit im Zusammenwirken mit der Umwelt entfaltet, betrafen. Äußerungen, die die Sozialsphäre betreffen, dürften, so der Bun-

Von Web 1.0 zu Web 2.0 

167

desgerichtshof weiter, nur bei schwerwiegenden Beeinträchtigungen des Persönlichkeitsrechts mit negativen Folgen belegt werden (siehe Rn. 30). Dafür gäbe es im konkreten Fall jedoch keine Anhaltspunkte. In der Abwägung der beiden widerstreitenden Grundrechte gab der Bundesgerichtshof schließlich der Kommunikationsfreiheit den Vorzug und wies die Revision zurück. Dieses Abwägungsergebnis bestätigte das Gericht rund fünf Jahre später in seinem Urteil vom 23. September 2014, Aktenzeichen VI ZR 358/13 zum Arztsuche- und Arztbewertungsportal www.jameda.de. In beiden Urteilen lehnte der Bundesgerichtshof übrigens die Annahme eines mit der Datenschutzrichtlinie des Europäischen Parlaments und des Rates vom 24. Oktober 1995 eingeführten Medienprivilegs für Datenverarbeitungen, die auf Bewertungsportalen erfolgen, ab und führte in der spickmich.de-Entscheidung dazu aus: Das Medienprivileg stellt die Presse bei der Erfüllung ihrer in Art. 5 Abs. 1 Satz 2 GG zuerkannten und garantierten Aufgaben von der Einhaltung der Datenschutzvorschriften weitgehend frei, denn ohne die Erhebung, Verarbeitung und Nutzung personenbezogener Daten auch ohne Einwilligung der jeweils Betroffenen wäre journalistische Arbeit nicht möglich. […] (Rn. 20) Die […] datenschutzrechtliche Sonderstellung der Medien ist daran gebunden, dass die Erhebung, Verarbeitung und Nutzung personenbezogener Daten einer pressemäßigen Veröffentlichung dient. Maßgebend ist, dass die Daten „ausschließlich für eigene journalistisch-redaktionelle oder literarische Zwecke“ bestimmt sind. Übertragen auf den Bereich der Telemedien kann mithin die reine Übermittlung von erhobenen Daten an Nutzer nicht unter den besonderen Schutz der Presse fallen, weil die bloße automatische Auflistung von redaktionellen Beiträgen noch nicht eine eigene journalistisch-redaktionelle Gestaltung darstellt […]. Erst wenn die meinungsbildende Wirkung für die Allgemeinheit prägender Bestandteil des Angebots und nicht nur schmückendes Beiwerk ist, kann von einer solchen Gestaltung gesprochen werden […]. (Rn. 21) Im Streitfall wird lediglich die Zahl der abgegebenen Bewertungen erfasst und ein arithmetisches Mittel aus den abgegebenen Noten errechnet. Ob dies automatisiert durch ein entsprechendes Programm erfolgt, was nahe liegt, bedarf keiner weiteren Klärung, weil es sich auch bei einer Berechnung durch die Beklagten selbst nicht um eine journalistischredaktionelle Bearbeitung handelt, die die Anwendung des Medienprivilegs eröffnen könnte. (Rn. 22)

Anders sah es der Bundesgerichtshof in seinen Entscheidungen zu Onlinearchiven, in denen sich das Gericht mit den Klagen des 1993 zusammen mit seinem Bruder wegen Mordes an dem Schauspieler Walter Sedlmayr verurteilten Straftäters auseinandersetzen musste. Der Kläger wandte sich gegen die Veröffentlichung von Altmeldungen, die ihn namentlich mit dem Mord in Verbindung

168  2 Das World Wide Web als eine Anwendung des Internets

brachten, in den Onlinearchiven verschiedener Nachrichtenportale (siehe dazu Urteil des Bundesgerichtshofs vom 22. Februar 2011, Aktenzeichen VI ZR 346/ 09, Urteil des Bundesgerichtshofs vom 09. Februar 2010, Aktenzeichen VI ZR 243/08 und Urteil des Bundesgerichtshofs vom 15. Dezember 2009, Aktenzeichen VI ZR 227/08). In der Abwägung zwischen dem Schutz der Persönlichkeit des Klägers und der Achtung seines Privatlebens einerseits und dem von den Beklagten verfolgten Informationsinteresse der Öffentlichkeit und deren Recht auf freie Meinungsäußerung andererseits gelangte das Gericht in seinem Urteil vom 15. Dezember 2009, Aktenzeichen VI ZR 227/08 zu der Überzeugung, dass die Interessen des Klägers zurücktreten mussten: [E]in anerkennenswertes Interesse der Öffentlichkeit [besteht] nicht nur an der Information über das aktuelle Zeitgeschehen, sondern auch an der Möglichkeit […], vergangene zeitgeschichtliche Ereignisse zu recherchieren […]. Dementsprechend nehmen die Medien ihre Aufgabe, in Ausübung der Meinungsfreiheit die Öffentlichkeit zu informieren und an der demokratischen Willensbildung mitzuwirken, auch dadurch wahr, dass sie nicht mehr aktuelle Veröffentlichungen für interessierte Mediennutzer verfügbar halten. […] Ein generelles Verbot der Einsehbarkeit und Recherchierbarkeit bzw. ein Gebot der Löschung aller früheren den Straftäter identifizierenden Darstellungen in Onlinearchiven würde dazu führen, dass Geschichte getilgt und der Straftäter vollständig immunisiert würde […]. (Rn. 20)

Auch gemäß den Grundsätzen des Datenschutzrechts war nach Einschätzung des Bundesgerichtshofs keine andere rechtliche Beurteilung geboten. Zur datenschutzrechtlichen Sonderstellung der Medien erklärte er in seinem Urteil vom 22. Februar 2011, Aktenzeichen VI ZR 346/09: Das […] Medienprivileg ist Ausfluss der in Art. 5 Abs. 1 Satz 2 GG verankerten Medienfreiheit. Ohne die Erhebung, Verarbeitung und Nutzung personenbezogener Daten auch ohne Einwilligung der jeweils Betroffenen wäre journalistische Arbeit nicht möglich; die Presse könnte ihre in Art. 5 Abs. 1 Satz 2 GG, Art. 10 Abs. 1 Satz 2 EMRK, Art. 11 Abs. 1 Satz 1 der Charta der Grundrechte der Europäischen Union zuerkannten und garantierten Aufgaben nicht wahrnehmen. (Rn. 23) […] Die Beklagte hat die den Namen des Klägers enthaltende Meldung ausschließlich zu dem Zweck in ihren Internetauftritt eingestellt und zum Abruf bereitgehalten, damit sie von der interessierten Öffentlichkeit zur Kenntnis genommen wird. Sie hat damit unmittelbar ihre verfassungsrechtliche Aufgabe wahrgenommen, in Ausübung der Meinungsfreiheit die Öffentlichkeit zu informieren und an der demokratischen Willensbildung mitzuwirken. Sowohl das Einstellen der beanstandeten Inhalte ins Internet als auch ihr (dauerhaftes) Bereithalten zum Abruf ist Teil des in den Schutzbereich des Art. 5 Abs. 1 GG, Art. 10 Abs. 1 EMRK fallenden Publikationsvorgangs. (Rn. 27)

Von Web 1.0 zu Web 2.0



169

Auch vor dem Europäischen Gerichtshof für Menschenrechte (EGMR) blieben die verurteilten Straftäter mit ihrem Löschungsbegehren erfolglos (siehe Urteil vom 28. Juni 2018, Aktenzeichen 60798/10, 65599/10). Die Datenschutz-Grundverordnung sieht zum Medienprivileg in ihrem Artikel 85 Absatz 1 vor: Die Mitgliedstaaten bringen durch Rechtsvorschriften das Recht auf den Schutz personenbezogener Daten gemäß dieser Verordnung mit dem Recht auf freie Meinungsäußerung und Informationsfreiheit, einschließlich der Verarbeitung zu journalistischen Zwecken und zu wissenschaftlichen, künstlerischen oder literarischen Zwecken, in Einklang.

Es obliegt nun dem Bund und den Ländern, diesen Regelungsauftrag umzusetzen. In seinem weiteren Urteil vom 01. März 2016 zum Ärztebewertungsportal Jameda, Aktenzeichen VI ZR 34/15 übertrug der Bundesgerichtshof die Grundsätze, die er für die Verantwortlichkeit eines Blogbetreibers entwickelt hatte, auf das Bewertungsportal: Danach ist ein Hostprovider zur Vermeidung einer Haftung als mittelbarer Störer grundsätzlich nicht verpflichtet, die von den Nutzern in das Netz gestellten Beiträge vor der Veröffentlichung auf eventuelle Rechtsverletzungen zu überprüfen. Er ist aber verantwortlich, sobald er Kenntnis von der Rechtsverletzung erlangt. Weist ein Betroffener den Hostprovider auf eine Verletzung seines Persönlichkeitsrechts durch den Nutzer seines Angebots hin, kann der Hostprovider verpflichtet sein, künftig derartige Störungen zu verhindern […].Wird eine Verletzung von Persönlichkeitsrechten behauptet, wird sich eine Rechtsverletzung allerdings nicht stets ohne Weiteres feststellen lassen. Denn sie erfordert eine Abwägung zwischen dem Recht des Betroffenen auf Schutz seiner Persönlichkeit aus Art. 1 Abs. 1, Art. 2 Abs. 1 GG, Art. 8 Abs. 1 EMRK und dem durch Art. 5 Abs. 1 GG, Art. 10 EMRK geschützten Recht jedenfalls des Providers auf Meinungs- und Medienfreiheit. Ist der Provider mit der Beanstandung eines Betroffenen konfrontiert, die so konkret gefasst ist, dass der Rechtsverstoß auf der Grundlage der Behauptung des Betroffenen unschwer bejaht werden kann, ist eine Ermittlung und Bewertung des gesamten Sachverhalts unter Berücksichtigung einer etwaigen Stellungnahme des für den beanstandeten Beitrag Verantwortlichen erforderlich […]. (Rn. 23–24)

Zur Frage, welcher Aufwand dem Portalbetreiber durch die Überprüfung entstehen dürfe, fuhr das Gericht fort: Zur Bestimmung, welcher Überprüfungsaufwand vom Hostprovider im Einzelfall zu verlangen ist, bedarf es einer umfassenden Interessenabwägung, bei der die betroffenen Grundrechte der Beteiligten zu berücksichtigen sind […]. Zu welchen konkreten Überprüfungsmaßnahmen der Hostprovider verpflichtet ist, bestimmt sich damit nach den Umständen des Einzelfalls. Maßgebliche Bedeutung kommt dabei dem Gewicht der angezeigten Rechtsverletzung sowie den Erkenntnismöglichkeiten des Providers zu […]. Zu berück-

170  2 Das World Wide Web als eine Anwendung des Internets

sichtigen sind aber auch Funktion und Aufgabenstellung des vom Provider betriebenen Dienstes sowie die Eigenverantwortung des für die persönlichkeitsrechtsbeeinträchtigende Aussage unmittelbar verantwortlichen – ggf. zulässigerweise anonym auftretenden – Nutzers […]. (Rn. 38)

Unter Berücksichtigung der konkreten Funktions- und Wirkungsmechanismen eines Ärztebewertungsportals befand das Gericht hinsichtlich der lediglich reaktiven Prüfungspflichten: Im Ausgangspunkt ist freilich festzuhalten, dass das von der Beklagten betriebene Ärztebewertungsportal eine von der Rechtsordnung gebilligte und gesellschaftlich erwünschte Funktion erfüllt […] und der Portalbetrieb zudem vom Schutzbereich des Art. 5 Abs. 1 GG und des Art. 12 Abs. 1 GG erfasst wird […]. Der von der Beklagten als Providerin zu erbringende Prüfungsaufwand darf den Betrieb eines Ärztebewertungsportals deshalb weder wirtschaftlich gefährden noch unverhältnismäßig erschweren […]. Ein solches Gewicht haben rein reaktive Prüfungspflichten, um die es im Streitfall allein geht, in der Regel aber nicht. Auf der anderen Seite kann bei der Bestimmung des der Beklagten zumutbaren Prüfungsaufwandes nicht außer Betracht bleiben, dass der Betrieb eines Ärztebewertungsportals im Vergleich zu anderen Portalen, insbesondere Nachrichtenportalen, schon von vornherein ein gesteigertes Risiko für Persönlichkeitsrechtsverletzungen mit sich bringt. Es birgt die Gefahr, dass es auch für nicht unerhebliche […] persönlichkeitsrechtsverletzende Äußerungen missbraucht wird. Der Portalbetreiber muss deshalb von Anfang an mit entsprechenden Beanstandungen rechnen. (Rn. 40)

Hinsichtlich der Missbrauchsgefahren, die ein Bewertungsportal mit sich bringt, verwies das Gericht noch auf die Möglichkeit der anonymen oder pseudonymen Bewertung durch die Nutzer: Dabei werden die mit dem Portalbetrieb verbundenen Missbrauchsgefahren noch dadurch verstärkt, dass die Bewertungen – rechtlich zulässig […] – verdeckt abgegeben werden können […]. Zudem erschwert die Möglichkeit, Bewertungen verdeckt abgeben zu können, es dem betroffenen Arzt regelmäßig erheblich, unmittelbar gegen den betreffenden Portalnutzer vorzugehen. Denn er kennt ihn nicht und kann sich die für seine Identifizierung erforderlichen Informationen selbst dann, wenn sie dem Portalbetreiber vorliegen sollten, mangels Auskunftsanspruchs gegen den Portalbetreiber […] jedenfalls nicht auf diesem Weg beschaffen. Eine gewissenhafte Prüfung der Beanstandungen von betroffenen Ärzten durch den Portalbetreiber ist deshalb die entscheidende Voraussetzung dafür, dass die Persönlichkeitsrechte der (anonym oder pseudonym) bewerteten Ärzten beim Portalbetrieb hinreichend geschützt sind. (Rn. 40) […] Konkret muss die vom Portalbetreiber durchzuführende Überprüfung erkennbar zum Ziel haben, die Berechtigung der Beanstandung des betroffenen Arztes zu klären. Der Portalbetreiber muss ernsthaft versuchen, sich hierzu die notwendige Tatsachengrundlage zu verschaffen; er darf sich insbesondere nicht auf eine rein formale „Prüfung“ zurückziehen. (Rn. 42)

Von Web 1.0 zu Web 2.0



171

Video-Sharing-Plattformen Videoportale wie YouTube, Vimeo oder der einzig verbliebene europäische Anbieter Dailymotion bedienen einen Trend, den kaum jemand – zumindest in Deutschland – vorhersagen konnte. Vor allem junge Netzteilnehmer begannen kurz nach der Jahrtausendwende damit, mit technisch oft sehr einfachen Videokameras mehr oder wenig amateurhaft produzierte Videos zu erstellen und auf Media-Sharing-Plattformen hochzuladen, wo sie dann von der Community per Videostream angesehen, bewertet, geteilt und kommentiert werden konnten. Google sah in diesem Konzept offenbar das Fernsehen der Zukunft und bezahlte für das von Chad Hurley, Steve Chen und Jawed Karim im Jahr 2005 gegründete Start-Up-Unternehmen YouTube, das sich selbst das Motto „Broadcast yourself!“ gegeben hatte, im Jahre 2006 bereits 1,65 Milliarden US-Dollar in Aktien. Neben selbst produzierten Filmen enthält YouTube auch Ausschnitte von Fernsehsendungen und Kinofilmen, Konferenz- und Vorlesungsmitschnitte sowie mittlerweile auch in großer Zahl professionell produzierte Videos von Konzernen, Musiklabels und Onlineshops. Von den über eine Milliarde Nutzern wurden im Jahr 2015 pro Minute 400 Stunden Videocontent auf die YouTubePlattform hochgeladen. YouTube erreicht laut Nielsen Media Research in den USA mehr Erwachsene im Alter von 18 bis 34 Jahren als jedes Kabel-TV-Netzwerk; in Deutschland hat das Portal einen Marktanteil von 80 Prozent bei Videoplattformen. Weltweit werden heute täglich rund eine Milliarde Stunden YouTube-Videos aufgerufen. Die 20 am häufigsten aufgerufenen Videos verzeichnen alle über zwei Milliarden Views. Anwender können auch auf gewerblicher Basis abonnierbare Videokanäle einrichten und damit selbst Erträge erwirtschaften. Videos von YouTube und anderen Media-Sharing-Diensten können auch heruntergeladen werden. Allerdings ist dazu zusätzliche Software nötig. Mit dem Firefox Add-on Video DownloadHelper oder Tools wie SaveFrom.net Helper können die Videos in gängigen Dateiformaten offline verfügbar gemacht werden. Mit einem eigenen Rechteverwaltungssystem, basierend auf Googles Content ID, einer speziellen Software zur Ermittlung von Werkkopien im Videoportal, können Rechteinhaber seit 2007 ihre Werke verwalten und gegen die unerlaubte Nutzung auf dem Videoportal schützen. Die zugrunde liegende Datenbank umfasst mehr als 50 Millionen Referenzdateien. Das System unterstützt auch die Monetarisierung: Bis Juli 2016 hat YouTube rund zwei Milliarden USDollar an Rechteinhaber gezahlt. Um eine so leistungsfähige Software wie Content ID implementieren zu können, mussten Enwicklungskosten in Höhe von über 50 Millionen Euro aufgewendet werden.

172  2 Das World Wide Web als eine Anwendung des Internets

Im Dauerstreit: YouTube und die GEMA Der jahrelange Rechtsstreit zwischen der Gesellschaft für musikalische Aufführungs- und mechanische Vervielfältigungsrechte (GEMA) und YouTube ist Ihnen sicherlich nicht entgangen. Seit Ablauf ihrer befristeten Interimsvereinbarung über die Einräumung von Nutzungsrechen zum 31. März 2009 befanden sich die beiden Vertragsparteien in der Auseinandersetzung. Mit sogenannten Sperrtafeln wurden bei YouTube die anlässlich des Streits in Deutschland nicht abrufbaren Inhalte gekennzeichnet. Kern des Rechtsstreits um die Abgrenzung von Content- und Host-Provider war die Frage, ob YouTube als Musikdienst die Verantwortung für im Portal eingestellte Inhalte trägt oder lediglich seinen Nutzern eine Plattform zur Verbreitung von Inhalten zur Verfügung stellt. Beim Oberlandesgericht München trug die GEMA vor, zahlreiche über das Portal zugänglich gemachte Videoclips enthielten Werke, an denen die GEMA zur elektronischen Übermittlung ausschließlich berechtigt sei. Da weder die einstellenden Nutzer noch die Beklagte YouTube für die Vervielfältigung und öffentliche Zugänglichmachung von der GEMA die erforderlichen Nutzungsrechte an den Musikwerken erworben hätten, seien jene in Deutschland widerrechtlich zugänglich gemacht worden. Mit ihrer Klage machte die GEMA insbesondere urheberrechtliche Schadensersatzansprüche geltend. Das Oberlandesgericht München machte in seinem Urteil vom 28. Januar 2016, Aktenzeichen 29 U 2798/15 jedoch deutlich, dass […] die Beklagte nicht für die Rechtsverletzungen haftet, die darin liegen, dass die streitgegenständlichen Musikwerke über YouTube öffentlich zugänglich gemacht werden. (Rn. 37)

Die maßgebliche Tathandlung zur Verletzung des Rechts der öffentlichen Zugänglichmachung liege, so das die vorhergehende Enscheidung des Landgerichts bestätigende Oberlandesgericht, bereits im Upload des urheberrechtlich geschützten Materials, nicht erst in dessen Übermittlung: Tathandlung ist bei der Verletzung des Rechts der öffentlichen Zugänglichmachung gemäß § 19a UrhG entgegen der Diktion der Klägerin nicht die Übermittlung einer das betreffende Musikwerk enthaltenden Datei; ausreichend ist vielmehr bereits, dass Dritten der Zugriff auf das sich in der Sphäre des Vorhaltenden befindende Werk eröffnet wird, ohne dass es darauf ankäme, ob diese Möglichkeit tatsächlich genutzt – das Werk also tatsächlich übermittelt – worden ist […]. (Rn. 43) Im Streitfall wird die Möglichkeit des Abrufs vom einstellenden Nutzer selbst – unter Verwendung der von der Beklagten gestellten technischen Mittel – bewirkt, weil seine Inhalte bereits durch das von ihm vorgenommene Einstellen allgemein abrufbar werden. Wegen

Von Web 1.0 zu Web 2.0 

173

dieser hier vorliegenden Verknüpfung von Einstellen der Inhalte durch Hochladen („Upload“) und deren Abrufbarkeit hat das Landgericht entgegen der Auffassung der Klägerin zu Recht darauf abgestellt, dass der Upload durch die einstellenden Nutzer – nicht als solcher, sondern weil damit uno actu auch die Zugänglichmachung erfolgt – die streiterhebliche Nutzungshandlung darstellt. Ob dies bei anderen Fallgestaltungen, in denen das Einstellen (der Upload) nicht automatisch zur Abrufbarkeit führt […], ebenso zu sehen ist, bedarf vorliegend keiner Entscheidung. (Rn. 44)

Zudem mache sich YouTube die hochgeladenen Inhalte auch nicht zu eigen: Die Beklagte macht sich die von den einstellenden Nutzern öffentlich zugänglich gemachten Inhalte nicht zu Eigen. Für den maßgeblichen verständigen Durchschnittsnutzer übernimmt die Beklagte keine Verantwortung für diese Inhalte; vielmehr ist jedem verständigen Nutzer klar, dass es sich dabei nicht um Inhalte handelt, für welche die Beklagte die inhaltliche Verantwortung übernähme oder mit denen sie sich identifizierte, sondern um solche, die von Dritten herrühren und von diesen abrufbar gemacht werden. Die von der Klägerin im Berufungsverfahren zur Stützung ihrer entgegengesetzten Einschätzung vorgetragenen Umstände führen zu keiner anderen Bewertung. (Rn. 45)

Auch in der Berufungsinstanz drang die GEMA folglich mit ihrem Anliegen nicht durch. Wegen der grundsätzlichen Bedeutung des Rechtsstreits ließ das Oberlandesgericht die Revision zu. Die Klage vor dem Bundesgerichtshof (Aktenzeichen I ZR 61/16) konnte jedoch zurückgenommen worden. Die GEMA und YouTube einigten sich am Jahresende 2017 auf einen Nutzungsvertrag, mit dem der Streit über die divergierenden Rechtsauffassungen allerdings ausdrücklich nicht beigelegt wurde.

Video-Sharing-Plattformen und das Recht Eine Pflicht für die Betreiber von Videoportalen zur Vorabkontrolle der fremden, dort hochgeladenen Inhalte auf mögliche Rechtsverletzungen hatte das Hanseatische Oberlandesgericht Hamburg in seinem Urteil vom 29. September 2010, Aktenzeichen 5 U 9/09 zum früheren Videoportal sevenload.de ausgeschlossen: Nach der Rechtsprechung des BGH ist es einem Unternehmen, welches im Internet eine Plattform für Fremdversteigerungen betreibt, nicht zuzumuten, jedes Angebot vor der Veröffentlichung im Internet auf eine mögliche Rechtsverletzung hin zu untersuchen, weil dies das gesamte Geschäftsmodell in Frage stellen würde. Erst dann, wenn der Betreiber auf eine klare Rechtsverletzung hingewiesen wird, muss er das konkrete Angebot unverzüglich sperren und dafür Vorsorge treffen, dass es möglichst nicht zu weiteren Rechtsverletzungen kommt […]. Entsprechendes ist für Internetforen anerkannt […]. Vorliegend handelt es sich um ein vergleichbares Geschäftsmodell. Die Antragsgegnerin hat […] täg-

174  2 Das World Wide Web als eine Anwendung des Internets

lich mehr als 50.000 Uploads von Nutzern zu bewältigen. Ohne konkrete Anhaltspunkte, die für die streitgegenständlichen Musikvideos nicht vorgetragen sind, war sie nicht verpflichtet, diese Datenmengen proaktiv auf Rechtsverletzungen hin zu untersuchen. (Rn. 52)

Mit der Frage, ob der Betreiber einer Video-Sharing-Plattform nicht vielmehr aus eigener Nutzungshandlung, nämlich der öffentlichen Wiedergabe, für rechtswidrig eingestellte Inhalte seiner Nutzer haften müsse, hat der Bundesgerichtshof mit seinem Vorlagebeschluss vom 13. September 2018, Aktenzeichen I ZR 140/15 den Europäischen Gerichtshof im Rechtsstreit zwischen einem Musikproduzenten und YouTube betraut. Die Entscheidung des Europäischen Gerichtshofs darf mit Spannung erwartet werden, zumal der europäische Gesetzgeber im Rahmen der geplanten Urheberrechtsreform eine entsprechende Verschärfung der Providerhaftung ins Auge gefasst hat, die die Plattformbetreiber nach gegenwärtig allgemeinen Befürchtungen zur Einführung von Monitoringund Filtersystemen, sogenannten Uploadfiltern, veranlassen dürfte. Nun kommen wir noch zu einer urheberrechtlichen Frage, die Ihnen sicher nicht auf Anhieb in den Sinn kommt, wenn Sie an YouTube oder Vimeo denken: Wie weit reicht eigentlich das Zitatrecht bei Erstellung eines YouTube-Videos? In der digitalen Kommunikation können die Grenzen zwischen eigenen und fremden Inhalten verschwimmen. Dennoch bedarf die urheberrechtsrelevante Nutzung eines fremden Werkes einer Gestattung. Eine wichtige, gesetzlich erlaubte Nutzung in der Beschäftigung mit Werken Dritter stellt das Zitieren dar. Das Zitatrecht im Urheberrechtsgesetz gestattet die Vervielfältigung, Verbreitung und öffentliche Wiedergabe eines veröffentlichten Werkes zum Zweck des Zitats, sofern die Nutzung in ihrem Umfang durch den besonderen Zweck gerechtfertigt ist, § 51 S. 1 UrhG. Die Bestimmung gilt auch für Filmzitate und Zitate aus Multimediawerken. In dem folgenden Fall musste das Oberlandesgericht Köln darüber befinden, ob die Verwendung eines fremden Werkes bei Erstellung eines YouTubeVideos vom Zitatrecht gedeckt war. Zum Sachverhalt: Der Antragsteller wandte sich gegen ein auf dem YouTube-Kanal „Nitro Shqip“ veröffentlichtes Video mit dem Titel „Sara's Show 46“. Er machte geltend, darin seien sowohl Sequenzen eines von ihm gedrehten Dokumentarfilms als auch ein Foto, an dem ihm die Nutzungsrechte zustünden, zu sehen. Die Antragsgegner beriefen sich auf das Zitatrecht nach § 51 UrhG, das ihnen die Verwendung des fremden Materials gestatte. Eine inhaltliche Auseinandersetzung mit dem übernommenen Bildmaterial ließ sich jedoch nicht erkennen. Das Gericht prüfte die konkrete Nutzung und entschied in seinem Urteil vom 13. Dezember 2013, Aktenzeichen

Von Web 1.0 zu Web 2.0



175

I-6 U 114/13, 6 U 114/13 unter Berücksichtigung der ausdifferenzierten Rechtsprechung zum Umfang des Zitatrechts: Die Einblendung der Videoausschnitte ist auch nicht, wie das Landgericht mit zutreffender Begründung angenommen hat, durch ein Zitatrecht entsprechend § 51 UrhG gedeckt. Die Zitierfreiheit gestattet es nicht, ein Werk nur um seiner selbst willen zur Kenntnis der Allgemeinheit zu bringen. Es reicht nicht aus, dass die Zitate in einer bloß äußerlichen, zusammenhanglosen Weise eingefügt und angehängt werden; vielmehr muss eine innere Verbindung mit den eigenen Gedanken hergestellt werden. Ein Zitat ist deshalb grundsätzlich nur zulässig, wenn es als Belegstelle oder Erörterungsgrundlage für selbstständige Ausführungen des Zitierenden erscheint […]. An dieser Voraussetzung fehlt es jedenfalls dann, wenn der Zitierende sich darauf beschränkt hat, das fremde Werk unter Beifügung einiger dürftiger Bemerkungen mehr oder minder mechanisch auszugsweise zu wiederholen […]. Werden Filmsequenzen um ihrer selbst willen in eine Sendung integriert, ohne dass sie die Grundlage für eigene inhaltliche Ausführungen des Moderators bilden, für die die übernommene Sequenz als Beleg oder als Erörterungsgrundlage dienen könnte, so wird dies vom Zitatrecht nicht gedeckt […]. (Rn. 31)

Der Zitatzweck erfordert mithin eine sinngebende Verknüpfung zwischen dem zitierten Werk und dem Zitierenden, die durch eine geistige Auseinandersetzung mit dem fremden Werk hergestellt wird.

File-Hosting-Dienste File-Hosting-Anbieter speichern Daten online ab, meist zum Zweck der Datensicherung. Ermöglichen sie anderen den Onlinezugriff auf die hochgeladenen Dateien, spricht man vom Filesharing. Gängige Anbieter sind Dropbox oder iCloud. Slideshare ist eine spezielle Plattform zum Teilen von Präsentationen, Infografiken, Dokumenten und Videos. Häufig nutzen Referenten von wissenschaftlichen Fachvorträgen diese Plattform, um Interessierten die zugehörige Präsentation zur Verfügung zu stellen. Registrierte Nutzer können die hochgeladenen Dateien kommentieren und bewerten. Zu den Nutzern von Slideshare.net gehören neben der NASA und dem Weißen Haus auch zahlreiche wissenschaftliche Institutionen, Wissenschaftler und Bibliotheken. Bei der Suche nach beispielsweise „Big Data“ findet man über 10.000 Treffer.

176  2 Das World Wide Web als eine Anwendung des Internets

File-Hosting-Dienste vor Gericht Das Urteil des Bundesgerichtshofs zum File-Hosting-Dienst Rapidshare lohnt an dieser Stelle, erwähnt zu werden. Zum Tatbestand: Die Klägerin, ein weltweit führendes Unternehmen für Computer- und Videospiele, wehrte sich gerichtlich dagegen, dass ihr Verkaufsschlager „Alone in the Dark“ über den Internetdienst Rapidshare öffentlich zugänglich gemacht worden war. Rapidshare, ein FileHosting-Dienst mit Sitz in der Schweiz, der im März 2015 seinen Betrieb eingestellt hat, bot zum damaligen Zeitpunkt Nutzern Speicherplatz im Internet an, um Dateien hochladen und über die Internetseite des Dienstes zugänglich machen zu können. Der Inhalt der hochgeladenen Dateien war dem Dienst nicht bekannt. Über Linksammlungen konnten sich interessierte Nutzer das Angebot der Plattform erschließen. Der Anbieter selbst hielt weder ein Inhaltsverzeichnis noch eine Funktion zum Durchsuchen seines Angebots bereit. Der Bundesgerichtshof äußerte sich in seinem Urteil vom 12. Juli 2012, Aktenzeichen I ZR 18/ 11 wie folgt: Die Beklagte geht grundsätzlich im Einklang mit der Rechtsordnung einer Geschäftstätigkeit als Diensteanbieter gemäß § 2 Nr. 1, § 10 Satz 1 Nr. 1 TMG nach. Das Berufungsgericht hat ohne Rechtsfehler angenommen, dass legale Nutzungsmöglichkeiten des Dienstes der Beklagten, für die ein beträchtliches technisches und wirtschaftliches Bedürfnis besteht, in großer Zahl vorhanden und üblich sind. Neben einer Verwendung als „virtuelles Schließfach“ für eine sichere Verwahrung großer Mengen geschäftlicher oder privater Daten kann der Dienst der Beklagten dazu benutzt werden, bestimmten Nutzern eigene oder gemeinfreie Dateien zum Herunterladen oder zur Bearbeitung bereitzustellen. Das kommt, wie auch die Klägerin einräumt, etwa für Geschäftskunden in Betracht, die ihren Kunden Zugang zu bestimmten Informationen gewähren wollen, oder für Privatpersonen, die selbst erstellte digitale Bilder oder Filme mit Freunden oder Bekannten austauschen möchten. Dabei kann ohne weiteres ein berechtigtes Bedürfnis zum massenhaften Herunterladen großer Dateien durch Dritte bestehen – ein Merkmal, das die Beklagte als Vorteil ihres Dienstes herausstellt. (Rn. 23)

Zu den aus ihrer Geschäftstätigkeit folgenden Pflichten hielt der Bundesgerichtshof fest: Der Beklagten dürfen unter diesen Umständen keine Kontrollmaßnahmen auferlegt werden, die ihr Geschäftsmodell wirtschaftlich gefährden oder ihre Tätigkeit unverhältnismäßig erschweren […]. Insbesondere ist die Beklagte nicht verpflichtet, die von ihr gespeicherten Informationen zu überwachen oder nach Umständen zu forschen, die auf eine rechtswidrige Tätigkeit hinweisen […]. Eine Prüfungspflicht der Beklagten im Hinblick auf das Computerspiel „Alone in the Dark“, deren Verletzung Wiederholungsgefahr begründen kann, konnte daher erst entstehen, nachdem sie von der Klägerin auf eine klare Rechtsverletzung in Bezug auf dieses Spiel hingewiesen worden war […]. Sie war […] ab

Von Web 1.0 zu Web 2.0



177

diesem Zeitpunkt nicht nur dazu verpflichtet, das konkrete Angebot unverzüglich zu sperren, sondern hatte auch Vorsorge zu treffen, dass es möglichst nicht zu weiteren gleichartigen Rechtsverletzungen kam. (Rn. 28–29)

Für die Ermittlung von Urheberrechtsverletzungen eigne sich auch die Verwendung eines Wortfilters in Kombination mit einer manuellen Nachkontrolle, wenngleich in diesem Verfahren womöglich nicht alle Verletzungshandlungen vollständig erkannt werden könnten (siehe Rn. 35). Darüber hinaus sah der Bundesgerichtshof eine weitere, ausschließlich manuelle Maßnahme als geeignet an, um künftig gleichartige Rechtsverletzungen zu vermeiden: Im Übrigen ist der Beklagten grundsätzlich auch eine manuelle Kontrolle jedenfalls einer einstelligen Zahl von Linksammlungen zuzumuten […]. Es kann nicht davon ausgegangen werden, dass dies von vornherein wenig erfolgversprechend wäre oder einen unzumutbaren Aufwand erforderte. Funktion der Linksammlungen ist es gerade, Interessenten mit Hilfe elektronischer Verweise (Links) zu Computerspielen zu führen, die zwar auf den Servern von File-Hosting-Diensten wie der Beklagten gespeichert sind, bei denen aber – um mögliche Wortfilter zu unterlaufen – der (vollständige) Titel des Computerspiels nicht angegeben ist. Die Linksammlungen müssen daher das jeweilige Computerspiel, auf das sich das Interesse richtet, möglichst eindeutig bezeichnen. Es geht also […] um Links, die zu den auf den Servern der Beklagten gespeicherten Dateien mit dem Spiel „Alone in the Dark“ führen, ohne dass dieser Titel im Dateinamen verwendet wird. Denn soweit der Dateiname die zusammenhängenden Wörter „Alone in the Dark“ enthält, kann die entsprechende Datei bereits mit Hilfe eines Wortfilters auf den Servern der Beklagten aufgefunden werden. Die Überprüfung der Linksammlungen durch manuelle Eingabe des Titels kann danach ein verhältnismäßig einfacher, der Beklagten zumutbarer Weg sein, auch diejenigen Dateien auf ihren Servern zu identifizieren, die zwar das Spiel „Alone in the Dark“ enthalten, mit dem üblichen Wortfilter aber nicht aufgefunden werden können. (Rn. 39)

In seiner Pirate-Bay-Entscheidung vom 14. Juni 2017, Rechtssache C-610/15 hat der Europäische Gerichtshof hingegen entschieden, dass auch File-HostingDienste durch Bereitstellen und Betreiben der Plattform aus eigener Nutzungshandlung, der öffentlichen Wiedergabe, Urheberrechtsverletzungen begehen können. Gegenstand der Entscheidung war die Plattform The Pirate Bay (TBP), die es – nomen est omen – ihren Nutzern ermöglicht, urheberrechtlich geschützte Werke ohne Zustimmung oder Vergütung des Urhebers zu tauschen. Dazu befand das Gericht: Gewiss werden, wie das vorlegende Gericht hervorgehoben hat, die den Nutzern der Online-Filesharing-Plattform TPB so zur Verfügung gestellten Werke nicht durch die Betreiber dieser Plattform auf dieser online gestellt, sondern durch ihre Nutzer. Gleichwohl werden diese Betreiber durch die Bereitstellung und das Betreiben einer OnlineFilesharing-Plattform wie der im Ausgangsverfahren in Rede stehenden in voller Kenntnis

178  2 Das World Wide Web als eine Anwendung des Internets

der Konsequenzen ihres Verhaltens tätig, um Zugang zu den geschützten Werken zu gewähren, indem sie auf dieser Plattform die [...-]Dateien indexieren und erfassen, die den Nutzern der Plattform ermöglichen, diese Werke aufzufinden und sie im Rahmen eines „Peer-to-peer“-Netzes zu teilen. [...] (Rn. 36)

Für die Annahme einer eigenen, die täterschaftliche Haftung begründenden Nutzungshandlung ließ es der Europäische Gerichtshof im Ausgangsfall genügen, dass über das ausschließliche Zurverfügungstellen der Infrastruktur hinaus Instrumente zur Erschließung des hochgeladenen Materials wie ein Index, eine Suchfunktion oder eine Klassifikation angeboten wurden. Welche Bedeutung dieses Urteil für die oben erwähnte Entscheidung des Europäischen Gerichtshofs zur YouTube-Vorlage des Bundesgerichtshofs haben wird, darf mit Spannung beobachtet werden.

Podcasting Als Podcasts oder Netcasts bezeichnet man Audio- oder Videodateien, die von Internetnutzern heruntergeladen und meist auch per RSS abonniert werden können. Im Gegensatz zum Streaming, bei dem die Daten nur online wiedergegeben werden sollen, verfolgt das Podcasting ein anderes Konzept: Die Audiooder Videodateien können nach dem Download offline zum Beispiel auf einem tragbaren Wiedergabegerät (zum Beispiel einem MP3-Player) abgespielt werden. Mit dem Aufkommen der qualitativ hochwertigen und schnell übertragbaren, da hochkomprimierten Dateiformate MP3 für Audiodateien und MPEG-4 für Videos erhielt die Verbreitung von Podcasts einen deutlichen Aufschwung. Kleine MP3-Player lösten die analogen tragbaren Kassettenspieler (zum Beispiel den Walkman™) ab und machten die Offlinedateien aus dem Internet auch vor dem Siegeszug der Smartphones mobil verfügbar. Heute bieten viele Rundfunksender ihre Sendereihen als Podcasts an. Noch ein interessantes Beispiel aus der Welt der Wissenschaft ist Podcampus.de: Die Hamburger Hochschulen bieten auf ihrer Podcasting-Plattform Audio- und Videobeiträge mit Themen aus allen Gebieten der Wissenschaft zum Download und Streaming an.

Streamingdienste zum Hören und Sehen Streaming ist eine Technik zur Übertragung von Mediendateien, zum Beispiel von Filmen oder Musikstücken. Dateien werden dabei nicht komplett übertra-

Von Web 1.0 zu Web 2.0 

179

gen, sondern in einem kontinuierlichen Fluß von kleinen Paketen an den Streamingclient geschickt, der die Dateien sofort verarbeitet und dann verwirft. Vorteil ist dabei, dass auch bei großen Datenmengen und einer relativ langsamen Netzverbindung mit dem Abspielen der Mediendateien sofort begonnen werden kann. Damit der Datenfluss bei instabilen Übertragungen nicht gleich ins Stocken gerät, wird dem Client in der Regel ein kleiner Datenpuffer vorgeschaltet. Unterschieden wird zwischen demen Livestreaming, der Liveübertragung des Inhalts zeitgleich zu der gestreamten Veranstaltung, und dem Streaming on demand, der zeitversetzten Wiedergabe bei Abruf. Musikstreamingdienste wie Spotify, Deezer, Simfy oder juke mit vielen Millionen Nutzern weltweit – zum Beispiel waren es im März 2018 beim schwedischen Anbieter Spotify rund 170 Millionen Nutzer – entwickeln sich hin zu sozialen Musiknetzwerken. Es ist zum Beispiel bei Spotify möglich, die abgespielten Songs („Playlists“) anderer Benutzer oder von Musikern mitzuverfolgen, Musik zu bewerten und Kontakt aufnehmen mit Benutzern mit ähnlichem Musikgeschmack. Aus der Summe der aufgerufenen Titel werden nationale und internationale Hitlisten erzeugt. Auch personalisierte Empfehlungen auf Basis der bisher aufgerufenen Titel sind verfügbar. Netflix, gegründet von Reed Hastings und Marc Randolph, ist ein kommerzieller Video-on-Demand-Anbieter, der seine Inhalte den Abonnenten per Videostreaming zur Verfügung stellt. Seit 2014 ist Netflix in Deutschland verfügbar, allerdings mit einem im Vergleich zu den USA aus rechtlichen Gründen relativ beschränkten Angebot. Auch wenn es bei Netflix vorwiegend um ein Unterhaltungsangebot geht, verdient der Umgang mit Algorithmen bei Netflix ein besonderes Augenmerk: Neukunden werden aufgefordert, vier Filme oder Serien auszuwählen, die Ihnen besonders gefallen. Aus diesen Angaben, den weiteren Sehgewohnheiten und den Empfehlungen von Facebook-Freunden werden durch Algorithmen die weiteren Filme ausgewählt, die Netflix dem Kunden empfiehlt. Alle Filme können mit Sternen bewertet, anderen empfohlen und auch ausführlich rezensiert werden. Aufgrund der Analysen des Geschmacks seiner Kunden produziert Netflix selbst Serien. So ist die erfolgreiche, mit drei Emmys ausgezeichnete US-Serie „House of Cards“ entstanden. Vielleicht ist die erste gedankliche Folgerung aus dem Konzept, Angebote nach dem mit Daten belegbaren Geschmack der Kunden zu entwickeln, die eines drohenden Qualitätsverfalls, der im Trash-TV des konventionellen Privatfernsehens zuhauf zu beobachten ist. Tatsächlich ist das Angebot aber durch die Analyse und Prognose des Kundengeschmacks durch ein Team vom rund 800 Statistikern, Mathematikern und Ingenieurwissenschaftlern keineswegs anspruchslos geworden, so dass Alina Fichtner in der Wochenzeitung „Die Zeit“ resümieren konnte:

180  2 Das World Wide Web als eine Anwendung des Internets

So haben Hastings und seine Leute bewiesen, dass die Zuschauer sehr wohl herausgefordert werden wollen – und ein TV-Unternehmen mit anspruchsvollen, mehrdimensional erzählten Serien höchst erfolgreich sein kann. (Fichtner 2014)

Persönliches Livestreaming Ein aktueller Trend im Social Web ist das persönliche Livestreaming mit der eigenen Smartphonekamera oder Webcam. Videoplattformen für stationäre Computer wie YouNow oder für mobiles Livestreaming wie Periscope erlauben es, seine Umgebung oder sich selbst mit einer Smartphonekamera oder einer Webcam zu filmen und die Aufnahmen live ins Netz zu übertragen. Allein im Januar 2015 wurden aus Deutschland mit YouNow 16 Millionen Streams gesendet, meist von Jugendlichen. Das Publikum der Videos kann per Chat Kontakt mit dem Sendenden aufnehmen, so dass ein interaktives Programm zustande kommen kann. Vor allem im mobilen Livestreaming wird häufig eine Alternative zur journalistischen Liveberichterstattung gesehen, da jeder Ein-Personen-Sender zum Bürgerjournalisten werden und so die sozialen Netzwerke unmittelbar mit einer Liveberichterstattung versorgen kann. Die Technik des Livestreamings findet auch im wissenschaftlichen Bereich gerade aufgrund ihrer Einfachheit und Interaktivität Anwendung beim Abhalten von Seminaren und Sprechstunden oder beim Dokumentieren von Experimenten. Jugendschützer und das Bundesfamilienministerium warnten Anfang 2015 allerdings zu Recht vor der privaten Nutzung der Plattform YouNow durch Minderjährige, da Kinder und Jugendliche durch die Livestreamingtechnik allzu leicht unangemessene Einblicke in ihre Privatsphäre geben können. YouNow, das eigentlich als Selbstmarketingplattform für Musiker gegründet worden war, räumte die Probleme beim Monitoring aufgrund des schnellen Wachstums ein.

Das Streaming und das Recht Die juristische Würdigung sowohl des Live- als auch des Streamings on demand führt unter den Rechtswissenschaftlern zu uneinheitlichen Ergebnissen. Die Überlegungen gestalten sich zweistufig: Zunächst stellt sich die Frage, ob das Vervielfältigungsrecht als das ausschließliche Recht des Rechteinhabers, Vervielfältigungsstücke seines Werkes anzufertigen, aufgrund der technisch unumgänglichen Zwischenspeicherung betroffen ist. So erfolgt beim Streaming on demand mit dem sogenannten progressiven Download die sequenzierte Daten-

Von Web 1.0 zu Web 2.0



181

übertragung in temporäre Dateien, die schlussendlich in eine vollständige Werkvervielfältigung mündet. Daran ändert auch die unmittelbare Dateilöschung nach Wiedergabe nichts. Beim Livestreaming wird, wenngleich nach einem anderen Verfahren und nur für wenige Sekunden, ebenfalls im Empfangsspeicher jeweils eine Sequenz der Mediendatei abgelegt. Ob diese Formen der temporären Speicherung das Vervielfältigungsrecht berühren, wird in der rechtswissenschaftlichen Fachwelt unterschiedlich bewertet. Der urheberrechtliche Schutz scheitert in der Regel nicht bereits am Ausbleiben der geforderten Schöpfungshöhe. Allein zum Beispiel bei der Zwischenspeicherung in Sekundenlänge von Filmwerken werden bis zu 25 Einzelbilder gespeichert, die zumindest in ihrer Gesamtheit die Schöpfungshöhe erreichen und urheberrechtlichen Schutz genießen. Das Urheberrechtsgesetz lässt darüber hinaus auch die lediglich vorübergehende Vervielfältigung in den Anwendungsbereich der Norm fallen. Der Einwand, eine dauerhafte Speicherung bliebe beim Streaming aus, kann die rechtliche Relevanz mithin ebenso wenig verneinen. Allerdings sieht das Urheberrecht – nun auf der zweiten Stufe unserer Überlegungen – vor, dass vorübergehende Vervielfältigungshandlungen, die flüchtig oder begleitend sind und einen integralen und wesentlichen Teil eines technischen Verfahrens darstellen, zulässig sein können. Eine Anwendbarkeit der relevanten Bestimmung setzt jedoch insbesondere eine rechtmäßige Nutzung und das Fehlen einer eigenen wirtschaftlichen Bedeutung voraus. Nach bisher überwiegender Meinung galt das Streaming von illegal zugänglich gemachten Filmen – wenngleich in einer rechtlichen Grauzone – als rechtmäßig, da es den reinen Werkgenuss betrifft und als solcher nicht von der Rechtswidrigkeit der Quelle beeinträchtigt werden sollte. Die aktuelle Rechtsprechung des Europäischen Gerichtshofs dürfte nun jedoch zu einer anderen Bewertung veranlassen: In seinem Urteil vom 26. April 2017, Rechtssache C-527/15 sah der Gerichtshof das Streaming für den Fall als unzulässig an, dass der Nutzer um die Rechtswidrigkeit des verbreiteten Streams wusste. Im konkret zu entscheidenden Fall ging es um den Verkauf eines speziellen Medienabspielers, der die öffentliche Zugänglichmachung urheberrechtlich geschützter audiovisueller Werke ohne Erlaubnis der Rechteinhaber ermöglichte. Der Europäische Gerichtshof stellte in seinem Urteil fest, dass das Streaming von der Website eines Dritten, auf der das Werk ohne Erlaubnis des Urheberrechtsinhabers angeboten wird, nicht den Anforderungen an die Rechtmäßigkeit einer vorübergehenden Vervielfältigungshandlung genügt (siehe Rn. 72). Dabei dürfte der im zu entscheidenden Fall vorliegenden Kenntnis der Sachlage das Kennenmüssen gleichgesetzt werden: Streamt ein Nutzer auf Portalen wie kinox.to Filme, die derweil im Kino laufen oder für deren Konsum er anderweitig zahlen müsste, weiß er um die Rechtswidrigkeit oder hätte darum wissen

182  2 Das World Wide Web als eine Anwendung des Internets

müssen. In eben diesen Fällen gerät auch in Zweifel, ob die technisch bedingte, vorübergehende Vervielfältigungshandlung nicht ohnehin auch eine eigenständige wirtschaftliche Bedeutung hat. In seiner bisherigen Rechtsprechung forderte der Europäische Gerichtshof jedoch eine weitergehende wirtschaftliche Bedeutung, die über die Teilhabe am wirtschaftlichen Wert des Werkes durch dessen Wahrnehmung hinausgeht (siehe Urteil vom 04. Oktober 2011, Rechtssachen C-403/08 und C-429/08, C-403/08, C-429/08, Rn. 174–177). Bei der oben geschilderten Vervielfältigung greift auch die Schranke der Privatkopie nicht ein, da sie die Erstellung privater Kopien nur gestattet, soweit deren Vorlage nicht offensichtlich rechtswidrig zugänglich gemacht worden ist. Offensichtlichkeit liegt nach der juristischen Literatur jedenfalls dann vor, wenn eine rechtmäßige Veröffentlichung bei vernünftiger Betrachtung auszuschließen ist bzw. an der Rechtswidrigkeit keine ernsthaften Zweifel bestehen können. Konzertmitschnitte, für deren Erstellung die Zustimmung des Rechteinhabers nach allgemeiner Erwartung nicht vorlag, oder Kinofilme, die in den Filmtheatern noch nicht angelaufen bzw. noch zu sehen sind, sind als offensichtlich rechtswidrig zugänglich gemachte Vorlagen zu erkennen. Ein widerrechtlich auf YouTube eingestelltes Video muss aber nicht unbedingt als solches offensichtlich erkennbar sein. Eine Nachforschungspflicht trifft den Nutzer nicht. Im Streitfall liegt es beim Rechteinhaber, die Rechtswidrigkeit der Vorlage zu belegen.

Mashups Mashups sind Kombinationen verschiedener Inhalte. Dabei werden über offene Programmierschnittstellen Daten aus einer Anwendung geholt und in eine neue Anwendung integriert. Durch diese Kombination entsteht ein Mehrwert, da bestehende Daten zu einem größeren Ganzen integriert werden. Ein Beispiel für ein Mashup aus dem Bereich der Hochschulforschung ist das Projekt „Air Traffic“ der Zürcher Hochschule für angewandte Wissenschaften ZHAW, bei dem Transponderdaten von Flugzeugen mit Google Maps verknüpft werden, so dass die Flugbewegungen am Flughafen Zürich übersichtlich auf einer digitalen Karte in Echtzeit visualisiert werden können (siehe die Webdemo unter http:// radar.zhaw.ch/radar.html). Die Übernahme der Buchcoveranzeige von Amazon in den OPAC oder die Anzeige des Bibliotheksstandorts durch Google My Business in Google Maps sind Beispiele für Mashups aus dem Bibliotheksbereich.

Von Web 1.0 zu Web 2.0 

183

Die Grenzen verschwimmen Mit zunehmender Ausdifferenzierung der Webdienste erweitern sich auch deren Funktionalitäten, so dass einzelne Plattformen nicht nur immer einer Kategorie von Webangeboten zugeordnet werden können. Der Streamingdienst Spotify entwickelt sich in Richtung eines sozialen Musiknetzwerks, während das soziale Netzwerk Instagram künftig auch den Upload von Videos von bis zu einer Stunde Länge ermöglichen und so dem Video-Sharing-Dienst YouTube Konkurrenz machen will. Der Instant Messenger WhatsApp weist durch seine Gruppenchatfunktion Elemente eines sozialen Netzwerks auf und ist zugleich Internettelefonie-Provider. Der Trend dürfte in den nächsten Jahren noch weiter in Richtung multifunktionaler Plattformen gehen.

Das Social Web im Blick behalten: Social-Web-Monitoring Einen Überblick über Themen und deren Bewertung im Social Web zu erhalten ist für Nachrichtenredaktionen, Firmen (zum Beispiel zur Erforschung des Markenimages) und in Zukunft wohl auch für den wissenschaftlichen Bereich wichtig. Zu diesem Zweck werden Social-Web-Monitoring- und -Analyse-Tools angeboten, die meist nur gegen Bezahlung in vollem Umfang genutzt werden können. Einen aktuellen Marktreport für den professionellen Bereich bietet unter anderem die Schweizer Online-Marketing-Agentur Goldbach kostenfrei im Web an (siehe Wörmann, Lauber und Assaad 2016). In diesem Buch werden nur zwei Tools für das Social-Web-Monitoring exemplarisch vorgestellt; für eine professionelle wissenschaftliche Analyse des Social-Web-Auftritts einer Organisation sind kostenpflichtige Expertensysteme wohl nicht zu umgehen: – Socialmention.com: Die gleichzeitige Suche nach Begriffen auf über 80 Plattformen des Social Webs wie zum Beispiel Twitter, Facebook, FriendFeed, YouTube und Digg erlaubt nach eigener Aussage die Website von socialmention.com. Dabei kann getrennt nach User-generated Content in Blogs, Microblogs, Kommentaren und vielem mehr gesucht werden. – Tagboard: Mit Tagboard können mehrere soziale Netzwerke (unter anderem Facebook, Twitter, Instagram) gleichzeitig nach bestimmten Hashtags durchsucht werden. Für registrierte Benutzer besteht auch die Möglichkeit, in separaten Reitern Tagboards mit vordefinierten Hashtags zu erstellen. Auf diesen personalisierten Tagboards werden dann immer die aktuellen Posts zu den gewählten Hashtags angezeigt.

184  2 Das World Wide Web als eine Anwendung des Internets

Wissenschaftskommunikation in Zeiten des Social Webs Wissenschaftskommunikation wird in zwei Formen unterteilt, in die „Scholarly Communication“, das heißt die Kommunikation unter Wissenschaftlern, zumeist unter Fachkollegen, und in die „Science Communication“, die die Kommunikation von Wissenschaftlern mit der Gesellschaft bezeichnet (siehe Ball 2014, S. 13). Beide Formen haben durch das Social Web neue Impulse erhalten, die – konsequent umgesetzt – das Potenzial besitzen, die Kommunikationsstrukturen und -kulturen beider Formen nachhaltig zu verändern. War seit dem ausgehenden 17. Jahrhundert die Printpublikation als Artikel in einer wissenschaftlichen Zeitschrift oder als wissenschaftliche Monografie die entscheidende Quelle wissenschaftlicher Kommunikation, die Fachkollegen in ihren Arbeiten wieder entsprechend zitierten, brachte das Web die Möglichkeiten mit sich, bereits den Entwicklungsprozess wissenschaftlicher Erkenntnis online als Teilergebnis wissenschaftlichen Arbeitens zu präsentieren und im virtuellen Rahmen zu diskutieren. Auch veränderte, dem Web angepasste Kommunikations- und Publikationsformen gingen mit der Verlagerung wissenschaftlicher Tätigkeit in den digitalen Raum einher: Je nach Wissenschaftsdisziplin und damit verbundener Kommunikations- und Publikationskultur kommen dafür – neben dem bereits lang etablierten Austausch über E-Mail und Mailinglisten – soziale Netzwerke, Microbloggingdienste, wissenschaftliche Blogs oder Chatprogramme zur Anwendung. Texte können dabei beispielsweise mit Multimediainhalten oder Forschungsdaten durch die Verlinkungsstruktur des Webs problemlos angereichert werden. Video Articles können den textbasierten Austausch sogar gänzlich ersetzen (siehe den detaillierten Überblick zu neuen Publikationsformen in der Wissenschaft in Maron und Smith 2008, S. 17–34). Eine aktuelle, noch nicht bei Maron und Smith erwähnte digitale Publikationsform stellen die Nanopublikationen dar, die kleinste Einheiten von Informationen nach dem Subjekt-Prädikat-Objekt-Schema, wie zum Beispiel „Mücken übertragen Malaria“, eindeutig identifizierbar und somit zitierfähig machen. Die Geschichte und Entwicklung der Wissenschaftskommunikation wird von Ball wie folgt umrissen: War die Wissenschaftskommunikation in der Antike noch eine rein mündliche, synchrone Kommunikation, hat die Verschriftlichung mit der Entwicklung des Buchdrucks durch Gutenberg schließlich in der Institutionalisierung der Wissenschaftskommunikation […] im 17. Jahrhundert und der Explosion des wissenschaftlichen Outputs im 19. Jahrhundert einen Höhepunkt erreicht. Aus der mündlichen Tradition ist eine schriftliche, eine asynchrone Wissenschaftskommunikation geworden. So ist die Gegenwart von einem Nebeneinander der mündlichen, schriftlichen und digitalen Forschungs- und Wissenschaftskommunikation gekennzeichnet. (Ball 2009, S. 49)

Von Web 1.0 zu Web 2.0



185

Dem Web wird das Potenzial zugesprochen, alle Formen der Scholarly Communication der letzten Jahrtausende miteinander zu vereinen. Die technischen Möglichkeiten für diesen Meilenstein in der Wissenschaftskommunikation sind vorhanden. Nun kommt es darauf an, dass Wissenschaftler diese neuen Kommunikationswege auch tatsächlich auf dem Gebiet der Forschung und Lehre einsetzen. In Deutschland geschieht dies zugegebenermaßen nur zögerlich. So zeigte der „Science 2.0-Survey 2014“ des Leibniz-Forschungsverbundes Science 2.0 beispielsweise, dass nur eine Minderheit der über 1.400 befragten Wissenschaftler an deutschen Hochschulen Blogs oder Microblogs beruflich nutzt (Blogs annähernd 30 Prozent, Microblogs nur ungefähr 10 Prozent, siehe Pscheida et al. 2015, S. 24). Nur 39 Wissenschaftler (d.h. 2,7 Prozent der Befragten) gaben an, Blogs zum Austausch mit Kollegen zu nutzen; bei den Microblogs waren es nur 30 Personen (d.h. 2,1 Prozent der Befragten). Als Gründe für die Nichtnutzung wurde an erster Stelle der fehlende Mehrwert für die Wissenschaft genannt. Die Onlinebefragung „Digitale Wissenschaftskommunikation 2010–2011“ nennt als differenzierte Gründe für eine verhaltene Nutzung von Weblogs die Unübersichtlichkeit der Blogosphäre, den unklaren wissenschaftlichen Nutzen der Blogs sowie die Zeitintensität der Blognutzung. Darüber hinaus tragen Blogbeiträge im Unterschied zu Zeitschriftenartikeln kaum zur wissenschaftlichen Reputation bei (siehe Bader, Fritz und Gloning 2012, S. 12). Derzeit lässt sich noch nicht absehen, ob bzw. wann die neuen webbasierten Formen der Scholarly Communication die traditionellen Varianten ersetzen werden. Eine besonders intensive Form der Scholary Communication sehen virtuelle Forschungsumgebungen (engl. Virtual Research Environments, VRE oder Virtual Laboratories) vor, die den gesamten Forschungsprozess bis zur Publikation unterstützen können. Als digitale Arbeitsplattform erlauben sie die kooperative Forschungstätigkeit mehrerer Wissenschaftler an verschiedenen Orten zur gleichen Zeit. VREs existieren heute projektbezogen, sind aber für den Dauerbetrieb kaum im Einsatz. Als virtuelle Forschungsumgebung speziell für die Geisteswissenschaften wurde von 2006 bis 2015 mit Unterstützung des Bundesministeriums für Bildung und Forschung die virtuelle Forschungsumgebung TextGrid projektiert. TextGrid wurde von zehn wissenschaftlichen Verbundpartnern gemeinsam als Plattform für die vernetzte Zusammenarbeit von Geisteswissenschaftlern im digitalen Raum, zum Beispiel für die Erstellung von digitalen Editionen, entwickelt und ausgestaltet. Beispielhafte Projekte der digitalen Geisteswissenschaften (engl. digital humanities), die mit TextGrid umgesetzt wurden, werden auf der Website von Textgrid detailliert vorgestellt. Bei der Science Communication, die lange Zeit vom klassischen Wissenschaftsjournalismus besetzt war, lässt sich seit Jahren ebenfalls ein Wandel beobachten. Während die – im besten Wortsinn – populärwissenschaftlichen

186  2 Das World Wide Web als eine Anwendung des Internets

Zeitschriften als traditionelle Produkte der Wissenschaftspublizistik wie zum Beispiel GEO, Bild der Wissenschaft oder National Geographic Deutschland fast ausnahmslos bei ihrer Auflagenstärke Einbußen von durchschnittlich rund 30 Prozent im Zeitraum vom 2000 bis 2010 (siehe Gerber 2011, S. 12) hinnehmen mussten, genießen Portale für deutschsprachige Wissenschaftsblogs eine hohe Popularität unter den Webteilnehmern. Als Beispiele lassen sich SciLogs und ScienceBlogs sowie Blogs wissenschaftlicher Einrichtungen wie zum Beispiel der des Fraunhofer-Instituts für Arbeitswirtschaft und Organisation (IAO) oder die Blogs des Deutschen Zentrums für Luft- und Raumfahrt (DLR). Neben der Kostenfreiheit der Blogs sind es vor allem zwei Aspekte, die ihre Attraktivität ausmachen: Erstens besteht die Möglichkeit einer echten Interaktion mit dem Blogger durch Rückmeldungen oder Rückfragen. Zweitens schreiben die Wissenschaftler oft selbst ohne die vermittelnde Instanz eines Journalisten, was den Draht zu der aktuellen Forschung und ihren Forscherpersönlichkeiten herstellt. Der bloggende Astronom Florian Freistetter erhielt zum Beispiel in weniger als zwei Jahren rund 70.000 Kommentare (siehe Gerber 2011, S. 13), was auch die unmittelbare Einbeziehung der interessierten Öffentlichkeit in wissenschaftliche Prozesse auf Augenhöhe durch das Social Web verdeutlicht. Obwohl die Kommunikationsmöglichkeiten des Social Web die Einstiegsbarrieren für die Kommunikation zwischen Forschung und Öffentlichkeit erheblich gesenkt haben, schrecken viele Wissenschaftler immer noch davor zurück, den Dialog mit der Gesellschaft zu suchen. Die Gründe dafür mögen vielfältig sein: Vielleicht aus Angst davor, schlafende Hunde zu wecken, also Kritik, Konflikte und Widerstand gegen die eigene Forschung zu erzeugen? Oder fürchten sie, ihr Thema für Laien nicht vermitteln zu können? Ist es vielleicht einfach nur der bescheidene, nicht auf Selbstdarstellung ausgelegte Charakter vieler Forscher? Oder mangelnde forschungspolitische Rückendeckung gar? In jedem Fall fehlt damit ein wichtiger Kanal, um nicht nur Botschaften der Wissenschaft zu kommunizieren, sondern auch um Verständnis für deren Selbstverständnis und Arbeitsweisen zu wecken. Schlimmstenfalls wird das Feld Populisten, Lobbyisten und selbsternannten Experten kampflos überlassen. (Gerber 2011, S. 14)

Ein Rückzug in den Elfenbeinturm der Wissenschaft ist nicht ratsam, zumal die Deutungshoheit über wissenschaftliche Fakten sonst anderen überlassen würde und die junge Generation nur noch schwer erreicht werden dürfte (vgl. Anderl 2013). Besser wäre es, Methoden beider Formen der Wissenschaftskommunikation in die Studieninhalte der Hochschulen aufzunehmen und auch von Seiten der Politik zunehmend Ressourcen zur Verfügung zu stellen, die der Wissen-

Von Web 1.0 zu Web 2.0



187

schaft ermöglichen, ihrer Verantwortung vor der Öffentlichkeit durch eine ausgeprägte Onlinekommunikationskultur gerecht zu werden. Professionelle Unterstützung für die Wissenschaftler gibt es schon: In der 1999 gegründeten Initiative „Wissenschaft im Dialog“ sind zahlreiche deutsche Wissenschaftsorganisationen, Verbände und Wissenschaftsförderer zusammengeschlossen, um den Prozess der Wissenschaftskommunikation zu fördern. Dabei werden Wissenschaftler unterstützt, die die Relevanz und den Inhalt ihrer Arbeit der interessierten Öffentlichkeit erläutern wollen. Eine besondere Form der Wissenschaftskommunikation bzw. Kollaboration zwischen Forschung und interessierten Laien stellt die Citizen Science, die sogenannte Bürgerwissenschaft, dar. Ihren Ausgang nahm die Kooperation zwischen Laien und Wissenschaftlern in der Weihnachtszeit des Jahres 1900, als die National Audubon Society ornithologisch interessierte Bürger dazu aufrief, Vögel zu bestimmen und zu zählen, um Erkenntnisse über die Verbreitung von bestimmten Arten zu erhalten. Den „Christmas Bird Count“ gibt es auch heute noch. Mit den Möglichkeiten der kollaborativen Vernetzung durch das Internet erhielt die Citizen Science neue Möglichkeiten. Beim Astronomieprojekt Galaxy Zoo sind beispielsweise mehr als 150.000 interessierte Laien dem Aufruf gefolgt, beim Onlineklassifizieren von Galaxien mitzuhelfen. Beim spielerisch angelegten Artigo-Projekt helfen Laien beim Beschlagworten von 30.000 Kunstwerken aus dem Bestand der Datenbank des Instituts für Kunstgeschichte an der Ludwig-Maximilians-Universität München mit. Die Citizen-Science-Plattform „Bürger schaffen Wissen“, die vom Bundesministerium für Bildung und Forschung gefördert wird, präsentiert zahlreiche Projekte, in denen Bürger gemeinsam mit Wissenschaftlern zu verschiedenen Themen forschen können, und zeigt auch Möglichkeiten der Kollaboration auf. Initiatoren von Citizen-Science-Projekten können ihre Projekte vorstellen und sich untereinander vernetzen.

Was Tim Berners-Lee heute ändern würde ... Anlässlich des 28. Geburtstags des World Wide Webs zeigt sich Tim Berners-Lee über drei Entwicklungen im Web besorgt, die seiner Meinung nach korrigiert werden müssten, um das Potenzial des Webs als Instrument, das der gesamten Menschheit dient, auszuschöpfen. Er nennt den Verlust der Kontrolle über persönliche Daten, die ungehinderte Verbreitung von Fake News sowie die Intransparenz politischer Onlinewerbung, die mit unethischen Methoden agiert. Es ist laut Berners-Lee notwendig, mit Internetunternehmen zusammenzuarbeiten, um eine Balance zwischen Datensammlung und Datenschutz zu fin-

188  2 Das World Wide Web als eine Anwendung des Internets

den. Alternative Geschäftsmodelle seien erforderlich, um dem Handel mit persönlichen Daten durch die Internetkonzerne entgegenzutreten. Überwachungstendenzen von Regierungen müsse mit politischem Widerstand begegnet werden, um die (angst-)freie Meinungsäußerung im Web zu gewährleisten oder wiederherzustellen und so die Gefahr der Selbstzensur zu bannen. Internetkonzerne wie Google und Facebook müssten dazu gebracht werden, Fake News effektiv einzudämmen, ohne eine zentrale Zensureinheit aufzubauen. Um manipulative und unethische politische Onlinewerbung, die zum Beispiel auf FakeNews-Websites verlinkt oder versucht, Wähler von der Wahl abzuhalten, künftig zu verhindern, soll das Geschäft mit der politischen Onlinewerbung eine Regulierung durch den Gesetzgeber erfahren. Die Analyse zeigt die Dimension der Probleme, die im Web bewältigt werden müssen, um politische und gesellschaftliche Fehlentwicklungen zugunsten der Selbstbestimmung des Individuums zu korrigieren. Berners-Lee räumt ein: These are complex problems, and the solutions will not be simple. (Berners-Lee 2017)

Literatur Anderl, Sibylle: Wissenschaft mit Friends und Followern. 2013, https://blogs.faz.net/ planckton/2013/05/20/wissenschaft-mit-friends-und-followern-764/ (14.06.2018). Anderson, Chris: The long tail. Nischenprodukte statt Massenmarkt. Das Geschäft der Zukunft. Aktualisierte und erweiterte Auflage. München, 2009. Bader, Anita, Gerd Fritz und Thomas Gloning: Digitale Wissenschaftskommunikation 2010–11. Eine Online-Befragung. 2012, http://geb.uni-giessen.de/geb/volltexte/2012/8539 (14.06.2018). Ball, Rafael: Bibliometrie: einfach, verständlich, nachvollziehbar. Berlin/Boston, 2014. Ball, Rafael: Wissenschaftskommunikation im Wandel. Bibliotheken sind mitten drin, in: Hohoff, Ulrich und Per Knudsen (Hrsg.): Wissen bewegen. Bibliotheken in der Informationsgesellschaft. Frankfurt am Main, 2009, S. 39–54. Bartlakowski, Katja: Urheberrecht für wissenschaftliche Bibliotheken. Bad Honnef, 2018. Becker, Hans-Georg, Iris Hoepfner und Christian Kirsch: Universitätsbibliothek Dortmund 2.0, in: Bergmann, Julia und Patrick Danowski (Hrsg.): Handbuch Bibliothek 2.0. München, 2010, S. 269–286. Bender, Michael: Forschungsumgebungen in den Digital Humanities. Nutzerbedarf, Wissenstransfer, Textualität. Berlin/Boston, 2016. Berberich, Matthias: Zwischenstand zur Haftung von Plattformbetreibern als Intermediäre bei der Werkverwertung, in: GRUR-Prax 2017, S. 269–271. Bergmann, Julia und Jürgen Plieninger: Arbeitsorganisation 2.0. Tools für den Arbeitsalltag in Kultur- und Bildungseinrichtungen. Berlin/Boston, 2013.

Von Web 1.0 zu Web 2.0



189

Berners-Lee, Tim: Tim Berners-Lee: I invented the web. Here are three things we need to change to save it. 2017, https://www.theguardian.com/technology/2017/mar/11/timberners-lee-web-inventor-save-internet (07.06.2018). Berners-Lee, Tim und Scott Laningham: DeveloperWorks Interviews: Tim Berners-Lee. 2006, https://www.ibm.com/developerworks/podcast/dwi/cm-int082206txt.html (14.06.2018). Bloom, Paul: „Wie liebenswürdig die Menschen sein können“. 2011, http://www.spiegel.de/ netzwelt/web/paul-bloom-wie-liebenswuerdig-die-menschen-sein-koennen-a-784936. html (14.06.2018). Blumenstein, Howard: Top 4 Takeaways From the 2015 NewFronts Season. 2015, https://www. thinkwithgoogle.com/articles/top-4-takeaways-from-2015-newfront-season.html (14.06.2018). Casey, Michael E. und Laura C. Savastinuk: Library 2.0. Service for the next-generation library. 2010, http://lj.libraryjournal.com/2010/05/technology/library-2-0 (14.06.2018). Danowski, Patrick und Lambert Heller: Bibliothek 2.0. Die Zukunft der Bibliothek?, in: Bibliotheksdienst 40 (2006), S. 1259–1271. Der Westen (Hrsg.): Recherche-Seite startet viel versprechend. 2010, https://www.derwesten. de/incoming/recherche-seite-startet-viel-versprechend-id4062117.html (28.06.2018). Farber, Dan: Web 2.0 = a piece of jargon. 2006, https://www.zdnet.com/article/web-2-0-apiece-of-jargon/ (25.05.2018). Fichtner, Alina: Netflix – Da! Schau! Her! 2014, http://www.zeit.de/2014/45/netflix-internetfernsehen-online (14.06.2018). Fielding, Roy, Jim Gettys, Jeffrey Mogul, Henrik Frystyk, Larry Masinter, Paul Leach und Tim Berners-Lee: Network Working Group Request for Comments 2616. Hypertext Transfer Protocol – HTTP/1.1. 1999, https://www.ietf.org/rfc/rfc2616.txt (14.06.2018). Finke, Peter: Citizen Science. Das unterschätzte Wissen der Laien. München, 2014. Garber, Patrick und Konstanze Kurz: „Benutzer werden eigentlich kategorisiert“. 2011, http:// www.deutschlandradiokultur.de/benutzer-werden-eigentlich-kategorisiert.990.de.html? dram:article_id=154246 (14.06.2018). Gerber, Alexander: Trendstudie Wissenschaftskommunikation. Vorhang auf für Phase 5. 2011, http://www.stifterverband.de/publikationen_und_podcasts/positionen_dokumentationen/wissenschaftskommunikation_trendstudie/wissenschaftskommunikation_trendstudie_2011.pdf (14.06.2018). Gräbig, Johannes: Aktuelle Entwicklungen bei Haftung für mittelbare Rechtsverletzungen. Vom Störer zum Täter – ein neues einheitliches Haftungskonzept?, in: MMR 2011, S. 504-509. Grell, Petra und Franco Rau: Partzipiationslücken. Social Software in der Hochschullehre. 2011, http://dx.doi.org/10.21240/mpaed/21/2011.11.21.X (14.06.2018). Gunn, William: How Mendeley leverages social signals from domain experts to organize the world's knowledge, in: Keller, Stefan Andreas, René Schneider und Benno Volk (Hrsg.): Wissensorganisation und -repräsentation mit digitalen Technologien. Berlin/Boston, 2014, S. 53–60. Härting, Niko: Internetrecht. 6. Auflage. Köln, 2017. Hetmank, Sven: Internetrecht. Grundlagen, Streitfragen, aktuelle Entwicklungen. Wiesbaden, 2016. Hilgert, Peter und Rüdiger Greth: Urheberrechtsverletzungen im Internet. München, 2014. Himmelein, Gerald: Grimme Online Award. #Aufschrei gewinnt. 2013, http://heise.de/1894916 (14.06.2018). Hoeren, Thomas: Internetrecht. Ein Grundriss. Berlin/Boston, 2017.

190  2 Das World Wide Web als eine Anwendung des Internets

Hoeren, Thomas, Ulrich Sieber und Bernd Holznagel (Hrsg.): Handbuch Multimedia-Recht. 46. Ergänzungslieferung (Stand: Februar 2018). München, 2018. Hoffmann, Christian: Optimierung des behördeninternen Wissensmanagements durch kollaborative Web 2.0-Anwendungen, in: Schliesky, Utz und Sönke E. Schulz (Hrsg.): Transparenz, Partizipation, Kollaboration. Web 2.0 für die öffentliche Verwaltung. Kiel, 2012, S. 87–99. Hornung, Gerrit: Datenschutzrechtliche Aspekte der Social Media, in: Hornung, Gerrit und Ralf Müller-Terpitz (Hrsg.): Rechtshandbuch Social Media. Berlin/Heidelberg, 2015, S. 79–130. Institut für angewandte Informationstechnologie InIT (Hrsg.): Visualisierung von TransponderDaten mittels Mashup. 2007, http://radar.zhaw.ch/resources/AirTrafficPraesentation.pdf (14.06.2018). Jani, Ole und Frederik Leenen: Paradigmenwechsel bei Links und Framings, in: NJW 2016, S. 3135–3138. Karg, Moritz und Sven Thomsen: Datenschutzrechtliche Bewertung der Reichweitenanalyse durch Facebook. 2011, https://www.datenschutzzentrum.de/facebook/facebook-ap20110819.pdf (22.06.2018). Keil, Reinhard: Wissensintegrationsprozesse und verteilte Wissensorganisation, in: Keller, Stefan Andreas, René Schneider und Benno Volk (Hrsg.): Wissensorganisation und -repräsentation mit digitalen Technologien. Berlin/Boston, 2014, S. 161–179. Kirkpatrick, David: Der Facebook-Effekt. Hinter den Kulissen des Internet-Giganten. München, 2011. Klessmann, Jens und Dominic Gorny: Soziale Medien im öffentlichen Sektor. Best Practice für Richtlinien, in: Schliesky, Utz und Sönke E. Schulz (Hrsg.): Transparenz, Partizipation, Kollaboration. Web 2.0 für die öffentliche Verwaltung. Kiel, 2012, S. 101–119. Kloby, Kathryn und Maria J. D'Agostino: Citizen 2.0. Public and governmental interaction through Web 2.0 technologies. Hershey, 2012. Klopp, Tina: Du musst leider draußen bleiben. 2010, http://www.zeit.de/digital/internet/ 2010-02/soziale-netzwerke-elite-facebook (11.06.2018). Kneifel, Fabienne: Mit Web 2.0 zum Online-Katalog der nächsten Generation. Wiesbaden, 2009. Koch, Tobias: Anmerkung zu LG Bielefeld 4. Zivilkammer, Beschluss vom 03.01.2017 – 4 O 144/16, in: jurisPR-ITR 21/2017, Anm. 2. Konferenz der Datenschutzbehörden des Bundes und der Länder (Hrsg.): Die Zeit der Verantwortungslosigkeit ist vorbei: EuGH bestätigt gemeinsame Verantwortung von Facebook und Fanpage-Betreibern. Entschließung vom 05. Juni 2018. 2018, https://www.datenschutzzentrum.de/uploads/facebook/2018-06-05-Entschliessung-DSK-Fanpages-EuGHUrteil.pdf (11.06.2018). Kramp, Leif, Leonard Novy, Dennis Ballwieser und Karsten Wenzlaff (Hrsg.): Journalismus in der digitalen Moderne. Einsichten, Ansichten, Aussichten. Wiesbaden, 2013. Krums, Janis: http://twitpic.com/135xa - There's a plane in the Hudson. I'm on the ferry going to pick up the people. Crazy. 2009, https://twitter.com/jkrums/status/1121915133 (25.05.2018). Lauber-Rönsberg, Anne und Anneliese Hartlaub: Personenbildnisse im Spannungsfeld zwischen Äußerungs- und Datenschutzrecht, in: NJW 2017, S. 1057–1065. Lauber-Rönsberg, Anne: Das Recht am eigenen Bild in sozialen Netzwerken, in: NJW 2016, S. 744–750.

Von Web 1.0 zu Web 2.0



191

Livingstone, Sonia, Leslie Haddon, Anke Görzig und Kjartan Ólafsson: Risk and safety on the internet. The perspective of European children. Full findings and policy implications from the EU Kids Online survey of 9–16 year olds and their parents in 25 countries. London, 2011. Lobo, Sascha: Den Schwarm interessiert nur das Ergebnis. 2013, http://www.spiegel.de/ netzwelt/web/sascha-lobo-missverstaendnis-schwarmintelligenz-a-891986.html (07.06.2018). Maness, Jack M.: Library 2.0 Theory. Web 2.0 and its Implications for Libraries, in: Webology, 3 (2006), N. 2, http://www.webology.org/2006/v3n2/a25.html (14.06.2018). Maron, Nancy L. und K. Kirby Smith: Current Models of Digital Scholarly Communication. Results of an Investigation conducted by Ithaka for the Association of Research Libraries. 2008, http://www.arl.org/storage/documents/publications/digital-sc-models-report2008.pdf (14.06.2018). Meckel, Miriam: Aus Vielen wird das Eins gefunden. Wie Web 2.0 unsere Kommunikation verändert, in: Aus Politik und Zeitgeschichte 39 (2008), S. 17–22, http://www.bpb.de/ apuz/30964/aus-vielen-wird-das-eins-gefunden-wie-web-2-0-unsere-kommunikationveraendert (14.06.2018). Ohly, Ansgar: Der weite Täterbegriff des EuGH in den Urteilen „GS Media“, „Filmspeler“ und „The Pirate Bay“: Abenddämmerung für die Störerhaftung?, in: ZUM 2017, S. 793-802. O'Reilly, Tim: Web 2.0 Compact Definition: Trying Again. 2006, http://radar.oreilly.com/2006/ 12/web-20-compact-definition-tryi.html (25.05.2018). O’Reilly, Tim: What Is Web 2.0. Design Patterns and Business Models for the Next Generation of Software. 2005, https://www.oreilly.com/pub/a/web2/archive/what-is-web-20.html (25.05.2018). Oswald, Bernd: Vom Produkt zum Prozess, in: Kramp, Leif, Leonard Novy, Dennis Ballwieser und Karsten Wenzlaff (Hrsg.): Journalismus in der digitalen Moderne. Einsichten, Ansichten, Aussichten. Wiesbaden, 2013, S. 63–79. Patalong, Frank: Airbus-Unglück auf Twitter. „Da ist ein Flugzeug im Hudson River. Verrückt.“ 2009, http://www.spiegel.de/netzwelt/web/airbus-unglueck-auf-twitter-da-ist-einflugzeug-im-hudson-river-verrueckt-a-601588.html (07.06.2018). Pfeiffer, Dan: How Meerkat is Going to Change the 2016 Election for Every Campaign, Reporter and Voter. 2015, https://medium.com/backchannel/how-meerkat-is-going-to-changethe-2016-election-for-every-campaign-reporter-and-voter-1daa8954e543 (14.06.2018). Plieninger, Jürgen: Änderungen bei der Internetrecherche. Was tut sich bei den Suchdiensten?, in: BuB – Forum Bibliothek und Information 66 (2014), Heft 11/12, S. 798–799. Pscheida, Daniela, Claudia Minet, Sabrina Herbst, Steffen Albrecht und Thomas Köhler: Nutzung von Social Media und onlinebasierten Anwendungen in der Wissenschaft. Ergebnisse des Science 2.0-Survey 2014. Datenreport Hochschulen 2014. 2015, http://nbnresolving.de/urn:nbn:de:bsz:14-qucosa-163135 (14.06.2018). Rauschofer, Hajo: Haftung für Links auf Twitter zu rechtswidrigen Inhalten, in: MMR-Aktuell 2010, 302790. Redeker, Helmut: IT-Recht. 6. Auflage. München, 2017. Reinemann, Susanne und Frank Remmertz: Urheberrechte an User-generated Content, in: ZUM 2012, S. 216–227. Rose, Thomas: Live-Feedback einbinden mit einer Twitterwall. 2011, http://pb21.de/2011/05/ live-feedback-einbinden-mit-einer-twitterwall/ (14.06.2018).

192  2 Das World Wide Web als eine Anwendung des Internets

Rösler, Hannes: Die Schranken des Urheberrechts bei geleakten Regierungsdokumenten. Anmerkung zu der Vorlage BGH ZUM 2017, 753 – Afghanistan Papiere, in: ZUM 2017, S. 758–760. Schliesky, Utz: Verantwortung im E-Government, in: Schliesky, Utz und Sönke E. Schulz (Hrsg.): Transparenz, Partizipation, Kollaboration. Web 2.0 für die öffentliche Verwaltung. Kiel 2012, S. 1–10. Schmidt, Jan-Hinrik: Social Media. 2. Auflage. Wiesbaden, 2018. Schmidt, Jan-Hinrik: Social Media. Verbreitung, Praktiken und Folgen, in: Schüller-Zwierlein, André und Nicole Zillien (Hrsg.): Informationsgerechtigkeit. Theorie und Praxis der gesellschaftlichen Informationsversorgung. Berlin/Boston, 2013, S. 134–150. Schmidt, Jan-Hinrik und Monika Taddicken (Hrsg.): Handbuch Soziale Medien. Wiesbaden, 2017. Schulz, Sönke E.: Einsatz von Social Media durch die öffentliche Verwaltung, in: Hornung, Gerrit und Ralf Müller-Terpitz (Hrsg.): Rechtshandbuch Social Media. Berlin/Heidelberg, 2015, S. 429–486. Schulz, Sönke E.: Social Media Guidelines für die öffentliche Verwaltung, in: Schliesky, Utz und Sönke E. Schulz (Hrsg.): Transparenz, Partizipation, Kollaboration. Web 2.0 für die öffentliche Verwaltung. Kiel, 2012, S. 121–161. Schwartmann, Rolf (Hrsg.): Praxishandbuch Medien-, IT- und Urheberrecht. 4. Auflage. Heidelberg, 2018. Siegfried, Doreen: Das Beste kommt noch. Die ZBW gestaltet die Zukunft der Bibliothek und forscht anwendungsorientiert zu Science 2.0, in: b.i.t.online 17 (2014), S. 38–41. Spindler, Gerald: Haftung ohne Ende? Über Stand und Zukunft der Haftung von Providern, in: MMR 2018, S. 48–52. Statista (Hrsg.): Anzahl der monatlich aktiven Nutzer von Twitter weltweit vom 1. Quartal 2010 bis zum 1. Quartal 2018. Studie 232401. Hamburg, 2018. Statista (Hrsg.): Durchschnittlicher Upload von Videomaterial bei YouTube pro Minute in ausgewählten Monaten von Mai 2008 bis Juli 2015 (in Stunden). Studie 207321. Hamburg, 2018. Statista (Hrsg.): Marktanteil von Video-Sharing-Plattformen in Deutschland im 1. Halbjahr 2016. Studie 209329. Hamburg, 2018. Statista (Hrsg.): Anzahl der aktiven Spotify-Nutzer weltweit von Juli 2012 bis März 2018 (in Millionen). Studie 368928. Hamburg, 2018. Steiner, Esther Susanne: OPAC 2.0: mit Web 2.0-Technologie zum Bibliothekskatalog der Zukunft?. 2007, http://hdms.bsz-bw.de/files/75/steiner_bachelorarbeit.pdf (14.06.2018). Stender-Vorwachs, Jutta: EuGH: Streaming von Filmen ohne Zustimmung des Rechtsinhabers. Urteilsbegründung mit Anmerkungen, in: MMR 2017, S. 460–466. Tsekeris, Charalambos und Ioannis Katerelos: The social dynamics of Web 2.0. Interdisciplinary perspectives. London, 2014. Ullrich, Carsten: Why Web 2.0 is Good for Learning and for Research: Principles and Prototypes. 2008, http://www.conference.org/www2008/papers/pdf/p705-ullrichA.pdf (14.06.2018). Verbraucherzentrale Bundesverband e.V.: Stayfriends verstößt gegen Datenschutzrecht. Pressemitteilung vom 14. Mai 2018. 2018, https://www.vzbv.de/presse/pressemitteilungen?f%5B0%5D=field_date%3A2018 (01.06.2018).

Von Web 1.0 zu Web 2.0



193

Voskamp, Friederike und Dennis-Kenji Kipker: Virtueller Pranger Internet. „Shitstorm“ und „Cybermobbing“ als Bühne für die Meinungsfreiheit? Providerpflichten nach der BGHRechtsprechung, in: DuD 2013, S. 787–790. Wagner, Kristina: Streaming aus der Sicht des Endnutzers – noch Graubereich oder bereits tiefschwarz?, in: GRUR 2016, S. 874–882. Wandtke, Artur-Axel und Winfried Bullinger (Hrsg.): Praxiskommentar zum Urheberrecht. München, 2014. WAZ-Mediengruppe: Afghanistan Papiere. 2012, http://afghanistan.derwesten-recherche.org (28.06.2018, recherchierbar über das Internet Archive). Wikipedia (Hrsg.): List of most-viewed YouTube videos. 2018, https://en.wikipedia.org/wiki/ List_of_most-viewed_YouTube_videos (13.06.2018). Wilkens, Andreas: YouNow räumt Schwierigkeiten bei Kontrolle seines Dienstes ein. 2015, http://heise.de/-2557597 (14.06.2018). Wörmann, Stephanie, Dominique Lauber und Anwar Assaad: Social Media Toolreport 2016. 2016, https://www.goldbachinteractive.com/uploads/Social-Media-Tool-Report-2016.pdf (14.06.2018). YouTube (Hrsg.): YouTube in Zahlen. 2018, https://www.youtube.com/intl/de/yt/about/press/ (13.06.2018).

Entscheidungen Bundesverfassungsgericht, Beschluss vom 15. Januar 1970, Aktenzeichen 1 BvR 13/68 (Scheidungsakte). Bundesverfassungsgericht, Beschluss vom 09. Oktober 1991, Aktenzeichen 1 BvR 1555/88 (kritische Bayer-Aktionäre, Pressefreiheit). Bundesverfasssungsgericht, Urteil vom 15. Dezember 1999, Aktenzeichen 1 BvR 653/96 (Caroline von Monaco II, Caroline-Entscheidung). Oberlandesgericht München, Urteil vom 15. Mai 2002, Aktenzeichen 21 U 5569/01. Landgericht Hamburg, Urteil vom 27. April 2007, Aktenzeichen 324 O 600/06. Kammergericht Berlin, Beschluss vom 29. Januar 2009, Aktenzeichen 10 W 73/08. Bundesgerichtshof, Urteil vom 23. Juni 2009, Aktenzeichen VI ZR 196/08 (spickmich.de). Bundesgerichtshof, Urteil vom 12. November 2009, Aktenzeichen I ZR 166/07 (marionskochbuch.de). Bundesgerichtshof, Urteil vom 15. Dezember 2009, Aktenzeichen VI ZR 227/08 (Online-Archiv). Bundesgerichtshof, Urteil vom 09. Februar 2010, Aktenzeichen VI ZR 243/08 (Walter Sedlmayr Mord mit dem Hammer). Landgericht Frankfurt am Main, Beschluss vom 20. April 2010, Aktenzeichen 3-08 O 46/10. Oberlandesgericht Hamburg, Urteil vom 29. September 2010, Aktenzeichen 5 U 9/09 (sevenload). Bundesgerichtshof, Urteil vom 22. Februar 2011, Aktenzeichen VI ZR 346/09 (Internetportal faz.net). Landgericht Köln, Urteil vom 11. Mai 2011, Aktenzeichen 28 O 72/11 (Nürburgring-Forum). Europäischer Gerichtshof, Urteil vom 04. Oktober 2011, Rechtssachen C-403/08, C-429/08 (Football Association Premier League u.a.). Bundesgerichtshof, Urteil vom 25. Oktober 2011, Aktenzeichen VI ZR 93/10 (Blog-Eintrag).

194  2 Das World Wide Web als eine Anwendung des Internets

Oberlandesgericht Köln, Beschluss vom 22. November 2011, Aktenzeichen I-15 U 91/11, 15 U 91/11. Bundesgerichtshof, Urteil vom 27. März 2012, Aktenzeichen VI ZR 144/11 (RSS-Feeds). Bundesgerichtshof, Urteil vom 12. Juli 2012, Aktenzeichen I ZR 18/11 (Alone in the Dark). Holsteinisches Verwaltungsgericht, Urteil vom 09. Oktober 2013, Aktenzeichen 8 A 218/11. Oberlandesgericht Köln, Urteil vom 13. Dezember 2013, Aktenzeichen I-6 U 114/13, 6 U 114/13. Oberverwaltungsgericht Schleswig-Holstein, Urteil vom 04. September 2014, Aktenzeichen 4 LB 20/13. Bundesgerichtshof, Urteil vom 23. September 2014, Aktenzeichen VI ZR 358/13 (Ärztebewertung II). Bundesgerichtshof, Urteil vom 11. November 2014, Aktenzeichen VI ZR 18/14. Oberlandesgericht Celle, Urteil vom 29. Januar 2015, Aktenzeichen 13 U 58/14. Hanseatisches Oberlandesgericht, Beschluss vom 18. Februar 2015, Aktenzeichen 7 W 24/15. Oberlandesgericht Dresden, Beschluss vom 08. Juni 2015, Aktenzeichen 14 W 312/15, 14 W 0312/15. Oberlandesgericht Köln, Urteil vom 12. Juni 2015, Aktenzeichen I-6 U 5/15, 6 U 5/15 (Afghanistan-Papiere). Oberlandesgericht Düsseldorf, Urteil vom 16. Juni 2015, Aktenzeichen I-20 U 203/14, 20 U 203/14. Oberlandesgericht Frankfurt am Main, Urteil vom 26. November 2015, Aktenzeichen 16 U 64/15 (Hofdamen). Oberlandesgericht München, Urteil vom 28. Januar 2016, Aktenzeichen 29 U 2798/15 (Allegro barbaro). Bundesverwaltungsgericht, Beschluss vom 25. Februar 2016, Aktenzeichen 1 C 28/14 (EuGHVorlage). Bundesgerichtshof, Urteil vom 01. März 2016, Aktenzeichen VI ZR 34/15 (jameda.de II). Oberlandesgericht München, Urteil vom 17. März 2016, Aktenzeichen 29 U 368/16 (Internetpranger). Oberlandesgericht Frankfurt am Main, Urteil vom 21. April 2016, Aktenzeichen 16 U 251/15. Landgericht Bielefeld, Beschluss vom 03. Januar 2017, Aktenzeichen 4 O 144/16. Oberlandesgericht Dresden, Urteil vom 07. Februar 2017, Aktenzeichen 4 U 1419/16. Europäischer Gerichtshof, Urteil vom 26. April 2017, Rechtssache C-527/15 (Filmspeler). Bundesgerichtshof, Beschluss vom 01. Juni 2017, Aktenzeichen I ZR 139/15 (Afghanistan Papiere, EuGH-Vorlage). Europäischer Gerichtshof, Urteil vom 14. Juni 2017, Rechtssache C-610/15 (Stichting, The Pirate Bay). Oberlandesgericht Celle, Beschluss vom 04. Oktober 2017, Aktenzeichen 3 Ss (OWi) 163/17. Landgericht Saarbrücken, Urteil vom 23. November 2017, Aktenzeichen 4 O 328/17. Landgericht Nürnberg-Fürth, Urteil vom 17. April 2018, Aktenzeichen 7 O 6829/17. Bundesgerichtshof, Urteil vom 15. Mai 2018, Aktenzeichen VI ZR 233/17. Europäischer Gerichtshof für Menschenrechte, Urteil vom 28. Juni 2018, Aktenzeichen 60798/ 10, 65599/10. Bundesgerichtshof, Beschluss vom 13. September 2018, Aktenzeichen I ZR 140/15 (YouTube, EuGH-Vorlage).

3 Wege zum Wissen im Web Das Web ermöglicht den Zugang zu einer unüberblickenbaren Informationsmenge, die nicht hierarchisch geordnet ist, sondern die Informationen gewissermassen gleichberechtigt – ungeachtet ihrer Über- oder Unterordnung, Abstraktoder Konkretheit, Wichtigkeit oder Trivialität – nebeneinanderstehen lässt. Man kann beim Web daher von einem heterarchischen System sprechen. Verlässliche Zahlen zur Größe des Webs oder des Internets gibt es übrigens nicht, da keine geeignete Messmethode existiert. Man geht von rund 1,8 Milliarden Websites aus, von denen allerdings weniger als 200 Millionen tatsächlich aktiv sind. Das Eingeben von einzelnen, bekannten Webadressen in den Browser ist keine effiziente Technik, um dem Web seine Vielfalt an Informationen zu entlocken. Ähnlich einer großen wissenschaftlichen Bibliothek, in der die Nachweissysteme den Weg durch den unüberschaubar großen Bestand weisen, wurde im exponentiell wachsenden Internet schnell offenbar, dass beim Browsen durch das Web auch eine Art (Online-)Katalog nötig würde. Er sollte das Netz schnell und möglichst umfassend nach bestimmten Begriffen durchsuchbar machen und die dem Suchbegriff entsprechenden Treffer in einer geordneten Liste anzeigen. Bereits 1993 programmierte Matthew Gray mit dem World Wide Web Wanderer die erste Suchmaschine, die zunächst lediglich die Zahl der Webserver erhob, später aber auch die Internetadressen in einer Datenbank aufzeichnete. Schnell setzte mit der zunehmenden Unübersichtlichkeit im Web die Entwicklung von verschiedenen Suchdiensten ein, die dem Benutzer bei der Suche assistieren sollten. Folgende Arten von Suchdiensten werden unterschieden: – Allgemeine Suchmaschinen: Sie werden auch als Universalsuchmaschinen oder horizontale Suchmaschinen bezeichnet, weil sie das Web in seiner gesamten Breite möglichst vollständig abzudecken suchen. Google und Bing sind horizontale Suchmaschinen. – Spezialsuchmaschinen: Sie beschränken sich auf eine bestimmte Thematik und durchsuchen nur einen bestimmten Teil des Webs, der zuvor meist intellektuell ausgewählt wurde. In der Spezialsuchmaschine Blinde-Kuh.de werden zum Beispiel nur Quellen verzeichnet, die für Kinder relevant sind. Google News und Paperball News sind Spezialsuchmaschinen für Nachrichteninhalte. – Metasuchmaschinen: Werden mit einer Suchanfrage mehrere Suchmaschinen gleichzeitig angesprochen und die gefundenen Ergebnisse in einer ei-

https://doi.org/10.1515/9783110338966-004

196  3 Wege zum Wissen im Web





genen Trefferliste angezeigt, spricht man von einer Metasuchmaschine. Beispiele dafür sind eTools.ch, Carrot2 oder metager.de. Webverzeichnisse/Webkataloge: Systematisch aufgebaute Verzeichnisse von Websites werden als Webverzeichnisse oder Webkataloge bezeichnet. Sie müssen allerdings manuell erstellt werden. In der Anfangszeit des Webs waren sie durchaus populär. Mittlerweile sind sie wegen der großen Dynamik im Netz fast verschwunden. Ein Webverzeichnis, das heute noch existiert und kollaborativ erstellt wird, ist das Open Directory Project ODP. Eine moderne Version des Webkatalogs sind die Linksammlungen von SocialBookmarking-Diensten. Die Universitätsbibliothek Bielefeld hat bei Diigo zum Beispiel eine Linksammlung zum Thema Suchmaschinen angelegt: https://www.diigo.com/list/bibliothekswelt/suchmaschinen_tutorial. Zu den Suchdiensten werden auch Onlineenzyklopädien wie die Wikipedia und die Encyclopedia Britannica gezählt, da sie für die Faktensuche sehr gut herangezogen werden können. Darüber hinaus sind Bibliothekskataloge und Fachdatenbanken wichtige Suchinstrumente für die wissenschaftliche Recherche.

Dadurch, dass die allgemeinen Suchmaschinen die Verwendung der Suchbegriffe an prominenter Stelle in der Webseite zum Beispiel als Überschriften, Seitentitel, in der URL oder im Domänennamen durch eine bessere Position in der Trefferliste belohnen, veranlassen die Suchmaschinen indirekt eine inhaltliche Erschließung des Webinhalts. Sie beruht auf der Verwendung geeigneter Schlüsselwörter durch die Webseitenbetreiber. Eine Darstellung der Geschichte der Weihnachtslieder zum Beispiel wird besser gefunden, wenn die Begriffe „Geschichte“ und „Weihnachtslieder“ im Titel der Webseite vorkommen. Ein Titel wie „So sangen die Menschen schon vor 500 Jahren“ wäre zwar poetischer, brächte aber für die Suchfähigkeit der Seite deutliche Nachteile.

Suchmaschinen Allgemeine Suchmaschinen sind heute die am meisten frequentierten Webdienste. Allein der unangefochtene Marktführer Google verarbeitete im Jahr 2018 bisher pro Minute rund 3,8 Millionen Suchanfragen. Im Jahr 2000 waren es noch rund 60 Millionen Anfragen am Tag, also nur rund ein Hundertstel vom heutigen Suchvolumen. Suchmaschinen sind die wichtigste Zugangspforte zu Informationen im Netz. In der traditionellen Medienlandschaft filtern Journalisten aus der Menge der in den Redaktionen eingehenden Informationen heraus, was tatsächlich be-

Suchmaschinen 

197

arbeitet und in der Öffentlichkeit weiterverbreitet wird. Walter Lippmann, ein US-amerikanischer Journalist, Schriftsteller und Medienkritiker, prägte für Journalisten angesichts dieser Filterfunktion den Begriff des Gatekeepers (dt. Türsteher, Torwächter). Im Netz wählen hingegen die Suchmaschinen aufgrund ihrer Algorithmen anlässlich einer Suchanfrage aus, welche Treffer auf den Ergebnisseiten ganz oben stehen und so am meisten Beachtung finden. Dies geschieht bei Suchmaschinen in großem Maße aufgrund quantitativer Kriterien. So ist zum Beispiel von großer Bedeutung, wie häufig auf ein Dokument verlinkt oder wie oft ein Link innerhalb eines bestimmten Zeitraums in den sozialen Medien weiterverbreitet wurde. Dies ist ein wichtiger Unterschied zu menschlichen Gatekeepern, die ihre Entscheidung zur Weiterverbreitung in hohem Maße aufgrund qualitativer Kriterien treffen.

Funktionsweise von indexbasierten Suchmaschinen Indexbasierte Suchmaschinen wie Google, Bing oder Qwant stellen den Idealtyp der (allgemeinen) Suchmaschinen dar. Sie ermitteln verteilte Inhalte aus dem Web und machen sie für Webteilnehmer durchsuchbar. Dabei stellen sie die Ergebnisse zu einer Suchanfrage in einer Relevanzreihenfolge dar. Da es bei einem solchen Relevanzranking weder eine eindeutig richtige noch eine eindeutig falsche Reihenfolge gibt, wählt die Suchmaschine eine Reihenfolge, von der sie erwartet, dass sie für den Suchenden den höchsten Grad an Relevanz erreicht. Daher spricht Lewandowski (2018, S. 30) von einer Ordnung der Ergebnisse „nach systemseitig angenommener Relevanz“. Die grundlegende Funktionsweise von indexbasierten Suchmaschinen wird im folgenden Abschnitt kurz vorgestellt.

198  3 Wege zum Wissen im Web

Abb. 6: Schema einer indexbasierten Suchmaschine (eigene Darstellung).

Als Arbeitsgrundlage zur späteren Beantwortung von Suchanfragen beschaffen sich Suchmaschinen Inhalte aus dem Web. Dies geschieht durch Programme, die Crawler, Robots, Bots oder Spider genannt werden. Diese durchsuchen ausgehend von einem vordefinierten Adresspool, dem sogenannten Seed Set, permanent das Web, arbeiten sich dabei durch die vorgefundenen Linkstrukturen und speichern die gefundenen Seiten als lokale Kopie auf den Servern des Suchmaschinenbetreibers ab. So entsteht im Idealfall eine aktuelle und vollständige Kopie des Webs. Aus den abgespeicherten Daten wird ein Suchmaschinenindex erstellt. Im Index werden die von den Crawlern zusammengetragenen Daten strukturiert und für die schnelle Suche aufbereitet. Es handelt sich dabei um einen invertierten Index, bei dem man vom Suchwort zu den jeweiligen Dokumenten gelangt, vergleichbar mit einem Register in einem gedruckten Buch. Die Technik des invertierten Indexierens, die nicht nur bei Suchmaschinen, sondern generell bei Information-Retrieval-Systemen angewendet wird, ermöglicht die schnelle Ergebnisanzeige bei Suchanfragen. Wird die Suchmaschine nach einem bestimmten Begriff abgefragt, gibt der Index alle in Frage kommenden Dokumente bzw. Dateien aus. Der sogenannte Query-Prozessor bringt diese in eine nach Relevanzgesichtspunkten aufgebaute Trefferliste, die sogenannte Rankingliste. Die Sortierung wird vom Algorithmus der Suchmaschine bestimmt, die dabei auch subjektive Kriterien des Suchenden

Suchmaschinen 

199

wie zum Beispiel seinen Standort im Zeitpunkt der Suchanfrage berücksichtigt. Aus der Heterarchie des Webs erzeugt die Rankingliste eine subjektive, spontane Ordnung und gibt dem Suchenden damit eine individualisierte Ad-hocStruktur vor, die ihm in den Weiten des Netzes Orientierung bieten soll. Der Suchmaschinenbenutzer durchsucht folglich niemals das Web selbst, sondern lediglich den Datenbestand der Suchmaschine. Allerdings kann keine Suchmaschine das gesamte Web vollständig abbilden. Von der Unvollständigkeit der Daten abgesehen, kennzeichnet den Suchmaschinenindex zudem aus den genannten technischen Gründen eine gewisse zeitliche Verzögerung relativ zum „Live-Internet“. Das Erstellen eines Index ist jedoch unumgänglich, um in kurzer Zeit eine große Datenmenge durchsuchen zu können. Der Index einer Suchmaschine muss kontinuierlich gepflegt werden. Das bedeutet, dass neue Webinhalte dem Index hinzugefügt, nicht mehr existierende Inhalte gelöscht und modifizierte Inhalte auch im Index geändert werden müssen. Diese Aktualisierungen erfolgen jeweils in sehr engen zeitlichen Abständen. Bei der immensen und schwer fassbaren Größe des Webs wird klar, dass diesen Aufwand nur große Unternehmen mit entsprechenden finanziellen Kapazitäten und personellen Ressourcen bewältigen können. Nichtkommerzielle Suchmaschinen können die Abbildung eines brauchbaren Index nur in kleinen, oft aber wissenschaftlich relevanten Nischen bewerkstelligen, während derzeit im Wesentlichen nur Google und Bing einen allgemeinen Suchmaschinenindex für das gesamte Web produzieren. Die Suchmaschine Qwant ist gerade dabei, einen eigenen Index aufzubauen. Viele andere Suchmaschinen nutzen die Indices der beiden großen Hersteller gewissermaßen „unter der Haube“ und bieten selbst zum Beispiel nur eine andere Maske an oder unterscheiden sich durch andere Funktionalitäten. So nutzt zum Beispiel Yahoo den Index von Bing oder Startpage den Index von Google. Da, wie bereits erwähnt, keine Suchmaschine das gesamte Web in ihrem Index allumfassend und stets aktuell abbilden kann, bleibt jede Suche in gewisser Weise fragmentarisch und gegenüber dem tatsächlichen Web zurück. Für die Unvollständigkeit des Index gibt es neben der Zeitverzögerung eine ganze Reihe von Gründen. Folgende Webinhalte können nämlich von den Crawlern der allgemeinen Suchmaschinen nicht oder nicht vollständig indexiert werden (vgl. Lewandowski 2018, S. 38):

200  3 Wege zum Wissen im Web

– – – – – – – – –



passwortgeschützte Seiten, Seiten im Intranet von Organisationen, zum Beispiel von Firmen, Behörden oder Universitäten, Seiten, auf die kein Link führt, Seiten ohne Text, Seiten, die als Vorgabe vom Betreiber mit dem sogenannten Robots Exclusion Standard gekennzeichnet sind, um nicht indexiert zu werden, Seiten, die zu tief in der Hierarchie einer Website „versteckt“ sind, Seiten, die Dateien mit einem unbekannten, wenig verbreiteten Dateiformat enthalten, zu aktuelle Seiten (siehe oben), Inhalte von relationalen Webdatenbanken, zum Beispiel Zugverbindungen in der Reiseauskunft der Bahn oder Inhalte von Onlinebibliothekskatalogen, Inhalte von Flashplayer-Dateien oder andere multimediale Inhalte.

Beim erwähnten Robots Exclusion Standard handelt es sich um von allgemeinen Suchmaschinen akzeptierte Befehle, mit deren Hilfe ein Websitebetreiber bestimmte Inhalte seiner Website vom Crawling aktiv ausschließen kann. Dazu wird auf dem Webserver eine Textdatei mit dem Namen robots.txt abgelegt, die die entsprechenden Steuerbefehle enthält. Durch diese Befehle können auch unerwünschte Crawler ausgeschlossen werden. Die Datei robots.txt kann durch Eingabe von „/robots.txt“ nach der Domäne im Browser angezeigt werden. So zeigt die URL http://www.muenchen.de/robots.txt die entsprechenden Anweisungen der Onlinepräsenz von München an. Da es sich beim Robots Exclusion Standard allerdings um eine freiwillige Konvention handelt, ist nicht gewährleistet, dass die einzelnen Crawler die Steuerbefehle auch tatsächlich befolgen. Den gegenteiligen Effekt kann der Websitebetreiber mit Hilfe des Sitemapprotokolls erzielen. Will er eine Webseite dem Crawler einer Suchmaschine aktiv melden, kann er die URL über einen einfachen Sitemap-Befehl direkt an die Suchmaschine senden. Eine Garantie dafür, dass die entsprechende URL in den Index der Suchmaschine aufgenommen wird, gibt es allerdings dadurch nicht. Bei den bislang genannten Gründen handelt es sich um technische Beschränkungen, die die Aufnahme in den Index verhindern. Es gibt aber auch Fälle, in denen eine Indexierung von Inhalten zwar erfolgt, diese aber nicht angezeigt werden, da der Suchmaschinenbetreiber die Ergebnisse zuvor gefiltert hat. Diese Filterung geschieht vornehmlich aus juristischen Gründen, zum Beispiel aus urheberrechtlichen Gründen oder aus Gründen des Jugend- oder des Persönlichkeitsschutzes. Auch staatliche Zensurvorgaben können Suchmaschinenbetreiber dazu veranlassen, die Ergebnisse zu filtern.

Suchmaschinen 

201

Google veröffentlicht in halbjährlichem Abstand Transparenzberichte, die unter anderem die Löschungsbegehren von Behörden oder Urheberrechtsinhabern erfassen und auch über die Reaktion von Google auf die Ersuchen Auskunft geben. Kommt Google den Ersuchen nach, handelt es sich nicht um eine tatsächliche Löschung aus dem Index, sondern lediglich um das Herausfiltern der Inhalte aus den Ergebnisanzeigen.

Prüfpflichten für Suchmaschinenbetreiber? Aus juristischer Sicht lässt sich die Frage anschließen, ob den Suchmaschinenbetreiber nicht vielmehr die Pflicht trifft, sich vor der Anzeige der Suchergebnisse von deren Rechtmäßigkeit zu überzeugen. In einem zu Beginn des Jahres 2018 verhandelten Fall vor dem Bundesgerichtshof ging es um die Revision eines Ehepaares gegen das Urteil des Oberlandesgerichts Köln vom 13. Oktober 2016, Aktenzeichen I-15 U 173/15, 15 U 173/15. Dieses hatte die Klage gegen die Betreiberin der Suchmaschine Google, mit der die Kläger das Ziel verfolgten, die Suchmaschinenbetreiberin als Beklagte dazu zu verurteilen, vermeintlich persönlichkeitsrechtsverletzende Inhalte auf Drittseiten nicht mehr auffindbar zu machen, abgewiesen. Gegenstand des Verfahrens waren gegen das Ehepaar gerichtete Beiträge in einem Internetforum. Dessen Mitglieder betrachteten sich mit einem anderen, von dem Kläger im Rahmen einer technischen Unterstützungsleistung geförderten Internetforum als verfeindet. In diesen Beiträgen wurden die Kläger für vermeintliche, auch strafbewehrte Handlungen von Mitgliedern des unterstützten Internetforums (unter anderem für angebliches Nachstellen) verantwortlich gemacht. Mit ihrer Suchmaschine machte die Beklagte bei zielgerichteter Suche in der Ergebnisliste Beiträge entsprechend inkriminierenden Inhalts auffindbar. Die Beiträge enthielten Worte wie „Schwerstkriminelle“, „Terroristen“, „Stalker“ oder „krimineller Stalkerhaushalt“. Der Bundesgerichtshof stellte in seinem Urteil vom 27. Februar 2018, Aktenzeichen VI ZR 489/16 klar, dass die beanstandeten Inhalte weder eigene Inhalte der Beklagten seien noch hätte diese sich die Inhalte durch Übernahme in ihren automatisiert erstellten Suchindex zu eigen gemacht: Von einem Zu-Eigen-Machen ist auszugehen, wenn der in Anspruch Genommene nach außen erkennbar die inhaltliche Verantwortung für die auf seiner Internetseite veröffentlichten Inhalte übernommen hat, was aus Sicht eines verständigen Durchschnittsnutzers auf der Grundlage einer Gesamtbetrachtung aller relevanten Umstände zu beurteilen ist […]. Dabei ist bei der Annahme einer Identifikation mit fremden Inhalten grundsätzlich Zurückhaltung geboten. (Rn. 28)

202  3 Wege zum Wissen im Web

Die von den Klägern beanstandeten Inhalte auf den Internetseiten, welche die Beklagte […] durch Verlinkung auffindbar macht, sind keine eigenen Inhalte der Beklagten […]. Sie wurden von anderen Personen ins Internet eingestellt. Die Beklagte […] hat sich die Inhalte durch Aufnahme in den Suchindex auch nicht zu Eigen gemacht. Die Beklagte […] durchsucht mit Hilfe sog. crawler-Programme die im Internet vorhandenen Seiten und erstellt hieraus automatisiert und nach ihren Algorithmen einen Suchindex. Bei der Anfrage durch einen Nutzer durchsucht die Suchmaschine der Beklagten […] diesen Index und liefert entsprechende Suchergebnisse. Auf der Grundlage einer Gesamtbetrachtung aller relevanten Umstände übernimmt die Beklagte […] aus der Sicht eines verständigen Durchschnittsnutzers damit nicht nach außen erkennbar die Verantwortung für die nachgewiesenen Inhalte […]. Der Anzeige der Suchergebnisse entnimmt der verständige Durchschnittsnutzer lediglich die Aussage, dass sich die von ihm eingegebenen Suchbegriffe in irgendeiner Weise in den über die angegebenen Links erreichbaren Texten auf den nachgewiesenen Internetseiten befinden; er entnimmt ihr hingegen nicht, dass sich die Beklagte […] mit den auffindbar gemachten Inhalten identifiziert. Dass die Beklagte […] die indexierten Internetseiten inhaltlich-redaktionell überprüft hätte, ist […] im Übrigen weder festgestellt noch von den Klägern behauptet worden. (Rn. 29)

Allerdings haftet nach den Grundsätzen der Störerhaftung, die Sie im ersten Kapitel kennen gelernt haben, wer, ohne die Rechtsverletzung selbst begangen zu haben, in irgendeiner Weise willentlich und adäquat-kausal an der rechtswidrigen Beeinträchtigung mitgewirkt hat: Dabei kann als Beitrag auch die Unterstützung oder Ausnutzung der Handlung eines eigenverantwortlich handelnden Dritten genügen, sofern der in Anspruch Genommene die rechtliche und tatsächliche Möglichkeit zur Verhinderung dieser Handlung hatte […]. Die Haftung als mittelbarer Störer darf nach ständiger höchstrichterlicher Rechtsprechung aber nicht über Gebühr auf Dritte erstreckt werden, welche die rechtswidrige Beeinträchtigung nicht selbst vorgenommen haben. Sie setzt deshalb die Verletzung von Verhaltenspflichten, insbesondere von Prüfpflichten, voraus. Deren Umfang bestimmt sich danach, ob und inwieweit dem als mittelbaren Störer in Anspruch Genommenen nach den Umständen des Einzelfalls eine Verhinderung der Verletzung zuzumuten ist […]. (Rn. 31)

Die Haftung für Verletzungen des allgemeinen Persönlichkeitsrechts durch das Auffindbarmachen entsprechender Beiträge trete folglich nur bei Verletzung von Prüfpflichten durch die Suchmaschinenbetreiberin ein. Dabei gelte, dass die Internetsuchmaschinenbetreiberin keine Verpflichtung trifft, sich vor Anzeige der Suchergebnisse davon zu überzeugen, dass diese keinen persönlichkeitsrechtsverletzenden Inhalt tragen: Für die Verhaltenspflichten eines Hostproviders, der dem unmittelbaren Störer die Internetplattform zur Verfügung stellt, hat der erkennende Senat bereits Grundsätze aufgestellt. Danach ist ein Hostprovider zur Vermeidung einer Haftung als mittelbarer Störer grundsätzlich nicht verpflichtet, die von den Nutzern in das Netz gestellten Beiträge vor der Veröffentlichung auf eventuelle Rechtsverletzungen zu überprüfen. Er ist aber verant-

Suchmaschinen 

203

wortlich, sobald er Kenntnis von der Rechtsverletzung erlangt. Weist ein Betroffener den Hostprovider auf eine Verletzung seines Persönlichkeitsrechts durch den Nutzer seines Angebots hin, kann der Hostprovider verpflichtet sein, künftig derartige Störungen zu verhindern […]. (Rn. 32)

An den Hinweis auf eine Persönlichkeitsrechtsverletzung müssten jedoch qualifizierte Anforderungen gestellt werden: Wird eine Verletzung von Persönlichkeitsrechten behauptet, wird sich eine Rechtsverletzung allerdings nicht stets ohne weiteres feststellen lassen. Denn sie erfordert eine Abwägung zwischen dem Recht des Betroffenen auf Schutz seiner Persönlichkeit aus Art. 1 Abs. 1 iVm Art. 2 Abs. 1 GG, Art. 8 Abs. 1 EMRK und dem durch Art. 5 Abs. 1 GG, Art. 10 EMRK geschützten Recht jedenfalls des Providers auf Meinungs- und Medienfreiheit. Ist der Provider mit der Beanstandung eines Betroffenen konfrontiert, die so konkret gefasst ist, dass der Rechtsverstoß auf der Grundlage der Behauptung des Betroffenen unschwer bejaht werden kann, ist eine Ermittlung und Bewertung des gesamten Sachverhalts unter Berücksichtigung einer etwaigen Stellungnahme des für den beanstandeten Beitrag Verantwortlichen erforderlich […]. Dies gilt auch dann, wenn die beanstandete Äußerung nicht als Tatsachenbehauptung, sondern als Werturteil zu qualifizieren ist, das Werturteil vom Betroffenen aber mit der schlüssigen Behauptung als rechtswidrig beanstandet wird, der tatsächliche Bestandteil der Äußerung, auf dem die Wertung aufbaue, sei unrichtig, dem Werturteil fehle damit jegliche Tatsachengrundlage […]. (Rn. 32 a.E.)

Für den Fall der Inanspruchnahme eines Suchmaschinenbetreibers fuhr das Gericht fort: Diese Grundsätze können im Ansatz auch auf den Betreiber einer Internet-Suchmaschine übertragen werden […]. An dessen Prüfpflichten sind jedoch geringere Anforderungen zu stellen. (Rn. 33) Vom Anbieter einer Suchmaschine kann vernünftigerweise nicht erwartet werden, dass er sich vergewissert, ob die von den Suchprogrammen aufgefundenen Inhalte rechtmäßig ins Internet eingestellt worden sind, bevor er diese auffindbar macht. Einer Pflicht des Anbieters einer Suchfunktion, Nachforschungen zur Rechtmäßigkeit der Veröffentlichung der von Suchmaschinen aufgefundenen Inhalte anzustellen (proaktive Prüfungspflicht), stehen Aufgabe und Funktionsweise der Suchmaschinen entgegen. Der Zugriff einer Suchmaschine auf andere Internetseiten erfolgt nicht in der Weise, dass absichtlich und gezielt einzelne Hyperlinks auf bestimmte andere Internetseiten gesetzt werden. Suchmaschinen durchsuchen das frei zugängliche Internet in einem automatisierten Verfahren unter Einsatz von Computerprogrammen, wobei sie nicht danach unterscheiden können, ob der aufgefundene Beitrag eine Persönlichkeitsrechtsverletzung eines Dritten darstellt […]. Eine allgemeine Kontrollpflicht wäre im Blick auf die Aufgabe von Internetsuchmaschinen unangemessen. Ohne die Hilfestellung einer solchen Suchmaschine wäre das Internet aufgrund der nicht mehr übersehbaren Flut von Daten für den Einzelnen nicht sinnvoll nutzbar. Letztlich ist damit die Nutzung des Internets insgesamt auf die Existenz und Verfügbarkeit von Suchmaschinen angewiesen. Wegen ihrer essentiellen Bedeutung

204  3 Wege zum Wissen im Web

für die Nutzbarmachung des Internets dürfen keine Prüfpflichten statuiert werden, die den Betrieb von Suchmaschinen gefährdeten oder unverhältnismäßig erschwerten. Die Annahme einer – praktisch kaum zu bewerkstelligenden – allgemeinen Kontrollpflicht würde die Existenz von Suchmaschinen als Geschäftsmodell, das von der Rechtsordnung gebilligt worden und gesellschaftlich erwünscht ist, ernstlich in Frage stellen […]. (Rn. 34) Anders als in den bislang vom erkennenden Senat zu entscheidenden Fällen, die eine Haftung der Portalbetreiber betrafen, steht der Suchmaschinenbetreiber regelmäßig in keinem rechtlichen Verhältnis zu den Verfassern der in der Ergebnisliste nachgewiesenen Inhalte. Die Ermittlung und Bewertung des gesamten Sachverhaltes unter Berücksichtigung einer Stellungnahme des unmittelbaren Störers (notice-and-take-down-Verfahren) ist mangels bestehenden Kontakts zu den Verantwortlichen der Internetseiten regelmäßig nicht ohne weiteres möglich. In der Regel stehen dem Suchmaschinenbetreiber nur die Angaben des Betroffenen zur Verfügung, der die Löschung der Internetseite aus der Ergebnisanzeige begehrt. Die Kontaktaufnahme zum Verantwortlichen der beanstandeten Internetseite kann einen erheblichen Suchaufwand erfordern und muss nicht gelingen […]. Von einer fehlenden zeitnahen Rückmeldung könnte daher nicht ohne weiteres auf die Rechtswidrigkeit der nachgewiesenen Inhalte geschlossen werden. Eine Überspannung der Anforderungen an den Suchmaschinenbetreiber in einer Situation, in der die Rechtswidrigkeit des Eingriffs in das geschützte Rechtsgut – anders als bei Marken- oder Urheberrechtsrechtsverletzungen – nicht indiziert ist […] und die Durchführung eines notice-and-take-down-Verfahrens nicht möglich ist, führte zu der Gefahr des Overblocking, also zu einer Neigung des Diensteanbieters, im Zweifelsfall zur Vermeidung weiterer Auseinandersetzungen die beanstandete Internetseite aus dem Suchindex zu entfernen. Dies hätte zur Folge, dass im ersten Zugriff als problematisch angesehene, aber bei weiterer Prüfung als zulässig zu beurteilende Inhalte faktisch unauffindbar gemacht würden […]. Darüber hinaus wäre, weil Links gelöscht würden, jeweils der komplette Beitrag betroffen und nicht nur der konkret als unzulässig beanstandete Teil eines Beitrags. (Rn. 35)

Für daran anknüpfende Verhaltenspflichten forderte der Bundesgerichtshof deshalb, dass der Suchmaschinenbetreiber sich Kenntnis von einer offensichtlichen, auf den ersten Blick klar erkennbaren Rechtsverletzung verschaffen konnte: Den Betreiber einer Suchmaschine treffen daher erst dann spezifische Verhaltenspflichten, wenn er durch einen konkreten Hinweis Kenntnis von einer offensichtlichen und auf den ersten Blick klar erkennbaren Rechtsverletzung erlangt hat […]. Der Hinweis ist erforderlich, um den grundsätzlich nicht zur präventiven Kontrolle verpflichteten Diensteanbieter in die Lage zu versetzen, in der Vielzahl der indexierten Internetseiten diejenigen auffinden zu können, die möglicherweise die Rechte Dritter verletzen […]. Ein Rechtsverstoß kann beispielsweise im oben genannten Sinn auf der Hand liegen bei Kinderpornographie, Aufruf zur Gewalt gegen Personen, offensichtlichen Personenverwechslungen, Vorliegen eines rechtskräftigen Titels gegen den unmittelbaren Störer, Erledigung jeglichen Informationsinteresses durch Zeitablauf […], Hassreden […] oder eindeutiger Schmähkritik. (Rn. 36)

Suchmaschinen



205

Allerdings kann die Grenze insbesondere in den beiden letztgenannten Fällen schwer zu ziehen sein. […] Ist eine Validierung des Vortrags der Betroffenen somit regelmäßig nicht möglich, führt auch der Maßstab der „offensichtlich und auf den ersten Blick klar erkennbaren Rechtsverletzung“ nur in Ausnahmefällen zu einem eindeutigen Ergebnis für den Suchmaschinenbetreiber. Eine sichere und eindeutige Beurteilung, ob unter Berücksichtigung aller widerstreitenden grundrechtlich geschützten Belange und der Umstände des Einzelfalls das Schutzinteresse der Betroffenen die schutzwürdigen Belange der Internetseitenbetreiber, der Beklagten […] sowie der Internetnutzer überwiegt […], ist dem Suchmaschinenbetreiber im Regelfall nicht ohne weiteres möglich. (Rn. 37)

Mit dieser Herleitung sah der Bundesgerichtshof wie schon das Berufungsgericht die Anforderungen an einen hinreichend konkreten Hinweis der Kläger, welcher der Beklagten eine offensichtliche und bereits auf den ersten Blick klar erkennbare Rechtsverletzung aufzeigt, als nicht erfüllt an und lehnte eine Haftung der Internetsuchmaschinenbetreiberin ab.

Löschpflichten für Suchmaschinenbetreiber? In seiner Google-Spain-Entscheidung aus dem Jahre 2014 oblag es dem Europäischen Gerichtshof in einem Vorabentscheidungsverfahren zu prüfen, ob die Tätigkeit von Suchmaschinen – das automatische Indexieren, vorübergehende Speichern und die Vermittlung der Inhalte in einer bestimmten Rangfolge – eine Verarbeitung personenbezogener Daten darstellt, für die ein Suchmaschinenbetreiber verantwortlich ist. Darüber hinaus war Gegenstand der rechtlichen Prüfung, ob eine Löschungspflicht des Suchmaschinenbetreibers für Links auf Beiträge, an denen kein berechtigtes Interesse mehr besteht, angenommen werden kann. Zur Frage der Verarbeitung personenbezogener Daten stellte der Europäische Gerichtshof in seinem Urteil vom 13. Mai 2014, Rechtssache C-131/12 fest: Indem er das Internet automatisch, kontinuierlich und systematisch auf die dort veröffentlichten Informationen durchforstet, „erhebt“ der Suchmaschinenbetreiber […] personenbezogene Daten, die er dann mit seinen Indexierprogrammen „ausliest“, „speichert“ und „organisiert“, auf seinen Servern „aufbewahrt“ und gegebenenfalls in Form von Ergebnislisten an seine Nutzer „weitergibt“ und diesen „bereitstellt“. Diese Vorgänge sind […] als „Verarbeitung“ […] einzustufen […], ohne dass es darauf ankommt, ob der Suchmaschinenbetreiber dieselben Vorgänge auch bei anderen Arten von Informationen ausführt und ob er zwischen diesen Informationen und personenbezogenen Daten unterscheidet. (Rn. 28) Daran ändert auch nichts, dass die personenbezogenen Daten bereits im Internet veröffentlicht worden sind und von der Suchmaschine nicht verändert werden. (Rn. 29)

206  3 Wege zum Wissen im Web

Der Gerichtshof hat nämlich bereits entschieden, dass die […] Vorgänge auch dann als Verarbeitung personenbezogener Daten einzustufen sind, wenn sie ausschließlich Informationen enthalten, die genau so bereits in den Medien veröffentlicht worden sind. […] (Rn. 30)

Im Folgenden entschied der Europäische Gerichtshof, dass der Suchmaschinenbetreiber bei eben dieser Verarbeitung personenbezogener Daten auch als für die Verarbeitung Verantwortlicher gilt (siehe Rn. 32–33). Dazu ergänzte er folgende Überlegungen, mit denen er auch die gesteigerte Eingriffsintensität durch die in der Ergebnisliste des Suchmaschinenbetreibers strukturierte Darstellung von disparaten Informationen aus der Datenvielfalt des Internets unterstrich: Im Übrigen ließe es sich nicht nur nicht mit dem klaren Wortlaut, sondern auch nicht mit dem Ziel der genannten Bestimmung [Art. 2 Buchst. d der Richtlinie 95/46; Anmerkung der Verfasser], durch eine weite Bestimmung des Begriffs des „Verantwortlichen“ einen wirksamen und umfassenden Schutz der betroffenen Personen zu gewährleisten, vereinbaren, den Suchmaschinenbetreiber deshalb von diesem Begriff auszunehmen, weil die auf den Internetseiten Dritter veröffentlichten personenbezogenen Daten nicht seiner Kontrolle unterliegen. (Rn. 34) Insoweit ist festzustellen, dass sich die Verarbeitung personenbezogener Daten, die im Rahmen der Tätigkeit einer Suchmaschine ausgeführt wird, von der unterscheidet, die von den Herausgebern von Websites, die diese Daten auf einer Internetseite einstellen, vorgenommen wird, und zusätzlich zu dieser erfolgt. (Rn. 35) Außerdem ist unstreitig, dass diese Tätigkeit der Suchmaschinen maßgeblichen Anteil an der weltweiten Verbreitung personenbezogener Daten hat, da sie diese jedem Internetnutzer zugänglich macht, der eine Suche anhand des Namens der betreffenden Person durchführt, und zwar auch denjenigen, die die Internetseite, auf der diese Daten veröffentlicht sind, sonst nicht gefunden hätten. (Rn. 36) Zudem kann die Organisation und Aggregation der im Internet veröffentlichten Informationen, die von den Suchmaschinen mit dem Ziel durchgeführt wird, ihren Nutzern den Zugang zu diesen Informationen zu erleichtern, bei einer anhand des Namens einer natürlichen Person durchgeführten Suche dazu führen, dass die Nutzer der Suchmaschinen mit der Ergebnisliste einen strukturierten Überblick über die zu der betreffenden Person im Internet zu findenden Informationen erhalten, anhand dessen sie ein mehr oder weniger detailliertes Profil der Person erstellen können. (Rn. 37) Durch die Tätigkeit einer Suchmaschine können die Grundrechte auf Achtung des Privatlebens und Schutz personenbezogener Daten somit erheblich beeinträchtigt werden, und zwar zusätzlich zur Tätigkeit der Herausgeber von Websites; als derjenige, der über die Zwecke und Mittel dieser Tätigkeit entscheidet, hat der Suchmaschinenbetreiber daher in seinem Verantwortungsbereich im Rahmen seiner Befugnisse und Möglichkeiten dafür zu

Suchmaschinen 

207

sorgen, dass die Tätigkeit den Anforderungen der Richtlinie 95/46 entspricht, damit die darin vorgesehenen Garantien ihre volle Wirksamkeit entfalten können und ein wirksamer und umfassender Schutz der betroffenen Personen, insbesondere ihres Rechts auf Achtung ihres Privatlebens, tatsächlich verwirklicht werden kann. (Rn. 38) Schließlich ist festzustellen, dass der Umstand, dass die Herausgeber von Websites die Möglichkeit haben, den Suchmaschinenbetreibern u. a. mit Hilfe von Ausschlussprotokollen wie „robot.txt“ oder Codes wie „noindex“ oder „noarchive“ zu signalisieren, dass eine bestimmte auf ihrer Website veröffentlichte Information ganz oder teilweise von den automatischen Indexen der Suchmaschinen ausgeschlossen werden soll, nicht bedeutet, dass das Fehlen eines solchen Hinweises seitens der Herausgeber von Websites den Suchmaschinenbetreiber von seiner Verantwortung für die von ihm im Rahmen der Tätigkeit der Suchmaschinen vorgenommene Verarbeitung personenbezogener Daten befreite. (Rn. 39) Dies ändert nämlich nichts daran, dass der Suchmaschinenbetreiber über die Zwecke und Mittel der Verarbeitung personenbezogener Daten entscheidet. Selbst wenn die genannte Möglichkeit der Herausgeber von Websites bedeuten sollte, dass sie gemeinsam mit dem Suchmaschinenbetreiber über die Mittel der Verarbeitung personenbezogener Daten entscheiden, nimmt dies dem Suchmaschinenbetreiber nichts von seiner Verantwortung, da Art. 2 Buchst. d der Richtlinie 95/46 ausdrücklich vorsieht, dass die Entscheidung über die Mittel ‚allein oder gemeinsam mit anderen‘ erfolgen kann. (Rn. 40)

Im weiteren Verlaufe der Prüfung kam der Europäische Gerichtshof zu dem Schluss, dass der Suchmaschinenbetreiber bei Vorliegen der Voraussetzungen im konkreten Einzelfall zur Wahrung der Rechte des Betroffenen auch dazu verpflichtet sein kann, […] von der Ergebnisliste, die im Anschluss an eine anhand des Namens einer Person durchgeführte Suche angezeigt wird, Links zu von Dritten veröffentlichten Internetseiten mit Informationen zu dieser Person zu entfernen, auch wenn der Name oder die Informationen auf diesen Internetseiten nicht vorher oder gleichzeitig gelöscht werden und gegebenenfalls auch dann, wenn ihre Veröffentlichung auf den Internetseiten als solche rechtmäßig ist. (Rn. 88)

Es verblieb schließlich die Frage nach den die Löschung begründenden Umständen. Der Gerichtshof war in dem Vorlageverfahren auch um Klärung gebeten, ob die betroffene Person insbesondere deshalb vom Suchmaschinenbetreiber ein Entfernen der Links von der Ergebnisliste mit Erfolg begehren könne, weil sie „nach einer gewissen Zeit ‚vergessen‘ werden“ (Rn. 89) möchte. Dabei sah der Europäische Gerichtshof in seiner Entscheidung nicht zuletzt durch die weltweite Abrufbarkeit der Informationen eine besondere Eingriffsintensität: Zudem wird die Wirkung des Eingriffs in die genannten Rechte der betroffenen Person noch durch die bedeutende Rolle des Internets und der Suchmaschinen in der modernen

208  3 Wege zum Wissen im Web

Gesellschaft gesteigert, die den in einer Ergebnisliste enthaltenen Informationen Ubiquität verleihen […]. (Rn. 80)

Unter eingehender Würdigung der Umstände des Einzelfalls, insbesondere des ihm innewohnenden, zeitlichen Moments, entschied der Europäische Gerichtshof zu dieser Vorlagefrage schließlich: In einer Situation wie der im Ausgangsverfahren in Rede stehenden, in der es darum geht, dass in der Ergebnisliste, die der Internetnutzer erhält, wenn er mit Google Search eine Suche anhand des Namens der betroffenen Person durchführt, Links zu Seiten des Onlinearchivs einer Tageszeitung angezeigt werden, die Anzeigen enthalten, die sich unter Nennung des Namens der betroffenen Person auf die Versteigerung eines Grundstücks im Zusammenhang mit einer wegen Forderungen der Sozialversicherung erfolgten Pfändung beziehen, ist davon auszugehen, dass die betroffene Person wegen der Sensibilität der in diesen Anzeigen enthaltenen Informationen für ihr Privatleben und weil die ursprüngliche Veröffentlichung der Anzeigen 16 Jahre zurückliegt, ein Recht darauf hat, dass diese Informationen nicht mehr durch eine solche Ergebnisliste mit ihrem Namen verknüpft werden. Da im vorliegenden Fall offenbar keine besonderen Gründe vorliegen, die ein überwiegendes Interesse der Öffentlichkeit daran rechtfertigten, im Rahmen einer Suche anhand des Namens der betroffenen Person Zugang zu den genannten Informationen zu erhalten […], kann die Person […] die Entfernung der Links aus der Ergebnisliste verlangen. (Rn. 98) [Es ist somit] zu prüfen, ob die betroffene Person ein Recht darauf hat, dass die Information über sie zum gegenwärtigen Zeitpunkt nicht mehr durch eine Ergebnisliste, die im Anschluss an eine anhand ihres Namens durchgeführte Suche angezeigt wird, mit ihrem Namen in Verbindung gebracht wird, wobei die Feststellung eines solchen Rechts nicht voraussetzt, dass der betroffenen Person durch die Einbeziehung der betreffenden Information in die Ergebnisliste ein Schaden entsteht. Da die betroffene Person in Anbetracht ihrer Grundrechte aus den Art. 7 und 8 der Charta verlangen kann, dass die betreffende Information der breiten Öffentlichkeit nicht mehr durch Einbeziehung in eine derartige Ergebnisliste zur Verfügung gestellt wird, überwiegen diese Rechte grundsätzlich nicht nur gegenüber dem wirtschaftlichen Interesse des Suchmaschinenbetreibers, sondern auch gegenüber dem Interesse der breiten Öffentlichkeit am Zugang zu der Information bei einer anhand des Namens der betroffenen Person durchgeführten Suche. Dies wäre jedoch nicht der Fall, wenn sich aus besonderen Gründen – wie der Rolle der betreffenden Person im öffentlichen Leben – ergeben sollte, dass der Eingriff in die Grundrechte dieser Person durch das überwiegende Interesse der breiten Öffentlichkeit daran, über die Einbeziehung in eine derartige Ergebnisliste Zugang zu der betreffenden Information zu haben, gerechtfertigt ist. (Rn. 99)

Suchmaschinen



209

Das Recht auf Vergessenwerden Die Google-Spain-Entscheidung des Europäischen Gerichtshofs hat eine umfassende und überaus kontroverse Rezeption erfahren. Auch innerhalb des Gerichts war ihr Ergebnis, dem von der Datenverarbeitung Betroffenen das Recht zuzuerkennen, personenbezogene Daten im Internet dadurch zu isolieren, dass ihre Sichtbarmachung durch Suchmaschinen als datenschutzrechtlich verantwortliche Intermediäre der Informationsvermittlung unterbunden wird, keinesfalls unumstritten (vgl. Weismantel 2017, S. 306, 309). Der Gewährleistungsgehalt des Urteils wird verschiedentlich mit dem von Viktor Mayer-Schönberger geprägten Begriff des Rechts auf Vergessenwerden umschrieben. Als ein in seinem – rechtlichen wie technischen – Gehalt und seinen Konturen als unscharf wahrgenommenes Konzept steht dieses Recht seit längerer Zeit in der Diskussion. Es ist in seinen Ursprüngen darauf gerichtet, digitale Informationen, die einen Personenbezug aufweisen, einer dauerhaften Zugänglichkeit zu entziehen. Nach dem österreichischen Rechtswissenschaftler Mayer-Schönberger sollten diese personenbezogenen Informationen mit einem Verfallsdatum versehen werden, nach dessen Ablauf deren automatische Löschung einsetzen muss. Die Überlegungen zu einem digitalen Vergessen wurden auch von der Europäischen Kommission in ihren Bemühungen um eine Datenschutzreform, die mit der Datenschutz-Grundverordnung Gestalt angenommen haben, vernommen. Kritiker verweisen auf die kulturelle und gesellschaftliche Bedeutung eines „kollektive[n] Gedächtnis[ses]“ (Härting 2017, Rn. 309), über dessen Inhalt und Erinnerungskontext keine individuelle Entscheidung getroffen werden sollte.1 Das Urteil des Gerichtshofs hat dem Grundgedanken des Konzepts eines Rechts auf Vergessenwerden, soweit es die Einschränkung der durch Informationsintermediäre vermittelten Sichtbarkeit von personenbezogenen Daten infolge von namensbezogenen Suchanfragen betrifft, zur Durchsetzung verholfen. Zugleich hat es neue praktische Verfahrensfragen nach der rechtlichen und technischen Um- und Durchsetzbarkeit des Löschungsanspruchs sowohl für 1 Für das Jahr 2018 werden zwei Grundsatzentscheidungen des Bundesverfassungsgerichts zum Recht auf Vergessenwerden erwartet: Gegenstand des ersten Verfahrens sind zivilgerichtliche Entscheidungen, in denen der Beschwerdeführer mit seinen Klagen gegen ein Nachrichtenmagazin auf Unterlassung der Berichterstattung über Straftaten, für die er Anfang der 1980er Jahre verurteilt worden war, unterlag (Recht auf Vergessen I, Az. 1 BvR 16/13). Im zweiten Verfahren wendet sich die Beschwerdeführerin gegen zivilgerichtliche Entscheidungen, die ihre Klage gegen einen Internetsuchmaschinenbetreiber auf Unterlassung der Anzeige eines bestimmten Ergebnistreffers bei Eingabe ihres Namens abweisen (Recht auf Vergessen II, 1 BvR 276/17).

210  3 Wege zum Wissen im Web

den von der Datenverarbeitung Betroffenen als auch den Anspruchsgegner aufgeworfen. Die mit der Prüfung des Löschungsanspruchs verbundene Abwägungsentscheidung stellt hohe Anforderungen an die außergerichtliche Entscheidungsfindung, deren Kriterien einer Ausdifferenzierung in der Praxis bedürfen. Auch die territoriale Reichweite des Urteils ist zu beachten: Das Urteil ist auf eine Geltung im europäischen Rechtsraum beschränkt. Mangels extraterritorialer Anwendung können die im europäischen Rechtsraum nach der Rechtsprechung des Europäischen Gerichtshofs zu löschenden Suchergebnisse in Drittstaaten weiterhin zugänglich sein (siehe Weismantel 2017, S. 310–311; auf die Schwierigkeiten einer Abwägungsentscheidung im Mehrpersonenverhältnis weist Härting 2017, Rn. 306–307 hin). Das Urteil des Europäischen Gerichtshofs hat auch in der Datenschutzreform der Europäischen Union seinen Niederschlag gefunden, wenngleich seine Feststellungen nicht unmittelbar in den Verordnungstext aufgenommen worden sind. Artikel 17 der Datenschutz-Grundverordnung ergänzt das bekannte Recht auf Löschung personenbezogener Daten für den Fall, dass diese vom Adressaten veröffentlicht worden sind und der Pflicht zur Löschung unterliegen, um dessen Verpflichtung, Datendrittverarbeiter über das auch sie betreffende Löschungsbegehren in Kenntnis zu setzen. Das Recht auf Vergessenwerden beruht im Zusammenspiel von gesetzlich normiertem Datenschutzrecht und unionsweit bindendem Richterrecht somit gegenwärtig auf drei Säulen: dem Recht auf Datenlöschung gegenüber dem Primärseitenbetreiber, dem Recht auf Datenisolation gegenüber dem Intermediär und der Pflicht zur Information von Datendrittverarbeitern.

Die Entwicklung des Suchmaschinenangebots Vor allem an Universitäten wurden in der Mitte der 1990er Jahre neue Suchmaschinen entwickelt, die später zu kommerziellen Zwecken vermarktet wurden. Die Suchmaschinen Lycos, Fireball, Yahoo oder Google sind an Universitäten entstanden und wurden später in Unternehmensstrukturen überführt. Fireball war ursprünglich eine Entwicklung des Fachbereichs Informatik an der Technischen Universität (TU) Berlin und erreichte als erste deutschsprachige Internetsuchmaschine noch im Jahr 2000 einen heute unvorstellbaren Marktanteil von 22 Prozent in Deutschland. Google und Yahoo stammten ursprünglich aus der Stanford University. Die Websuche bis zur Jahrtausendwende war gekennzeichnet durch einen bunten Teppich von Angeboten, der neben originären Suchmaschinen auch noch manuell erstellte Webkataloge (zum Beispiel dino-online.de) und eine

Suchmaschinen 

211

große Anzahl von Metasuchmaschinen (zum Beispiel metager.de) aufweisen konnte. Im Jahre 1994 gingen Altavista, infoseek und Yahoo!search online. Die erste Suchmaschine, die ganze Volltexte aus dem WWW durchsuchbar machte, war der ebenso 1994 online geschaltete WebCrawler. Bis zu seiner Anwendung wurden in der Regel nur bestimmte Teile der Websites durchsucht. Ein Ausschnitt aus einem Suchmaschinentutorial des Münchner Leibniz-Rechenzentrums (LRZ) aus dem Jahr 1999 zeigt die breite Palette des Suchmaschinenangebots gegen Ende der 1990er Jahre2. Die Kommentare der Onlineredaktion des Rechenzentrums lassen Rückschlüsse auf die Einschätzung bzw. Bewertung der damaligen Angebote zu und sind durchaus unterhaltsam: Internationale Suchmaschinen/Suchkataloge: Yahoo besticht vor allem durch guten und umfangreichen Themenkatalog; was man hier findet, hat meist Qualität. Altavista: kein Themenkatalog, dafür sehr große Suchdatenbank. Findet sehr sehr viel, jedoch auch viel Müll. Excite: große Suchmaschine, gut gestaltet mit gut sortierten Querverweisen. Webcrawler: relativ große Suchmaschine, überarbeitet und gut gestaltet mit Kommentaren zu den Einträgen. Hotbot: vor allem Suchmaschine mit nur kleinem Katalog, findet ähnlich viel wie Altavista, aber besser sortiert. Lycos: große Suchmaschine, aber nur sehr kleiner Suchkatalog; qualitativ etwas besser als Altavista. Magellan: umfangreicher Katalog mit nachrecherchierten und bewerteten Einträgen. Infoseek: gute, mittelgroße Suchmaschine. Starting Point: mittelgroße Suchmaschine, strukturell nett gestaltet. […] Goto/Go2: entstammt z.T. dem World Wide Web Worm, relativ karge Suchmaschine. Aliweb: relativ alte Datenbank, … Deutsche Suchmaschinen/Suchkataloge: Diese Suchmaschinen enthalten normalerweise nur deutsche bzw. deutschsprachige Angebote, kennen jedoch recht viele deutsche Webseiten und sind ohne Englischkenntnisse zu bedienen. Yahoo.de: entsprechend dem Vorbild des original Yahoo: Ein gut sortierter Katalog mit Qualität vor Quantität. Dino Lotse: guter Katalog und zusätzliche, umfangreiche Suchmaschine, relativ renommiert. Kolibri: mehrfach überarbeitet und mit interessanten Details.

2 Das Suchmaschinentutorial war ursprünglich zu finden unter http://www.lrz-muenchen.de/ suchen/suche-www/suche-www-4.html; archiviert im Internet Archive ist die Version vom 11. Juni 1999 abrufbar unter https://web.archive.org/web/19980611092122/http://www.lrz-muenchen.de:80/suchen/suche-www/suche-www-4.html#publish4.1.0.0.0.0 (18.06.2018).

212  3 Wege zum Wissen im Web

Sharelook: Yahoo-ähnliches Design, nicht so umfangreich, aber ebenfalls gut sortierter Katalog. Fireball: Nachfolger von Flipper und Kitty. Lycos.de: Deutsche Version der großen internationalen Suchmaschine, weniger Qualität, dafür mehr Quantiät als Yahoo. Alles Klar?: Mit normaler oder wahlweise Java-gestützter Suchabfrage (bisher problematisch und langsam), technisch ansprechend gestaltet. Web.De: Arbeitet mit Lycos zusammen, überdurchschnittlich. Eule: etwas besser als durchschnittlich. Fux: relativ neue Suchmaschine, die viel in der Werbung propagiert wurde. Aladin: durchschnittlich, findet eher wenig. […] Finden.de: recht dürftiges Webverzeichnis, daneben aber Emailverzeichnis und T-onlineVerzeichnis. Webindex: wenig umfangreich, eher kleine Suchmaschine. AOL Katalog: kleiner Internetkatalog des Internetproviders AOL. MetaGer: Metasuchmaschine über deutsche Suchmaschinen, mit Zusammenfassung und Trefferstatistik.

1998 kam die Suchmaschine Google, die in der Liste der Onlineredaktion vom Leibniz-Rechenzentrum noch gänzlich fehlte, mit einer innovativen Suchmaschinenphilosophie zunächst als nichtkommerzieller Anbieter hinzu. Nur etwas später wurde dem Suchmaschinenmarkt durch das Platzen der Dotcomblase an den Aktienmärkten ein empfindlicher Schlag versetzt. Vielen neu gegründeten Unternehmen auf dem Internetsektor fehlte durch die massiven Kursverluste und die beginnende Skepsis der Banken bei der Kreditvergabe häufig das Risikokapital für weitere Investitionen. Da nur wenige Anbieter profitabel arbeiteten und häufig auch nicht einmal die vage Aussicht auf einen baldigen Gewinn geben konnten, stellten viele Suchmaschinen ihren Dienst ein. Andere blieben zwar dem Namen nach bestehen, bezogen Technik und Suchergebnisse aber von meist größeren Anbietern, mit denen sie auch häufig fusionierten. Der Suchmaschinenmarkt erfuhr nach dem Platzen der Dotcomblase eine deutliche Marktkonzentration, die bis heute anhält.

Google – ein Gigant unter der Lupe Mit einem Marktanteil in Deutschland von weit über 90 Prozent wird die Suchmaschine Google, die im September 1998 offiziell als Firma Google Inc. gegründet wurde, von einem Großteil der Internetbenutzer als die bedeutsamste Zugangspforte zum Web angesehen. Als Global Player, sofern davon noch gesprochen werden kann, existiert im Augenblick neben der Suchmaschine Bing von

Suchmaschinen 

213

Microsoft mit einem überschaubaren Marktanteil in Deutschland von weit unter fünf Prozent noch die von David Filo und Jerry Yang im Jahr 1994 gegründete Suchmaschine Yahoo. Sie nutzt allerdings im Rahmen einer Suchallianz mit Microsoft mittlerweile auch den Index der Suchmaschine Bing und erzielt in Deutschland nur noch einen Marktanteil von unter einem Prozent. Treffer, die nicht auf den ersten beiden Seiten der Ergebnisliste der Suchmaschinen angezeigt werden, finden bei den Suchenden in der Regel keine Beachtung mehr. Dieser Effekt wird auch als „Mainstreaming“ bezeichnet. Im Zusammenhang mit der monopolartigen Stellung von Google wird deutlich, warum die Position einer Website auf der Google-Rankingliste für viele Branchen von entscheidender, oft sogar überlebenswichtiger Bedeutung ist. Websitebetreiber versuchen deshalb, dem Google-Ranking so gut wie möglich gerecht zu werden und suchen sich hierzu oft Rat bei sogenannten Suchmaschinenoptimierern. Suchmaschinenoptimierung (engl. Search Engine Optimization, kurz SEO) beinhaltet Maßnahmen, die Websites möglichst an hohen Rankingpositionen erscheinen lassen sollen. 2011 wurden in Deutschland bereits 1,2 Milliarden Euro in die gewerbliche Webseitenoptimierung investiert, um die Sichtbarkeit in der Google-Trefferliste zu erhöhen. Dass die Webseitenoptimierung urheberrechtlichen Schutz genießen kann, hat das Oberlandesgericht Rostock in seinem Beschluss vom 27. Juni 2007, Aktenzeichen 2 W 12/07 entschieden. Die zwei Parteien des Rechtsstreits waren darüber uneins, ob die Webseitenerstellung des Klägers die Anforderungen an eine urheberrechtliche Schutzfähigkeit erfülle. Das Oberlandesgericht prüfte deshalb zunächst, ob die in Frage stehende Webseitengestaltung als Computerprogramm urheberrechtlichen Schutz genießen könne, und führte dazu aus: Computerprogramme im Sinne des Urhebergesetzes [sic!] sind Programme in jeder Gestalt […]. Der Schutz erstreckt sich auf alle Ausdrucksformen eines Computerprogramms, wenn dieses als hinreichend individuelles Werk das Ergebnis der eigenen geistigen Schöpfung ihres Urhebers ist […]. Abzugrenzen ist der Begriff des Computerprogramms jedoch von sonstiger Software, insbesondere von reinen Daten, die nicht gemäß § 69a ff. UrhG geschützt ist. Computerprogramme liegen nur vor, wenn sie eine Folge von Befehlen enthalten, die zur Kontrolle bzw. Steuerung des Programmablaufs benutzt werden […]. (Rn. 5) Webseiten, die lediglich auf einer HTML-Datei (Hyper-Text Markup Language) basieren, sind deshalb regelmäßig keine Computerprogramme. Denn der HTML-Code allein enthält keine ablauffähige Folge von Einzelanweisungen, die dazu dient, den Computer zur Ausführung einer bestimmten Funktion zu veranlassen. Vielmehr werden mit Hilfe der im Internet gebräuchlichen HTML-Codierung die Formatierung der Seite niedergelegt und Texte sowie Grafiken sichtbar gemacht. Die HTML-Befehle im Quelltext einer Webseite bewirken daher nur, dass die vorgegebene Bildschirmgestaltung im Internet kommuniziert werden kann […]. (Rn. 6)

214  3 Wege zum Wissen im Web

So liegt der Fall hier. Ausweislich der ersten Zeile des vom Kläger vorgelegten Quelltextes sind die Webseiten als HTML-Datei erstellt worden. Dass auf den hier vorliegenden Webseiten zusätzlich ablauffähige Programmbestandteile vorhanden sind, hat der Kläger weder vorgetragen noch ist dies angesichts des eingereichten Ausdrucks der Bildschirmoberflächen und des Quelltextes ersichtlich. (Rn. 7) Im Übrigen spricht gegen die Annahme einer eigenen Schöpfung der HTML-Codierung, dass der Kläger die Webseiten erkennbar mittels des Designprogramms „M.. D..“ hergestellt hat. Das ergibt sich aus der Zeile 16 des vorgelegten Quelltextes. Ein solches Designprogramm generiert den Quellcode selbsttätig, nachdem der Anwender die gewünschten Elemente auf dem Bildschirm, z.B. mit der Computermaus, erzeugt und spezielle Funktionen mit Hilfe entsprechender Schaltflächen eingefügt hat. (Rn. 8)

Das Gericht kam jedoch zu dem Schluss, dass die Webseitengestaltung als Sprachwerk urheberrechtlichem Schutz unterfällt, da sie die erforderliche Schöpfungshöhe erreicht: Es ist allgemein anerkannt, dass der Gestaltung von Webseiten unabhängig von der Digitalisierung ihres Inhalts ein Urheberrechtsschutz zukommen kann, sofern die Gestaltung die gemäß § 2 Abs. 2 UrhG erforderliche Schöpfungshöhe erreicht […]. (Rn. 10) Zwar bietet die vom Kläger auf den Webseiten verwendete Alltagssprache an sich keine Besonderheiten. Die sprachliche Gestaltung durch den Kläger führt jedoch dazu, dass die Webseiten der Beklagten bei Eingabe der plakativen Suchwörter „M.., B.., S..“ in die in Deutschland weit verbreitete Suchmaschine „Google“ unter den ersten Suchergebnissen erscheint. Nach dem vom Kläger vorgelegten Ausdruck vom 22.02.2007 zeigte die Suchmaschine die Webseite der Beklagten als erstes von etwa 10.100 Ergebnissen an. Dass dies kein Zufallsprodukt, sondern von gewisser Dauer ist, ergibt sich daraus, dass die Webseite auch Ende Juni 2007 noch als drittes Suchergebnis von nunmehr 12.100 Einträgen auftritt. (Rn. 13) Weil die Suchmaschinen im Internet ihre Ergebnisse auf der Grundlage der in den Quelltexten enthaltenen sogenannten Meta-Tags sowie dem Auftreten der Suchbegriffe im Dokumententitel oder in Überschriften sortieren, kommt der zielführenden Verwendung der Sprache bei der Suchmaschinen-Optimierung erhebliche Bedeutung zu. Zur Vermeidung von Manipulationen halten die Betreiber von Suchmaschinen die genauen Parameter der Suchfunktionen allerdings geheim und veränderten sie im Verlauf der Zeit. Um gleichwohl für eine gewisse Dauer die Auflistung der Webseiten an der Spitze der Suchergebnisse zu erreichen, bedarf es daher besonderer Kenntnisse und Fähigkeiten bei der Gestaltung des Internetauftritts. Dass die – vertraglich vereinbarte – SuchmaschinenOptimierung hier gelungen ist, belegen die oben genannten Ergebnisse. (Rn. 14) Darin liegt die persönliche geistige Schöpfung des Klägers im Sinne des § 2 Abs. 2 UrhG. Die Auswahl, die Einteilung und die Anordnung der Suchbegriffe aus der Alltagssprache auf den Webseiten und im Quelltext bilden hier die individuelle schöpferische Eigenheit des vom Kläger gestalteten Internetauftritts. Die Gestaltung mit Mitteln der Sprache er-

Suchmaschinen 

215

reicht die für die Urheberrechtsschutzfähigkeit hinreichende Gestaltungshöhe, denn sie übersteigt deutlich das Schaffen eines durchschnittlichen Webdesigners, das auf einer routinemäßigen, handwerksmäßigen und mechanisch-technischen Zusammenfügung des Materials beruht. Die durch geschickte Auswahl und Anordnung der Schlüsselwörter erzielte Spitzenposition in der Suchmaschine beruht auf der eigenen geistigen Schöpfung des Klägers. Die auf diese Weise vorgenommene Gestaltung verschafft den Webseiten eine individuelle Prägung und hebt sie deutlich aus der Vielzahl durchschnittlicher Internetauftritte anderer Anbieter [...] heraus. (Rn. 15)

Wer bei Google nicht oder sehr weit hinten in der Trefferliste erscheint, wird aufgrund des Mainstreamingeffekts, wie gesagt, in der digitalen Welt kaum wahrgenommen, ähnlich einem Buch in einem großen Büchermagazin, das nicht oder falsch katalogisiert wurde. Für Google geht damit eine starke Machtposition innerhalb des Webs einher, für die Betreiber von Websites oftmals eine existentielle Abhängigkeit von Google. Doch zurück zur Geschichte des Suchmaschinengiganten: Der schnelle Erfolg von Google Ende der 1990er Jahre vollzog sich zu einem Zeitpunkt, zu dem schon einige Suchmaschinen das Web besiedelt hatten. Die Nutzer von Google waren, von der ansprechend schlichten Ästhetik der Google-Webseite, der Schnelligkeit der Trefferanzeige und der auf der Größe des Index basierenden hohen Trefferzahl abgesehen, vor allem von der Qualität und Relevanz der gefundenen Webseiten angetan. Google schien ihnen besser als die anderen Suchmaschinen die Informationen am Beginn der Trefferliste zu präsentieren, nach denen sie gesucht hatten, und kam zudem dank einer Anschubfinanzierung ganz ohne Werbung aus – zumindest im ersten Jahr. Vor der Markteinführung von Google verwendeten Suchmaschinen vorrangig Methoden der Textanalyse, um die gefundenen Treffer zu sortieren. Tauchte der gesuchte Begriff in einer Überschrift oder im Domänennamen oder überhaupt recht häufig auf der Webseite auf, wurde die Webseite höher in der Trefferliste einsortiert (gerankt) als eine Webseite, die den Suchbegriff nur an einer weniger prominenten Stelle im Fließtext enthielt. Durch diese leicht zu manipulierende Methode waren die Trefferlisten der ersten Suchmaschinen mit Spam gefüllt und oft nur eingeschränkt verwendbar.

Der PageRank: Googles entscheidende Trumpfkarte Google erweiterte diesen bereits bestehenden Ansatz entscheidend: In der Trefferanzeige von Google wanderten die Ergebnisse nach oben, zu denen zuvor schon viele andere Webseiten verlinkt hatten. Diese rückbezüglichen Links werden als Backlinks bezeichnet. Die dahinterstehende Annahme, dass alles, wo-

216  3 Wege zum Wissen im Web

rauf oft verlinkt wird, auch bedeutsam (relevant) für den Suchenden sei, war dabei der innovative Kern des Google-Sortieralgorithmus, den die Gründer von Google, Larry Page und Sergei Brin als PageRank patentieren ließen. Beim PageRank ist es von Bedeutung, ob auf die Webseite, von der ein Link ausgeht, selbst wiederum viele Backlinks führen. Ein Link einer Website, die selbst viele Backlinks aufweisen kann, wird stärker gewichtet als Backlinks, die von Websites stammen, auf die selbst nur wenige Links gesetzt worden sind. Die wissenschaftlichen (Offline-)Ursprünge des PageRanks liegen in der empirischen Sozialforschung, bei der die Forschung der sogenannten Soziometrie die Beziehungen einzelner Gruppenmitglieder zueinander erfasst und operational analysiert. Der PageRank legte einen wichtigen Grundstein für den schnellen wirtschaftlichen Aufstieg von Google Inc. und ist bzw. war selbst wiederum nur ein Teil des gesamten Sortiermechanismus (Algorithmus), der in seiner vollständigen Komplexität der Öffentlichkeit gewissermaßen als Betriebsgeheimnis verborgen blieb. Ähnlich wie bei dem seit 130 Jahren streng gehüteten Geheimnis um das Coca-Cola-Rezept wurde nur ein Teil der Faktoren des Algorithmus der Öffentlichkeit preisgegeben, einerseits um sich vor Nachahmern zu schützen, im Wesentlichen aber andererseits, um als Suchmaschine nicht manipulierbar zu sein. Wäre der Algorithmus bekannt, könnten sich Websitebetreiber durch gezielte Manipulationen hohe Rankingplätze verschaffen. Zudem erfährt der Algorithmus laufend Veränderungen. Google ändert seinen Algorithmus rund 600 Mal pro Jahr. Da es sich meist um kleinere Modifikationen handelt, wird davon in der Regel kaum Notiz genommen. Größere Updates im Algorithmus werden von Google mit einem Namen versehen. So war das letzte große Update nach „Panda“ und „Penguin“ im Jahr 2013 „Hummingbird“ (dt. Kolibri), das die Verarbeitung von Suchanfragen, die aus mehreren Wörtern oder ganzen Fragesätzen bestehen, durch den Einsatz von semantischen Technologien verbessert hat. Die endgültige Reihenfolge der einzelnen Treffer, das sogenannte Ranking, in den Ergebnislisten, so viel bestätigt Google selbst, wird durch ein komplexes Zusammenspiel von mindestens 200 Rankingfaktoren, die Google Signale nennt, festgelegt. Diese werden auch aus dem persönlichen Verhalten des Suchenden, seinem Standort und seiner Rechnerkonfiguration individuell bestimmt. Wie sich die einzelnen Rankingfaktoren tatsächlich auf die Sortierreihenfolge auswirken, wird u.a. durch Studien untersucht, die außerhalb von Google durch Unternehmen angefertigt werden, die sich mit Suchmaschinenoptimierung beschäftigen und mit den gewonnenen Erkenntnissen Unternehmen entsprechend beraten (siehe zum Beispiel die Ranking-Faktoren-Studie 2017 des

Suchmaschinen 

217

Unternehmens searchmetrics, das mit deren Veröffentlichung angekündigt hat, angesichts der massiven Veränderungen im Bereich der traditionellen Rankingfaktoren die Studie in der seit 2012 bekannten Form nicht fortzuführen, http:// www.searchmetrics.com/de/knowledge-base/ranking-faktoren/). Die Suchmaschinenoptimierer können gewissermaßen nur von außen experimentell analysieren, wie der Google-Algorithmus arbeitet. Weil Google den Algorithmus laufend anpasst, handelt es sich bei allen Untersuchungen und Analysen nur um eine Momentaufnahme, die zeigt, welche Faktoren positiven oder negativen Einfluss auf die Sortierreihenfolge in den Ergebnisseiten, den sogenannten SERPs, im Zeitraum der Untersuchung hatten. SERP steht dabei für Search Engine Result Page. Bei den Einflussfaktoren auf das Ranking wird grundsätzlich zwischen Onpage- und Offpage-Faktoren unterschieden. Onpage-Faktoren beziehen sich auf die Webseite selbst, ihren Inhalt, das heißt Content, und Aufbau, ihre sprachliche Ausgestaltung und zum Beispiel die Verwendung von Medien auf der Webseite. Die Offpage-Faktoren liegen außerhalb der Webseite. Zu ihnen gehören die Anzahl und Qualität der Backlinks auf die Webseite sowie die aktive Präsenz des Webseiteninhalts in sozialen Netzwerken und Blogs. Wird beispielsweise von vielen Bloggern oder Twitterern auf eine Webseite verwiesen, erhöht dies die Wahrscheinlichkeit, dass diese Webseite höher gerankt wird als andere. Um die hohe Komplexität eines Suchmaschinenalgorithmus zu verdeutlichen, werden im folgenden Abschnitt einige der bisher bekannten Kriterien, die die Platzierung der einzelnen Treffer auf den SERPs mitbestimmen, aufgeführt. 1. Domänenkriterien: – Ein hohes Domänenalter deutet auf die Seriosität der Quelle hin. – Die Sichtbarkeit der Registrierungsinformationen der Domäne zeugt von Transparenz. – Top-Level-Domain: Länderdomains werden in der Regel von Google bevorzugt. – Historie der Domäne: Ein häufiger Wechsel der IP-Adresse deutet auf eine geringe Seriosität hin. – Inhaber der Domäne: Ein häufiger Eigentümerwechsel wirkt unseriös. – Stichwörter in der Domäne: Die Übereinstimmung eines Bestandteils des Domänennamens mit dem Suchbegriff führt zu einem hohen Ranking. – IP-Adresse der Domäne: Falls benachbarte IP-Adressen durch Spamming auffielen und deshalb gesperrt worden sind, fällt dies auch negativ auf die IP-Adresse der Domäne zurück (sogenannte schlechte Nachbarschaft der Domäne).

218  3 Wege zum Wissen im Web

2.

3.

Serverkriterien: – Geographische Lage des Servers: Es ist vorteilhaft, wenn der Server im gleichen Land wie die Domäne der Suchmaschine liegt (zum Beispiel bevorzugt Google.de .de-Adressen). – Verfügbarkeit des Servers: Hohe Ausfallzeiten des Servers wirken sich negativ auf das Ranking aus, da dadurch die Zuverlässigkeit der Quelle in Frage steht. – Software-Architektur: Die URL-Struktur sollte für Crawler leicht zu durchlaufen sein. Inhaltliche Kriterien: – Einzigartigkeit des Inhalts: Je einzigartiger der Inhalt ist, umso besser stehen die Chancen auf eine gute Platzierung in der Rankingliste. – Anteil an textuellen Inhalten (ohne Links, Bilder, Code usw.): Ein hoher Textanteil führt in der Regel zu einer Aufwertung der Rankingposition. – Verwendung bestimmter negativer Schlüsselwörter: Schlüsselwörter wie Gambling, Dating und Viagra haben eine negative Auswirkung auf die Rankingposition. – Auffällige Rechtschreibung oder Grammatik: Auffälligkeiten im Bereich der Orthografie weisen auf einen eventuell durch Hacker veränderten Inhalt hin und wirken sich auf die Rankingposition negativ aus. – Alter der Seite im Sinne der ersten Aufnahme bei Google: Ein hohes Alter zeugt von Seriosität und wirkt positiv auf die Rankingposition zurück. – On-Page-Faktoren zur Vertrauensbildung (zum Beispiel Über-Uns-Seite, korrekte Rechtschreibung und Grammatik, vollständige Kontaktdaten): Die formale Korrektheit deutet auf eine hohe Qualität der Website hin. – Aktualität der Seite (Häufigkeit von Änderungen und Prozentsatz der geänderten Teile der Seite): Eine Seite, deren Inhalt aktiv gepflegt wird, wird mit Qualität assoziiert. – Ladezeit der Seite: Braucht die Seite sehr lange, um angezeigt zu werden, wirkt sich dies negativ auf das Ranking aus. – Interne Popularität der Seite (Anzahl der internen Links): Wird intern auf eine Seite oft verlinkt, deutet dies auf eine hohe Relevanz der Seite für den Webseitenbetreiber hin und hat deshalb einen positiven Einfluss auf das Ranking. – Schlüsselwörter (Suchbegriffe): Schlüsselwörter im Seitentitel, am Anfang des Seitentitels, in Dateinamen und in der URL nehmen positiven Einfluss auf das Ranking. Synonyme zu den Schlüsselwörtern mit Bezug auf das Thema der Seite werden ebenfalls positiv gewertet.

Suchmaschinen 

219

4. Kriterien bei den Linkstrukturen: – Wichtige Faktoren für die Rankingposition sind: die Anzahl ausgehender Links pro Domäne; die Anzahl ausgehender Links pro Seite; die Qualität der Seiten, auf die verlinkt wird; die Relevanz der ausgehenden Links; Links auf 404- und andere Fehlerseiten; Links von Autoritätsseiten; die Relevanz der verlinkenden Sites sowie die Qualität der verlinkenden Sites. – Die Nennung in der Wikipedia ist ebenfalls ein wichtiger Rankingfaktor. 5. Weitere Faktoren mit positivem Einfluss auf das Ranking: – Registrierung der Domäne bei den Google Webmaster Tools, – Präsenz der Domäne bei Google News, – Präsenz der Domäne in der Google Blog Search, – Verwendung der Domäne bei Google Analytics. 6. Sonstige Kriterien: – Anzahl an Besuchern einer Seite, – Verweildauer der Besucher auf der Seite, – Schlüsselwörter werden übertrieben oft verwendet (sogenanntes „keyword stuffing“), – gekaufte Links, – Der Websitebetreiber ist als Spammer bekannt, – Cloaking, das heißt, Benutzer erhalten eine andere Version der Seite als die Suchmaschinen, – versteckter Text, – bisherige Strafen für diese Domäne, – bisherige Strafen des Besitzers der Domäne. Da die persönliche Faktoren (eigene Suchhistorie, eigener Standort, verwendeter Browser etc.) noch hinzukommen, erscheint das moderne Suchmaschinenranking à la Google als eine komplexe Geheimwissenschaft, auf deren Verfahren fast nur durch die umfangreichen Untersuchungen von kommerziell arbeitenden Suchmaschinenoptimierern Rückschlüsse gezogen werden können. Durch die Personalisierung der Websuche gibt es heute keine objektiven Suchergebnisse mehr. Sind Sie mit Ihrem Laptop in Stuttgart unterwegs, erhalten Sie bei der Sucheingabe „Zoo“ als erstes die Wilhelma, den zoologisch-botanischen Garten Stuttgart. Haben Sie häufig die Websites von Reiseanbietern besucht, bekommen Sie bei der Sucheingabe „Ägypten“ tendenziell Reiseangebote in den SERPs angezeigt. Haben Sie zuvor oft nach politischen Entwicklungen gesucht, wird Sie die Suche mit der Eingabe „Ägypten“ eher auf Websites zur Politik in Ägypten führen. Der Algorithmus passt sich Ihrem Such- bzw.

220  3 Wege zum Wissen im Web

Surfprofil an, was sehr praktisch und zeitsparend sein kann, allerdings auch gleichermaßen bedeutet, dass die Daten der Benutzer an Google übertragen werden. Der Erfolg scheint Google recht zu geben: Mit seinem Geschäftsmodell konnte sich der Konzern trotz der geplatzten Dotcomblase behaupten und stellt damit ein Web-2.0-Unternehmen gemäß Tim O'Reilly par excellence dar. Als User-generated Content verwendet Google die Links, die von den Webnutzern im Netz gesetzt wurden, sowie unbewusst übermittelte, persönliche Daten wie die verwendeten Suchwörter oder das Interesse an bestimmten Werbeanzeigen, das durch Klicken auf den Werbelink signalisiert wurde.

Exkurs 1: Wieso werden bei Google Treffer angezeigt, die das Suchwort gar nicht enthalten? Befassen wir uns noch mit einem kleinen Google-Rätsel, dem es auf die Schliche zu kommen gilt: Es kommt vor, dass Google subjektiv richtige Treffer anzeigt, welche das zuvor verwendete Suchwort selbst gar nicht enthalten. Beispielsweise könnten Sie nach „Lohntabellen“ gesucht und als Treffer „Gehaltstabellen“ erhalten haben. Oder Sie suchen, wie es 2003 tatsächlich passiert ist, nach „miserable failure“ und erhalten einen autobiografischen Text über den ehemaligen US-Präsidenten George W. Bush. Woher kommt dieser Effekt? Google bezieht in seine Suchergebnisse auch die Texte ein, mit denen auf eine Seite verlinkt wird. Man bezeichnet diese Texte als Ankertexte (engl. anchor texts). Nehmen wir an, Sie verweisen auf Ihrer Website auf die Staatsbibliothek zu Berlin (staatsbibliothek-berlin.de) und zeigen den Link mit dem Ankertext „Hier geht's zur Stabi Berlin“ an. Nutzer könnten dann mit der Suche nach Stabi Berlin die korrekte Website staatsbibliothekberlin.de angezeigt bekommen – selbst dann, wenn der Begriff „Stabi“ auf der offiziellen Website gar nicht vorkommt. Der Vorteil an dem Verfahren ist, dass die natürliche Sprache, die Webseitenbetreiber in ihren Ankertexten nutzen, auch in die Suchergebnisse einbezogen wird. Der Nachteil daran ist die Anfälligkeit für Manipulationen, wie das Beispiel von George W. Bush zeigt, bei dem viele Bush-Kritiker den Link zu dem autobiografischen Text von Bush mit dem Ankertext „miserable failure“ (dt. in etwa jämmerliches Versagen) versehen hatten. Man bezeichnet diese Form der Manipulation auch als „Google-Bombe“.

Suchmaschinen 

221

Exkurs 2: Personalisierung der Suche: Sind wir gefangen in der „Filter Bubble“? Internetforscher weisen darauf hin, dass es bei den großen Suchmaschinen oder sozialen Netzwerken keine objektiven Suchergebnisse gibt bzw. nicht mehr gibt. Suchen wir etwas mittels Google, wird auch der Kontext unserer Suche, wie schon erwähnt, in der Anfrage mitverarbeitet. Von wo aus wir suchen, was unsere vorherigen Suchergebnisse waren, in welcher Sprachversion unser Browser installiert wurde: All dies hat Auswirkungen auf die angezeigten Suchergebnisse. Diese Signale fließen in die Darstellung der Ergebnisse ein und machen uns das Finden oft wesentlich einfacher. Der Publizist Eli Pariser wunderte sich einmal, warum er bei Facebook keine Informationen mehr von einer von ihm nicht favorisierten politischen Partei erhielt, und fand heraus, dass die Facebooksoftware diese Ergebnisse einfach herausgefiltert hatte, da er sich eben zuvor nie sonderlich für diese Partei interessiert hatte. Darüber erschrocken, entwickelte Pariser die Theorie der Filterblase, der „Filter Bubble“, die uns nur das widerspiegelt, was uns schon früher interessiert hat, und uns so kaum Möglichkeiten gibt, unseren Horizont zu erweitern, mit bestehenden Verhaltensmustern zu brechen oder uns mit der Meinung Andersdenkender zu beschäftigen. In der Kommunikationswissenschaft wird dieser Effekt als Echokammer bezeichnet. Echokammern führen dazu, dass sich der in der Blase bzw. Kammer Befindliche in der Mehrheit wähnt und in seiner Haltung durch die Likes und Kommentare von Gleichgesinnten bestärkt wird, ohne sich dabei mit kontroversen Meinungen auseinandersetzen zu müssen. Auch wenn dies eher ein Nebeneffekt von eingesetzter Filtersoftware zu sein scheint, weist Pariser doch auf ein ernsthaftes Problem der zunehmenden Informationsflut hin: Programme treffen mittels Prognose eine Vorauswahl, um uns nur die Informationen zu präsentieren, die uns bisher interessierten. Diese Personalisierung, die für die zielgruppengerechte Onlinewerbung zwar logisch erscheint und auch viele relevante Suchergebnisse schneller und bequemer präsentiert, bringt unter Umständen aber eine Verengung unserer Wahrnehmung mit sich und wird von kritischen Internetnutzern als Zensur oder als eine Art digitale Bevormundung empfunden. Als Reaktion auf die Studie „Exposure to ideologically diverse news and opinion on Facebook“ (Bakshy, Messing und Adamic 2015) schrieb die Wissenschaftsjournalistin Eva Wolfangel in einem Kommentar auf Spektrum.de 2015: Die Studie macht eines erneut klar: Es ist eine der großen offenen Fragen der Gesellschaft, wie sie ihre Mitglieder aus ihren Filterblasen herausbekommt oder zumindest die Wahrnehmung dafür schärft, dass wir dazu neigen, diese Blasen um uns herum zu schaffen.

222  3 Wege zum Wissen im Web

Uns in einer Welt, in der sich die Menschen mehrheitlich über soziale Netzwerke über das Weltgeschehen informieren, neutrale Instanzen zu bewahren, die Nachrichten tatsächlich einordnen, das ist die Herausforderung.

Snippets und Thumbnails vor Gericht Mit automatisiert erstellten Kurzzusammenfassungen der anlässlich einer Suchanfrage ermittelten Webseiteninhalte, sogenannten Snippets, verschafft Google seinen Nutzern eine Orientierung in der Vielzahl der Suchergebnisse. Von Zeit zu Zeit beschäftigt die juristische Würdigung dieses Services die Gerichte: Die Einschätzungen zur Haftung von Google für den Inhalt eines Snippets gehen dabei weit auseinander. Die, soweit ersichtlich, jüngste Entscheidung zu dieser Frage hat das Oberlandesgericht Köln mit seinem Urteil vom 25. Januar 2018, Aktenzeichen I-15 U 56/17, 15 U 56/17 gefällt. Der Kläger war 1995 wegen versuchten Bandendiebstahls in drei Fällen unter Anordnung seiner Unterbringung in der Sicherungsverwahrung verurteilt worden. In dem zu verhandelnden Fall wandte sich der Kläger gegen das folgende Suchergebnis, das bei Eingabe seines Namens in der Google-Suchmaske auf der Trefferliste angezeigt wurde: Titel: „Nicht-Therapierbarer Sextäter greift Mädchen an – Politically …“, URL: „www.Qnews.net/…/nicht-therapierbarer-sextaeter-greift-maedchen-an/“ Snippet: „30.11.2010 – Der Beschwerdeführer, H, ist deutscher Staatsbürger, 1945 geboren, und derzeit in B in Sicherungsverwahrung“.

Der mit dem Ergebnistreffer verlinkte Artikel „Nicht-Therapierbarer Sextäter greift Mädchen an“ wurde im November 2010 auf der Internetseite www.Qnews.de bereitgestellt und enthielt keinerlei Bezug zum Kläger. Erst durch den Kommentar einer Nutzerin zu dem eingestellten Beitrag ließ sich eine Verbindung herstellen. Wegen der Begehung eines Sexualdelikts war der Kläger hingegen in der Vergangenheit nicht in Erscheinung getreten. Mit seiner Klage auf Unterlassung wandte er sich vor Gericht gegen die ihn belastende Darstellung des Suchergebnisses, die den Eindruck entstehen ließe, er sei ein nicht therapierbarer Sexualstraftäter, der Mädchen angreife. Das Oberlandesgericht sprach dem Kläger einen Unterlassungsanspruch wegen Verletzung seines allgemeinen Persönlichkeitsrechts gegen die Betreiberin der Suchmaschine zu:

Suchmaschinen



223

Die Beklagte verfolgt zwar mit dem Betrieb der Suchmaschine ein grundsätzlich erlaubtes Geschäftsmodell, welches den Schutz der Rechtsordnung genießt. Sie trägt durch den Einsatz ihrer Suchmaschine des Weiteren auch dazu bei, dass zum einen die im Internet aktiven Autoren ihr Recht auf Meinungsfreiheit aus Art. 5 Abs. 1 GG effektiv ausüben können, da sie mit ihrer Meinung aufgefunden und gehört werden und dass zum anderen die Nutzer ihr Recht auf Informationsfreiheit aus Art. 5 Abs. 1 GG ausüben können, da ohne die Existenz einer Suchmaschine die schier endlose Informationsflut des modernen Internets nicht mehr – erst recht nicht sinnvoll – nutzbar wäre. Soweit die Beklagte für das von ihr angebotene Geschäftsmodell jedoch den Einsatz eines von ihr programmierten Algorithmus vorgesehen hat, weil allein die Computertechnik in der Lage ist, die enorme Datenflut des Internet zu recherchieren, indexieren und in geeigneter Weise zum schnellen Nachweis bei Suchanfragen des Nutzers vorzuhalten, birgt diese Computertechnik auf der anderen Seite auch bestimmte Risiken, die gerade in der fehlenden menschlichen Kontrolle und der rein automatisierten Arbeitsweise des Programms begründet liegen. Die Beklagte hat insofern durch Programmierung und Betrieb des Algorithmus der Suchmaschine die maßgebliche Ursache dafür gesetzt, dass im Hinblick auf die rein automatische Erstellung vereinzelt auch zufällig Suchergebnisse produziert werden können, die den Betroffenen in seinem persönlichen und sozialen Ansehen erheblich beeinträchtigen. Sie hat insoweit eine Gefahrenquelle eröffnet, die nur sie beherrscht und deren Gefahr sich im Falle des den Kläger betreffenden Suchergebnisses realisiert hat. Allein auf die – unterstellt – rein automatisierte und technische Erstellung der Suchergebnisse kann sich die Beklagte zum Ausschluss ihrer Haftung schon deshalb nicht berufen, weil sie sich gerade zum Zwecke ihrer geschäftlichen Tätigkeit dieses technischen Hilfsmittels bedient, um dem Nutzer ein attraktives Angebot im Bereich Internetrecherche bieten zu können, was letztlich ihren Verdienst- bzw. Gewinninteressen dient. Schon vor diesem Hintergrund erscheint es nicht angezeigt, es der Beklagten dann auf der anderen Seite zuzugestehen, sich bei „Ausreißern“ im Betrieb dieses technischen Hilfsmittels, welche zu einer Persönlichkeitsrechtsverletzung des Betroffenen führen, gleichsam hinter einem Computerprogramm „zu verstecken“, welches allein sie programmiert hat und auf das allein sie Einfluss nehmen kann. (Rn. 52) Für eine Haftung der Beklagten als Störerin spricht im vorliegenden Fall auch die Abwägung der beiderseitigen grundrechtlich geschützten Positionen: Der Kläger wird durch die vom Computerprogramm der Beklagten automatisch generierte Zusammenstellung von Titel, Link und Snippet für den durchschnittlichen Nutzer fälschlicherweise als nicht therapierbarer Sextäter angeprangert, was einen erheblichen Eingriff in sein allgemeines Persönlichkeitsrecht darstellt. Dabei ist insbesondere zu berücksichtigen, dass es inzwischen zum üblichen Vorgehen sowohl im Geschäfts- als auch im Privatleben gehören dürfte, Personen „zu googeln“, um persönliche oder sonstige Details ausfindig zu machen. Gerade im Hinblick auf diese Vorgehensweise ist das streitgegenständliche Suchergebnis, welches bei Eingabe des Namens des Klägers von der Suchmaschine der Beklagten angezeigt wird, von erheblicher Bedeutung für dessen Ansehen und Status in der öffentlichen Wahrnehmung. Dagegen kann sich die Beklagte nicht […] darauf berufen, dass ihre Haftung für Suchergebnisse wie das hier vorliegende dazu führen würde, dass künftig die den Namen des Klägers enthaltende und als solche rechtmäßige Drittseite nicht mehr über ihre Suchmaschine auffindbar wäre, was möglicherweise einen unzulässigen Eingriff in die Meinungs- und Informationsfreiheit der Autoren bzw. Nutzer darstellen würde.

224  3 Wege zum Wissen im Web

Denn die Beklagte ist aufgrund der sie treffenden Unterlassungspflicht gerade nicht gehalten, die betreffende Seite künftig bei einer Suche nach dem Namen des Klägers oder auch nach sonstigen Begriffen nicht mehr durch ihre Suchmaschine nachweisen zu lassen. Vielmehr ist sie nur verpflichtet, durch entsprechende technische Maßnahmen sicherzustellen, dass der von ihr programmierte und betriebene Algorithmus keine Zusammenstellung von Titel und Snippet in der Art des streitgegenständlichen und den Kläger belastenden Suchergebnisses mehr vornimmt. (Rn. 53)

Das Gericht beschränkte die Haftung allerdings auf die „Einhaltung reaktiver Prüf- und Sperrpflichten“ (Rn. 54). Eine Pflicht zur Vorabprüfung der Suchergebnisse auf mögliche Rechtsverletzungen bestünde nicht, weil der eingesetzte Algorithmus im Normalfall beanstandungsfrei funktioniere: Eine Haftung der Beklagten für den von ihr programmierten und betriebenen Algorithmus der Suchmaschine setzt also erst dann ein, wenn und soweit sie hinreichende Kenntnis davon erlangt hat, dass die automatisierte Tätigkeit ihrer Suchmaschine zu einem die Persönlichkeitsrechte eines Dritten beeinträchtigenden Ergebnis geführt hat. (Rn. 55)

Die vom Gericht geforderte Beanstandung hatte der Kläger gegenüber der Beklagten gemeldet. Damit sah das Gericht die Voraussetzungen für eine Haftung der Beklagten als erfüllt an. Der Rechtsstreit lag anschließend dem Bundesgerichtshof vor. Die Revision vor dem BGH ist aber zurückgenommen worden. Damit ist das letzte Wort gesprochen. Googles Snippets haben noch weiteren Anlass, wenngleich in gänzlich anderer Konstellation, für einen interessanten Rechtsfall geboten, den wir bei unseren Erläuterungen zu News-Aggregatoren unter die Lupe nehmen werden. Die Verwendung von Vorschaubildern, sogenannten Thumbnails, in einer Bildersuchmaschine war ebenfalls schon Gegenstand gerichtlicher Prüfung. Die Klägerin war eine bildende Künstlerin, die Abbildungen ihrer Kunstwerke auf der von ihr betriebenen Website zugänglich machte. Die Beklagte, Betreiberin der Internetsuchmaschine Google mit einer textgesteuerten Bildersuchfunktion, stellte bei Eingabe des Namens der Klägerin als Suchbegriff die Kunstwerke der Klägerin als verkleinerte Vorschaubilder mit reduzierter Pixelanzahl in der Trefferliste der Suchmaschine dar. Darin erkannte der Bundesgerichtshof in seinem Urteil vom 29. April 2010, Aktenzeichen I ZR 69/08 sowohl eine Vervielfältigung als auch ein öffentliches Zugänglichmachen: Da die Vorschaubilder der Bildersuchmaschine der Beklagten die Werke der Klägerin nach den Feststellungen des Berufungsgerichts lediglich verkleinert, ansonsten aber ohne wesentliche Veränderungen identisch in ihren schöpferischen Zügen gut erkennbar wiedergeben, handelt es sich bei ihnen – unabhängig davon, ob sie als Bearbeitungen oder Umgestaltungen unter § 23 UrhG fallen – gleichfalls um Vervielfältigungen i.S. von § 16 Abs. 2 UrhG. […] (Rn. 17)

Suchmaschinen 

225

Die Beklagte hat zwar dadurch, dass bei Eingabe des Namens der Klägerin als Suchwort deren Kunstwerke in den Vorschaubildern der Bildersuchmaschine der Beklagten abgebildet wurden, das Recht der Klägerin auf öffentliches Zugänglichmachen ihrer Kunstwerke verletzt (§ 15 Abs. 2 Satz 2 Nr. 2, § 19a UrhG). Entgegen der Auffassung des Berufungsgerichts hat die Beklagte dabei jedoch nicht rechtswidrig gehandelt, weil sie aufgrund einer Einwilligung der Klägerin zu der beanstandeten Nutzung der Werke in den Vorschaubildern berechtigt war. (Rn. 18)

Dazu fuhr der Bundesgerichtshof fort: Das dem Urheber nach § 15 Abs. 2 Satz 1 und 2 Nr. 2 UrhG vorbehaltene Recht der öffentlichen Zugänglichmachung (§ 19a UrhG) ist das Recht, das Werk der Öffentlichkeit in einer Weise zugänglich zu machen, dass es Mitgliedern der Öffentlichkeit von Orten und zu Zeiten ihrer Wahl zugänglich ist. Ein Zugänglichmachen im Sinne dieser Vorschrift setzt nur voraus, dass Dritten der Zugriff auf das sich in der Zugriffssphäre des Vorhaltenden befindende geschützte Werk eröffnet wird […]. Durch die Anzeige in Vorschaubildern der Trefferliste einer Suchmaschine macht der Suchmaschinenbetreiber, der diese Vorschaubilder auf einem eigenen Rechner vorhält, die abgebildeten Werke öffentlich zugänglich […]. (Rn. 19) Da die Beklagte die Vorschaubilder auf ihrem Rechner – und damit unabhängig von der ursprünglichen Quelle – vorhält, erfüllt sie den Tatbestand des § 19a UrhG durch eine eigene Nutzungshandlung. Sie stellt nicht lediglich die technischen Mittel zur Verfügung, sondern übt, indem sie die Vorschaubilder durch ihre „crawler“ aufsucht und auf ihren Rechnern vorhält, die Kontrolle über die Bereithaltung der Werke aus. Der Umstand, dass erst der einzelne Internetnutzer durch Eingabe eines entsprechenden Suchworts bewirkt, dass die von der Beklagten vorgehaltenen Vorschaubilder abgerufen werden, berührt die Eigenschaft der Beklagten als Werknutzer i.S. von § 19a UrhG nicht. Die Nutzungshandlung des § 19a UrhG liegt in dem Zugänglichmachen, das die Beklagte kontrolliert. (Rn. 20)

Auf die wirksame Einwilligung der Klägerin zu der beanstandeten Nutzung der Werke in den Vorschaubildern schloss der Bundesgerichtshof dadurch […], dass das Verhalten der Klägerin, den Inhalt ihrer Internetseite für den Zugriff durch Suchmaschinen zugänglich zu machen, ohne von technischen Möglichkeiten Gebrauch zu machen, um die Abbildungen ihrer Werke von der Suche und der Anzeige durch Bildersuchmaschinen in Form von Vorschaubildern auszunehmen, aus der Sicht der Beklagten als Betreiberin einer Suchmaschine objektiv als Einverständnis damit verstanden werden konnte, dass Abbildungen der Werke der Klägerin in dem bei der Bildersuche üblichen Umfang genutzt werden dürfen. Ein Berechtigter, der Texte oder Bilder im Internet ohne Einschränkungen frei zugänglich macht, muss mit den nach den Umständen üblichen Nutzungshandlungen rechnen […]. Da es auf den objektiven Erklärungsinhalt aus der Sicht des Erklärungsempfängers ankommt, ist es ohne Bedeutung, ob die Klägerin gewusst hat, welche Nutzungshandlungen im Einzelnen mit der üblichen Bildersuche durch eine Bildersuchmaschine verbunden sind […]. Danach hat sich die Klägerin mit dem Ein-

226  3 Wege zum Wissen im Web

stellen der Abbildungen ihrer Werke in das Internet, ohne diese gegen das Auffinden durch Suchmaschinen zu sichern, mit der Wiedergabe ihrer Werke in Vorschaubildern der Suchmaschine der Beklagten einverstanden erklärt. (Rn. 36)

Das Zitatrecht, mit dem wir uns im vorangegangenen Kapitel beschäftigt haben, ließ das Gericht hingegen nicht gelten: Die Darstellung der Vorschaubilder in der Trefferliste der Bildersuchmaschine der Beklagten dient dazu, das Werk um seiner selbst willen als Vorschaubild der Allgemeinheit zur Kenntnis zu bringen. Vorschaubilder werden in einem automatisierten Verfahren in die Trefferliste eingefügt, ohne dass dieser Vorgang als solcher der geistigen Auseinandersetzung mit dem übernommenen Werk dienen soll. Die von der Suchmaschine generierte Trefferliste ist lediglich Hilfsmittel zum möglichen Auffinden von Inhalten im Internet. Die Anzeige der Vorschaubilder erschöpft sich demnach in dem bloßen Nachweis der von der Suchmaschine aufgefundenen Abbildungen. (Rn. 27)

Google und die Onlinewerbung Facebook hatte 2018 über zwei Milliarden Nutzer weltweit. Google wird mittlerweile seit Jahren zu den teuersten Marken der Welt gezählt. Bei beiden basiert das Geschäftsmodell hauptsächlich auf den Einnahmen aus der mit hohem technischem Aufwand betriebenen, personalisierten Onlinewerbung. Dass im Onlinewerbemarkt noch hohe Zuwächse zu erwarten sind, zeigen die Investitionsprognosen für die kommenden Jahre. Wurden 2017 weltweit 232,27 Milliarden US-Dollar in die Onlinewerbung investiert, sollen es bis 2022 voraussichtlich 427,26 Milliarden US-Dollar sein. Zwar wird für die Benutzung der Suchmaschine keine Gebühr erhoben, doch die Nutzung der Services ist nicht generell umsonst. Jeder Nutzer, der zugleich per definitionem ein potenzieller Werbekunde ist, spült durch Klicks auf die angezeigten Angebote das Geld der Werbeanbieter in Googles Kassen. Zum anderen liefern die Nutzer durch ihr Onlineverhalten wertvolle Daten, die eine zielgruppengerechte Werbung erst ermöglichen. Bei Google wird dieser Datenpool unter anderem aus dem Suchprofil mit dem Verlauf der besuchten Websites gespeist. Hierbei wird von sogenannter indirekter Bezahlung gesprochen. Das zielgruppengerechte Ansprechen von Werbekunden wird im Onlinemarketing als Targeting bezeichnet. Targeting bewirkt beispielsweise, dass ein Nutzer Werbeanzeigen erhält, die seinem Bedarf und seinen Interessen weitestgehend entsprechen.

Suchmaschinen 

227

Die Geschäftsidee von Google basiert mithin auf dem Anbieten passgenauer Onlinewerbung. Schlüsselinstrumente hierfür sind die Produkte Google AdWords und Google AdSense. AdWords ist eine Softwarelösung für Suchwortmarketing. Werbeanbieter können ihre Anzeigen mit von ihnen gewählten Suchwörtern (Keywords) verknüpfen. Der Preis für den Werbekunden wird nicht über Preislisten, sondern durch Onlineauktionen ermittelt. Der Kunde gibt ein Gebot ab für den Maximalpreis, den er für ein Anklicken seiner Werbeannonce oder wahlweise für das bloße Anzeigen der Werbung zu bezahlen bereit ist. Der Preis für das Anklicken einer Anzeige wird in der Werbewirtschaft allgemein als Cost-per-Click, kurz CPC, bezeichnet. Er liegt in der Regel zwischen einigen Cents bei Verkaufsgütern und kann bei Finanzdienstleistungen oder Versicherungen auch einige Euro überschreiten und bis zu ungefähr 45 Euro betragen. Aus den Geboten und dem von Google ermittelten Qualitätsfaktor der Anzeigen wird ein Anzeigenranking nach folgender Formel erstellt: Anzeigenrang = CPC-Gebot x Quality Score

Dabei gilt, dass ein Quality Score von 1 für die niedrigste Qualität, ein Quality Score von 10 für die höchste Qualität steht. Nur die am höchsten gerankten Annoncen werden in der Trefferliste des entsprechenden Suchbegriffs auch tatsächlich angezeigt. Nicht allein das höchste Gebot entscheidet also darüber, ob eine Anzeige dem Suchenden auch wirklich präsentiert wird. Den Preis pro Klick, der in Rechnung gestellt wird, errechnet Google in Abhängigkeit vom Gebot des Zweitbietenden und wiederum vom Quality Score der geschalteten Anzeige. Dabei werden die Kosten pro Klick umso niedriger, je höher der Quality Score der Anzeige ist. Der Quality Score ist ein von Google errechneter Schätzwert, der sich danach bemisst, wie relevant und nützlich die geschaltete Anzeige für den Suchenden ist. Die größte Rolle spielt dabei die Relevanz der mit der Anzeige verknüpften Keywords. Wirbt jemand auf seiner Webseite für den Verkauf von gebrauchten Fahrrädern in Wien, dann haben die Keywords „Fahrrad kaufen“ beispielsweise eine relativ niedrige Relevanz, da sie zu allgemein ausgewählt wurden. Die Keywords „gebrauchte Fahrräder Wien“ sind hingegen sehr gut auf das Geschäftskonzept zugeschnitten und besitzen eine hohe Relevanz. Durch einen guten Quality Score steigt die Wahrscheinlichkeit, dass Anzeigen überhaupt bei Google eingeblendet werden, und das Budget des Werbenden wird geschont. Das Bestreben der Werbenden, einen optimalen Qualitätswert zu erreichen, ist somit verständlich. Google stellt zu diesem Zweck zahlreiche Hilfen und Tools im Netz zur Verfügung. Je passgenauer die Onlinewerbung ist,

228  3 Wege zum Wissen im Web

umso zufriedener werden zumindest die konsumfreudigen Nutzer sein. Ihr Wohlbefinden entscheidet darüber, ob auch bei der nächsten Suche wieder Google die Suchmaschine ihrer Wahl sein wird. Werbende können laut Google, von den Keywords abgesehen, ihre Anzeigen auch geografisch, sprachlich, zeitlich, demografisch und nach Interessen spezifizieren. Aus der Suchhistorie des Nutzers kann Google Rückschlüsse auf seine Interessen ziehen und dieses Wissen bei der Werbung berücksichtigen. So kann der Werbende zum Beispiel bestimmen, dass seine Anzeigen mit den Keywords „Herrenfahrräder gebraucht Frankfurt“ nur montags bis freitags an deutschsprachige Benutzer aus Hessen ausgeliefert werden, bei denen es sich aller Wahrscheinlichkeit nach um umweltbewusste Männer handelt. Je zielgruppengerechter die Werbung angezeigt wird, umso höher wird die Wahrscheinlichkeit, dass der Benutzer auf die Anzeige klickt, wodurch Google wiederum auch mehr Geld verdient. In diesem Kontext wird klar, aus welchem Grund Google eine Datenbank mit möglichst genauen Informationen über seine Nutzer braucht. Das Wissen über die Nutzer enthält den Schlüssel zur wichtigsten Einnahmequelle, denn Google erzielt seit Jahren über 90 Prozent seiner Umsätze durch Onlinewerbung. 2017 verzeichnete Google Werbeumsätze von über 95 Milliarden US-Dollar. Diese Umsätze haben sich im Vergleich zum Jahr 2013 fast verdoppelt. Neben der Anzeigenwerbung mit Adwords bietet Google den Werbewilligen diverse Möglichkeiten wie grafische Anzeigen oder Videos an, um auf Webseiten, mobilen Geräten oder in YouTube-Videos zu werben. Um seine Werbemöglichkeiten im Internet auszubauen, kaufte Google 2008 den Onlinewerbeanbieter Doubleclick für allein 3,1 Milliarden US-Dollar auf. Bei Google AdSense stellen Websitebetreiber Werbeflächen auf ihren Seiten zur Verfügung, die von Google vermarktet werden. Die Einnahmen daraus teilen sich der Websitebetreiber und Google, wobei Google mindestens 32 Prozent davon für sich beansprucht. Google analysiert die entsprechenden Websites automatisch und liefert dann die Anzeigen mit den passenden Keywords an die Websites aus. Der Werbende kann seine Anzeigen auf bestimmte URLs einschränken, bestimmte URLs ausschließen und auch wieder jede Anzeige zielgruppengerecht spezifizieren. Auch können Nutzer, die bereits die Website des Werbenden besucht oder kürzlich nach einem entsprechenden Produkt gesucht haben, gezielt verfolgt werden. Man bezeichnet diese Verfolgung als Retargeting oder auch als Remarketing. Ergänzend zum CPC-Modell bietet Google, wie schon angedeutet, auch die Verrechnung der Anzeigen nach dem CPI-Modell (Cost per Impression) an. In diesem Modell ist die bloße Anzeige auf dem Bildschirm des Suchenden bereits entgeltpflichtig. Eine besondere Variante sind CPA-Modelle (Cost per Action

Suchmaschinen 

229

oder Cost per Conversion), bei denen eine Werbeannonce dann kostenpflichtig wird, wenn ein Webnutzer eine bestimmte, vom Werbekunden vordefinierte Transaktion durchführt, zum Beispiel einen Newsletter bestellt oder Prospektmaterial anfordert. Nur auf einen kleinen Bruchteil der Unmenge von Werbeanzeigen klicken die Suchenden auch tatsächlich. Man bezeichnet das Verhältnis zwischen der Werbung, die angezeigt wird, und den Klicks darauf als Click-through Rate (CTR). Die CTR liegt weltweit in kaum einem Land höher als 0,12 Prozent (siehe Gabler 2010). Dass die Flut an Werbeinformationen die Aufmerksamkeit der Nutzer für jede einzelne Anzeige eher sinken lässt, verwundert kaum. Um dem Aufmerksamkeitsdefizit abzuhelfen, verfolgt die Werbebranche derzeit zwei Strategien: Zum einen soll die Werbung von redaktionellem Inhalt kaum mehr zu unterscheiden sein und als sogenanntes Native Advertising die Aufmerksamkeit der Betrachter auf sich ziehen. Zum anderen wird versucht, die Werbung nicht nur inhaltlich an den Bedarf der Suchenden anzupassen, sondern auch den persönlichen Kontext des Suchenden derart zu berücksichtigen, dass Werbung genau zum richtigen Zeitpunkt für das richtige Produkt gemacht wird. Anzeigen für Reisen sollten genau vor der anstehenden Entscheidung für eine Reise angezeigt werden und nicht erst nach der Rückkehr. Soll aber ein Werbeanbieter wie Google wissen, ob, wann und wohin eine bestimmte Person eine Reise unternimmt, ist dies nur durch ein hohes Maß an Datensammlung, Beobachtung und – wenn man so will – auch Überwachung möglich.

Von Google Inc. zu Alphabet Inc. Von der Suchmaschinentechnologie abgesehen, arbeitet Google Inc. seit langem an innovativen Technologien für die verschiedensten Lebenskontexte, zum Beispiel am fahrerlosen Taxi, an der automatischen Bilderkennung für Smartphones oder an webunterstützter Haus- und Medizintechnik. Das Unternehmen forscht intensiv auf dem Gebiet der künstlichen Intelligenz und der Robotertechnologie, was zuletzt durch den Ankauf einiger Spezialfirmen für Robotik offenbar wurde. 2015 schließlich gaben die Google-Gründer die Neustrukturierung des Konzerns unter dem Dach der Alphabet-Holding bekannt. Die Alphabet-Holding besitzt einige Tochtergesellschaften, unter denen Google Inc. derzeit noch die bedeutendste ist. Weitere Töchter von Alphabet Inc. sind unter anderem: – X, für Forschungen auf dem Gebiet der künstlichen Intelligenz, der Neuround Biowissenschaften,

230  3 Wege zum Wissen im Web

– – – – – – –

Calico, das 2013 zur Erforschung des Alterns und der Geheimnisse eines langen und gesunden Lebens gegründet wurde, Verily Life Sciences, das Krankheiten und deren Heilung erforscht, Nest, das 2014 von Google aufgekauft wurde und Produkte rund um die Hausautomatisierung entwickelt, Deep Mind für die Entwicklung von künstlicher Intelligenz, Sidewalk Labs, die sich die Verbesserung der urbanen Lebensqualität zum Ziel gesetzt haben, Waymo zur Entwicklung autonomen Fahrens und Access & Energy, ein Internetbreitband- und Kabelfernseh-Provider.

Google bietet neben der Suchmaschine auch zahlreiche Tools und Softwarelösungen im Web an. Einige dieser Zusatzangebote werden in den folgenden Abschnitten kurz erläutert.

Google Books 2004 wurde das Digitalisierungsprojekt Google Books vorgestellt. Ziel des Projekts waren die Digitalisierung und öffentliche Zugänglichmachung sowohl gemeinfreier als auch urheberrechtlich geschützter Werke. In den Worten von Google hieß es dazu auf der Projektwebsite: Unser oberstes Ziel ist es, gemeinsam mit Verlagen und Bibliotheken einen umfassenden, virtuellen Katalog aller Bücher in allen Sprachen zu erstellen. Dieser Katalog soll den Nutzern dabei helfen, neue Bücher zu entdecken, und die Verlage unterstützen, neue Leser zu finden.

Besonderes Augenmerk verdienten die Digitalisierung und öffentliche Zugänglichmachung urheberrechtlich geschützter Werke: Einige dieser Werke sollten im Rahmen des sogenannten Partner Programs auf Grundlage von Lizenzvereinbarungen mit den betroffenen Verlagen auszugsweise in größerem Umfang über die Google Book Search sichtbar gemacht werden. Viele andere hingegen sollten im Rahmen des sogenannten Library Project auch ohne Zustimmung der Rechteinhaber für die Snippet-Anzeige bei entsprechender Suchanfrage in der Google Book Search sichtbar gemacht und den Bibliotheken, die aus ihren Beständen die Digitalisierungsvorlagen bereitgestellt hatten, zum Volltextdownload verfügbar gemacht werden. Die ersten Partnerbibliotheken waren die Harvard University Library, die University of Michigan Library, die New York Public Library, die Bodleian Library der University of Oxford sowie die Stanford University Libraries. Bibliothe-

Suchmaschinen 

231

karische Projektpartner aus dem deutschsprachigen Raum waren die Bayerische Staatsbibliothek und die Österreichische Nationalbibliothek. Der Widerstand der Rechteinhaber gegen dieses Projekt ließ nicht lang auf sich warten. Eine erbitterte Auseinandersetzung zwischen der Autorenvereinigung Authors Guild Inc. und Google Inc. beschäftigte rund elf Jahre lang die US-amerikanische Justiz. Im Jahre 2012 erreichte das Projekt unterdessen die 20-Millionen-Marke.

Authors Guild versus Google Ausgangspunkt für den Rechtsstreit waren unterschiedliche Rechtsauffassungen hinsichtlich der Digitalisierung und öffentlichen Zugänglichmachung urheberrechtlich geschützter Werke im Google-Books-Projekt. Google reklamierte für sich den im US-amerikanischen Urheberrecht verankerten Grundsatz des Fair Use, der bei überwiegendem Interesse an der produktiven Nutzung urheberrechtlich geschützter Werke insbesondere zu wissenschaftlichen, geistig-kulturellen oder künstlerischen Zwecken eben diese auch ohne Zustimmung der Rechteinhaber gestattet. Die Autorenvereinigung hingegen machte die Verletzung von Urheberrechten durch die unautorisierte Vervielfältigung, Speicherung und öffentliche Zugänglichmachung der urheberrechtlich geschützten Werke geltend. Die Gerichte gaben Google Recht: Die massenweise Digitalisierung und öffentliche Zugänglichmachung sei trotz der Bedenken schürenden Digitalisierung auf Vorrat durch den Grundsatz des Fair Use gedeckt. Zwar vervielfältige Google die urheberrechtlich geschützten Werke vollständig. Diese würden aber nicht unmittelbar kommerzialisiert, sondern der Öffentlichkeit über einen der Volltextsuche fähigen Index zugänglich gemacht. Damit würden der Werkzugang erleichtert und Wissenschaft und Kultur gefördert, ohne die Rechte der Urheber über Gebühr zu strapazieren. Eine Verletzung von Urheberrechten nach US-amerikanischem Recht erkannten die Richter nicht.

Google Maps und Google Street View Der Kartendienst Google Maps wurde 2005 gestartet. Neben der weltweiten, detaillierten Kartenansicht erlaubt er die Einblendung von Satellitenbildern und die Anzeige von Unternehmensstandorten und Sehenswürdigkeiten. In Kombination mit dem Dienst Google Street View können für viele Städte der Welt Fotos der gesuchten Straßenzüge angezeigt werden. Registrierte Nutzer

232  3 Wege zum Wissen im Web

können die Karten bearbeiten durch das Hinzufügen von neuen Orten oder durch Änderungsvorschläge zu Informationen über bereits eingetragene Orte. Ein Routenplaner, der für ausgewählte Städte auch die Planung mit Fahrradwegen, der Bahn oder öffentlichen Verkehrsmitteln zulässt, ist integriert. Es wurde auch damit begonnen, Gebäudepläne, sogenannte Indoor Maps, zu integrieren, um eine Orientierung mit mobilen Geräten innerhalb von Flughäfen, Museen oder Einkaufszentren zu ermöglichen.

Google Street View vor Gericht Dass Google Street View auch ein Fall für die Rechtsprechung würde, ließ sich bald absehen: Das Landgericht Berlin beschäftigte sich im Jahre 2010 näher mit dem Dienst. Die Antragstellerin, Eigentümerin eines Einfamilienhauses in Berlin, begehrte vorbeugenden Rechtsschutz gegen eine mögliche Rechtsverletzung durch Aufnahme ihres Hauses, einschließlich des Vorgartens und Privatbereichs. In seinem Beschluss erwog das Gericht auch die Anwendung des Medienprivilegs auf den Dienst, wie es das Landgericht Köln in seinem Urteil vom 13. Januar 2010, Aktenzeichen 28 O 578/09 zu Beginn desselben Jahres für das regionale Internetbildportal www.bilderbuch-koeln.de zur Vermittlung der Kölner Stadtgeschichte, Stadtentwicklung und Architektur befürwortet hatte: Die Kammer neigt dazu – ohne dass es indes im Ergebnis entscheidend auf diesen Umstand ankommt – der Beklagten das Medienprivileg gemäß § 41 BDSG zuzugestehen, da sich deren Tätigkeit nicht darauf beschränkt, bestimmte Örtlichkeiten abzubilden und diese im Stadtplan genau zu lokalisieren, sondern diese darüber hinaus Informationen zu Hintergründen von Stadtgeschichte, Architektur u.ä. gibt – wenn diese auch nicht auf jede einzelne Abbildung bezogen sind. Die Beklagte beschränkt sich mithin nicht darauf, eigenes oder fremdes Bildmaterial einzustellen, um es dann bestimmten Örtlichkeiten in Köln zuzuordnen. (Rn. 28)

Das Landgericht Berlin konnte in seinem Beschluss vom 13. September 2010, Aktenzeichen 37 O 363/10 diese Frage ebenfalls dahingestellt lassen, da in dem Antrag nach Auffassung des Gerichts weder dargetan noch glaubhaft gemacht worden war, dass die befürchtete Rechtsverletzung tatsächlich eintreten würde. Zu den Maßnahmen der Deindividualisierung, die Google Street View veranlasst, führte das Gericht aus: Im Übrigen steht dem Erlass der einstweiligen Verfügung im vorbeugenden Rechtsschutz auch entgegen, dass die Antragsgegnerin die Gesichter von Personen unkenntlich machen lässt und hinsichtlich von Gebäudeaufnahmen die Möglichkeit einräumt, diese bereits vor ihrer Veröffentlichung unkenntlich zu machen. Damit kann der Betroffene, jedenfalls was

Suchmaschinen



233

die wesentlichen möglichen Verletzungshandlungen betrifft, seine Rechte auf andere Weise einfacher und schneller durchsetzen. Soweit dadurch hinsichtlich von Personenaufnahmen nicht mit letzter Sicherheit auszuschließen ist, dass gleichwohl im Einzelfall eine Individualisierung möglich ist, würde dies jedenfalls nicht für eine ernstliche Besorgnis der Rechtsgutverletzung ausreichen. Im Übrigen würde durch die weitere Möglichkeit der Unkenntlichmachung des Gebäudes mit hoher Sicherheit auch die Aufnahme der Personen endgültig verschwinden. Damit wäre aber gerade der befürchtete erhebliche Eingriff tatsächlich nicht gegeben. (Rn. 12)

Das Gericht entschied, dass der Antragstellerin kein vorbeugender Rechtsschutz gegen die noch nicht angefertigten Lichtbilder zustand (siehe Rn. 5).

Google Analytics Das Analysetool Google Analytics ist für Webadministratoren entwickelt worden, um eine statistische Auswertung der Nutzerbewegungen auf den Webseiten des Betreibers zu ermöglichen. Dieses als Webtracking bezeichnete Vorgehen ist bereits in die jüngere Rechtsgeschichte der USA Anfang der 2000er Jahre eingegangen. 2001 wurde das Unternehmen DoubleClick wegen der Sammlung von Nutzerdaten, die für die verhaltensorientierte Werbung durch Kombination mit Befragungs- oder Registrierungsdaten verwendet wurden, verklagt – ohne Erfolg. Das zuständige Gericht sah nur die Veranlassung, dass DoubleClick seine Privacy Policy in einfach verständlicher Sprache zur Verfügung stellen und unter anderem eine Aufklärungskampagne für Verbraucher zum Schutz ihrer Privatsphäre durchführen sollte. Diese Rechtsprechung gilt heute als der Startschuss für die flächendeckende Analyse von Nutzerverhalten im Internet. Auf vielen Webseiten finden Tracking Tools wie Google Analytics, das Open-SourceKonkurrenzprodukt Matomo oder das kostenpflichtige Piwik Pro Analytics mittlerweile Verwendung. Mit Tracking Tools lässt sich ermitteln, auf welchen Wegen Besucher zur Webseite gelangt sind, welche Seiten sie aufgerufen haben, wie lange sie auf der Webseite verweilt haben und von welcher Stelle aus sie die Webseite verlassen haben. Die Analysetools erlauben sogar Aussagen über die Herkunft der Besucher. Auf diese Weise erfahren Webseitenbetreiber viel Wissenswertes über ihre Besucher und deren Gewohnheiten zur Optimierung ihres Webangebots. Google Analytics ist zwar für die Betreiber der Webangebote kostenfrei; die gewonnenen Daten werden aber auch an Google überstellt.

234  3 Wege zum Wissen im Web

Von Cookies, Webtracking und dem Recht Grundlage des Webtrackings bilden vielfach die sogenannten Cookies, kleine Dateien zur Erhebung von Nutzerdaten, die insbesondere im E-Commerce eine große Verbreitung gefunden haben. Sie werden vom Server des Webseitenbetreibers an den Rechner des Nutzers übermittelt und dort regelmäßig nahezu unbemerkt gespeichert. Sie haben sie bereits im langjährigen Rechtsstreit zu den Facebook-Fanpages, mit dem wir uns im zweiten Kapitel befasst haben, kennen gelernt. Persistent Cookies verbleiben, sofern der Nutzer sie nicht löscht oder ihr Verfallsdatum noch nicht erreicht ist, für gewöhnlich längerfristig auf dem Rechner und können bei erneuter Internetnutzung anhand einer Kennung wieder an den Anbieter übermittelt und dort ausgewertet werden. Session Cookies werden für die Dauer der Internetsitzung gespeichert und nach dem Verbindungsende gelöscht. Cookies ermöglichen die Erstellung von Nutzungsprofilen, die für viele Webseitenbetreiber, insbesondere im Bereich des Onlinemarketings, von großem Interesse sind. Bedenklich ist der Einsatz von Cookies jedenfalls dort, wo die erhobenen Daten durch den Webseitenbetreiber einer bestimmten oder bestimmbaren Person zum Beispiel durch Verknüpfung mit dem Klarnamen oder einem anderen Identifikationsmerkmal zugeordnet werden können, mithin keine Anonymisierung erfolgt bzw. dem Betreiber eine Deanonymisierung möglich ist. An dieser Stelle findet der von der E-Mail und IP-Adresse bekannte Streit um die absolute und relative Bestimmbarkeit der Person seine Fortsetzung. Die Bestimmungen in der Datenschutz-Grundverordnung lassen jedoch vermuten, dass Cookies im künftigen EU-Datenschutzrecht ausnahmslos als Träger von Daten mit Personenbezug und folglich als Identifizierungsmerkmal einer Person gelten dürften. Liegen damit personenbezogene Daten vor, ist der Betroffene über deren Erhebung, Verarbeitung und Nutzung nach Art, Umfang, Ort und Zweck vor Speicherung der Cookies zu unterrichten und nach der europäischen Cookies-Richtlinie3, die in Deutschland trotz Ablaufs der Umsetzungsfrist am 25. Mai 2011 nicht in nationales Recht überführt worden ist4 und eine – verschie3 Richtlinie 2009/136/EG des Europäischen Parlaments und des Rates vom 25. November 2009 zur Änderung der Richtlinie 2002/22/EG über den Universaldienst und Nutzerrechte bei elektronischen Kommunikationsnetzen und -diensten, der Richtlinie 2002/58/EG über die Verarbeitung personenbezogener Daten und den Schutz der Privatsphäre in der elektronischen Kommunikation und der Verordnung (EG) Nr. 2006/2004 über die Zusammenarbeit im Verbraucherschutz. 4 Diese Auffassung vertreten zumindest der Bundesgerichtshof, weite Teile der Wissenschaft sowie die Datenschutzbehörden. Sowohl die Bundesregierung als auch die Europäische

Suchmaschinen 

235

dentlich jedoch angezweifelte – Abkehr von der deutschen, unternehmensfreundlicheren Widerspruchslösung einfordert, um Einwilligung zu bitten. Diesen Anforderungen wird nach vielfach vertretener Ansicht nicht etwa durch Öffnen eines kleinen Dialogfensters und Einholen der Zustimmung zur Verwendung von Cookies Genüge getan, da der Nutzer keine Informationen über die Art der zu erhebenden Daten und die Reichweite seiner Zustimmung erhält. Mit Entscheidung vom 05. Oktober 2017, Aktenzeichen I ZR 7/16 hat sich der Bundesgerichtshof an den Europäischen Gerichtshof mit mehreren Vorlagefragen im Kontext der Verwendung von Cookies gewandt. Er begehrt insbesondere die Vorabentscheidung zu den Fragen, ob es sich um eine – auch mit der Datenschutz-Grundverordnung zu vereinbarende – wirksame Einwilligung im Sinne der einschlägigen Richtlinien handelt, wenn die Speicherung von Informationen oder der Zugriff auf Informationen, die bereits im Endgerät des Nutzers gespeichert sind, durch ein voreingestelltes Ankreuzkästchen erlaubt wird, das der Nutzer zur Verweigerung seiner Einwilligung abwählen muss (sogenanntes Opt-out-Verfahren), und welche Informationen der Internetdiensteanbieter bei Verwendung von Cookies erteilen muss (siehe Rn. 1). Das Vorabentscheidungsersuchen ist beim Europäischen Gerichtshof als Rechtssache C-673/ 17 anhängig und dürfte auch deshalb unionsweit Beachtung finden, weil die Cookies-Richtlinie in den Mitgliedstaaten hinsichtlich des gewählten Verfahrens zur Einwilligung unterschiedlich umgesetzt worden ist. Mithilfe von Tracking Tools wie Google Analytics können Webseitenbetreiber, wie bereits angedeutet, das Nutzerverhalten beobachten und statistisch auswerten. Auf welchem Wege sind die Nutzer auf die Webseite gekommen? Aus welchen Ländern und Regionen wird auf die Webseite zugegriffen? Welche Webseiteninhalte rufen die Besucher ab? Wie lange verweilen sie und an welcher Stelle verlassen sie das Angebot wieder? Die von den Nutzern gelegte Fährte bilden vor allem Cookies und IP-Adressen. Die das Nutzungsverhalten wiedergebenden Trackingdaten werden als Nutzungsprofil bezeichnet. Dieses kann sowohl separater Auswertungsgegenstand zum Beispiel zur Ermittlung individueller Interessen als auch Teil einer umfangreichen Auswertung zahlreicher Nutzungsprofile sein, die statistische Aussagen über Nutzungsverhalten zu treffen bestimmt ist. Die unter Einsatz von Google Analytics gewonnenen Daten erhält, wie schon erwähnt, auch das Unternehmen selbst. Es gelangt dadurch an Informationen über Webseitenbesuche, die die Suchmaschine Google gar nicht vermittelt hat.

Kommission haben dieser Ansicht bisher mit Verweis auf die geltenden Bestimmungen des Telemediengesetzes widersprochen, siehe Wagner 2018, Anm. 2, C.

236  3 Wege zum Wissen im Web

Es ist umstritten, ob die Datenschutz-Grundverordnung für das Webtracking unter Verwendung von Analysetools wie Google Analytics eine Einwilligung des Nutzers erforderlich macht. Bisweilen wird vertreten, das Webtracking sei ein von dem Nutzer vernünftigerweise zu erwartendes Analyseinstrument des Webseitenbetreibers. Es stelle eine rechtmäßige Datenverarbeitung, die zur Wahrung der berechtigten Interessen erforderlich sei, dar, solange die Daten nicht mit Personendaten von Nutzern verknüpft würden. Anlass zu einer Neubewertung gäben unter Umständen jedoch technologische Fortentwicklungen. Tatsächlich kann das Webtracking durch Cookies nach Expertenmeinung bereits jetzt durch andere Verfahren ersetzt werden, bei denen keine Dateien mehr auf dem Rechner des Nutzers hinterlegt werden müssen. Fingerprinting erstellt beispielsweise aus der Browserkonfiguration und den Hardwareeinstellungen des Rechners einen digitalen Fingerabdruck, mit dem ein Nutzer eindeutig identifizierbar ist und damit getrackt werden kann. Auf die Gefahr eines Hase-und-Igel-Spiels zwischen Politik und Google im Bereich des Webtrackings wies Matthias Döpfner (2014) mit Blick auf das langjährige Ringen der Mitgliedstaaten der Europäischen Union um ein einheitliches, neues Datenschutzrecht hin: In Brüssel machen sich jetzt Beamte Gedanken, wie man durch eine Einschränkung der Cookie-Setzung und -Speicherung (anhand deren man heute noch nachvollziehen kann, auf welche Website man etwa am 16. April 2006 um 10.10 Uhr geklickt hat) im Internet die totale Transparenz der Nutzer vermeiden kann, um damit Verbraucherrechte zu stärken. Wie diese Regelung genau ausfällt, wissen wir noch nicht, ob sie mehr Gutes als Schlechtes bewirkt, auch nicht. Eines aber steht jetzt schon fest: Käme Sie, gäbe es einen Gewinner: Google. Denn Google gilt in Expertenkreisen als absolut führend in der Entwicklung von Technologien, die die Bewegungen und Gewohnheiten der Nutzer dokumentieren, ohne Cookies zu setzen.

Google Mail, Google Translate und Google Suggest Nach Abschluss der verschiedenen Testphasen im Jahr 2009 erfuhr der kostenlose E-Mail-Dienst Gmail weltweit so hohen Zuspruch, dass er bis 2012 zum meistgenutzten E-Mail-Dienst weltweit avancierte. Vor allem die Verfügbarkeit von relativ großem Speicherplatz und die Konzentration auf die webbrowserbasierte Verwendung erklären die große Popularität von Gmail. Aufgrund eines Markenrechtsstreits durfte die Bezeichnung Gmail bis 2012 von Google in Deutschland nicht verwendet werden; der Dienst hieß daher zunächst Googlemail. Um den Gmail-Benutzern passende Werbeanzeigen einblenden zu kön-

Suchmaschinen 

237

nen, werden die E-Mails automatisch analysiert, also von Maschinen gelesen und ausgewertet. Google Translate ist ein automatisiertes Übersetzungsprogramm, das derzeit 80 Sprachen unterstützt. Bereits bestehende, von Menschen übersetzte Dokumente werden dazu in großer Zahl von Computern ausgewertet und mit der gesuchten Phrase verglichen. Das am geeignetsten erscheinende Muster wird dann als Übersetzung präsentiert. Dieses Verfahren wird von Google als statistische maschinelle Übersetzung bezeichnet und funktioniert nicht in allen Sprachen in der gleichen Qualität. Google fügte 2014 zur Qualitätsverbesserung die Übersetzer-Community-Plattform hinzu, die dazu beitragen soll, die Qualität der automatischen Übersetzungen zu verbessern. Mitglieder der Community können bestehende Übersetzungen korrigieren und neue vorschlagen. Aktuell werden die Übersetzungsangebote durch den Einsatz von künstlicher Intelligenz weiterentwickelt. Google Suggest (Automatische Vervollständigung, Autocomplete) ist ein Tool, das in die Google-Websuche integriert wurde. Seit 2009 arbeitet Google.de mit der automatischen Vervollständigung von Suchwörtern. Beginnt man damit, in die Google-Suchmaske ein Wort zu schreiben, werden ab dem ersten Buchstaben automatisch Vorschläge in Form einer Drop-Down-Liste eingeblendet. Tippt man zum Beispiel nur ein „ö“ in die Suchmaske, erhält man als Vorschläge möglicherweise „Örtliche, Öffentlicher Dienst, Ölpreis, Österreich“; bei der Eingabe „Bücher sind“ in die Suchmaske gibt die Drop-Down-Liste die Vorschläge „Bücher sind treu“ aus, dann „Bücher sind wie gute Freunde“. Google Suggest soll helfen, die Suche zu beschleunigen und Rechtschreibfehler zu vermeiden. Die automatische Vervollständigung lässt sich nicht deaktivieren. Google Suggest passt die Vervollständigungsvorschläge aufgrund von Faktoren wie Aktualität oder Suchhäufigkeit permanent an, so dass stets die mutmaßlich relevantesten Vervollständigungsvarianten angezeigt werden.

Die Autocomplete-Funktion vor Gericht Sie mögen erahnen, dass ein Rechtsstreit zur Autocomplete-Funktion unumgänglich war. Im Mai 2010 – gut ein Jahr nach Einführung der Google-Funktion – stellte R.S., Gründer und Vorstandsvorsitzender einer Aktiengesellschaft, fest, dass sein (voller) Name in den Suchvorschlägen jeweils mit den Begriffen Scientology und Betrug kombiniert wurde. Tatsächlich konnte jedoch kein sachlicher Zusammenhang zwischen der Person und den negativ konnotierten Suchvorschlägen hergestellt werden. Der Kläger erkannte darin eine Verletzung sei-

238  3 Wege zum Wissen im Web

nes Persönlichkeitsrechts und geschäftlichen Ansehens, gegen die er sich gerichtlich zur Wehr setzte. Der Bundesgerichtshof kam in seinem Urteil vom 14. Mai 2013, Aktenzeichen VI ZR 269/12 zu dem Ergebnis, dass der Betreiber einer Suchmaschine […] nicht grundsätzlich verpflichtet [ist], die durch eine Software generierten Suchergänzungsvorschläge generell vorab auf etwaige Rechtsverletzungen zu überprüfen. Dies würde den Betrieb einer Suchmaschine mit einer der schnellen Recherche der Nutzer dienenden Suchergänzungsfunktion wenn nicht gar unmöglich machen, so doch unzumutbar erschweren. Eine entsprechende präventive Filterfunktion kann zwar für bestimmte Bereiche, wie etwa Kinderpornographie, erforderlich und realisierbar sein, sie vermag jedoch nicht allen denkbaren Fällen einer Persönlichkeitsrechtsverletzung vorzubeugen. Den Betreiber einer Internet-Suchmaschine trifft deshalb grundsätzlich erst dann eine Prüfungspflicht, wenn er Kenntnis von der Rechtsverletzung erlangt. Weist ein Betroffener den Betreiber einer Internet-Suchmaschine auf eine rechtswidrige Verletzung seines Persönlichkeitsrechts hin, ist der Betreiber der Suchmaschine verpflichtet, zukünftig derartige Verletzungen zu verhindern […]. (Rn. 30)

Eine Haftung von Google für die ehrverletzenden Suchvorschläge begründete der BGH wiederum mit der Verletzung reaktiver Prüfpflichten. Das Oberlandesgericht Köln entschied nach Rückverweisung durch den Bundesgerichtshof in seinem Urteil vom 08. April 2014, Aktenzeichen I-15 U 199/11, 15 U 199/11 übrigens, dass eine vierwöchige Prüfung durch die Suchmaschinenbetreiberin den Anforderungen einer unverzüglichen Prüfung nicht genügt. Die Entscheidung des Bundesgerichtshofs ist auf Zustimmung, aber auch Kritik gestoßen. So wurde die Frage aufgeworfen, welche Aussagekraft automatisch vervollständigten Suchwörtern überhaupt zugemessen werden könne. Dem verständigen Google-Nutzer sei bewusst, dass die Suchvorschläge Ergebnis einer automatisierten, algorithmusgestützten Analyse vorausgegangener Suchanfragen seien. Im konkreten Fall wäre ohnehin bei Sichtung der Trefferliste zu erkennen gewesen, dass es keine Verbindung zwischen dem Kläger und der Sekte gab. Davon hatte der Bundesgerichtshof bei seiner Entscheidungsfindung jedoch abgesehen (dazu Pörksen 2014).

Kritik an Google Mit der zunehmenden Größe von Google, die mit kultureller Bedeutung und monopolartiger Marktmacht einherging, wuchs schon früh auch die Kritik an dem Konzern, dessen unternehmerisches Leitmotiv „Don't be evil“ (dt. Tue nichts Böses!) ein Unschuldsimage vermitteln sollte.

Suchmaschinen 

239

Die Kritik an Google geht zum einen von Mitbewerbern aus, die beklagen, dass Google die eigenen Produkte in der Trefferliste auf besseren Positionen anzeigt als die entsprechenden Angebote konkurrierender Markteilnehmer, was als Wettbewerbsverzerrung angesehen wird. Aufgrund der unveröffentlichten Funktionsweise des Google-Rankings sind etwaige Manipulationen durch den Konzern selbst nicht leicht zu erkennen und nur durch differenzierte Untersuchung der Suchergebnisse nachweisbar. Aufgrund der erhobenen Vorwürfe untersuchte die EU-Kommission ab 2010 in einem Kartellverfahren, ob Google seine marktdominierende Stellung missbraucht, und kam schließlich 2015 zu der Entscheidung, ein offizielles Kartellverfahren einzuleiten. 2012 bewirkte ein Kartellverfahren in den USA nur geringe Veränderungen in der Geschäftspraxis des Konzerns. Im März 2015 berichtete allerdings das Wall Street Journal von einem im Rahmen des Kartellverfahrens erstellten Gutachten der amerikanischen Handelskommission FTC (Federal Trade Commission) aus dem Jahre 2012, das der Zeitung aus Versehen vollständig ausgehändigt wurde und sich überraschend kritisch gegenüber Google äußerte. In diesem Gutachten wurden vier zentrale Vorwürfe gegen Google untersucht: 1. Google schade Mitbewerbern, in dem es eigene Dienste wie Google Flights oder Google Shopping weit oben im Ranking platziere und die Angebote von Mitbewerbern auf unattraktive Plätze weiter hinten auf der Trefferliste verschiebe oder gar nicht erst anzeige. 2. Google kopiert Inhalte (Verkaufsranglisten, Produktbewertungen, Produktratings) von anderen Internetfirmen wie Amazon, Yelp oder Tripadvisor und gibt sie als seine eigenen aus. Legen die derart „Bestohlenen“ Widerspruch ein, drohe Google damit, sie komplett aus dem Suchindex zu entfernen. 3. Google erschwere Werbetreibenden die Verwendung anderer Onlinewerbevermarkter, indem es unter anderem die Preise erhöhe, wenn Werbekunden auch die Dienste anderer Mitbewerber nutzen. 4. Google sanktioniere Webportale, die mit Suchmaschinenkonkurrenten wie Bing oder Yahoo zusammenarbeiten. Die Suchmaschinenkonkurrenten hätten es somit schwerer, weitere Marktanteile zu erringen. Während die Gutachter in den Punkten zwei bis vier eine milliardenschwere Klage wegen des Verstoßes gegen kartellrechtliche Regelungen befürworteten und nur beim ersten Punkt aufgrund von rechtlichen Hürden keine Erfolgsaussichten einer Wettbewerbsklage sahen, verzichteten die Handelskommissionsmitglieder selbst auf eine Klageerhebung und begnügten sich mit einigen Zugeständnissen des Google-Konzerns an die anderen Marktteilnehmer. So durften

240  3 Wege zum Wissen im Web

Firmen, deren Daten sich Google zu übernehmen angemaßt hatte, dies dem Konzern künftig offiziell untersagen. Ferner gab es bessere Konditionen für Werbetreibende bei der Inanspruchnahme anderer Onlinewerber. So kam Google trotz eines kritischen Gutachtens im US-amerikanischen Kartellverfahren relativ unbeschadet davon. Weniger gut aus Sicht von Google verlief der Ausgang des Kartellrechtsstreits mit der EU-Kommission. Diese verurteilte das Unternehmen 2017 zur Zahlung eines Bußgeldes in Höhe von 2,42 Milliarden Euro „wegen Missbrauchs seiner marktbeherrschenden Stellung als Suchmaschine durch unzulässige Vorzugsbehandlung für eigenen Preisvergleichsdienst“ (Europäische Kommission 2017, S. 1). Ein weiteres EU-Kartellrechtsverfahren wegen des Verdachts auf Missbrauch der marktbeherrschenden Stellung bei der Onlinewerbung ist noch nicht abgeschlossen. Der Google-Konzern verweigert die Herausgabe seines Algorithmus beharrlich und nennt als Gründe dafür nicht nur den Schutz vor Konkurrenten, sondern, wie beschrieben, auch den Schutz des Algorithmus selbst vor Manipulationen durch Dritte, die es bei kompletter Offenlegung des Systems bewerkstelligen könnten, das Ranking in den Ergebnislisten zu verändern. So kommt es zu der asymmetrischen Situation, dass Google zwar die Ergebnisse der eigenen Suchmaschine manipulieren kann und dies auch tut, zumindest um eigene finanzielle Interessen zu wahren, die Suchenden selbst aber sich dieser Manipulation weder bewusst sind noch Auskunft über den Algorithmus erhalten können. Von verschiedenen Seiten wird daher zugunsten einer größeren Transparenz die Offenlegung des Suchalgorithmus und mitunter auch aus Wettbewerbsgründen die Zerschlagung des Internetkonzerns, die die Abtrennung der Suchmaschine von den anderen Geschäftszweigen zur Folge hätte, gefordert. Derzeit haben solche Forderungen aber nur geringe Aussichten darauf, die Dominanz von Google tatsächlich zu beschränken. Darüber hinaus sind es vor allem die Datenschützer, die immer wieder vor der Datenverarbeitung durch den Konzern warnen. Gesammelt werden Suchbegriffe, Webprotokolle und Surfinteressen, auch das Interesse an Werbeanzeigen. Google kann – besonders unaufwändig dann, wenn die Nutzung der Google-Dienste angemeldet erfolgt – alle Daten, die ein Benutzer im Web in den verschiedenen Google-Diensten hinterlässt, im Hintergrund wieder zusammenführen und erhält, wie bereits angedeutet, im Wege des Profilings ein recht umfassendes, gläsernes Benutzerprofil. Um Bedenken dieser Art zu zerstreuen, erlaubt Google seit 2009 seinen Benutzern, mithilfe des Werkzeugs Google Dashboards die Einstellungen in den einzelnen Google-Diensten zu konfigurieren und Protokollierungseinstellungen zu deaktivieren und zu löschen.

Suchmaschinen 

241

Die von Google und anderen IT-Konzernen gepflegte Geschäftspraxis und die Forderungen der Kritiker gehen weit auseinander. Während Google sich darauf beruft, die Daten zur Optimierung der Dienste zu verwenden und letztlich so dem Benutzer zu dienen, werfen Kritiker dem Konzern vor, personenbezogene Daten als Rohstoff zur eigenen Gewinnerzeugung auf völlig intransparente Weise zu nutzen und dabei Aspekte der Privatsphäre und des Datenschutzes im Interesse der Ertragsmaximierung außer Acht zu lassen.

Alternativen zu Google Trotz der monopolartigen Stellung von Google auf dem Suchmaschinenmarkt ist es auch Konkurrenzangeboten gelungen, Marktnischen zu besetzen. Gute Voraussetzungen, sich als allgemeine Suchmaschine gegenüber Google zu behaupten, ergeben sich, wenn mindestens eine der folgenden Bedingungen erfüllt ist: – Das Konkurrenzangebot hat sich auf einen begrenzten geografischen Raum oder einen bestimmten Sprachraum spezialisiert. Beispiele hierfür sind in Südkorea die Internetsuchmaschine Naver mit einem Marktanteil von rund 19 Prozent oder die Internetsuchmaschine Yandex in Russland mit rund 51 Prozent Marktanteil. – Das Konkurrenzangebot greift auf den Index großer Suchmaschinen zu und schaltet eine technische Ebene zur Anonymisierung der Suchenden dazwischen. Dies sind vor allem Alternativen für auf den Datenschutz bedachte Nutzer. Beispiele hierfür sind Startpage oder DuckDuckGo. In den folgenden Abschnitten werden einige Alternativangebote zu Google kurz vorgestellt. Es handelt sich hier um eine exemplarische Darstellung, die in keiner Weise erschöpfend ist. Die Suchmaschine Bing des Microsoft-Konzerns ging 2009 als Nachfolgerin der Suchmaschine Live Search online. Angetreten als Google-Konkurrent, konnte Bing weltweit bislang lediglich einen geringen Marktanteil erreichen. Im Mai 2018 belief sich dieser im Segment der Desktopsuchen auf 6,53 Prozent. In Deutschland zum Vergleich betrug der Marktanteil von Bing im Mai 2018 8,85 Prozent. Aufgrund einer Kooperation stellt Bing seinen Index auch Yahoo zur Verfügung. In der Funktionalität ist der Bing-Service mit den meisten GoogleDiensten nahezu identisch, konnte aber bisher noch nicht durch besondere Innovationen auf sich aufmerksam machen. Die französische Suchmaschine Qwant, die von Eric Léandri und Jean-Manuel Rozan gegründet wurde, ist als europäischer Anbieter seit 2013 online ver-

242  3 Wege zum Wissen im Web

fügbar. Dem vorangegangenen, deutsch-französischen Suchmaschinenprojekt Quaero war einige Jahre zuvor kein Erfolg beschieden. Es ist mittlerweile eingestellt worden. 2014 wurde die deutsche Version von Qwant vorgestellt; mittlerweile gibt es von Qwant 14 Sprachversionen. Der Name Qwant ist abgeleitet von „Quality wanted“. Qwant wirbt damit, dass der Datenschutz bei der Suchmaschine eine große Rolle spielt: Anders als bei Google werden kein Profiling und kein Tracking vorgenommen. Es werden auch keine IP-Adressen gespeichert. Deshalb stellt die für Google kommerziell so interessante personalisierte Werbung bei Qwant kein ertragreiches Geschäftsmodell dar. Einnahmen will Qwant aus den Vermittlungsprovisionen durch Einkäufe von Qwant-Benutzern bei Unternehmen, die in den Ergebnislisten angezeigt wurden, ebenso wie durch die Vermarktung der eigenen Suchmaschinentechnologie an andere Firmen erzielen. Grundsätzlich hat sich Qwant dazu entschlossen, sich von Google in einigen Aspekten abzuheben. So begrüßt die Startseite die Benutzer nicht nur mit einem einfachen Suchschlitz, sondern auch mit bunten Kacheln, in denen aktuelle Webtrends aus den Bereichen Nachrichten und den sozialen Netzwerken angezeigt werden. Bei den Suchergebnissen wird die Rankingliste aus der allgemeinen Websuche durch eine Leiste ergänzt, in der die Reiter Bilder, Videos, Social Web, News und Shopping angezeigt werden. Die Anzeige von Treffern aus den sozialen Netzwerken bieten derzeit weder Google noch Bing. Auch die integrierte Musiksuchmaschine Qwant Music, die neben Audio- und Videodateien auch Texte über Musiker und deren Diskografien anzeigt, ist eine Innovation. Qwant hat angekündigt, selbst einen eigenen Webindex mit Hilfe des Webcrawlers Qwantify erstellen zu wollen. Das Ranking soll dann der eigens entwickelte Algorithmus „YouRank“ übernehmen. Derzeit wird Qwant aber noch vom Bing-Index unterstützt. Qwant enthält auch eine Social-Web-Komponente: Angemeldete Qwant-Benutzer können selbst sogenannte Notizbücher (Qwant Boards) erstellen, in denen sie thematisch zusammengehörende Webquellen oder eigene Posts veröffentlichen und kommentieren. Eine grobe Systematik wird dabei von Qwant vorgegeben. Für Kinder im Alter von 6 bis 13 Jahren wurde Qwant Junior entwickelt, eine Spezialsuchmaschine mit bildungsrelevanten Inhalten für Kinder und Jugendliche. Angekündigt wurde Anfang 2018 auch die wissenschaftliche Suchmaschine Qwant Science. Der Axel-Springer-Verlag war von der Geschäftsidee der Franzosen so überzeugt, dass er sich zu einer 20-prozentigen Beteiligung an Qwantify entschließen konnte. Sollte Qwant tatsächlich bald über einen eigenen Index verfügen,

Suchmaschinen



243

könnte die Suchmaschine aus zwei Gründen eine ernsthafte Konkurrenz zu Google in Europa werden: Erstens werden persönliche Daten nicht zu kommerziellen Zwecken benutzt, was vor allem kritischere bzw. datenschutzsensible Webnutzer ansprechen dürfte. Zweitens werden auch Inhalte aus dem Social Web in die Suche miteinbezogen. Dass es sich bei Qwant um eine europäische Eigenmarke handelt, dürfte darüber hinaus hohe Sympathiewerte bei europäischen Netzteilnehmern versprechen. Die Suchmaschinen Startpage und DuckDuckGo erhielten nach den Enthüllungen durch Edward Snowden erheblichen Auftrieb, da sie nach eigenen Angaben keine anwenderbezogenen, persönlichen Daten speichern. Startpage wird von der niederländischen Surfboard Holding betrieben und greift auf den Google-Index anonymisiert zu. 2008 wurde Startpage für den diskreten Umgang mit Benutzerdaten mit dem Europäischen Datenschutz-Gütesiegel EuroPriSe (European Privacy Seal) ausgezeichnet. Durch das Wegfallen von personalisierten Daten muss allerdings auch mit einer Einbuße bei der Trefferqualität gerechnet werden. Der eigentümliche Name der vom Physiker Gabriel Weinberg im Jahr 2008 gegründeten Suchmaschine DuckDuckGo leitet sich von dem Kinderspiel „Duck Duck Goose“ (Ente, Ente, Gans) ab. DuckDuckGo betreibt einen eigenen kleinen Index und vermischt die Ergebnisse aus diesem mit Resultaten aus anderen Quellen wie Yahoo oder der Wikipedia. Aufgrund dieses Mixes der Ergebnisliste aus eigenen und fremden Quellen bezeichnet sich DuckDuckGo selbst als hybride Suchmaschine. Bemerkenswert bei den Suchfunktionen sind die sogenannten „!bangs“. Das sind Deskriptoren, die die zu durchsuchende Quelle angeben. So bedeutet die Sucheingabe „!w Franz Schubert“, das in der Wikipedia der Artikel über Franz Schubert angezeigt werden soll, während „!sz Manuel Neuer“ die Suche auf die Einträge zum Torwart Manuel Neuer in der Süddeutschen Zeitung lenkt. Mit „!m“ und einem Ortsnamen wird der entsprechende Ort sofort in Google Maps angezeigt. DuckDuckGo hat über hundert dieser Bang-Kommandos in die Suchmaske implementiert (siehe die Auflistung unter https://duckduckgo.com/ bang.html). Eine weitere Besonderheit bietet die regionale Anpassung der Suche nach einzelnen Ländern. Die Suchergebnisse können so unter Berücksichtigung einzelner Regionen verändert werden. Die Suche mit der Eingabe „Bundesregierung“ liefert bei der Regioneneinstellung Deutschland die Website der deutschen Regierung. Beim Umschalten auf Österreich als dem regionalen Fokus wird die Website der österreichischen Regierung als erster Treffer in der Ergebnisliste gezeigt. Bei Suchbegriffen mit mehrfachen Bedeutungen (Homonymen) blendet die Suchmaschine über der Trefferliste eine Leiste ein, die die einzelnen Bedeutungen des Suchbegriffs unterscheidbar machen.

244  3 Wege zum Wissen im Web

Die Suchmaschine Ecosia, die in Berlin beheimatet ist, bedient sich des Index von Bing. Außergewöhnlich ist die Verwendung der durch die Onlinewerbung erzielten Erlöse, denn davon werden 80 Prozent in Baumpflanzprojekte gemeinnütziger Naturschutzorganisationen investiert. 2014 gab Ecosia an, seit der Gründung 2009 eine Million Bäume im Regenwald gepflanzt zu haben.

Spezialsuchmaschinen für den wissenschaftlichen Bereich Neben den allgemeinen Suchmaschinen, die versuchen, das ganze Web abzubilden, existieren auch viele Spezialsuchmaschinen, die nur ganz bestimmte Bereiche des Webs – dafür umso intensiver – durchforsten. Man spricht auch von vertikalen Suchmaschinen, während allgemeine Suchmaschinen auch als horizontale Suchmaschinen bezeichnet werden. Damit kommt zum Ausdruck, dass allgemeine Suchmaschinen einen breiten, „horizontalen“ Suchraum haben, während Spezialsuchmaschinen einen engen Suchraum aufweisen, aber dafür eher „vertikal“ in die Tiefe gehen und auch Quellen auswerten, die allgemeine Suchmaschinen nicht erreichen können. Eine besondere Rolle für die Wissenschaft spielen dabei die wissenschaftlichen Suchmaschinen (engl. academic search engines), die sich auf die Auswertung wissenschaftlich relevanter Quellen spezialisiert haben. Beispiele für wissenschaftliche Suchmaschinen, die auch als akademische Suchmaschinen bezeichnet werden, sind BASE, OAISTER, Microsoft Academic Search oder Google Scholar. Ungewöhnlich an BASE, der Bielefeld Academic Search Engine ist, dass sie von einer wissenschaftlichen Bibliothek, nämlich der Universitätsbibliothek Bielefeld, betrieben wird. Im April 2004 ging BASE, die als „Universelle Wissenschaftssuchmaschine“ (Wolf 2014) konzipiert wurde, online. BASE wertet über 6.300 intellektuell ausgewählte, wissenschaftliche Quellen aus. Von den 128 Millionen Dokumenten im Index sind rund 60 Prozent im Volltext frei zugänglich. Zu den Quellen zählen vorwiegend Dokumentenserver (Repositorien) von wissenschaftlichen Institutionen. Allerdings sind dabei nicht die Volltexte, sondern nur die bibliographischen Metadaten durchsuchbar. Die Metadaten der Repositorien werden von BASE durch die sogenannte OAI-PMH-Schnittstelle (Open Archives Initiative Protocol for Metadata Harvesting) eingesammelt und in den Index integriert. Neben den Repositorien durchsucht die BASE zusätzlich ausgewählte, wissenschaftliche Quellen. Im Unterschied zu den meisten Suchmaschinen können alle indexierten Quellen aufgelistet werden; weitere, geeignet erscheinende Datenlieferanten können der BASE-Redaktion von den Suchmaschinenbenutzern vorgeschlagen werden.

Suchmaschinen 

245

Die Trefferliste kann bei BASE ähnlich wie bei einem Bibliothekskatalog nachträglich mit Filtern eingeschränkt („facettiert“) werden, zum Beispiel auf Autoren, Schlagworte, Quellen oder die Systemstellen der Dewey-DezimalKlassifikation (DDC). Durch die Einbeziehung des Eurovoc-Thesaurus werden optional die Suchbegriffe in 24 Sprachen übersetzt und die Treffer in diesen Sprachen auch angezeigt. Man bezeichnet diese Möglichkeit der multilingualen Suche als Cross-Language Information Retrieval. An der BASE lassen sich exemplarisch die Vor- und Nachteile von Spezialsuchmaschinen gegenüber allgemeinen Suchmaschinen wie Google oder Bing aufzeigen (eigene Darstellung): Vorteile gegenüber allgemeinen Suchmaschinen Alle Treffer sind wissenschaftlich relevant. Die Suchmöglichkeiten sind dezidiert auf spezielle wissenschaftliche Belange ausgerichtet. Alle Quellen sind qualitätsgeprüft, bekannt und für die Benutzer identifizierbar. Spezialsuchmaschinen (am Beispiel der BASE)

Die Dokumente werden zuvor von den Datenlieferanten auf ihre Qualität geprüft. Es können Inhalte von Datenbanken und damit Teile des Deep Webs durchsucht werden.

Nachteile gegenüber allgemeinen Suchmaschinen Nur ein geringer Teil des Internets wird tatsächlich ausgewertet. Die effektive Bedienung verlangt eine relativ höhere Expertise. Was innerhalb der Quellen nicht bereits indexiert wurde, findet keinen Eingang in den Index der Spezialsuchmaschine. Es werden keine Treffer aus sozialen Netzwerken oder von aktuellen Nachrichtenseiten angezeigt. Zufallstreffer sind nicht vorgesehen. Der Serendipitätseffekt, d.h. die zufällige Entdeckung valider Ergebnisse, entfällt. Oft können nur die Metadaten und nicht die kompletten Volltexte durchsucht werden.

Die Projektierung der Suchmaschine OAIster wurde 2002 von der Andrew W. Mellon Foundation finanziert. Ziel von OAIster war die Schaffung eines einheitlichen Zugangs zu frei verfügbaren, wissenschaftlich relevanten Ressourcen, die von wissenschaftlichen Bibliotheken im Netz zur Verfügung gestellt worden sind. Bei ihrem Namen OAIster handelt es sich um ein Wortspiel: „Oaister“ ist das englische Wort für Auster.

246  3 Wege zum Wissen im Web

Von 2002 bis 2009 wurde OAIster an der Bibliothek der University of Michigan gehostet und schließlich 2009 von OCLC Online Computer Library Center, einer weltweit agierenden Non-Profit-Organisation für Bibliotheksdienstleistungen mit Sitz in Dublin, Ohio übernommen. OAIster arbeitet wie BASE mit der OAI-PMH-Schnittstelle und hat mittlerweile über 30 Millionen Metadaten von über 1.500 Datenzulieferern gesammelt. Die Daten von OAIster wurden von OCLC in den weltweiten Verbundkatalog WorldCat integriert. Bei den verzeichneten digitalen Quellen handelt es sich neben Textdokumenten unter anderem auch um Video- und Audiodateien sowie Fotografien.

Von Repositorien und dem Zweitveröffentlichungsrecht Lassen Sie uns an dieser Stelle noch kurz beim Thema Repositorien verweilen: Viele Hochschulen in Deutschland betreiben mittlerweile entweder eigene Repositorien oder beteiligen sich an einem Publikationsverbund. Institutionelle Repositorien (engl. institutional repositories) beinhalten die Publikationen von Angehörigen der eigenen wissenschaftlichen Institution, wie zum Beispiel Dissertationen, Schriften der Hochschulverwaltung oder Fachartikel von zur Hochschule gehörenden Wissenschaftlern. Seltenere fachliche Repositorien (engl. disciplinary repositories) veröffentlichen Publikationen eines bestimmten wissenschaftlichen Fachgebiets. Beispiele für fachliche Repositorien in Deutschland stellen die Publikationsplattform für Kunstgeschichte Art-DOK der Universitätsbibliothek Heidelberg und peDOCS, ein erziehungswissenschaftliches Angebot des Deutschen Instituts für Internationale Pädagogische Forschung DIPF in Frankfurt am Main, dar. Mit der Einführung eines Zweitveröffentlichungsrechts in § 38 Absatz 4 Urheberrechtsgesetz hat sich der Gesetzgeber des Anliegens eines erleichterten Zugangs zu wissenschaftlichen Veröffentlichungen angenommen. So steht seit dem 01. Januar 2014 dem Urheber eines wissenschaftlichen Beitrags das Recht zu, den Beitrag öffentlich zugänglich zu machen, das heißt im Internet zum Beispiel über institutionelle oder disziplinäre Repositorien bereitzustellen, sobald seit der Erstveröffentlichung mindestens zwölf Monate vergangen sind und die Zweitveröffentlichung keinem gewerblichen Zweck dient. Zur Bestimmung, wann ein Beitrag als wissenschaftlich zu qualifizieren ist, darf ein weites Begriffsverständnis zugrunde gelegt werden. Allerdings sieht die Bestimmung andere, einschränkende Tatbestände vor: Der Beitrag muss im Rahmen einer mindestens zur Hälfte mit öffentlichen Mitteln geförderten Forschungstätigkeit entstanden sein. Aus dieser Formulierung wird verschiedentlich eine Privilegierung von staatlich geförderten Drittmittelprojekten und außeruniversitären For-

Suchmaschinen 

247

schungsprojekten zuungunsten der an den Hochschulen ausschließlich bzw. überwiegend grundfinanzierten Forschung abgeleitet. Darüber hinaus muss der Beitrag in einer periodisch mindestens zweimal jährlich erscheinenden Sammlung erschienen sein. Damit grenzt der Gesetzgeber den sachlichen Anwendungsbereich vornehmlich auf Zeitschriftenbeiträge ein. Schließlich beschränkt sich das Recht zur öffentlichen Zugänglichmachung auf die akzeptierte Manuskriptversion des Beitrags. Dabei kann es sich bereits um die überarbeitete Fassung des vom Autor eingereichten Rohmanuskripts handeln. Sie unterscheidet sich allerdings von der im Periodikum veröffentlichten Fassung, die noch redaktionelle Bearbeitungen erfahren und mit dem Layout des Periodikums versehen worden ist. Immerhin ist das in § 38 Absatz 4 Urheberrechtsgesetz normierte Recht unabdingbar: Eine zum Nachteil des Urhebers abweichende Vereinbarung ist deshalb unwirksam. Für den baden-württembergischen Landesgesetzgeber war § 38 Absatz 4 Urheberrechtsgesetz Anknüpfungspunkt für die Einführung einer Zweitveröffentlichungspflicht im Landeshochschulgesetz. Die Regelung in § 44 Absatz 6 Landeshochschulgesetz lautet: Die Hochschulen sollen die Angehörigen ihres wissenschaftlichen Personals durch Satzung verpflichten, das Recht auf nichtkommerzielle Zweitveröffentlichung nach einer Frist von einem Jahr nach Erstveröffentlichung für wissenschaftliche Beiträge wahrzunehmen, die im Rahmen der Dienstaufgaben entstanden und in einer periodisch mindestens zweimal jährlich erscheinenden Sammlung erschienen sind. Die Satzung regelt die Fälle, in denen von der Erfüllung der Pflicht nach Satz 1 ausnahmsweise abgesehen werden kann. Sie kann regeln, dass die Zweitveröffentlichung auf einem Repositorium nach § 28 Absatz 3 zu erfolgen hat.

Der Senat der Universität Konstanz beschloss daraufhin auf der Grundlage des Landeshochschulgesetzes die Satzung zur Ausübung des wissenschaftlichen Zweitveröffentlichungsrechts gemäß § 38 Absatz 4 UrhG, gegen die hauptamtliche Professoren aus den Fachbereichen Rechts- und Literaturwissenschaften Normenkontrollanträge gestellt haben. Darin machten sie eine Verletzung ihres Grundrechts auf Forschungsfreiheit durch die Satzung geltend und meldeten Zweifel an deren verfassungskonformer Ermächtigungsgrundlage an. Der Verwaltungsgerichtshof Baden-Württemberg hielt die in Frage stehende Regelung des Landeshochschulgesetzes in seinem Beschluss vom 26. September 2017, Aktenzeichen 9 S 2056/16 für mit dem Grundgesetz nicht vereinbar, da die im Schwerpunkt das Urheberrecht betreffende Regelungsmaterie in den Bereich der ausschließlichen Gesetzgebungskompetenz des Bundes fiele (Rn. 77 ff.). Der Verwaltungsgerichtshof hat das Verfahren deshalb ausgesetzt und dem Bundesverfassungsgericht zur Entscheidung vorgelegt.

248  3 Wege zum Wissen im Web

Forschungsdaten in Repositorien Eine relativ neue Entwicklung ist die Veröffentlichung von Forschungsdaten in Repositorien. Als Forschungsdaten werden die oft sehr heterogenen Datenmengen bezeichnet, die im Laufe des wissenschaftlichen Forschungsprozesses erzeugt, gesammelt oder zusammengestellt werden, zum Beispiel im Rahmen von empirischen Studien. Beispiele für Arten von Forschungsdaten sind Messergebnisse, Studienerhebungen, Digitalisate historischer Quellen oder Fragebögen. Das von der Deutschen Forschungsgemeinschaft (DFG) geförderte Projekt Registry of Research Data Repositories, R3data.org, verzeichnet Forschungsdatenrepositorien weltweit. Als Argumente für eine Offenlegung von Forschungsdaten werden unter anderem genannt: – Die Nachvollziehbarkeit von Forschungsergebnissen wird erleichtert. – Die mögliche Überprüfung durch die Fachwelt stellt einen Anreiz dar, Datenfehler zu vermeiden. – Betrugsmöglichkeiten in der empirischen Forschung werden reduziert. – Forscher können bestehende Datensätze nachnutzen, um neue Fragestellungen mit den bereits vorliegenden Daten zu untersuchen.

News-Aggregatoren: die digitale Presseschau News Aggregatoren wie Newstral, World News Network, Paperball oder Google News zählen auch zu den Spezialsuchmaschinen. Sie sammeln, aktualisieren und gruppieren Pressemeldungen an einer einzigen Stelle und liefern so eine digitale Presseschau, die einen schnellen Überblick über aktuelle Nachrichten erlaubt. Diese Zusammenstellung wird in der Regel durch Algorithmen gesteuert. Aus der Masse der vielen automatisch generierten Angebote hebt sich der Dienst piqd hervor, bei dem Artikel zu bestimmten Themen von bezahlten Kuratoren intellektuell ausgewählt und rezensiert werden. Rund 130 Kuratoren empfehlen täglich ausgewählte Beiträge. News Aggregatoren erlauben den Nutzern in der Regel auf ihren Websites eine Personalisierung in der Form, dass bestimmte Themenkreise („Kanäle“) zur Anzeige ausgewählt und abonniert werden können, zum Beispiel als Newsletter-E-Mails oder RSS-Feed. So bietet piqd, das 2017 für den Grimme Online Award nominiert wurde, einen Kanal für Wissenschaft und Forschung an, der als RSS-Feed abonniert werden kann.

Suchmaschinen 

249

Das Leistungsschutzrecht für Presseverleger An dieser Stelle kommen wir auf den Fall zu sprechen, den wir bereits im Abschnitt „Snippets und Thumbnails vor Gericht“ angekündigt haben: Die Betreiberin der Suchmaschine Google und einige Presseunternehmen trafen sich im Jahr 2015 vor dem Landgericht Berlin. Gegenstand ihres Rechtsstreits war die Ankündigung der Suchmaschinenbetreiberin aus dem September 2014, auf die Wiedergabe von Snippets und Vorschaubilder aus Presseerzeugnissen der Klägerinnen für die Ergebnisanzeige in ihrer Suchmaschine zu verzichten. Hintergrund der Ankündigung war die Einführung des gesetzlichen Leistungsschutzrechts für Presseverleger im August 2013. Dieser im Urheberrechtsgesetz neu geregelte Schutz gewährt den Presseverlegern das ausschließliche Recht, Presseerzeugnisse oder Teile davon zu gewerblichen Zwecken öffentlich zugänglich zu machen. Das Leistungsschutzrecht umfasst sowohl Beiträge aus Print- als auch aus Onlinemedien. Von seinem Schutz ausdrücklich ausgenommen sind einzelne Wörter und kleinste Textausschnitte. Die Beklagte legte in ihrem Schreiben dar, dass ihrer Auffassung nach zwar weder Snippets noch Vorschaubilder dem Leistungsschutzrecht für Presseverleger unterfielen und ihre Nutzung deshalb nicht lizenzpflichtig sein könne. Dennoch würde eine Kurzanzeige der Ergebnistreffer aus den Presseerzeugnissen der Klägerinnen nur dann erfolgen, wenn die Klägerinnen ausdrücklich ihre Einwilligung in die kostenlose Nutzung erklärten. Dem Landgericht Berlin oblag es, in diesem kartellrechtlichen Streit darüber zu richten, ob die Suchmaschinenbetreiberin bei Ankündigung ihres Vorgehens, das den Interessen der Presseunternehmen zuwiderlief, ihre Marktmacht missbraucht hat. In seinem Urteil vom 19. Februar 2016, Aktenzeichen 92 O 5/14 traf es folgende Einschätzungen: Die Vorgehensweise der Beklagten entspricht ihrem Geschäftsmodell, generell für die Darstellung von Webseiten in den Suchergebnissen kein Entgelt an die Webseitenbetreiber zu bezahlen. Die Suchmaschine ist ein ausgeglichenes System, aus dem alle Beteiligten ihre Vorteile ziehen. Der Suchnutzer kann sich unentgeltlich im Internet orientieren und erlangt nach der Eingabe von Suchwörtern mit der Darstellung des Suchergebnisses eine bessere Nutzung des Internets. Viele Internetseiten wird er nur mit Hilfe der Suchmaschine auffinden. Der Suchmaschine kommt hier die Funktion eines Inhaltsverzeichnisses zu. Die Eingabe von Suchworten lässt aber auch bestimmte Interessen des Suchnutzers erkennen. Diese Information nutzen die Werbekunden der Beklagten, die ihre Werbung an Suchworte koppeln, dadurch zielgenauer werben und auf diesem Wege Streuverluste für die Werbung reduzieren können. Der Webseitenbetreiber kann mit der Darstellung in den Suchergebnissen Traffic auf seine Internetseite leiten und dadurch entweder Umsätze generieren oder zumindest Werbeeinnahmen über seine Internetseite erzielen. Dieser offensichtliche wirtschaftliche Vorteil zeigt sich auch darin, dass viele Webseitenbetreiber eine Suchmaschinenoptimierung betreiben, um in den Suchergebnissen weiter vorne darge-

250  3 Wege zum Wissen im Web

stellt und dadurch leichter aufgefunden zu werden, oder zumindest auf eine Sperrung ihrer Webseite durch eine robots.txt-Datei verzichten. Die Suchmaschine erweist sich insgesamt als Kombination von Leistungs- und Geldströmen sowie der Erbringung geldwerter Leistungen für alle Beteiligten und entspricht damit für diese einer Win-Win-Situation. Dieses ausbalancierte System wird durch das Leistungsschutzrecht aus dem Gleichgewicht gebracht, in dem die Presseverleger nunmehr verlangen, dass die Beklagte als Betreiberin der Suchmaschine etwas vergütet, was diese im wirtschaftlichen Interesse auch der Webseitenbetreiber erbringt. Es begegnet deshalb keinen Bedenken, wenn die Beklagte bemüht ist, an ihrem ursprünglichen Geschäftsmodell, das auf einer Unentgeltlichkeit für die Darstellung der Suchergebnisse beruht, festzuhalten und erforderlichenfalls bei denjenigen, die Rechte geltend machen, anfragt, ob sie mit einer Nutzung einverstanden sind oder verneinendenfalls die entsprechende Nutzung einstellt. (Rn. 75)

Das Landgericht bestätigte die von den Klägerinnen geltend gemachten Ansprüche nicht und erklärte die Klage für unbegründet. Über den Sinn und die Wirksamkeit des Leistungsschutzrechts für Presseverleger wird auch fünf Jahre nach seiner Einführung leidenschaftlich gestritten. Die juristischen Bemühungen um seine Durchsetzung haben die Verleger ein Vielfaches dessen gekostet, was bisher an Vergütungen erzielt worden ist. Google verwehrt den Presseverlegern nach wie vor eine Vergütung, doch diese können und wollen auf ihre Sichtbarkeit in Google News nicht verzichten. Beschert sie ihnen doch eine anderweitig kaum herbeizuführende Reichweite und folglich verlässliche Werbeeinnahmen. Einige Konkurrenten von Google haben hingegen mit Rücksicht auf das Leistungsschutzrecht ihr inhaltliches Angebot reduziert. Kurz resümiert: Die Regelung verfehlt ihre Zielsetzung und ist darüber hinaus der Vielfalt von Diensteanbietern im Internet sogar abträglich. Eine Gesetzesevaluation zum Leistungsschutzrecht für Presseverleger hat die Bundesregierung bislang nicht vorgelegt. Eine von der Europäischen Kommission in Auftrag gegebene Studie, die bislang nicht offiziell veröffentlicht ist, spricht der Regelung, wie sie in Deutschland und auch Spanien existiert, ihre Wirksamkeit ab und weist ihr nach, kontraproduktiv für die Durchsetzung der presseverlegerischen Interessen zu sein (siehe Joint Research Centre of the European Commission 2017). Dennoch sehen die Pläne zur europäischen Urheberrechtsreform die unionsweite Einführung eines Leistungsschutzrechts für Presseverleger vor. Sogar der Europäische Gerichtshof ist mit dem deutschen Leistungsschutzrecht für Presseverleger befasst: Das Landgericht Berlin hat am 08. Mai 2017, Aktenzeichen 16 O 546/15 eine Vorlage an den Europäischen Gerichtshof gerichtet. Im Kern geht es um die Frage, ob der deutsche Gesetzgeber bei Erlass der Neuregelung die unionsrechtlichen Anforderungen an das Gesetzgebungsverfahren hinreichend berücksichtigt oder vielmehr seine Notifizierungspflicht

Suchmaschinen 

251

gegenüber der Europäischen Kommission verletzt hat. Von der Entscheidung des Europäischen Gerichtshofs hängt ab, ob der nationalen Regelung das Schicksal der Unanwendbarkeit droht.

Literatur Allianz der deutschen Wissenschaftsorganisationen (Hrsg.): Grundsätze zum Umgang mit Forschungsdaten. 2010, https://www.allianzinitiative.de/de/archiv/forschungsdaten/ grundsaetze/ (05.06.2018). Bager, Jo: DARPA entwickelt Suchmaschine für die Verbrechensbekämpfung. 2015, http:// heise.de/-2549607 (05.06.2018). Bahners, Patrick: Jetzt geht's erst richtig los. 2013, http://www.faz.net/aktuell/feuilleton/ debatten/urheberrecht/google-books-urteil-digitalisierung-von-buechern-erlaubt14187867.html (04.06.2018). Bakshy, Eytan, Solomon Messing und Lada A. Adamic: Exposure to ideologically diverse news and opinion on Facebook, in: Science Volume 348 (2015), Issue 6239, S. 1130–1132, DOI: 10.1126/science.aaa1160. Becker, Konrad und Felix Stalder (Hrsg.): Deep Search. Politik des Suchens jenseits von Google. Bonn, 2010. Beller, Kai: Aufschwung der Zwerge. 2013, http://www.capital.de/themen/aufschwung-derzwerge.html (05.06.2018). Bradley, Phil: Expert Internet Searching. 5. Auflage. London, 2017. Bush, Vannevar: As We May Think, in: Nyce, James M. und Paul Kahn (Hrsg.): From Memex to Hypertext. Vannevar Bush and the Mind's Machine. San Diego, 1991, S. 85–110. Deutscher Bundestag (Hrsg.): Verfahrensrechtliche Anforderungen des Unionsrechts bei der Einführung eines Leistungsschutzrechts für Presseverleger. Ausarbeitung PE 6 – 3000 – 45/15 der Unterabteilung Europa, Fachbereich Europa. 2015, https://www.bundestag.de/ blob/405268/83ff070d4f354e9e1c2a789b8dbe0951/pe-6-045-15-pdf-data.pdf (22.06.2018). Diesterhöft, Martin: Das Recht auf medialen Neubeginn. Die „Unfähigkeit des Internets zu vergessen“ als Herausforderung für das allgemeine Persönlichkeitsrecht. Berlin, 2014. Dodd, Annabel Z.: The Essential Guide to Telecommunications. 5. Auflage. Upper Saddle River, 2012. Dominikowski, Thomas: Zur Geschichte der Websuchmaschinen in Deutschland. In: Lewandowski, Dirk (Hrsg.): Handbuch Internet-Suchmaschinen. Teil 3. Suchmaschinen zwischen Technik und Gesellschaft. Heidelberg, 2013, S. 3–34. Döpfner, Matthias: Warum wir Google fürchten. 2014, http://www.faz.net/aktuell/feuilleton/ medien/mathias-doepfner-warum-wir-google-fuerchten-12897463.html (05.06.2018). DoubleClick: 2009 Year-in-Review Benchmarks. A DoubleClick Report. 2010, http://static. googleusercontent.com/media/www.google.co.tz/sw/tz/doubleclick/pdfs/DoubleClick07-2010-DoubleClick-Benchmarks-Report-2009-Year-in-Review-US.pdf (05.06.2018). Eggers, Dave: Der Circle. Köln, 2014. Ess, Henk van: Der Google-Code. Das Geheimnis der besten Suchmaschine. München, 2011.

252  3 Wege zum Wissen im Web

Europäische Kommission (Hrsg.): Factsheet Kartellrecht: Kommission verhängt Geldbuße in Höhe von 2,42 Milliarden EUR gegen Google wegen Missbrauchs seiner marktbeherrschenden Stellung als Suchmaschine durch unzulässige Vorzugsbehandlung für eigenen Preisvergleichsdienst. Memo 17/1785. 2017, http://europa.eu/rapid/pressrelease_MEMO-17-1785_de.pdf (04.06.2018). Gabler, Tanja: Rückgang gestoppt. Studie zu Klickraten für Displaywerbung. 2010, https:// www.internetworld.de/onlinemarketing/marketing/rueckgang-gestoppt-272914.html (23.06.2018). Gehlen, Dirk von: Du willst es doch auch. 2014, http://sz.de/1.2105665 (05.06.2018). Gesellschaft für Datenschutz und Datensicherheit e.V. (GDD): TMG, Tracking und DS-GVO, in: ZD-Aktuell 2018, 06114. Gierow, Hauke: Fingerprinting. Nutzer lassen sich über Browser hinweg tracken. 2017, https:// www.golem.de/news/fingerprinting-nutzer-lassen-sich-ueber-browser-hinweg-tracken1701-125627.html (04.06.2018). Härting, Niko: Internetrecht. 6. Auflage. Köln, 2017. Heßeling, Pascal: Internetsuchmaschinen im Konflikt mit dem Urheberrecht. Weil im Schönbuch, 2014. Hofstetter, Yvonne: Sie wissen alles. Wie intelligente Maschinen in unser Leben eindringen und warum wir für unsere Freiheit kämpfen müssen. München, 2014. Joint Research Centre of the European Commission (JRC): Online News Aggregation and Neighbouring Rights for News Publishers. Draft Paper. (2016), https://www.asktheeu.org/en/ request/4776/response/15356/attach/6/Doc1.pdf (28.06.2018). Justus, Philipp: Such, Maschine, such! Wettbewerb ist der beste Schutz der Meinungsvielfalt. 2015, http://www.zeit.de/2015/12/suchmaschine-monopol-google (05.06.2018). Kaiser, Leon: YouTube-Algorithmen halfen Verschwörungsvideo zu Florida-Amoklauf bei der Verbreitung. 2018, https://netzpolitik.org/2018/youtube-algorithmen-halfen-verschwoerungsvideo-zu-florida-amoklauf-bei-der-verbreitung/ (07.06.2018). Klett, Alexander und Kathrin Schlüter: Der Kommissionsentwurf für eine Richtlinie über das Urheberrecht im digitalen Binnenmarkt, in: WRP 2017, S. 15–20. Kreutzer, Till: Das Leistungsschutzrecht für Presseverleger – Ein gescheiterter Ansatz!, in: ZUM 2017, S. 127–132. Lewandowski, Dirk: Suchmaschinen verstehen. 2. Auflage. Berlin/Heidelberg, 2018. Lewandowski, Dirk (Hrsg.): Handbuch Internet-Suchmaschinen. Teil 3. Suchmaschinen zwischen Technik und Gesellschaft. Heidelberg, 2013. Lindner, Roland: Google entkam knapp härterer Strafe. 2015, http://www.faz.net/-gqn-819ro (05.06.2018). Mayer-Schönberger, Viktor: Useful Void. The Art of Forgetting in the Age of Ubiquitous Computing. Faculty Research Working Papers Series. 2007, https://research.hks.harvard. edu/publications/getFile.aspx?Id=255 (05.04.2018). Metzger, Axel: Urheberrechtsschranken in der Wissensgesellschaft: „Fair use“ oder enge Einzeltatbestände?, in: Leistner, Matthias (Hrsg.): Europäische Perspektiven des geistigen Eigentums. Tübingen, 2010, S. 101–122. Mey, Stefan: Qwant zeigt Google die Zähne. 2014, http://www.dw.de/qwant-zeigt-google-diez ProzentC3 ProzentA4hne/a-17560058 (05.06.2018). Mullins, Brody, Rolfe Winkler und Brent Kendall: Inside the U.S. Antitrust Probe of Google. 2015, http://www.wsj.com/articles/inside-the-u-s-antitrust-probe-of-google-1426793274 (05.06.2018).

Suchmaschinen 

253

Neumann, Linus: Zusammengefasst: Datenschutz-Kritik an Google Analytics. 2011, https:// netzpolitik.org/2011/zusammengefasst-datenschutz-kritik-an-google-analytics (05.06.2018). Nordemann, Jan Bernd und Olaf Wolters: Google, das Leistungsschutzrecht für Presseverleger und das Kartellrecht. Zugleich eine Anmerkung zu LG Berlin, Urteil vom 19. Februar 2016. LG Berlin, Aktenzeichen 92 O 5/14 Kart, in: ZUM 2016, S. 846–853. Pariser, Eli: Filter Bubble. Wie wir im Internet entmündigt werden. München, 2012. Peifer, Karl-Nikolaus: Buchausschnitte als Thumbnails: Google Books und Fair Use, in: GRURPrax 2013, S. 529–531. Plieninger, Jürgen: Änderungen bei der Internetrecherche, in: BuB (66) 2014, Heft 11–12 S. 798, http://www.b-u-b.de/pdfarchiv/Heft-BuB_11_2014.pdf (05.06.2018). Pörksen, Til: Anmerkung zu OLG Köln 15. Zivilsenat, Urteil vom 08.04.2014 – 15 U 199/11, in: jurisPR-ITR 10/2014, Anm. 4. Pressestelle der Technischen Universität Berlin: Fireball. Licht im Dunkel des Internet. 1997, http://archiv.pressestelle.tu-berlin.de/pi/1997/pi143.htm (16.06.2018). Röhle, Theo: Der Google-Komplex. Über Macht im Zeitalter des Internets. Bielefeld, 2010. Rolf, Arno und Arno Sagawe: Des Googles Kern und andere Spinnennetze. Die Architektur der digitalen Gesellschaft. Konstanz, 2015. Rosenbach, Marcel: Der Suchmotor. 2014, http://www.spiegel.de/spiegel/print/d-130458643. html (05.06.2018). Schack, Haimo: Urheber- und Urhebervertragsrecht. 8. Auflage. Tübingen, 2017. Schleipfer, Stefan: Datenschutzkonformes Webtracking nach Wegfall des TMG. Was bringen die DS-GVO und die ePrivacy-Verordnung?, in: ZD 2017, S. 460–466. Schultz, Stefan: Sorge vor Kartell. Maas hätte gerne, dass Google geheime Suchformel offenlegt. 2015, http://www.spiegel.de/wirtschaft/unternehmen/google-heiko-maasfordert-offenlegung-von-algorithmus-a-991799.html (05.06.2018). Stark, Birgit, Dieter Dörr und Stefan Aufenanger (Hrsg.): Die Googleisierung der Informationssuche. Suchmaschinen zwischen Nutzung und Regulierung. Berlin/Boston, 2014. Statista (Hrsg.) (2018a): Marktanteile von Suchmaschinen bei der Desktop-Suche und bei der mobilen Suche in Deutschland im Mai 2018. Studie 301012. Hamburg, 2018. Statista (Hrsg.) (2018b): Marktanteile der meistgenutzten Suchmaschinen auf dem Desktop nach Page Views weltweit in ausgewählten Monaten von Januar 2015 bis Mai 2018. Studie 225953. Hamburg, 2018. Statista (Hrsg.) (2018c): Werbeumsätze von Google in den Jahren 2001 bis 2017 (in Milliarden US-Dollar). Studie 75188. Hamburg, 2018. Statista (Hrsg.) (2018d): Ausgaben für Online-Werbung weltweit in den Jahren 2013 bis 2017 sowie eine Prognose bis 2022 (in Milliarden US-Dollar). Studie 185637. Hamburg, 2018. Statista (Hrsg.): 60 Sekunden im Internet. Infografik 13156. Hamburg, 2017. Stock, Oliver: EU-Kartellverfahren gegen Google. Ein Kampf im Namen der Marktwirtschaft. 2015, http://www.handelsblatt.com/unternehmen/it-medien/eu-kartellverfahren-gegengoogle-ein-kampf-im-namen-der-marktwirtschaft/11639376.html (05.06.2018). University of California (Hrsg.): Web Page Evaluation Checklist. 2018, http://guides.lib. berkeley.edu/evaluating-resources (16.06.2018). University of Michigan: Creating an Academic Hotbot: Revealing the Hidden Web. O.J., http:// www.lib.umich.edu/sites/default/files/services/dlps/mellon-harvesting.pdf (18.04.2015).

254  3 Wege zum Wissen im Web

Wagner, Bernd: Anmerkung zu BGH 1. Zivilsenat, EuGH-Vorlage vom 05.10.2017 – I ZR 7/16, in: jurisPR-ITR 2/2018, Anm. 2. Weismantel, Jan: Das „Recht auf Vergessenwerden“ im Internet nach dem „Google-Urteil“ des EuGH. Begleitung eines offenen Prozesses. Berlin, 2017. Wolf, Sebastian: 10 Jahre BASE. 2014, http://ekvv.uni-bielefeld.de/blog/base/entry/ 10_jahre_suchmaschine_base (16.06.2018). Wolfangel, Eva: Meinung: Und Facebook erzeugt doch eine Filterblase. 2015, http://www. spektrum.de/news/meinung-und-facebook-erzeugt-doch-eine-filterblase/1345526 (21.06.2018).

Entscheidungen Oberlandesgericht Rostock, Beschluss vom 27. Juni 2007, Aktenzeichen 2 W 12/07. Landgericht Köln, Urteil vom 13. Januar 2010, Aktenzeichen 28 O 578/09 (Stadt-Bilderbuch). Bundesgerichtshof, Urteil vom 29. April 2010, Aktenzeichen I ZR 69/08 (Vorschaubilder I). Landgericht Berlin, Beschluss vom 13. September 2010, Aktenzeichen 37 O 363/10. Bundesgerichtshof, Urteil vom 14. Mai 2013, Aktenzeichen VI ZR 269/12 (AutocompleteFunktion). Oberlandesgericht Köln, Urteil vom 08. April 2014, Aktenzeichen I-15 U 199/11, 15 U 199/11 (Vervollständigungsfunktion). Europäischer Gerichtshof, Urteil vom 13. Mai 2014, Rechtssache C-131/12 (Google Spain). Landgericht Berlin, Urteil vom 19. Februar 2016, Aktenzeichen 92 O 5/14 (Google Presseausschnitt, Google-Snippets). Oberlandesgericht Köln, Urteil vom 13. Oktober 2016, Aktenzeichen I-15 U 173/15, 15 U 173/15. Landgericht Berlin, Beschluss vom 08. Mai 2017, Aktenzeichen 16 O 546/15 (EuGH-Vorlage). Verwaltungsgerichtshof Baden-Württemberg, Beschluss vom 26. September 2017, Aktenzeichen 9 S 2056/16. Bundesgerichtshof, Beschluss vom 05. Oktober 2017, Aktenzeichen I ZR 7/16 (Cookie-Einwilligung). Oberlandesgericht Köln, Urteil vom 25. Januar 2018, Aktenzeichen I-15 U 56/17, 15 U 56/17. Bundesgerichtshof, Urteil vom 27. Februar 2018, Aktenzeichen VI ZR 489/16 (Internetforum).

Weitere Suchdienste 

255

Weitere Suchdienste Die Wikipedia(s) und ihre Schwesterprojekte Eigentlich gründeten Jimmy Wales und Larry Sanger im Jahr 2000 mit ihrer Firma Bomis zunächst eine webbasierte, frei zugängliche Enzyklopädie mit dem Namen Nupedia, die allein von Experten geschrieben werden sollte. Die Nupedia sollte etablierten Enzyklopädien wie der Encyclopaedia Britannica Konkurrenz machen, weshalb man zur Qualitätssicherung auch auf das von wissenschaftlichen Zeitschriften bekannte Peer-Review-Verfahren setzte. Bei dem Peer Review prüfen unabhängige Fachkollegen (engl. peers) jeden Beitrag auf seine Qualität, bevor er veröffentlicht wird. Die Nupedia wurde nach dem Ausstieg von Bomis und Larry Sanger und nur 25 veröffentlichten Artikeln 2003 eingestellt. Ursprünglich war die Idee der Wikipedia, es Laien zu ermöglichen, Content zu erzeugen, der letztlich in die Nupedia fließen sollte, da diese nur sehr langsam vorankam. Diese Idee wurde aber letztlich wieder verworfen und die Wikipedia, die am 15. Januar 2001 online ging, als eigenständiges Projekt realisiert. Träger der Wikipedia und ihrer Schwesterprojekte wurde 2003 die Wikimedia Foundation Inc., eine gemeinnützige Organisation nach dem Recht des amerikanischen Bundesstaates Florida, deren Vorsitzender bis 2006 Jimmy Wales war. Seit 2006 trägt Wales den Ehrentitel „Chairman Emeritus“. Nach und nach starteten Wikipedias in anderen Sprachen; die deutsche Ausgabe wurde am 15. März 2001 gegründet. Da jede Sprachversion eine eigenständige Enzyklopädie bildet, die nur in Ausnahmefällen aus anderen Sprachen übersetzte Artikel enthält, gibt es streng genommen „die Wikipedia“ nicht, sondern unterschiedliche Wikipediaausgaben in verschiedenen Sprachen. Google hatte im April 2001 den größten Teil der Wikipedias indexiert und lenkte fortan die Benutzer auf die Artikel der einzelnen Wikipediaausgaben. 18 Jahre später ist die Domäne wikipedia.org nunmehr seit Jahren unter den ersten zehn Plätzen der weltweit am häufigsten besuchten Domänen zu finden, lebt nur von Zuwendungen, und kommt nach wie vor ganz ohne Werbung aus. Im Geschäftsjahr 2016/17 konnte die Wikimedia Foundation Gesamterträge in Höhe von 91,2 Millionen US-Dollar verbuchen. Das Nettovermögen lag am 30.06.2017 bei 113 Millionen US-Dollar (Wikimedia Foundation o. J.). Neben der Wikimedia Foundation wurden auch Nationale Wikimedia-Vereine (Chapter) gegründet: Das sind eigenständige Organisationen, die von der Wikimedia Foundation das Recht erhalten, unter der geschützten Bezeichnung „Wikimedia“ aufzutreten. Die nationalen Vereine unterstützen vor Ort Wikimedia-Projekte, sie betreiben

256  3 Wege zum Wissen im Web

aber selbst keine Projekte: Dies bleibt der Stiftung vorbehalten. Am 13. Juni 2004 wurde in Berlin mit dem Verein Wikimedia Deutschland – Gesellschaft zur Förderung Freien Wissens e. V. der erste nationale Wikimedia-Verein gegründet, der heute 65.000 Mitglieder stark ist. Wikimedia Deutschland wiederum gründete 2010 die Gemeinnützige Wikimedia Fördergesellschaft mbH, die seither für das Fundraising in Deutschland verantwortlich ist. Von den 11 Millionen Euro Spendengeldern, über die die Fördergesellschaft 2018 verfügen konnte, überwies sie 60 Prozent an die Wikimedia Foundation in Florida (Wikimedia Deutschland 2018) und trug so mit annähernd 11 Prozent zu den Gesamteinnahmen der Wikimedia Foundation bei. 2018 existieren Wikipedias in 300 Sprachen. Der Vergleich mit anderen Enzyklopädien zeigt, welche Dimensionen die Wikipedia angenommen hat: Die Encyclopaedia Britannica kommt in der Version Ultimate 2008 auf 100.000, der Brockhaus in der 21. Auflage von 2005/2006 auf 300.000 Artikel insgesamt bei 57 Millionen bzw. beim Brockhaus 33 Millionen Wörtern. Allein die deutschsprachige Wikipedia sprengt diesen Rahmen bei weitem: 2,2 Millionen Artikel bestehend aus einer Milliarde Wörtern sind dort nachlesbar. In den Wikipedias insgesamt finden sich 41 Millionen Artikel mit rund 20 Milliarden Wörtern, dazu 13 Millionen Abbildungen und weit über 15 Millionen Weblinks. Grundsätzlich kann jeder Internetnutzer Autor der Wikipedia werden. Da beim einfachen Verändern des Inhalts nicht einmal eine Anmeldung erforderlich ist, kann die genaue Identität und Anzahl der verschiedenen Autoren nicht ermittelt werden. Werden Veränderungen an Artikeln ohne vorherige Benutzerregistrierung vorgenommen, erscheint die IP-Adresse des Rechners an Stelle des Benutzernamens beim Änderungseintrag. Bislang haben weltweit rund 2,5 Millionen angemeldete Wikipedianer an den Wikipedias mitgewirkt. Rund 5.000 Autoren schreiben regelmäßig an den Artikeln der deutschsprachigen Wikipedia. Fünf Jahre zuvor waren es allerdings noch 7.000 aktive Artikelschreiber. Da in der deutschsprachigen Version die Qualität der Onlineenzyklopädie unter fiktiven Artikeln und anderem Vandalismus litt, wurde 2008 entschieden, neue Artikel oder Änderungen erst nach Sichtung durch erfahrene Autoren freizugeben. Die Sichtung, die keine Bewertung über den fachlichen Inhalt trifft, aber bestätigt, dass die Neuerung frei von Vandalismus ist, trug erheblich zur Qualitätssteigerung der Wikipedia bei. Erstaunlicherweise war eine Sichtung bei der weitaus größeren englischsprachigen Wikipedia bisher nicht nötig. Dort waren nur wenige Artikel für den allgemeinen Zugriff gesperrt, in denen häufig Verfälschungen vorgenommen wurden.

Weitere Suchdienste 

257

Die Wikipedia vor Gericht In diese Zeit fiel auch ein Fall, mit dem sich Jahre später das Oberlandesgericht Stuttgart befasste: Der Kläger, Betreiber eines österreichischen Fernsehsenders, wandte sich gegen seine Person betreffende Darstellungen in einem deutschsprachigen Beitrag der Onlineenzyklopädie. Durch die darin getroffenen Äußerungen sah er sein Persönlichkeitsrecht verletzt. Das Gericht bejahte in seinem Urteil vom 02. Oktober 2013, Aktenzeichen 4 U 78/13 einen rechtswidrigen Eingriff in das Persönlichkeitsrecht des Klägers. Zur Haftung der Betreiberin der Wikipedia führte es aus: Die Beklagte haftet zwar nicht deshalb auf Unterlassung, weil sie durch die beanstandeten Äußerungen selbst unzulässig in das Persönlichkeitsrecht des Klägers eingegriffen hätte, denn sie hat den Artikel nicht selbst verfasst und ihn sich auch nicht zu eigen gemacht. Sie haftet jedoch als Störerin, weil sie trotz der spätestens durch die Zustellung der Klageschrift bewirkten Kenntnis von der Verletzung des Persönlichkeitsrechts des Klägers nicht reagiert und den beanstandeten Absatz des Artikels über den Kläger in der von ihr betriebenen Online-Enzyklopädie unverändert gelassen hat. (Rn. 152)

Im Einzelnen legte das Gericht dar: Unstreitig werden die Inhalte in der Online-Enzyklopädie der Beklagten nicht von dieser erstellt; vielmehr stellt diese lediglich Dritten die Plattform und Speicherplatz zur Verfügung, damit diese selbstverfasste Beiträge hinterlegen können, so dass jedermann an der Online-Enzyklopädie mitarbeiten, Artikel erstellen kann, wobei unstreitig weder eine Vorabkontrolle noch eine nachträgliche Steuerung durch eine Redaktion stattfindet. Aufgrund dessen hat das Landgericht Hamburg […] zu Recht angenommen, dass diese Funktionsweise der Online-Enzyklopädie der Beklagten in wesentlichen Grundzügen einem Internetforum vergleichbar sei, auch wenn dieses im Unterschied zu Foren nicht ein spezielles Themengebiet betrifft, sondern eine unüberschaubare Vielzahl von Themen und anders als viele Foren auf ein dauerhaftes Vorhalten der Beiträge bei ständiger Weiterentwicklung, Anpassung und Veränderung gerichtet ist. Denn entscheidend ist die Funktionsweise, dass jedermann die Möglichkeit eröffnet wird, Inhalte ohne redaktionelle Prüfung einzustellen […]. Diese Einstufung der Online-Enzyklopädie der Beklagten wird – soweit ersichtlich – auch sonst in Rechtsprechung […] und Literatur […] geteilt. Die Beklagte ist mithin nicht als sog. Content-Provider für eigene Informationen, sondern als Host-Provider für fremde Informationen einzuordnen […]. (Rn. 154)

Daraus zog das Gericht die Schlussfolgerung, die Grundsätze über die Haftung von Host-Providern auch auf die Onlineenzyklopädie anzuwenden: Aufgrund der geschilderten Funktionsweise der Online-Enzyklopädie der Beklagten kann ebenso wenig wie bei einem unter einer Internet-Adresse betriebenen Informationsportal, bei dem eine redaktionelle Kontrolle nicht durchgeführt wird […], ein Zu-Eigen-Machen

258  3 Wege zum Wissen im Web

angenommen werden. Insofern kann für die Beklagte nichts anderes gelten als für einen Host-Provider, welcher die technische Infrastruktur und den Speicherplatz für einen Blog zur Verfügung stellt, für den der Bundesgerichtshof ein Zu-Eigen-Machen ebenfalls verneint hat […]. Ausdrücklich im Hinblick auf die Online-Enzyklopädie der Beklagten hat i. d. S. auch das Landgericht Köln […] entschieden. (Rn. 155)

Das Gericht stellte klar, dass für die Betreiberin der Onlineenzyklopädie keine Pflicht zur Vorabkontrolle der über ihre Infrastruktur zugänglich gemachten Beiträge besteht. Allerdings träfe sie nach Erlangung der Kenntnis von einem Rechtsverstoß eine Pflicht zur Beseitigung und Unterlassung: Die Beklagte trifft jedoch eine Störerhaftung nach den Grundsätzen, welche der Bundesgerichtshof in den Entscheidungen „Blog-Eintrag“ […] und „RSS-Feeds“ [Beide Entscheidungen haben wir im zweiten Kapitel behandelt; Anmerkung der Verfasser] für andere Host-Provider aufgestellt hat, welche die technische Infrastruktur und den Speicherplatz für Blogs zur Verfügung stellen oder ein Informationsportal betreiben. Danach setzt die Störerhaftung die Verletzung zumutbarer Prüfpflichten voraus, wobei der Host-Provider nicht verpflichtet ist, die von den Nutzern in das Netz gestellten Beiträge vor der Veröffentlichung auf evtl. Rechtsverletzungen zu überprüfen, er vielmehr erst verantwortlich wird, sobald er Kenntnis von der Rechtsverletzung erlangt. Weist ein Betroffener den Host-Provider auf eine Verletzung seines Persönlichkeitsrechts hin, ist dieser verpflichtet, zukünftig derartige Verletzungen zu verhindern, wenn der Hinweis hinreichend konkret ist […]. Diese Maßstäbe sind auch auf die Beklagte hinsichtlich der von dieser betriebenen Online-Enzyklopädie anzuwenden […]. (Rn. 156)

Rechtliches zu Mehrautorenschaft und Open-Content-Lizenzen Die Artikel in der Wikipedia werden nach dem Prinzip des kollaborativen Schreibens erstellt. Beim kollaborativen Schreiben entstehen Texte in Mehrautorenschaft durch die Beiträge mehrerer Personen, die sich selbst nicht einmal kennen müssen, wie dies auch bei der Wikipedia dank der die dezentrale Wissensproduktion fördernden Infrastruktur der Fall ist. Dabei steht das gleichberechtigte Schreiben an einem Text im Vordergrund. Nun ist es wieder an der Zeit, eine juristische Frage aufzuwerfen, die sich Ihnen beim Stichwort Mehrautorenschaft vermutlich schon gestellt hat: Wie steht es eigentlich mit dem Urheberrecht an Mehrautorenwerken? Die gemeinsame Schöpfung, auch wenn sie sprachlich überhöht anmuten mag, ist eine Alltagserscheinung, derer wir uns allerdings nur selten bewusst sind, oder denken Sie während des Computerspielens darüber nach, wie viele Personen an der Programmierung beteiligt waren?

Weitere Suchdienste 

259

Kraft Gesetzes werden diejenigen, die ein Werk gemeinsam erschaffen haben, zu Miturhebern. Es zählt dabei der schöpferische Beitrag, den jeder Einzelne zur Verwirklichung des Werkes erbracht hat, ohne dass die einzelnen Leistungen für die Rechtszuordnung gegeneinander nach Umfang, Dauer, Bedeutsamkeit oder Zeitpunkt aufgewogen würden. Eine gemeinsame Werkschöpfung liegt allerdings nur dann vor, wenn die Urheber eine gemeinsame Aufgabe verfolgen und sich der Gesamtidee unterordnen. Sowohl durch die horizontale Aufgabenteilung, bei der die Urheber ihre Werkbeiträge gleichzeitig leisten, als auch durch die vertikale Aufgabenteilung, bei der die Urheber ihre Werkbeiträge nacheinander in verschiedenen Enstehungsphasen des Werkes erbringen, kann die gemeinsame Werkschöpfung verwirklicht werden. Nach überwiegender Auffassung kann eine Miturheberschaft jedoch regelmäßig nur durch Beiträge entstehen, die derselben Werkgattung zuzuordnen sind. Wichtig ist darüber hinaus, dass die Werkanteile der Beteiligten nicht gesondert verwertbar sind. Bei der Miturheberschaft entsteht ein einheitliches Werk, an dem ein Urheberrecht besteht. Die Miturheber bilden eine Urheberrechtsgemeinschaft, die äußerst langlebig ist. Erst mit Ablauf der Schutzfrist, mithin erst siebzig Jahre nach dem Tod des zuletzt verstorbenen Miturhebers, wird sie aufgelöst. Die Entscheidung für eine gemeinsame schöpferische Werkleistung ist gewissermaßen eine Festlegung für die gefühlte Ewigkeit. Über die Verwertung des Werkes, zum Beispiel die Zugänglichmachung des Werkes über das Internet, ist in der Miturhebergemeinschaft grundsätzlich einstimmig zu entscheiden. Gänzlich ohne urheberrechtlichen Schutz steht da, wer nur eine Idee zu dem letztlich von einem anderen geschaffenen Werk beigesteuert, vorbereitende Recherchen unternommen oder redaktionelle Unterstützung wie die Erstellung von Registern geleistet hat. Solange es an einer schöpferischen Mitwirkung durch (sprachliche) Gestaltung des Werkes fehlt, liegt keine Miturheberschaft vor. In der Wissenschaftspraxis kommt es allerdings zunehmend vor, dass Personen als Mitautoren angegeben werden, die den erforderlichen schöpferischen Beitrag nicht geleistet haben. Professoren, wissenschaftliche Direktoren oder Forschungsgruppenleiter werden zum Beispiel aus Gründen des Renommees selbst dann als Miturheber ausgewiesen, wenn es an ihrer anteiligen Werkleistung fehlt. Oder denken wir an das Antwerpener Atelier eines europäischen Portraitmalers des 17. Jahrhunderts, Peter Paul Rubens: Nach dem heutigen Rechtsverständnis hegen wir berechtigte Zweifel an seiner Alleinurheberschaft bezüglich jener Werke, deren Ausführung bis auf ausgewählte Details vielfach den übrigen Künstlern in der Werkstatt des bekannten Barockmalers oblag (siehe Schack 2017, Rn. 318).

260  3 Wege zum Wissen im Web

Von Miturheberschaft spricht man auch dann nicht, wenn einzelne (Text-) Werke in einem Sammelband zusammengeführt werden. Eine urheberrechtliche Beziehung zwischen den Autoren, die ihre einzelnen Beiträge in den Sammelband einbringen, besteht nicht. Davon zu trennen ist wiederum der Schutz für das Sammelwerk an sich: Auswahl und Anordnung von Einzelbeiträgen in einem Sammelwerk können durchaus die erforderliche Schöpfungshöhe erreichen, um urheberrechtlichen Schutz zu genießen. Schließlich stehen hinter der Zusammenstellung von einzelnen Abhandlungen im Gefüge eines Sammelbandes häufig wissenschaftssystematische Überlegungen über Sachzusammenhänge und -strukturen. Doch zurück zur Wikipedia: Verständigen sich mehrere Autoren darüber, einen Beitrag in der deutschsprachigen Wikipedia zu verfassen, und arbeiten sie gemeinsam an der Umsetzung ihres Plans, ist nach dem bisher Gesagten von einer Miturheberschaft auszugehen. Wird ihr Eintrag später ohne vorherige Absprache durch einen Dritten weiterentwickelt, liegt darin hingegen eine Bearbeitung, die von der Miturheberschaft abzugrenzen ist. Dieses „sukzessive Schaffen“ (Wiebe 2015, Rn. 6) dürfte der Regelfall bei der Wikipedia sein. Für die Veröffentlichung und Verwertung einer Bearbeitung sieht das Urheberrechtsgesetz allerdings vor, dass der Urheber des bearbeiteten Werkes darin einwilligt. Hier kommt nun, auch das werden Sie schon erahnen, die nächste rechtliche Raffinesse ins Spiel, die diese Einwilligung entbehrlich werden lässt. Die Einträge in der Onlineenzyklopädie stehen unter einer sogenannten Open-Content-Lizenz. Das wohl bekannteste Open-Content-Lizenzmodell stellen die Creative-Commons-Lizenzen dar, deren praktische Bedeutung sich vor allem im Bereich der Wissenschaft, Kunst und Kultur entfaltet. Der Begriff Creative Commons lässt sich als „schöpferisches Gemeingut“ übersetzen. Ihm liegt die Idee zugrunde, schöpferische Leistungen der Allgemeinheit zugänglich zu machen und deren Abschottung durch Überregulierung zu vermeiden. Musterlizenzverträge schaffen dafür den rechtlichen Rahmen, welcher sich technisch durch Verwendung entsprechender Metadaten maschinenlesbar umsetzen und von den Standardsuchmaschinen erkennen lässt. Vier verschiedene, miteinander kombinierbare Lizenzelemente erlauben dem Urheber, den Grad der Nutzungsfreigabe seines Werkes mithilfe der Creative-Commons-Lizenzen in Abstufung festzulegen. Von der bloßen Namensnennung über die Verpflichtung zur Weitergabe unter gleichen Bedingungen bis hin zum Ausschluss von Bearbeitungen oder kommerzieller Verwertung: Die Creative-Commons-Lizenzen gestalten unterschiedlich weitreichende Nutzungsszenarien.

Weitere Suchdienste



261

Die vier Elemente sind im Einzelnen: Die Namensnennung (engl. attribution: by) gestattet Dritten, die die Rechteinhaberschaft des Urhebers durch Nennung seines Namens anerkennen, das Werk und darauf beruhende Bearbeitungen zu vervielfältigen, zu verbreiten, aufzuführen und öffentlich zugänglich zu machen. Die Festlegung einer Weitergabe unter gleichen Bedingungen (engl. share alike: sa) gibt dem Dritten vor, Bearbeitungen nur unter Lizenzbedingungen zu verbreiten, die den vom Urheber gewählten entsprechen. Die nichtkommerzielle Nutzung (engl. non-commercial: nc) gestattet Dritten, das Werk und darauf beruhende Bearbeitungen zu nichtkommerziellen Zwecken zu vervielfältigen, zu verbreiten, aufzuführen und öffentlich zugänglich zu machen. Durch den Ausschluss von Bearbeitungen (engl. no derivatives: nd) ist es dem Dritten lediglich gestattet, unveränderte Kopien des Werkes zu vervielfältigen, zu verbreiten, aufzuführen und öffentlich zugänglich zu machen. In der Kombination ergeben sich die folgenden Gestaltungen: 1. die Namensnennung (by), 2. die Namensnennung mit Weitergabe unter gleichen Bedingungen (by, sa), 3. die Namensnennung unter Ausschluss der kommerziellen Nutzung (by, nc), 4. die Namensnennung mit Weitergabe unter gleichen Bedingungen und unter Ausschluss der kommerziellen Nutzung (by, sa, nc), 5. die Namensnennung unter Ausschluss der Bearbeitung (by, nd), 6. die Namensnennung unter Ausschluss der Bearbeitung und unter Ausschluss der kommerziellen Nutzung (by, nd, nc). Die Namensnennung stellt den nach deutschem Urheberrecht unumgänglichen Mindestinhalt der gewählten Lizenz dar. Wenngleich ein Urheber durch Verwendung von Begriffen oder Kennzeichen wie „public domain“, „freeware“ oder „CC0“ die vollständige Freigabe seines Werkes suggeriert, kann er sich gewisser Rechte nicht begeben. Der Umfang der Freigabe seines urheberrechtlich geschützten Werkes bemisst sich in diesen Fällen an den Grenzen des nationalen Urheberrechts, am „gesetzlich mögliche[n] Maximum“ (Bartlakowski 2018, S. 150). Er kann jedoch nicht darüber hinausgehen. Nach überwiegender Meinung ist ein wirksamer Verzicht auf das Urheberrecht im Ganzen nicht möglich. Anders als Ihnen, die zum Beispiel das Eigentum an Ihrem Kanu aufgeben könnten, ist es dem Urheber verwehrt, sich von seiner geistigen Schöpfung loszusagen. So schrieb der Rechtsanwalt Wilhelm Nordemann Ende der 1960er Jahre: Der Schöpfer eines urheberrechtlich geschützten Werkes steht zu diesem in einem ähnlichen Verhältnis wie der Vater zu seinem Kind. Er kann es weggeben, verstoßen oder ver-

262  3 Wege zum Wissen im Web

leugnen: es bleibt doch Ausdruck seines Denkens und Fühlens, seines Temperaments, seines Stils, kurz seiner Persönlichkeit. Wie das leibliche Kind das Erbgut des Erzeugers niemals zu verbergen vermag, trägt auch das urheberrechtlich geschützte Werk als das geistige Kind seines Schöpfers dessen Wesenszüge noch an sich, wenn es sich von diesem für immer getrennt hat. (Nordemann 1969, S. 127)

Deshalb ist und bleibt auch derjenige Urheber, der nach außen als Schöpfer nicht erkennbar für einen Dritten eine Hausarbeit schreibt, ein Gedicht verfasst oder eine Skulptur erschafft. Über das Urheberpersönlichkeitsrecht ist der Urheber untrennbar mit seinem Werk verbunden, wie auch die Berner Übereinkunft zum Schutz von Werken der Literatur und Kunst in der Fassung vom 24. Juli 1971 in Artikel 6bis Absatz 1 über das Urheberpersönlichkeitsrecht, das sogenannte droit moral, bestimmt: Unabhängig von seinen vermögensrechtlichen Befugnissen und selbst nach deren Abtretung behält der Urheber das Recht, die Urheberschaft am Werk für sich in Anspruch zu nehmen und sich jeder Entstellung, Verstümmelung, sonstigen Änderung oder Beeinträchtigung des Werkes zu widersetzen, die seiner Ehre oder seinem Ruf nachteilig sein könnten.

Dass die Inhalte in der Wikipedia unter eine freie Lizenz zu stellen sind, sieht das dritte Grundprinzip der Onlineenzyklopädie vor. Die für die Texteinträge in der Wikipedia gewählte Creative-Commons-Lizenz erlaubt die Werknutzung unter Namensnennung und Weitergabe unter gleichen Bedingungen. Eine kommerzielle Weiternutzung ist darin eingeschlossen. Für Bildmaterial werden verschiedene Lizenzen verwendet, auf die hier nicht eingegangen werden kann. Open-Content-Lizenzen sind die Grundbedingung für eine freie Kommunikation und Kollaboration, wie sie in der Entstehungsgeschichte und der Entwicklung der technischen Grundstruktur des Internets leitendes Motiv waren. Sie geben auch der Idee des Open Access, des unbeschränkten und kostenlosen Zugangs zu wissenschaftlicher Literatur, gewissermaßen ein lizenzrechtliches Zuhause.

Grundprinzipien der Wikipedia Grundsätzlich fußt die Wikipedia auf zwei Pfeilern, zum einen auf dem Prinzip der bereits erwähnten Schwarmintelligenz (engl. Crowd Intelligence, siehe Lobo 2013). Die Wikipedia ist ein Produkt einer großen Zahl von Internetnutzern, die gemeinsam an einem „Wissensprodukt“ arbeiten, das ein Einzelner in dieser Dimension gar nicht erzeugen könnte. Der zweite Pfeiler ist zum anderen

Weitere Suchdienste 

263

die generelle Offenheit, sowohl für die Autoren als auch für die Nutzer. Jeder kann an der Wikipedia mitarbeiten und jeder kann sie nutzen, ohne dafür etwas zu zahlen. Die Wikipedia ist ein Produkt von allen für alle mit freien Inhalten. Einen verantwortlichen Herausgeber oder Chefredakteur gibt es nicht. Um einen gemeinsamen Handlungsrahmen auszugestalten, haben sich die einzelnen Wikipedias Prinzipien und Richtlinien gegeben, aber keine starren Regeln. In der deutschsprachigen Ausgabe lauten die sogenannten vier zentralen Grundprinzipien der Wikipedia beispielsweise: 1. Die Wikipedia ist eine Enzyklopädie. 2. Die Artikel betrachten Sachverhalte von einem neutralen Standpunkt aus. 3. Alle Inhalte stehen unter einer freien Lizenz. 4. Persönliche Angriffe sind grundsätzlich zu unterlassen. Vor allem der erste Punkt bedarf weiterer Erklärungen. Nicht alles, was an Information zusammengetragen werden kann, ist relevant genug, um in eine Enzyklopädie aufgenommen zu werden. Die deutschsprachige Wikipedia hat beispielsweise einen komplexen Katalog von Relevanzkriterien aufgestellt und gibt zur Relevanz folgende Erläuterung (Wikipedia 2018a): Die Entscheidung für oder gegen die Aufnahme in eine Enzyklopädie richtet sich auch danach, ob Personen, Ereignisse oder Themen mit aktuell breiter Öffentlichkeitswirkung nach sinnvollem Ermessen auch zeitüberdauernd von Bedeutung sein werden.

Ausschlusskriterien liefert die Wikipedia in ihrem Autorenportal selbst in dem Beitrag „Was Wikipedia nicht ist“ (2018b). Darin wird die Enzyklopädie unter anderem abgegrenzt von Fanseiten, Werbeplattformen, Diskussionsforen, Wörterbüchern, Rohdatensammlungen und Ratgebern. Auch dient die Wikipedia nicht zur Theoriefindung oder zur Verbreitung von Verschwörungstheorien. Das zweite Grundprinzip des neutralen Standpunkts (engl. neutral point of view, kurz NPOV) bezieht sich auf die inhaltliche Ausgewogenheit und sachliche Korrektheit des Artikels. Der Autor ist angehalten, einen neutralen, nicht persönlich wertenden Standpunkt zu seinem Thema einzunehmen und quellenbasiert und objektiv zu schreiben. Sind zu einer Thematik mehrere Standpunkte vorhanden, so sind diese angemessen darzustellen. Das vierte Prinzip (zum dritten Grundprinzip siehe oben in Abschnitt „Rechtliches zu Mehrautorenschaft und Open-Content-Lizenzen“) bezieht sich auf die Interaktionskultur der Autoren untereinander. Das Verbot von persönlichen Angriffen soll einen höflichen Umgang jenseits sachlicher Auseinandersetzungen gewährleisten. In der sogenannten Wikiquette wurden die Grundre-

264  3 Wege zum Wissen im Web

geln für den Umgang miteinander umfassend ausgearbeitet. Ein Kernsatz (Wikipedia 2018c) daraus lautet: Ein freundlicher Umgangston dient dem professionellen Miteinander.

In der englischsprachigen Wikipedia sind die „Five pillars“ im Wesentlichen mit den vier Grundprinzipien der deutschen Ausgabe identisch. Die fünfte Säule „Wikipedia has no firm rules“ (Wikipedia 2018d) legt fest, dass die Wikipedia keine starren Regeln, sondern vielmehr Richtlinien („policies and guidelines“) kennt, die sich über die Zeit evolutiv verändern können. Dass es sogar Ausnahme geben muss, um die Wikipedia zu verbessern, wird kurioserweise dort ebenfalls schriftlich festgehalten: […], and sometimes improving Wikipedia requires making an exception.

Kritik an der Wikipedia Grundsätzlich ist die Wikipedia eine mittlerweile auf breiter Ebene akzeptierte und respektierte Enzyklopädie, die jedoch in ihren Anfangsjahren häufig belächelt und wegen qualitativer Mängel massiv kritisiert wurde. Viele Kritikpunkte an dem kollaborativ erstellten Projekt sind gewissermaßen projektimmanent. So kann kritisiert werden, dass es bei der Wikipedia keinen letztverantwortlichen Herausgeber gibt, der einen Artikel nach eingehender Prüfung freigibt und für die Qualität verantwortlich zeichnet. Während in einer von einer Redaktion verantworteten Enzyklopädie wie der Encyclopaedia Britannica5 von, über die Gesamtheit der Beiträge betrachtet, gleichbleibender Qualität ausgegangen werden kann, besteht in der Wikipedia stets die Möglichkeit, dass exzellente Artikel in der unmittelbaren Nachbarschaft von schlechten, wissenschaftlichen Ansprüchen nicht genügenden Beiträgen zu finden sind. Da es bei den Wikipediaartikeln zudem keine finale Fassung gibt und der Leser nicht weiß, ob der Artikel gerade mitten in der Überarbeitung steckt oder vor kurzem absichtlich mit falschen Informationen gefüttert wurde (Man spricht dann vom „Vandalisieren“.), wird die Qualität auch aus diesem Grund oft als potenziell 5 Im Jahre 2012 wurde die Druckausgabe der Encyclopaedia Britannica zu Gunsten der wesentlich preiswerteren, elektronischen Ausgabe nach über 240 Jahren eingestellt. Bereits 1945 hatte Vannevar Bush in seinem wegweisenden Aufsatz „As We May Think“, abgedruckt im Sammelband von Nyce/Kahn (Hrsg.), From Memex to Hypertext, die Ablösung der gedruckten Enzyklopädie angekündigt – durch Mikrofilm freilich, der in der Entwicklung begriffen war: „The ENCYCLOPAEDIA BRITANNICA could be reduced to the volume of a matchbox. A library of a million volumes could be compressed into one end of a desk.“ (Bush 1991, S. 93)

Weitere Suchdienste 

265

schwankend empfunden. Dass jeder an der Enzyklopädie ohne jeglichen Qualifikationsnachweis mitwirken darf, stieß vor allem bei den Hochschulen auf Unverständnis, so dass in wissenschaftlichen Arbeiten nicht aus der Wikipedia zitiert werden durfte. Auch Schulen rieten in der Regel davon ab, die Wikipedia als vertrauenswürdige Quelle zu benutzen. Diese Einschränkungen wurden mittlerweile vielerorts gelockert. Selbst in der Rechtsprechung ist der Verweis auf die Wikipedia häufig anzutreffen. Generell kann bei einem Artikel, der schon vor einiger Zeit angelegt wurde und ein zentrales Thema behandelt, von einer hohen Glaubwürdigkeit ausgegangen werden. Oft zeigen bei diesen Themen lange Diskussionshistorien, dass intensiv um den Inhalt gerungen wurde. Auch ist bei als „exzellente Artikel“ ausgezeichneten Beiträgen von einer geprüften Qualität auszugehen (siehe Wikipedia 2018e). Im Juni 2018 hatten die Wikipedianer in der deutschsprachigen Wikipedia 2.525 Artikel als exzellente Artikel gewählt. Zurückhaltung ist allerdings geboten bei den „wenig befahrenen Straßen“ mit Randthemen, die im extremen Fall nur von einem einzigen Autor bearbeitet wurden, da sich hier der positive Effekt der kollaborativen Wissensgenerierung nicht entfalten kann. Bei komplexen und abstrakten Sachverhalten, die eines ausgeprägten Expertenwissens bedürfen, ist deshalb in der Wikipedia zu Vorsicht geraten. So warnt der Historiker Peter Haber, der sich in seinen Hochschulseminaren mit der Wikipedia beschäftigt, vor Biografien nationalsozialistischer Funktionsträger ebenso wie vor Artikeln zu komplexen Themen wie dem Frühmittelalter oder der Aufklärung (siehe Staas 2010). Biografische Einträge zu aktiven Politikern sowie Firmenporträts sollten ebenfalls mit Zurückhaltung herangezogen werden. Lobbyisten und Wahlkampfmanager verstehen sich mittlerweile sehr gut im Editieren von Wikipediaartikeln zum Vorteil ihrer Klienten. Obwohl diese verdeckte Öffentlichkeitsarbeit dem Wikipediareglement widerspricht, bleibt meist nur das Vertrauen auf die Selbstkontrolle der Wikipediaautorenschaft, die allzu gefällige Darstellungen verhindern soll. Doch auch Behörden scheinen in Versuchung zu geraten, Wikipediaartikel zu ihren Gunsten zu manipulieren. So wurden Anfang 2015 Vorwürfe laut, dass von Computern des New York Police Departments (NYPD) aus Wikipediaartikel über Opfer der Polizeigewalt der NYPD geschönt oder teilweise gelöscht wurden. Nur gelegentlich werden tatsächlich Sanktionen verhängt: So sperrte die Wikipedia 2011 zehn Accounts der britischen PR-Agentur Bell Pottinger, nachdem deren Mitarbeiter heimlich dabei gefilmt worden waren, als sie unter anderem damit prahlten, Wikipediaeinträge für ihre Kunden zu manipulieren. 2009 wurden IP-Adressen gesperrt, die zur Scientology Church gehörten, da von dort aus Scientology betreffende Artikel einseitig editiert worden waren.

266  3 Wege zum Wissen im Web

Eine oft verwendete Strategie zur Verschleierung von gezielten Manipulationen ist die Einrichtung vieler Benutzerkonten durch eine einzige reale Person. Man spricht bei diesen Multi-Accounts von sogenannten Sockenpuppen (engl. sock puppets). Die Verwendung von Sockenpuppen ist in der Wikipedia verboten. Wird sie aufgedeckt, werden sämtliche bekannten Konten der betreffenden Personen gesperrt. 2013 wurden von der Wikimedia Foundation 250 Benutzerkonten gesperrt, da diese für die Erstellung von bezahlten Werbebeiträgen (engl. paid editing) in der Wikipedia missbräuchlich benutzt worden waren. Vor allem ein Problem ist es, das die Zukunft der Wikipedia bedrohen könnte: Die Zahl der aktiven Autoren nimmt bei einer zunehmenden Artikelzahl tendenziell ab. Als aktive Autoren bezeichnet die Wikipedia diejenigen angemeldeten Benutzer, die monatlich mindestens fünf Editierungen in der Wikipedia vornehmen. In der englischsprachigen Version stehen den ungefähr 32.000 Autoren von 2018 rund 40.000 von 2009 gegenüber. Ferner geht man davon aus, dass die überwiegende Mehrheit der Autoren junge Männer aus relativ reichen Industrieländern sind. Die Themenauswahl und die Artikelinhalte spiegeln sodann hauptsächlich deren Lebens- und Interessenwelt wider. Der renommierte Medienhistoriker Peter Burke vermutet, dass [...] viele Autoren männlichen Geschlechts, nordamerikanischer Herkunft, Computerfreaks oder Berufsakademiker sind. (Burke 2014, S. 323)

Eine Umfrage der Arbeitsstelle Wiki-Watch im Studien- und Forschungsschwerpunkt Medienrecht der Juristischen Fakultät der Europa-Universität Viadrina unter 261 Administratoren der deutschsprachigen Wikipedia ergab 2010, dass 92 Prozent der Befragten Männer waren. Da die Rücklaufquote der schriftlichen Anfragen nur 21,4 Prozent betrug, sind die Zahlen allerdings nur eingeschränkt aussagekräftig. Von der 56 Rückläufern gaben nur 37 ihr Alter (Durchschnitt: 39 Jahre) an. Der Rückschluss auf die generelle Altersstruktur ist daher schwierig. Der Frauenanteil an den Wikipedianern wird je nach Ausgabe zwischen sechs und 15 Prozent geschätzt. Jimmy Wales vertritt daher die Meinung, dass durch diesen „Gender Gap“ Themen wie frühkindliche Entwicklung oder Mode in der Wikipedia im Gegensatz zu Details einer neuen Linux-Distribution eher unterrepräsentiert sind. Dass ein Artikel über das Hochzeitskleid von Prinz Williams Frau Kate Middleton umgehend nach der Einstellung mit Löschanträgen attackiert wurde, nannte Wales auf dem Jahreskongress „Wikimania“ 2012 als Beispiel, das das Problem der Geschlechterkluft illustriert. Diese strukturellen Schwächen der Wikipedia machen deutlich, dass nur ein problembewusster Umgang mit der Wikipedia gepflegt werden kann. Den-

Weitere Suchdienste



267

noch ist ein erster Einstieg in ein Interessensgebiet unter Zuhilfenahme der Wikipedia in den meisten Fällen sinnvoll, um einen Überblick zu einem Thema zu erhalten. Ein Blick in die englischsprachige Version der Wikipedia eröffnet dabei oft weitere und besser belegte Informationen. Gerade bei aktuellen Themen bietet die Wikipedia auch aufgrund der Literaturangaben und weiterführenden Links eine Informationsfülle, die mit redaktionell erstellten Enzyklopädien nicht verglichen werden kann. Alle Wikipediaangaben müssen aber letztlich kritisch hinterfragt werden und durch weitere Quellen bestätigt werden können. Ein kritischer Umgang mit einem Werk und die Vertiefung der Erkenntnis durch die Hinzuziehung weiterer Quellen werden dem Benutzer der Wikipedia letztlich allerdings sogar nutzen und ihn zu kritischem Denken hinführen. Peter Burke (2014, S. 323) lobt sogar ausdrücklich den kritischen Umgang der Wikipedianer mit ihrer Enzyklopädie: Die Wikipedia unterscheidet sich auch durch das, was man – ungeachtet der Gefahr des Anthropomorphismus – ihre „Selbstkritik“ nennen könnte, die sich in diversen intellektuellen Warnhinweisen artikuliert wie „Die Neutralität dieses Artikels oder Abschnitts ist umstritten“ oder „Dieser Artikel oder nachfolgende Abschnitt ist nicht hinreichend mit Belegen ausgestattet“. Die fraglichen Angaben werden daher möglicherweise demnächst entfernt. Bitte hilf der Wikipedia, indem du die Angaben recherchierst und gute Belege einfügst.“ In dieser Hinsicht könnten sich die Herausgeber gedruckter Enzyklopädien ein Beispiel an Wikipedia nehmen.

Bedingt durch die sinkende Zahl aktiver Autoren dürfte es allerdings zunehmend schwieriger werden, die Enzyklopädie zu pflegen, aktuell zu halten und neue Artikel hinzuzufügen. Man wird beobachten müssen, inwieweit einzelne Themengebiete von den Autoren nicht mehr bewältigt werden können und verwaisen, sollte sich dieser Trend nicht umkehren lassen. Hochschulen und andere Bildungsinstitutionen könnten sich an dieser Stelle deutlich mehr einbringen. Im Interview mit der Wochenzeitung Die Zeit gab der Historiker Peter Haber auf die Frage nach der Rolle der Berufshistoriker im Angesicht der inhaltlichen Schwächen der Wikipedia eine bemerkenswerte Antwort: DIE ZEIT: Müssten da die Berufshistoriker nicht ein wachsames Auge auf Wikipedia haben und sich einmischen? Haber: Auf jeden Fall sollten sich Historiker mehr darum kümmern. Schließlich entsteht hier und nicht in teuren, dickleibigen Aufsatzbänden das populäre Geschichtswissen von morgen. (Staas 2010)

Was Haber auf den Berufsstand der Historiker bezog, gilt für alle wissenschaftlichen Disziplinen: Da die Wikipedia von jungen Menschen mehr als irgendeine

268  3 Wege zum Wissen im Web

andere Quelle zum Wissenserwerb genutzt wird und die Reichweite der Wikipedia bei jungen Menschen höher ist als bei anderen Enzyklopädien jemals zuvor, sind vor allem die Wissensexperten gefragt, seriöse und mit Professionalität erstellte Artikel in der Wikipedia zu erzeugen. Das statistische Bundesamt meldete bereits 2012: Rund 72 Prozent aller Internetnutzer ab 10 Jahren nutzten im ersten Quartal 2011 bei ihren Recherchen bevorzugt Wikipedia und Co.

Der Anteil bei den jungen Internetnutzern im Alter zwischen 10 und 15 Jahren lag dabei sogar bei 82 Prozent. Eine Umfrage des Branchenverbands Bitkom ergab 2016, dass 92 Prozent der 14- bis 29-Jährigen die Wikipedia nutzen. Um dem Interesse der jungen Menschen an wissenschaftlichen Themen adäquat zu begegnen, ist die Mitwirkung an der Erstellung von Wikipediainhalten von Angehörigen der Forschung und Lehre, aber auch von wissenschaftlichen Bibliotheken dringend geboten. Eine passive, rein kritisierende Haltung der Wissenschaft verkennt die Chancen, die die Reichweite, Offenheit und Transparenz der Wikipedia bieten. In der Wissenschaft selbst hat sich übrigens ein Forschungsansatz generiert, dessen Gegenstand die Wikipedia selbst ist. Die sogenannte Wikipedistik befasst sich mit der Analyse der Wikipedia aus verschiedenen Perspektiven.

Schwesterprojekte der Wikipedia: Wikibooks, Wikiversity & Co. Die Wikimedia Foundation ist Betreiberin von zahlreichen Schwesterprojekten, die den Bekanntheitsgrad der Wikipedia bisher nicht erreicht haben. Wir möchten sie dennoch kurz erwähnen. Es existieren auch hier Ausgaben in unterschiedlichen Sprachen nebeneinander. Das Projekt Wikibooks wurde 2003 mit dem Ziel, gemeinschaftlich frei zugängliche Lehr- und Fachbücher zu erstellen, initiiert. Im deutschsprachigen Bücherkatalog sind 700 fertige Bücher verzeichnet; im englischsprachigen sind es mit 3.023 weitaus mehr. Trotz der Statusangabe „fertig“ können Wikibooks jederzeit editiert werden. In Wikibooks fließt nur gesichertes Wissen ein, das bereits in anderen Fachbüchern veröffentlicht worden ist. Durch das Verfahren des gemeinschaftlichen Schreibens ist die Leistung der einzelnen Autoren nicht genau bestimmbar und die Qualität des Inhalts ist nicht prognostizierbar. Wikiversity ging 2006 aus dem Projekt Wikibooks hervor und hat sich die Erstellung von frei zugänglichen Onlinelehr- und -lernmaterialien, sogenannten

Weitere Suchdienste 

269

Open Educational Resources (OER), sowie die Durchführung von E-LearningEinheiten zur Aufgabe gemacht. Wikiversity dient dem Lernen und Lehren in Schule und Hochschule, der Erwachsenenbildung sowie dem Selbststudium. In kollaborativen Lernprojekten, die in Fachportale untergliedert sind, können Wissen erworben, Lern- und Lehrmaterialien erstellt und Fachthemen diskutiert werden. Aufgrund der geringen Resonanz in der deutschsprachigen Wikiversität diskutierte man 2013 über die Schließung des Projekts, entschied sich aber dann für die Gründung einer Arbeitsgruppe, die die Wikiversity als Lehr- und Lernplattform in der gegenwärtigen E-Learning-Landschaft attraktiver machen sollte, allerdings ohne dass sich bislang nennenswerte Ergebnisse einstellten. In der englischsprachigen Wikiversity, die sich das Motto „Set learning free“ gegeben hat, sind mittlerweile mehr als 25.000 Lernressourcen aufgelistet. Im Projekt Wikiquote, das 2004 gegründet wurde und in rund 90 Sprachversionen existiert, werden Zitate gesammelt und in Artikeln nach Stichwörtern und zitierten Quellen (Personen, literarische Werke, Filme und Fernsehsendungen) untergliedert. In Wikiquote dürfen nur die Zitate eingetragen werden, die eine gewisse Verbreitung erfahren haben, so dass in Wikiquote nur „oft zitierte Zitate“ aufgenommen werden. Sucht man nach „Katze“ in Wikiquote, findet man zum Beispiel das folgende Zitat mit Quellenangabe von Mark Twain: Der wesentliche Unterschied zwischen einer Katze und einer Lüge besteht darin, dass eine Katze nur neun Leben hat. Mark Twain, Following the Equator, chapter LXIII

Das Urheberrecht setzt dem Projekt freilich enge Grenzen, die es mit möglichst praxistauglichen Regularien auszureizen versucht. Folgender Hinweis auf der Projektseite zum Urheberrecht (Wikiquote 2015) kommt deshalb nicht von ungefähr: Anmerkung: Pragmatische Regelungen durch Wikiquote, die der Risikominimierung bei unklaren Fällen dienen, schließen die Haftung eines für eine Urheberrechtsverletzung verantwortlichen Mitarbeiters nicht aus!

Wikisource sammelt urheberrechtsfreie Texte oder solche Texte, die unter einer freien Lizenz stehen. Die deutschsprachige Wikisource listet über 40.000 Werke auf, darunter rund 9.600 Gedichte, 3.500 Sagen, 1.900 Märchen, 117 Romane und über 4000 Rechtstexte. Die Texte werden systematisch erschlossen und können nach Autoren, Themen, Literaturgattung oder geographischen Namen unterschieden werden. Zu den Volltexten wird entweder auf externe Quellen oder auf Wikisource selbst verlinkt. Wikisourcekontributoren können auch selbst erstellte Digitalisate hochladen. Mit Rücksicht auf die urheberrechtlichen Schutzfristen enthält die Wikisource überwiegend ältere Werke. Die englisch-

270  3 Wege zum Wissen im Web

sprachige Version der Wikisource, die sich das Motto „the free library that anyone can improve“ gegeben hat, umfasst über 390.000 Texte. Weitere Schwesterprojekte der Wikipedia sind das Onlinewörterbuch Wiktionary sowie Wikispecies, ein Artenverzeichnis, das sich an wissenschaftlichen Standards orientiert. Gemeinsames Medienarchiv für alle Wikipediaprojekte ist seit 2004 Wikimedia Commons, das über 47 Millionen Dateien, hauptsächlich Fotos, enthält. Die Faktendatenbank Wikidata wurde 2012 eröffnet und enthält derzeit rund 48 Millionen Objekte. Wikidata soll unter anderem die Wikipedias unterstützen und die in ihr enthaltenen Informationen, wie beispielsweise die Höhe der Zugspitze oder das Museum, in dem sich die Mona Lisa befindet, in alle Wikipediaausgaben einspeisen. Diese können damit durch Wikidata auf einen ständig aktualisierten und normierten Faktenbestand zurückgreifen (vgl. Kleinz 2012).

Nachrichtenportale aus der Welt der Wissenschaft Eine in Deutschland eher weniger bekannte Informationsquelle aus der Welt der Wissenschaft sind Nachrichtenportale mit wissenschaftlichem Fokus. Sehr populär im angloamerikanischen Bereich ist mit sechs Millionen Besuchern monatlich beispielsweise das 1995 von Dan und Michele Hogan gegründete Nachrichtenportal Science Daily, das Wissenschaftsnachrichten (engl. science news) aus allen Gebieten der universitären und außeruniversitären Forschung, vornehmlich aber aus der Biologie, der Physik, den Geowissenschaften und den Angewandten Wissenschaften, verbreitet. Science Daily richtet sich sowohl an Wissenschaftler und Studierende als auch an interessierte Laien und beinhaltet in seinem Onlinearchiv mittlerweile 200.000 Artikel sowie zahlreiche Bilder und Videos. Die Suche nach „search engine“ ergibt zum Beispiel über 1.600 Treffer zum Thema. Bei der Recherche nach Artikeln zum relativ entlegenen Thema „Stuttering“ (dt. Stottern) erhält man immerhin noch eine Ergebnisliste mit 425 Artikeln, die über neue Erkenntnisse der Forschung in wissenschaftsjournalistisch aufbereiteter Form berichten. Vergleichbare Angebote sind Eurekalert! der American Association for the Advancement of Science (AAAS) und ScienceNews der gemeinnützigen Society for Science & the Public (SSP). ScienceNews beinhaltet ein Portal für Lernende, Lehrende und Eltern, ScienceNews for Students, das an die Curricula der USamerikanischen Bildungseinrichtungen angepasste Inhalte anbietet. Erwähnenswert sind auch die Portale Newscientist und Science Friday sowie das populärste deutsche Angebot, ScienceBlogs.de, das Blogs von verschiedenen Forschern und Journalisten unter einem Dach vereint. Scienceblogs.de, das von

Weitere Suchdienste 

271

der Konradin Medien GmbH geführt wird, ist der deutsche Ableger der Bloggemeinschaft Scienceblogs.com. Die Website von DRadio Wissen, einem Angebot des Deutschlandfunks, mit dem Leitspruch „Hirn will Arbeit“ ist speziell auf ein junges Publikum zugeschnitten und bietet anspruchsvolle Podcasts zu aktuellen wissenschaftlichen Themen.

Faktenchecker gegen Fake News Fake News, also absichtlich gefälschte Nachrichten, sind vor allem als politische Fake News weit verbreitet. Sie werden, neben dem finanziellen Interesse an Einnahmen durch Onlinewerbung, vor allem in die Welt gesetzt, um Klischees zu bedienen, die die Gefühle und Instinkte ihrer Leserschaft ansprechen. So richten sich Fake News meist gegen eine bestimmte soziale Gruppe oder bestimmte Personen, gegen die schon Vorurteile bestehen, zum Beispel gegen Flüchtlinge oder Politiker bestimmter Parteien. Fake News sind, da sie vom Urheber in der Regel gezielt eingesetzt werden, als Mittel der Propaganda zu betrachten. Sie werden zum Beispiel mit dem Ziel verbreitet, die Wähler in ihrem Abstimmungsverhalten zu beeinflussen. Fake News tarnen sich als echte Nachrichten, sind aber meist reißerisch aufgemacht und beinhalten Verschwörungstheorien oder erfundene Skandale. Eher schwer zu erkennen sind sie, wenn sie von Webportalen stammen, die wahre und gefälschte Nachrichten mischen, wie dies zum Beispiel bei infowars. com, einer 1999 gegründeten Website des Radiomoderators und Verschwörungshypothetikers Alex Jones, der Fall ist. Besonders schnell verbreiten sich Fake News in den sogenannten Echokammern der sozialen Netzwerke, da hier unter Gleichgesinnten eine hohe Bereitschaft besteht, Meldungen zu konsumieren und zu verbreiten, die dem eigenen Weltbild entsprechen, unabhängig vom Wahrheitsgehalt einer Information. Da die Algorithmen der Suchmaschinen aktuelle, sich schnell verbreitende Nachrichten hoch ranken, landen auch Fake News mitunter in den Trefferlisten der Suchmaschinen weit oben und erfahren so eine zusätzlich beschleunigte Verbreitung. Fake News sind durch sorgfältiges Prüfen der kolportierten Angaben zu enttarnen. Oft verwenden Fake News erfundene Quellen, erfundene Experten oder aus dem Kontext gerissene Bilder und Zitate. Zum Widerlegen von Fake News helfen sogenannte Faktenchecker-Websites wie Snopes.com oder FactCheck. org. Das bereits 1994 gegründete Snopes.com untersucht Gerüchte und zweifelhafte Meldungen vorwiegend aus den sozialen Netzwerken auf ihren Wahrheitsgehalt und beleuchtet die Hintergründe und Entstehungsgeschichte der aufge-

272  3 Wege zum Wissen im Web

stellten Behauptungen, die nicht nur auf politische Themen beschränkt sind. FactCheck.org hingegen ist auf die US-amerikanische Politik spezialisiert. In der Rubrik SciCheck widmet sich FactCheck.org irreführenden, als wissenschaftlich getarnten Thesen, die die öffentliche Meinung manipulieren sollen. Im deutschsprachigen Raum enttarnt unter anderem das gemeinnützige Recherchezentrum Correctiv.org Falschmeldungen. Dem Kampf gegen Desinformation widmet sich auch das Faktenfinderprojekt der ARD, faktenfinder.tagesschau. de, das Tutorials zum Erkennen und Enttarnen von Fake News bereithält. Mit der Bilder-Reverse-Suche von Tineye, RevEye oder Google Bilder lässt sich darüber hinaus prüfen, ob in mutmaßlichen Fake News verwendete Bilder schon in anderem Kontext im Web aufgetaucht sind. Eine gute Übersicht der Werkzeuge zum Enttarnen und Widerlegen von Fake News bietet die Bundeszentrale für politische Bildung (2017).

Exkurs 3: Die Qualität von Webressourcen bewerten An dieser Stelle lohnt es sich zu überlegen, wie sich die Qualität von Webressourcen im Allgemeinen bewerten lässt. Im Web gibt es keine vorgeschaltete Qualitätsinstanz wie eine Redaktion oder ein Autorengremium, das die Qualität von Webressourcen – zum Beispiel in Bezug auf die Seriosität, Aktualität und Vollständigkeit der Inhalte – vor der Veröffentlichung im Internet prüfen würde. Auch können allgemeine Suchmaschinen keine Qualitätsprüfung der Inhalte der von ihnen angezeigten Treffer vornehmen. Der Rezipient muss die Qualität seiner Quellen selbst beurteilen. Er kann dabei auf verschiedene Kriterien zurückgreifen, die Rückschlüsse auf die Qualität einer Ressource aus dem Web zu ziehen erlauben. Grundsätzlich sollten zur Qualitätsermittlung von Webressourcen zusätzlich zur Webseite selbst die Person des Autors und der Betreiber der Website in Augenschein genommen werden. Folgenden Leitfragen sollte dabei nachgegangen werden: – Leitfragen, die die Webseite betreffen: – Welcher Domäne gehört die Webseite an? – Wer ist der (im Impressum genannte) Betreiber der Website? – Gehört die Webseite zur offiziellen Internetpräsenz einer Organisation? – Wann wurde sie zuletzt verändert? Wie lange gibt es die Website schon? – Zu welchen Quellen verlinkt die Seite? Sind die Links funktionsfähig? – Wer verlinkt auf die Domäne/die Webseite? – Ist der Autor der Quelle genannt?

Weitere Suchdienste 

273







Warum wurde die Webseite veröffentlicht (Information/Marketing/ Satire etc.)? Welche Zielgruppe hat sie? – Wirkt die Aufmachung der Webseite professionell? – Welche Kommentare wurden auf der Webseite hinterlassen? Wie wird die Webseite von anderen Webteilnehmern bewertet? Leitfragen, die den Autor betreffen: – Welche Informationen erhält der Webseitenbesucher über den Autor? Ist eine Kontaktmöglichkeit angegeben? – In welchem Stil wurde die Seite geschrieben? Sind Rechtschreibung und Grammatik fehlerfrei? Wie ist das sprachliche Niveau? – Nennt der Autor Quellen? Führt er Belege für seine Aussagen an? – Stimmen die Informationen, die der Autor gibt, mit weiteren Quellen überein? – Ist der Text datiert und sind die Informationen aktuell? – Was kann man mittels einer Websuche noch über den Autor herausfinden? Welche weiteren Werke hat er publiziert? Leitfragen, die den Betreiber der Website betreffen: – Ist der Betreiber eine natürliche Person, ein Unternehmen oder eine öffentliche Einrichtung? Welche Informationen erhält man über den Betreiber? – Besteht möglicherweise ein Interessenkonflikt zwischen dem Inhalt der Seite und der Rolle des Betreibers? – Was kann über den Betreiber der Website gegebenenfalls noch mithilfe einer Websuche herausgefunden werden?

Bei der Beantwortung der oben genannten Leitfragen zeigt sich meist schnell, ob ein Text für eine weitere Verwendung als Quelle in Frage kommt. Sollte ein Autor und/oder Betreiber gänzlich fehlen, ist eine weitere Verwendung sehr kritisch zu sehen und gut abzuwägen. Um mögliche Links, die auf die zu prüfende Quelle verweisen, zu ermitteln, können spezielle Suchkommandos von Suchmaschinen verwendet werden. Bei Google beispielsweise zeigt der Befehl „link:“ die Webseiten an, die auf eine bestimmte Webadresse verweisen. Gibt man in die Suchmaske zum Beispiel „link:de.wikipedia.org/wiki/Google“ ein, erhält man nur Treffer, die auf die gesuchte Webadresse, hier auf den Artikel über Google in der deutschsprachigen Wikipedia, verlinken. Ergänzend zu den Qualitätskriterien seien hier noch Onlinepreise erwähnt, die herausragende Webangebote auszeichnen und eine Orientierung bei der Qualitätsprüfung einer Webseite geben können. Sehr renommiert ist im deutschsprachigen Raum der Grimme Online Award, der seit dem Jahr 2001

274  3 Wege zum Wissen im Web

vom Grimme-Institut für qualitativ hochwertige Onlineangebote unter anderem in den Kategorien „Wissen und Bildung“ und „Information“ verliehen wird.

Vom Bibliothekskatalog zum Discovery Dienst Anfang der 1990er Jahre veränderten sich durch die Verfügbarkeit des Internets auch die Rahmenbedingungen für die wissenschaftlichen Bibliotheken grundlegend. Sie begannen zunächst damit, ihre bereits elektronisch erfassten Kataloge online zu stellen – in Deutschland oft unter dem Namen „WWW-OPAC“. Das Akronym OPAC ließ sich als Online Public Access Catalogue auflösen. Mithilfe der Metasuche über mehrere Kataloge wurde das Recherchieren von nationalen und internationalen Bibliotheksbeständen sehr komfortabel. Im Karlsruher Virtuellen Katalog (KVK) des Karlsruher Instituts für Technologie (KIT) wurden durch die gleichzeitige Suche in zahlreichen Bibliothekskatalogen und Buchhandelsverzeichnissen mehrere hundert Millionen Medien mit einer einzigen Suchanfrage recherchierbar. Im WorldCat, einer Datenbank des Bibliotheksdienstleisters OCLC, ist man einen anderen Weg gegangen und hat aus den Beständen von mehr als 10.000 Bibliotheken weltweit eine Datenbank generiert, die über zwei Milliarden Katalogisate umfasst. Obwohl sich die Internetumgebung rasch veränderte, zahlreiche benutzerfreundliche Technologien mit partizipativen und kollaborativen Elementen auf den Onlinemarkt drängten und sich auch die Suche im Internet vor allem durch Google zunehmend einfacher gestaltete, blieben die elektronischen Bibliothekskataloge lange Zeit Onlineinventarverzeichnisse in klassisch schlichtem Design, an denen aktuelle Entwicklungen spurlos vorüberzugehen schienen. Doch neben den softwareergonomischen und ästhetischen durchzogen auch konzeptionelle Schwächen die OPACs. Marshall Breeding legte seine Finger in die Wunden der veralteten Bibliothekssoftware: To be taken seriously by users, the catalogs and other interfaces offered by libraries need to operate with the same levels of style and sophistication as other popular Web destinations. Some of the shortcomings of legacy catalogs might include that they – have complex search interfaces that might not be sufficiently intuitive – are not consistent with well-established user interface conventions – are unable to rank results according to relevancy or interest – are too limited in scope – are tied to print materials and are less able to address electronic content – are unable to deliver online content to the user – lack social network features to engage library users. (Breeding 2007, S. 6)

Weitere Suchdienste 

275

Mit der Konzeption einer neuen Generation von Katalogen, der Next-Generation Library Catalogs, gingen zahlreiche Verbesserungen einher, die neben effektiveren und benutzerfreundlicheren Suchmöglichkeiten zusätzliche inhaltliche und teilweise auch partizipative Elemente umfassten. Für die Verbesserung der Suchfunktionalität setzte man bei der neuen Generation von Onlinekatalogen auf Suchmaschinentechnologien, die einen Index der Katalogdatenbank generieren und so die Suche beschleunigen und komfortabler machen. Analog zu Google konnten nun alle oder zumindest die meisten Elemente der Katalogisate mittels einer einzigen Zeile (engl. simple search box) durchsucht werden. Die oft großen Treffermengen einer Suchanfrage werden vom System analysiert und verschiedenen Kategorien, den sogenannten Facetten, zugeordnet, zum Beispiel den Facetten Schlagwort, Autor, Erscheinungsjahr, Dokumententyp etc. Die Facetten werden stets gemeinsam mit der Trefferliste angezeigt und erlauben auf diese Weise die nachträgliche Filterung der Trefferliste nach bestimmten Werten der einzelnen Kategorien. So kann auch eine sehr hohe Trefferzahl nach und nach durch das Filtern relevanter Kriterien auf ein überschaubares Maß eingegrenzt werden. Man bezeichnet dieses Vorgehen als DrillDown-Methode. Damit der Suchende einen besseren Eindruck von dem im Katalog verzeichneten Medium erhält, werden den bibliografischen Daten häufig weitere grafische oder verbale Informationen wie Coverabbildungen, Inhaltsverzeichnisse oder Klappentexte hinzugefügt, was als Catalog Enrichment (dt. Kataloganreicherung) bezeichnet wird. Von Suchmaschinen bekannte Funktionalitäten wie die Rechtschreibprüfung („Did you mean…?“) und (optionales) Relevanzranking gehören ebenfalls zu den Funktionalitäten eines modernen Katalogs. Im Zuge des aufkommenden Social Webs wurden auch Modelle zur Umsetzung eines Katalogs 2.0 diskutiert, welcher User-generated Content wie Folksonomies oder Rezensionen der Bibliotheksbenutzer nachweisen sollte. Bis auf wenige Ausnahmen wie den Kölner Universitätsgesamtkatalog KUG wurden solche Konzepte in Deutschland allerdings kaum umgesetzt. Einige Kataloge verfügen über Recommender-Funktionen, die nicht – wie häufig bei kommerziellen Datenbanken – das Konsumverhalten anderer Nutzer zugrunde legen, sondern das Rechercheverhalten anderer Bibliotheksbenutzer statistisch auswerten („Andere fanden auch interessant: …“). Die größte Problematik der bisherigen Onlinekataloge bestand aber darin, dass sie nur einen Ausschnitt aus den Informationen präsentieren konnten, deren Zugang die Bibliothek tatsächlich vermittelt („too limited in scope“), und elektronisches Material aus von der Bibliothek subskribierten Datenbanken, digitalen Bibliotheken oder Repositorien durch separate Suchen recherchiert wer-

276  3 Wege zum Wissen im Web

den musste. Lassen wir wieder Breeding sprechen, um den Status Quo vor einigen Jahren zu umschreiben: While library collections have shifted toward increased proportions of electronic content, the traditional approach to library catalogs did not focus on providing access to this material. The scope of the legacy catalog usually does not include – article-level searching – online display of article content – search and display of content from local digital library collections: photographs, manuscripts, […] – contents of an institutional repository. (Breeding 2007, S. 7)

Das Konzept, alle zur Verfügung stehenden Informationen unter dem Dach einer einzigen Suchoberfläche zu vereinen, wird als One-Stop-Shop oder Single Point of Access bezeichnet. Den letztgenannten Begriff könnte man in diesem Kontext in etwa mit „Einheitliches Onlineportal“ oder „umfassende Zugangsmöglichkeit“ übersetzen. Die Softwarelösungen, die in Onlinekatalogen integriert werden, um dieses Ziel zu erreichen, werden als Resource Discovery Systeme (RDS) oder auch Discovery-Dienste bzw. Discovery Services bezeichnet. Resource Discovery Systeme führen die verteilten Ressourcen einer Bibliothek in einem einzigen Index zusammen, so dass neben dem Katalogbestand auch die bislang in Katalogen fehlenden, aber in der Bibliothek verfügbaren Inhalte lizenzierter Datenbanken, Zeitschriftenartikel oder E-Books in der Trefferliste abgebildet werden können. Bei der Suche können die Daten aus den diversen Quellen durch den gemeinsamen Index in einer einzigen nach Relevanzkriterien sortierten Trefferliste angezeigt werden. Dadurch werden vor allem digitale Medien, deren Existenz vorher vornehmlich nur den erfahrenen oder entsprechend spezialisierten Benutzern bekannt war, leichter sichtbar und auffindbar. Einschränkend muss allerdings hinzugefügt werden, dass in vielen Fällen nicht alle in der Bibliothek zur Verfügung stehenden Informationsquellen tatsächlich in den aggregierten Index integriert werden können, was auf lizenzrechtliche, finanzielle oder technische Gründe zurückzuführen ist. Mit den indexbasierten Discovery Services wird die klassische Trennung zwischen Bibliothekskatalog und (bibliografischer) Datenbank aufgehoben. Im Index des Discovery Services können sich auch Titel befinden, die gar nicht im Bestand der Bibliothek enthalten sind, sondern durch Fernleihe oder durch ein Pay-per-View-Modell beschafft werden müssen. Um die alte Trennung dennoch sichtbar zu machen, bilden viele Bibliotheken die Trefferlisten in zwei Reitern ab, wobei der erste Reiter dem Inhalt des Bibliothekskatalogs entspricht und der zweite Reiter die Treffer aus dem übrigen Index anzeigt, oft gekennzeichnet als „Artikel und mehr“ oder mit ähnlicher Reiterbenennung.

Weitere Suchdienste 

277

Neben Open-Source-Lösungen wie dem von der Villanova University entwickelten VuFind sind auch von den kommerziellen Anbietern des Bibliothekswesens Discovery-Dienste auf dem Markt.

Ausgewählte Beispiele für frei zugängliche Wissensinfrastrukturen Frei zugängliche Wissensquellen im Internet gibt es in vielen Formen und aus vielerlei Motiven: mit und ohne direkte Beteiligung von Bibliotheken, aufgrund von Idealismus getragenen Privatinitiativen, aus gewerblichem Interesse, Sammlerleidenschaft oder wissenschaftlicher Passion. Exemplarisch werden nun einige Initiativen herausgehoben, die oft schon in den Geburtsjahren des Internets online gegangen sind. Das Project Gutenberg (PG) ist eine Anfang der 1970er Jahre ins Leben gerufene Non-for-Profit-Corporation nach US-amerikanischem Recht, dessen Gründer Michael Stern Hart ein früher, visionärer Verfechter des E-Books war und von vielen als dessen Erfinder betrachtet wird. Der Ausdruck Electronic Book wurde allerdings von Andries Van Dam, der in den 1960er Jahren an Hypertextsystemen forschte, die dann auch im Apollo-Mondlandeprogramm verwendet wurden, geprägt. Auch das Dynabook-Konzept von Alan Kay datierte aus den 1960er Jahren. Ob es „den“ Erfinder des E-Books gibt, ist umstritten (vgl. Ardito 2000). Noch in den Zeiten des Arpanets befasste sich Hart mit digitalisierten Texten und ihrer massenhaften Verbreitung. Elektronische Bücher waren für Hart ein effizienter Weg, Literatur möglichst vielen Menschen schrankenlos und kostenfrei zur Verfügung zu stellen. Harts Project-Gutenberg-Philosophie lag folgende Annahme zu Grunde: Anything that can be entered into a computer can be reproduced indefinitely. (Hart 2007)

Das Project Gutenberg begann nach eigener Angabe am 01. Dezember 1971 mit einer eingetippten, elektronischen Textversion der Unabhängigkeitserklärung der Vereinigten Staaten. Der Bill of Rights, die amerikanische Verfassung, die Bibel, Shakespeares Werke und andere urheberrechtsfreie Klassiker der Weltliteratur folgten unter Einsatz von Scannern nach und nach. Hart formulierte ein immaterielles Projektziel: The mission of Project Gutenberg is simple: To encourage the creation and distribution of eBooks. (Hart 2007)

278  3 Wege zum Wissen im Web

Die Arbeit am Project Gutenberg wird von Freiwilligen getragen. Jeder Interessierte ist zur Teilnahme zum Beispiel durch den Upload von Digitalisaten oder zum Korrekturlesen aufgerufen. In den letzten Jahren bot die Gutenberg-Website um die 50.000 freie E-Books zum Download in mehreren Formaten oder zum Onlinelesen an. Zusammen mit den Partnerprojekten kam Gutenberg auf über 100.000 E-Books. In Folge einer gerichtlichen Auseinandersetzung mit dem S. Fischer Verlag, die uns Gelegenheit gibt, das Urheberrecht in einem grenzüberschreitenden Fall zu betrachten, wurde der Zugriff auf Gutenberg.org Anfang 2018 vorübergehend für alle deutschen IP-Adressen gesperrt. Gegenstand des Rechtsstreits war die öffentliche Zugänglichmachung von Werken Thomas Manns, Heinrich Manns und Alfred Döblins, die nach US-amerikanischem Recht bereits gemeinfrei sind, nach deutschem Recht allerdings noch urheberrechtlichen Schutz genießen. Das Landgericht Frankfurt entschied in seinem Urteil vom 09. Februar 2018, Aktenzeichen 2-03 O 494/14, 2/03 O 494/14 und weitere, dass diese urheberrechtliche Nutzung nach deutschen Recht widerrechtlich ist. Zunächst hielt es mit Rücksicht auf den Auslandsbezug des Sachverhalts fest, dass [d]ie Beklagte […] die streitgegenständlichen Werke auch auf dem Gebiet der Bundesrepublik Deutschland gemäß § 19a UrhG öffentlich zugänglich gemacht [hat]. (Rn. 74)

Dazu führte das Gericht aus: Es ist zwischen den Parteien unstreitig, dass die streitgegenständlichen Werke von der Webseite der Beklagten auch aus Deutschland abrufbar sind. Nach Auffassung der Kammer richtet sich das Angebot der Beklagten auch an deutsche Nutzer, worauf die Aufnahme deutscher Werke, die teilweise in deutscher Sprache gehaltene Webseite sowie insbesondere der vor die E-Books geschaltete Hinweis, dass Werke „weltweit“ zur Verfügung gestellt werden sollen, hinweisen. (Rn. 75)

Im Folgenden stellte das Gericht fest, dass diese öffentliche Zugänglichmachung nach dem maßgeblichen deutschen Recht auch rechtswidrig war: Diese öffentliche Zugänglichmachung ist auch widerrechtlich im Sinne [des] UrhG. […] [Der Hinweis,] dass die streitgegenständlichen Werke jedenfalls in den USA gemeinfrei sind[,] rechtfertigt vorliegend allerdings nicht die öffentliche Zugänglichmachung der streitgegenständlichen Werke in Deutschland unter Außerachtlassung des Umstandes, dass die Werke in Deutschland noch urheberrechtlich geschützt sind. Die Auffassung der Beklagten [Project Gutenberg; Anmerkung der Verfasser] führte ansonsten dazu, dass die öffentliche Zugänglichmachung von Werken sich weltweit nach dem Ablauf des Urheberrechtsschutzes des Landes richten würde, in dem sich der Anbieter jeweils befindet. (Rn. 76)

Weitere Suchdienste 

279

Zudem habe sich die Beklagte die Inhalte auf ihrer Website zu eigen gemacht: […] Bei einem Betreiber eines Internetauftritts ist das der Fall, wenn er nach außen erkennbar die inhaltliche Verantwortung für die in seinem Internetauftritt veröffentlichten Inhalte übernommen oder den zurechenbaren Anschein erweckt hat, er identifiziere sich mit den fremden Inhalten. Ob ein Zu-Eigen-Machen vorliegt, ist aus der Sicht eines verständigen Durchschnittsnutzers auf der Grundlage einer Gesamtbetrachtung aller relevanten Umstände zu beurteilen. Dafür, dass der Diensteanbieter sich die fremden Informationen zu Eigen gemacht hat, spricht es, wenn er die von Dritten hochgeladenen Inhalte inhaltlich-redaktionell auf Vollständigkeit und Richtigkeit kontrolliert oder auswählt oder die fremden Informationen in das eigene redaktionelle Angebot einbindet […]. (Rn. 78)

Die Beklagte wurde dazu verurteilt, insbesondere die öffentliche Zugänglichmachung der in Frage stehenden Werke zu unterlassen, soweit Internetnutzern in Deutschland der Abruf möglich ist. Als Vorsichtsmaßnahme, um sich vor weiteren gerichtlichen Auseinandersetzungen zu schützen, hatte das Project Gutenberg zwischenzeitlich nicht nur den Zugriff auf die einzelnen Werke gesperrt, sondern die regionale Sperre, die auch als Geoblocking bezeichnet wird, eingerichtet. Mittlerweile wurde eine Sperre auf Werkebene implementiert. Zu den Partnerwebsites gehört auch Gutenberg-DE, das seit seiner Gründung 1994 von Spiegel.de gehostet wird. Gutenberg-DE gehört dem Unternehmen Hille & Partner, das die Onlinetexte werbefinanziert anbietet. Ein Download ist unentgeltlich allerdings nicht möglich. Hille & Partner vertreibt Datenträger der Gutenberg-DE-Gesamtausgabe auf DVD und USB-Stick gewerbsmäßig. Das Project Gutenberg hingegen ist auf Spenden angewiesen und wird von der Project Gutenberg Literary Archive Foundation getragen. Der britische Filmfan und Programmierer Colin Needham gründete 1990 die International Movie Data Base (IMDb) als Datenbank für Kinofilme und Fernsehproduktionen. Amazon.com machte die IMDb 1998 zu einer Tochtergesellschaft. 2018 hat die IMDb Informationen von rund vier Millionen Film- und Fernsehproduktionen, darunter über zwei Millionen TV-Episoden, und Einträge über acht Millionen beteiligter Personen verzeichnet. Zu den Kinofilmen sind multimediale Materialien wie Trailer und Fotos abrufbar. Die IMDb ist kommerziell ausgerichtet und dient Amazon hauptsächlich als Werbeplattform, stellt aber ein wichtiges Nachweisinstrument für Filme auch für Bibliotheken dar. Colin Nedham ist heute übrigens Geschäftsführer der IMDb. Seine frühere berufliche Tätigkeit bei Hewlett Packard als Programmierer hat er längst aufgegeben. Zu Beginn des Webs gab es in den Wörterbüchern oft noch keine Übersetzungen für Termini aus der Informationstechnologie. Um diese Lücke zu schließen, wurde 1995 nach einer Idee von Achim Jung das deutsch-englische Online-

280  3 Wege zum Wissen im Web

wörterbuch LEO auf einem Server der TU München gestartet. LEO steht für Link Everything Online. Das Markenzeichen von LEO ist das bayerische Wappentier, der Löwe. Ein kleines Wörterbuchteam und interessierte Benutzer bauten ihre oft privat gesammelten Wortschätze zu einem schnell wachsenden Onlinenachschlagewerk aus, das bald über den reinen IT-Wortschatz hinausging. Als der Einsatz freiwilliger Helfer nicht mehr ausreichte, wurde das werbefinanzierte LEO-Angebot um die Jahrtausendwende professionalisiert. 2006 kam es zur Ausgründung der LEO GmbH, die die Software auf eine leistungsfähigere Basis stellte und das Angebot um zusätzliche Dienste sukzessive erweiterte. Seit 2008 bietet LEO den Zugriff auf Wörterbücher für Englisch, Französisch, Spanisch, Italienisch und Chinesisch an. In Foren kann über die richtige Übersetzung von bestimmten Ausdrücken diskutiert werden. Wortschatztrainer und kostenpflichtige Sprachkurse ergänzen das im Übrigen kostenfreie Angebot, das bis heute um Wörterbücher für Russisch, Portugiesisch und Polnisch ergänzt wurde. Audiodateien zu den Wörterbucheinträgen erlauben den Nutzern, sich die korrekte Aussprache anzueignen. Während in den 1990er Jahren das Englischwörterbuch nur vier gleichzeitige Anfragen verarbeiten konnte, muss die Software heute über 10 Millionen Zugriffe täglich bewältigen. Durch die interaktive Teilnahme der Benutzer an Forendiskussionen und die Kostenfreiheit des Zugriffs nutzte LEO schon früh die Vorzüge des neuen Mediums Internet, um der Netzgemeinde eine stets aktuelle und lebendige Wissensbasis auf dem Gebiet der Fremdsprachenkompetenz zur Verfügung zu stellen. Die Wayback Machine des Internet Archives sammelt alte Websites. Die gemeinnützige Organisation mit Sitz in Kalifornien wurde von Brewster Kahle 1996 gegründet. Rund 332 Milliarden Webseiten werden unter anderem in einer ehemaligen Kirche in San Francisco archiviert und durchsuchbar gemacht. Gibt man in die Suchmaske eine URL ein, kann man sich über einen eingeblendeten Kalender die verfügbaren Archivseiten ansehen. Manchmal haben die gespeicherten Einträge auch eine hohe politische Relevanz, wie der FAZ-Redakteur Adrian Lobe (2015) anhand folgender Fälle illustrieren konnte: Nachdem eine Maschine der Malaysian Airlines am 17. Juli 2014 über der Ukraine abgeschossen wurde, postete der Separatistenführer Igor Girkin, auch bekannt als Strelkow, auf der russischen Social-Media-Plattform VKontakte folgenden Eintrag: „Wir haben gerade ein Flugzeug heruntergeholt, eine Antonow 26.“ Der Post war mit einem Video versehen, das erkennbar die Bilder eines Flugzeugwracks zeigt – es scheint die Boeing 777 der Malaysian Airlines zu sein.

Noch am gleichen Tag löschte der Verfasser seinen Post wieder. Dem Gedächtnis des Internets war er jedoch nicht entgangen. Lobe merkte dazu an:

Weitere Suchdienste 

281

Der einzige Beweis liegt in der Wayback Machine. Das Internet Archive ist ein reichhaltiger Fundus nicht nur für Forscher, sondern auch für Kriminalisten.

Lobe berichtete darüber hinaus von dem Fall, dass die britische Conservative Party alte Redemanuskripte offenbar aus politischen Gründen von ihrer Website gelöscht hatte, und resümierte: Das Internet Archive kämpft gegen das Vergessen an und schafft gleichsam eine neue Erinnerungskultur. Das, was die Wayback Machine zutage fördert, ist nicht durch GoogleAlgorithmen vorgefiltert und im Ergebnis nicht verzerrt. Es bildet das Netz in seiner Wirklichkeit ab.

Zweifeln an der Vereinbarkeit mit dem Urheberrecht wurden in der Entstehungszeit des Internet Archives im Verständnis einer umfassenden Zugangskultur die Überzeugung, dass das Internet ein Gedächtnis brauche, und eine große Portion Pragmatismus entgegengesetzt. Tatsächlich ist die damals befürchtete Klagewelle gegen das Erinnerungsprojekt und seine Wayback Machine ausgeblieben. In seiner mehr als zwanzigjährigen Geschichte ist das Internet Archive vielmehr zu einer wichtigen Infrastruktur für die Bewahrung der ephemeren Inhalte geworden. An der Archivierung des Webs arbeitet es mittlerweile mit über 450 Bibliotheken und anderen Partnern. Vergleichsweise neu sind dagegen die Aktivitäten der Deutschen Nationalbibliothek im Bereich der Webarchivierung. Erste technische Vorbereitungen auf das Webharvesting wurden im Jahr 2010 getroffen. Seit 2012 sammelt sie Webseiten in Auswahl und steht dabei nicht zuletzt vor einer Vielzahl ungelöster rechtlicher Fragen (als Überblick dazu Steinhauer 2015, 2016). Allein deshalb kann der transatlantische Vergleich nicht fruchten: Das Internet Archive agiert in einem anpassungsfähigeren, liberaleren Rechtsrahmen, als es der Deutschen Nationalbibliothek möglich ist. Dass Bibliotheken auch bedeutsame Fachdatenbanken selbst initiieren und unterhalten können, beweist die Pubmed der US National Library of Medicine. Die Geschichte der Datenbank geht bis in das 19. Jahrhundert zurück und zeigt exemplarisch die Medienbrüche und Veränderungen bei der Vermittlung wissenschaftlicher Fachinformation während der letzten 160 Jahre auf. Sie beginnt mit der Veröffentlichung der ersten Ausgabe der medizinischen Fachbibliografie Index Medicus (IM) am 31. Januar 1879 durch den Arzt und Bibliothekar John Shaw Billings, der als Leiter der Library of the Surgeon's General Office, United States Army mit Herausgabe der Bibliografie eine klaffende Lücke in der medizinischen Fachinformationsversorgung der USA schloss. Denn anders als Deutschland oder Frankreich hatten die USA zu dieser Zeit noch keine medizini-

282  3 Wege zum Wissen im Web

sche Bibliografie, wodurch Billings beim Verfassen seiner eigenen Doktorarbeit große Mühen entstanden waren. Der Index Medicus wertete damals rund 600 Fachzeitschriften aus und kam 1879 bereits auf 20.000 Artikel, die nach weiten Schlagworten geordnet verzeichnet wurden. Aufgrund der schnellen Entwicklung der Medizin gegen Ende des 19. Jahrhunderts und der damit verbundenen Publikationstätigkeit entschloss sich Billings zu monatlichen Supplementen und brach mit der Tradition der damals üblichen Jahrbücher. Billings baute in den 30 Jahren seiner Leitungstätigkeit den Bestand seiner Bibliothek von 2.500 auf über 200.000 Medien aus und machte sie bis 1895 zur größten medizinischen Fachbibliothek der Welt. 1956 wurde die Bibliothek, die Billings mit so viel Engagement ausgebaut hatte, in die U.S. National Library of Medicine (NLM) unbenannt. Später wurde sie in die National Institutes of Health eingegliedert und dem Gesundheitsministerium unterstellt. Nach dem Bezug eines neuen Gebäudes in Bethesda, Maryland, begann die Bibliothek mit der elektronischen Datenverarbeitung und erzeugte den Index Medicus ab 1964 computergestützt. Mit Einführung des Medical Literature Analysis and Retrieval Systems (MEDLARS) konnte der Index Medicus ab dem Jahrgang 1964 als bibliografische Datenbank direkt per Computer abgefragt werden. Kopien der Datenbank wurden auf Magnetbändern gespeichert und anderen Forschungseinrichtungen in den USA zugänglich macht. 1966 eröffnete die British Library das erste MEDLARS Center außerhalb der USA. Bibliotheken in 20 weiteren Ländern folgten, so dass dezentrale Kopien der Datenbank weltweit in Forschungseinrichtungen konsultiert werden konnten. 1971 ging MEDLARS online – damals noch ohne das Internet mittels eines proprietären Systems – und wurde daher in MEDLINE (Medical Literature Analysis and Retrieval System Online) umbenannt. 1979 stellten die über 800 Terminals des Medline-Netzwerks, die die Datenbank über Leitungen der Telekommunikationsunternehmen ansteuern konnten, rund eine halbe Million Anfragen an die Medline. Aufgrund der Komplexität der Datenbankabfragen, die Kenntnisse des Schlagwortregelwerks und der Suchkommandos in der Retrievalsprache verlangten, wurden die kostenpflichtigen Suchen in der Regel von Informationsspezialisten im Auftrag der Forschenden durchgeführt. Mittlerweile wuchs die Datenbank jährlich um rund 250.000 Artikel, die aus 2.500 Fachzeitschriften ermittelt wurden. 1988 wurde das National Center for Biotechnology Information (NCBI) mit der Zielsetzung, ein umfassendes, computergestütztes Wissensmanagementsystem auf dem Gebiet der Biomedizin und ihrer Nachbargebiete zu schaffen, gegründet und trug so den erweiterten Möglichkeiten der elektronischen Datenverarbeitung Rechnung, wovon auch die Medline profitierte.

Weitere Suchdienste



283

Inspiriert durch die neuen Möglichkeiten des Internets entschied man sich in den 1990er Jahren dazu, den bibliografischen Datenbestand der Medline seit dem Erscheinungsjahr 1966 über das neu geschaffene Portal Pubmed kostenfrei im Web zur Verfügung zu stellen. US-Vizepräsident Al Gore sagte bei der Pressekonferenz am 26. Juni 1997 anlässlich des Starts von Pubmed: This development […] may do more to reform and improve the quality of health care in the United States than anything else we've done in a long time. (zitiert nach National Center for Biotechnology Information 1997)

Abfragegebühren und professionelle Informationsvermittler gehörten nun der Vergangenheit an. Die Nutzung der Pubmed wuchs exponentiell. Die Medline umfasst heute über 28 Millionen Einträge mit dem Schwerpunkt Biomedizin. Die auszuwertenden Quellen, derzeit über 4.700 Fachzeitschriften, werden dabei von einer Kommission, dem Literature Selection Technical Review Committee (LSTRC), nach formalen und inhaltlichen Qualitätskriterien ausgesucht. Die gedruckten und auf Band erhaltenen Ausgaben des Index Medicus wurden nachträglich internetfähig gemacht: In den Jahren von 1996 bis 2014 wurden die Ausgaben des Index Medicus aus den zwei Jahrzehnten von 1946 bis 1965 mit ihren rund zwei Millionen Einträgen in den Onlinebestand aufgenommen. Die Ausgaben von 1946 bis 1963 wurden dabei von der Printausgabe retrodigitalisiert. Bei der Einspielung der Daten von 1964 und 1965 konnte die National Library of Medicine kurioserweise auf Hilfe aus Deutschland zurückgreifen. Wegen einer Formatänderung waren diese beiden Jahrgänge nicht mit der Medline ab 1966 kompatibel. Das Institut für Medizinische Dokumentation und Information (DIMDI) in Köln war damals deutsches MEDLARS Center und hatte die Originalmagnetbänder in eine kompatible Datenstruktur konvertiert. Die konvertierten 300.000 Einträge stellte sie der NLM 1996 zur Verfügung. Die gedruckte Fassung des Index Medicus wurde schließlich 2004, 125 Jahre nach der ersten von Billings erstellten Ausgabe, eingestellt. Die National Library of Medicine baut ihr Angebot rund um die Medline stetig weiter aus: In das Repositorium Pubmed Central werden frei zugängliche Artikel im Volltext aufgenommen. Es sind derzeit annähernd fünf Millionen Zeitschriftenartikel in Pubmed Central enthalten. Mit dem Portal Medline Plus werden unter dem Motto „Trusted Information for You“ vor allem medizinische Laien angesprochen, die sich über Gesundheitsthemen seriös und fundiert, aber in einer allgemein verständlichen Sprache informieren wollen. Die Datenbank ClinicalTrials.gov verzeichnet klinische Studien weltweit und beinhaltet derzeit Informationen von über 188.000 Studien aus über 200 Ländern. 2018 registrierte ClinicalTrials.gov nach eigenen Angaben 171 Millionen Seitenabrufe

284  3 Wege zum Wissen im Web

pro Monat. Insgesamt stellt die National Library of Medicine 148 Datenbanken zur Verfügung, unter anderem auch die Genomdaten von 20 Eukaryoten, 250 Bakterien- und 2.100 Virengenomen. Die in den Datenbanken der NLM aufgenommenen Einträge werden inhaltlich mithilfe der Medical Subject Headings (MeSH), einem Thesaurus der Medizin mit über 27.000 Deskriptoren, erschlossen. Die MeSH können ebenfalls kostenfrei heruntergeladen werden. Auch die sozialen Medien bedient die NLM: Neben einer Facebookpräsenz informiert sie über rund 15 Twitter-Hashtags und in 12 Blogs über aktuelle Entwicklungen auf dem Gebiet der Biomedizin. Auf YouTube werden Tutorials und Aufzeichnungen von Webinaren bereitgestellt. Auch Personen, die über keinen Onlinezugang verfügen, können in öffentlichen Büchereien medizinische Informationen der NLM erhalten. Das Beispiel der U.S. National Library of Medicine macht deutlich, welche aktive Rolle wissenschaftliche Bibliotheken in der modernen Informationsversorgung sowohl für die Fachcommunity als auch für die Öffentlichkeit spielen können. Heute konsultieren die Datenbanken der NLM täglich rund 2,5 Millionen Menschen gebührenfrei und weltweit über das Internet. Nicht ohne Stolz hieß es in der Begründung zur Beantragung des für das Jahr 2014 benötigten Budgets: NLM databases and systems promote scientific breakthroughs by playing a crucial role in all phases of this process. (U.S. National Library of Medicine 2016, S. 13)

Dass diese aktive und innovative Rolle einer Bibliothek ihren Preis hat, liegt auf der Hand: Der Gesamtetat der US-Bundesbehörde lag 2015 bei über 373 Millionen US-Dollar, das heißt bei rund 320 Millionen EUR. An dieser Stelle können wir noch ein paar Worte über das Datenbank-Infosystem DBIS und die Elektronische Zeitschriftenbibliothek EZB verlieren. Mit dem wachsenden, unübersichtlich werdenden Angebot an wissenschaftlichen Datenbanken entstand der Bedarf nach deren systematischer Verzeichnung. Anfang der 2000er Jahre wurde deshalb das kooperativ erstellte, an der Universitätsbibliothek Regensburg gehostete Datenbankverzeichnis Datenbank-Infosystem (DBIS) gegründet. Im Juni 2018 waren darin über 12.600 wissenschaftliche Datenbanken verzeichnet und beschrieben; davon sind rund 5.400 frei im Internet zugänglich. 2017 wurden rund 7,3 Millionen Zugriffe auf DBIS registriert. In DBIS wird die Lizenzinformation für die jeweilige Bibliothek angezeigt und auf die Ressource entsprechend verlinkt, so dass das Portal als Einstieg in die Datenbankrecherche für alle teilnehmenden Bibliotheken verwendet werden kann. Die Anzeige der Datenbanken erfolgt nach Auswahl der gewünschten Bibliothek bibliotheksspezifisch, so dass DBIS sowohl einen Katalog der Daten-

Weitere Suchdienste 

285

banken für eine Bibliothek bietet als auch eine Bibliografie der Datenbanken darstellt, wenn keine bestimmte Bibliothek ausgewählt wird. An der kooperativen Pflege des Informationssystems nehmen derzeit 328 Partnerbibliotheken vor allem aus Deutschland, Österreich und der Schweiz teil. In der Elektronischen Zeitschriftenbibliothek, die ebenfalls von der Universitätsbibliothek Regensburg technisch betreut und weiterentwickelt wird, verzeichnen über 620 teilnehmende Bibliotheken aus Deutschland, Österreich, der Schweiz, Tschechien und sechs weiteren Ländern ihre elektronischen Zeitschriften kooperativ und strukturiert. Wie auch DBIS dient die EZB als Bestandsnachweis für die einzelne Bibliothek. Im Juni 2018 waren in der EZB über 95.000 verschiedene Titel elektronischer Periodika verzeichnet, davon rund 20.000 reine Onlinezeitschriften. Ungefähr 60.000 Fachzeitschriften sind im Volltext frei im Internet zugänglich.

Literatur Ardito, Stephanie: Electronic Books. To “E” or not to “E”; that is the question. 2000, http:// www.infotoday.com/searcher/apr00/ardito.htm (05.06.2018). Bahr, Martin: The Wayback Machine und Google Cache – eine Verletzung deutschen Urheberrechts?, in: JurPC Internet-Zeitschrift für Rechtsinformatik und Informationsrecht, WebDok. 29/2002, Abs. 1–18, http://www.jurpc.de/jurpc/show?id=20020029 (24.06.2018). Bartlakowski, Katja: Urheberrecht für wissenschaftliche Bibliotheken. Bad Honnef, 2018. Baumann, Anina: Stärken und Schwächen von Discovery Diensten am Beispiel des EBSCO Discovery Service. 2011, http://www.htwchur.ch/uploads/media/CSI_49_Baumann.pdf (22.06.2018). Beinert, Tobias, Ulrich Hagenau und Anna Kugler: Es war einmal eine Website… - Kooperative Webarchivierung in der Praxis, in: o-bib 1 (2014), S. 291-304, https://www.o-bib.de/ article/view/2014H1S291-304/1152 (22.06.2018). Bitkom: Vier von fünf Internetnutzern recherchieren bei Wikipedia. 2016, https://www.bitkom. org/Presse/Presseinformation/Vier-von-fuenf-Internetnutzern-recherchieren-beiWikipedia.html (29.06.2018). Blake, John B. (Hrsg.): Centenary of Index medicus. 1879–1979. 1980, http://resource.nlm.nih. gov/7910473 (22.06.2018). Bradley, Phil: Expert Internet Searching. 5. Auflage. London, 2017. Breeding, Marshall: Next-Generation Library Catalogs, in: Library Technology Reports 43 (2007), Number 4, http://dx.doi.org/10.5860/ltr.43n4 (06.06.2018). Bundeszentrale für politische Bildung (Hrsg.): Den Durchblick behalten. So lassen sich Fake News enttarnen. 2017, http://www.bpb.de/252395/fake-news-enttarnen (20.06.2018). Burke, Peter: Die Explosion des Wissens: Von der Encyclopédie bis Wikipedia. Berlin, 2014. Bush, Vannevar: As We May Think, in: Nyce, James M. und Paul Kahn (Hrsg.): From Memex to Hypertext. Vannevar Bush and the Mind's Machine. San Diego, 1991, S. 85–110.

286  3 Wege zum Wissen im Web

Calhoun, Karen: The Changing Nature of the Catalog and its Integration with Other Discovery Tools. Final Report March 17, 2006. 2006, http://www.loc.gov/catdir/calhoun-reportfinal.pdf (22.06.2018). Deutsche Nationalbibliothek (Hrsg.): Zum Sammelauftrag der Deutschen Nationalbibliothek. 2017, http://www.dnb.de/SharedDocs/Downloads/DE/DNB/wir/zumsSammelauftrag. pdf?__blob=publicationFile (21.06.2018). Hart, Michael S.: The History and Philosophy of Project Gutenberg. 2010, https://www. gutenberg.org/wiki/Gutenberg:The_History_and_Philosophy_of_Project_Gutenberg_by_Michael_Hart (05.06.2018). Hart: Michael S.: Project Gutenberg Mission Statement. 2007, https://www.gutenberg.org/ wiki/Gutenberg:Project_Gutenberg_Mission_Statement_by_Michael_Hart (05.06.2018). Heussner, Ki Mae und Ned Potter: Wikipedia Blocks Church of Scientology From Editing Entries. 2009, http://abcnews.go.com/Technology/AheadoftheCurve/story?id=7708616 (05.06.2018). Hoeren, Thomas: Die „Wayback-Machine“. Was bringen Internetarchive für die Rechtspraxis?, in: MMR 2006, V. Hofstetter, Yvonne: Sie wissen alles. Wie intelligente Maschinen in unser Leben eindringen und warum wir für unsere Freiheit kämpfen müssen. München, 2014. Holland, Martin: Gutenberg.org: Aussperrung Deutschlands keine Rache, sondern Vorsichtsmaßnahme. 2018, https://www.heise.de/newsticker/meldung/Gutenberg-orgAussperrung-Deutschlands-keine-Rache-sondern-Vorsichtsmassnahme-3986049.html (05.06.2018). Kleinz, Torsten: Wikidata: Daten-Fundus für Wikipedia eröffnet. 2012, https://www.heise.de/ newsticker/meldung/Wikidata-Daten-Fundus-fuer-Wikipedia-eroeffnet-1740780.html (25.06.2018). Költzsch, Tobias: Wikipedia: NYPD soll Wiki-Einträge von Polizeiopfern relativiert haben. 2015, http://www.golem.de/news/wikipedia-nypd-soll-wiki-eintraege-von-polizeiopfern-relativiert-haben-1503-112962.html (05.06.2018). Kremp, Matthias: Lobbyisten-Affäre. Wikipedia sperrt mutmaßliche Manipulatoren aus. 2011, http://www.spiegel.de/netzwelt/web/lobbyisten-affaere-wikipedia-sperrt-mutmasslichemanipulatoren-aus-a-802478.html (05.06.2018). Kuhlen, Rainer: Offene Grenzen? Open Access und Peer-Reviewing. 2012, http://www.bpb.de/ gesellschaft/medien/wikipedia/145828/offene-grenzen (05.06.2018). Lobe, Adrian: Netz-Gedächtnis der Menschheit lagert in einer Kirche. 2015, http://www.faz. net/aktuell/feuilleton/medien/digitale-bibliothek-internet-archive-13614849.html (20.06.2018). Miles, Wyndham Davies: A history of the National Library of Medicine: the nation's treasury of medical knowledge. 1982, http://resource.nlm.nih.gov/8218545 (24.06.2018). National Center for Biotechnology Information: Vice President Launches PubMed, Lauds Free Medline Access, in: NCBI News August 1997, https://www.ncbi.nlm.nih.gov/Web/ Newsltr/aug97.html (22.06.2018). Nordemann, Wilhelm: Heimfallrecht und Rechtsverzicht im Urheberrecht, in: GRUR 1969, S. 127–130. Open Archives Initiative: Protocol for Metadata Harvesting. O.J., http://www.openarchives. org/pmh/ (05.06.2018). Pachali, David: Amnesie durch Urheberrecht. 2016, https://irights.info/artikel/amnesie-durchurheberrecht/28246 (21.06.2018).

Weitere Suchdienste 

287

Project Gutenberg Wiki: Partners, Affiliates and Resources. 2014, https://www.gutenberg.org/ wiki/Gutenberg:Partners,_Affiliates_and_Resources (23.09.2018). Project Gutenberg Wiki: Michael S. Hart. 2013, https://www.gutenberg.org/wiki/Michael_S. _Hart (23.09.2018). Pscheida, Daniela: Das Wikipedia-Universum. Wie das Internet unsere Wissenskultur verändert. Bielefeld, 2010. Roscher, Mieke: Fachdisziplinäre Bedürfnisse in der Gestaltung von Discovery-Lösungen: wirklich ein Katalog für alle?, 2014, http://edoc.hu-berlin.de/series/berliner-handreichungen/2014-356/PDF/356.pdf (22.06.2018). Schack, Haimo: Urheber- und Urhebervertragsrecht. 8. Auflage. Tübingen, 2017. Staas, Christia: Historiker Peter Haber: Je umstrittener, desto besser. Was taugen die Geschichtsartikel der Online-Enzyklopädie Wikipedia? Ein Gespräch mit dem Historiker Peter Haber. 2010, http://www.zeit.de/2010/28/Wikipedia-Daten (19.06.2018). Statistisches Bundesamt: Zahl der Woche vom 24. Juli 2012: 72 Prozent aller Internetnutzer vertrauen auf Online-Lexika. 2012, https://www.destatis.de/DE/PresseService/Presse/ Pressemitteilungen/zdw/2012/PD12_030_p002pdf (05.06.2018). Stegbauer, Christian und Elisabeth Bauer: Macht und Autorität bei Wikipedia, in: Kemper, Peter, Alf Mentzer und Julika Tillmanns (Hrsg.): Wirklichkeit 2.0. Medienkultur im digitalen Zeitalter. Stuttgart, 2012, S. 238–243. Steier, Henning: Wikipedia verstärkt Kampf gegen Sockenpuppen. 2014, http://www.nzz.ch/ mehr/digital/wikipedia-bezahlte-artikel-transparenz-1.18323901 (05.06.2018). Steinhauer, Eric W.: Netzpublikationen in der Nationalbibliothek. Speichern sollen heißt noch nicht speichern dürfen. 2016, https://irights.info/artikel/netzpublikationen-internetarchivierung-dnbg-urheberrecht/28112 (21.06.2018). Steinhauer, Eric W.: Wissen ohne Zukunft? Der Rechtsrahmen der digitalen Langzeitarchivierung von Netzpublikationen, in: Klimpel, Paul und Ellen Euler (Hrsg.): Der Vergangenheit eine Zukunft. Kulturelles Erbe in der digitalen Welt. Berlin, 2015, S. 142–155. Ulmer, Matthias: Elektronische Medien: vom Buchverleger zum Content Provider, in: UlmerEilfort, Constanze und Eva Inés Obergfell (Hrsg.): Verlagsrecht. Kommentar. München, 2013, Rn. 93–96. U.S. National Library of Medicine (Hrsg.): OLDMEDLINE Data. 2018, https://www.nlm.nih.gov/ databases/databases_oldmedline.html (22.06.2018). U.S. National Library of Medicine (Hrsg.): Pubmed Help. 2018, https://www.ncbi.nlm.nih.gov/ books/NBK3827/ (22.06.2018). U.S. National Library of Medicine (Hrsg.): Our Milestones. 2011, https://apps.nlm.nih.gov/175/ milestones.cfm (18.04.2015, archiviert unter https://web.archive.org/web/ 20161203074539/https://apps.nlm.nih.gov/175/milestones.cfm) (25.06.2018). U.S. National Library of Medicine (Hrsg.): 2016 Congressional Justification. o. J., https://www. nlm.nih.gov/about/2016CJ_NLM.pdf (24.06.2018). Wiebe, Andreas: UrhG § 8, in: Spindler, Gerald und Fabian Schuster (Hrsg.): Recht der elektronischen Medien. 3. Auflage. München, 2015, Rn. 1–12. Wikimedia Deutschland: Jahresbericht 2017. (2018), https://upload.wikimedia.org/wikipedia/ commons/9/91/WMDE_Jahresbericht_2017_de.pdf (21.08.2018). Wikimedia Foundation: 2016-2017 Annual Report. o.J., https://annual.wikimedia.org/2017/ (21.08.2018). Wikipedia (Hrsg.) (2018a): Wikipedia: Relevanzkriterien. 2018, https://de.wikipedia.org/wiki/ Wikipedia:Relevanzkriterien (18.06.2018).

288  3 Wege zum Wissen im Web

Wikipedia (Hrsg.) (2018b): Wikipedia: Was Wikipedia nicht ist. 2018, https://de.wikipedia.org/ wiki/Wikipedia:Was_Wikipedia_nicht_ist (18.06.2018). Wikipedia (Hrsg.) (2018c): Wikipedia: Wikiquette. 2018, https://de.wikipedia.org/wiki/ Wikipedia:Wikiquette (18.06.2018). Wikipedia (Hrsg.) (2018d): Wikipedia: Five pillars. 2018, https://en.wikipedia.org/wiki/ Wikipedia:Five_pillars (18.06.2018). Wikipedia (Hrsg.) (2018e): Wikipedia: Exzellente Artikel. 2018, https://de.wikipedia.org/wiki/ Wikipedia:Exzellente_Artikel (19.06.2018). Wikipedia (Hrsg.) (2018f): Kate Middletons Brautkleid. 2018, http://de.wikipedia.org/wiki/ Kate_Middletons_Brautkleid (19.06.2018). Wikipedia (Hrsg.) (2018g): Wikimedia Deutschland. 2018, https://de.wikipedia.org/w/index. php?title=Wikimedia_Deutschland&oldid=178045942 (01.07.2018). Wikiquote (Hrsg.): Wikiquote: Urheberrechte beachten. 2015, https://de.wikiquote.org/wiki/ Wikiquote:Urheberrechte_beachten (20.06.2018). Wiki-Watch (Hrsg.): Die erste Umfrage unter allen Wiki-Admins. 2010, http://blog.wiki-watch. de/?p=23 (19.06.2018).

Entscheidungen Oberlandesgericht Stuttgart, Urteil vom 02. Oktober 2013, Aktenzeichen 4 U 78/13. Landgericht Frankfurt am Main, Urteil vom 09. Februar 2018, Aktenzeichen 2-03 O 494/14, 2/ 03 O 494/14, 2-3 O 494/14, 2/3 O 494/14.

4 Wo Licht ist, ist auch Schatten Im Rampenlicht: Schattenbibliotheken Beginnen wir dieses Kapitel mit einer Infrastruktur, die den Schatten selbst im Namen trägt: Schattenbibliotheken. Sie sind Phänomene oder, wie ihr Bedeutungsgewinn in den letzten Jahren nahe legt, Institutionen, die zu erwähnen wir angesichts der Bemühungen um Open Content und der das Internet prägenden Gegensätzlichkeit von Exklusivitäts- und Zugangskultur keinesfalls vergessen dürfen. Ihren Versorgungsauftrag können viele Bibliotheken, wie im ersten Kapitel skizziert, als Folge der sogenannten Zeitschriftenkrise nicht mehr vollumfänglich erfüllen. Die uneingeschränkte Teilhabe aller Interessierten an wissenschaftlicher Erkenntnis zu ermöglichen ist hingegen das Ideal einer Bibliothek – und zur Motivation für die Schattenbibliotheken geworden. Als wohl die größte „Onlinebibliothek“ ihrer Art verschafft Sci-Hub seinen Lesern Zugang zu aktuell rund 67 Millionen Wissenschaftspublikationen – mit steigender Tendenz und, wie es die Zielsetzung bedingt, regelmäßig ohne Zustimmung der Rechteinhaber. Es genügt, zum Beispiel den Digital Object Identifier (DOI) der gesuchten Publikation in das Suchfeld auf der Sci-Hub-Plattform einzugeben, um im Handumdrehen darauf zugreifen zu können. Ist die Publikation auf Sci-Hub noch nicht verfügbar, stößt die Anfrage des Nutzers die Beschaffung des noch fehlenden Inhalts an. Hinter der Schattenbibliothek steckt eine Datenbankinfrastruktur, deren Inhalte insbesondere auf den Publikationsplattformen der Verlage gewonnen und von dort in die Schattenbibliothek eingespeist werden. Oft führt der Weg dabei mithilfe ausgespähter Zugangsdaten über die von Bibliotheken und anderen Informationseinrichtungen lizenzierten Angebote. Anfang 2017 enthielt das Repositorium über 80 Prozent der in kostenpflichtigen Zeitschriften veröffentlichten Beiträge. Das Angebot an Artikeln, die im closed bzw. toll access, das heißt nur gegen Entgelt, zugänglich waren, war auf Sci-Hub zu diesem Zeitpunkt größer als an der University of Pennsylvania. Fast das gesamte Angebot des Verlages Elsevier im Bereich der Zeitschriftenbeiträge war auf Sci-Hub verfügbar. Schon im Jahr zuvor ließ eine andere Zahl aufhorchen: In einer Untersuchung an der Universiteit Utrecht konnte gezeigt werden, dass 75 Prozent der dortigen Downloads aus dem Sci-Hub-Repositorium auf anderem Wege, insbesondere über die lizenzierten Zugänge der Universitätsbibliothek, erhältlich gewesen wären. Dennoch wählten die Nutzer Sci-Hub für ihre Informationsversorhttps://doi.org/10.1515/9783110338966-005

290  4 Wo Licht ist, ist auch Schatten

gung, weil, so wird in der Untersuchung vermutet, das Repositorium schnell und bequem zu nutzen ist. Die Schattenseite dieser Form der Informationsversorgung ist, das liegt auf der Hand, die Verletzung des Urheberrechts, die Leser (und Bibliothekare) nicht zuletzt vor informationsethische Fragen stellt. Als Instrument der GuerillaOpen-Access-Bewegung, die zur Verwirklichung des Open-Access-Gedankens auch widerrechtliche Wege zur Vermittlung eines freien Zugangs zu wissenschaftlicher Information zu beschreiten fordert und verteidigt, ist die Rechtswidrigkeit der Schattenbibliothek Existenzberechtigung und Funktionslogik zugleich. Dem geneigten Leser sei geraten, vom Abspeichern und Ausdrucken der über Sci-Hub verfügbaren Werke abzusehen. Selbst das bloße Lesen rechtswidrig zugänglich gemachter Werke dürfte angesichts der neueren Rechtsprechung des Europäischen Gerichtshofs zum Streaming widerrechtlich sein. Diskussionswürdig ist, welchen strukturellen Beitrag Sci-Hub zur Veränderung des wissenschaftlichen Publikationsmarktes zu leisten vermag. Die Gründerin der Schattenbibliothek, Alexandra Elbakyan, sieht darin ein Instrument, der Ungleichheit und Ungerechtigkeit im Zugang zu wissenschaftlicher Erkenntnis zu begegnen. Das Erfolgsmodell von Sci-Hub beruht auf der nach wie vor etablierten Exklusivitätskultur auf dem wissenschaftlichen Literatur- und Informationsmarkt, der trotz aller Bemühungen um Open Access bislang nicht mit uneingeschränkter Wirksamkeit beizukommen war. Die juristischen Anstrengungen, die Großverlage wie Elsevier unternehmen, um Sci-Hub zu bekämpfen, bezeugen deren Nervosität, aber auch die fehlende Bereitschaft und die Ideenlosigkeit, den Zugang zu Information und Wissen gerechter zu gestalten. Denn die Verlagshäuser profitieren von Fehlanreizen im wissenschaftlichen Reputationssystem, das die Leistung insbesondere nach dem für die Forschungsergebnisse gewählten (bzw. errungenen) Publikationsort und dem ihm zuerkannten wissenschaftlichen Einfluss, insbesondere übersetzt durch den sogenannten Impact Factor, bemisst (zur Komplexität der Wirkmechanismen, die hier nicht vollumfänglich dargestellt werden können, siehe zum Beispiel Eich 2017). In vielen Disziplinen führt deshalb noch kein Weg an den großen, marktbeherrschenden Unternehmen mit ihren umfangreichen Portfolios an anerkannten Fachzeitschriften, die sich ihr Renommee und die Qualität der veröffentlichten Beiträge von den Lizenznehmern teuer bezahlen lassen, vorbei. Zu diesem System ist die Schattenbibliothek Sci-Hub kein Gegenmodell. Sie ist vielmehr der Rebell, der den auf Erhalt des Status Quo besonnenen Profiteuren des Systems Stiche versetzt. Ob es Sci-Hub gelingen wird, bei den Akteuren des wissenschaftlichen Publikationssystems, den Verlagen, den Wissenschaftsorganisationen und allen voran auch den einzelnen Wissenschaftlern, die einerseits die Schattenbibliothek ausgiebig nutzen, andererseits das traditionelle

Dunklere Schattenseiten: Cybermobbing



291

System mit ihrem Publikationsverhalten perpetuieren, ein Umdenken zu bewirken, ist sehr ungewiss. Für die Transformation des Publikationsmarktes braucht es Konzepte, die mit dem guerillataktischen Ringen um den freien Zugang zu wissenschaftlichen Informationen Hand in Hand gehen.

Dunklere Schattenseiten: Cybermobbing Das Internet kennt freilich dunklere Schattenseiten als die Verletzung des Urheberrechts: Große mediale Beachtung erfuhr das Schicksal der kanadischen Schülerin Amanda Todd, die sich 2012 mit nur 15 Jahren das Leben nahm. Sie wurde bereits als 12-Jährige von einem Unbekannten erpresst, nachdem er – sich als Teenager ausgebend – das Mädchen zuvor überredet hatte, ihren Oberkörper vor der Webkamera zu entblößen. Der Täter drohte ihr anschließend damit, das Video im Internet zu verbreiten, falls sie ihm nicht weiteres Bildmaterial liefern würde. Als Amanda Todd standhaft blieb, veröffentlichte der Täter tatsächlich ein entsprechendes Bild auf einer Website, später auch auf Facebook und machte Todds Mitschüler gezielt darauf aufmerksam. Dadurch entstanden für das Mädchen so starke soziale Probleme in der realen Welt, dass ihre Familie sich genötigt sah, mehrfach umzuziehen. Auch nach dem zweimaligen Wechsel des Klassenverbandes hielten die Verfolgung durch den Erpresser und das reale Mobbing an. Amanda Todd bekam starke psychische Probleme, vereinsamte immer mehr und nahm sich nach einem ersten Suizidversuch, der von hämischen Kommentaren im Internet begleitet worden war, im Oktober 2012 das Leben. Einen Monat zuvor hatte sie auf YouTube ein 9-minütiges Video veröffentlicht, in dem sie ihre Geschichte wortlos mit Flashcards erzählte. Das Video wurde bisher über 12 Millionen Mal angeklickt. Eineinhalb Jahre nach dem Tod von Amanda Todd wurde in den Niederlanden ein 35-jähriger Mann in Gewahrsam genommen. Er soll Amanda Todd und weitere Mädchen auf vergleichbare Weise erpresst haben. Obwohl Amanda Todd wegen ihrer psychischen Probleme in Behandlung war und Polizei, Schule und Eltern über die Erpressung informiert waren, entfachte das Cybermobbing eine soziale Dynamik, die offensichtlich nicht in den Griff zu bekommen war. Cybermobbing und reales Mobbing gingen Hand in Hand: Sie erzeugten eine Lebenskrise, die ein Erwachsener vielleicht bewältigen hätte können. Einen Teenager wie Amanda Todd stürzte die Erfahrung des Ausgeliefertseins und der sozialen Isolation in eine als ausweglos erlebte Situation. Der Täter hingegen fühlte sich sicher, da er anonym und jenseits der Staatsgrenzen Kanadas agierte.

292  4 Wo Licht ist, ist auch Schatten

Gemäß der Definition stellt das Cybermobbing die Herabwürdigung einer nicht in der Öffentlichkeit stehenden Person im Internet dar. Es äußert sich als eine gezielte und wiederholte, oftmals anonym vorgenommene Verunglimpfung, Bloßstellung, Beleidigung, Belästigung oder Ausgrenzung des Betroffenen durch andere Internetnutzer. Die beabsichtigte Ehrverletzung lässt in der Regel jede Sachlichkeit vermissen. Deshalb tritt in der Abwägung zwischen Persönlichkeitsschutz und Meinungsäußerungsfreiheit die letztgenannte regelmäßig hinter dem Rechtsgut des Persönlichkeitsschutzes zurück. Die Täter bewegen sich zumeist in Foren und Chats, in sozialen Netzwerken oder Gästebüchern und verbreiten in Textform, als Bilder oder Videos herabwürdigende Inhalte, deren Wirkung mitunter durch Zuspruch anderer Beteiligter noch verstärkt wird. Im deutschen Strafrecht gibt es keinen eigenen, ausschließlich dem Cybermobbing vorbehaltenen Straftatbestand. Es können vielmehr verschiedene Straftatbestände wie zum Beispiel die Beleidigung, die Nötigung oder die Verletzung des höchstpersönlichen Lebensbereichs durch Bildaufnahmen Anwendung finden. Über mannigfache Formen von unterschiedlich schwerwiegenden Belästigungen im Cyberspace wurden 2014 im Rahmen der Untersuchung „Online Harassment“ des renommierten Pew Research Centers mehr als 2.800 erwachsene US-Bürger befragt. Dabei wurden folgende Formen des Internet Harrassment genannt: For all the benefits it bestows, the internet has a dark side. Recently, much attention has centered on online harassment. It is a phenomenon that can take a variety of forms: name-calling, trolling, doxing, open and escalating threats, vicious sexist, racist, and homophobic rants, attempts to shame others, and direct efforts to embarrass or humiliate people. (Duggan 2014, S. 10)

Unter Trolling (dt.: Trollen) wird das destruktive, antisoziale und provokative Verhalten von Internetteilnehmern, den sogenannten Trollen, verstanden, die gegen ernsthafte Diskussionen und Beiträge sticheln und mit extremen Aussagen provozieren und verletzen, ohne sachliches Interesse erkennen zu lassen. Nach einer Studie der kanadischen University of Manitoba korreliert das Trollverhalten mit sadistischem Verhalten (siehe Buckels, Trapnell und Paulhus 2014). Unerforscht ist, ob Trolle ihre bereits vorhandenen sadistischen Persönlichkeitszüge im Internet ausleben oder das Verhalten erst durch die Möglichkeit der Anonymität im virtuellen Raum gefördert wird. Das ebenfalls in der Aufzählung genannte Doxing meint das Aufspüren und Sammeln von persönlichen, nicht für die Öffentlichkeit bestimmten Informationen über ein Individuum mit dem Ziel, die gewonnenen Informationen im

Dunklere Schattenseiten: Cybermobbing 

293

Internet zu veröffentlichen. Motiv für das Doxing kann zum Beispiel eine Erpressung oder ein öffentliches Verächtlichmachen einer Person sein. In seiner aktuellen, repräsentativen Umfrage zum Online Harassment unter 4.248 erwachsenen US-Bürgern aus dem Jahr 2017 (siehe Duggan 2017) fand das Pew Research Center heraus, dass rund 40 Prozent der Befragten bereits persönlich Erfahrungen mit belästigendem Onlineverhalten anderer gemacht haben, wobei die Betroffenheitsrate junger Menschen bis zum Alter von 29 Jahren mit 67 Prozent signifikant höher lag. Auffällig viele Teilnehmer der Studie wurden bereits Zeugen von Cybermobbing. So gaben 66 Prozent an, dass sie Cybermobbing im Internet beobachtet haben. 39 Prozent wurden sogar Zeugen von schweren Formen des Mobbings wie Stalking, sexueller Belästigung oder Androhung von Gewalt. Bei den 18- bis 29-Jährigen waren es wiederum mehr, nämlich 86 Prozent bzw. 62 Prozent. Aufgrund der Erfahrungen mit dem beobachteten Cybermobbing gaben 27 Prozent an, davon Abstand genommen zu haben, etwas zu posten. 13 Prozent stellten die Nutzung des Onlinedienstes, bei dem sie das Mobbing beobachtet hatten, ein. Die Mehrheit der Befragten (62 Prozent) betrachtet Cybermobbing als schwerwiegendes Problem und 79 Prozent denken, dass die Onlinedienste die Pflicht haben, gegen Cybermobbing einzuschreiten. Eine besondere Rolle für die Befragten spielt die Anonymität im Internet. Etwa die Hälfte derjenigen, die online belästigt wurden, sagen, dass es sich bei ihrem jüngsten Mobbingfall um einen Fremden oder jemanden handelte, dessen wahre Identität sie nicht kannten. Im Allgemeinen sagen 89 Prozent der Amerikaner, dass die Möglichkeit, anonym online zu posten, schwerwiegende Belästigungen möglich macht. Für Deutschland gibt es zwar Studien über Cybermobbing. Deren Zahlen sind aber überwiegend nicht belastbar, da ihnen entweder keine repräsentativen Untersuchungen zugrunde lagen oder jeweils andere Definitionen von Cybermobbing verwendet wurden. Man geht davon aus, dass rund 13 Prozent der Schüler in Deutschland schon Erfahrungen als Mobbingopfer gemacht haben und davon ungefähr jeder Dritte langfristig an den Folgen leidet, was sich in Angstzuständen, Konzentrationsstörungen, Alkoholmissbrauch oder Suizidgedanken äußern kann. Tendenziell scheint die Zahl der Mobbingopfer in Deutschland von 2013 bis 2017 rückläufig zu sein, was auf die Aufklärungsarbeit in den Schulen und den höheren Grad der Medienkompetenz bei Eltern und Schülern zurückgeführt wird (vgl. Sadigh 2017).

294  4 Wo Licht ist, ist auch Schatten

Der Shitstorm als „Cybermobbing light“ Ein neues Phänomen der Social Media stellt der sogenannte Shitstorm dar. [Er] bezeichnet eine unvorhergesehene, anhaltende, über soziale Netzwerke und Blogs transportierte Welle der Entrüstung über das Verhalten öffentlicher Personen oder Institutionen, die sich schnell verselbstständigt und vom sachlichen Kern entfernt und häufig auch in die traditionellen Medien hinüber schwappt,

hielt die vierköpfige Jury um den Berliner Sprachwissenschaftler Anatol Stefanowitsch (2012, S. 1) fest, die den Shitstorm zum Anglizismus des Jahres 2011 gewählt hatte. Anders als beim Cybermobbing lässt sich beim Shitstorm der Bezug zum erregenden Ereignis, zum Stein des Anstoßes sozusagen, häufig zumindest indirekt noch herstellen. Doch auch bei dieser Form der Missfallensäußerung sind Beleidigungen und sonstige Unsachlichkeiten keineswegs selten. Der Shitstorm, gelegentlich auch mit dem Wort Internethetze übersetzt, richtet sich gegen Unternehmen beispielsweise wegen schlechter Serviceleistungen oder Produktmängeln, aber auch gegen Personen, vorzugsweise Politiker, Journalisten oder Prominente. Er ist darauf gerichtet, dem Ansehen der Betroffenen in der Öffentlichkeit zu schaden. Mag das ursprüngliche Anliegen auch seine Berechtigung haben, ist diese Form der aggressiven Meinungsäußerung häufig durch Missgunst motiviert und von mitunter sehr persönlichen Anfeindungen geprägt. Sie ist deshalb kaum geeignet, als diskurs- und lösungsorientierter Ausdruck der öffentlichen Meinung gewertet zu werden. Schon zu Beginn der 2000er Jahre hat das Bundesverfassungsgericht in einem Beschluss vom 09. Oktober 2001, Aktenzeichen 1 BvR 622/01 anlässlich der geplanten Veröffentlichung eines sogenannten Schuldnerspiegels im Internet die Prangerwirkung betont, die über das Internet weltweit verbreitete, unter Umständen nicht mehr auszulöschende Urteile dieser Art entfalten können: […] Das Internet ist ein weltumspannender, in schnellem Wachstum begriffener Zusammenschluss zahlreicher öffentlicher und privater Computernetze. Es ist für den Informationsaustausch zwischen bestimmten Teilnehmern verfügbar (etwa für die Versendung von e-mails), aber auch für die mit dem „Schuldnerspiegel“ beabsichtigte Kommunikation an eine unbestimmte und grundsätzlich unbegrenzte Öffentlichkeit. Die Nutzbarkeit wird durch eine Vielzahl von Suchdiensten erleichtert, die ein systematisches Auffinden einzelner Informationen aus großen Datenmassen erleichtern und es zum Beispiel erlauben, das Internet nach bestimmten Informationstypen oder konkreten Informationen durchzusehen und in kurzer Zeit die jeweils interessierende Information zu identifizieren. Es ermöglicht ferner spezifische Formen der Informationsverknüpfung unter Einbeziehung an-

Der Shitstorm als „Cybermobbing light“ 

295

derer im Netz verfügbarer Inhalte. Die Information kann für einen langen oder gar unbegrenzten Zeitraum bereitgehalten werden. (Rn. 31) Derartige Besonderheiten des Internet können dazu führen, dass eine Information schnell für alle verfügbar ist, die an ihr interessiert sind, und dass sie mit anderen relevanten Informationen leicht kombiniert werden kann. Es wird von den Zivilgerichten daher zu prüfen sein, ob die mit der im Internet erfolgenden öffentlichen Anprangerung einer Person als Schuldner verbundenen nachteiligen Wirkungen Besonderheiten bei der rechtlichen Würdigung, insbesondere bei der Abwägung mit den ebenfalls grundrechtlich geschützten Kommunikationsinteressen der Domain-Inhaber, bewirken. […] (Rn. 32)

An den Formulierungen des Bundesverfassungsgerichts lässt sich noch eine – für die Rechtsprechung der damaligen Zeit nicht ungewöhnliche – mangelnde Vertrautheit mit dem Internet ablesen. In dieser frühen Entscheidung gab das Bundesverfassungsgericht dann auch zu bedenken, dass […] die Zivilgerichte bei der rechtlichen Bewertung von Internetkommunikation inhaltlich Neuland betreten. (Rn. 31)

Die Abwägung zwischen der Meinungsäußerungsfreiheit auf der einen und dem Persönlichkeitsschutz auf der anderen Seite fällt beim Shitstorm in der Regel schwerer als beim sonstigen Cybermobbing. Die im Shitstorm geübte Kritik trägt nämlich zum öffentlichen Kommunikationsprozess, wie er durch das Grundrecht geschützt ist, bei. Gerade das Monieren unternehmerischen Handels dient oftmals einem berechtigten öffentlichen Informationsinteresse, hinter dem der Ehrschutz zurückstehen muss. Dabei darf die Meinung, wie das Bundesverfassungsgericht in seinem bekannten Soldaten-sind-Mörder-Beschluss vom 10. Oktober 1995, Aktenzeichen 1 BvR 1476/91, 1 BvR 1980/91, 1 BvR 102/92, 1 BvR 221/92 betonte, auch in der Form geäußert werden, die der Kritisierende als am wirksamsten erachtet: [Die Meinungsäußerungsfreiheit] gibt jedem das Recht, seine Meinung in Wort, Schrift und Bild frei zu äußern und zu verbreiten. Meinungen sind im Unterschied zu Tatsachenbehauptungen durch die subjektive Einstellung des sich Äußernden zum Gegenstand der Äußerung gekennzeichnet […]. Sie enthalten sein Urteil über Sachverhalte, Ideen oder Personen. Auf diese persönliche Stellungnahme bezieht sich der Grundrechtsschutz. Er besteht deswegen unabhängig davon, ob die Äußerung rational oder emotional, begründet oder grundlos ist und ob sie von anderen für nützlich oder schädlich, wertvoll oder wertlos gehalten wird […]. Der Schutz bezieht sich nicht nur auf den Inhalt der Äußerung, sondern auch auf ihre Form. Daß eine Aussage polemisch oder verletzend formuliert ist, entzieht sie nicht schon dem Schutzbereich des Grundrechts […]. Geschützt ist ferner die Wahl des Ortes und der Zeit einer Äußerung. Der sich Äußernde hat nicht nur das Recht, überhaupt seine Meinung kundzutun. Er darf dafür auch diejenigen Umstände wählen,

296  4 Wo Licht ist, ist auch Schatten

von denen er sich die größte Verbreitung oder die stärkste Wirkung seiner Meinungskundgabe verspricht. (Rn. 108)

Personen, die wie zum Beispiel Politiker in der Öffentlichkeit stehen, werden bei Äußerungen in Bezug auf ihre Amtswahrnehmung eine große Toleranz aufbringen müssen. So ist – als ein Beispiel jenseits des Shitstorms – die Beschimpfung eines Bundestagsabgeordneten als „Obergauleiter der SA-Horden“ durch den Versammlungsleiter einer dem rechten Spektrum zuzuordnenden Demonstration in Köln nach Einschätzung des Bundesverfassungsgerichts der Abwägung zwischen der Meinungsfreiheit des Äußernden und dem Persönlichkeitsrecht des Betroffenen noch zugänglich (siehe Beschluss des Bundesverfassungsgerichts vom 08. Februar 2017, Aktenzeichen 1 BvR 2973/14, Rn. 17). Werden jedoch die Grenzen zur Schmähung überschritten, entfaltet die Meinungsäußerungsfreiheit keinen grundrechtlichen Schutz mehr. Wegen dieses Verdrängungseffekts ist der Begriff der Schmähkritik allerdings eng auszulegen. Dient eine Äußerung nicht mehr der Auseinandersetzung in der Sache, sondern lediglich dazu, die betroffene Person bloßzustellen, herabzusetzen und zu diffamieren, ist die Grenze zur Schmähkritik genommen. Für die entsprechende Qualifikation einer Äußerung sind regelmäßig auch der Anlass und Zusammenhang, in dem die Äußerung getätigt wird, zu berücksichtigen. So twitterte ein Politiker der Grünen auf seinem privaten Account im sächsischen Landtagswahlkampf über einen Friseur, der für die Partei Alternative für Deutschland kandidierte, mit Verweis auf dessen Parteizugehörigkeit folgenden Boykottaufruf: „Ab sofort empfehle ich, nicht mehr zum Friseur G. in Leipzig zu gehen. Inhaber ist ein #AfDler. Man weiß nie, wo die Schere ansetzt“. Der Friseur wandte sich gerichtlich gegen diesen Tweet. Das Oberlandesgericht Dresden befand in seinem Urteil vom 05. Mai 2015, Aktenzeichen 4 U 1676/14 dazu: Der Kläger wird durch die Äußerung (…) nicht in seinen Persönlichkeitsrechten verletzt. Die Reichweite des als Rahmenrecht ausgestalteten Persönlichkeitsrechts wird beschränkt durch die Rechte Dritter, hier des aus Art. 5 Abs. 1 GG folgenden Rechts des Beklagten auf Meinungsfreiheit. Der Eingriff in das Persönlichkeitsrecht ist nur dann rechtswidrig, wenn das Schutzinteresse des Betroffenen die schutzwürdigen Belange der anderen Seite überwiegt. Wie bereits dargestellt gilt im politischen Bereich ein erheblich herabgesetzter Schutz. Nur Meinungsäußerungen, die aus unzutreffenden Tatsachengrundlagen hergeleitet werden oder die eine Schmähkritik darstellen, können ausnahmsweise unzulässig sein […]. Durch die angegriffenen Äußerungen wird der Kläger weder stigmatisiert noch sozial ausgegrenzt, da sie nicht auf eine Kritik seiner Arbeitsleistung abzielen, sondern auf die Partei, deren Kandidat er ist. Daher wird auch die Grenze zur Schmähkritik im Sinne einer unzulässigen Herabwürdigung der Person des Klägers nicht überschritten. (Rn. 25)

Cybermobbing und der Effekt der Deindividuation



297

Anders ging der Rechtsstreit einer früheren Landrätin und Abgeordneten im Bayerischen Landtag aus, die sich unter anderem gegen die Bezeichnung „durchgeknallte Frau“ in einer Kolumne im Onlineauftritt der Boulevardpresse gerichtlich wehrte, zu Ende. Zwar kam das Bundesverfassungsgericht auch in diesem Fall zu der Einschätzung, dass die Bezeichnung keine Schmähkritik darstelle. In der Abwägung zwischen der Meinungsfreiheit der Beklagten und dem allgemeinen Persönlichkeitsrecht der Beschwerdeführerin erkannte das Bundesverfassungsgericht in seinem Beschluss vom 11. Dezember 2013, Aktenzeichen 1 BvR 194/13 jedoch den Vorrang des Persönlichkeitsschutzes: Die Beklagte zielt hier vielmehr bewusst darauf, die Beschwerdeführerin nicht nur als öffentliche Person und wegen ihres Verhaltens zu diskreditieren, sondern ihr provokativ und absichtlich verletzend jeden Achtungsanspruch gerade schon als private Person abzusprechen. (Rn. 25) Angesichts dessen kann sich die Meinungsfreiheit nicht durchsetzen. Dabei ist zu berücksichtigen, dass es sich vorliegend um einen bewusst geschriebenen und als Verletzung gewollten Text handelt, der nicht Ausdruck einer spontanen Äußerung im Zusammenhang einer emotionalen Auseinandersetzung ist […]. Auch bleibt es der Beklagten unbenommen, sich – auch zugespitzt und polemisch – zu dem Verhalten der Beschwerdeführerin zu äußern. Die in den Intimbereich übergreifende Verächtlichmachung der Beschwerdeführerin durch die Beschreibung als „frustrierteste Frau“, die nicht mehr wisse „was wer was ist. Liebe, Sehnsucht, Orgasmus, Feminismus, Vernunft“ und ihre Bezeichnung als in diesem Sinne „durchgeknallt“ ist demgegenüber mit dem Schutz des allgemeinen Persönlichkeitsrechts der Beschwerdeführerin nicht mehr vereinbar. (Rn. 26)

Cybermobbing und der Effekt der Deindividuation Sozialpsychologen sehen in der Deindividuation ein entscheidendes Moment für das unethische Verhalten vieler Internetnutzer. Deindividuation ist definiert als Zustand und Prozeß der Reduzierung der Selbst-Identifizierbarkeit und Selbstaufmerksamkeit (Zimbardo 1995, S. 717). Eine Folge der Deindividuation ist unter anderem die Reduzierung von subjektiven Normvorstellungen, die zu einer „Schwellenerniedrigung für sonst unterdrücktes Verhalten“ (Six 2017) führen kann. Ein klassisches Experiment zur Deindividuationstheorie, das sogenannte Halloween-Experiment, wurde von Diener, Fraser, Beaman und Kelem 1976 in den USA durchgeführt. Bei dem Experiment wurden an Halloween Kinder, die an Haustüren um Süßigkeit baten (sogenannte „trick-or-treaters“), von einer vermeintlichen Hausfrau, einer Mitarbeiterin der Forscher, mit einer Schüssel voller Süßigkeiten im Wohnzimmer kurz allein gelassen. Die Hausfrau sagte ih-

298  4 Wo Licht ist, ist auch Schatten

nen, dass jeder nur ein Stück der Süßigkeiten nehmen dürfe. Die Forscher beobachteten heimlich, ob sich die Kinder an die Vorgabe hielten. In einer Anordnung des Experiments stellte die Frau den Kindern zuvor Fragen, die sie identifizierbar machten, zum Beispiel nach ihrem Namen, ihrem Wohnort oder ihrer Familie. In einer anderen Anordnung blieben die Kinder komplett anonym. Der Versuch wurde mit einzelnen Kindern und mit Gruppen von Kindern durchgeführt. Das Ergebnis der Verhaltensbeobachtung war signifikant unterschiedlich. Bei anonymen Gruppen hielten sich nur 40 Prozent an die Anweisung, nur ein Stück zu nehmen; manchmal wurde die ganze Schüssel entleert. Bei Gruppen, die nach ihrer Identität befragt worden waren, hielten sich 80 Prozent an die Anweisung, bei identifizierbaren einzelnen Kindern waren es 90 Prozent. Als gewichtiger Einflussfaktor für das Auftreten von Deindividuation werden Verantwortlichkeitshinweise genannt: Hat ein Individuum Anhaltspunkte dafür, dass es für sein Verhalten nicht verantwortlich gemacht werden kann, wächst bei ihm die Wahrscheinlichkeit für antisoziale Handlungen. Vor allem der Status der Anonymität zeigte in Studien der 1970er Jahre bei Versuchspersonen ein deutlich unsozialeres Verhalten als bei identifizierbaren Personen, obwohl die Persönlichkeitsmerkmale der Versuchspersonengruppen jeweils vergleichbar waren. Zimbardo folgert daraus: Bedingungen, die für Anonymität sorgen, verleiten Menschen dazu, aggressiv zu handeln oder sich auf andere Weise unsozial zu verhalten, wenn sie die Gelegenheit dazu erhalten. (Zimbardo 1995, S. 718)

Die Gelegenheit, das muss man im Fall des Cybermobbings wohl unumwunden attestieren, ist die Möglichkeit, im Social Web aus einer wahrgenommenen Anonymität heraus agieren zu können, ohne dafür Sanktionen durch Autoritäten oder Gegenmassnahmen des Opfers befürchten zu müssen. Tim Adams stellt in seinem Beitrag in der britischen Tageszeitung The Guardian „How the internet created an age of rage“ dementsprechend eine Beziehung zwischen Deindividuation und den digitalen Medien her: And it's [the deindividuation; Anmerkung der Verfasser] why under the cover of an alias or an avatar on a website or a blog – surrounded by virtual strangers – conventionally restrained individuals might be moved to suggest a comedian should suffer all manner of violent torture because they don't like his jokes, or his face. Digital media allow almost unlimited opportunity for wilful deindividuation. They almost require it. The implications of those liberties, of the ubiquity of anonymity and the language of the crowd, are only beginning to be felt. (Adams 2011)

Das Internet erlaubt seinen Teilnehmern gewissermaßen „by design“, ihre Identität verborgen zu halten.

Zwischen enthemmender und schützenswerter Anonymität 

299

Zwischen enthemmender und schützenswerter Anonymität Sehen wir das Internet als Hilfsmittel für Anonymisierung an, was es in vielen Kontexten zweifellos ist, dann müssen wir davon ausgehen, dass es Cybermobbing in all seinen erschreckenden Auswüchsen begünstigt. Zimbardo schrieb zur Rolle der begünstigenden Faktoren von Anonymität: Eine wichtige Schlussfolgerung ergibt sich aus diesen Forschungen: Jedwede Hilfsmittel oder Situationen, durch die sich ein Mensch anonym fühlt – als ob niemand weiß oder sich dafür interessiert, wer er ist – mindert sein Gefühl persönlicher Verantwortung und schafft so ein Potential für böse Taten. (Zimbardo 2007, S. 291)

Auf der anderen Seite kann aber nicht außer Acht gelassen werden, dass Anonymität die freie Meinungsäußerung im Netz erst ermöglicht und die sich Äußernden in Staaten mit repressiven Regimen vor Verfolgung schützt. Die anonyme Meinungskundgabe kann auch in anderen Kontexten durch ein berechtigtes Interesse an Geheimhaltung begründet sein. Erinnern wir uns an dieser Stelle noch einmal an das spickmich.de-Urteil des Bundesgerichtshofs vom 23. Juni 2009, Aktenzeichen VI ZR 196/08 bezüglich eines Bewertungsportals, auf dem Schüler ihre Lehrer anonym beurteilen konnten. Zur Zulässigkeit der anonymen Nutzung befand der Bundesgerichtshof in dieser Entscheidung: Die anonyme Nutzung ist dem Internet immanent […]. […] Eine Beschränkung der Meinungsäußerungsfreiheit auf Äußerungen, die einem bestimmten Individuum zugeordnet werden können, ist mit Art. 5 Abs. 1 Satz 1 GG nicht vereinbar. Die Verpflichtung, sich namentlich zu einer bestimmten Meinung zu bekennen, würde nicht nur im schulischen Bereich, um den es im Streitfall geht, die Gefahr begründen, dass der Einzelne aus Furcht vor Repressalien oder sonstigen negativen Auswirkungen sich dahingehend entscheidet, seine Meinung nicht zu äußern. Dieser Gefahr der Selbstzensur soll durch das Grundrecht auf freie Meinungsäußerung entgegen gewirkt werden […]. (Rn. 38)

Jugendmedienschutz im Internet In seiner langjährigen Rechtsprechung hat das Bundesverfassungsgericht den Kinder- und Jugendschutz wiederholt als „Ziel von bedeutsamem Rang“ und „wichtiges Gemeinschaftsanliegen“ (Beschluss des Bundesverfassungsgerichts vom 23. März 1971, Aktenzeichen 1 BvL 25/61, 1 BvL 3/62, Rn. 36), das verfassungsrechtlichen Schutz genießt, anerkannt. Das Regelungsziel des Jugendmedienschutzes ist es, der Gefährdung oder Beeinträchtigung der kindlichen und jugendlichen Entwicklung durch den Konsum von problematischen Medieninhalten zu begegnen. Den Bestimmungen

300  4 Wo Licht ist, ist auch Schatten

des Jugendmedienschutzes liegt seit 2003 das Modell der „regulierten Selbstregulierung“ zugrunde. Es sieht vor, die Eigenverantwortung der Rundfunk- und Telemedienanbieter zu stärken und über eine Mitgliedschaft in einer anerkannten Selbstkontrolleinrichtung potenziell problematische Inhalte im Wege einer freiwilligen Vorabkontrolle vor deren Ausstrahlung oder Veröffentlichung auf ihren gefährdenden Gehalt zu prüfen. Aufgrund der hohen Zahl an Internetanbietern und deren Heterogenität ist allerdings nicht zu erwarten, dass alle Anbieter potenziell jugendschutzgefährdender Telemedien diese Mitgliedschaft unterhalten und sich dem Prinzip der regulierten Selbstregulierung unterwerfen. Eine funktions- und entscheidungsfähige Medienaufsicht ist deshalb insbesondere unter den Bedingungen des Internets unentbehrlich. Der Jugendschutz im Internet wird insbesondere im Jugendmedienschutzstaatsvertrag (JMStV) geregelt, der bundesländerübergreifend eine einheitliche Rechtsgrundlage für den Jugendschutz in Telemedien und Rundfunk darstellt. Der Zweck des Staatsvertrages ist der einheitliche Schutz der Kinder und Jugendlichen vor Angeboten in elektronischen Informations- und Kommunikationsmedien, die deren Entwicklung oder Erziehung beeinträchtigen oder gefährden, sowie der Schutz vor solchen Angeboten in elektronischen Informations- und Kommunikationsmedien, die die Menschenwürde oder sonstige durch das Strafgesetzbuch geschützte Rechtsgüter verletzen. Der Jugendmedienschutzstaatsvertrag enthält einen zentralen Verbotskatalog, der neben den indizierten Angeboten insbesondere auch solche als unzulässig benennt, die – wie etwa schwer pornografische Inhalte (Pornografie mit Kindern oder Jugendlichen, Tieren oder unter Gewalt) – ausgewählte Straftatbestände erfüllen. Für Medieninhalte, die nicht generell verboten sind, jedoch in sonstiger Weise pornografisch sind, von denen eine schwere Jugendgefährdung ausgeht oder deren Jugendgefährdung durch die Bundesprüfstelle für jugendgefährdende Medien festgestellt worden ist (sogenannte Indizierung), hat der Anbieter sicherzustellen, dass sie lediglich Erwachsenen zugänglich sind. In diesen Fällen spricht der Jugendmedienschutzstaatsvertrag von der sogenannten geschlossenen Benutzergruppe. Die Anforderungen an diese Zugriffsbeschränkung hat der Bundesgerichtshof im Jahre 2007 in seiner nach dem gleichnamigen, streitgegenständlichen Angebot benannten Entscheidung ueber18.de präzisiert. Danach genügt ein Altersverifikationssystem, das Zugang zu pornografischen Inhalten im Internet nach Eingabe einer Personalausweis- oder Reisepassnummer sowie der Postleitzahl des Ausstellungsortes gewährt, den Anforderungen an die Geschlossenheit einer Benutzergruppe im Sinne einer effektiven Zugriffsbarriere nicht. Schließlich könnten sich Jugendliche in den Besitz von Ausweispapieren der Eltern oder anderer, erwachsener Bezugspersonen bringen und mit der Angabe der Personalausweisnummern die Altersverifikation umgehen. Im konkre-

Jugendmedienschutz im Internet 

301

ten Fall wurde die angegebene Ausweisnummer sogar lediglich auf deren Übereinstimmung mit den allgemeinen Regeln zur Bildung von Ausweisnummern sowie darauf geprüft, ob der genannte Ausstellungsort mit der in der Ausweisnummer enthaltenen Behördenkennzahl deckungsgleich war. Ob sich die Ausweisnummer tatsächlich einem Erwachsenen zuordnen ließ, wurde hingegen nicht geprüft. Zu einer anderen Einschätzung gelangte das Gericht auch nicht für den Fall, dass zusätzlich eine Adresse und Kreditkartennummer oder Bankverbindung anzugeben und ein geringfügiger Geldbetrag, etwa in Höhe von 4,95 EUR, zu zahlen ist, weil Jugendliche oftmals bereits Inhaber eines Girokontos seien, dessen Zahlungsvorgänge von den Eltern nicht regelmäßig geprüft würden. Als geeignete und zugleich zumutbare Altersverifikationssysteme wertete der Bundesgerichtshof in seinem Urteil vom 18. Oktober 2007, Aktenzeichen I ZR 102/05 hingegen Verfahren, […] die eine persönliche Identifizierung des Nutzers durch einen Postzusteller oder in einer Postfiliale (Post-Ident-Verfahren), in einer Verkaufsstelle oder mittels „IdentitätsCheck mit Q-Bit“ der Schufa Holding AG (Rückgriff auf eine bereits erfolgte persönliche Kontrolle durch ein Kreditinstitut) voraussetzen. Außerdem wird eine Authentifizierung des Kunden bei jedem einzelnen Aufruf von Inhalten oder Bestellvorgang verlangt. Dafür kommt insbesondere ein Hardware-Schlüssel (etwa USB-Stick, DVD oder Chip-Karte) in Verbindung mit einer PIN in Betracht, die dem Kunden persönlich (etwa per Einschreiben eigenhändig) zugestellt werden. (Rn. 34)

Hinsichtlich des Erfordernisses der persönlichen Identifizierung des Nutzers stellte das Gericht klar, dass damit nicht unweigerlich eine physische Begegnung verbunden sei. Vielmehr könnte der persönliche Kontakt auch „über bildschirmgestützte oder andere technische Mittel“ (Rn. 52) hergestellt werden. Anbieter entwicklungsbeeinträchtigender Angebote sind verpflichtet sicherzustellen, dass Kinder und Jugendliche bestimmter Altersgruppen diese üblicherweise nicht wahrnehmen können. Dieser Pflicht kann ein Anbieter beispielsweise dadurch entsprechen, dass er das Angebot mit einer Alterskennzeichnung versieht, die für Jugendschutzprogramme auslesbar ist. Insbesondere öffentliche Bibliotheken setzen Jugendschutzfilter ein, mit denen jugendproblematische Inhalte gefiltert, vom Zugriff ausgenommen oder nur altersgerecht zugänglich gemacht werden. Jugendschutzprogramme arbeiten oftmals mit einer Kombination aus verschiedenen Wirkungsmechanismen: Auf Positivlisten, auch Whitelists genannt, registrieren sie Angebote, die einer Begutachtung und Auswahl durch eine Redaktion unterzogen und als für Kinder und Jugendliche explizit geeignet bewertet worden sind. Anhand von Negativlisten, sogenannten Blacklists, werden hingegen Angebote vom Zugriff ausgeschlossen, die wie die von der Bundesprüfstelle für jugendgefährdende

302  4 Wo Licht ist, ist auch Schatten

Medien indizierten Angebote bei redaktioneller Prüfung als jugendschutzrelevant bewertet worden sind. Die automatisierte, algorithmenbasierte Klassifizierung filtert jugendproblematische Inhalte, die bestimmte, technisch auswertbare Kriterien erfüllen. Das Keyword-Blocking gilt als eine einfache, jedoch leicht zu umgehende Form der automatisierten Klassifizierung. Schließlich bietet die oben genannte Alterskennzeichnung des Anbieters im Quellcode der Webseite Orientierung für einen altersdifferenzierten Zugang. Einen hundertprozentigen Schutz können diese Programme freilich nicht bieten: So kann es passieren, dass unbedenkliche Inhalte durch einen Jugendschutzfilter vom Zugriff ausgenommen werden (sogenanntes Overblocking) oder beeinträchtigende Inhalte vom Filter übersehen werden (sogenanntes Underblocking). Anwendung finden sie ohnehin nur beim Aufruf von Webseiten. Bei der Nutzung zum Beispiel von Mail- oder Chatdiensten können sie nichts ausrichten. Auch User-generated Content, der beispielsweise über soziale Netzwerke verbreitet wird, stellt für Jugendschutzprogramme eine große Herausforderung dar. Ergänzende Bestimmungen zum Jugendmedienschutz finden sich insbesondere im Jugendschutzgesetz (JuSchG), das vorrangig den Jugendschutz bei Trägermedien in den Blick nimmt.

Das Internet als Propagandaplattform Internetnutzer pflegen ihre bereits in der analogen Welt gehüteten Vorurteile, Ressentiments und religiösen oder politischen Extremismen auch im Netz und erreichen auf diesem Wege einen vielfach höheren Verbreitungsgrad. Ohne das Internet könnten wir niemals so viele junge Menschen für unsere Theorien und Ideen interessieren. Es ist billig, schnell und sauber. Wir lieben es.

Mit diesen zynischen Worten wird die Webmasterin vom Holocaustleugner Ernst Zündel zitiert (nach Staudt und Radke 2014). Das Internet ist für Extremisten die Propagandaplattform der Wahl geworden. So resümierten Toralf Staudt und Johannes Radke (2014) über die zahlreichen Onlineaktivitäten des deutschen Rechtsextremismus: Heute braucht man als Rechtsextremist kaum noch Geld, um Propaganda im Netz zu betreiben. Das Internet ist ein preiswertes und weit reichendes Kommunikationsmittel. Ein einfacher Computer und ein Internetanschluss reichen aus. Über die letzten Jahre wuchs die Zahl rechtsextremer Websites rasant, allerdings, wie gern übersehen wird, langsamer als das Internet insgesamt. Laut der Beobachtungsstelle Jugendschutz.net gibt es derzeit

Das Internet als Propagandaplattform 

303

rund 1.500 rechtsextreme Seiten. Allein die NPD betreibt demnach mehr als 200 Homepages, hinzu kommen knapp 140 einschlägige Online-Versandhändler. Neonazis verbreiten ihre Filme auf YouTube, beim Online-Radio LastFM mit Millionen Nutzern weltweit haben zahlreiche Szene-Bands eigene Profile, die NPD twittert live von ihren Bundesparteitagen und Aufmärschen. Bei Seiten wie Facebook, Jappy oder Wer-kennt-wen finden sich tausende rechtsextreme Profile.

Dabei stellt sich für die Strafverfolgung als Herausforderung dar, dass diesen Onlineaktivitäten oftmals grenzüberschreitende Sachverhalte zugrunde liegen. Für die Anwendbarkeit des deutschen Strafrechts ist jedoch das Territorialitätsprinzip maßgeblich. Danach ist deutsches Strafrecht ungeachtet der Nationalität des Täters anzuwenden, wenn der entsprechende Tatort im Inland belegen ist. Zum Ort der Tat besagt § 9 Absatz 1 Strafgesetzbuch (StGB): Eine Tat ist an jedem Ort begangen, an dem der Täter gehandelt hat oder im Falle des Unterlassens hätte handeln müssen oder an dem der zum Tatbestand gehörende Erfolg eingetreten ist oder nach der Vorstellung des Täters eintreten sollte.

Tatortbegründend können mithin sowohl der Handlungs- als auch der Erfolgsort der Tat sein. Bei Sachverhalten mit Internetbezug stellt eben die Bestimmung in § 9 StGB oftmals eine Schwierigkeit dar. Diese strafanwendungsrechtliche Problematik lässt sich an einem Fall, mit dem sich der Bundesgerichtshof im Jahr 2014 befasst hat und mit dem wir einen kurzen Abstecher ins Strafrecht wagen (umfassend zu den strafrechtlichen Aspekten der sozialen Medien Esser 2015), illustrieren: Das Landgericht Coburg hatte festgestellt, dass der Angeklagte im April 2011 von einem in Tschechien belegenen Computer aus auf YouTube einen Kanal mit dem Namen „Arische Musikfraktion“ gegründet und in den Kanal unter anderem Abbildungen von Hakenkreuzen eingestellt hatte. Während der Betriebsdauer des Kanals wurden die Inhalte von mindestens zwei Nutzern aus Deutschland abgerufen. Der Bundesgerichtshof entschied in seinem Beschluss vom 19. August 2014, Aktenzeichen 3 StR 88/14 jedoch mit Rücksicht auf den Auslandsbezug der Tat, dass sich der Angeklagte nicht wegen der Verwendung von Kennzeichen verfassungswidriger Organisationen strafbar gemacht habe: Durch das Einfügen von Hakenkreuzen in die von ihm eingerichtete Internetplattform „Arische Musikfraktion“ […] verwendete der Angeklagte Kennzeichen verfassungswidriger Organisationen […] zwar öffentlich (§ 86a Abs. 1 Nr. 1 StGB). Da er dies in Tschechien tat, fehlt es jedoch an dem Tatbestandsmerkmal der Inlandstat im Sinne dieser Vorschrift. Dessen Auslegung bestimmt sich nach §§ 3, 9 StGB. Danach muss im Inland entweder die Tathandlung begangen bzw. unterlassen worden oder ein zum Tatbestand gehörender Erfolg eingetreten bzw. beabsichtigt gewesen sein (§ 9 Abs. 1 StGB). (Rn. 7)

304  4 Wo Licht ist, ist auch Schatten

a) Das abstrakte Gefährdungsdelikt des § 86a StGB […] umschreibt keinen zum Tatbestand gehörenden Erfolg, so dass eine Inlandstat über § 9 Abs. 1 Var. 3 oder 4 StGB nicht begründet werden kann. Selbst wenn man der Ansicht zustimmen wollte, dass die Frage nach dem Erfolgsort im Sinne des § 9 Abs. 1 StGB normspezifisch am Schutzzweck der jeweiligen Strafvorschrift ausgerichtet werden muss […], die Regelung mithin nicht nur auf Erfolgsdelikte im Sinne der allgemeinen Deliktslehre abstellt, ist jedenfalls an dem Ort, an dem die hervorgerufene abstrakte Gefahr in eine konkrete umgeschlagen ist oder gar nur umschlagen kann, kein zum Tatbestand gehörender Erfolg eingetreten […]. Dieser muss vielmehr in einer von der tatbestandsmäßigen Handlung räumlich und/oder zeitlich abtrennbaren Außenweltsveränderung bestehen […]. Das Argument, diese Auffassung konterkariere die Bemühung, den Schutz bestimmter Rechtsgüter durch die Schaffung von abstrakten Gefährdungsdelikten zu erhöhen […], vermag nicht zu überzeugen. Gerade die diesen Schutz ausmachende Vorverlagerung der Strafbarkeit kann Anlass sein, diese – schon mit Blick auf völkerrechtliche Fragen […] – nicht ausnahmslos auf Sachverhalte mit internationalem Bezug zu erstrecken. […] (Rn. 8) b) Der Angeklagte hat auch allein im Ausland gehandelt (§ 9 Abs. 1 Var. 1 StGB). Der Handlungsort wird bei aktivem Tun durch den Aufenthaltsort des Täters bestimmt […]. Schon deshalb vermag die Ansicht nicht zu überzeugen, nach der ein Handlungsort auch dort gegeben sein soll, wo die durch mediale Übertragung transportierte Handlung ihre Wirkung entfaltet […]. Der Radius der Wahrnehmbarkeit einer Handlung ist nicht Teil ihrer selbst […]. Aus denselben Erwägungen kommt es auch nicht in Betracht, den Standort des vom Täter angewählten Servers für ausschlaggebend zu erachten […]. (Rn. 9)

Auch eine Strafbarkeit aus Unterlassen lehnte der Bundesgerichtshof ab: c) Der Angeklagte hat sich dadurch, dass er als Betreiber der Plattform es im Inland unterlassen hat, die von ihm eingestellten Kennzeichen wieder zu entfernen, auch nicht gemäß § 86a Abs. 1 Nr. 1, § 13 StGB strafbar gemacht. Unabhängig von den Fragen, ob § 13 StGB überhaupt auf abstrakte Gefährdungsdelikte Anwendung findet und ob eine Pflicht zur Abwehr von Gefahren bestehen kann, die durch eigenes vorsätzliches Verhalten hervorgerufen wurden […], fehlt es angesichts der bereits objektiven Tatbestandslosigkeit des Vorverhaltens jedenfalls an der eine Garantenstellung begründenden Pflichtwidrigkeit. (Rn. 11)

Bezüglich der in Frage stehenden Taten sprach der Bundesgerichtshof den Angeklagten frei, ohne allerdings einen Hinweis auf die strafanwendungsrechtliche Problematik des Falles vermissen zu lassen: d) Da die diesem Fall zugrundeliegenden Feststellungen rechtsfehlerfrei getroffen wurden und weitere Feststellungen, die eine Verurteilung des Angeklagten rechtfertigen könnten, nicht zu erwarten sind, spricht der Senat den Angeklagten insoweit frei […]. Er verkennt nicht, dass seine Auffassung dazu führen kann, dass Personen – wie vorliegend der Angeklagte – gezielt die Grenze überqueren werden, um Kennzeichen in das Internet einzustellen, deren Verwendung im Inland mit Strafe bedroht wäre. Es ist jedoch Aufgabe des Ge-

Das Netzwerkdurchsetzungsgesetz



305

setzgebers, diese Strafbarkeitslücke zu schließen, falls er dies für erforderlich erachtet. (Rn. 12)

Der Bundesgerichtshof weist mit diesen Worten auch auf die Problematik hin, dass die Beurteilung eines Verhaltens als strafwürdig nicht in allen Staaten zu übereinstimmenden Ergebnissen kommt. Während in Deutschland beispielsweise die Auschwitzlüge strafbewehrt ist, fällt sie in den USA unter den Schutz der Meinungsfreiheit. Eine von der Strafverfolgung (zunächst) losgelöste Frage ist, wie Internetunternehmen mit rechtswidrigen Inhalten auf ihren Plattformen umgehen. In einem Monitoring von Beschwerdemechanismen der Plattformen Facebook, YouTube und Twitter fand jugendschutz.net, das Kompetenzzentrum von Bund und Ländern für den Jugendschutz im Internet, in den Jahren 2016 und 2017 heraus, dass die Löschung rechtswidriger Inhalte auf den drei Plattformen recht unterschiedlich gehandhabt wird (siehe jugendschutz.net 2017). Von den 540 in den Monitoringzeiträumen ermittelten und an die Plattformen über einen Standard-User-Account gemeldeten, strafbaren Inhalten wurden innerhalb weniger Tage auf Facebook 39 Prozent, auf YouTube 90 Prozent und auf Twitter lediglich 1 Prozent gelöscht. Erst nach wiederholter Meldung als akkreditierter Nutzer oder im direkten E-Mail-Kontakt wurden weitere Löschungen veranlasst. Die Löschquote nach allen ergriffenen Maßnahmen zur Meldung strafbarer Inhalte lag in den Untersuchungszeiträumen schließlich für Facebook bei 93 Prozent, für YouTube und Twitter bei je 100 Prozent. Eine Löschung rechtswidriger Hassbeiträge innerhalb von 24 Stunden, wie sie mit den Plattformbetreibern im Rahmen der 2015 vom Bundesministerium der Justiz und für Verbraucherschutz ins Leben gerufenen Task Force „Umgang mit rechtswidrigen Hassbotschaften im Internet“ vereinbart worden war, wurde lediglich auf YouTube umgesetzt. Allerdings ergab die Untersuchung, dass YouTube im Unterschied zu den beiden anderen Plattformen lediglich angemeldeten Usern die Möglichkeit bot, rechtswidrige Hassbeiträge zu melden.

Das Netzwerkdurchsetzungsgesetz: ein Instrument gegen Hate Speech und Fake News im Social Web Diese insgesamt wenig zufriedenstellende Löschpraxis der Plattformbetreiber veranlasste den Gesetzgeber zur Verabschiedung des Gesetzes zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (Netzwerkdurchsetzungsgesetz vom 01. September 2017, abgekürzt NetzDG). Es verpflichtet Plattformbetreiber unter Androhung empfindlicher Bußgelder im Falle der Zuwiderhandlung

306  4 Wo Licht ist, ist auch Schatten

dazu, ein wirksames und transparentes, leicht erkennbares, unmittelbar erreichbares und ständig verfügbares Verfahren für die Meldung und Behandlung von Beschwerden über rechtswidrige Inhalte bereitzustellen. Offensichtlich rechtswidrige Inhalte sind nach den Bestimmungen des Gesetzes in der Regel innerhalb von 24 Stunden nach Eingang der Beschwerde zu löschen oder unzugänglich zu machen. Für Inhalte, deren Rechtswidrigkeit nicht offensichtlich ist, sieht das Gesetz eine siebentägige Prüf- und Löschfrist vor. In Einzelfällen darf diese Frist zugunsten einer verlässlichen rechtlichen Prüfung und zur Vermeidung des sogenannten Overblockings überschritten werden. Die Eile, mit der das Gesetz kurz vor Ende der 18. Legislaturperiode am letzten regulären Sitzungstag des Bundestages verabschiedet und einer breiten gesellschaftlichen Debatte entzogen worden ist, wurde von der Opposition im Bundestag verschiedentlich moniert. In der politischen Diskussion wurde an den kurzen Löschfristen, die die Plattformbetreiber zur vorsorglichen Löschung von gegebenenfalls auch rechtmäßigen Inhalten mangels hinreichender Gelegenheit zur rechtlichen Würdigung verleiten könnten, ohne dass ein Wiederherstellungsanspruch für unbegründet gelöschte Inhalte besteht, harsche Kritik geübt. Auch die den Anbietern auferlegte Prüfpflicht selbst, die deren juristische Kapazität überschreiten dürfte und, so die Befürchtung der Opposition, zur Privatisierung der den Gerichten vorzubehaltenden Entscheidung über Strafbarkeiten führe, wurde angegriffen. Der Kritik versucht das Gesetz mit einer Struktur zur freiwilligen Selbstkontrolle nach dem Vorbild der aus dem Jugendmedienschutz bekannten regulierten Selbstregulierung, der die Entscheidung über die Rechtswidrigkeit übertragen werden kann, entgegenzutreten. Einen ersten Anhaltspunkt zur Beurteilung der Wirksamkeit der neuen rechtlichen Regelungen dürften die Berichte der Anbieter über den Umgang mit Beschwerden über rechtswidrige Inhalte auf ihren Plattformen geben. Zu deren halbjährlicher Erstellung und Veröffentlichung sind sie unter den im Gesetz näher benannten Voraussetzungen erstmalig für das Halbjahr 2018 verpflichtet. Dass bereits wenige Monate nach Inkrafttreten des Gesetzes bereits Reformbedarf an der geltenden Rechtslage bestehe, lässt sich jedoch schon vor Bekanntwerden der Berichte selbst aus Regierungskreisen vernehmen. Allerdings darf nicht außer Acht gelassen werden, dass es nicht das Internet und seine Anwendungen sind, die radikalisieren. Als Transportmedium spiegelt es lediglich gesellschaftliche Strömungen und macht diese sichtbar. Kerstin Radde-Antweiler, damalige Juniorprofessorin am Institut für Religionswissenschaft und Religionspädagogik der Universität Bremen, äußerte sich dementsprechend zu religiösem Extremismus im Netz:

Cyberkriminalität und Cyberwar



307

Medienwissenschaftlich würde ich davon abraten, das Medium Internet oder das SocialWeb als Ursache für bestimmte Wirkungen zu nehmen. Denn Facebook radikalisiert nicht. Genauso wenig wie Twitter an sich radikalisiert oder das World Wide Web radikalisiert. Es muss dorthin gehend viel differenzierter geschaut werden, nämlich dass Mediatisieren nur ein Aspekt von soziokulturellem Wandel ist oder religiösem Wandel. Daneben steht Globalisierung, Individualisierung oder aber auch Kommerzialisierung. Und nur in diesem Geflecht kann man wirklich verstehen, wie auch radikale Gruppierungen sich wandeln und überhaupt entstehen. (zitiert nach Engel 2012)

Cyberkriminalität und Cyberwar Während die Computerkriminalität auch ohne Internet möglich ist, geschehen bei der Internetkriminalität die Straftaten direkt im Internet oder werden mit Hilfe von Internettechnologien begangen. Computer- und Internetkriminalität werden unter dem Oberbegriff Cyberkriminalität (engl. cybercrime) zusammengefasst. Zur Cyberkriminalität zählen auch die Straftaten, die gegen die Integrität einer Informationsinfrastruktur gerichtet sind. Die Verfolgung von Cyberstraftaten wird durch die Internationalität des Internets maßgeblich erschwert. Die Bekämpfung grenzüberschreitender Cyberkriminalität liegt insbesondere in der Zuständigkeit von Interpol und Europol. Hinzu treten institutionalisierte Formen der justiziellen Zusammenarbeit zur Bekämpfung von Cyberkriminalität in der Europäischen Union. Die Budapester Konvention, die sogenannte Cybercrime-Konvention, vom 08. November 2001 sieht die Pflicht der mittlerweile 55 Unterzeichnerstaaten vor, ihre nationalen Strafrechtsordnungen hinsichtlich der Cyberstraftaten zu harmonisieren. Das Abkommen sieht sowohl Vorgaben für konkrete Straftatbestände als auch verfahrensrechtliche Maßgaben vor. Darüber hinaus vereinbaren die Unterzeichnerstaaten, in der Strafverfolgung enger zusammenzuarbeiten (dazu näher Goger und Stock 2017). Als Übereinkommen des Europarates stellt die CybercrimeKonvention einen völkerrechtlichen Vertrag dar, der von den beitretenden Staaten unterzeichnet und in nationales Recht umgesetzt wird. Der Begriff Cyberwar zeugt von einer Militarisierung des Internets, die seit einigen Jahren zu beobachten ist und den ursprünglich zivilen Raum des Internets okkupiert (siehe Assange, Appelbaum, Müller-Maguhn und Zimmermann 2013, S. 40). Staaten oder andere Organisationen bedienen sich sogenannter Cyberwaffen wie zum Beispiel Computerviren, Trojaner oder Botnetze als Netzwerke aus mit Schadsoftware infizierten Computern, die ferngesteuert und konzertiert gegen ein bestimmtes Ziel verwendet werden können. Mit deren Verwendung

308  4 Wo Licht ist, ist auch Schatten

beabsichtigen sie, den Gegner zu sabotieren, zu manipulieren, auszuspähen oder seine Verwundbarkeit offenzulegen und dadurch Angst zu erzeugen. Auch wirtschaftliche Interessen und die damit verbundene Wirtschaftsspionage sind eine wichtige Motivation für angreifende Staaten. Beispiele für Cyberattacken gibt es in der jüngeren Vergangenheit: die im ersten Kapitel erwähnte Stuxnet-Attacke gegen den Iran oder die Attacke gegen staatliche Organe in Estland im Jahr 2007 (siehe Jiménez 2010). Potenzielle Angriffsziele im Cyberwar sind nicht nur Computer oder Netzwerkkomponenten, sondern auch beispielsweise Versorgungsinfrastrukturen oder Konstruktionsunterlagen. Attacken auf Kraftwerke, die Wasserversorgung oder die Flugsicherung könnten einer Gesellschaft erheblichen Schaden zufügen. Auch der Diebstahl von Konstruktionsunterlagen beinhaltet ein großes Schadenspotenzial. Länder wie Deutschland, die stark vom Export abhängig sind, könnten durch gestohlene Unterlagen empfindliche Exporteinbußen erleiden, da die ursprünglichen Zielländer mittels der erspähten Materialien die gewünschten Produkte auch selbst herstellen könnten. Gerade am Beispiel der Wirtschaftsspionage sieht man, dass die Grenzen zwischen Cyberwar und Cyberkriminalität meist fließend sind. Nicht ohne Grund vergleicht daher der Philosoph Luciano Floridi das Cyberkriegswesen der Gegenwart mit der staatlich unterstützten Piraterie im 16. Jahrhundert: Mit derlei Methoden fallen wir in die dunkle Zeit der Piraterie zurück, als Francis Drake im 16. Jahrhundert mit Billigung der Queen spanische Schiffe überfiel und plünderte – und für seine blutigen Abenteuer sogar zum Ritter geschlagen wurde. So ähnlich verhält es sich heute mit Regierungen und ihren Geheimdiensten. (Schmundt und Floridi 2015)

Mittlerweile verfügen auch zahlreiche Streitkräfte über Cyberwarressourcen. In den USA hat zur Abwehr von Cyberattacken das United States Cyber Command (USCYBERCOM) 2009 seinen Dienst aufgenommen, das bis 2018 mit 6.000 Mitarbeitern ausgestattet werden soll (siehe Rötzer 2015). Wie ernst die USA die Bedrohungen aus dem Cyberspace nehmen, zeigte 2015 die Einschätzung von James R. Clapper, der als Director of National Intelligence der Intelligence Community vorsteht, in der die 17 Nachrichtendienste der USA zusammengeschlossen sind. Clapper nannte im Februar 2015 erstmals die Bedrohung durch Cyberattacken an erster Stelle der Risiken, denen die USA gegenüberstehen (siehe Taylor 2015). Bis dahin war seit 2001 stets der Terrorismus als die schwerwiegendste Bedrohung erachtet worden. Dass es Cyberangreifern oft unnötig leicht gemacht wird, zeigt die Spezialsuchmaschine Shodan von John Matherly, die mit dem Internet verbundene Geräte wie öffentliche Webcams, industrielle Steuerungsanlagen und ähnliches

Cyberkriminalität und Cyberwar



309

aufspürt, durchsucht und dabei auch gleich ihre Sicherheitslücken analysiert. Der Sicherheitsexperte Dan Tentler fand beispielsweise heraus, dass man mit den Angaben von Shodan Verkehrsampeln beeinflussen (siehe Tentler 2012), Eisflächen abtauen oder Waschanlagen ein- und ausschalten könnte, einfach weil die Betreiber der Anlagen die Geräte aus Gründen des Komforts zwar vernetzen, aber nur unzureichend oder gar nicht an deren Schutz denken würden (siehe Tißler 2013). In den nächsten Jahren wird ein wesentliches Augenmerk darauf gerichtet sein (müssen), das Internet sicherer und unverwundbarer zu machen. Es ist nur ein kleiner Schritt, dass aus einer Bedrohung innerhalb des Internets eine Gefährdung des realen Lebens wird. Eine Maßnahme zur Sicherheit wird sein, sicherheitsrelevante Anlage in isolierten Netzwerken zu betreiben, die keine Verbindung mit dem Internet mehr haben. Auch wird die Sensibilität für Themen der IT-Sicherheit in der Politik, in Unternehmen und auch im privaten Bereich noch deutlich zunehmen müssen. Zur Wahrung von sicherheitstechnischen Mindeststandards in Deutschland wurden die Betreiber sogenannter kritischer Infrastrukturen (KRITIS) durch das Gesetz zur Erhöhung der Sicherheit informationstechnischer Systeme (kurz ITSicherheitsgesetz oder IT-SiG), das im Juli 2015 in Kraft getreten ist, verpflichtet. Zur kritischen Infrastruktur zählen Einrichtungen, die für das Funktionieren unseres Gemeinwesens von großer Bedeutung sind, zum Beispiel die Strom- und Wasserversorgung. Die Betreiber müssen organisatorische und technische Maßnahmen ergreifen, die dem Stand der Technik entsprechen. Das Gesetz bezog sich zunächst nur auf Infrastrukturen in den Sektoren Energie, Wasser, Ernährung sowie Informations- und Telekommunikationstechnologie und wurde 2017 in seinem Geltungsbereich auf die Bereiche Finanzen und Versicherungen, Gesundheit sowie Transport und Verkehr ausgeweitet. Von den Befürwortern in der Regierung als wirksame Maßnahme für mehr Sicherheit in den Netzen gepriesen, fällt die Einschätzung von Kritikern allerdings mehr als nüchtern aus (siehe Schmickler 2015). Keiner der in diesem Gesetzesentwurf vorgesehenen Schritte ist geeignet, zu einer sinnvollen Erhöhung der IT-Sicherheit in Deutschland beizutragen,

heißt es zum Beispiel in einer Stellungnahme des Hamburger Chaos Computer Clubs e.V. (CCC) (siehe Neumann 2015). Die Politik hat neben dem IT-Sicherheitsgesetz auch Forschungsgelder für die Erhöhung der IT-Sicherheit vorgesehen. So gibt das Bundesministerium für Bildung und Forschung bis zum Jahr 2020 180 Millionen Euro für Forschungsprojekte zum Thema IT-Sicherheit aus (siehe Bundesministerium für Bildung und Forschung (BMBF) 2015).

310  4 Wo Licht ist, ist auch Schatten

Nicht unerwähnt bleiben darf im Kontext des Cyberwars, dass zahlreiche Regierungen neben Aktivitäten, die gegen andere Staaten gerichtet sind, ihre Onlineaktivitäten mitunter auch gegen die eigene Bevölkerung richten. Behörden zensieren beispielsweise unliebsame Meinungsäußerungen oder Internetangebote und nutzen darüber hinaus die Auswertung von Internetdaten, um Regimekritiker zu lokalisieren und festzusetzen. Einen umfassenden Überblick über die einzelnen staatlichen Maßnahmen bietet der Länderbericht der OpenNet Initiative.

Das Internet der Gegenwart: ein Ort der Anpassung und Überwachung? Nicholas Negroponte, Informatikprofessor am Massachusetts Institute of Technology (MIT), schrieb 1995 in seinem vielbeachteten Buch „Total digital“ (im englischen Original: „Being digital“) folgende Sätze: Manche Regierungen, darunter auch die der Vereinigten Staaten, fordern ein Recht auf Einsicht in die versendeten Nachrichten, vergleichbar mit dem Abhören von Telefonleitungen. Wenn Sie da nicht sofort das kalte Grausen überkommt, dann denken Sie mal darüber nach. Wir müssen dafür sorgen, dass die Privatsphäre geschützt und die größtmögliche Datensicherheit gewährleistet ist, sonst werden wir es noch schwer bereuen. (Negroponte 1995, S. 283)

Ein paar Zeilen später: Cyberspace braucht Privatsphäre. Das ist die wichtigste Regel, wenn wir Sicherheit für unsere Texte wollen. (Negroponte 1995, S. 284)

Von einem internetphilosophischen Standpunkt aus betrachtet, muss man heute ernüchtert feststellen, dass die Weltgemeinschaft offensichtlich nicht genug dafür getan hat, die Privatsphäre im Internet zu schützen. Nicht nur die offenbar gewordene Praxis der Geheimdienste, auch die Internetökonomie, deren größtes Kapital die personenbezogenen Daten der Webteilnehmer darstellen, legen gerade Wert darauf, dass der Schutz der Privatsphäre im Netz ihrer Datenerhebung und -analyse nicht im Wege steht. Viele Internetnutzer offenbarten zudem in den letzten Jahren vor allem in den sozialen Netzwerken relativ sorglos private Details, so dass gelegentlich sogar vom „digitalen Exhibitionismus“ (Krempl 2014) gesprochen wurde. Für den, der all diese personenbezogenen Daten sammeln und auswerten kann, bedeuten diese Datenpools einen wichtigen Machtfaktor.

Das Internet der Gegenwart: ein Ort der Anpassung und Überwachung?



311

Fast zwanzig Jahre nach Nicolas Negroponte analysierte Yvonne Hofstetter 2014: Die „Aufklärung“ ist für uns zum Alltag geworden. Als Zivilgesellschaft fordern wir nicht nur Transparenz von Politik und Wirtschaft, sondern sind gleichzeitig selbst bereit, unser Leben für andere zum Glashaus zu machen. Dabei machen uns gerade Kinder vor, wie wichtig das Geheimnis für die Persönlichkeitsentwicklung ist, wenn sie sagen: „Mein bester Freund ist, wer mein Geheimnis nicht verrät.“ (Hofstetter 2014, S. 255)

Wenn Freunde unsere Geheimnisse wahren, dann sind wir im Internet nicht gerade von Freunden umzingelt: Nachrichtendienste auch oder vor allem von befreundeten Staaten sammeln und speichern Daten über jeden Einzelnen von uns – verdachtsunabhängig und in kaum vorstellbar großen Mengen. Sie versuchen mit großem Aufwand, Verschlüsselungen zu dechiffrieren und Passwörter auszuspähen. Hätte es die Affäre um Edward Snowden nicht gegeben, wäre dies wohl in dieser Detailliertheit nie ans Licht der Öffentlichkeit gekommen, auch wenn diese Form der Überwachung unter Sicherheitsexperten schon länger als offenes Geheimnis galt (siehe Gaycken 2013). Daneben speichern Großkonzerne wie Google und Facebook unsere digitalen Spuren, also unsere Suchbegriffe, Onlineeinkäufe, Likes, Onlinefreunde, Aufenthaltsorte, die von uns besuchten Webseiten, unsere Klicks auf Werbeannoncen etc. Sie generieren daraus Persönlichkeitsprofile im Dienste der Gewinn- oder Nutzenmaximierung und ohne Rücksicht auf unsere Geheimnisse. So ist vom US-Kaufhaus Target bekannt geworden, dass es allein aufgrund des Kaufverhaltens seiner Kundinnen durch komplexe Algorithmen Schwangerschaften ermitteln kann und den als schwanger prognostizierten Kundinnen entsprechende Sparcoupons zuschickt. Durch die Veränderung der Geruchswahrnehmung bevorzugen Schwangere offenbar eher geruchslose Lotionen; später werden bevorzugt Magnesium, Kalzium und ähnliche Nahrungsergänzungsmittel gekauft. Tauchen diese Artikel plötzlich auf den Einkaufszetteln auf, schlägt die Datenanalyse Alarm (siehe Heuser 2015). Vom US-Journalisten und Pulitzer-Preisträger Charles Duhigg (2012) wird in diesem Zusammenhang die Anekdote von dem Vater berichtet, der sich in einer Targetfiliale darüber beschwerte, dass seine minderjährige Tochter Sparcoupons für Babyartikel zugeschickt bekam, und sich später dort entschuldigte, weil sich herausstellte, dass seine Tochter tatsächlich bald ein Kind zur Welt bringen würde. Die Marketingabteilung des Kaufhauses wusste dies aufgrund entsprechender Analysen des Einkaufverhaltens ihrer registrierten Kundin nur früher als er. Viele unserer Geheimnisse geben wir freiwillig, wenn auch indirekt, preis und erhalten im Gegenzug dafür die zu unserer Lebenssituation passenden Dienstleistungen der Digitalwirtschaft vermeintlich gratis oder preisreduziert.

312  4 Wo Licht ist, ist auch Schatten

Wir müssen kein Geld dafür bezahlen, um Google oder Facebook nutzen zu dürfen, und nehmen dafür die Preisgabe eines Teils unserer Privatsphäre billigend in Kauf. Gegen die Missachtung der Privatsphäre durch staatliche Eingriffe, so hat es beispielsweise die NSA-Affäre gezeigt, protestieren wir allenfalls halbherzig und machen uns gerne die Devise „Wer nichts zu verbergen hat, hat auch nichts zu befürchten“ zu eigen. Doch die Forderung nach Transparenz durch Staat und Wirtschaft im Interesse der Sicherheit oder des wirtschaftlichen Nutzens beruht nicht auf gegenseitigem Einvernehmen. Vielmehr gestalten sich Transparenz und die Relativierung der Privatsphäre asymmetrisch. Was wissen wir als einzelne Bürger oder Verbraucher über die Geheimnisse der NSA und des BND, von Google, Facebook und anderen Digitalkonzernen? Welche Daten werden genau gespeichert und mit welchen anderen Quellen zusammengeführt? Welche Algorithmen werden angewandt? Wo kauft das Google-Management am liebsten ein? Welches Vorstandsmitglied von Facebook ist gerade schwanger? Wie knackt die NSA genau die Entschlüsselung von E-Mail-Programmen? Welche Daten von uns werden von wem wo gespeichert und wie lange aufgehoben? An wen werden die Daten weitergegeben oder weiterverkauft? Die Antwort ist: Wir wissen es nicht genau und sind oft auf Spekulationen und Mutmaßungen angewiesen. Während der Internetnutzer sich mit seinen persönlichen Daten freigiebig zeigen soll, hüllen sich die Datennehmer in Schweigen mit Verweis auf die nationale Sicherheit oder die Geschäftsgeheimnisse, deren Wahrung nötig sei, um in der Marktwirtschaft zu bestehen. Yvonne Hofstetter weist mit Recht darauf hin, dass die Wahrung der Privatsphäre den Datennehmern erlaubt, Macht zu erhalten. „Wer Privatsphäre aufgibt, gibt Macht auf“ (Hofstetter 2014, S. 259), darf daher im Umkehrschluss für die Masse der Ausgespähten und Beobachteten gelten. Was bedeutet es aber für unser Verhalten, wenn wir uns darüber bewusst sind, potenziell beobachtet und ausgespäht zu werden? Die US-Sozialpsychologen Gregory L. White und Philip G. Zimbardo gingen diese Frage 1975 nach, als sie untersuchten, wie sich das Verhalten von Testpersonen unter dem Eindruck von Überwachung verändert. In ihrer Untersuchung sollten Studenten ihre Meinung zur Legalisierung von Marihuana äußern. Einem Teil der Versuchspersonen sagte man dabei unter anderem, dass Videoaufzeichnungen über ihre Meinungsäußerungen zu Trainingszwecken an das FBI und die örtliche Polizei geschickt würden. White und Zimbardo fanden in ihrer Untersuchung Folgendes heraus: Je eher sich die Versuchspersonen überwacht fühlten, desto weniger waren sie bereit zuzugeben, die Legalisierung von Marihuana zu befürworten. Aus Furcht vor möglichen Konsequenzen schwenkten sie auf eine sozial akzep-

Das Internet der Gegenwart: ein Ort der Anpassung und Überwachung? 

313

tierte Linie ein und unterdrückten ihre eigene Meinung, um im Kollektiv untertauchen zu können. White und Zimbardo bestätigten, wie Diener, Fraser, Beaman und Kelem ein Jahr später anhand des Experiments mit den die Süßigkeiten verzehrenden Kinder, die Deindividuation durch Überwachung experimentell: Menschen, die überwacht werden, reduzieren ihre eigenes Verantwortungsgefühl und ihre individuellen moralischen Werte. Sie richten ihr Verhalten stärker am Kollektiv aus und bringen dies sogar sprachlich zum Ausdruck: Die Versuchspersonen vermieden es, Verantwortung für ihre Aussagen zu übernehmen, und sprachen lieber in der dritten als in der ersten Person. Sie flüchteten in allgemeingültige Formulierungen wie „man“ anstatt „ich“. Anders ausgedrückt: Fühlen wir uns überwacht, versuchen wir uns in der Herde zu verstecken. (Karig 2015)

Das Experiment, dessen Bericht unter dem Titel „The Chilling Effects of Surveillance: Deindividuation and Reactance“ veröffentlicht wurde, brachte noch ein weiteres Ergebnis: Gemäß der psychologischen Reaktanztheorie beantworten Menschen die tatsächliche oder drohende Beschränkung ihrer Handlungsfreiheit mit Gegenmaßnahmen wie Ablehnung, Aggression oder Protest. Dementsprechend reagierten die Versuchspersonen ablehnender und aggressiver gegenüber dem Experiment, je stärker sie sich überwacht wähnten (siehe White und Zimbardo 1975, S. 15). White und Zimbardo zogen die Schlussfolgerung, dass drohende oder tatsächliche Überwachung die Meinungsfreiheit als Folge von Deindividuationseffekten beschneidet und die Akzeptanz für Staat und Gesellschaft aufgrund der Reaktanzreaktion reduziert: The present experiment demonstrates, however, that the threat or actuality of government surveillance may psychologically inhibit freedom of speech at the price of increased disrespect for the government and society itself. (White und Zimbardo 1975, S. 22)

Darüber hinaus rechneten sie damit, dass viele Menschen es bevorzugen würden, Situationen, in denen sie überwacht werden (könnten), zu meiden: Our research design did not allow for the easy possibility of avoiding “assembly”, but we would expect that the anxiety generated by threat of surveillance would cause many people to totally avoid situations that are assumed to be under surveillance. (White und Zimbardo 1975, S. 22)

Das Bundesverfassungsgericht hat in seinem Volkszählungsurteil vom 15. Dezember 1983, Aktenzeichen 1 BvR 209/83, 1 BvR 269/83 und weitere ebenfalls darauf hingewiesen, dass potenziell Beobachtete zu konformem Verhalten neigen:

314  4 Wo Licht ist, ist auch Schatten

Wer unsicher ist, ob abweichende Verhaltensweisen jederzeit notiert und als Information dauerhaft gespeichert, verwendet oder weitergegeben werden, wird versuchen, nicht durch solche Verhaltensweisen aufzufallen. (Rn. 148)

Darüber hinaus sah das Bundesverfassungsgericht in seinem Urteil vom 14. Juli 1999, Aktenzeichen 1 BvR 2226/94, 1 BvR 2420/95, 1 BvR 2437/95 das Kommunikationsverhalten von Bürgern allein schon durch die befürchtete Überwachung beeinträchtigt: Die Befürchtung einer Überwachung mit der Gefahr einer Aufzeichnung, späteren Auswertung, etwaigen Übermittlung und weiteren Verwendung durch andere Behörden kann schon im Vorfeld zu einer Befangenheit in der Kommunikation, zu Kommunikationsstörungen und zu Verhaltensanpassungen, hier insbesondere zur Vermeidung bestimmter Gesprächsinhalte oder Termini, führen. (Rn. 236)

Tatsächlich scheint sich nach den Enthüllungen durch Edward Snowden eine zunehmende Sensibilisierung in der Nutzung des Internets zu zeigen, die langfristige Verhaltensänderungen der Netzteilnehmer nach sich ziehen könnte. Snowden zeigte auf, dass westliche Geheimdienste den Netzverkehr nahezu vollständig überwachen, aufzeichnen und dabei auch Verschlüsselungen aushebeln und Passwörter mittels speziell entwickelter Software herausfinden können. Jeder Netzteilnehmer muss heute davon ausgehen, dass die Privatsphäre im Netz fragil ist und von staatlicher Seite kaum geschützt wird, zumindest was die Tätigkeit der Nachrichtendienste betrifft. Erste Untersuchungen weisen darauf hin, dass die Netzteilnehmer ihr Verhalten der neuen Situation grundlegend anpassen könnten: So fanden Alex Marthews und Catherine Tucker in ihrer empirischen Untersuchung „Government Surveillance and Internet Search Behavior“ von Google-Suchbegriffen in elf Ländern heraus, dass sich bei gestiegenem Suchvolumen die Suchworte tendenziell reduzierten, von denen eine repräsentativ befragte Gruppe von rund 6.000 Internetnutzern annahm, dass diese sie in Probleme mit der US-Regierung verstricken könnten (zum Beispiel assassination, chemical, dirty bomb). Auch Marthews und Tucker beriefen sich auf den sogenannten Chilling Effect: Our results suggest that there is a chilling effect on search behavior from government surveillance on the Internet, and that government surveillance programs may damage the international competitiveness of US-based internet firms. (Marthews und Tucker 2015)

In einer 2013 durchgeführten Umfrage unter Mitgliedern der Schriftstellervereinigung PEN America gab eine nennenswerte Zahl von Schriftstellern an, dass sie sich nach dem Bekanntwerden der Snowden-Affäre Maßnahmen der Selbstzensur auferlegten: 16 Prozent gaben an, im Internet keine Websites zu besu-

Literatur



315

chen oder Websuchen durchzuführen, die verdächtige Inhalte haben könnten. 28 Prozent haben ihre Aktivitäten in den sozialen Medien eingeschränkt und 24 Prozent vermeiden bestimmte Themen in Telefonaten oder E-Mails. 49 Prozent gehen davon aus, dass Websuchen, Buchkäufe und Webseitenbesuche von der Regierung mitverfolgt werden. 85 Prozent zeigten sich besorgt über das Ausmaß der Überwachung der US-Amerikaner durch die Regierung. In dem Report heißt es folglich: PEN's concerns: writers are not only overwhelmingly worried about government surveillance, but are engaging in self-censorship as a result. (PEN American Center 2013, S. 3)

Es gibt also durchaus Anzeichen dafür, dass die Vorhersagen der Psychologie und die Einschätzungen des Bundesverfassungsgerichts auf das gegenwärtige Internetverhalten anwendbar sind. Unter dem Eindruck von Überwachung passen sich Menschen an, vermeiden Themen und versuchen, möglichst unauffällig zu bleiben. Für eine lebendige Demokratie ist dies problematisch, da die Meinungsvielfalt darunter leiden und sich Bürger selbst in ihren Grundfreiheiten beschneiden könnten. Das Internet begann als Medium zur Vereinfachung der Kommunikation und Kooperation unter Wissenschaftlern. Auch aufgrund des erheblichen Kommerzialisierungsdrucks und des hohen Abschöpfungswertes für Nachrichtendienste sind im Internet die Meinungsäußerungsfreiheit und die Privatsphäre des Einzelnen nun vielfach bedroht. Die Achtung der Menschenrechte im Internet stellt deshalb eine der größten Herausforderungen dar, nicht zuletzt um der Informationsethik und Informationsgerechtigkeit im Digitalen einen Raum zu geben. In einem in der Frankfurter Allgemeinen Zeitung (FAZ) erschienenen Interview zum Aufruf „Die Demokratie verteidigen im digitalen Zeitalter“, in dem mehr als 1.000 Schriftsteller aus über 80 Ländern – darunter fünf Nobelpreisträger – eine internationale Konvention der digitalen Rechte einfordern, bringt Mitinitiatorin Juli Zeh auf den Punkt, was sich grundlegend ändern müsste: Der UN-Generalsekretär kann das Problem nicht allein lösen, auch nicht der Sicherheitsrat. Wir brauchen einen Mentalitätswechsel. Einen Bewusstseinswandel wie beim Umweltschutz: Es wird sich langfristig nur etwas ändern, wenn sich auf breitester Basis durchsetzt, dass Überwachung die Demokratie gefährdet. (Zeh und Trojanow 2013)

Literatur Adams, Tim: How the internet created an age of rage. 2011, http://www.theguardian.com/ technology/2011/jul/24/internet-anonymity-trolling-tim-adams (03.06.2018).

316  4 Wo Licht ist, ist auch Schatten

Assange, Julian, Jacob Appelbaum, Andy Müller-Maguhn und Jérémie Zimmermann: Cypherpunks – unsere Freiheit und die Zukunft des Internets. Frankfurt/New York, 2013. Beckers, Sylvia: Cybermobbing-Studie. Jeder dritte Schüler ist Opfer oder Täter. 2013, http:// www.heise.de/newsticker/meldung/Cybermobbing-Studie-Jeder-dritte-Schueler-istOpfer-oder-Taeter-1924795.html (03.06.2018). Benedek, Wolfgang: Menschenrechte in der Informationsgesellschaft. Grundlagen der Menschenrechte in der Informationsgesellschaft, in: Schüller-Zwierlein, André und Nicole Zillien (Hrsg.): Informationsgerechtigkeit. Theorie und Praxis der gesellschaftlichen Informationsversorgung. Berlin/Boston, 2013, S. 69–88. Borchardt, Alexandra: Soziale Netzwerke. Cybermobbing trifft vor allem Frauen. 2015, http:// www.sueddeutsche.de/digital/internet-der-neue-digitale-graben-1.2458879 (24.06.2018). Buckels, Erin E., Paul D. Trapnell und Delroy L. Paulhus: Trolls just want to have fun, in: Personality and Individual Differences 67 (2014), S. 97–102. Bundesministerium für Bildung und Forschung (BMBF): Selbstbestimmt und sicher in der digitalen Welt 2015–2020. Forschungsrahmenprogramm der Bundesregierung zur ITSicherheit. 2015, http://www.bmbf.de/pub/Forschungsrahmenprogramm_IT_Sicherheit. pdf (24.06.2018). Busching, Michael: Der Begehungsort von Äußerungsdelikten im Internet. Grenzüberschreitende Sachverhalte und Zuständigkeitsprobleme, in: MMR 2015, S. 295–299. Chang, Jenna: The Role of Anonymity in Deindividuated Behavior. A Comparison of Deindividuation Theory and the Social Identity Model of Deindividuation Effects (SIDE), in: The Pulse, Volume 6 (2008), Issue 1, http://www.baylor.edu/content/services/document. php?id=77099 (24.06.2018). Die Demokratie im digitalten Zeitalter. Der Aufruf der Schriftsteller. 2013, http://www.faz.net/hwu-7k8yg (03.06.2018). Diener, Edward, Scott C. Fraser, Arthur L. Beaman und Roger T. Kelem: Effects of deindividuation variables on stealing among Halloween trick-or-treaters, in: Journal of Personality and Social Psychology 33 (1976), Issue 2, S. 178–183. Duggan, Maeve: Online Harassment 2017. 2017, http://assets.pewresearch.org/wp-content/ uploads/sites/14/2017/07/10151519/PI_2017.07.11_Online-Harassment_FINAL.pdf (23.06.2018). Duggan, Maeve: Online Harassment. 2014, http://assets.pewresearch.org/wp-content/uploads/sites/14/2014/10/PI_OnlineHarassment_72815.pdf (23.06.2018). Duhigg, Charles: How Companies Learn Your Secrets. 2012, http://www.nytimes.com/2012/ 02/19/magazine/shopping-habits.html (24.06.2018). Eich, Ulrike: Open Access und akademische Reputationssysteme, in: Söllner, Konstanze und Bernhard Mittermaier (Hrsg.): Praxishandbuch Open Access. Berlin/Boston, 2017, S. 28– 35. Engel, Michael: Religiöser Extremismus im Internet. 2012, http://www.deutschlandfunk.de/ religioeser-extremismus-im-internet.886.de.html?dram:article_id=230066 (24.06.2018). Esser, Robert: Strafrechtliche Aspekte der Social Media, in: Hornung, Gerrit und Ralf MüllerTerpitz (Hrsg.): Rechtshandbuch Social Media. Berlin/Heidelberg, 2015, S. 203-322. Festl, Ruth: Täter im Internet: eine Analyse individueller und struktureller Erklärungsfaktoren von Cybermobbing im Schulkontext. Wiesbaden, 2015.

Literatur 

317

Gaycken, Sandro: „Snowden opferte sein Leben für ein offenes Geheimnis“. 2013, http:// www.cicero.de/weltbuehne/edward-snowden-nsa-skandal-fachkreisen-war-niemandueberrascht/54999 (24.06.2018). Goger, Thomas und Jürgen Stock: Cybercrime – Herausforderung für die internationale Zusammenarbeit, in: ZRP 2017, S. 10–14. Greenwald, Glenn: Die globale Überwachung. Der Fall Snowden, die amerikanischen Geheimdienste und die Folgen. Frankfurt am Main/Zürich/Wien, 2014. Haug, Volker: Grundwissen Internetrecht. 3. Auflage. Stuttgart, 2016. Heuser, Uwe Jean: Datenanalyse. Wir werden vermessen. 2015, http://www.zeit.de/2015/07/ datenanalyse-mensch-verhalten-vorhersage-freiheit (24.06.2018). Himmelstein, Daniel S., Ariel R. Romero, Jacob G. Levernier, Thomas A. Munro, Stephen R. McLaughlin, Bastian G. Tzovaras und Casey S. Greene: Sci-Hub Provides Access to Nearly All Scholarly Literature. 2018, https://elifesciences.org/articles/32822 (03.06.2018). Hobe, Stephan: Cyberspace – der virtuelle Raum, in: Isensee, Josef und Paul Kirchhof (Hrsg.): Handbuch des Staatsrechts. 3. Auflage. Heidelberg, 2013, § 231. Hofstetter, Yvonne: Sie wissen alles. Wie intelligente Maschinen in unser Leben eindringen und warum wir für unsere Freiheit kämpfen müssen. 2. Auflage. München, 2014. Jiménez, Camilo: Kriegsführung im Cyberspace. Unsichtbare Angriffe mit realen Folgen. 2010, http://www.sueddeutsche.de/digital/kriegsfuehrung-im-cyberspace-unsichtbareangriffe-mit-realen-folgen-1.1003586 (24.06.2018). jugendschutz.net (Hrsg.): Löschung rechtswidriger Hassbeiträge bei Facebook, YouTube und Twitter. 2017, https://www.jugendschutz.net/fileadmin/download/pdf/17-06_Ergebnisse_Monitoring_Beschwerdemechanismen_Hassbeitraege_jugendschutz.net.pdf (20.05.2018). Karig, Friedemann: Befallen vom Überwachungsvirus. 2015, http://www.deutschlandfunk.de/ staatliche-ueberwachung-befallen-vom-ueberwachungsvirus.1184.de.html?dram:article_id=307639BVerfGE%20100,%20313 (24.06.2018). Kramer, Bianca: Sci-Hub: access or convenience? A Utrecht case study (part 2). 2016, https:// im2punt0.wordpress.com/2016/06/20/sci-hub-access-or-convenience-a-utrecht-casestudy-part-2/ (02.06.2018). Krempl, Stefan: Safer Internet Day. Digitaler Exhibitionismus in Zeiten der Netzpubertät. 2014, http://www.heise.de/newsticker/meldung/Safer-Internet-Day-Digitaler-Exhibitionismusin-Zeiten-der-Netzpubertaet-2110930.html (24.06.2018). Lanier, Jaron: Wem gehört die Zukunft? Du bist nicht der Kunde der Internet-Konzerne, du bist ihr Produkt. 2. Auflage. Hamburg, 2014. Marthews, Alex und Catherine Tucker: Government Surveillance and Internet Search Behavior. 2017, http://dx.doi.org/10.2139/ssrn.2412564 (24.06.2018). Negroponte, Nicholas: Total Digital. Die Welt zwischen 0 und 1 oder die Zukunft der Kommunikation. München, 1995. Neumann, Linus: Stellungnahme zum Gesetz zur Erhöhung der Sicherheit informationstechnischer Systeme (IT-Sicherheitsgesetz). 2015, http://ccc.de/system/uploads/186/original/ ITSG_Stellungnahme.pdf (24.06.2018). OpenNet Initiative: Global Internet Filtering. o.J., https://opennet.net/ (22.06.2018). PEN American Center: Chilling Effects: NSA Surveillance Drives U.S. Writers to Self Censor. 2013, http://www.pen.org/sites/default/files/Chilling%20Effects_PEN%20American.pdf (24.06.2018).

318  4 Wo Licht ist, ist auch Schatten

Rötzer, Florian: Pentagon-Strategie für den Cyberwar. 2015, http://www.heise.de/tp/artikel/ 44/44789/1.html (24.06.2018). Sadigh, Parvin: Cybermobbing: Ist doch nicht so schlimm, machen doch alle. 2017, https:// www.zeit.de/gesellschaft/schule/2017-05/cybermobbing-mobbing-studie-praevention (24.06.2018). Saße, Dörte: Internet-Trolle sind verkappte Sadisten. 2014, https://www.heise.de/newsticker/ meldung/Internet-Trolle-sind-verkappte-Sadisten-2126070.html (24.06.2018). Schmickler, Barbara: IT-Sicherheitsgesetz – „zahnloser Tiger“. 2015, http://www.tagesschau. de/inland/it-sicherheitsgesetz-101.html (24.06.2018). Schmundt, Hilmar und Luciano Floridi: Internet. Tödlich wie eine Granate. 2015, http:// magazin.spiegel.de/EpubDelivery/spiegel/pdf/131812919 (24.06.2018). Six, Bernd: Deindividuation, in: Wirtz, Markus Antonius (Hrsg.): Dorsch – Lexikon der Psychologie. 18. Auflage. Bern, 2017, https://portal.hogrefe.com/dorsch/deindividuation (03.06.2018). Staudt, Toralf und Johannes Radke: Das braune Netz. Bonn, 2014. Stefanowitsch, Anatol: „Shitstorm“ ist Anglizismus des Jahres 2011. 2012, http://www.anglizismusdesjahres.de/wp-content/uploads/2012/02/adj2011-pressemitteilung.pdf (03.06.2018). Steinhauer, Eric W.: Die Nutzung einer 'Schattenbibliothek' im Licht des Urheberrechts, in: LIBREAS. Library Ideas 30 (2016), https://libreas.eu/ausgabe30/steinhauer/ (11.06.2018). Taylor, Guy: James Clapper, intel chief: Cyber ranks highest on worldwide threats to U.S. 2015, http://www.washingtontimes.com/news/2015/feb/26/james-clapper-intel-chief-cyberranks-highest-worl (24.06.2018). Tentler, Dan: Drinking from the caffeine firehose we know as shodan. 2012, https://youtu.be/ 5cWck_xcH64 (25.06.2018). Tißler, Jan: Shodan: „Die erschreckendste Suchmaschine des Internets“. 2013, http://t3n.de/ news/shodan-erschreckendste-455939 (24.06.2018). Todd, Amanda: My story: Struggling, bullying, suicide, self harm. 2012, https://www.youtube. com/watch?v=vOHXGNx-E7E (03.06.2018). Trojanow, Ilija und Juli Zeh: Angriff auf die Freiheit. Sicherheitswahn, Überwachungsstaat und der Abbau bürgerlicher Rechte. München, 2010. White, Gregory L. und Philip G. Zimbardo: The Chilling Effects of Surveillance: Deindividuation and Reactance. 1975, http://www.dtic.mil/cgi-bin/GetTRDoc?AD=ADA013230& Location=U2&doc=GetTRDoc.pdf (24.06.2018). Zeh, Juli und Ilija Trojanow: Alles ist gesagt, jetzt müssen wir handeln. 2013, http://www.faz. net/aktuell/feuilleton/buecher/themen/autoren-gegen-ueberwachung/juli-zeh-und-ilijatrojanow-im-gespraech-alles-ist-gesagt-jetzt-muessen-wir-handeln-12702943.html (24.06.2018). Zimbardo, Philip G.: The Lucifer Effect. Understanding how good People turn evil. New York, 2007. Zimbardo, Philip G.: Psychologie. 6. Auflage. Heidelberg, 1995.

Entscheidungen 

319

Entscheidungen Bundesverfassungsgericht, Beschluss vom 23. März 1971, Aktenzeichen 1 BvL 25/61, 1 BvL 3/ 62 (Sonnenfreunde, jugendgefährdende Schriften). Bundesverfassungsgericht, Urteil vom 15. Dezember 1983, Aktenzeichen 1 BvR 209/83, 1 BvR 269/83, 1 BvR 362/83, 1 BvR 420/83, 1 BvR 440/83, 1 BvR 484/83 (Volkszählungsurteil). Bundesverfassungsgericht, Beschluss vom 10. Oktober 1995, Aktenzeichen 1 BvR 1476/91, 1 BvR 1980/91, 1 BvR 102/92, 1 BvR 221/92 („Soldaten sind Mörder“). Bundesverfassungsgericht, Urteil vom 14. Juli 1999, Aktenzeichen 1 BvR 2226/94, 1 BvR 2420/ 95, 1 BvR 2437/95 (Telekommunikationsüberwachung). Bundesverfassungsgericht, Beschluss vom 09. Oktober 2001, Aktenzeichen 1 BvR 622/01 (Schuldnerspiegel im Internet). Bundesgerichtshof, Urteil vom 18. Oktober 2007, Aktenzeichen I ZR 102/05 (ueber18.de). Bundesgerichtshof, Urteil vom 23. Juni 2009, Aktenzeichen VI ZR 196/08. Bundesverfassungsgericht, Beschluss vom 11. Dezember 2013, Aktenzeichen 1 BvR 194/13. Bundesgerichtshof, Beschluss vom 19. August 2014, Aktenzeichen 3 StR 88/14. Oberlandesgericht Dresden, Urteil vom 05. Mai 2015, Aktenzeichen 4 U 1676/14. Bundesverfassungsgericht, Beschluss vom 08. Februar 2017, Aktenzeichen 1 BvR 2973/14.

5 Die Zukunft des Internets Mit der Erfindung des Mikroprozessors begann in den 1940er Jahren die digitale Revolution. Computer wurden entwickelt und deren Vernetzung vorangetrieben. Das Internet brachte ab den 1990er Jahren als elementares Kommunikations- und Transportmedium eine Infrastruktur mit sich, die die Entwicklung und vor allem die Verbreitung der digitalen Technologien stark beschleunigte. Das Netz erlaubt die beinahe ubiquitäre Verfügbarkeit von Informationen und Daten und bildet so ein wesentliches Infrastrukturelement für die digitale Transformation der Gesellschaft, die in nahezu allen Bereichen des privaten Lebens und der Wirtschaft begonnen hat. Große Teile der Produktion, der Logistik, des Handels und der Dienstleistungen sind ohne Einsatz digitaler Technologie ebensowenig vorstellbar mehr wie Forschung, moderne Medizin oder eine bedarfsgerechte Verkehrsinfrastruktur. Im Gesamtkontext des digitalen Wandels der Gesellschaft wird auch die Internettechnologie stetig mit hohem personellem und finanziellem Aufwand weiterentwickelt.

Konkrete Zukunfttrends Bereits bestehende Technologien und Entwicklungslinien lassen Prognosen für die zukünftige Entwicklung des Netzgeschehens zu. So ist davon auszugehen, dass – Augmented-Reality-Anwendungen zu einer veränderten Realitätswahrnehmung führen werden. – die stark gewachsenen, riesigen Datenmengen im Netz (Stichwort: Big Data) durch Algorithmen analysiert und interpretiert werden, um Prognosen über zukünftiges Verhalten oder zukünftige Ereignisse zu erstellen. – das Internet den Alltag durch mobile Technologien und kleinteilige Hardware so allgegenwärtig durchdringt, dass es letztlich „unsichtbar“ wird. – sich Maschinen ohne Beisein des Menschen großflächig zum „Internet der Dinge“ vernetzen lassen und so der sogenannten vierten industriellen Revolution Gestalt verleihen. – semantische Technologien dem Internet bald die Dimension des „Verstehens“ von Bedeutungen hinzufügen und – künstliche Intelligenz menschliches Handeln bei vielen spezifischen Anforderungen und Problemstellungen ersetzen können wird. https://doi.org/10.1515/9783110338966-006

Augmented Reality (AR) 

321

Augmented Reality (AR) Als Augmented Reality (AR) oder Erweiterte Realität wird die Ergänzung der physischen Welt um computergenerierte Elemente (zum Beispiel Sounddateien, Grafiken oder GPS-Daten) verstanden, die beim Anwender zu einer Vermischung von physischer und virtueller Wahrnehmung führen. In der Konsequenz bedeutet das eine veränderte Realitätsperzeption. Während hingegen der Begriff der virtuellen Realität (VR, Virtual Reality) die Ersetzung der physischen Wirklichkeit durch eine Simulation meint, zielt AR auf eine Ergänzung des ursprünglich Wahrgenommenen. Datenbrillen sind Beispiele für konkrete Augmented-Reality-Anwendungen. Sie spielen virtuelle Objekte direkt ins Sehfeld des Anwenders ein. Die Datenbrille Glass von Google beispielsweise reichert das Sehfeld des Trägers mit gewünschten Daten aus dem Internet über die Internetverbindung des Smartphones an. Der Anwender steuert Datenbrillen unter anderem mit der Stimme, den Augen- oder Kopfbewegungen und startet so Videoaufnahmen, ruft Webseiten auf oder lässt sich fremdsprachige Texte übersetzen. Auch Videochats, Bilderkennungen (zum Beispiel berühmter Bauwerke) oder das Einblenden von Navigationshilfen oder Stauwarnungen sind mögliche Einsatzfelder. Aus Gründen des Daten- und Persönlichkeitsschutzes ist Google Glass sehr umstritten, da deren Träger zum Beispiel unerkannt Videoaufnahmen von ihrem Gegenüber machen können. Auch gab es Befürchtungen bezüglich einer Verknüpfung von Sprach- und Gesichtserkennungssoftware mit Google Glass. So schrieb Andrew Keen über Glass: Neither Orwell nor Hitchcock at their most terrifyingly dystopian could have dreamt up Google Glass. (Keen 2013)

Der Verkauf von Google Glass wurde 2015 wieder gestoppt; die weitere Entwicklung wurde von Google in eine eigene Abteilung ausgelagert. Google-GlassTräger wurden gelegentlich als „Glassholes“ verunglimpft, was auf die geringe Akzeptanz der Brille sogar in den USA hinwies. Die Augmented-Reality-Brille HoloLens von Microsoft nimmt dagegen eher professionelle Anwender wie Ingenieure, Architekten oder Mediziner als Zielgruppe in den Blick. Sie richtet sich auch an die Forschung, deren Arbeit durch holografische Darstellungen erleichtert werden soll. Microsoft nennt die Durchdringung von virtuellen Objekten mit der realen Welt übrigens „Mixed Reality“. Ein Demo-Video der Brille wurde 2015 veröffentlicht: https://www.microsoft. com/microsoft-hololens/en-us. Seit 2018 ist die Brille auch in Deutschland verfügbar, die günstigste Ausführung kostet dabei mehr als 3.200 Euro.

322  5 Die Zukunft des Internets

Big Data: Algorithmen interpretieren riesige Datenmengen In fast allen Bereichen der Industrie, der öffentlichen Verwaltung und der Wissenschaft werden mittlerweile immense Datenströme erzeugt und abgespeichert: Seien es Wertpapierbörsen, Wetterstationen, soziale Netzwerke oder gar Genomdatenbanken: Die Menge der erzeugten Daten steigt ständig und verdoppelt sich derzeit etwa alle zwei Jahre. 2012 wurden 2,8 Milliarden Terabyte (TB) an Daten produziert; 2020 werden es aktuellen Prognosen zufolge bereits über 40 Milliarden TB sein. Schon für das Jahr 2013 wurde angenommen, dass nur noch zwei Prozent der weltweit verfügbaren Daten gedruckt zur Verfügung stehen. Für die Wirtschaft, den Staat und die Wissenschaft sind diese großen Datenmengen in den letzten Jahren in den Fokus gerückt, da sich auf ihrer Grundlage mit den geeigneten Werkzeugen, den Algorithmen, Aussagen über zukünftige Geschehnisse treffen lassen können. Algorithmen durchstöbern die Daten nach Mustern, kombinieren unterschiedliche Datensätze miteinander und können so bislang unerkannte Zusammenhänge ans Licht bringen, die neue Handlungsstrategien oder Geschäftsmodelle entstehen lassen. Ein US-Paketdienst spart zum Beispiel jährlich 10 Millionen US-Dollar, da er seinen Fahrern die Auflage machte, das Linksabbiegen möglichst zu vermeiden und stattdessen lieber dreimal rechts abzubiegen. Der Grund dafür war, dass umfangreiche Datenanalysen der aufgezeichneten Touren ergeben hatten, dass die Transporter auffällig häufig beim Linksabbiegen in Unfälle verwickelt wurden. In Santa Cruz in Kalifornien arbeitet die Polizei erfolgreich mit den Mitteln der vorhersehenden Verbrechensbekämpfung. Dabei werden Streifenpolizisten von Computern präventiv zu bestimmten Zeiten an Orte geschickt, an denen, ausgehend unter anderem von der Verbrechensstatistik der letzten acht Jahre, das nächste Verbrechen mit der größten Wahrscheinlichkeit passieren wird. Dieses Verfahren wird als „Predictive Policing“ bezeichnet und auch in Deutschland schon praktiziert, zum Beispiel bei der bayerischen Polizei, die die Software Precobs des Instituts für musterbasierte Prognosetechnik verwendet (vgl. Heitmüller 2017). Einzelhandelsketten lassen sich mittlerweile von auf Datenanalysen spezialisierten Unternehmen mit Prognosen über den Absatz bestimmter Artikel versorgen, um Lieferschwierigkeiten und Lagerkosten zu minimieren. Die gesellschaftliche Diskussion, welche Analysen, Prognosen und zugrunde liegenden Methoden verwendet bzw. nicht verwendet werden sollten, hat dabei gerade erst begonnen. Vor allem die Verwendung von personenbezogenen Daten ist sehr umstritten. Da für Datenanalysen personenbezogene Daten zum Beispiel aus sozialen Netzwerken von großer Bedeutung sind, werden Be-

Big Data: Algorithmen interpretieren riesige Datenmengen 

323

lange des Datenschutzes berührt (siehe Weichert 2013). Ein Projekt der Bonitätsauskunft Schufa, das versuchte, die Kreditwürdigkeit von bestimmten Personen mit Hilfe von persönlichen Daten aus sozialen Netzwerken auszuloten, wurde wegen zahlreicher Proteste noch vor seiner Umsetzung gestoppt. Prinzipiell liefern die Prognosen, die aufgrund von Zusammenhängen (Korrelationen) einzelner Merkmale algorithmisch ermittelt werden, keine Aussagen über die Kausalität, das heißt über die Ursachen des angenommenen Zusammenhangs. Im Englischen heißt der entsprechende Merksatz aus der Statistiktheorie: Correlation does not imply causation.

Die Algorithmen können nur Belege dafür liefern, dass ein paralleles Auftreten zweier Eigenschaften, aus welchem Grund auch immer, mathematisch belegbar ist. Der daraus konstruierte Zusammenhang kann zutreffen oder – und das ist die Gefahr an dieser Methode des Erkenntnisgewinns – ein Zufallsprodukt sein. Je größer die Datenmengen sind, desto höher ist prinzipiell die Wahrscheinlichkeit der gewonnenen Erkenntnisse. Doch auch eine Hypothese, die quantitativ überzeugend erscheint, ist nicht auf jedes Individuum anwendbar. Algorithmen beruhen auf bei ihrer Programmierung getroffenen Grundannahmen, die fehleranfällig sein können und eher die Norm als ihre Abweichung im Blick haben. Darüber hinaus können durch Algorithmen erstellte Prognosen auch keine Brüche in Verhaltensmustern entdecken und (unerwartete) Sinnzusammenhänge abbilden. Es handelt sich bei den Prognosen nur um Wahrscheinlichkeitsannahmen, die wahr oder eben auch falsch sein können, wenn man sie auf konkrete Individuen anwenden möchte. Entscheidend sind letztlich die Schlüsse, die aus wertfreien Rohdaten und ihrer Verarbeitung gewonnen werden. Wie ein Datensatz definiert wird, welche auf ihm begründeten Annahmen getroffen werden oder welcher Algorithmus als Handlungsvorschrift entwickelt wird, unterliegt der menschlichen Wahrnehmung und Gestaltung. Die darin verborgene Interpretationsleistung ist subjektiv geprägt und keinesfalls frei von Irrtum, Fehler und Wertungsschwächen. Dem mit der Big-Data-Analyse verbundenen Eindruck „diffuser Bedrohlichkeit“ (Härting 2017, Rn. 250) ließe sich durch Transparenz und Durchschaubarkeit sowie Schutz gegen Missbrauch und Diskriminierung begegnen. Werden Datenverarbeitungsprozesse, die sie steuernden Annahmen und Handlungsvorschriften sowie die mit ihnen beabsichtigten Prognosen offen gelegt, wird der Nutzer eher in die Lage versetzt, eine informierte Entscheidung über die Nutzung eines Internetdienstes unter den konkreten Umständen zu treffen. Es obliegt dem Gesetzgeber, Rahmenbedingungen für Big-Data-Analysen in ver-

324  5 Die Zukunft des Internets

schiedensten Lebensbereichen zu setzen, zum Beispiel Verfahrens- und Zielvorgaben zu treffen, Maßnahmen für die Datensicherheit einzufordern, die Teilhabe des Nutzers an den ihn betreffenden Daten und deren Portabilität1 sicherzustellen oder Informations-, Darlegungs- und Dokumentationspflichten für die Verantwortlichen vorzusehen. Unter dem Eindruck der Möglichkeiten, die Datenvielfalt und Big Data für die Kommunikation, den Erkenntnisgewinn und den Informationsaustausch bieten, wird der Grundsatz der Datenvermeidung und Datensparsamkeit hingegen zunehmend als realitätsfern, „innovationshemmend und kommunikationsfeindlich“ (Härting 2017, Rn. 256) und als Widerspruch zum Prinzip der Datenrichtigkeit empfunden. Denn je größer die Datenmenge ist, umso präziser werden die Analyseergebnisse in der Regel sein. Auch die Datenschutz-Grundverordnung wird diesen Zielkonflikt wohl nicht lösen.

Die Allgegenwart des Netzes Ubiquitous Computing oder kurz UbiComp bezeichnet die Allgegenwärtigkeit von Rechenleistung durch eine Vielzahl von vernetzten Computern, Prozessoren und Sensoren, die den beruflichen wie privaten Alltag durchdringen. Der Begriff stammt von dem 1999 verstorbenen Forscher Mark Weiser. Er hat 1991 ein Zukunftsszenario entworfen, in dem Computer so in den Alltag eingebettet sind, dass sie gar nicht mehr wahrgenommen werden; sie verschwinden durch ihre Allgegenwart: Therefore we are trying to conceive a new way of thinking about computers in the world, one that takes into account the natural human environment and allows the computers themselves to vanish into the background. (Weiser 1991)

Wie nahe Mark Weiser mit seiner Prognose der Realität des 21. Jahrhunderts kam, zeigen die hohen Zahlen an Smartphones, Tablets, Smartwatches, Navigationssystemen, Datenbrillen und anderen Kleincomputern und Sensoren, die unseren Alltag in den letzten Jahren durchdrungen haben.

1 Die Datenschutz-Grundverordnung definiert Datenportabilität als das Recht auf Datenübertragbarkeit in Artikel 20 Absatz 1 wie folgt: „Die betroffene Person hat das Recht, die sie betreffenden personenbezogenen Daten, die sie einem Verantwortlichen bereitgestellt hat, in einem strukturierten, gängigen und maschinenlesbaren Format zu erhalten, und sie hat das Recht, diese Daten einem anderen Verantwortlichen ohne Behinderung durch den Verantwortlichen, dem die personenbezogenen Daten bereitgestellt wurden, zu übermitteln […].“

Das Internet der Dinge und die vierte industrielle Revolution



325

Das Internet der Dinge und die vierte industrielle Revolution Stattet man Gegenstände mit Minicomputern oder Transpondern aus, versieht sie mit einer Internetadresse und vernetzt sie untereinander, entsteht ein Netz, in dem Dinge ohne menschliche Einflussnahme miteinander kommunizieren können. Die mit einer Wetterstation vernetzte Haussteuerung fährt bei einer Sturmwarnung automatisch die Rollläden herunter und informiert die abwesenden Bewohner darüber per SMS. Die Karosserie auf dem Fließband teilt dem Fertigungsroboter mit, in welcher Farbe sie lackiert werden soll. Im Internet der Dinge spielt der Einsatz der Radio-Frequency-IdentificationTechnologie (RFID) eine große Rolle. RFID-Transponder ermöglichen mit relativ geringem Aufwand die Identifikation und Lokalisierung von Gegenständen. In der industriellen Herstellung erlauben sie eine direkte Kommunikation zwischen Produktionsanlage und dem sich im Herstellungsprozess befindlichen Produkt. Durch die Technik des Internets der Dinge können sich Industrieanlagen automatisch warten lassen. Selbstfahrende Elektromobile reservieren sich autonom eine Ladesäule, um wieder Strom zu tanken. Dass das keine allzu zukunftsferne Vision ist, zeigt beispielsweise die bevorstehende Serienreife von fahrerlosen Taxis oder die Zahl von rund 3 Milliarden Geräten weltweit, die bereits jetzt mit dem Internet vernetzt sind, häufig freilich noch ohne ausreichende Sicherheitsstandards (vgl. Fuest 2013). Komplexe Module aus elektronischen und mechanischen Bauteilen, die untereinander durch Netzkomponenten kommunizieren können und kollaborativ in einem größeren Ganzen, zum Beispiel einer Fabrik, interagieren, werden als cyber-physikalische Systeme (CPS, engl. cyber-physical systems) bezeichnet. In der prototypischen Demonstrationsanlage Smart Factory, die das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) mit über 15 Partnern aus der Industrie entwickelt hat, lassen sich wesentliche Merkmale einer aus CPS bestehenden Fertigungsanlage erkennen. Die Produktion organisiert sich hochautomatisiert und hochflexibel weitgehend ohne menschliches Zutun selbst, so dass auch Kleinserien oder personalisierte Produkte kostengünstig hergestellt werden könnten. Fabriken der Zukunft könnten auch die Herstellungsgeschwindigkeit selbsttätig an die Auftragslage anpassen oder nach Wirtschaftlichkeitsberechnungen entscheiden, wann sie die Produktion durchführen, zum Beispiel wenn günstiger Nachtstrom zur Verfügung steht.

326  5 Die Zukunft des Internets

Semantische Technologien Stellt man heute einer Suchmaschine die Frage „Welche wissenschaftlichen Studien haben sich mit den gesundheitsfördernden Wirkungen von Sport auseinandergesetzt?“, so erhält man keine Antwort auf die Frage als Treffer, sondern die Webseiten, die die Stichwörter der Frage wie hier „Studien“, „Wirkungen“ und „Sport“ enthalten. Die herkömmlichen syntaktischen Suchmaschinen können die Frage in ihrer inhaltlichen Dimension nicht verstehen. Sie suchen in einem Buchstabenvergleich vielmehr nach Übereinstimmung von Suchbegriffen und indexierten Webseiteninformationen, um eine Trefferliste zu generieren. Die ermittelten Suchergebnisse müssen vom Suchenden anschließend geprüft und intellektuell eingeordnet werden. Der Einsatz semantischer Technologien soll es hingegen ermöglichen, Fragen in ihrer inhaltlichen Dimension zu interpretieren und zu beantworten. Das Konzept des semantischen Webs (engl. semantic web), das bereits 1999 von Tim Berners-Lee im Web-Report vorgeschlagen wurde, beruht darauf, dass Wissensbestände durch die Hinzufügung von eindeutigen Beschreibungen (Metadaten) zu bedeutungstragenden Informationen organisiert werden, die Maschinen automatisch verarbeiten und zusammenführen können (siehe auch Berners-Lee 2009). Die semantische Komponente beinhaltet auch die Darstellung dieser Informationen und der Beziehungen ihrer Bedeutungen untereinander. Wie lässt sich die Funktion des semantischen Webs verdeutlichen? Versuchen wir es mit einem Beispiel (orientiert an Busse et al. 2014, S. 287): Sie möchten ein paar freie Tage an einem der bayerischen Seen südwestlich von München mit spirituellem Rückzugsort verbringen und geben in die Suchmaschine Ihrer Wahl folgende Suche ein: Hotel in Ort mit Strandbad an den bayerischen Seen und Kloster bei München. Zu Ihrem Erstaunen werden Ihnen als erste Treffer Webseiten eines Hotelbuchungssystems zu Übernachtungsmöglichkeiten in München, der Link zum Portal der Stadt München mit Hinweisen für Ausflugsziele sowie zu einem Reisebewertungsportal mit den Noten für das Kloster Andechs und einer Webseite zu Strandbädern, unter anderem im Bayerischen Wald, mit allgemeinen Informationen zu den Seen in Bayern angezeigt. Dass Sie jedoch im Fünf-Seen-Land südwestlich von München in einem Hotel, das in einem Ort mit Strandbad gelegen ist, übernachten wollen, versteht die herkömmliche Suchmaschine in der semantischen Komplexität der Anfrage nicht. Wie geht diese Suchmaschine zur Beantwortung Ihrer Anfrage vor? Sie betreibt einen Buchstabenvergleich und durchsucht das Web auf Angebote, die in einem Zeichenabgleich eine möglichst große Übereinstimmung mit Ihrer Anfra-

Semantische Technologien 

327

ge aufweisen (siehe Abbildung 7). Deshalb wird dieses Web in Abgrenzung vom semantischen Web auch als syntaktisches Web (engl. syntactic web) bezeichnet.

Abb. 7: Syntaktische versus semantische Suche (eigene Abbildung, orientiert an Busse et al. 2014).

Die Webseite mit allgemeinen Informationen zu Seen in Bayern zum Beispiel wird insbesondere durch die Überstimmung in den Suchworten „Seen“, „Ort“, „bayerischen“ (hier jedoch in Verbindung mit dem Wort „Lebensart“) und „Strandbad“ als besonders relevant für Ihre Suche betrachtet, wenngleich auch weitere Faktoren wie zum Beispiel die Linkstruktur und Ihr Standort die Trefferlisten bestimmen. Der zuerst gezeigte Treffer zum Hotelbuchungssystem für Übernachtungsmöglichkeiten in München ist natürlich eine Werbeanzeige, die prominent eingeblendet wird und mit Ihren Suchbegriffen harmoniert. Hätten Sie dieselbe Frage in Ihrer Reiseagentur um die Ecke gestellt, hätten Sie Angebote für Übernachtungsmöglichkeiten im Fünf-Seen-Land, zum Beispiel im Hotel Alpenblick in Herrsching, einem Ort am Ammersee in der Nähe des Klosters Andechs und mit Strandbad, erhalten. Anders als die Suchmaschine versteht die Reisekauffrau Ihres Vertrauens den Bedeutungsgehalt Ihre Frage und weiß, dass Sie am Ammersee im Fünf-Seen-Land bei München Badeurlaub

328  5 Die Zukunft des Internets

mit spirituellem Rückzug verbinden möchten. Eben dieses sollte auch das semantische Web leisten können. Wie ginge es vor? Unter Anwendung von logischen Prinzipien kann das semantische Netz automatische Schlussfolgerungen aus den vorhandenen Informationen ziehen. Da Andechs am Ammersee liegt, ein Kloster und Strandbad hat und der Ammersee wiederum durch seine Lage im Fünf-Seen-Land südwestlich von München liegen muss, ist das Hotel Alpenblick in Herrsching eine richtige Antwort auf die Suchanfrage. Man bezeichnet dieses Schlussfolgern aus gegebenen Informationen als „Reasoning“. Das semantische Web beinhaltet eine vernetzte Metadatenstruktur, die semantische Suchmaschinen interpretieren können und diese zu „Antwortmaschinen“ wie im oben gezeigten Beispiel werden lässt. Das semantische Web bewegt sich folglich im ordnenden Kontext von Wissensorganisation und Wissensrepräsentation. Wissen zu erschließen, zu sortieren, zu strukturieren und, in Ordnung gefügt, für die weitere Verwendung zur Verfügung zu stellen ist Gegenstand der Wissensorganisation. Die Wissensrepräsentation bildet hingegen die durch die Wissensorganisation begründete Ordnung ab. Das semantische Web als Form der Wissensrepräsentation stellt „eine Standardisierungsinitiative für eine verbindliche Repräsentation von Wissen mittels digitaler Technologien“ (Keller, Schneider und Volk 2014, S. 7) dar. Dem Konzept des semantischen Webs liegen drei Strukturprinzipen der Wissensorganisation und Wissensrepräsentation zugrunde, deren Ursprünge weit zurück in die vordigitale Zeit reichen: die Taxonomie, der Thesaurus und die Ontologie. Die Taxonomie ist ein hierarchisch strukturiertes Ordnungssystem, das eindeutige, nicht konkurrierende Klassenzuordnungen voraussetzt. Sie gliedert sich in Oberbegriffe und Unterbegriffe, die sogenannten Hypernymen und Hyponymen, die im Subordinationsverhältnis stehen. Im 18. Jahrhundert reformierte Carl von Linné die Biologie, indem er kurz vor der „Reform des Wissens“, wie Peter Burke das halbe Jahrhundert von 1750 bis 1800 bezeichnet, die Taxonomie als neues System zur wissenschaftlichen Klassifizierung erschuf und 1735 in seinem Werk „Systema Naturae“ niederschrieb (siehe Burke 2014, S. 300 ff.). Der Thesaurus ordnet inhaltlich zusammenhängende Begriffe einander zu und ermöglicht es, komplexere Begriffsbeziehungen bis hin zu assoziativen Verbindungen darzustellen. Die Grundlage dafür bilden sowohl die Einordnung in eine vertikal ausgerichtete Klassenhierarchie als auch die eher horizontal orientierte Vernetzung der Begriffe nach Gesichtspunkten der (Un-) Ähnlichkeit, Verwandtschaft, Teil-Ganzes-Beziehung und Opposition, wie sie durch bedeutungsgleiche bzw. ähnliche Wörter, die Synonyme, Wörter mit entgegengesetzter Bedeutung, die Antonyme, und Wörter zur Kennzeichnung der Teil-von-Beziehung, die Meronyme, abgebildet werden. Fälle der Wortgleichheit bei Sachverschiedenheit, der sogenannten Äquivokation, wie sie die Homo-

Semantische Technologien



329

nyme, die zufällig gleichlautenden Wörter mit abweichender Bedeutung, zum Beispiel Tau, und die Polyseme, die systematisch mehrdeutigen Wörter, zum Beispiel Läufer, darstellen, lassen sich in einem Thesaurus ebenfalls unterbringen. In ihren semantischen Beziehungen uneingeschränkt ist die Ontologie, die im Kontext der Informationstechnologie als „formale Definition von Begriffen und deren Beziehung als Grundlage für ein gemeinsames Verständnis“ (Busse et al. 2014, S. 286) bezeichnet wird. Eine Ontologie formalisiert die Bedeutung von Informationen und deren Beziehungen zueinander. Dadurch schafft sie die Voraussetzung für eine informationstechnologische Nutzung und spiegelt in diesem Kontext reale Zusammenhänge in ihrer semantischen Komplexität wider, die sie in „logisch einwandfrei definierte[n], maschinell interpretierbare[n] Beschreibungen des Sprach- und Weltwissens“ (Keller, Schneider und Volk 2014, S. 13) abbildet. Eng verbunden mit dem semantischen Web ist der Begriff der Linked Open Data (LOD). Bei Linked Open Data handelt es sich um einen bestimmten, frei im Internet verfügbaren und semantisch strukturierten Datenbestand, der von Maschinen gelesen werden kann. Miteinander verbunden ergibt die Gesamtheit der Linked Open Data die Linked (Open) Data Cloud oder den Giant Global Graph (GGG). Im Projekt DBpedia zum Beispiel wird der Inhalt der Wikipedia mit einer semantisch aufbereiteten Datenstruktur versehen und mit anderen Datenbeständen vernetzt. Oftmals werden die Begriffe semantisches Web und Linked Open Data als Synonyme gesehen. Genau betrachtet, bezeichnet das semantische Web die Gesamtheit der semantischen Technologien, während der Begriff der Linked Open Data sich auf die Konzepte der Strukturierung, Verlinkung und Veröffentlichung der zugrunde liegenden Datenbestände bezieht. Beispiele für Anwendungen von semantischen Technologien sind der Google knowledge graph (siehe https://www.google.com/intl/bn/insidesearch/features/search/knowledge.html), die Suchmaschine Wolfram Alpha oder die multilinguale semantische Suche SLUBsemantics der Staats- und Universitätsbibliothek Dresden. Der flächendeckende Einsatz von semantischen Technologien brächte unter anderem die folgenden Mehrwerte: – Semantisch annotierte multimediale Inhalte wie Videos, Bilder oder Audiodateien können grundsätzlich auch von Suchmaschinen gefunden werden. – Neben Suchmaschinen gibt es im Netz auch Antwortmaschinen, die auf komplexe Fragestellungen Antworten aus dem Web zusammenstellen. – Die verkettete Automatisierung von Transaktionen im Internet nimmt stark zu. Eine Buchung einer Mietwagenreise zöge beispielsweise automatisch

330  5 Die Zukunft des Internets



die Hotel- bzw. Mietwagenreservierung und das Programmieren des Navigationssystems des Mietwagens nach sich. Große Mengen von Dokumenten aus diversen Quellen werden automatisch ausgewertet und zueinander in Beziehung gesetzt, so dass bisher unerkannte Zusammenhänge sichtbar werden können, was beispielsweise bei der Erforschung der Entstehung von Krankheiten eine große Rolle spielen könnte.

Die semantische Annotation kann nur teilweise automatisch durchgeführt werden. Wie bei Social-Web-Projekten werden es viele einzelne Webteilnehmer sein, die die semantische Transformation durchführen. Deshalb wird das semantische Web auch häufig als „Web 3.0“ bezeichnet, da den Web-2.0-Elementen noch die semantische Struktur (kollaborativ) hinzugefügt wird.

Künstliche Intelligenz Maschinen, die im Restaurant anrufen und einen Tisch reservieren, ohne dass die Bedienung bemerkt, mit einer Software zu sprechen: Das ist der Stand der intelligenten Agenten von heute, demonstriert bei der Google-Entwicklerkonferenz I/O am Beispiel der künstlichen Intelligenz Google Duplex. Künstliche Intelligenz (KI, engl. AI für artificial intelligence) ist ein Teilgebiet der Informatik, das nicht präzise definiert oder abgegrenzt werden kann, da auch dem Begriff der Intelligenz keine allgemeingültige Definition zugrunde liegt. Es geht bei der KI-Forschung vor allem um das Nachbilden natürlicher Intelligenz mittels Agenten. Agenten sind Softwaremodule, die – häufig, aber nicht immer – ihre Umwelt durch Sensoren wahrnehmen können, zu ihrer Zielerreichung autonom handeln, Probleme lösen und dabei, sofern es sich um komplexere Agenten handelt, permanent lernen und sich so in ihrem speziellen Einsatzgebiet optimieren und anpassen können. Die Fähigkeit der Agenten zu lernen wird als maschinelles Lernen bezeichnet. Zum Training wird eine immense Menge von Beispielen benötigt. Aus diesen Beispielen kann der Agent abstrahieren und Gesetzmäßigkeiten ableiten. Erfolgreich trainiert, können Agenten Muster in Bildern erkennen und so zum Beispiel Krebszellen von gesunden Zellen besser und schneller unterscheiden als erfahrene Pathologen. Der Einsatz von Agenten wird in ganz unterschiedlichen Bereichen schon durchgeführt bzw. projektiert. Spracherkennung, Sprachsynthese, das heißt die künstliche Erzeugung der menschlichen Stimme, Handschriftenerkennung, autonomes Fahren, Robotik, Medizintechnik und medizinische Diagnose, Prognostik, Textanalyse bzw. Textgenerierung und Videoanalysen bilden nur einen Ausschnitt aus dem breiten Anwendungsspektrum der Agenten. Künstliche

Literatur 

331

Intelligenz kann spezielle Arbeiten besser und schneller als ein Mensch erledigen und auch Arbeiten übernehmen, die von Menschen aus guten Gründen nicht gerne erledigt werden. So können Videos oder Bilder, die in die sozialen Netzwerke hochgeladen werden und extreme Gewalt oder ähnlich drastische Darstellungen enthalten, von Agenten automatisch erkannt und gelöscht werden. Auf der anderen Seite zeigt sich, dass die Verwendung von Agenten eine Reglementierung und Kontrolle erfahren muß, da deren Technik vielen Menschen Schaden zufügen oder sie zumindest verunsichern kann. Durch den Einsatz künstlicher Intelligenz wird es sehr schwierig, das Original von der Fälschung zu unterscheiden, und zwar in zweierlei Hinsicht: Zum einen können Agenten, die in den sozialen Netzwerken oder am Telefon ihren Dienst tun, mit Menschen verwechselt werden, durch Stimmimitation mittels Sprachsynthese sogar mit bekannten oder vertrauten Menschen. Zum anderen können heute Videos samt Tonaufnahmen so perfekt durch künstliche Intelligenz manipuliert werden, dass Fälschungen, sogenannte „Deep Fakes“, nicht auf Anhieb erkannt werden können (als Beispiel siehe das YouTube-Video „You Won't Believe What Obama Says In This Video!“, https://www.youtube.com/watch? v=cQ54GDm1eL0, 11.06.2018). Die Technik, die als kostenlose Software im Netz erhältlich ist, könnte Qualität und Quantität der Fake News im Netz noch weiter ansteigen lassen. Aviv Ovadya (2018) vom Center for Social Media Responsibility der University of Michigan warnt deshalb vor der „Infokalypse“, einer „Erosion der Wahrheit, ausgelöst durch moderne Technologien“.

Literatur Berners-Lee, Tim: Tim Berners-Lee über das nächste Web. 2009, https://www.ted.com/talks/ tim_berners_lee_on_the_next_web?language=de (24.06.2018). Berners-Lee, Tim: Der Web-Report. München, 1999. Bonte, Achim, Robert Glass und Jens Mittelbach: Brillante Erweiterung des Horizonts: Eine multilinguale semantische Suche für den SLUB-Katalog, in: BIS - Das Magazin der Bibliotheken in Sachsen 4 (2011), Heft 4, S. 210–213. http://nbn-resolving.de/urn:nbn:de: bsz:14-qucosa-80076 Burke, Peter: Die Explosion des Wissens. Von der Encyclopédie bis Wikipedia. Berlin 2014. Busse, Johannes, Bernhard Humm, Christoph Lübbert, Frank Moelter, Anatol Reibold, Matthias Rewald, Veronika Schlüter, Bernhard Seiler, Erwin Tegtmeier und Thomas Zeh: Was bedeutet eigentlich Ontologie? Ein Begriff aus der Philosophie im Licht verschiedener Disziplinen, in: Informatik Spektrum 37 (2014), S. 286–297. Fensel, Dieter, James Hendler, Henry Lieberman und Wolfgang Wahlster (Hrsg.): Spinning the Web. Bringing the World Wide Web to Its Full Potential. Cambridge/London, 2003.

332  5 Die Zukunft des Internets

Fuest, Benedikt: Wo im Internet der Dinge die größte Gefahr lauert. 2013, http://www.welt.de/ wirtschaft/webwelt/article118464830/Wo-im-Internet-der-Dinge-die-groesste-Gefahrlauert.html (06.06.2018). Härting, Niko: Internetrecht. 6. Auflage. Köln, 2017. Heitmüller, Ulrike: Predictive Policing: Die deutsche Polizei zwischen Cyber-CSI und Minority Report. 2017, https://www.heise.de/newsticker/meldung/Predictive-Policing-Diedeutsche-Polizei-zwischen-Cyber-CSI-und-Minority-Report-3685873.html (23.06.2018). Hitzler, Pascal, Markus Krötzsch, Sebastian Rudolph und York Sure: Semantic Web. Grundlagen. Berlin/Heidelberg, 2008. Hurtz, Simon: Künstliche Intelligenz – Diese Technologien können Angst machen. 2018, http://www.sueddeutsche.de/digital/kuenstliche-intelligenz-diese-technologienkoennen-angst-machen-1.3985146 (12.06.2018). Keen, Andrew: Why life through Google Glass should be for our eyes only. 2013, http:// edition.cnn.com/2013/02/25/tech/innovation/google-glass-privacy-andrew-keen (06.06.2018). Keller, Stefan Andreas, René Schneider und Benno Volk: Die Digitalisierung des philosophischen Zettelkasten, in: Keller, Stefan Andreas, René Schneider und Benno Volk (Hrsg.): Wissensorganisation und -repräsentation mit digitalen Technologien. Berlin/Boston, 2014, S. 1–19. Ovadya, Aviv: „Man kann Menschen alles unterjubeln, so lange es ihr Weltbild bestätigt“. Interview von Quentin Lichtblau. 2018, https://www.jetzt.de/digital/aviv-ovadya-warntvor-der-infokalypse (12.06.2018). Paul, Holger: Auch die „Smart Factory“ braucht einen, der sie baut. 2014, http://www.faz.net/ aktuell/politik/denk-ich-an-deutschland-1/fabrik-der-zukunft-auch-die-smart-factorybraucht-einen-der-sie-baut-13173740-p3.html (06.06.2018). Tene, Omer und Jules Polonetsky: Big Data for All: Privacy and User Control in the Age of Analytics, in: Northwestern Journal of Technology and Intellectual Property 11 (2013), Heft 5, S. 239–273, https://scholarlycommons.law.northwestern.edu/njtip/vol11/iss5/1/ (04.04.2018). Weichert, Thilo: Big Data und Datenschutz. Chancen und Risiken einer neuen Form der Datenanalyse, in: ZD 2013, S. 251–259. Weiser, Mark: The Computer for the 21st Century. 1991, https://www.ics.uci.edu/~corps/ phaseii/Weiser-Computer21stCentury-SciAm.pdf (06.06.2018).

Ausblick: Bibliotheken der Zukunft Die Infokalypse, die Erosion der Wahrheit, mit deren Ankündigung wir das letzte Kapitel geschlossen haben, ist eine Gefahr, der die Bibliotheken nach ihrem modernen Selbstverständnis zu begegnen verpflichtet sind. Die Frage, ob wir Bibliotheken in der Zukunft noch brauchen, müsste unter den Bedingungen der technologischen Entwicklung anders lauten: Brauchen wir Bibliotheken in der Zukunft nicht mehr denn je? Das Internet und insbesondere das Web als seine wichtigste Anwendung sind in einem diskursiven Miteinander von Forschenden entstanden, deren Ideen von der Vernetzung, Offenheit, Gleichberechtigung und Kooperation den Entstehungskontext prägten. Dennoch handelt es sich wie bei allen Medien um eine wertneutrale Infrastruktur, deren Nutzung heute von einer enormen ethischen Pluralität gekennzeichnet ist, in der die Prinzipien der Wahrheitsorientierung, Wahrhaftigkeit, Richtigkeit und Gerechtigkeit bisweilen der Beliebigkeit preisgegeben und die Steuerungsfähigkeit des Rechts eingeschränkt zu sein scheinen. Ihre Verwirklichung muss zentraler Gegenstand des gesamtgesellschaftlichen Diskurses über das Internet und seine Ethik sein. Die Wirkmächtigkeit von Internet und Web als zunehmend bedeutsamem gesellschaftlichem Lebensraum entfaltet sich in einem konfliktreichen Spannungsfeld von Konstruktivität und Destruktivität, das zu gestalten in der Verantwortung aller gesellschaftlichen Akteure liegt. Ohne die Einsicht, dass bei der Gestaltung dieses Raums insbesondere die Universalie der Wahrheitsorientierung eine Verpflichtung und keine unverbindliche Idee ist, wird sich kein konstruktives, sinnstiftendes Konzept, das dieser Beliebigkeit entgegentreten kann, verwirklichen lassen. Das Internet ist nur dann eine Wissenswelt, wenn seine Nutzer die Wahrheitsorientierung als conditio sine qua non verstehen. Im postfaktischen Zeitalter, in dem die Wahrheit ins Abseits gestellt wird und Instrumentalisierung und Manipulation von Informationen zu beliebten Werkzeugen im Kampf um Meinungsmacht werden, ist nicht nur das Medium Internet einer fundamentalen Entfremdungstendenz ausgesetzt. Auch die Grundfesten des demokratischen Miteinanders und der Freiheit des Einzelnen drohen zu erodieren, wenn der Wille zur Wahrheit schwindet und durch „gefühlte“ oder „alternative Fakten“ ersetzt wird. Es ist die tradierte Aufgabe von Bibliotheken, dem Streben nach Erkenntnis, nach Wahrheit eine Heimat zu geben. Diese Aufgabe stellt sich ihnen auch und vor allem im Digitalen. Bibliotheken sollten ermuntert sein, die Wissenswelt https://doi.org/10.1515/9783110338966-007

334  Ausblick: Bibliotheken der Zukunft

Internet als Infrastruktur zu verstehen, ihr gemeinsam Gehalt zu geben und sie zu konturieren. Sie können Menschen auf der Suche nach Wahrheit, aber auch Kommunikation und Kooperation nicht nur im Physischen einen Ort geben, sondern sie auch unter ihrem virtuellen Dach zusammenführen. Denn Erkenntnis ist im Analogen wie im Digitalen ohne Intersubjektivität nicht denkbar. Als gesellschaftliche Akteure stehen Bibliotheken in der Verantwortung, den ethischen Prinzipien der Wahrheitsorientierung, Wahrhaftigkeit, Richtigkeit und Gerechtigkeit auch im virtuellen Lebensraum zur Geltung zu verhelfen. Sie können der Erosion der Wahrheit aktiv entgegentreten und ihr Handeln in den Dienst einer Kultur der Wahrheitsorientierung stellen. Ihr Mut und ihre Entschlossenheit werden unentbehrlich sein, um die Information, Wissenskonstruktion und Deutungshoheit im Internet nicht jenen zu überlassen, die eben diese dem ethischen Minimum entheben und für die Bibliotheken überholte Institutionen der vergangenen Zeit sind, die sich nicht in 280 Zeichen fassen lassen.

Abkürzungsverzeichnis A4AI AAAS Abs. a.E. AfD AFIPS AG AI Anm. APC AR ARPA Art. ASCII AT&T Az. BASE BBN BDSG BGB BGH BMBF BND BSI BuB Buchst. bzw. CBS CC CCC ccTLD CERN CERT CPA CPC CPI CPS CSNET CTR Cyber-AZ DARPA DDC DENIC DFG

Alliance for Affordable Internet American Association for the Advancement of Science Absatz am Ende Alternative für Deutschland American Federation of Information Processing Societies Aktiengesellschaft Artificial Intelligence Anmerkung Article Processing Charge Augmented Reality Advanced Research Projects Agency Artikel American Standard Code for Information Interchange American Telephone and Telegraph Aktenzeichen Bielefeld Academic Search Engine Bolt, Benarek und Newman Bundesdatenschutzgesetz Bürgerliches Gesetzbuch Bundesgerichtshof Bundesministerium für Bildung und Forschung Bundesnachrichtendienst Bundesamt für Sicherheit in der Informationstechnik Forum Bibliothek und Information Buchstabe beziehungsweise Columbia Broadcasting System Creative Commons Chaos Computer Club Country Code Top Level Domain Conseil Européen pour la Recherche Nucléaire Computer Emergency Response Team Cost per Action (auch bekannt als Cost per Conversion) Cost-per-Click Cost per Impression cyber-physikalisches System Computer Science Research Network Click-through Rate Nationales Cyber-Abwehrzentrum Defense Advanced Research Projects Agency Dewey Decimal Classification (Dewey-Dezimal-Klassifikation) Deutsches Network Information Center Deutsche Forschungsgemeinschaft

https://doi.org/10.1515/9783110338966-008

336  Abkürzungsverzeichnis

DFKI d.h. DIMDI DIPF DLR DNB DNS DoD DOI DSGVO DSK dt. DuD DVD EG e.G. EGMR EMRK engl. et. al. etc. ETH EU EuGH EUnet EURid EUROPOL EuroPriSe e.V. evtl. EWG EZB f. FAZ FBI ff. Fn. frz. FTC FTP GEMA GG GGG ggü.

Deutsches Forschungszentrum für Künstliche Intelligenz das heißt Institut für Medizinische Dokumentation und Information Deutsches Institut für Internationale Pädagogische Forschung Deutsches Zentrum für Luft- und Raumfahrt Deutsche Nationalbibliothek Domain Name System Department of Defense Digital Object Identifier Datenschutz-Grundverordnung Konferenz der unabhängigen Datenschutzbehörden des Bundes und der Länder deutsch Datenschutz und Datensicherheit Digital Video Disc bzw. Digital Versatile Disc Europäische Gemeinschaften eingetragene Genossenschaft Europäischer Gerichtshof für Menschenrechte Europäische Menschenrechtskonvention englisch et alii (Maskulinum), et aliae (Femininum) oder et alia (Neutrum) (dt. und andere) et cetera Eidgenössische Technische Hochschule Europäische Union Europäischer Gerichtshof European UNIX Network European Registry of Internet Domain Names Europäisches Polizeiamt European Privacy Seal eingetragener Verein eventuell Europäische Wirtschaftsgemeinschaft Elektronische Zeitschriftenbibliothek folgende Frankfurter Allgemeine Zeitung Federal Bureau of Investigation fortfolgende Fußnote französisch Federal Trade Commission File Transfer Protocol Gesellschaft für musikalische Aufführungs- und mechanische Vervielfältigungsrechte Grundgesetz Giant Global Graph gegenüber

Abkürzungsverzeichnis 

GmbH GPS GRUR gTLD Hrsg. HTML HTTP HTTPS IANA IAO IBM ICANN ICCC ID IDN i.d.S. i.e. IE IETF IM IMDb IMP Inc. INTERPOL IoT IP IPTO i.S. i.S.d. ISIS ISO ISOC IT IT-SiG i.V.m. JMStV JRC Juris juris PR-ITR JuSchG KI KIT KRITIS KUG KVK LAN

337

Gesellschaft mit beschränkter Haftung Global Positioning System Gewerblicher Rechtsschutz und Urheberrecht Generic Top Level Domain Herausgeber Hypertext Markup Language Hypertext Transfer Protocol Hypertext Transfer Protocol Secure Internet Assigned Numbers Authority Fraunhofer-Institut für Arbeitswirtschaft und Organisation International Business Machines Internet Corporation for Assigned Names and Numbers International Conference on Computer Communications Identifikator Internationalized Domain Name in diesem Sinne id est (dt. das heißt) Internet Explorer Internet Engineering Task Force Index Medicus International Movie Data Base Interface Message Processor Incorporation International Criminal Police Organization Internet of Things Internet Protocol Information Processing Techniques Office im Sinne im Sinne des/der Institute for Science and International Security International Organization of Standardization Internet Society Informationstechnologie IT-Sicherheitsgesetz (Gesetz zur Erhöhung der Sicherheit informationstechnischer Systeme) in Verbindung mit Jugendmedienschutzstaatsvertrag Joint Research Centre of the European Commission Juristisches Informationssystem für die Bundesrepublik Deutschland jurisPraxisReport IT-Recht Jugendschutzgesetz Künstliche Intelligenz Karlsruher Institut für Technologie Kritische Infrastrukturen Kölner Universitätsgesamtkatalog Karlsruher virtueller Katalog Local Area Network

338  Abkürzungsverzeichnis

lat. LEO LG LOD LRZ LSTRC mbH MEDLARS Medline MeSH MIT MMR MNP N. Nbn NCBI NCP NetzDG NIC NIST NJW NLM NPD NPOV NSA NSCA NSDAP NSF NSFNET NWG NYPD NYT OAI-PMH OCLC o.J. OLG OLPC OPAC o.O. OSI PC PEN PG PI PIN PR PURL

lateinisch Link Everything Online Landgericht Linked Open Data Leibniz-Rechenzentrum Literature Selection Technical Review Committee mit beschränkter Haftung Medical Literature Analysis and Retrieval System Medical Literature Analysis and Retrieval System Online Medical Subject Headings Massachusetts Institute of Technology MultiMedia und Recht Military Networking Protocol Number National Bibliography Number National Center for Biotechnology Information Network Control Protocol Netzwerkdurchsetzungsgesetz Network Information Center National Institute for Standards and Technology Neue Juristische Wochenschrift National Library of Medicine Nationaldemokratische Partei Deutschlands neutral point of view National Security Agency National Center for Supercomputing Applications Nationalsozialistische Deutsche Arbeiterpartei National Science Foundation National Science Foundation Network Network Working Group New York Police Department New York Times Open Archives Initiative Protocol for Metadata Harvesting Online Computer Library Center ohne Jahresangabe Oberlandesgericht One Laptop per Child Online Public Access Catalogue ohne Ortsangabe Open Systems Interconnection Model Personal Computer Poets, Essayists, Novelists Project Gutenberg Persistent Identifier Persönliche Identifikationsnummer Public Relations Persistent Uniform Resource Locator

Abkürzungsverzeichnis 

RAND RDS RFC RFID RL Rn. RSS S. SAGE-Net SDS SEO SERP Session-ID SLAC SMS SQL SRI SRI-NIC SSP StGB SZ TB TCP TKG TLD TMG TPB TU u.a. u.ä. UCSB UCLA UdÖ UdP UDP UGC ULD UN UNDP UrhG URL URN US USA USB USCYBERCOM Usenet

Research and Development Resource Discovery System Request for Comments Radio Frequency Identification Richtlinie Randnummer Really Simple Syndication Seite Semi-Automatic Ground Environment Network Scientific Data System Search Engine Optimization Search Engine Result Page Session Identifier Stanford Linear Accelerator Center Short Message Service Structured Query Language Stanford Research Institute Stanford Research Institute's Network Information Center Society for Science & the Public Strafgesetzbuch Süddeutsche Zeitung Terabyte Transmission Control Protocol Telekommunikationsgesetz Top Level Domain Telemediengesetz The Pirate Bay Technische Universität unter anderem und ähnlich University of California, Santa Barbara University of California, Los Angeles Unterrichtungen der Öffentlichkeit Unterrichtungen des Parlaments User Datagram Protocol User-generated Content Unabhängiges Landeszentrum für Datenschutz Schleswig-Holstein United Nations United Nations Development Programme Gesetz über Urheberrecht und verwandte Schutzrechte Uniform Resource Locator Uniform Resource Name United States United States of America Universal Serial Bus United States Cyber Command UNIX User Network

339

340  Abkürzungsverzeichnis

usw. UTAH VG vgl. VR VRE W3C WAZ WRP WWW XML z.B. ZD ZHAW ZRP z.T. ZugErschwG ZUM

und so weiter University of Utah Verwaltungsgericht vergleiche Virtual Reality Virtual Research Environment World Wide Web Consortium Westdeutsche Allgemeine Zeitung Wettbewerb in Recht und Praxis World Wide Web Extensible Markup Language zum Beispiel Zeitschrift für Datenschutz Zürcher Hochschule für angewandte Wissenschaften Zeitschrift für Rechtspolitik zum Teil Zugangserschwerungsgesetz Zeitschrift für Urheber- und Medienrecht

Abbildungsverzeichnis Abb. 1: Meilensteine auf dem Weg ins Internetzeitalter Abb. 2: Das TCP/IP-Modell Abb. 3: Beispiel für eine vermaschte Netzwerktopologie Abb. 4: Hierarchieebenen von Domänenstrukturen Abb. 5: Die DNS-Hierarchie Abb. 6: Schema einer indexbasierten Suchmaschine Abb. 7: Syntaktische versus semantische Suche

https://doi.org/10.1515/9783110338966-009

Personenregister Anderson, Chris 119 Andreessen, Marc 83 Baran, Paul 7, 9, 12 Barlow, John Perry 1 Berners-Lee, Tim 79–83, 91, 118, 121–122, 187–188, 326 Bezos, Jeff 118 Billings, John Shaw 281–283 Bina, Eric 83 Bloom, Paul 123 Brandeis, Louis 42–43 Brin, Sergei 216 Burke, Peter 266–267, 328 Bush, George W. 20, 80–81, 220 Bush, Vannevar 80, 114

Hart, Michael Stern 277 Hastings, Reed 179–180 Herzfeld, Charlie 7 Hippokrates von Kos 41 Hurley, Chad 171 Jones, Alex 271 Jung, Achim 279 Kahle, Brewster 280 Kahn, Robert 9, 14, 16, 81 Kale, Claudia 37 Karim, Jawed 171 Kay, Alan 277 Kleinrock, Leonard 5–10, 18–19, 79 Krums, Janis 137

Cerf, Vinton 14, 16, 32 Chen, Steve 171 Clapper, James R. 308 Clark, Wesley 9 Cunningham, Ward 141

Léandri, Eric 241 Licklider, Joseph 6 Linné, Carl von 328 Lippmann, Waltera 197 Lobe, Adrian 280–281

d'Alembert, Jean 79 Davies, Donald Watt 7–8 Diderot, Denis 79 Döpfner, Matthias 236 Duhigg, Charles 311

Marthews, Alex 314 Matherly, John 308 Mayer-Schönberger, Viktor 209 Meckel, Miriam 122 Merton, Robert 93 Metcalfe, Bob 16 Mockapetris, Paul 64 Morris, Robert Tappan 28

Elbakyan, Alexandra 290 Elisabeth II. 82 Erdogan, Recep Tayyip 73 Fichte, Johann Gottlieb 95 Filo, David 213 Floridi, Luciano 308 Freistetter, Florian 186 Gates, Bill 83 Ginsparg, Paul 28 Gore, Al 19–20, 283 Gray, Matthew 195

https://doi.org/10.1515/9783110338966-010

Needham, Colin 279 Negroponte, Nicolas 94, 310–311 Nelson, Ted 80 O'Reilly, Tim 118–119, 121–122, 220 Page, Larry 216 Pariser, EIi 221 Radde-Antweiler, Kerstin 306 Randolph, Marc 179 Roberts, Lawrence 11

344  Personenregister

Rotert, Michael 85, 89 Rozan, Jean-Manuel 241

Van Dam, Andries 277 van Dijk, Jan 93

Sanger, Larry 255 Sedlmayr, Walter 167 Shapiro, Elmer 10 Simitis, Spiros 44 Snowden, Edward 30, 114, 243, 311, 314 Socolofsky, Theodore 37

Wales, Jimmy 255, 266 Warren, Samuel D. 42–43 Weinberg, Gabriel 243 White, Gregory L. 312–313 Wu, Tim 57 Yang, Jerry 118, 213

Taylor, Robert 7, 308 Tentler, Dan 309 Todd, Amanda 291 Tomlinson, Ray 11 Tucker, Catherine 314

Zeh, Juli 315 Zimbardo, Philip G. 297–299, 312–313

Sachregister 3Com 16 9GAG 90 Advanced Research Projects Agency → ARPA Afghanistan-Papiere 142 AFIPS 10 Algorithmus 198, 216–217, 219, 223–224, 240, 242, 323 Allgemeine Erklärung der Menschenrechte 43, 91 Alphabet Inc. → Alphabet-Holding Alphabet-Holding 229 Altruismus 124 American Federation of Information Processing Societies → AFIPS American Standard Code for Information Interchange → ASCII American Telephone and Telegraph → AT&T Ankertext 220 Anonymisierung 234, 241, 299 – Deanonymisierung 234 Anycasttechnik 73 APC 27 Architecture of Participation 119 ARPA 6–7, 9–10, 12–13, 16, 19 Arpanet 5–14, 19, 37, 277 Article Processing Charge → APC arXiv 28 ASCII 11 AT&T 7 Augmented Reality 321 Ausschließlichkeitsrecht 96 Ausspähung 44, 50 Autocomplete → Automatische Vervollständigung Autocomplete-Funktion → Automatische Vervollständigung Automatische Übersetzung 237 Automatische Vervollständigung 237 Backlink 215, 217 BASE 244–246 BBN 9, 11

https://doi.org/10.1515/9783110338966-011

BDSG → Datenschutz, Bundesdatenschutzgesetz Beschwerde 306 – Beschwerdemechanismus 305 – Beschwerderecht 48 Beseitigung 63, 70, 258 – Beseitigungsanspruch 70 Bestimmbarkeit der Person 53, 55–56, 151, 234 BGB 21, 70 Bibliothek 2, 26–27, 99, 109, 113, 150, 162, 175, 195, 230, 244–246, 268, 274–277, 279, 281–282, 284–285, 289, 301, 333–334 – Bibliothekskatalog 98, 113, 196, 245, 274, 276 Big Data 175, 320, 324 – Korrelation 323 – Predictive Policing 322 Bilder-Reverse-Suche 272 Bilderhoster 120 Blog 22, 120, 122, 124–125, 127–129, 135– 136, 183–186, 217, 219, 258, 270, 284, 294, 298 – Blogger 120, 127–129, 186 – Blogosphäre 127, 185 – Blogroll 127 – Microblog 183, 185 – Trackback 127 – Weblogsoftware 127 – Wissenschaftsblog 186 Börsenverein des Deutschen Buchhandels 109 Bolt, Benarek and Newman → BBN Breitbandinternet 91 Browsen 79, 82, 195 Browser 71, 82–83, 97, 195, 200, 219, 221 Bürgerliches Gesetzbuch → BGB Bundesgerichtshof 21–22, 53–60, 63, 69– 70, 74, 100–104, 107–112, 126, 128– 129, 134, 136, 142–143, 145, 147, 163– 164, 166–169, 173–174, 176–178, 201, 204–205, 224–225, 235, 238, 258, 299–300, 303–305

346  Sachregister

Bundesministerium der Justiz 305 Bundesnetzagentur 62 Bundesverband der Phonographischen Wirtschaft 109 Bundesverfassungsgericht 44, 46, 49–51, 62–64, 68, 86–88, 129, 131, 164–166, 247, 294–297, 299, 313–315 Bußgeld 126, 240 Cache 68, 72 Cache Poisoning 68 CERN 79–80, 82–83, 85 CERT 29 Charta der Grundrechte der Europäischen Union → EU-Grundrechtecharta Chat → Internetdienst, Instant Messaging Chilling Effect 313–314 Cloaking 219 Computer Emergency Response Team → CERT Computer Science Research Network → CSNET Content ID 171 Cookies 152–154, 234–236 – Europäische Cookies-Richtlinie 234 – Persistent Cookies 234 – Session Cookies 234 Country Code Top Level Domain → Domänenstruktur, ccTLD Creative Commons 260 Creative-Commons-Lizenz → Open Content Cross-Language Information Retrieval 245 Crowd Intelligence → Schwarmintelligenz CSNET 13–14, 19, 85 Cyberangriff 31, 56 Cyberbalkanisierung 123 Cyberkrieg 29 – Cyberattacke 30–31, 56, 308 – Cyberwaffen 30–31, 307 – Shodan 308 Cyberkriminalität 91, 307–308 – Cybercrime-Konvention 307 – Cyberstraftaten 307 Cybermobbing 291–295, 298–299 – Doxing 292 – Trolling 292

Dark Web 113–114 Darknet 113 DARPA 16, 31, 113–114 Dashcam 126 Datenanalyse 47, 311, 322 Datenmissbrauch 44 Datenschutz 41, 44, 46–47, 52, 56, 126, 150, 187, 241–243, 323 – Abwehrmechanismus 46–47 – Bundesdatenschutzgesetz 44, 50, 54, 125, 127, 232 – Datenschützer 47, 52, 150–151, 240 – Datenschutz-Grundverordnung 47–48, 50, 53, 55–56, 125, 127, 161, 167, 169, 209– 210, 234–236, 324 – Datenschutzerklärung 48 – Datenschutzrecht 23, 41, 44, 46–47, 50– 51, 53, 56, 61, 125, 155, 168, 210, 234, 236 – Haushaltsausnahme 125–127 – Konferenz der unabhängigen Datenschutzbehörden des Bundes und der Länder 155 – Landesdatenschutzgesetz 44 – Recht auf Vergessenwerden 209-210 – Verbot mit Erlaubnisvorbehalt 47 – Verbotsprinzip 47 Datenschutzrichtlinie → Datenschutz, Datenschutz-Grundverordnung Datensicherheit 62, 310, 324 Datenverarbeitung 8, 44–48, 125–126, 152– 155, 167, 209–210, 236, 240, 282 – Datenverarbeitende Stelle 53 DBpedia 329 Deep Fake 331 Deep Web 113, 245 Defense Advanced Research Projects Agency → DARPA Deindividualisierung 232 Deindividuation 297–298, 313 DENIC 66–67, 69–71 Deutsches Forschungsnetz 16 Deutsches Forschungszentrum für Künstliche Intelligenz → DFKI Deutsches Network Information Center → DENIC

Sachregister 

Development Programme der Vereinten Nationen → UNDP DFKI 91, 325 Die Deutsche Bibliothek 109 Diensteanbieter → Internet-Service-Provider Digital Divide → Digitale Spaltung Digital Humanities 185 Digital Object Identifier 99, 289 Digital Object Identifier → Persistent Identifier, DOI Digitale Gesellschaft 93 Digitale Kluft → Digitale Spaltung Digitale Kompetenz 92 Digitale Spaltung 92–94 – First digital divide 93 – Second digital divide 93 Digitales Vergessen 209 Digitalisierung 1, 80, 93, 214, 230–231 Digitalität 80 Disclaimer 147 Distributed Computing 13 DNS-Datenbank 65 DNS-Hijacking 68 DNS-Server 65–66, 68, 71, 73 – forward lookup 71 – recursive query 72 – reverse lookup 71 DNS-Spoofing 68 DOI → Digital Object Identifier Domänendatenbank 67 Domäneninhaber 67, 69 Domänennutzungsrecht 69 Domänenregistrierung 69 Domänenstruktur 64–65, 341 – ccTLD 66 – gTLD 66 – Second Level Domain 65, 67 – Subdomäne 65, 72 – Third Level Domain 65 – TLD 64–67, 70–72 Domänenverwaltung 70 Domain Grabbing 69–70 Dotcomblase 24, 118, 122, 212, 220 Download 58, 105, 178, 180, 278–279, 289 Drill-Down-Methode 275

347

DSGVO → Datenschutz, Datenschutz-Grundverordnung E-Commerce 84, 234 E-Mail → Internetdienst Echokammer 221 EGMR → Europäischer Gerichtshof für Menschenrechte Einwilligung 47–48, 57, 90, 103, 134, 140, 158–161, 167–168, 225, 235–236, 249, 260 – Widerruflichkeit der Einwilligung 48 Elektronische Leseplätze 2 EMRK → Europäische Menschenrechtskonvention Encyclopaedia Britannica 255–256, 264 Enthüllungsplattform 144 Entschädigungspflicht 21 Erwerbungsetat 26, 28 Ethernet 15, 36 EU → Europäische Union EU-Grundrechtecharta 105, 110, 144, 168 EU-Kommission 62, 239–240 EUnet 13 EURid 67 Europäische Kommission → EU-Kommission Europäische Menschenrechtskonvention 168–169, 203 Europäische Union 23, 47, 67, 148, 234, 240 Europäischer Gerichtshof 62 Europäischer Gerichtshof für Menschenrechte 169 Europäisches Parlament 30 European Registry of Internet Domain Names → EURid European UNIX Network → EUnet Exklusivitätskultur 25, 27, 290 Extremismus 306 Facebook 24, 30, 90, 123, 138, 143, 148, 150–151, 153–156, 158–160, 179, 183, 188, 221, 226, 234, 291, 303, 305, 307, 311–312 – Facebook Insights 151 Fachcommunity 284 Fake News 187–188, 271–272, 331

348  Sachregister

Federal Trade Commission → FTC Feedreader 135 Fernmeldegeheimnis 46, 87–88 File Transfer Protocol → FTP Filesharing 58, 175, 177 Filter Bubble 221 Filterung 200, 275 Fingerprinting 236 Flickr 120, 149 Folksonomy 120 Forschungsdaten 184, 248 Framing 111–112, 133 – Framing-Technik 112 Freiheitssphäre 43, 166 FTC 239 FTP 10, 36 Gatekeeper 197 Gefährdungslage 46, 87 Gefahrenabwehr 63 Geflecht → Mesh Geheimdienst → Nachrichtendienst Geistiges Eigentum → Urheberrecht GEMA 74, 172–173 Gemeinwohl 46, 105, 166 Generic Top Level Domain → Domänenstruktur, gTLD Gerechtigkeit 333–334 – Informationsgerechtigkeit 315 Gesellschaft für musikalische Aufführungsund mechanische Vervielfältigungsrechte → GEMA Gesetz über eine Volkszählung, Berufszählung,Wohnungszählung und Arbeitsstättenzählung 44–45 Gesetz zur Erhöhung der Sicherheit informationstechnischer Systeme 309 Gesetzgeber 23, 27, 45, 47, 59, 61, 63, 96, 125, 174, 188, 246, 250, 304–305, 323 Gesetzgebung 1, 47, 91 – Gesetzgebungskompetenz 247 – Gesetzgebungsprozess 97 – Gesetzgebungsverfahren 250 GG → Grundgesetz Google 24, 30, 74, 119, 123, 137, 148, 161, 171, 188, 195–197, 199, 201, 208, 210,

212–217, 219–222, 224, 226–231, 233, 235–245, 248–250, 255, 273–275, 281, 311–312, 314, 321, 330 – Google Adsense 119, 228 – Google Adwords 227 – Google Analytics 219, 233, 235–236 – Google Bilder 272 – Google Book Search 230 – Google Duplex 330 – Google Knowledge Graph 329 – Google Mail 236 – Google Maps 182, 231, 243 – Google My Business 182 – Google Street View 231–232 – Google Suggest 237 – Google Translate 237 – Google-Bombe 220 – Google-Cache 137 – Google-Spain-Entscheidung 205, 209 – PageRank 215–216 – Transparenzbericht 201 Grundgesetz 44, 46, 49, 51, 62, 86–88, 110, 130–131, 164, 167–170, 203, 223, 247, 296, 299 Grundlagenforschung 2, 6–7, 14 Grundrecht 23, 44, 46, 49, 57, 75, 86, 88, 91, 105, 130, 143–144, 152, 159, 164, 166–167, 169, 206, 208, 247, 295, 299 – Grundrecht auf Gewährleistung der Vertraulichkeit und Integrität informationstechnischer Systeme 49 – Grundrecht auf informationelle Selbstbestimmung 44, 46, 49, 157, 163 – Grundrechtskatalog 44 – Schutzbereich 49, 86–88, 110, 131, 168, 170, 295 Grundrechtecharta → EU-Grundrechtecharta Grundsatz der Verhältnismäßigkeit 62, 164 Hackerattacke 73 Haftung des Störers → Störerhaftung Harmonisierung des Rechts 23, 105 Hassbeitrag 305 Hate Speech 305 Heterarchie 199 High Performance Computing Act 20, 83 Hyperlink → Hypertextsystem, Link

Sachregister 

Hypertext Markup Language → Hypertextsystem, HTML Hypertext Transfer Protocol → Hypertextsystem, HTTP Hypertext Transfer Protocol Secure → Hypertextsystem, HTTPS Hypertextstruktur 81 Hypertextsystem 80, 277 – HTML 82, 91, 213–214 – HTTP 36, 81–82, 98 – Link 74, 80, 97, 100–112, 127, 133, 135, 139–141, 150, 162, 177, 197, 200, 202– 205, 207–208, 215, 218, 220, 223, 267, 272–273, 280, 326 – Deep Link 97, 100 – Surface Link 97 IANA 66 ICANN 18, 66 ICCC 10 IDN 70 IETF 18, 99 Immaterialgüterrecht 96 IMP 9–10 Impact Factor 290 Infokalypse 331, 333 Information Processing Techniques Office → IPTO Informationsfreiheit 75, 105, 143–144, 169, 223 Informationsinteresse 111, 136, 158, 168, 204, 295 Informationspflicht 48 Informationssystem 45, 81, 285 Informationstechnische Systeme 49 Informationsversorgung 26–27, 284, 289– 290 Informationszugang 23 Inline Linking 112 Instant Messaging → Internetdienst Intelligenter Agent 330 Interconnection of networks 19 Interface Message Processor → IMP International Conference on Computer Communications → ICCC

349

International Organization of Standardization → ISO Internationalität 22, 79, 307 Internationalized Domain Names → IDN Internet Assigned Numbers Authority → IANA Internet Corporation for Assigned Names and Numbers → ICANN Internet der Dinge 41, 320, 325 Internet Engineering Task Force → IETF Internet of Things → Internet der Dinge Internet Protocol → IP Internet-Service-Provider 48, 57, 59, 61–62, 75, 84, 146, 176, 204, 235, 279 – Access-Provider 40, 51–60, 68, 73–75 – Content-Provider 57, 125, 257 – Host-Provider 57, 59–60, 128, 172, 257– 258 – Cloud-Hosting 61 – Webhost-Provider 60 – Webmail-Provider 85 – Webspace-Provider 60 Internetanwendung → Internetdienst Internetdienst 84–85, 176, 323 – E-Mail 11, 22, 30, 51, 54, 60, 62, 66, 84– 89, 100, 105, 122–123, 157–158, 184, 234, 236, 248, 294, 305, 312, 315 – E-Mail-Account 87 – E-Mail-App 89 – E-Mail-Beschlagnahme 86 – Geheimhaltungswille 88 – Mailserver 66, 86–87 – Spam-E-Mail 73, 89 – Instant Messaging 11, 84–85, 89, 148, 180, 292 – Facebook Messenger 89 – Messenger 89, 183 – Skype 24, 30 – WhatsApp 89–90, 183 – Internetfernsehen 84 – Internetradio 84 – Internettelefonie 24, 73, 85, 183 Internetdiensteanbieter → Internet-ServiceProvider Internetkriminalität 307 Internetrecht 23 Internetrechtsordnung → Rechtsordnung

350  Sachregister

Internettelefonie → Internetdienst Internetworking 19 Interoperabilität 28, 123 Intranet 200 IoT → Internet der Dinge IP 14, 19, 36–37, 39–40, 57, 64, 73–74 IP-Adresse 18, 40–41, 50–57, 61, 63–64, 66, 68–69, 71, 73, 217, 234–235, 242, 256, 265, 278 – Dynamische IP-Adresse 40, 51, 55 – Oktett 40–41 – Private IP-Adresse 40 – Statische IP-Adresse 40, 52 IPTO 6–7, 11 ISO 14–15 IT-Grundrecht → Grundrecht, Grundrecht auf Gewährleistung der Vertraulichkeit und Integrität informationstechnischer Systeme Jameda 163, 167, 169 Jugendschutz 300, 302, 305 – Alterskennzeichnung 301–302 – Altersverifikation 300 – Altersverifikationssystem 300 – Blacklist 301 – Bundesprüfstelle für jugendgefährdende Medien 300–301 – Freiwillige Selbstkontrolle 306 – Indizierung 300 – Jugendschutz.net 302, 305 – Jugendschutzfilter 301–302 – Jugendschutzgesetz 302 – Jugendschutzprogramm 301–302 – Jugendschutzrecht 23 – Keyword-Blocking 302 – Kinder- und Jugendschutz 299 – Regulierte Selbstregulierung 300, 306 – Whitelist 301 Kartellverfahren 239–240 KI → Künstliche Intelligenz Kinox.to 60, 181 Kollaboration 24, 123–124, 187, 262 Kollektive Intelligenz 120 Kommerzialisierung 26, 67, 84, 307

Kommunikationsprotokoll 98 Künstliche Intelligenz 91, 320, 325, 330–331 Kurz-URL-Dienste 138 Leistungsschutzrecht 249–250 Lichtbild 132–133, 160 – Lichtbildwerk 132 Link → Hypertextsystem Linked Open Data 329 Literatur- und Informationsversorgung → Informationsversorgung Lizenz 83, 109, 113, 261–263, 269 – Lizenzgebühr 70 – Musterlizenzvertrag 260 – Standardlizenz 26 Löschungsbegehren 169, 201, 210 Long Tail 119 Mainstreaming 213 Markenrecht 70 Media-Sharing-Plattform 90, 171 Medienfreiheit 129, 168–169, 203 Medienkompetenz 293 Medienrevolution 94 Meinungsäußerungsfreiheit 110, 130–131, 158–159, 168, 223, 292, 295–297, 299, 305, 313, 315 Meinungsfreiheit → Meinungsäußerungsfreiheit Mesh 80 Messengerprogramm 90 Microblog → Blog Microblogging 137, 139 Microbloggingdienst 24, 137–140, 150, 184 Mobbing 291, 293 Monitoring 180, 305 – Monitoring- und Filtersystem 174 Morriswurm 28–29 Musikstreaming → Streaming, Musikstream Musikstreamingdienst → Streaming, Musikstream Nachrichtendienst 29–30, 308, 310–311, 314–315 Nachrichtenportal 109, 168, 170, 270 Namensauflösung 64, 73

Sachregister 

Namensrecht 68, 70 – Namensrechtliche Unbedenklichkeitsprüfung 69 Nanopublikation 184 National Center for Supercomputing Applications → NSCA National Institute for Standards and Technology → NIST National Library of Medicine 281–284 National Science Foundation → NSF Nationalsozialismus 95 NCP 14 Netcast → Podcast Network Control Protocol → NCP Network Working Group → NWG Netzkommunikation 47 Netzkultur 10, 82 Netzneutralität 57 – Best-Effort-Prinzip 57 – Internet der zwei Geschwindigkeiten 58 Netzwerktopologie 38, 341 Neuland 295 New Economy 23–25 News-Aggregator 162, 224 NIST 15 NSCA 83 NSF 13 NSFNET 13–14, 19 Nupedia 255 Nutzerverhalten 24, 48, 233, 235 Nutzungsprofil 234–235 Nutzungsverhalten → Nutzerverhalten Nutzungswegfall 21 NWG 10, 18, 82 OCLC 246, 274 Öffentliche Zugänglichmachung → Urheberrecht Öffentlichkeit 94, 101, 103–104, 106, 109, 112, 130, 133, 142–143, 148, 152, 157– 158, 160, 164–166, 168, 186–187, 197, 208, 216, 225, 231, 284, 292, 294, 296, 311 OLPC → One Laptop per Child One Laptop per Child 94 One-Stop-Shop 276

351

Online Computer Library Center → OCLC Online Harassment 292–293 Onlinearchiv 167–168, 208, 270 Onlineberichterstattung 109 Onlinedurchsuchung 49, 86 Onlineenzyklopädie → Suchdienst Onlinegeschäft → E-Commerce Onlinemarketing → Onlinewerbung Onlinetauschbörse → Filesharing Onlinewerbung 25, 119, 187–188, 221, 226– 228, 234, 240, 244, 271 – Click-through Rate 229 – Cost per Action 228 – Cost per Impression 228 – Cost-per-Click 227 – Native Advertising 229 – Personalisierte Werbung 242 – Quality Score 227 – Retargeting 228 – Targeting 226 Ontologie 328 Open Access 26–27, 262, 290 – Berliner Erklärung über offenen Zugang zu wissenschaftlichem Wissen 27 – Bethesda Statement on Open Access Publishing 27 – Budapester Erklärung zu Open Access 27 – Embargofrist 28 – Guerilla-Open-Access-Bewegung 290 – Open-Access-Bewegung 27 – Open-Access-Initiative 26 Open Content 25–26, 289 – Creative-Commons-Lizenz 260, 262 – Open-Content-Lizenz 260, 262–263 Open Data 91 Open Systems Interconnection → OSI Open-Content-Lizenz → Open Content Open-Content-Lizenzmodell → Open Content, Open-Content-Lizenz Open-Source-Software 120 Opt-out-Verfahren 235 Organisierte Kriminalität 61 OSI 14–16 Overblocking 204, 302, 306

352  Sachregister

PageRank-Algorithmus 119 Paid Content 25 paketvermittelnde Datenübertragung → Paketvermittlungstechnik Paketvermittlungstechnik 7–8, 12, 38 Paywall 25 Peer Review 255 Peer-Review-Verfahren 255 Peer-to-Peer 119, 178 Persistent Identifier 98 – DOI 99, 289 – Handle-System 99 – PURL 99 – URN 99–100 Persistent Uniform Resource Locator → Persistent Identifier, PURL Persönlichkeitsrecht 45, 47, 49, 90, 111, 127–129, 135–136, 157, 159, 164, 166– 167, 169–170, 202–203, 222, 224, 238, 257–258, 296–297 – Allgemeines Persönlichkeitsrecht 223 – Persönlichkeitsrechtsverletzender Inhalt 201–202 – Persönlichkeitsrechtsverletzung 129, 170, 203, 223, 238 – Persönlichkeitsschutz 129, 159, 200, 292, 295, 297, 321 Personal Publishing 127 Personalisierung 53, 219, 221, 248 Personenbezug 53–56, 151, 209, 234 – Personenbezogenes Datum 50–51, 53, 55– 56 Pew Research Center 85, 292–293 Phising 68 Piqd 248 Plagiatsdokumentation 141 – Vroniplag Wiki 141 Plattform 12, 57, 60, 119, 121, 123, 144, 149– 150, 154, 171–173, 175–178, 180, 183, 185, 187, 237, 257, 280, 289, 304–306 Podcast 178, 271 Preprint-Kultur 28 Pressefreiheit 91, 109–111, 143–144 Presseverleger 249–250 Printmedium 79

Privatsphäre 41–43, 164–166, 233, 241, 310, 312, 314–315 – Privatsphärenschutz 43 – Recht auf Privatheit 42–43 Profiling 48, 240, 242 Prosument 125 Protokollstapel 36 Proxy 29, 74, 113 Publikationsmarkt 26–28, 149, 290–291 Querverweis 79, 211 Qwant 197, 199, 241–242 RAND 7 Ranking 91, 213, 216–217, 239–240, 242 – Linkstruktur 198, 219, 327 – Offpage-Faktoren 217 – Onpage-Faktoren 217 – Rankingfaktoren 216, 219 RDS → Resource Discovery System Reasoning 328 Rechenzentrum 71, 122, 211–212 Recht auf informationelle Selbstbestimmung → Grundrecht, Grundrecht auf informationelle Selbstbestimmung Rechtsdurchsetzung 23, 305 Rechtsetzung 1, 97 Rechtsordnung 22, 46–47, 59, 170, 176, 204, 223 – Internetrechtsordnung 23 – Territorialität der Rechtsordnungen 23 Rechtstradition 23 Rechtswirklichkeit 22, 97 Recommender-System 120, 162 – BibTip 162 Regelungssystem 23 Regulierte Selbstregulierung → Jugendschutz Reputationssystem 290 Request for Comments 17–18, 37, 40, 64, 73, 99 Research and Development Corporation → RAND Resolvingserver 98–99 Resource Discovery System 276 RFC → Request for Comments

Sachregister 

Richterrecht 210 Richtervorbehalt 62 Robots Exclusion Standard 200 Root Server 71, 73 Root Zone 66, 71 Router 9, 18, 39 RSS 135, 178 RSS-Feed 135–136, 162, 248, 258 SAGE-Net 12 Schadensersatz 21, 132, 135 – Schadensersatzanspruch 22 Schattenbibliothek 289–290 – Sci-Hub 289–290 Schmähkritik 204, 296–297 Schmähung 296 Schöpfungshöhe → Urheberrecht, Geistige Schöpfungshöhe Schrankenbestimmung 27, 97, 143 Schwarmintelligenz 141–142, 262 Science 2.0 124, 185 Search Engine Optimization → Suchmaschinenoptimierung Semantische Technologien 320 Semesterapparat 2 SEO → Suchmaschinenoptimierung Serendipitätseffekt 245 Session-ID 101–102 Shitstorm 294–296 – Prangerwirkung 294 Single Point of Access 276 Sitemapprotokoll 200 SLAC 82 SLUBsemantics 329 Smart Factory 325 Smartphone 89–90, 137, 178, 229, 321, 324 Snippet 222–224, 230, 249 Social Web 2, 122–124, 126, 141, 162, 180, 183–184, 186, 242–243, 275, 298 Social-Bookmarking-Dienst 120, 196 – Delicious 120, 162 Social-Web-Monitoring 183 – Socialmention.com 183 – Tagboard 183 Soziale Netzwerke 22, 84, 125, 138, 147– 150, 156, 183–184, 222, 294, 302, 322

353

– "Gefällt mir"-Button 123, 148, 150 – "Gefällt mir"-Funktion 156 – Fanpage-Betreiber 153–155 – Fanseite 150–151, 263 – Privacy Settings 148 – Social Bots 149 – Social Plug-in 150, 156 – Soziale Netzwerke für Wissenschaftler 149 Sozialsphäre 166 Spam-E-Mail → Internetdienst, E-Mail Sphärentheorie 164, 166 Sprachsynthese 330–331 Spring Joint Computer Conference 10 Sputnik-Schock 20 SRI-NIC 64 Staatengemeinschaft 23 Standford University Network → Sun Stanford Linear Accelerator Center → SLAC Stanford Research Institute's Network Information Center → SRI-NIC StayFriends 148, 161 Störerhaftung 58, 60, 147, 202, 258 – Notice-and-take-down-Verfahren 204 – Prüfpflicht 58–59, 75, 136, 202–204, 238, 258, 306 Strafprozessordnung 62 Strafrecht 23, 292, 303 Strafverfolgung 56, 63, 303, 305, 307 – Strafverfolgungsbehörde 56, 86 – Territorialitätsprinzip 303 Streaming 178, 180–181, 290 – Deezer 179 – Juke 179 – Livestreaming 179–181 – Musikstream 179 – Netflix 179 – Simfy 179 – Spotify 179, 183 – Videostream 171, 179 Stuxnet 30–31, 308 Suchdienst 2, 100, 195–196, 294 – Allgemeine Suchmaschine 195–196, 241, 244, 272 – Metasuchmaschine 195, 211–212 – Onlineenzyklopädie 120, 141, 196, 256– 258, 260, 262

354  Sachregister

– Spezialsuchmaschine 195, 242, 244–245, 248, 308 – Webkatalog 196, 210 Suchindex → Suchmaschine, Suchmaschinenindex Suchmaschine 2, 24, 67–68, 70, 113–114, 119, 137, 161, 195–207, 209–216, 218, 221–226, 228, 230, 235, 238, 240–245, 249, 271, 273, 275, 326–329, 341 – Bing 195, 197, 199, 212, 239, 241–242, 244–245 – Crawler 198, 200, 202, 218, 225, 242 – DuckDuckGo 241, 243 – Ecosia 244 – Horizontale Suchmaschine 195, 244 – Hybride Suchmaschine 243 – Indexbasierte Suchmaschine 197 – Query-Prozessor 198 – Rankingliste 198, 213, 218, 242 – Relevanzranking 119, 197, 275 – SERP 217, 219 – Startpage 199, 241, 243 – Suchmaschinenalgorithmus 217 – Suchmaschinenindex 198–199, 201–202, 204, 239 – Suchmaschinentechnologie 229, 242, 275 – Vertikale Suchmaschine 244 Suchmaschinenoptimierung 213, 216, 249 Sun 15 Surface Net 113 Tauschbörse → Filesharing Taxonomie 328 TCP 14, 36–37, 39 TCP/IP 14–16, 18–19, 31, 36–37, 39, 81 – DoD-Modell 36 – TCP/IP-Modell 14, 36–37, 57, 60, 341 Technische Schutzmaßnahme 101–102 Technisches Verfahren 112, 181 Telekommunikations- und Telemedienrecht 23 – Drittes Gesetz zur Änderung des Telemediengesetzes vom 28. September 2017 59 – Telekommunikationsgesetz 62 – Telemediengesetz 54

Telekommunikationsdienst 61–62 Telekommunikationsgeheimnis 43, 75, 86 Terrorismus 61, 308 Textanalyse 215, 330 Thesaurus 245, 284, 328 Thumbnails 222, 224, 249 Top Level Domain → Domänenstruktur, TLD Tor-System 113–114 – Onion-Routing 113 – The Tor Project 114 – Tor-Knoten 113 Tracking 242 Tracking Tools 233, 235 Transmission Control Protocol → TCP Transparenz 48, 92, 128, 217, 236, 240, 268, 311–312, 323 Twitter 24, 90, 123–124, 137–138, 140, 143, 158, 183, 284, 305, 307 – Re-Tweet 140–141 – Tweet 123, 125, 137–140, 296 U.S. Privacy Act 44 Ubiquitous Computing 324 Überwachung 44, 46, 50, 59, 88, 229, 311– 315 ULD → Unabhängiges Landeszentrum für Datenschutz in Schleswig-Holstein UN-Menschenrechtscharta → Allgemeine Erklärung der Menschenrechte Unabhängiges Landeszentrum für Datenschutz in Schleswig-Holstein 150–152 Unabhängigkeitserklärung des Cyberspace 1 Underblocking 302 UNDP 94 Ungerechtigkeit 290 Ungleichheit 92–93, 290 Uniform Resource Locator → URL Uniform Resource Name → Persistent Identifier, URN Unionsrecht 63–64 Unix 11, 15 Unterlassung 53, 58, 70, 100, 109, 129–130, 132, 136, 143, 222, 257–258 – Unterlassungsanspruch 54, 136, 161, 222 Upload 144, 172–174, 183, 278 Uploadfilter 174

Sachregister

Urheberrecht 1, 23, 60–61, 75, 94–97, 100, 103–105, 112, 132, 139, 143, 181, 231, 247, 258–259, 261, 269, 278, 281, 290– 291 – Autorenprivilegien 94 – Berner Übereinkunft zum Schutz von Werken der Literatur und Kunst 262 – Druckerprivilegien 94 – Europäische Urheberrechtsreform 250 – Geistige Schöpfung 96, 214 – Geistige Schöpfungshöhe 139–140, 181, 214, 260 – Geistiges Eigentum 18, 42, 95–96, 105, 121 – Gesetz über Urheberrecht und verwandte Schutzrechte 96, 134, 143, 174, 181, 246–247, 249, 260 – Gewinnerzielungsabsicht 106–107 – Herrschaftsrecht 51, 96 – Kopierschutzeinrichtung 109 – Nachdruckverbot 95 – Nachforschungspflicht 59, 182 – Neues Publikum 103–104, 112, 133 – Öffentliche Wiedergabe 102–107, 111–112, 174 – Öffentliche Zugänglichmachung 102–103, 132–133, 135, 172, 181, 230–231, 278– 279 – Urheberpersönlichkeitsrecht 262 – Urheberrechts-WissensgesellschaftsGesetz 97 – Urheberrechtsbewusstsein 95 – Urheberrechtsinhaber 96, 102–107, 112, 181 – Urheberrechtsvertrag 1 – Urheberschutz 94 – Urhebervermerk 132, 134 – Zitatrecht 174–175, 226 – Zitatzweck 175 – Zweitveröffentlichungsrecht 246–247 Urheberrechtsgesetz → Urheberrecht, Gesetz über Urheberrecht und verwandte Schutzrechte URL 81, 97–101, 138, 196, 200, 218, 222, 228, 273, 280

 355

Usenet 11 User-generated Content 125, 127, 183, 220, 275, 302 Verantwortlichkeitshinweis 298 Verbindungsdaten 61, 113 Verfassungsbeschwerde 44, 49, 64 Vergütung 26, 69, 95, 177, 250 Vergütungsanspruch 97 Verhältnismäßigkeitsgrundsatz → Grundsatz der Verhältnismäßigkeit Verlag 26, 109, 130, 142–144, 149, 230, 242, 278, 289–290 Verlagsrecht 95 Verlinkung 70, 100, 102–103, 105, 107–109, 112, 119, 133, 141, 150, 202, 329 Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/ 46/EG → Datenschutz, DatenschutzGrundverordnung Verrechtlichung 2, 41, 43 Verschlüsselungstechnik 88 Vertrag über die Arbeitsweise der Europäischen Union 53 Vertrag über die Europäische Union 53 Vertragsverletzungsverfahren 62 Vervielfältigung 94–95, 100, 102–103, 109, 111, 132–133, 135, 144, 172, 174, 181– 182, 224, 231 Verweisstruktur 79–80 Verwertung 45, 60, 95–96, 145, 259–260 Verwertungsgesellschaft 60 Verwertungsrecht 60, 133 Video-Sharing-Plattform 84, 174 Videostreaming → Streaming, Videostream Virtual Research Environment → Virtuelle Forschungsumgebung Virtuelle Forschungsumgebung 185 – TextGrid 185 Visible Net 113

356  Sachregister

Volkszählungsgesetz → Gesetz über eine Volkszählung, Berufszählung, Wohnungszählung und Arbeitsstättenzählung Volkszählungsurteil 45, 51, 166, 313 Vorabentscheidungsverfahren 53, 105, 111, 205 Vorlagefrage 54–55, 105, 107, 152, 208, 235 Vorratsdatenspeicherung 61–64 – Gesetz zur Einführung einer Speicherpflicht und einer Höchstspeicherfrist für Verkehrsdaten 63 – Gesetz zur Neuregelung der Telekommunikationsüberwachung und anderer verdeckter Ermittlungsmaßnahmen 61 – Telekommunikationsdaten 61 – Telekommunikationsmittel 63 – Telekommunikationsverkehrsdaten 62 – Kundentelekommunikationsverkehrsdaten 63 – Vorratsdatenschutzrichtlinie 62 VRE → Virtuelle Forschungsumgebung W3C 82, 90–91 Wahrheitsorientierung 333–334 Watergate-Affäre 44 Wayback Machine 280–281 Web 1.0 2, 118, 121–122 Web 2.0 2, 118, 121–122 – Web-2.0-Konferenz 118 Web 3.0 330 Webapplikation 90 Webharvesting 281 Weblog → Blog Webplattform 148 Webseitenbetreiber 25, 52, 54, 56, 130, 196, 218, 220, 233–236, 249 Webtracking 233–234, 236 Werk 27, 60, 74, 79, 95–96, 99–107, 109, 111–112, 132–135, 139, 144, 171–172, 174–175, 177, 180–181, 213, 224–226, 230–231, 259–262, 267, 269, 273, 277– 279, 290, 328 – vergriffene Werke 27, 109 – verwaiste Werke 27

– Werknutzung 94, 96, 262 – Widerrechtliche Werknutzung 146 – Werkverwertung 1Wettbewerbsrecht 23, 70, 108 Wiki 122, 124, 141–143, 266 Wikileaks 144 Wikimedia Deutschland 256 Wikipedia 120, 124, 141, 196, 219, 243, 255– 258, 260, 262–268, 270, 273, 329 Wikipedistik 268 Wikiquette 263 Wissenschaftskommunikation 184–187 – Scholarly Communication 184–185 – Science Communication 184–185 Wissensinfrastruktur 84 Wissensorganisation 2, 79–82, 120, 328 Wissensrepräsentation 80, 328 Wolfram Alpha 329 World Wide Web Consortium → W3C World Wide Web Foundation 91–92 – Alliance for Affordable Internet 91 – Open Data Barometer 92 – The Web Index 91 – Web We Want 91 – Women's Rights Online 92 World Wide Web Wanderer 195 Xanadu 80 Xerox 16 Zeitschriften 22, 27, 109, 184, 255, 285, 289 – Subskriptionsmodell 27 – Zeitschriftenkrise 27, 289 – Zeitschriftenmarkt 26 Zensur 91, 95, 128, 221 Zivilrecht 23 Zueigenmachen 141, 147 Zugangsanbieter → Internet-ServiceProvider, Access-Provider Zugangserschwerungsgesetz 75 Zugangskultur 25–27, 94, 281, 289 Zugangssperre 60, 74–75 Zugangssperrung → Zugangssperre Zugriffsbeschränkung 103–104, 300 Zugriffssperre 73, 160 Zweiklasseninternet 58