Internetsoziologie: Theorie und Methodik einer neuen Wissenschaft 9783110559767, 9783110557114

The relationship between German society and the Internet is a difficult one, and German sociology is no exception. All t

847 73 2MB

German Pages 403 [404] Year 2020

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Danksagung
Inhaltsverzeichnis
1. Einführung in die Internetsoziologie
2. Theorie und Fundament
3. Methodik
4. Anwendung in Forschung und Praxis – Sociality by Design
5. Ausblick in die Zukunft der Internetsoziologie
Literaturliste
Abbildungsverzeichnis
Recommend Papers

Internetsoziologie: Theorie und Methodik einer neuen Wissenschaft
 9783110559767, 9783110557114

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Stephan G. Humer Internetsoziologie

Stephan G. Humer

Internetsoziologie

Theorie und Methodik einer neuen Wissenschaft

ISBN 978-3-11-055711-4 e-ISBN (PDF) 978-3-11-055976-7 e-ISBN (EPUB) 978-3-11-055722-0 Library of Congress Control Number: 2019958021 Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar. © 2020 Walter de Gruyter GmbH, Berlin/Boston Einbandabbildung: TommL/iStock/Getty Images Plus Satz: Integra Software Services Pvt. Ltd. Druck und Bindung: CPI books GmbH, Leck www.degruyter.com

„Unser Wissen ist ein kritisches Raten, ein Netz von Hypothesen, ein Gewebe von Vermutungen.“ Karl Popper „I didn´t have a plan for where I was going. Instead I reacted to obstacles and opportunities.“ Barbara Liskov „The Dude abides.“ Jeffrey Lebowski

Danksagung Wie immer bei Projekten mit sehr weitreichendem Darstellungs- und Erklärungsanspruch hätten es nicht nur zehnmal so viele Seiten werden können, es haben auch immer viel mehr Menschen Dank verdient als hier aufgeführt werden könnten. Deshalb gilt allen, die mich in den zwei Jahren zwischen Vertragsunterzeichnung und Abgabe des Manuskripts unterstützt haben, der Einfachheit halber ohne direkte Nennung und in aller Kürze, mein ganz besonderer Dank! Aber auch all denjenigen, die mich davor unterstützt haben, bin ich zutiefst zu Dank verpflichtet. Es gab vielleicht nicht die eine Mentorin oder den einen Mentor, aber es gab euch, den intelligenten Schwarm: viele liebe, kluge, helfende, kritische und verständnisvolle Menschen, die mich unterstützt und getragen haben. Dafür werde ich euch immer dankbar sein – jeder und jedem einzelnen! Anzumerken ist an dieser Stelle, dass diese Arbeit Material beinhaltet, welches im Rahmen von Forschungsvorhaben erarbeitet worden ist, die vom Bundesministerium für Bildung und Forschung (BMBF) der Bundesrepublik Deutschland in den Jahren 2012 bis 2019 gefördert wurden (Förderkennzeichen 13N12065 und 13N14031). Mein besonderer Dank gilt an dieser Stelle dem BMBF und dem Projektträger VDI, insbesondere unseren Ansprechpartnern in diesen Institutionen, sowie der Universität der Künste Berlin und der Hochschule Fresenius für die Projektanbindung. Besondere Erwähnung verdienen an dieser Stelle Gerburg Treusch-Dieter und Dieter Geulen. Persönlich danken kann ich ihnen für ihre inhaltliche Unterstützung, die dieses Buch möglich gemacht hat, nun leider nicht mehr, doch ich bin fest davon überzeugt, dass sie bereits zu Lebzeiten wussten, wieviel mir ihr Rat und ihre Ermutigungen in all den Jahren bedeuteten. Ohne sie wäre mein wissenschaftlicher Werdegang deutlich weniger gehaltvoll geworden. Stephan G. Humer Berlin, im Februar 2020

https://doi.org/10.1515/9783110559767-202

Inhaltsverzeichnis Danksagung 1 1.1 1.2 1.3 1.4 1.4.1 1.4.2 1.4.3 1.4.4 1.4.5 1.4.6 1.4.7 1.5 2 2.1

VII

Einführung in die Internetsoziologie 1 Eine Erzählung aus der Perspektive eines Maschinenflüsterers 9 Die frühe Phase: 1999 bis 2004 13 Erste Forschungsphase: 2005 bis 2007 23 Zweite Forschungsphase: 2008 bis 2015 79 Projekt Alpha 79 Projekt Beta 89 Projekt Gamma 93 Themenfeld Onlineradikalisierung 101 Themenfeld Social Media Intelligence 106 Themenfeld Vorratsdatenspeicherung 110 Kinderfotos im Internet 115 Momentaufnahme: seit 2016 122

2.2 2.3 2.4 2.5 2.5.1 2.5.2 2.5.3

Theorie und Fundament 125 Elemente der Philosophie Karl Poppers als wissenschaftstheoretisches Fundament einer Soziologie des Internets 150 Einflüsse soziologischer und psychologischer Theorien 152 Die Rolle der Politik 155 Digitale Eigengesetzlichkeiten 158 Das Framework-Prinzip 160 By-Design-Konzepte 169 Handbuch-Konzepte 194 Sonstige Ansätze 200

3 3.1 3.2 3.2.1 3.2.2 3.2.3 3.2.4 3.2.5 3.2.6 3.3

Methodik 219 Vom Groben ins Feine 219 Die Strategie des Bastelnden Denkens 224 Ausformungen 227 Die erste Phase (2005/2006) 232 Claude Levi-Strauss und Werner Heisenberg: Wildes Denken 234 Der Weg zu einem neuen Lösungsansatz (2006 bis 2008) 237 Die Weiterentwicklung (2008 bis heute) 243 Marginalien 247 Die Modularität des Werkzeugkastenzugangs 279

X

3.4

Inhaltsverzeichnis

Das heuristisch fundierte Bestreben der Ausbildung eines Maschinenflüsterers 282

4.2.3 4.2.4

Anwendung in Forschung und Praxis – Sociality by Design 287 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung 289 Anknüpfungsmöglichkeiten inhaltlicher und technischer Art 348 Erster Schritt: Allgemeine theoretische und methodische Grundlagen 348 Zweiter Schritt: Sociality by Design auf allen drei relevanten Ebenen 350 Anwendungsfall „Nachrichtendienst der Zukunft“ 352 Anwendungsfall „Freiheit“ 363

5

Ausblick in die Zukunft der Internetsoziologie

4 4.1 4.2 4.2.1 4.2.2

Literaturliste

373

Abbildungsverzeichnis

393

368

1 Einführung in die Internetsoziologie Vielen Dank, dass Sie sich für diese Arbeit entschieden haben! Ja, Sie lesen richtig, ich meine das absolut ernst: vielen Dank, dass Sie genau diesem Projekt Ihre Aufmerksamkeit schenken. Das ist nicht selbstverständlich, schließlich leben wir in aufregenden und, ja: anregenden Zeiten. Informationen finden Sie heutzutage überall. Mehr als Ihnen vielleicht lieb ist. Und da suchen Sie sich gerade mein Buch raus. Dieses Buch, mit dem ich nicht gerechnet habe. Für das ich eigentlich gar keine Zeit hatte. Aber das trotz allem gelang – und nun auch noch von Ihnen ausgewählt worden ist. Das ist für mich natürlich großartig, wobei ich Ihnen dieser Stelle gleich ganz klar sagen muss: In diesem Buch ist vieles anders. Erwarten Sie alles – und nichts. Dieses Buch ist nur ein Anfang – und zugleich viel mehr als das. Es ist ein Erfolg – und hat doch kein Happy End. Der Zustand dieser Arbeit lässt sich in einem Wort zusammenfassen: Ambivalenz. Alles in und an diesem Buch ist ambivalent. Dieser Begriff sagt klar und deutlich, was meine Arbeit seit 2005 darstellt. Denn egal, auf welcher Ebene Sie nachschauen: alles ist ambivalent. Die Arbeit im Wissenschaftsbetrieb ist beispielsweise schön (Forschung) und schaurig (Befristungen) zugleich. Die Arbeit im Bereich Digitalisierung und deutsche Gesellschaft ist historisch einzigartig und gleichzeitig nahezu völlig vergeblich. Die Arbeit am epochalen Thema Digitalisierung ist in Deutschland so nötig wie fruchtlos. Die Inhalte dieses Buches sind in dem einen Kontext sehr wertvoll und in einem anderen Kontext völlig bedeutungslos, sowohl in Teilen als auch in Gänze. Sie werden in der Folge somit sicherlich stellenweise positiv und stellenweise negativ überrascht werden. Sie werden merken, dass dieses Buch in der Tat alles ist für mich – und doch bedeutet es zugleich nichts. Der Hauptgrund für die negativen Aspekte dieser Ambivalenz: es gibt sicherlich kaum ein undankbareres Thema als die Arbeit im Bereich Digitalisierung der Gesellschaft, zumindest in Deutschland. Dieses Land ist (immer noch) nicht bereit für die digitale Revolution, das ist das Fazit nach über zehn, fast 15 Jahren Forschungsarbeit in diesem Bereich. Und, noch schlimmer: dieses Land wird auch in den nächsten zehn bis 20 Jahren kaum bereit sein. Deutschland und die Digitalisierung, das ist ein Drama – anders lässt es sich leider nicht beschreiben. Und doch gibt es die positiven Aspekte: so konnte ich mir in den vergangenen Jahren keine andere Arbeit vorstellen. Die Digitalisierung ist epochal, grandios, faszinierend, historisch einzigartig, und damit für einen Wissenschaftler wie mich nichts anderes als ein Geschenk! Wäre es „schöner“ gewesen, die Arbeit in den USA, dem Mutterland der Digitalisierung moderner Gesellschaften, durchzuführen? Jein. (Sie sehen: alles ist und bleibt ambivalent.) Klar, dort ist die Gesellschaft nach meinem Dafürhalten besser aufgestellt, was ihr im 21. Jahrhundert einen enormen,

https://doi.org/10.1515/9783110559767-001

2

1 Einführung in die Internetsoziologie

sehr wertvollen und kaum einzuholenden Vorteil verschaffen wird. (Interessanterweise haben Länder wie Südkorea, Russland und China dies auch verstanden, so dass sie – jeweils individuell anders, aber eben doch ähnlich – intensiv in Digitalisierung investieren.) Aber ich lebe nun mal in Deutschland, und ein unbestellter Acker kann letztlich frei bearbeitet werden. Das war (m)eine Chance. In den USA bekäme man mehr Unterstützung, besseres Feedback von KollegInnen, bessere Chancen – aber eben auch mehr Konkurrenz, mehr Druck, mehr Wettbewerb thematischer, struktureller und inhaltlicher Art. Es war somit keine verschenkte Zeit, hier in Deutschland, und irgendwie eben doch auch. Sie ahnen schon: die Ambivalenz. Würde ich – mit dem Wissen von heute – alles nochmal so machen, wenn ich ins Jahr 2005 zurückreisen könnte? Oder jemandem diesen Weg empfehlen können? Auch hier, ganz klar: ja und nein. Nein, ich würde keine Energie mehr in Deutschland und die hiesige Digitalisierungserklärung investieren. Dieses Land und die Digitalisierung? Das passt einfach nicht zusammen, auf ganz grundlegenden, vielfältigen Ebenen. Ja, ich würde das Thema Digitalisierung erneut angehen, aber eher europäisch bzw. international (im Sinne von weltweit). Und deutlich wirtschafts- bzw. anwendungsorientierter. Ich bin sehr dankbar für die Wahrnehmung als jemand, der zum Thema Digitalisierung der Gesellschaft etwas Sinnvolles zu sagen hat. Aber der Preis für diesen Status war hoch – fast schon zu hoch. Direkt unterstützt wurde ich kaum, oder besser gesagt: nie. Das ist nicht unbedingt ein Problem, denn so hinterlässt man von Anfang an eigene Spuren in der Wissenschaft. Aber dafür hat man auch das volle Risiko, denn jeder einzelne Schritt kann einem erfolgreich zugerechnet werden – alle Fehler inklusive. Abgucken vom Mentor? Surfen im Windschatten des Mentors? Profitieren vom Netzwerk des Mentors? Unmöglich, da es keinen Mentor gibt bzw. gab. Es gab Menschen, die mich inspirierten, aber es gab niemanden, dem ich direkt folgen konnte. So konnte, ja: musste ich mich selbst formen. Ungeschützter, aber auch freier als viele KollegInnen. Wenn in Teilbereichen des Wissenschaftsbetriebes das Motto „Alles oder nichts“ gilt, dann in den Bereichen, deren Wesenskern die Innovation ist, also auch in der Internetsoziologie. Und echte Innovation hat es sehr schwer in Deutschland, das habe ich gelernt. Die aus heutiger Sicht unglaubliche Naivität, die ich in dieser Angelegenheit an den Tag gelegt hab, die würde ich heute keinesfalls mehr anlegen. Falls Sie Interesse an echter Innovation haben, dann kann ich nur empfehlen: gehen Sie (als WissenschaftlerIn) ins Ausland oder (als anwendungsorientierte Person) in einem internationalen Konzern. Vergessen Sie den deutschen Mittelstand, vergessen Sie die Innovationsfähigkeit der deutschen Gesellschaft. Wir sind in Sachen Digitalisierung grundsätzlich gnadenlos weit von Innovation und Spitzenforschung entfernt – Ausnahmen bestätigen lediglich die Regel. Punktuell gibt es tolle Entwicklungen in Deutschland, aber es fehlt an der Breite. Und das macht den Unterschied. Warum das so ist? Nun, schauen Sie sich in aller Ruhe und ausführlich in der deutschen Gesellschaft um, so wie ich es getan habe, und Sie werden mit Sicherheit

1 Einführung in die Internetsoziologie

3

zum selben Ergebnis kommen: die Schnittmenge zwischen den Eigengesetzlichkeiten der Digitalisierung und der deutschen Gesellschaft ist sehr gering. Grund dafür sind kulturelle Eigenheiten der deutschen Gesellschaft, die nicht zur Digitalisierung passen. Es gibt somit schlicht und ergreifend keine passende deutsche „Digitalkultur“. Ein Beispiel: Pessimismus ist sehr weit verbreitet in Deutschland. Beim Thema Digitalisierung fing man sehr oft mit den Risiken und nicht mit den Chancen an. Computerspiele im Allgemeinen machten angeblich dick, dumm und asozial, „Killerspiele“ im Besonderen züchteten nur den nächsten Amokläufer heran.1 Generell waren Computerspiele lange Zeit „Kinderkram“, Computer nur etwas für eine eher nerdige Minderheit.2 Selbsternannte Experten wie ein für seine kulturpessimistischen Ausführungen landesweit bekannt gewordener Psychiater verkaufen zigtausende Bücher mit hanebüchenen Aussagen, selektiver (und natürlich negativer) Wahrnehmung und absurdem Alarmismus. Dieser Kollege hat nachweislich weder die passende Expertise noch echtes wissenschaftliches Interesse am Thema und bekommt dies auch Tag für Tag von zahlreichen KollegInnen attestiert – doch die Verkaufszahlen seiner Bücher gehen durch die Decke, denn er redet den Menschen nach dem Mund. Aber vielleicht kann man von einer Gesellschaft, die auch einen Voodoo namens Homöopathie von ihren – nicht gerade wenigen – Krankenkassen erstatten lässt, auch einfach nichts anderes erwarten. Zuviel Pessimismus? Nun ja, man hätte dieses Buch sicherlich auch positiv gestimmt beginnen können, von vielen spannenden – und positiven – Erlebnissen, Forschungen und Projekten berichtend. Man hätte eine rein positive, sehr persönliche Erfolgsgeschichte beschreiben können, die immerhin von einer ersten, kleinen Idee eines Studenten zu einer neuen, universitär angebundenen Subdisziplin führte. Man hätte ausnahmslos die positiven Punkte aneinanderreihen und es wie eine glasklare Erfolgsgeschichte aussehen lassen können – alles andere ausblendend, ignorierend. Aber dann würde man nicht ganzheitlich, offen und fair über das hiesige Thema, die Internetsoziologie in Deutschland, schreiben. Denn Deutschland und das Internet, das ist unterm Strich nun einmal eine Geschichte des jahrzehntelangen Scheiterns. Dieses Scheitern beeinflusste mich und meine Arbeit enorm. Es war der Grund für die ungeheure Ambivalenz, die dieses Buch, meine Arbeit und mich auszeichnet. So ziemlich alles, was man falsch machen konnte, ist in Deutschland in Sachen Digitalisierung ganz offensichtlich falsch gemacht worden. Heute, im Jahr 2019, über 20 Jahre nach Start der Massenverbreitung des Internets (festgemacht an ersten Marketing-Gehversuchen für DSL und Co. gegen Mitte/Ende der 1990er), fast 30 Jahre nach Start des digitalen Mobilfunks (in Deutschland im Jahre 1992 mit dem

1 https://www.sueddeutsche.de/digital/psychologen-fachtagung-computerspiele-machen-dummund-faul-1.831963, https://www.faz.net/aktuell/gesellschaft/kriminalitaet/nach-dem-amoklauf-poli tiker-fordern-verbot-von-killerspielen-1381949.html, abgerufen am 29.1.2019. 2 https://www.fr.de/kultur/laengst-kein-kinderkram-mehr-11097879.html, abgerufen am 29.1.2019.

4

1 Einführung in die Internetsoziologie

damaligen D-Netz), spielt Deutschland international keine Rolle, wenn es um das Internet, ja: die Digitalisierung insgesamt geht. Deutschland brachte weder eine kritische Masse an bedeutenden Firmen noch ausreichend viele bahnbrechende Ideen hervor – MP3 mal ausgenommen. (Doch bereits an dieser Stelle muss man präzisieren: MP3 hat erst einmal nichts mit dem Internet, sondern mit digitaler Musikkompression, also ausschließlich mit dem technischen Teil der Digitalisierung und keineswegs mit den sozialen Aspekten zu tun. Es ist deshalb zwar ein Erfolg in Sachen Digitalisierung aus technischer Perspektive, aber zugleich ein Beispiel für einen katastrophalen Misserfolg in Sachen digitaler Kultur.) Das Internet lebt vom Inhalt. Content, Content, Content, so könnte man die drei wichtigsten Aspekte des Netzes zusammenfassen. So wie ein Immobilienhändler den Wert einer Immobilie an den drei wichtigsten Merkmalen guter Immobilien – Lage, Lage, Lage – festmacht. Denn die explorative Phase der puren, reinen, ungefilterten Technikeuphorie ist lange vorbei, Computer sind nichts Neues und/oder Nerdiges mehr. Und spätestens, wenn die Technik entdeckt, verbreitet und großflächig genutzt wird, dann werden die Inhalte wichtiger als die erste Ebene des OSISchichtenmodells. Aus Deutschland ging zwar MP3 hervor, doch der Durchbruch bei der Vermarktung dieser Idee erfolgte in den USA. Steve Jobs und iTunes – das war eine Erfolgsstory. Deutschland war hierbei nur ein Steigbügelhalter von vielen. Und das weder zum ersten noch zum letzten Mal, wie sich immer wieder zeigte. Das, was die Digitalisierung ausmacht, ja: das, was sie dringend, unbedingt, ohne jeden Zweifel braucht, das kann Deutschland, das kann die deutsche Gesellschaft, das kann die deutsche Kultur schlicht und ergreifend nicht liefern. Die Schnittmengen zwischen den Eigengesetzlichkeiten der Digitalisierung und dem „deutschen Wesen“ sind und bleiben zu gering. Die Veränderungs- und Anpassungsbereitschaft – als nur ein Beispiel von vielen – ist zu klein in einem Land, das die Kontinuität, die Tradition, die „alten Werte“ liebt. Deutschland, d. h. die deutsche Gesellschaft „kann“ digital einfach nicht. Das Digitale passte von Beginn an viel besser zu Ländern bzw. Gesellschaften wie den USA, China, Südkorea oder Japan bzw. zu Regionen wie Amerika und Asien. Das Digitale ist – und die folgende Aufzählung ist keine abschließende, sprich: vollständige Liste, sondern Teil einer immer länger werdenden Erkenntniskette im Bereich digitaler Eigengesetzlichkeiten – ständiger Wandel, flexibel, dynamisch, ultraschnell, extrem technisch und abstrakt, unvergleichlich, maximal ambivalent, machtvoll, weltumspannend, stationär und mobil zugleich, das Recht verändernd, herausfordernd, angreifend und zurückdrängend, eigene Gesetze, Gesetzmäßigkeiten, Regeln, Theorien, Methoden und Ideen formend, raumgreifend, innovativ, aggressiv, einfach: revolutionär. Und mit Revolutionen – soviel Sarkasmus darf sein – haben es die Deutschen bekanntlich nicht so. In den letzten 20, 25, ja: 30 Jahren entwickelten sich die wesentlichen digitalen Innovationen woanders. Und in den nächsten 20 bis 30 Jahren wird das aller Voraussicht nach nicht völlig anders sein. Klar: Deutschland wird im Laufe der Zeit

1 Einführung in die Internetsoziologie

5

immer digitaler, das lässt sich weder abstreiten noch verhindern (sondern vielmehr begrüßen), und das wird auch Auswirkungen auf die Innovationskraft haben. Aber seien wir ehrlich: es ist nicht nur kein Land in Sicht in Sachen digitale Innovation – es ist auch in vielen Bereichen längst zu spät. Ein Beispiel: bei einem Besuch des Massachusetts Institute of Technology (MIT) zur feierlichen Eröffnung eines neu gegründeten Colleges of Computing im Februar 2019 wurde deutlich, dass unisono die Meinung herrschte, dass die USA und China den Wettkampf um das Themenfeld Künstliche Intelligenz (KI) unter sich ausmachen werden. Da gab es nicht den Hauch eines Zweifels. Niemand widersprach, alle Anwesenden schienen sich maximal einig zu sein. Und es gab angesichts der Fakten und der dargebotenen Leistungen während der Eröffnungsfeierlichkeiten auch gar keinen Zweifel daran. Es gab schlicht keinerlei Hoffnungsschimmer, dass es anders sein oder werden könnte. Deutschland dürfte zukünftig, soviel wurde erneut klar, punktuell, in manchen (sehr speziellen) Bereichen den einen oder anderen Achtungserfolg erzielen können – das habe ich ja auch bereits in der Zusammenarbeit mit den KollegInnen von Fraunhofer erfahren dürfen, die oft genug ganz persönlich und in ihren Arbeitsgruppen exzellente Arbeit leisteten. Aber Schrittmacher, verantwortlich fürs große Ganze, das sind und bleiben die anderen. Ohne jeden Zweifel. Fraunhofer, als Beispiel, ist die Schwalbe, die allein noch lange keinen deutschen Sommer macht. Wie könnte der Sommer nun doch noch einziehen? Eigentlich ist es ganz einfach: Deutschland müsste sich jetzt, hier, heute maximal öffnen, um die digitale Kultur vollumfänglich zuzulassen. Es müsste alles verworfen werden, was nicht absolut unverzichtbar erscheint – und zwar nach möglichst klaren, objektiven Kriterien. Lineares Fernsehen? Braucht in Zeiten des Streamings niemand mehr. Öffentlich-rechtliches Radio und Fernsehen? Höchstens als Streamingplattform zukunftsfähig, inklusive aller alten Inhalte, offen für alle, ohne zeitliche Befristung. Dutzende Kanäle dieses öffentlich-rechtlichen Rundfunks? In jeglicher Hinsicht reine Geldverschwendung, strukturell von vorgestern und damit insgesamt komplett verzichtbar. Digitalisierung in den Schulen? Der Status Quo ist ein Witz! Gute Konzepte sind hier seit mindestens 30 Jahren überfällig. Top-Gehälter für Informatiklehrer, um die Besten zu bekommen und zu halten? Bei nachgewiesener Qualifikation ein Muss! Quereinsteiger in den Behörden, mit entsprechender Bezahlung, Ausstattung und Freiräumen? Ebenfalls seit Jahrzehnten überfällig. Und so weiter, und so weiter . . . Ein ehrlicher Sinneswandel, hin zu den tatsächlichen Notwendigkeiten, weg von der alten Bräsigkeit, sprich: eine Art Digitale Agenda 20xx . . . das ist leider absolut nicht absehbar. Deutschland auf dem Weg zum digitalen Musterland? Absolut unvorstellbar! Dieses Land wird in der nächsten und aller Voraussicht nach auch in der übernächsten Dekade damit leben müssen, digital nur unter ferner liefen zu rangieren. Da helfen auch die nett gemeinten digitalen Förderprogramme von Bund und Ländern nicht viel (oder ehrlicher: nahezu gar nichts), ebenso wenig wie der verzweifelte Ruf der Wirtschaft nach Industrie x.0 und all den Innovationsclustern,

6

1 Einführung in die Internetsoziologie

Centern, Hubs, Spaces und Places. Denn weder die Amerikaner noch die Asiaten werden sich die Butter vom Brot nehmen lassen, sprich: kampflos, durch Zeitablauf oder aufgrund einiger weniger staatlicher, privater oder bürgerschaftlicher Initiativen wird sich mit absoluter Sicherheit nichts ändern. Denn das Problem ist ja auch: Deutschland fehlt es insgesamt an einer Vision, nicht nur an einer digitalen. Das ist schade, ja: es ist tragisch. Das klassische technische Vorbild der Deutschen, ihr liebstes Kind: das Auto – es taugt schon lange nicht mehr für eine Vision. Automobilität ist in, nicht der Autobesitz. Die Zeit des Verbrennungsmotors nähert sich nachvollziehbarerweise dem Ende, andere Antriebe und Mobilitätslösungen drängen auf den Markt – und sie sind alle, auf die eine oder andere Weise, zutiefst digital. Doch hier ist Deutschland nicht am Start. Das Rennen dürften hier andere machen. Mal wieder. Immer noch. Da mag die Automobilindustrie noch so stark sein: sie wird höchstens als Partner dienen können. Und digital auf jeden Fall nur als Juniorpartner. Ich wünschte, es wäre anders, aber ich sehe derzeit keine andere Perspektive. Deutschland hat den Anschluss verpasst und wird dafür einen entsprechenden Preis zahlen müssen. In den USA verband man die Digitalisierung mit mehr Freiheit, mehr Wohlstand, einem besseren Leben für alle. Das ist eine gesellschaftlich enorm erfolgreiche Triebfeder. In Deutschland hingegen sah man, wie zuvor bereits erwähnt, fast ausschließlich die Verdatung des Menschen. Was für die einen Freiheit war, war somit für die anderen das genaue Gegenteil. Klar, man kann dies mit den besonderen (westdeutschen) Verhältnissen und Verständnissen seit dem Zweiten Weltkrieg begründen, und das ist auch sicherlich weder historisch falsch noch unlogisch oder gar ungerechtfertigt. Doch bei den nachfolgenden Generationen, d. h. denen, die den Zweiten Weltkrieg nicht erlebt haben, dürfte Zurückhaltung, dürfte eine „wohlüberlegte“ Vorgehensweise vielmehr mit Faulheit, Bräsigkeit und Bequemlichkeit zu verbinden gewesen sein als mit prägenden historischen Erfahrungen. Denn welche hätten das sein sollen? Meine Generation – ich bin Jahrgang 1977 – hat kollektiv und aktiv keinen Krieg erlebt, erst recht keinen Weltkrieg, und kann sich aufgrund der Zeitläufe gerade nicht auf historisch bedingte „Zurückhaltung“ berufen. Die Welt steckt inmitten gravierender Umbrüche, und Zurückhaltung ist weder geboten noch hilfreich. Die Digitalisierung ist eine der größten Herausforderungen der Menschheit, die problemlos in eine totalitäre Richtung missbraucht werden kann – und Deutschland findet einfach keinen plausiblen Weg in Richtung einer vernunftorientierten, trotzdem aber proaktiven und positiven digitalen Vision. Was haben wir stattdessen in den vergangenen Jahren für einen Unsinn lesen, hören und beobachten müssen: Debatten über „Killerspiele“, „Netzsperren“, die „gefährliche Anonymität“ im Internet, die Gefahren durch zu Hass verführende Social-Media-Plattformen, überhaupt: Plattformen! Onlinespiele! Egoshooter! Amokläufer! Alle allein und einsam, Nächte (und Tage) vor dem Computer . . . Negativ ging (und geht weiterhin!) immer. Aber bergab geht es nun einmal immer leichter als bergauf. Zerstören – und nichts anderes als das ist Schlechtreden! – ist immer einfacher als Erschaffen.

1 Einführung in die Internetsoziologie

7

Dieses Buch bietet deshalb, dies sei nochmal betont, kein Happy End. Im Gegenteil: mit dem Wissen von heute hätte ich die Arbeit an diesem Projekt so, wie es der Fall war, wie es in diesem Buch in weiten Teilen dokumentiert wird, mit Sicherheit eben nicht begonnen. Aber ich konnte mir damals – in meiner aus heutiger Sicht wirklich fast schon grenzenlosen Naivität – beim besten Willen nicht vorstellen, dass eine so kraftvolle Gesellschaft, eine wirtschaftlich und intellektuell so starke Nation so grandios scheitern kann und wird. An einem Thema, welches neu, offen und damit hochspannend, relevant und nahezu frei gestaltbar war. Wie ich mich nur getäuscht habe. In diesem Buch finden Sie meine Geschichte. Die Geschichte der Internetsoziologie, wie ich sie verstehe. Wie ich sie, aus guten Gründen, für sinnvoll halte. Und wie ich sie für ein Abbild ihrer Entwicklung und damit auch für ein Abbild der Rahmenbedingungen halte, unter denen sie entstanden ist. Mit den geschilderten Ergebnissen und Schlussfolgerungen. Diese Geschichte ist weder linear noch leicht, sie ist weder komplett durchstrukturiert noch führt sie zu einem positiven Höhepunkt. Sie ist teilweise sehr wild, stellenweise sicherlich auch wirr, und hoffentlich ab und zu wegweisend. Sie war und ist anstrengend, ernüchternd, enttäuschend, aber auch punktuell nichts weniger als historisch, grandios, faszinierend. Sie wurde erfreulich viel gelobt und sehr selten abgelehnt. Sie wurde zu meiner Geschichte, und das ist keinesfalls schlecht – trotz allem. Es ging stets darum, ein kleiner Teil von etwas Großem zu sein. Es wurde letztlich viel mehr als das. Es wurde eine erfolgreiche Subdisziplin, ein Forschungs- und Arbeitsbereich, dieses Buch. Es wurde eine Geschichte, die das Leben schrieb. Es wurde eine deutsche Erfolgsgeschichte, ohne eine deutsche Erfolgsgeschichte zu werden. Und sie ist noch nicht zu Ende. Weder für mich noch für die deutsche Gesellschaft. Es kann und wird noch viel geschehen, das ist völlig klar. Trotz aller Probleme, die ich zuvor beschrieben habe, gilt aber – erstaunlicherweise, glücklicherweise – weiterhin: wir können immer noch viel gestalten. Bisher blieben wir alle unter unseren kollektiven Möglichkeiten. Noch können wir die digitale Revolution akzeptieren und positiv mitwirken. Wir müssen es nur wollen. Es ist vielleicht eine der größten Überraschungen meiner Arbeit, aber: noch haben wir die Chance, entscheidenden Einfluss zu nehmen. Es ist vielleicht ein wenig wie mit dem Klimawandel: das Zeitfenster, in dem gravierende Veränderungen stattfinden müssen, schließt sich schnell – aber es ist noch da. Noch ist es nicht zu spät. Wenn dieses Buch zu einem gewinnbringenden Sinneswandel beitragen kann – und sei der Beitrag auch noch so klein –, hat es sich schon gelohnt. Allen Problemen, Hürden und Schwierigkeiten zum Trotz. Wie können Sie nun, unter diesen Bedingungen, mit diesem Vorwissen, ganz konkret das Bestmögliche für sich und vielleicht sogar für die Gesellschaft aus diesem Buch rausholen? Sie, liebe Leserin, lieber Leser, lassen sich, indem Sie sich für dieses Experiment entschieden haben, offen und neugierig auf ein außergewöhnliches Projekt ein. Und das ist bereits der beste Weg durch bzw. Ihr bestes Werkzeug

8

1 Einführung in die Internetsoziologie

für dieses Buch. Was Sie in der Folge erwartet, ist kein „normales“ wissenschaftliches Buch. Was Sie erwartet, ist nicht weniger als mein (bisheriges) wissenschaftliches Leben, mit all seinen Höhen und Tiefen. Es ist (auch) die authentische Geburt einer Subdisziplin, wenn man es besonders dramatisch darstellen möchte. Wem das zu hoch gegriffen ist: Es ist zumindest die Geburt einer weitreichenden Interpretation einer Subdisziplin. Das bedeutet für Sie nun ganz konkret: – Maximale Individualität: hier, in diesem Buch und anhand dieses Buches, erkennen Sie meine ganz persönliche Arbeitsweise. – Das Buch folgt maximal stellenweise, aber eben nicht durchgehend einer gewissen Linearität. Es wurde und wird an der Idee Internetsoziologie gebastelt! Alle Ergebnisse sind – beachten Sie dazu bitte das zuvor genannte Zitat von Karl Popper – Bastelergebnisse. – Dopplungen, ähnliche Ideen, Mehrfachnennungen von Sinneinheiten, Sätzen, Absätzen oder anderen Inhalten usw. sind Teil der Prozessbeschreibung und somit beabsichtigt. – So wie im Übrigen alles in diesem Buch positive Absicht ist, auch wenn es nicht immer sofort erkennbar sein sollte. – Das Buch bildet einen sehr großen Teil meiner bisherigen Arbeit ab, und zwar sehr authentisch, d. h. etliche Erfolge ebenso wie manch Misserfolg. – Diese Abbildung ist jedoch keinesfalls perfekt, denn weder gibt es perfekte Abbildungen noch perfekte Arbeit – und erst recht keine perfekten Bücher. – Dieses Buch enthält deshalb mit Sicherheit gravierende Fehler: von Tipp- über Struktur- bis zu Inhaltsfehlern. Aber auch das ist Teil des Prozesses. Wissenschaft ist nicht perfekt, kann gar nicht perfekt sein. (Sobald sie perfekt wäre, wäre sie tot.) – Dieses Buch beschreibt mein wissenschaftliches Leben. Je offener und positiver Sie es lesen, desto mehr wird es Ihnen sicherlich geben können. Setzen Sie deshalb auf Einzelelemente, die Sie (in welcher Form auch immer) weiterbringen – und schon liegen Sie richtig. – Das Buch beinhaltet nicht nur meine, sondern auch die Ideen anderer. Nicht immer werden dann die entsprechenden Personen direkt benannt, was meist Sicherheits-, oftmals aber auch inhaltliche Gründe hat. Das Vorgehen ist abgestimmt und gegengeprüft, da es entweder mit den jeweiligen Personen abgesprochen oder aufgrund logischer Erwägungen für unproblematisch gehalten wurde. Mir mangelt es sicherlich nicht an internetsoziologischen Ideen, weshalb mir meine eigenen Inhalte hinsichtlich einer entsprechenden Zuschreibung in diesem Buch völlig ausreichen. Sie werden sicherlich problemlos erkennen können, welche Ideen ich Ihnen vermitteln möchte, und welche Ideen garantiert nicht von mir stammen. Dafür dürfte gesorgt sein. – Manche meiner hiesigen Ideen wurden bereits an anderer Stelle veröffentlicht. Dies ist aber für eine Arbeit wie diese nicht schädlich (und meines Erachtens auch ganz allgemein gar kein Problem), ganz im Gegenteil. Dieses Buch ist

1.1 Eine Erzählung aus der Perspektive eines Maschinenflüsterers

9

erstens nun mal ein „Best of“, das ist sein Sinn, seine Daseinsberechtigung. Zweitens geht es in diesem Buch auch um die Arbeitsweise des Bastelnden Denkens, insofern entspricht der Inhalt der Methode. Und drittens ist die Mehrfachverwertung von Texten für mich deshalb eine ebenso plausible wie sinnvolle Angelegenheit, da es hierbei stets auf die (Re)Kontextualisierung der jeweiligen Sinneinheiten ankommt. Oder anders gesagt: am Ende muss der Text Sinn ergeben, egal ob als Update, Upgrade oder Neuheit. Ob das diesem Sinn zugrunde liegende Mosaik nun viele oder wenige „neue“ oder „gebrauchte“ Worte enthält, ist auf jeden Fall nachrangig. Doch dazu mehr im weiteren Verlauf.

1.1 Eine Erzählung aus der Perspektive eines Maschinenflüsterers Als ich mir über die einleitende Darstellung meiner Beweggründe, meines Wirkens, meiner individuellen Ansätze und Ideen hinsichtlich einer Internetsoziologie in Deutschland Gedanken gemacht habe, fiel mir meine Antrittsvorlesung ein, die ich Ende 2017 an der Hochschule Fresenius gehalten habe. Denn bei dieser Gelegenheit hatte ich zwei Dinge besonders betont, die mir sehr wichtig waren und sind, die meinen internetsoziologischen Antrieb gut einleiten und deshalb nun auch an dieser Stelle besondere Erwähnung finden müssen: Inhalt und Haltung. Inhalt, klar: das ist nun mal das, worum es konkret beim wissenschaftlichen Arbeiten geht, also beispielsweise um die für mich hochrelevante Philosophie Karl Poppers, welche das (mehrheitlich noch sehr abstrakte) wissenschaftstheoretische Fundament meiner Idee von einer Soziologie des Internets darstellt und die sich ja auch symbolisch im Titel dieser Vorlesung („Auf der Suche nach einer besseren Welt“) niederschlug. Wir, die WissenschaftlerInnen, produzieren und verbreiten Inhalte, wir schaffen Wissen. Popper ist hier ein wunderbarer Ratgeber, seine Philosophie sehr „brauchbar“ im Sinne der Einbringbarkeit in digitale Analysen. Haltung, das ist laut Duden die „innere [Grund]einstellung, die jemandes Denken und Handeln prägt“. Die eigene Haltung hängt dabei stark vom persönlichen Umfeld, von der Um- und Durchsetzbarkeit der eigenen Grundeinstellung ab, was in meinem – und sicher nicht nur in meinem – Falle sehr konkret bedeutet: von der Kraft und Unterstützung von Menschen, die mich auf meinem wissenschaftlichen Werdegang begleitet haben und bis heute begleiten. Es ist mir demzufolge sehr wichtig zu betonen, dass es in der Wissenschaft nicht nur um die Inhalte, sondern ebenso um die Haltung geht. (Popper ist im Übrigen in beiden Bereichen ein wunderbares Vorbild.) Es ist genau dieser Aspekt des Menschlichen, den ich insgesamt für stark unterrepräsentiert und unterschätzt halte, ein Aspekt, der maßgeblich zum Erfolg – oder zum Scheitern – von Wissenschaft beiträgt. Denn was nützt Ihnen die beste Idee

10

1 Einführung in die Internetsoziologie

einer Haltung, die Sie einnehmen wollen, wenn Sie keinerlei Rückhalt spüren? Der Mensch ist nun einmal ein soziales Wesen. Und eine Haltung ist „einsam und allein“ kaum vorstellbar. Eigentlich völlig sinnlos erscheint deshalb ein Leben ohne die Menschen, die man liebt und die einen lieben, die einen unterstützen und die einem beistehen, die einen tragen und die auch mal von einem selbst getragen werden. Dies gilt nicht auch, nicht nur, sondern ganz besonders: in der Wissenschaft. Denn die Wissenschaft verlangt einem anderes, vielleicht aber auch mehr ab als alle anderen Arbeitsumfelder. In seiner konkreten Ausprägung ist der Wissenschaftsbetrieb etwas ganz Besonderes, etwas Einzigartiges, mit einzigartigen Spielregeln, Rahmenbedingungen, Chancen und Risiken. Wer sich auch nur ansatzweise mit Max Weber beschäftigt hat, der weiß genau, wovon ich spreche. Und die Zeiten, soviel sei vorweggenommen, sind seit Weber nicht besser geworden. Wenn Sie sich Stellenausschreibungen für Professuren anschauen, werden Sie oft den Satz lesen: gesucht wird „eine international ausgewiesene Persönlichkeit“. Auf dem Weg zu einem erfolgreichen Wissenschaftler ist dieser Reifeprozess – von einem neugierigen, engagierten und demütigen Menschen zu einer ebenso demütigen, aber deutlich gereifteren und professionelleren, erfahreneren und souveränen Persönlichkeit – von entscheidender Bedeutung. Und losgelöst vom Menschlichen kann dieser Reifeprozess nur scheitern. Denn keine Persönlichkeit basiert nur auf professionellen Inhalten. Keine Persönlichkeit existiert nur beruflich. Keine Persönlichkeit legt ihre professionellen Gewohnheiten im Privaten vollständig ab. Das Private ist beruflich, das Private ist wissenschaftlich. Wer sich auf eine Karriere als Wissenschaftlerin bzw. Wissenschaftler einlässt, kann dies nur voll und ganz tun. Eine halbe Lösung, „nine to five“, ein Wirken mit angezogener Handbremse ist nicht möglich. Ein Professor ist kein Berufsschullehrer, ein Professor ist ein Hochschullehrer, ein Wissenschaftler, eine Persönlichkeit – oder sollte es zumindest sein. Dass das Private wissenschaftlich ist, ist im Grundsatz sehr angenehm, weil man dann auch privat vom Beruflichen profitiert – und damit meine ich natürlich nicht das, was umgangssprachlich fälschlich Titel genannt wird, wie den Professor, oder den Doktorgrad (der ein akademischer Grad ist und kein Titel – und erst recht kein Bestandteil des Namens). Wer solche Dinge im Sinn hat, wenn er in die Wissenschaft geht, der ist, um es mit den Worten des Kollegen Armin Nassehi zu formulieren, nur an einer Pose interessiert. Wovon ich jedoch spreche, ist: Haltung. Die Wissenschaft hilft einem bei der Suche nach einer besseren Welt, nach einem besseren Leben, nach einem ganzheitlicheren Sein. Sie hilft nicht nur beruflich, sondern auch privat. Sie wirkt ganzheitlich. Sie sorgt für eine klare Haltung, für ein Profil, für eine Prägung der Persönlichkeit. Man geht mit einer bestimmten Idee einer Haltung hinein, und kann diese bekräftigt sehen. Sie bildet im besten Humboldtschen Sinne den Charakter. Wenn es gelingt, dann kann es nur gut sein. Sehr gut sogar. Wenn es gelingt, dann ist es, soweit würde ich gehen, schlicht: wunderbar. Aber, das ist nun mal so im Leben: keine Medaille hat nur eine Seite. Und der Preis, den man bezahlen muss, die Nachteile, die der Wissenschaftsbetrieb bereithält,

1.1 Eine Erzählung aus der Perspektive eines Maschinenflüsterers

11

können immens sein. Und heutzutage gilt wahrscheinlich mehr denn je: das Ganze kann existenzieller Natur sein. Auf den ersten Blick ist meine Bilanz durchaus positiv. Mein wissenschaftlicher Werdegang bot sehr viele, teilweise sehr erfreuliche Meilensteine. Doch es galt dafür einen Preis zu zahlen, der mich zu drei Beispielen führt, die mir das Leben seit 2005, seit meinem Einstieg in den Wissenschaftsbetrieb, nicht gerade leichter gemacht haben. Und die meine Haltung – und ihre Unterstützung, Förderung und Erweiterung – entsprechend herausforderten. Wenn ich mich spontan für eine Katastrophe entscheiden müsste, die auf jeden Fall Erwähnung verdient und wahrscheinlich auch ganz oben auf einer entsprechenden Rangliste stehen muss, dann wäre es für mich der heutige „Betriebsmodus“ der Wissenschaft: „Alles oder nichts“. Schön, wenn man alles hat: Stelle, Personal, Mittel. Keineswegs schön, wenn man gar nichts hat: keine Stelle, folglich keine Existenzsicherung, keine Mittel, keine Perspektive. So einfach, so schwerwiegend. Und wenn man auch noch so wahnsinnig ist wie ich und die Ausdifferenzierung einer eigenen, völlig neuen Subdisziplin anstrebt, weil man das unter Innovation versteht – was sie ja auch ist – , dann ist man zum Erfolg verdammt. Jetzt, in diesem Buch, an dieser Stelle, lässt sich leicht darüber reden. Ich möchte jedoch durch die Darstellung meiner Erlebnisse Ihre Augen und auch Ihre Herzen für all diejenigen öffnen, die diesen Erfolg nicht – oder: noch nicht – hatten. Das sind die, die prekär beschäftigt sind, die sich von Befristung zu Befristung hangeln, die auf eine halbe Stelle gesetzt, aber voll ausgebeutet werden. Die keine Familie gründen können, sondern mit über 40 noch wie Studierende leben müssen, weil sie keinerlei Planungssicherheit haben und ein Einkommen, welches ihrem Bildungsniveau nicht einmal ansatzweise entspricht. Die sich privat vollständig dem Beruflichen unterwerfen müssen. Die nur „Alles oder nichts“ denken, leben, fühlen können. Diese Menschen sollten wir nicht vergessen, sondern uns fragen, ob „Alles oder nichts“ wirklich sein muss und was wir dazu beitragen können, damit sich diese Zustände verbessern. Das Mindeste, was mir dazu einfällt, ist ein leider ziemlich aus der Mode gekommenes Wort, welches mir an dieser Stelle jedoch ohne jeden Zweifel am besten zu passen erscheint: Demut. Ja, unsere Persönlichkeit wird durch unser wissenschaftliches Wirken geprägt, wir können unseren Horizont auf eine einzigartige Art und Weise erweitern und davon privat wie beruflich profitieren, wir erreichen einen extrem begehrten Expertenstatus, doch die Idee des Lehrstuhlinhabers oder Professors als Quasi-Halbgott, über dem, so ein geflügeltes Wort auf dem Wissenschaftsbetrieb, nur die Sonne ist, ist nicht nur absurd, sondern pures Gift für unsere Leistungen. Nur Demut kann uns stark machen für die kommenden Herausforderungen, denn sie schützt unseren Realismus und unseren Leistungswillen. Orientieren wir uns deshalb idealerweise an einer Abwandlung eines anderen geflügelten Wortes: stellen wir stets, wann immer es machbar erscheint, Evidenz vor Eminenz. Damit werden halbe nicht zu ganzen Stellen, aber erstens liegen diese ohnehin nicht in unserer Macht, da ein ganzer Apparat, inklusive zahlreicher Kolleginnen und Kollegen, diese Vorgehensweise so wünscht (was ich logischerweise für falsch halte), und zweitens

12

1 Einführung in die Internetsoziologie

zeigen wir so zumindest eine Haltung, die andere Menschen, die es nicht so gut getroffen haben wie wir, zumindest nicht demütigt. Und es war genau diese Haltung, die es mir überhaupt erst ermöglichte, durchzuhalten – denn die, die mich unterstützt haben, waren eben nicht die arroganten, ausbeutenden „Halbgötter“, sondern hart, aber fair urteilende und gleichermaßen fördernde wie fordernde Wissenschaftlerinnen und Wissenschaftler. Ein weiterer Punkt, der mir stets zu schaffen machte, war die Innovationsfeindlichkeit des deutschen Wissenschaftsbetriebs. Das mag jetzt seltsam klingen, ist doch die deutsche Wissenschaft eigentlich der Ort, an dem neues Wissen entsteht, und damit qua definitionem innovativ. Aber es ist mit der Innovationsfähigkeit vielleicht ein wenig mit den Titeln: nur weil Professor draufsteht, steckt noch lange kein Innovator dahinter – auch wenn das viele Menschen vermuten mögen. Der Switch von der Evidenz zur Eminenz ist halt ein süßes Gift. Ich hatte es bereits erwähnt: wer wie ich etwas völlig Neues starten will, der stößt im Wissenschaftsbetrieb oft auf enorme Widerstände genau dieser Eminenzen. Ich dachte seinerzeit in meiner Naivität, dass Innovation genau das ist, was gesucht wird – und damit lag ich grundfalsch. Zumindest in meinem Arbeitsbereich. Aber, ehrlich gesagt, geht es den KollegInnen in vielen anderen Bereichen offenbar auch nicht viel anders. Deutschland ist durchweg schlechter aufgestellt als es auf den ersten Blick aussehen mag, nicht nur im Bereich Digitalisierung, sondern ganz allgemein in der Wissenschaft. Und das liegt auch an einer altertümlichen Sicht auf Land und Menschen. Aber gerade die digitale Revolution ging nun auch an Deutschland nicht vorbei. Doch als Bundeskanzlerin Angela Merkel im Jahre 2013 vom „Neuland“ sprach, erntete sie überwiegend despektierliche Kommentare. Dabei war die Aussage im Kern völlig korrekt: Internet und (deutsche) Gesellschaft, das war – und ist – eine schwierige Beziehung. Die Soziologie bildet da keine Ausnahme, ganz im Gegenteil: die spannenden und relevanten Ideen rund um das Phänomen Digitalisierung kamen in den vergangenen Jahren fast immer aus anderen Disziplinen und Ländern. Dabei mangelt es der Soziologie freilich nicht an wissenschaftlicher Ausprägung: sie ist gerade in Deutschland gekennzeichnet durch eine reichhaltige Geschichte, ausgefeilte Theorien und einen umfassenden Methodenkanon. Was ihr jedoch weitgehend fehlt, ist ein grundlegendes Verständnis digitaler Technik und der daraus resultierenden sozio-technischen und netzkulturellen Konsequenzen. Zudem leidet sie traditionell an einer bedenklichen Politisierung, welche die Wissenschaftlichkeit stellenweise gefährlich weit in den Hintergrund treten lässt und aufgrund denkimmanenter Technikfeindlichkeit für eine zusätzliche Entfernung von der erfolgreichen Analyse digitaler Phänomene sorgt. Diese Aspekte sorgten zusammen mit weiteren Faktoren in der Konsequenz für eine disziplinäre Erstarrung, welche eine soziologische Weiterentwicklung für die Analyse deutschsprachiger Internetphänomene notwendig erscheinen lässt. Dies war in weiten Teilen ein Innovationsschritt ohne Unterstützung, ja: teilweise mit enormen Gegenwind, aus den zuvor genannten Gründen.

1.2 Die frühe Phase: 1999 bis 2004

13

Die wenigen Menschen, die mich tatsächlich unterstützt haben, wissen, dass ich sie über alles schätze und ihnen unendlich dankbar bin. Doch diese Menschen waren erschreckenderweise leider die Ausnahme. Deutschland und die Digitalisierung, das war, ist und bleibt auch in den nächsten Jahren ein schwieriges Thema. Ich empfehle rückblickend niemanden, in diesem Umfeld echte Innovationen zu wagen. So unglaublich es klingen mag, aber die meisten Menschen dürften im Wissenschaftsbetrieb größeren Erfolg haben, wenn sie – positiv gesprochen – in jemandes Fußstapfen treten oder – negativ formuliert – jemandes Kofferträger werden. Inwieweit dieses Traditionsmodell in Zeiten der Digitalisierung und Globalisierung weiterhin ein „Erfolgsmodell“ sein kann, überlasse ich Ihrer Fantasie. Schließlich – und das ist der dritte und letzte Punkt – müssen wir auch von Wissenschaftsfeindlichkeit im Allgemeinen sprechen. Es sind nicht nur der allgemeine Betriebsmodus der deutschen Wissenschaft sowie die Innovationsfeindlichkeit bei wirklich neuen Themen, es ist auch eine in der Gesellschaft inzwischen stark verankerte Skepsis, ja: Wissenschaftsfeindlichkeit, die uns zu schaffen macht. Die Welt ist komplexer und komplizierter denn je, ja, gar keine Frage. Aber sich dann zu verweigern, statt sich anzustrengen, das halte ich doch in den meisten Fällen für gefährlich und dumm. Eine eigene, klare Haltung ist heute nicht mehr nur Zierrat, sie ist schlichte Notwendigkeit, um im Wissenschaftsalltag, in der Wissenschaft, in dieser Gesellschaft innovativ zu sein. Aber man kann diese Haltung eben nicht auf Dauer allein durchhalten, man braucht die Unterstützung des sozialen Umfelds. Sie sehen: es waren spannende Jahre, ein spannender Weg, der mich hierherführte. Voller Erfolg, aber auch mit etlichen Herausforderungen, Risiken, Misserfolgen. Ich glaube mich zu erinnern, dass vor ein, zwei Jahren mal in der FAZ geschrieben stand, dass die letzten zehn Jahre die schlimmsten Jahre des Wissenschaftsbetriebes gewesen seien seit Bestehen des Wissenschaftsbetriebes. Das ist eine starke und wahrscheinlich auch – leider – sehr wahre Behauptung. Aber: heute lesen Sie dieses Buch. Ich hoffe, dass ich trotz aller Hürden und Probleme etwas Außergewöhnliches, vielleicht sogar Wertvolles schaffen konnte und freue mich sehr, ohne jeden Zweifel, auf die Zukunft. Trotz aller Schwierigkeiten. Es gibt im Moment keinen positiven Zwischenstand in Sachen Deutschland und die Digitalisierung. Doch wenn man überhaupt etwas erreichen will, inhaltlich und menschlich, dann schafft man das nur gemeinsam.

1.2 Die frühe Phase: 1999 bis 2004 Die Jahre zwischen 1999 und 2004 waren in mehrfacher Hinsicht besonders prägend für mich und meine Idee Internetsoziologie. In den ersten Jahren lag der Schwerpunkt natürlich auf dem Ausbau der dazugehörigen (und inzwischen gleichnamigen)

14

1 Einführung in die Internetsoziologie

Website: einige Menschen, die ich im Studium kennengelernt hatte, formten mit mir zusammen eine feste Clique, so dass wir ein wirklich tolles Team von fünf Personen waren, welches auch eng miteinander befreundet war. Für dieses Team wollte ich eine passende Website-Performance liefern und eröffnete unterhalb von Humer.de (und später Internetsoziologie.de) Downloadbereiche für Skripte, Diskussionsforen und E-Mail-Konten. Wir wollten die neuen digitalen Möglichkeiten maximal ausnutzen, zu unserem professionellen Vorteil, für ein gelungenes Studium. Aus heutiger Sicht gab es somit wenig bis gar keine „echte“ Internetsoziologie, denn diese beschränkte sich quasi auf die digitale Infrastruktur: Downloads, Terminverwaltung, Mailkommunikation. Das wars. Viel mehr ist mir auch nicht in Erinnerung gelieben, von einem erstaunten Ausruf eines Kommilitonen einmal abgesehen: dieser wunderte sich sehr über meine „Dreistigkeit“, „einfach“ eine Domain wie Internetsoziologie.de zu registrieren, und befürchtete fortan „Sanktionen“ der „echten“ Soziologie. Freilich passierte nichts. (Was wiederum – Sie erinnern sich an dieser Stelle an die ersten Ausführungen in diesem Buch – auch eine erste Überraschung gewesen wäre.) Für mich war diese Website-Lösung nur logisch: wir waren online und studierten Soziologie – das war dann eben unsere Ausprägung einer „Internetsoziologie“. Das mag aus heutiger Sicht vielleicht etwas seltsam klingen, keine Frage. Aber wir waren erfolgreich und glücklich damit, denn die Website erleichterte uns das Studium mit all seinen Aufgaben und Prüfungen, vor allem hinsichtlich der Inhalteverwaltung. Und eine eigene Domain samt dazugehöriger Website war schon immer eine zusätzliche Arbeitserleichterung und hatte zudem den großen Vorteil, meine Experimentierfreude in diesem Bereich weiter auszuprägen. In den Jahren 2000 und 2001 wurde die Website stark erweitert und ich begann mit einer Vorgehensweise, die dem heutigen Bloggen sehr ähnlich sein dürfte, nur eben ohne Content Management System (CMS), Search Engine Optimization (SEO) und InfluencerHonorare: ich schrieb kleine News-Updates für „mein Team“ und freute mich über diese kleine Innovation mindestens ebenso wie über den Technikkompetenzgewinn, der mit der Anwendung von HTML einherging. Das Ganze war technisch schlicht, aber als Motivationsgrundlage unbezahlbar. Es war reines Web 1.0. Mit zunehmender Öffnung des Netzes für „Laien“ (Stichwort: Web 2.0), aber auch mit zunehmender Zersplitterung unseres Teams bedingt durch unterschiedliche Schwerpunkte im Hauptstudium wurde die Internetsoziologie-Website immer offener, allgemeiner und breiter aufgestellt. Zwar fanden auch noch News-Updates für meine Freundin und Freunde aus der Uni ihren Platz, doch inzwischen war die Website immer stärker für ein breites Publikum ausgebaut worden. Schließlich widmete ich mich ab Ende 2003 nicht nur meinen EDV-Seminaren3 am Institut für Soziologie der FU Berlin und dem nahenden Studienabschluss und bereitete meine

3 https://www.polsoz.fu-berlin.de/soziologie/studium/diplom/dateien/kvv/ss_04.pdf, am 3.5.2019.

abgerufen

1.2 Die frühe Phase: 1999 bis 2004

15

ersten Arbeitsschritte in Richtung Diplomarbeit vor, so dass die Website vom Teamprojekt immer mehr zum persönlichen Werkzeug mit Breitenwirkung wurde. Im Jahre 2003 kam es ohnehin zu einem Erlebnis der besonderen Art: die Soziologin Gerburg Treusch-Dieter trat in mein akademisches Leben. Und diese (bereits pensionierte, jedoch weiter lehrende) Professorin änderte kurz vor Abschluss meines Studiums noch einmal alles.4 Gerburgs Seminare waren auf den ersten Blick wild und ungestüm, oszillierend zwischen spontaner Performance und atemloser Detailversessenheit, quasi eine wilde Achterbahnfahrt durch Soziologie, Psychologie und Geschichte. Doch diese Oberfläche, das war nur das, was jeder sehen konnte, offensichtlich, ohne Anstrengung erkennbar. Interessant wurde es tatsächlich erst, wenn man sich voll und ganz auf das Ereignis einließ. So berührte Gerburg die, die sich auf die Beschleunigung ihres Denkens einlassen konnten und nicht nur am Rande verharren wollten. Es war rasant, es war laut, es war intensiv. Es war genau das Richtige, damals, so kurz vor Abschluss des Studiums. Und es entzog sich auf ganz besondere Art und Weise den üblichen Bewertungskriterien, denn es war ganz anders als alles, was zuvor geschah. Es war eine Horizonterweiterung, die das Individuum stärkte und die man auch damals nur selten vorfinden konnte. Ich wusste es zu Beginn nicht, doch konnte ich letzten Endes sagen: ich war angekommen. Zugegeben: Gerburgs Seminare waren nicht der einzige Lichtblick im Studium, es gab zahlreiche gute (aber leider auch etliche überhaupt nicht gute) Dozentinnen und Dozenten. Aber ohne Gerburg, so erscheint es mir heute, wäre dies alles ganz anders und auch nicht komplett gewesen. Sie gab dem Studium einen völlig neuen Drall, jenseits der Anhäufung von Vorratswissen – womit man, dies sei an dieser Stelle ausdrücklich betont, nicht automatisch ein Problem haben muss, denn auch die Akkumulation von Wissen dient der Horizonterweiterung und formt den Menschen. Ein Mensch ohne Wissensvorrat erscheint gerade in unserer Zeit nur schwer vorstellbar, infantil, ungebildet, hilflos. Wissen ist und bleibt Macht, auch wenn es sich auf die Aneignung von Fertigkeiten beschränkt. Doch erst durch Gerburg wurde mir klar, was jenseits dieser reinen Wissensakkumulation noch auf mich wartet. Vielleicht war es deshalb aus diesem Grund gar nicht so schlimm, sie erst spät im Studienverlauf kennengelernt zu haben. Vielleicht brachte diese Form einer, ja, Charakterbildung an dieser Stelle besonders viel. Sicherlich ist festzuhalten, dass die Internetsoziologie deshalb experimenteller, risikofreudiger wurde: ich lernte neue sozialwissenschaftliche Ansätze kennen und freute mich über den Zuwachs an Analysemöglichkeiten, auch wenn ich freilich noch ein absoluter Beginner war. Doch schon im Vordiplom wurden Internetthemen

4 Sie finden einen Beitrag von mir zum fünften Todestag von Gerburg mit ähnlichen Ausführungen unter https://www.freitag.de/autoren/internetsoziologe/sie-fehlt-zum-funften-todestag-von-ger burg-treusch-dieter, abgerufen am 3.5.2019.

16

1 Einführung in die Internetsoziologie

angebracht, so dass deutlich gemacht wurde: das könnte tatsächlich mein persönlicher Arbeitsschwerpunkt werden. Zu meiner Schande muss ich gestehen, dass ich die anderen (nichtdigitalen) soziologischen Themen zwar sehr mochte und hochgradig spannend fand, doch erschien mir vieles etwas brotlos, und zwar in jeglicher Hinsicht: die Politisierung der Wissenschaft war für mich ausnahmslos gruselig, inhaltlich verkehrt und vollkommen in die falsche Richtung führend, andere Themen jenseits des Digitalen boten nicht unbedingt die notwendige Passung, um zu (aus meiner Sicht) guten Ergebnissen zu kommen. Somit blieb beinahe nur das Internet als soziologisches Thema. Und dank Gerburg wurde es auch in der entsprechenden Analyse revolutionär. Und genau diese Erhellung führte zur ersten internetsoziologischen Abschlussarbeit mit dem Titel „Das Imaginäre im Internet“. Aufgrund der besonderen Relevanz dieser Arbeit werden nun Genese und Hintergrund der Arbeitsergebnisse aus der damaligen Perspektive wiedergegeben, wie immer in dieser Arbeit und somit bei allen folgenden eigenen Arbeiten überarbeitet, jedoch aktualisiert nur dort, wo es unverzichtbar erschien:5 Innerhalb von (seinerzeit) nur zehn Jahren ist das Internet mehr und mehr in den Blickpunkt der Öffentlichkeit gelangt. Es hat eine Rasanz und Entwicklung an den Tag gelegt wie kein Medium jemals zuvor. Geboren in den universitären Katakomben und Elfenbeintürmen aufgeklärter Forscherinnen und Forscher, unter der Prämisse des Kalten Krieges und unterstützt durch das Verteidigungsministerium der USA, ist es nun, in den Zeiten der Erlebnisgesellschaft und des Kommerzes, anscheinend ein Medium für jedermann geworden, ein Medium der Vielseitigkeit und ein Medium der ungeahnten Möglichkeiten. Doch ist es das wirklich? Mit dem rasanten Wachstum und der Verbreiterung der Nutzerinnen- und Nutzerbasis, also durch die intensive Bestellung des Feldes durch die kommerziellen Anbieter, wuchs auch die Komplexität. Angefangen hat es mit den Nutzungskosten: es entstand schnell ein unüberschaubares Heer an Einwahl-, Call-by-Call6-, Monatsgrund-, einmaligen Anmelde- und zahlreichen Änderungs- und Sondergebühren. Nicht aufgehört hat es (und niemals aufhören wird es) bei der Zersplitterung der Technik selbst. Es wuchs zusätzlich die Unklarheit über das, was das Medium ausmacht. Das Internet ist stets mehr als nur WWW, FTP7 und IRC8 gewesen. Doch ist der Festplattenrekorder auch Internet? Warum sollte man den Fernseher mit dem PC verbinden? Es wuchs die Unschärfe, die eine Eingrenzung so schwierig

5 Erkennbar zeitlos: Versuchen Sie, einen oder mehrere der damaligen Sätze von heute (ebenfalls) gültigen Aussagen zu unterscheiden. Hinsichtlich der damaligen Zustandsbeschreibung und dem heutigen Zustand dürfte man des Öfteren zu überraschenden Ergebnissen kommen. 6 Für das Verständnis des Textes wichtige Begriffe werden an dieser Stelle erklärt, allerdings nur in ihrer besonderen Bedeutung für den Kontext; Call-by-Call-Gebühren beschreiben die Kosten für die fallweise Nutzung einer Internetwählverbindung. 7 File Transfer Protocol: Eingesetzt vor allem zum direkten Dateitransfer über das Internet. 8 Internet Relay Chat: eine ursprüngliche Form des Internetchats.

1.2 Die frühe Phase: 1999 bis 2004

17

macht. Das Ausfransen an den Rändern macht dem Durchschnittsnutzer klar, dass Verwirrung vor Sinnstiftung kommt: Handys, die Videos aufnehmen und verschicken können, konkurrierten nun mit Camcordern und PDAs, die ebenfalls Videos über den Datenfunk verschicken konnten, aber keine Telefonfunktion hatten. Ebenso Notebooks, die SIM-Karten aufnehmen können, über die sich vortrefflich via IP-Telefonie kommunizieren lässt, aber nicht „ganz normal“ im GSM-Mobiltelefonnetz. Schlagworte, Fachbegriffe und Abkürzungen, die auf dem gegenwärtigen Stand der Technik fußen, beherrschen den Alltag der meisten Userinnen und User: Viren-, Trojaner- und Wurmattacken, UMTS, Phishing,9 Identitätsdiebstahl, DSL, Datensicherheit, Raubkopien, Tauschbörsen sind da nur Schlaglichter in einer schnelllebigen Szene, die heute bereits nicht mehr wissen mag, was sie gestern noch aktuell und interessant fand. Wichtig ist der Vortrieb, nicht der Rückblick – und dies scheinbar um jeden Preis. Ermöglicht wird dies nicht zuletzt durch eine natur- und technikwissenschaftliche Forschung, die scheinbar keine Grenzen sieht, auch wenn Begeisterung und Pionierdrang nachgelassen haben. Viele Nutzerinnen und Nutzer wissen jedoch bereits über die Gegenwart nur wenig und nur wenige wissen wirklich Bescheid. Zahlreiche Fachzeitschriften, Handbücher, Erste-Hilfe-Guides, Beratungshotlines, infound Mehrwertdienste und Lehrveranstaltungen belegen, dass Beratungsbedarf existiert. Außer Vollzeitspezialisten oder langjährigen Freaks hat anscheinend niemand Zeit und Nerven genug, um sich im Wust der Technik- und Kommunikationsbegrifflichkeiten und – entwicklungen auszukennen – auch wenn vielen keine Wahl gelassen wird, was die Nutzung des Netzes angeht. Der Computer ist bereits heute schon für viele oftmals nur ein Instrument, welches Probleme schafft, die sie ohne Computer gar nicht hätten. Einrichtung, Wartung und Sicherung des Systems vor Fehlern, Schwächen und Angriffen nehmen heute einen Grossteil der Nutzungszeit in Anspruch. Wer heute nur einen Brief schreiben will, muss sich um Servicepacks,10 Virenupdates, Spyware, Adware, Malware,11 Lizenzierungsüberprüfungen und den ständigen Zugang zum Internet, am besten per DSL oder andere schnelle Übertragungswege, kümmern. Das sorglose Surfen gehört längst der Vergangenheit an, wenn es nicht sogar stets eine Illusion war. Unschuld und Faszination sind Unsicherheit und Angst gewichen. Der Öffentlichkeit bewusst werden heutzutage nun prioritär die Nachteile des Netzes. Gründe dafür gibt es einige: das Platzen der New-Economy-Blase, was zur Verunsicherung über die Zukunftsfähigkeit zahlloser Internetideen führte, die

9 Das Abfischen von Daten im Internet, besonders von Zugangsdaten z. B. für das Onlinebanking, wird als „Phishing“ bezeichnet. 10 Im Rahmen des Windows-Updates. 11 Spyware, Adware und Malware beschreiben gegenwärtige Bedrohungen für die Userin und den User am PC: Spyware spioniert zum Beispiel das Surfverhalten der Userin oder des Users aus, Adware platziert gemäß bestimmter Verhaltensweisen entsprechende Werbung auf dem Bildschirm und Malware verursacht unerwünschte Handlungen verschiedenster Art auf dem PC.

18

1 Einführung in die Internetsoziologie

Ereignisse am 11. September 2001 in den USA und alle ihre Folgeerscheinungen sowie nicht zuletzt auch die Monokultur der Microsoft-Welt, die es Virenprogrammierern, Systemausfällen und Hackerattacken so leicht macht. Wir leben in einer Zeit, in der Sicherheit für viele Vorrang hat. Doch gerade in der Computer- und Netzszene ist zu beobachten, dass dies nicht nur Zustimmung findet, ja sogar teilweise auf massiven Widerstand stößt. Menschenrechtsgruppen fürchten um die Zukunft des freien Meinungsaustausches, wettern gegen die totale Kontrolle und sehen den Untergang der demokratischen Gesellschaften nahen. Die Befürworter hingegen, allen voran die großen Hard- und Softwarefirmen, flankiert vom Geist der meist konservativen, oft aber auch diesbezüglich noch stärker vorpreschenden sozialdemokratischen oder sozialliberalen Politik, malen saubere Landschaften, wollen Viren vergessen machen und nebenbei auch alles Üble und Unerwünschte (oftmals Dinge wie das alternative und freie Betriebssystem Linux, kopierte Software und Eigenentwicklungen von Hobbyprogrammierern) gleich mit ausschließen. Der PC soll gefälligst eine Entertainmentmaschine werden, geeignet für den (kontrollierten) Mitschnitt der Lieblingsfernsehserie, als Chat- und Mailstation, als Hauselektroniksteuerung und Alarmanlage, ein wohnzimmerkompatibles Erlebnis für die ganze Familie – natürlich stets unter der schützenden Hand bzw. der Fuchtel der Hard- und Softwarehersteller. Egal, ob dies nun am PC ansetzt, der zum Fernseher werden soll oder andersherum die Fernseher aufgebohrt werden zur Multimediamaschine – der Trend ist klar: kümmert euch nicht, wir machen das schon. Neben den lästigen Fragen der Sicherheit und Unsicherheit kann man zugleich Lizenzierungsthematiken, User- und Shoppingprofile, Überwachungs- und Kontrollmechanismen nutzen, um die Userin und den User vollends zu entlasten (wie Befürworterinnen und Befürworter sagen) bzw. zu entmündigen und zu kontrollieren (wie Gegnerinnen und Gegner meinen). Die Jahre des expansiven Drangs nach Freiheit, Ausdehnung und Selbstkontrolle neigen sich zunehmend ihrem Ende zu. Und unter dem alltäglichen Druck der Viren-, Passwortund Updatekontrolle scheint dies vielen nicht ungelegen zu kommen.12 Liest man diese Ausführungen, so dürfte man durchaus an der einen oder anderen Stelle staunen: vieles hat heute noch/mehr denn je Gültigkeit (je nach Perspektive). Daran erkennt man zumindest eines: Gerburg gab mir maximalen Spielraum. Alles, wirklich alles stand zur wissenschaftlichen Disposition. Es ging um freies, neues, radikales Denken. Und das war eine wunderbare Angelegenheit! Wahrscheinlich hatte ich auch deshalb die Hoffnung, es würde so wunderbar weitergehen – was für ein Trugschluss! In der Folge führte jedoch zunächst diese große Chance, die ich in der Zusammenarbeit mit Gerburg sah, zu einem, so mein Eindruck, spannenden Gesamtergebnis, weshalb nun ein kurzer (und erneut überarbeiteter) Überblick über das

12 Einen hilfreichen Einblick in die Thematik der digitalen Verbrechen lieferte mir seinerzeit das Buch „Netzpiraten“ von Armin Medosch und Janko Röttgers.

1.2 Die frühe Phase: 1999 bis 2004

19

Gesagte folgen soll, der mit den Voraussetzungen, den Werkzeugen und den Beispielen aus der Praxis beginnt, allerdings zügig zur Waffe wider die Verdummung wird. Nach der Erläuterung der Fragestellung und der einleitenden Theorien kam man schnell zu einer Formel, die grundlegende Bedeutung erlangte, je länger man sich mit der Problemstellung auseinandersetzte: egal, wie das Problem im Einzelnen auch lautete, man konnte immer davon ausgehen, dass es vor dem Internet eine andere Gesellschaft gab als nach der Einführung des Internets. Alle Theorien hatten denselben Schwachpunkt: sie mussten bezüglich des Internets neu durchdacht werden. Keine Theorie bot eine vollständige Passung für die Zeit der Digitalität, keine Theorie ging zentral auf die Frage des Imaginären ein, die hier so entscheidend ist. Es wurde aber klar, dass das Internet Dinge verändert und so auch eine Veränderung der Theorien notwendig ist. Nun muss man das Rad nicht zwangsläufig neu erfinden: eine Erweiterung der bestehenden Theorien reichte aus, denn auch das Internet ist stets in all seinen Facetten eine Erweiterung unseres Lebens, keine neue Welt, die uns von anderen Welten fernhält. Berücksichtigt man nun den Faktor Internet mit seinen grundlegenden Begriffen Digitalität, Imagination, Raum, Ort und Zeit, so erhält man neue Ergebnisse, wenn man die bestehenden, aber neu durchdachten Theorien anwendet. Dies wurde bei der Erarbeitung der sechs Modelle deutlich, die in der Arbeit zur Debatte standen: unter den neu formulierten Rahmenbedingungen wurden alltagssoziologische Phänomene betrachtet, bei denen zum Schluss eine Lösung parat stand. Mit den Chancen, die geboten wurden, zum Beispiel der Betrachtung eines möglichen Denk-Raumes, wurden neue Horizonte eröffnet. Zum Beispiel Modell 1: die Schrift. Wenn man die Chancen der Schrift und der technischen Voraussetzungen nutzt, kann ein Denk-Horizont entstehen, der spielerisch, kreativ und offen mit Schrift umgeht. Neue Symbole werden etabliert, die sich über die Szene- und Milieugrenzen hinaus verbreiten. Beleg dafür ist die Verbreitung des Smilies, der sich aus Technik- und Informatikkreisen hinaus in die Welt begeben hat und heutzutage von jedermann in Emails oder SMS verwendet wird. Der kreative und offene Umgang mit den Gegebenheiten erschuf hier eine neue Dimension, die Möglichkeiten der Gegenwart aufführt und zum Denken anregt. So war die SMS selbst ja nur ein Abfallprodukt, bis man auf ihre Relevanz und ihr ungeheures Potential stieß. Das Gleiche gilt bekanntlich für die Email. Modell 3 zeigt eine andere Dimension auf: wenn wir uns nicht dauerhaft und offen mit Technik und ihren Folgen auseinandersetzen, kann es ganz offensichtlich sein, dass wir die Kontrolle verlieren. Das Beispiel der Umkehrung der Verhältnisse offenbart dies. Die notwendige Auseinandersetzung, ja vor allem die in den Cultural Studies geforderte kritische Betrachtung – auch der Frage der hegemonialen Effekte – ist hier von besonderer Bedeutung. Hier geht es nicht mehr um den spielerischen Umgang, sondern vor allem um Wachsamkeit, kritische Wahrnehmung und intelligente Anwendung. Es wurde deutlich, dass man nicht zwangsläufig machtlos ist, sondern wie bei diesem Beispiel vor allem noch vielfältige Möglichkeiten hat, die sich individuell nutzen

20

1 Einführung in die Internetsoziologie

lassen. Immer sollte im Hinterkopf bleiben, wo der individuelle Nutzen liegt. Wie machtvoll der individuelle Faktor sein kann, zeigte das Beispiel P2P (Modell 5). Wenn mittlerweile ein Drittel der Internetbandbreite für einzelne P2P-Dienste wie Bittorrent verwendet wird, gibt es hier eine spürbare gesellschaftliche Bedeutung. Und wenn die Musikindustrie schwer angeschlagen ist, weil das Internet Musik neu definiert, ist auch das zweifelsfrei von großer Relevanz. Doch hier wurde deutlich, wie die Möglichkeiten und Grenzen genutzt werden können: wer sie konsequent einsetzt und neu denkt, der profitiert und bewegt. Selbst gesteckte Grenzen, wie sie die Musikindustrie lange bevorzugte, helfen vor allem dabei, zugrunde zu gehen. Heute haben wir Musik in neuer Form: digital, imaginär, anders. CDs sind kein Topmodell mehr für die Gegenwart und erst recht nicht für die Zukunft. Das Internet setzte sich hier mit all seinen Möglichkeiten konsequent durch, weil die Menschen dem Netz gegenüber der CD den Vorzug gaben. Durch die Inanspruchnahme der neuen Ideen, Theorien und Chancen erwachsen also neue Sichtweisen, die helfen können, heutige Phänomene zu analysieren und Probleme zu lösen. Wer obsiegt nun also? Es ist nach aller Voraussicht der Mensch – wenn er offen, kritisch, chancenorientiert an die Dinge herangeht, sich vor allem unter der Betrachtung der Faktoren Digitalität und Imagination immer wieder ins Gedächtnis ruft, was das Internet ausmacht und wenn er nicht müde wird, dies dauerhaft durchzuhalten und sein technisches Wissen zu erweitern. Die Cultural Studies bieten mit ihrem offenen Ansatz vielfältige und großartige Möglichkeiten, heutigen digitalen Phänomenen auf die Spur zu kommen. Es kann also nur ein Anliegen sein, diese Richtung weiter zu verfolgen.13 Die eigene Erfahrung kann dabei nur von Vorteil sein, ebenso die konsequente Einarbeitung in die Materie anhand der Möglichkeiten, die die teilnehmende Beobachtung sowie andere ethnographische Methoden und Analyseformen bieten. Das Unterfüttern mit empirischen Daten rundet das Gesamtbild entsprechend ab. Wenn sich die Gelegenheit der Verbindung von Soziologie und Technik bietet, sollte diese Chance unbedingt ergriffen werden. Das Technikwissen, gepaart mit dem soziologischen Hintergrund, kann neue Horizonte, eben neue Denk-Räume eröffnen. Die Fähigkeit der Imagination ist hier entscheidend, denn das Digitale ist und bleibt digital. Wir müssen neu denken, uns immer wieder die technischen Rahmenbedingungen in Erinnerung rufen und letztlich diese digitalen und realen Gegebenheiten rational abgleichen mit dem, was wir zur Analyse ins Felde führen können. So kann man Probleme analysieren, um sie zu lösen. So können Lösungen entstehen, die wirklich helfen. Und nur so bleibt man die Intelligenz der intelligenten Maschinen. Denn wenn der Mensch sich nicht die Mühe macht, diese zu bleiben, wird es vielfältige Angriffe von allen Seiten geben, die früher oder später nicht

13 Eine interessante Richtung hat diesbezüglich Stefan Weber in seinem Buch „Medien – Systeme – Netze“ eingeschlagen.

1.2 Die frühe Phase: 1999 bis 2004

21

nur entsprechende Macht, sondern vielleicht in einigen Nischen auch unumkehrbaren Einfluss erlangen werden. Augenfällig gab es bei dieser Arbeit zwei wichtige Faktoren, die gleichgewichtig waren und deren Verknüpfung unbedingte Voraussetzung für die Bewältigung der Fragestellung war: Soziologie und Technik. Denn spätestens bei Beispielen wie P2P wird klar: eine reine soziologische Analyse wäre wohl kaum so weit vorgedrungen, wenn sie nicht in Kenntnis dieser Phänomene erfolgt wäre. P2P ist ein gutes Beispiel für die notwendige Kenntnis von Technik, Szene und Politik, ohne die eine Analyse sehr philosophisch anmuten würde – was nicht zwangsläufig auch schlecht wäre, aber wohl wenig zur Problemlösung in der realen Welt beitragen würde. Die teilnehmende Beobachtung ermöglicht hier, das Milieu bzw. die Szene besser kennen zu lernen. Ethnographische Methoden erscheinen somit plausibler als bloßes Datensammeln, denn ohne Kenntnis der Zusammenhänge und der Entwicklungen wäre es zum Beispiel weniger einfach gewesen, einen Zusammenhang zwischen Smilies und geringer Bandbreite herzustellen. Kaum vorstellbar, wie umfangreich und mühsam die empirische Datensammlung hätte sein müssen, um zu erkennen, dass aufgrund der teuren Datenübertragung Texte und somit auch simulierte Mimik und Gestik möglichst klein gehalten werden mussten, um nicht das Geld des Gegenübers, welches die Nachricht empfängt, zu verschwenden. Wenn es auf jedes Byte ankommt, machen Sätze wie „Hab dich lieb“ oder Aussagen wie „Ich freue mich“ einen Unterschied und es lässt sich mit „HDL“ oder „;-)“ eine Menge Geld sparen. Szenekenntnis ist hier also nicht nur von Vorteil, sondern teilweise sogar unabdingbar. Empirie ist deswegen nicht zwangsläufig schlecht: als Beleg für die eigenen Thesen leistet sie wertvolle Dienste. Zur Analyse der hier bearbeiteten Fragestellungen erscheint es aber nur schwer vorstellbar, mit einer Umfrage oder ähnlich empirisch zu einem vergleichbaren Ergebnis zu kommen. Doch das Technikwissen war nicht die einzige Bedingung für diese Arbeit. Wie bereits gesagt musste man auch Theorien erweitern, um den digitalen Phänomenen begegnen zu können. Die dafür erstellte Methode beinhaltet in einem ersten Schritt die Heranziehung der erweiterten Kultursoziologie bzw. der Cultural Studies, ergänzt um die Möglichkeiten der ethnographischen Analyse und schließlich unterstützt von den notwendigen Erfahrungen aus Technik, Szene und Geschichte. So ergibt sich vielleicht ein erster brauchbarer Ansatz hin zu einer Analysemöglichkeit, die auch für andere gegenwärtige oder spätere Probleme herangezogen werden kann. Denn auch wenn im Falle dieser Arbeit die Methodik hilfreich erschienen sein mag, man Ergebnisse erhielt und sogar sechs Modelle erstellen konnte, so wäre es selbstverständlich vermessen, daraus einen grandiosen Ansatz für die Zukunft oder gar eine universalistische Theorie für die kommenden Fragen zu formulieren. Eingangs wurde gesagt, dass zu dem Thema Internet in der Soziologie bisher zu wenig gesagt wurde. Somit ist zumindest dieses Ziel wohl erfüllt worden: es wurde definitiv etwas erarbeitet, was so bisher nicht zu finden war. Ob daraus ein

22

1 Einführung in die Internetsoziologie

Anspruch für die Zukunft erwächst, was die Brauchbarkeit der eigenen Methodik und der Ergebnisse angeht, dies mögen andere beurteilen. Auffällig bei der Untersuchung der Frage nach der Intelligenz der intelligenten Maschinen war die Interdisziplinarität, die sowohl bei der Offenheit des Ansatzes als auch bei den Werken und Personen, die von den neuen Medien und ihrem Einfluss handeln, zu finden waren. Dies schien allerdings nicht der Fall zu sein, weil die Soziologie nicht dazu in der Lage war, sich mit dem Thema adäquat auseinanderzusetzen, sondern weil Umfang und Auswirkungen der Digitalität enorm sind. Nicht nur der offene Ansatz der Kultursoziologie bzw. der Cultural Studies bot die Gelegenheit der Auseinandersetzung mit den weitreichenden Fragen, auch war es notwendig, ab und zu in andere Fachgebiete zu schauen. Die Menschen, die sich bisher mit den Medien und dem Netz intensiver auseinandergesetzt haben – Postman, McLuhan, Flusser, Virilio und andere – belegen dies. Es ist eigentlich keine direkte Linie feststellbar, sondern oftmals findet man ein Mosaik der Möglichkeiten vor. Oftmals soll man sich bedienen und das raussuchen, was einem passen mag. Das mag nicht gerade klassische Wissenschaft sein, erscheint aber nach der Analyse der verschiedenen Positionen immer wieder plausibel. So ergibt auch letztlich das Ergebnis dieser Arbeit zu einem Gutteil ein Bild, welches einem Mosaik sehr ähnlich sein dürfte. Freilich waren Fundament (Theorie) und Werkzeug (Methode) soziologisch, doch allein schon der große Einfluss der Technik wirkte hier prägend. Es wurde ja bereits gesagt: ohne den Hintergrund der Szenekenntnis, des Technikwissens und der Zusammenhänge wäre es wohl ungleich schwerer geworden, zu einem entsprechenden Ergebnis zu gelangen. Und trotzdem bleibt die Unzufriedenheit: das Ergebnis geht natürlich nicht weit genug. Es kann nur als ein Anfang verstanden werden – ein Anfang in Richtung einer intensiven Behandlung der Digitalität, der Imagination, eben schlicht und einfach der neuen Medien und der neuen Technik in der Soziologie. Nicht, dass es die Bearbeitung dieses Themas noch nie gegeben hätte; so was zu behaupten wäre unsinnig. Aber in dieser Form gab es wohl nur wenige Arbeiten, die sich zudem anders strukturierten, einen stärkeren empirischen Einfluss hatten oder nicht mit einem vergleichbaren Hintergrund geschrieben wurden.14 So kann die Unzufriedenheit vielleicht umgedeutet werden in Neugier. Neugier, die weiter lodert, die ihren Tribut fordert, die befriedigt werden will. Neugier, die auch einen Lernprozess darstellt. Neugier, die gut ist, denn sie befördert das Erkenntnisinteresse und sorgt so vielleicht – hoffentlich – für neue Ideen, Impulse und Horizonte.

14 Eine interessante, wenngleich auch anders gewichtete Arbeit ist die von Rainer Dringenberg: in seinem Werk „Internet – vorgeführt und diskutiert“ lädt er zwar auch ein zur einer wissenschaftlichen „Befassung mit Phänomenen der (Zweiten) Moderne“, allerdings ist der Praxis- und Empirieteil entsprechend dominant und die Perspektive anders gelagert. (Rainer Dringenberg (Hrsg.): Internet vorgeführt und diskutiert. Eindrücke vom Grenzverkehr zwischen realen und virtuellen Welten. Denken und Handeln, Band 46. Bochum, 2002).

1.3 Erste Forschungsphase: 2005 bis 2007

23

Denn das Motiv muss klar sein: bei allem technischen Fortschritt ist es die Pflicht der Menschen, die Intelligenz der intelligenten Maschinen zu bleiben. Tempo, Reizüberflutung, Alltagsstress, Trendsetting, Konsumdruck und andere Gründe für die Abkehrung von der Technik, ihrer Wirkung und ihren Folgen dürfen nicht die Oberhand gewinnen, denn es ist gibt viel zu verlieren. Erst die Digitalisierung ermöglichte eine dermaßen tiefgreifende Veränderung unseres Alltages, die alle Lebensbereiche umfasst, alle Menschen betrifft und der man sich faktisch kaum entziehen kann. Will man verzichten auf das Leben, auf die Gesellschaft, auf die Gegenwart, die Moderne und alles, was danach kam oder noch kommen mag, so muss man verzichten auf die Digitalität. Will man aber nur konsumieren, erleben, kurzfristig befriedigt werden, nicht denken, so muss man nur die Imagination ausschalten und reagieren anstatt zu agieren. Man muss sich bloß fallenlassen. Trends mitnehmen, „in“ sein, für den Augenblick leben. Den Kick genießen. Einfach „mittendrin“ sein. Man kann so die Digitalität mitnehmen als Möglichkeit der Bedürfnisbefriedigung, als Teil der Alltagsästhetik, als Chance im Alltag. Bonuspunkte sammeln, „early adopter“ sein, eben auf jeder Trendwelle mitsurfen. Doch um welchen Preis? Man verzichtet nicht nur auf Erkenntnis, auf tiefergehende Bedürfnisbefriedigung. Man verzichtet in der digitalen Welt mehr und mehr auf sich selbst – das eigene Ich wird vernachlässigt. Auch wenn man zeitlich gesehen noch am Anfang dieser Entwicklung steht, so machen einige Beispiele, allen voran die Terrorangst in den USA und die auch in der EU um sich greifenden Bemühungen um Verschärfung der rechtlichen Rahmenbedingungen doch deutlich, in welche Richtung es sehr schnell gehen kann. Und es ist ja noch nicht einmal so, dass einem alle Möglichkeiten umgehend genommen werden: man hat, wie man sehen konnte, stets einen großen Einfluss. Nur muss dieser auch wahrgenommen werden – im eigenen Interesse. Und im Interesse aller. Meinerseits führte der festgestellte große Einfluss in ein weiteres Forschungsvorhaben mit dem Titel Digitale Identitäten. Dieses Vorhaben war nach der Diplomarbeit die „erste echte“ internetsoziologische Forschungsarbeit, was im folgenden Unterkapitel entsprechend beleuchtet wird.

1.3 Erste Forschungsphase: 2005 bis 2007 Die zweifelsohne bedeutendste Arbeit in den Jahren 2005 bis 2007, also der ersten „echten“ Forschungsphase, sind die Arbeitsergebnisse des Forschungsvorhabens Digitale Identitäten, welches zu zahlreichen Projekteinladungen und -realisierungen, Konferenzeinladungen, Workshops, Vorträgen, Interviews und Veröffentlichungen führte. Die Kernergebnisse werden hier nun dargestellt. Wie immer in diesem Buch entsprechen sie den Veröffentlichungen bzw. Verschriftlichungen der damaligen Zeit und sind stellenweise stark überarbeitet bzw. nachbearbeitet worden. Es sollen die damaligen Beobachtungen vorgestellt und diskutiert werden. Dabei wurden

24

1 Einführung in die Internetsoziologie

Beobachtungen als Beispiele ausgewählt, die nach Auswertung aller Materialien als exemplarisch gelten dürften. Aufgrund der Materialflut war und ist es damals wie heute schlicht unmöglich, alle relevanten Beobachtungen darzustellen. Auch hätte diese Aufgabe wohl kaum eine lesbare und gut strukturierte Aufführung zugelassen, so dass die oben erwähnten Beschränkungen notwendig wurden. Trotzdem dürften die nun folgenden Ausführungen einen guten Überblick über das Forschungsvorhaben liefern, das wie kein zweites Vorhaben „meine“ Internetsoziologie prägte. In Digitale Identitäten wurden Themen analysiert, die seinerzeit Einfluss auf die digitale Identität des Individuums nahmen. Beobachtungen erfolgten im deutschen Sprachraum, meist medienbasiert. Dies führte zu zahlreichen Erkenntnissen: Ein Thema, das alle anderen qualitativ wie quantitativ ganz unzweifelhaft überragte, war Überwachung. Es dominierte den Diskurs in den beobachteten Medien ganz eindeutig. Ob es um die Vorratsdatenspeicherung, den ePass mit RFID oder um Gesetzesänderungen in Deutschland, Europa und der Welt ging – die Richtung war immer dieselbe: es ging um nichts Geringeres als den Kampf zwischen Freiheit und Sicherheit und der ständig neu auszuhandelnden richtigen Balance. Diese Feststellung allein lässt eine erste These zu: die Identitätsarbeit im digitalen Raum ist unter Beschuss, und das Individuum wie auch die Gruppe haben eine Menge Arbeit zu bewältigen, um erfolgreich Identitätsarbeit leisten zu können. Der wohl größte Einfluss auf die Identitätsarbeit würde, so die damalige Annahme, von einer Maßnahme ausgehen, die seinerzeit (2007) noch gar nicht in Kraft getreten war: die Vorratsdatenspeicherung (VDS). Die Bewertung hinsichtlich des enormen Einflusses dieser Maßnahme hat gleich mehrere Gründe. Einerseits macht sie eine nie dagewesene Vollüberwachung über einen Zeitraum von (mindestens) sechs Monaten möglich, die sich auf alle digitalen Kommunikationskontakte erstreckt, andererseits steht sie für einen verfassungsmäßig bedenklichen Paradigmenwechsel, der in der Praxis bedeutet: erst protokollieren, dann beurteilen. Bisher wurden schließlich erst dann belastende Fakten gesammelt, wenn jemand einer Tat verdächtigt wurde. Mit der VDS sollen Daten hingegen präventiv auf Halde liegen. Da so ein Paradigmenwechsel neu war im digitalen Zeitalter, war damals auch die Ratlosigkeit entsprechend groß. Die Vorratsdatenspeicherung sollte, so die damaligen Ideen, die Kommunikationsdaten von gut einer halben Milliarde Menschen in Europa für einen Zeitraum von sechs bis 24 Monaten sichern – Details können die einzelnen EU-Mitgliedsländer selbst festlegen; Deutschland hatte (und hat) sich in Sachen VDS für einen Zeitraum von sechs Monaten entschieden. Dabei geht es um die Verbindungs- und Standortdaten, nicht jedoch um die Inhalte. Betroffen waren in der ursprünglichen Idee sämtliche digitalen Kontakte, also Telefonverbindungen, Emails, Instant-Messaging-Kontakte, IP-Nummern, usw. Die Daten stehen den Behörden dann, so die Idee, zur Strafverfolgung und Terrorabwehr zur Verfügung. Auch Geheim- bzw. Nachrichtendienste können entsprechend über sie verfügen. Ausnahmen (beispielsweise für Berufsgeheimnisträger wie Journalisten und Geistliche) sind grundsätzlich nicht vorgesehen (und wären technisch auch kaum umzusetzen, denn

1.3 Erste Forschungsphase: 2005 bis 2007

25

wie sollte eine Unterscheidung technisch und inhaltlich zweckmäßig durchgeführt werden?) – der Informantenschutz, den beispielsweise Journalisten in Anspruch nehmen können, werde durch solche Maßnahmen ausgehöhlt, sagen Kritiker. Nicht wenige Juristen betonen außerdem die Verfassungswidrigkeit dieses Paradigmenwechsels – und sind damit auf einer Linie mit zahlreichen Gerichten, die die VDS immer wieder kippten. Zahlreiche Organisationen und Personen haben sich in den vergangenen Jahren (2005 bis 2007) verstärkt in den Medien gegen die Vorratsdatenspeicherung ausgesprochen – die Bandbreite war hier enorm und reichte von Politikern und Datenschutzbeauftragten über Berufsverbände und Standesvertretungen bis hin zu Wirtschaftsexperten und Lobbyisten. Die Berichterstattung über die (geplante) Vorratsdatenspeicherung war enorm und machte den größten Einzelanteil der hier vorliegenden Analyse aus den Jahren 2005 bis 2007 aus. Doch bei der Vorratsdatenspeicherung geht es nicht nur um den Kampf gegen den Terror: Immer wieder heftig diskutiert wurde auch die Verfügbarkeit der Daten bei Bagatelldelikten.15 Besonders interessiert waren hierbei die Musik- und die Filmindustrie, die so vermeintlichen Film- und Musik-„Raubkopierern“ auf die Schliche kommen wollen. Die Besonderheit hier: die Weitergabe der Verbindungsdaten könnte, so der seinerzeitige Ansatz, auf dem zivilrechtlichen Wege eingeklagt werden, was ebenfalls ein Novum wäre. Denn bisher waren diese sensiblen persönlichen Daten an die Freigabe durch einen Richter gebunden. Eine Freigabe für bloße zivilrechtliche Klagen bedeutet im Umkehrschluss, dass die Wertigkeit der Daten geringer ist als zuvor – die informationelle Selbstbestimmung fiele Urheberrechtsinteressen zum Opfer.16 Ob die Vorratsdatenspeicherung überhaupt zu einem sinnvollen Ergebnis führen kann, darf auch heute noch – oder besser: heute mehr denn je – bezweifelt werden: so ist beispielsweise deutlich geworden, wie gigantisch die anfallenden Datenmengen sein werden. Allein für den Frankfurter Internetknoten DeCIX, so rechneten Internetanbieter seinerzeit vor, würde die Datenmenge von hunderttausenden DVDs anfallen – und zwar täglich. Das Auffinden von Einzelheiten in so einem Datenwust stellt die Verantwortlichen vor neue Herausforderungen, von der Aufbewahrung über einen Zeitraum von sechs Monaten ganz zu schweigen. Die diffuse Angst vor den irgendwo auf Halde liegenden Daten bliebe so oder so aber bestehen. Die Vorratsdatenspeicherung hatte damals wie heute deshalb das Potential, die Identitätsarbeit maßgeblich zu beeinflussen. Dass sie sogar ein Anlass von ausreichender Tragweite sein könnte, um eine entscheidende Diskussion über die Grundrechte im digitalen Zeitalter zu führen, war damals keine falsche Annahme:

15 TP: Vorratsdatenspeicherung in Deutschland. http://www.heise.de/tp/r4/artikel/22/22057/1. html, abgerufen am 22.7.2007. 16 Siehe dazu auch die Diskurse über die Urheberrechtsideen der Europäischen Union in 2019.

26

1 Einführung in die Internetsoziologie

Die Grundrechte müssten für die digitale Welt neu überdacht und erweitert werden, vor allem das Recht auf Privatsphäre und Informationsfreiheit.17

Das sahen andere jedoch ganz anders. So forderte im Jahre 2005 der damalige britische Innenminister Charles Clarke, dass schlicht und einfach alle Bürgerrechte auf den Prüfstand gestellt werden müssten, um im Kampf gegen den Terror zu siegen.18 Seine Forderung durchsetzen konnte er nicht mehr: Tony Blair hat ihn – auch wegen der Datensammelgelüste, die höchst umstritten waren – 2006 aus dem Amt entfernt. Die Vorratsdatenspeicherung hat also vielfältige Einflüsse auf die Identitätsarbeit zur Folge gehabt. Sie wirkte wohl in besonderem Maße dadurch, dass sie bereits vor der Identitätsarbeit im digitalen Raum vorhanden ist. Sie kann Probleme auslösen, beispielsweise bei der Aktivierung von Identität. Sobald sich jemand darüber im Klaren ist, dass seine Aktionen in einem Schwulenforum, einem SadoMaso-Chatroom oder einem Forum über Mobbingopfer nicht mehr die Chance haben, anonym zu bleiben, besteht die nicht geringe Gefahr, dass die Identitätsaktivierung unterbleibt. Gleiches steht zu vermuten, wenn es um Identitätsausdifferenzierungen geht. Doch als User ist man auch heute nicht völlig wehrlos. Es zahlreiche Möglichkeiten, die Spuren zu verwischen und so zumindest die Kontrolle über die Kommunikation zu erschweren, was zu einer erneuten Sicherheit in der Identitätsarbeit führen kann. So kann beispielsweise beim alltäglichen PC-Gebrauch Software im Hintergrund laufen, die zufallsgesteuert Kommunikation initiiert – in der CCCUsenet-Group wurde ein solches Szenario bereits besprochen, wenn auch aus anderen Beweggründen.19 Prepaidkarten fürs Handy wären eine weitere, wenngleich ebenfalls nur begrenzt wirksame Lösung: sofern sie anonym gekauft werden, wären sie zwar nicht auf ein Individuum oder eine juristische Person registriert, jedoch lässt sich auch anhand des Nutzungsverhaltens und nicht zuletzt – freilich im strafrechtlich relevanten Extremfalle – aufgrund einer Stimmanalyse recht schnell feststellen, mit wem man es zu tun hat. Zur Verwirrung tragen Prepaidhandys jedoch problemlos und sehr erfolgreich bei – vorausgesetzt, man hält die gesamte Anonymitätskette vom Kauf über die Aufladung bis zur Entsorgung durch. Und man ist sich darüber im Klaren, dass allzu außergewöhnliche Maßnahmen zur Identitätsverschleierung im digitalen Raum immer auch Misstrauen, zumindest aber neugierige Fragen hervorrufen können.

17 heise online – Juristen fordern Anpassung der Grundrechte an die digitale Welt. http://www. heise.de/newsticker/meldung/61862, abgerufen am 25.7.2007. 18 heise online – Britischer Innenminister: Alle Bürgerrechte müssen auf den Prüfstand. http:// www.heise.de/newsticker/meldung/61657, abgerufen am 25.7.2007. 19 Webseite automatisch aufrufen – de.org.ccc. http://groups.google.de/group/de.org.ccc/browse_ thread/thread/f5fac75ecd402ccb/, abgerufen am 25.7.2007.

1.3 Erste Forschungsphase: 2005 bis 2007

27

Doch worum ging es den Verantwortlichen bei Data-Mining-Exzessen wie der Vorratsdatenspeicherung damals überhaupt? Eine mögliche Antwort nannte Bernd Graff, der mithilfe von Foucault eine Lösung zu finden sucht: Foucault nennt das Leben (. . .) einen “souveränen, unendlich entfernten, aber konstitutiven Fluchtpunkt.” Fahndet man im prosperierenden Datenwahn nach einem solchen “konstitutiven Fluchtpunkt”, erkennt man die Vorstellung eines Rasters: eines Siebes, das man der sperrigen Wirklichkeit überblenden kann, damit es alle Vorkommnisse beliebig filtert. Für dieses rasternde Denken ist Realität eine komplexe Fülle von Daten, die es zu sammeln und zu differenzieren gilt, damit das Individuum als markante Spur darin aufscheint.20

Das Leben soll also letztlich diskret sein: 0 und 1. Und die Vorratsdatenspeicherung ist ein entscheidendes Element zur Rasterung des Lebens, denn sie definiert in einer bisher nie dagewesenen Tiefenschärfe die Kommunikation der Individuen auf die Ebene von 0 und 1, also genau die Analyseebene, die für die hiesige Analyse immer wieder hervorgehoben wird – sei sie nun technisch (also im Sinne von Software) oder protokollarisch (also im Sinne der obigen Definition) ausgerichtet. Sowohl der in Form von 0 und 1 protokollierte Mensch als auch die Technik, die ihn umgibt und auf der binären Ebene arbeitet – beide müssen bis zum letzten Level analysiert werden. Denn die Umstände des protokollarisch orientierten Paradigmenwechsels – jeder ist verdächtig – erfordern dies: Das Problem ist demnach das der prophylaktischen Kollektion und Aufbereitung massenhafter Daten. (. . .) Überwachung, das ist wohl die Lehre, interessierte sich einst für verdächtige Individuen. In dem Moment, wo sie sich der Anonymität der Masse widmet, hat sie den Verdacht nicht mehr nötig. Sie hat die Daten.21

Trotzdem werden die Strafverfolgungsbehörden freilich, so die damalige Annahme, die auch heute noch vertreten werden kann, auch in Zukunft zweigleisig arbeiten: einerseits werden sie in einem klassischen Verdachtsfalle auf die vorrätigen Daten zugreifen, beispielsweise um einen Verdacht zu erhärten – das wäre klassische Ermittlungsarbeit. Andererseits werden sie jedoch auch diese Vorgehensweise umkehren und zuerst in den Daten schauen, was sich so finden lässt. Und dies ist die eigentliche Herausforderung für die Identitätsarbeit, die durch die Vorratsdatenspeicherung entsteht. Was das für die Privatsphäre der Menschen demnächst bedeuten könnte, wurde damals wie heute schnell deutlich: Privatsphäre könnte (zumindest zunehmend) ein

20 Überwachen und speichern: Erst mal sammeln, dann mal schauen. http://www.sueddeutsche. de/kultur/ueberwachen-und-speichern-erst-mal-sammeln-dann-mal-schauen-1.800328-0, abgerufen am 25.7.2007. 21 Das so genannte Web 2.0 Digitaler Maoismus. http://www.sueddeutsche.de/kultur/artikel/586/ 67519/3/, abgerufen am 25.7.2007.

28

1 Einführung in die Internetsoziologie

„Luxusgut“22 werden, für das man gleichermaßen Bildung, Zeit und Geld benötigt. Denn man muss künftig – wohl mehr denn je – wissen, wie man Privatsphäre erreichen kann, den Aufwand zur Erreichung betreiben und dies alles auch noch finanzieren. Das Schema ist vergleichbar mit dem der Privatwirtschaft: wer auf einen Rabatt wirklich angewiesen ist, kommt um die Kundenkarte (also um die Freigabe seiner persönlichen Daten) wohl kaum herum.23 Wer sich Abstinenz leisten kann, wird mit Intimität und Privatheit belohnt – der Rabatt ist ihm dann egal. Datenschutz und Datensicherheit wandeln sich in diesem Falle von einem Grundrecht für jedermann in ein Luxusgut, welches einer zunehmend kleineren Gruppe vorbehalten bleibt. Und die Identitätsarbeit wird dadurch keineswegs erleichtert. Biometrische Überwachung wurde und wird in Deutschland eingesetzt: bei der WM 2006 sowie im Reisepass („ePass“). Inzwischen sind wir beim Personalausweis angelangt, der die Fingerabdrücke zukünftig nicht mehr nur optional speichern soll. Der damalige Bundesinnenminister Otto Schily stellte einen Sicherheitsplan vor, der unter anderem eine automatisierte Gesichtserkennung beinhaltete, die Hooligans entdecken und infolgedessen Sicherheitskräfte alarmieren solle.24 Auch wurden mobile Fingerabdruckscanner und RFID-bestückte WM-Eintrittskarten eingesetzt sowie zigtausende Mitwirkende einer Sicherheitsüberprüfung unterzogen.25 RFID war und ist – nicht nur rund um die WM und nicht nur in Deutschland – in aller Munde. In den USA wurde der (staatliche) Einsatz von RFID jedoch inzwischen eingeschränkt.26 Ein weiteres Arbeitsfeld ist die Verbindung von DRM und RFID, welche eindeutig aufzeigt, wie durch die Verwebung bestehender Bereiche neue Identitätsfragen aufkommen können: Durch den Einsatz von RFID-Labels auf DVDs sollte mit RFID-lesefähigen DVD-Playern sichergestellt werden, dass die DVD nur durch den berechtigten Benutzer angeschaut werden kann. Das Problem dabei: dazu müssten eventuell persönliche Daten wie Name und ggf. Identifikationsnummer eines Käufers, Kaufdatum, Status („bezahlt“, „geliehen bis . . . “) gespeichert und die DVD so personalisiert werden.27 Freilich eine Menge Identitätsaktivität für einen abendlichen Filmgenuss.

22 heise online – Vorratsspeicherung von TK-Daten: „Privatsphäre wird zum Luxusgut“. http:// www.heise.de/newsticker/meldung/67386, abgerufen am 25.7.2007. 23 Anekdotisch sei angemerkt, dass diese Notwendigkeit beispielsweise in den USA, dem Land der Rabattschlachten, sehr viel starker ausgeprägt ist als hierzulande. 24 heise online – Biometrische Überwachung bei der WM 2006. http://www.heise.de/newsticker/ meldung/59911, abgerufen am 22.7.2007. 25 heise online – Mobiler Fingerabdruck-Erkennungsdienst. http://www.heise.de/newsticker/mel dung/61351; heise online – Datenschützer fordern Taten. http://www.heise.de/newsticker/mel dung/65531, jeweils abgerufen am 22.7.2007. 26 heise online – Kalifornischer Senat verabschiedet eingeschränktes Verbot von E-Pässen. http:// www.heise.de/newsticker/meldung/59694, abgerufen am 22.7.2007. 27 heise online – US-Wissenschaftler arbeiten am RFID-DRM. http://www.heise.de/newsticker/mel dung/59705, abgerufen am 22.7.2007.

1.3 Erste Forschungsphase: 2005 bis 2007

29

Abhilfe ist im Falle des Passes technisch sehr simpel umsetzbar: Um das unbemerkte Auslesen der Daten des ePasses zu verhindern, können Alufolie oder auch ein „Datensafe“28 genutzt werden. Dies soll verhindern, dass der Pass geknackt wird (sprich: der Chip mit den Daten ausgelesen wird) – was sonst in recht kurzer Zeit erledigt werden könnte.29 Erneut wurde deutlich, dass der Bürger die Kontrolle über seine Daten immer mehr verliert, sofern er nicht drastisch gegensteuert. Die Identitätsarbeit wird zunehmend diffus und die Identität wird latent bedroht. Besonders der damalige Bundesinnenminister Wolfgang Schäuble ventilierte fleißig zahlreiche neue Vorschläge, die Verschärfungen der Rechtslage vorsehen und damit die Rolle von Datenschutz und Datensicherheit (und somit letztlich den Kern der Identitätsarbeit im digitalen Raum) torpedieren. Ein Beispiel war die Verwendung von LKW-Mautdaten zur Strafverfolgung.30 Dieser Fall ist spannend, weil er einerseits eine sehr logische Forderung aufstellt, nämlich die Verwendung von Mautdaten zur Verfolgung schwerer Verbrechen. Wer kann schon ernsthaft dagegen sein, wenn es um die Aufklärung von Mord und Totschlag geht? Andererseits wird diese logische Schlussfolgerung nicht von allen Experten gleichermaßen begrüßt: es gibt mit der Verwendung der Mautdaten zu anderen als den bisher gesetzlich festgeschriebenen Zwecken nicht nur einen weiteren Dammbruch, da die Daten ja bereits vorliegen und eine weitere Nutzung über den vorgesehenen Zweck hinaus deswegen besonders leicht fällt. Es stellt sich auch die Frage, wieso in das Mautgesetz eine explizite Zweckbindung eingeführt wurde.31 Geschah dies nur, um Kritiker kurzfristig ruhig zu stellen? Doch jetzt, wo man die Daten schon mal hat, kann man die Schutzbestimmungen ausmerzen? Das wäre kein gutes Zeichen für die Vertrauenswürdigkeit der Legislative, doch das hielt in den Jahren nach 2007 auch niemanden auf. Wenn man ein Monopol hat, kann einem das Vertrauen ab und an auch nachrangig erscheinen. Die BürgerInnen haben bei geschickter politischer Vorgehensweise ohnehin keine Wahl. Zahlreiche Ländergesetze ermöglichen die automatische Kennzeichenüberwachung. Da diese Form der Überwachung in den Aufgabenbereich der Polizei fällt und Polizei in Deutschland hauptsächlich Ländersache ist, müssen sich die einzelnen Landtage mit diesen Vorhaben befassen. In Hessen und Schleswig-Holstein war dies damals der Fall: Kritiker bezeichneten die Kennzeichenerfassung als Verstoß gegen das Recht auf informationelle Selbstbestimmung, was die Verantwortlichen in

28 Livewire RFID Shielding Solutions. http://livewire.de/epass.html, 22.7.2007. 29 gulli: Erster Biometrie-Pass gehackt. http://www.gulli.com/news/erster-biometrie-pass-geh ackt-2006-02-01/, abgerufen am 22.7.2007. 30 heise online – LKW-Maut: Minister will offenbar Fahndung mit Mautdaten erlauben. http:// www.heise.de/newsticker/meldung/66676, abgerufen am 22.7.2007. 31 Vgl. § 4 Abs. 2 ABMG (Gesetz über die Erhebung von streckenbezogenen Gebühren für die Benutzung von Bundesautobahnen mit schweren Nutzfahrzeugen (Autobahnmautgesetz für schwere Nutzfahrzeuge)).

30

1 Einführung in die Internetsoziologie

Hessen beispielsweise keineswegs so sahen. Da die Kennzeichen nicht gespeichert werden würden, gäbe es auch keinen derartigen Verstoß, der beispielsweise bei der Erstellung von Bewegungsprofilen (die die Speicherung von Bewegungsdaten voraussetzen würden) gegeben wäre.32 Andere Länder sahen dies ganz anders: in Großbritannien wollte man an der Spitze der Länder bleiben, die diese Technik nach dem Motto „Den Kriminellen die Nutzung der Straße verwehren“ einsetzen – Datenschutzbestimmungen haben auf der Insel einen ganz anderen Stellenwert.33 Zusammen mit der Überwachung der Telekommunikation und durch Videokameras im Alltag ergibt dies heute mehr denn je eine üppige und nahezu vollumfängliche Erfassung der Menschen in Großbritannien und zahlreichen anderen Ländern – ein Zustand, von dem wir in Deutschland derzeit (immer noch) weit entfernt sind. Doch die Abstände sind seit 2007 geschrumpft: wir werden in Sachen Überwachung jedes Jahr ein bisschen „englischer“. Jedoch hat diese Erfassung Auswirkungen auf die Identitätsarbeit: sie kann für eine schwerwiegende negative Entwicklung sorgen, die häufig in Resignation oder Kapitulation mündet. Nicht nur in Deutschland traten im Projektzeitraum zahlreiche Gesetzesänderungen in Kraft, die allesamt dem Terror den Kampf angesagt haben – auch in den einzelnen EU-Mitgliedsländern sowie auf EU-Ebene wurde diesbezüglich viel getan. Nur kurz nach den Anschlägen vom 7. Juli 2005 in London wurden die Gesetze in Großbritannien deutlich verschärft: Ausweisungen, Unterbindungen von Hetze und Propaganda sowie Visaverschärfungen – sprich: die Einführung von Biometrie – standen auf dem Plan. Italien verschaffte der Polizei mehr Razzia-Rechte, steigerte die Überwachung verdächtiger Einrichtungen und erleichterte ebenfalls die Ausweisung. Langzeit-U-Haft von bis zu drei Jahren und bis zu viertägige Verhöre ohne Haftbefehl und anwaltliche Unterstützung waren in Frankreich möglich.34 Spanien setzte zudem auf ein Nationales Zentrum für Informationssicherheit, welches die Informationsüberwachung zentral koordinieren sollte.35 Dies alles präformiert digitale Identitätsarbeit spürbar, da es vor allem wieder in den Bereichen der diffusen Überwachung, des Desinteresses und des Kontrollverlustes ansetzt. Wer kann sich schon um all die Änderungen kümmern und sein Verhalten entsprechend überarbeiten? Erobern sich die Bürger (immer noch) den Cyberspace, so wie sie es zu den Zeiten der französischen Revolution mit dem (damals noch digitalfreien) Raum, der zur Verfügung stand, getan haben? Es sah damals wie heute

32 heise online – Nummernschild-Erfassung kontra informationelle Selbstbestimmung. http:// www.heise.de/newsticker/meldung/64167, abgerufen am 22.7.2007. 33 TP: Jedes Fahrzeug wird identifiziert. http://www.telepolis.de/r4/artikel/21/21635/1.html, abgerufen am 22.7.2007. 34 Terrorismus – International – ZEIT online. http://www.zeit.de/2005/37/Anti-Terror, abgerufen am 23.7.2007. 35 TP: Spanien steht Gewehr bei Fuß zur Informationsüberwachung. http://www.heise.de/tp/r4/ar tikel/20/20539/1.html, abgerufen am 23.7.2007.

1.3 Erste Forschungsphase: 2005 bis 2007

31

nicht danach aus. Also fällt die Umsetzung von einschränkenden Maßnahmen, die politisch oder polizeilich opportun erscheinen, sehr leicht. Die Stoßrichtung der Diskussion in den USA wurde damals schnell klar: Überwachung ist auch hier das Hauptthema, wobei das Spektrum von RFID über DMCA36 und die Übermittlung von Flugdaten europäischer Reisender sowie die Geheimwaffe „National Security Letter“ (NSL) bis zur Handyortung reichte. Dabei lag die Massivität der Diskussion wohl nicht nur in der US-amerikanischen Volksseele begründet, die oftmals eine Einmischung der „Feds“, also der Bundesebene und ihrer Vertreter kritisch hinterfragt, sondern auch in der Tatsache, dass in den USA aufgrund der Terrordiskussion seit dem 11. September 2001 ein enormes Tempo in Sachen Überwachung vorgegeben wurde. Um die Folgen einer Cyberattacke abschätzen zu können, haben sich damals sowohl CIA als auch Heimatschutzbehörde (DHS) an die Arbeit gemacht und jeweils einen mehrtägigen Angriff simuliert. Dabei wurde deutlich, was bisher von zahlreichen Experten auch stets erwähnt wird, wenn das Thema Cyberattacke angesprochen wird: Tatsächlich sind viele der Bedrohungsszenarien rund um den so genannten Cyber-Terrorismus wenig wahrscheinlich, ausgemachter Unsinn oder dienen politischen Zwecken. Dass Cyberterrorismus möglich ist und in vielfältiger Form bereits stattfindet, ist dagegen klar: Er sieht nur anders aus.37

Es erschien somit eher unwahrscheinlich, dass über das Internet Staudämme entleert und Bauwerke zerstört werden oder technische Infrastruktur lahngelegt wird. Viel wahrscheinlicher erschien damals die Nutzung des Internets als Propagandaplattform, so wie es Al-Qaida bereits seit Jahren vormacht – und wie es vor allem ab 2015 durch den sogenannten „Islamischen Staat“ auch massiv durchexerziert wurde. Dieser Punkt spielte nicht nur bei den CIA-Aktionen eine Rolle, sondern auch bei der Heimatschutzbehörde. Es wurde 2007 deutlich, worum es im Falle eines Cyberangriffes über das Internet auch – oder sogar: vor allem – geht: (. . .) [Es geht darum] das Vertrauen der Bevölkerung zu mindern und die Handlungsfähigkeit der Organisationen zu stören. (. . .) Gefährlich für Regierungen und Unternehmen könnten auch für sie nachteilige Gerüchte und Informationen werden, die im Internet zirkulieren. Daher sollten bei der Übung Mitarbeiter von Behörden und Unternehmen auf Desinformationskampagnen und Aufrufe von Bloggern reagieren.38

Auch dies ist ein typisches Beispiel für die Möglichkeiten, bereits auf der Ebene der Identitätsarbeit Einfluss zu nehmen. Durch technisch und zusätzlich auch inhaltlich

36 Digital Millennium Copyright Act. http://en.wikipedia.org/wiki/DMCA, abgerufen am 6.8.2007. 37 Manöver: CIA simuliert Terrorangriff aufs Internet. http://www.spiegel.de/netzwelt/web/ 0,1518,357640,00.html, abgerufen am 24.7.2007. 38 TP: Hacker, Globalisierungsgegner und Blogger als Störenfriede im Visier. http://www.heise. de/tp/r4/artikel/22/22010/1.html, abgerufen am 24.7.2007.

32

1 Einführung in die Internetsoziologie

präformierte digitale Räume kann ein erheblicher Einfluss genommen werden, was die Aktivierung und Ausdifferenzierung von Identitäten angeht. So hatten es seinerzeit Irakkrieg-Kritiker zu Beginn sehr schwer, ihre Meinung öffentlich kundzutun – sie taten dies vorzugsweise dort, wo es überhaupt noch eine Chance auf Erfolg hatte, nämlich im Internet. Pseudonymität und Anonymität ermöglichten ihnen, einen Meinungsaustausch durchzuführen, der ihnen auf offener Straße durchaus auch mal Prügel eingebracht hätte. Wenn nun aber auch dieser letzte Raum mit inhaltlichen Spielregeln versehen wird, die zudem noch nicht einmal offensichtlich sind, schwindet der Einfluss der Individuen und es reduzieren sich die Möglichkeiten, frei und ohne erkennbaren bzw. beängstigenden Zwang zu kommunizieren – so zumindest die damalige Einschätzung. Schaut man sich die heutigen Diskurse und Kontrollregime im Internet an, so kann man allerdings auf jeden Fall festhalten: besser wurde es nicht. Eine Sache hat sich seit der damaligen Analyse nicht geändert: China, das Land mit den wohl umfassendsten Zensurbestrebungen,39 geht knallhart gegen Menschen vor, die gegen die dortigen Online-Gesetze verstoßen. So landeten Cyberdissidenten für kritische Beiträge des Öfteren für etliche Jahre im Gefängnis.40 Dies stieß auch damals bei Datenschutzexperten auf Kritik: (. . .) [Es gibt] zahlreiche Länder, die keinerlei Datenschutzvorschriften haben. [Der Bundesdatenschutzbeauftragte Peter] Schaar verwies in diesem Zusammenhang auf “das bevölkerungsreichste Land der Welt”. Dort hatte die Weitergabe von Daten durch Yahoo kürzlich zur Inhaftierung eines kritischen Journalisten geführt.41

Und auch in den USA nahmen ernstzunehmende Quellen an, dass Sicherheitsbelange als Begründung mehr als ausreichend waren, um schnell und unkompliziert an Daten zu gelangen: CNET befragte 27 große TK-Unternehmen und Internetprovider, ob sie mit der NSA zusammengearbeitet hätten, 15 davon stritten dies ab, die anderen waren zu keiner Antwort bereit. Die Zeitung USA Today meldete dagegen, dass AT&T, MCI und Sprint mit der NSA kooperiert hätten.42

39 gulli: Studie: Internet-Zensur in über 20 Ländern. http://www.gulli.com/news/studie-internetzensur-in-2007-03-15/, abgerufen am 23.7.2007. 40 heise online – Chinesischer Cyber-Dissident muss für fünf Jahre ins Gefängnis. http://www. heise.de/newsticker/meldung/62431, abgerufen am 22.7.2007. 41 heise online – „Datenschutz ist Menschenrecht“. http://www.heise.de/newsticker/meldung/ 63951; Zensur: Feindliches Element. http://www.spiegel.de/spiegel/0,1518,374999,00.html bzw. http://service.spiegel.de/digas/find?DID=41834814, jeweils abgerufen am 22.7.2007. 42 TP: Anzapfen, Abhören, Abstreiten. http://www.heise.de/tp/r4/artikel/21/21991/1.html, abgerufen am 23.7.2007.

1.3 Erste Forschungsphase: 2005 bis 2007

33

Und wenn eine Kooperationsaufforderung nicht reichte (bzw. juristisch [noch] nichts zu machen war), dann waren durchaus auch Einschüchterungsversuche möglich: Hinter dem Ersuchen auf Einsicht in die Datenbestände stecke der gezielte Versuch der BushAdministration, die Suchmaschinenfirmen einzuschüchtern und ihnen zu demonstrieren, dass die Regierung ein quasi natürliches Recht habe, im Bedarfsfall die Datenberge einzusehen, die Google & Co. auf ihren Firmenservern anhäufen.43

Da konnte Google noch so oft beteuern, dass die Daten heilig sind: Kritiker befürchten, dass Googles Datenschutzversprechen nur so lange halten, wie sich die Suchmaschine diesen Datenschutz auch leisten kann. Der Datenbestand, den Google Tag für Tag anhäuft, ist eine “stille” Kapitalreserve, auf die man in wirtschaftlichen Krisenzeiten durchaus zurückgreifen könnte.44

Und: auch die Geschäfte in anderen Ländern – beispielsweise in China – sorgten dafür, dass man sich ganz freiwillig den dortigen Gesetzen und Gepflogenheiten unterwirft45– da waren letztlich alle Firmen gleich, egal ob Google, Yahoo oder andere.46 Den Boommarkt China wollte man sich nicht entgehen lassen. Bizarrerweise wurde schon damals immer wieder festgestellt, dass die Technik zur Durchsetzung von Zensur und Netzsperren letztlich aus den USA und anderen westlichen Ländern stammte. Aber auch in Hinblick auf die Marktmacht, die Google und Co. haben und den kapitalistischen Expansionsdrang, den sie verspüren und der sie nach China trieb, war man sich damals sicher: Der Kampf um die Freiheit des Internet im Nahen und Mittleren Osten und in China wird letztlich im Silicon Valley ausgefochten.47

Das alles ist für die Konstruktion von Wahrheit auch heute noch entscheidend, denn die Aussage „Was Google nicht findet, gibt es nicht“ ist nicht selten im Cyberspace zu finden. Und sie ist nichts anderes als die Postulierung von dinglicher Wahrheit durch digitales Erleben. Zudem wurde China, so die Annahme, im Laufe der Zeit immer subtiler bei der Ausgestaltung seiner Zensurmaßnahmen und

43 TP: Der Google-Nutzer wird gegoogelt. http://www.heise.de/tp/r4/artikel/21/21946/1.html, abgerufen am 23.7.2007. 44 TP: Der Google-Nutzer wird gegoogelt. http://www.heise.de/tp/r4/artikel/21/21946/1.html, abgerufen am 23.7.2007. 45 Ausland – Politik – FAZ.NET – China: Digitale Mauerbauer. http://www.faz.net/s/RubDDBDAB B9457A437BAA85A49C26FB23A0/Doc~EAE9C1E80FE5C4126965E956FB5307E00~ATpl~Ecommon~ Scontent.html, abgerufen am 23.7.2007. 46 Wobei Google dauerhaft nicht nachgeben wollte und sich vom chinesischen Markt zurückzog. 47 Ausland – Politik – FAZ.NET – China: Digitale Mauerbauer. http://www.faz.net/s/RubDDBDAB B9457A437BAA85A49C26FB23A0/Doc~EAE9C1E80FE5C4126965E956FB5307E00~ATpl~Ecommon~ Scontent.html, abgerufen am 23.7.2007.

34

1 Einführung in die Internetsoziologie

Einflussnahmen. Strategien, dem entgegenzuwirken, waren derzeit nicht erkennbar. Heute kann man sagen: es gab sie auch nicht, jedenfalls nicht in einem größeren Ausmaß. Aber auch in den USA wurde damals nicht immer mit offenen Karten gespielt: sogenannte „National Security Letters“ (NSL) ermöglichten es dem FBI, aber auch anderen Bundesbehörden wie der CIA und dem Pentagon, beispielsweise Verbindungsdaten einzusehen und den Betroffenen zur Verschwiegenheit zu verpflichten. Dafür musste die verdächtige Person keines Verbrechens angeklagt sein; ein richterlicher Beschluss im klassischen Sinne war ebenfalls nicht notwendig. So sah beispielsweise die Bürgerrechtsorganisation Electronic Frontier Foundation (EFF) im NSL eine Bedrohung für die Netzgemeinde: A federal district court has already found NSLs unconstitutional, and the government is now appealing the case. In its brief to the Second Circuit Court of Appeals, EFF argues that these secret subpoenas imperil free speech by allowing the FBI to track people’s online ctivities.48

Die Kritik und Forderungen der EFF waren entsprechend eindeutig: EFF and its cosigners argue that NSLs for Internet logs should be subject to the same strict judicial scrutiny applied to other subpoenas that may reveal information about the identities of anonymous speakers – or their private reading habits and personal associations.49

Der Identitätseinfluss ist dabei eindeutig, denn einerseits ist durch solche Maßnahmen nicht mehr sichergestellt, dass staatliche Maßnahmen wie die Einsichtnahmen in Logfiles in einem fairen Prozess stattfinden, andererseits ist bereits der Empfang eines NSL für den Betroffenen höchst verstörend: Living under the gag order has been stressful and surreal. Under the threat of criminal prosecution, I must hide all aspects of my involvement in the case – including the mere fact that I received an NSL – from my colleagues, my family and my friends. When I meet with my attorneys I cannot tell my girlfriend where I am going or where I have been. I hide any papers related to the case in a place where she will not look. When clients and friends ask me whether I am the one challenging the constitutionality of the NSL statute, I have no choice but to look them in the eye and lie. I resent being conscripted as a secret informer for the government and being made to mislead those who are close to me, especially because I have doubts about the legitimacy of the underlying investigation.50

Aufgrund der Unfreiwilligkeit kann es hier zu Identitätsproblemen kommen, die, bedingt durch den langen Zeitraum und die Komplexität des Sachverhaltes, nicht zu unterschätzen sind. Das Gefühl, durch die vermeintliche Übermacht der Behörden hilflos zu sein, kann zu ernsthaften Problemen bei der Identitätsarbeit und der

48 EFF: Breaking News. http://www.eff.org/news/archives/2005_08.php, abgerufen am 23.7.2007. 49 EFF: Breaking News. http://www.eff.org/news/archives/2005_08.php, abgerufen am 23.7.2007. 50 My National Security Letter Gag Order. http://www.washingtonpost.com/wp-dyn/content/arti cle/2007/03/22/AR2007032201882.html, abgerufen am 23.7.2007.

1.3 Erste Forschungsphase: 2005 bis 2007

35

Aufrechterhaltung der eigenen Identität führen. In der Masse der Bevölkerung kann es zu Vertrauensverlusten kommen, da jeder User weiß, dass seine Daten auch ohne sein Wissen von seinem Provider zu einer Bundesbehörde gelangen können. Kollektive Identitätsaktivierungen und – ausdifferenzierungen im digitalen Raum sind so bedroht. Durch das Gefühl der ständigen Überwachung erfolgt eine automatische Anpassung durch Unterlassen, da beispielsweise das Schwulen- und Lesbenforum eben nicht aufgebaut, der Chat über Fetischfantasien nicht mehr initiiert und die Fanpage aus Angst vor verleumderischen Stalkingbehauptungen nicht erstellt wird. Somit fehlt am Ende unter Umständen ein in den vergangenen Jahren alltäglich gewordenes Ventil der Identitätsarbeit. Die großartigen Möglichkeiten, die dank des Internets realisiert werden konnten, werden so auf ein normiertes Maß – oder weniger! – zurechtgestutzt. Doch nicht nur der Staat ist an Überwachung interessiert: Auch Firmen, Institutionen und Privatpersonen haben ein Interesse an Kontrolle und Überwachung. An der Schnittstelle zwischen Staat und Zivilgesellschaft kann es zu diffizilen Allianzen kommen, die entsprechende Auswirkungen auf die Identitätsfindung haben können, besonders im Bereich digitaler Subkulturen. Als Beispiel einer besonders stark verankerten Problematik in der digitalen Szene wurden 2007 „Raubkopierer“ und der Kampf gegen sie genannt. Dabei lassen sich auf beiden Seiten – sowohl auf der Seite der Rechteinhaber als auch auf der Seite der Verfolgten – viele Grauzonen finden, die die Wahrheitsfindung nicht einfach machen. Man könnte auch sagen: in beiden Lagern wird kräftig gemogelt und auch mal handfest gelogen.51 Besonders die Lobbygruppen der Musik-, Film- und Softwareindustrie sind immer wieder mit markigen Sprüchen und knackigen Videoclips im Rahmen ihrer Lobbyarbeit aufgefallen. Zudem gehören sie auch zu den fleißigsten Anklägern im Bereich der Softwarepiraterie.52 Dabei hat sich nach eingehender Beobachtung dieser Verhaltensmuster herausgestellt, dass beispielsweise die Musikindustrie durchaus in der Lage wäre, die Probleme auch anders anzugehen. Doch durch ihr starres Festhalten an längst vergangenen Geschäftsmodellen hat sie sich seit langem einem Kampf verschrieben, der vielen Beobachtern als bizarr erscheinen mag. Apple hat mit seinem iTunes Music Store und dem unerwarteten Erfolg beim Verkauf digitaler Musikstücke bewiesen, dass man von alten Geschäftsmodellen zu neuen Erfolgen gelangen kann, wenn man die digitale Kultur berücksichtigt und die Szene zufriedenstellt, anstatt sie zu verprellen. Die Befürworter von lockeren Kopierregelungen, neuen Technologien und revolutionären Rechtsnormänderungen sind jedoch oft nicht weniger markig in ihren Aussagen als ihre Widersacher: so warfen sie des Öfteren den Rechteinhabern überzogene

51 gulli: USA legen weltweites Anti – Piraterie – Programm auf. http://www.gulli.com/news/usalegen-weltweites-anti-2005-09-22/, abgerufen am 23.7.2007. 52 Süddeutsche Zeitung, Nr. 211, 13. September 2005, S. 12.

36

1 Einführung in die Internetsoziologie

Hetze vor, die nur zur Rettung des eigenen Geschäftsmodells dienen soll – und liegen damit auch nicht grundsätzlich falsch. Die OECD wies damals beispielsweise darauf hin, dass die Probleme von Musikfirmen nicht nur am illegalen Filesharing, sondern auch an der Konkurrenz anderer Medien sowie am leeren Portemonnaie der Käufer liegen.53 Doch vermindert das krawallige Auftreten im Medienzirkus unnötigerweise die Wahrnehmung und den Erhalt von Aufmerksamkeit, obgleich das Anliegen keineswegs grundsätzlich falsch ist. Die Ausprägung kollektiver Identitäten wie der der Filesharingbefürworter leidet dadurch unter den Gepflogenheiten des Medienzirkus´, was durchaus mit den Berichten über den „Revolutionären 1. Mai“ in Berlin zu vergleichen ist: selbst heute noch mag es unter den Tausenden Krawalltouristen und aktionsorientierten Jugendlichen einige Demonstranten geben, die die Maidemonstrationen als Vehikel für ihre ernstgemeinten politischen Botschaften nutzen wollen. Doch sie sind gnadenlos unterlegen, da der Krawall den Diskurs dominiert, so wie Strafanzeigen im Tausenderpack deutlich medienkompatibler sind als langwierige Diskurse über die Vor- und Nachteile von Filesharing, Kulturflatrate und Raubkopien. Dies zeigt übrigens auch der bizarre Begriff des Raubkopierers: obwohl das Kopieren einer Software technisch wie rechtlich gar keinen Raub beinhalten kann, hat sich das Wort – bedingt durch die mediale Inszenierung – im Mainstreamdiskurs durchgesetzt. Auch waren Tauschbörsen stark negativ konnotiert und stehen sicherlich auch heute noch sehr oft als Synonym für Illegalität und Respektlosigkeit gegenüber den Kreativen und Künstlern. Doch bereits auf den zweiten Blick würden sich diese Probleme auflösen, würde nur ein fairer Diskurs stattfinden. Doch hier geht es auch in der Gegenwart und sicherlich ebenso in der nahen Zukunft zuerst einmal um Wirtschaftsinteressen und Lobbyismus und nicht um den Anspruch eines fairen und identitätsrelevanten Diskurses. Die Folge sind Verzerrungen in der Wahrnehmung, die eine erfolgversprechende und unkomplizierte Identitätsarbeit behindern können. Auch ohne den Staat an der Seite zogen damals viele Firmen und Institutionen die Daumenschrauben an, wenn es um digitale Überwachung geht. Lockerungen von überragender Bedeutung konnten im Beobachtungszeitraum hingegen nicht festgestellt werden – Verschärfungen der Überwachungssituation hingegen zuhauf. Viele waren dabei nicht immer offensichtlich, so wie das Beispiel Google nun aufzeigen soll. Google wollte damals die digitale Bibliothek der Welt sein.54 Da Google bzw. seine Holding Alphabet ein (gewinnorientiertes) Unternehmen ist, stellt sich zwangsläufig die Frage, inwiefern die gewonnenen Daten in der Gegenwart oder der Zukunft gewinnbringend eingesetzt werden sollen. Das kann für deformierte Identitätsarbeit sorgen, da es eine präformierte Sicht der Dinge liefert, die sich an marktwirtschaftlichen Kriterien orientiert und nichts mit dem Erhalt von Kultur zu

53 OECD: Musikindustrie sollte sich neue Technik zunutze machen. http://www.golem.de/0506/ 38667.html, abgerufen am 22.7.2007. 54 google-Dossier – Feuilleton – ZEIT online. http://www.zeit.de/2005/32/Google-Bibliothek, abgerufen am 23.7.2007.

1.3 Erste Forschungsphase: 2005 bis 2007

37

tun hat. Und dieser Gedanke ist nicht besonders weit hergeholt: Emailaccounts wie der von Google55 zeigten, dass durch die Analyse der Inhalte der Mail bereits zugeschnittene Werbung für den User ausgewählt wurde. Oder anders gesagt: wird es einer Firma überlassen, das (literarische) Gedächtnis der Welt abzubilden, haben deren Interessen Vorrang. Und selbst wenn Google nicht darauf bestehen würde, das Wissen der Welt zu vereinen oder auch weiterhin darauf hinweist, dass es noch Hunderte Jahre dauern würde, bis man mal soweit wäre: die Verantwortlichen wussten und wissen auch heute ganz genau, wie gewichtig ihre Rolle ist und wie bedeutend Suchmaschinen wie Google für die Orientierung im digitalen Raum sind. Das Schema ist vergleichbar mit dem Schema des Trusted Computings: man muss nur ein Angebot machen, dass man nicht ablehnen kann. Schon wird über Google gesucht und nicht groß reflektiert – und was Google nicht findet, das gibt es dann eben einfach nicht. Seine „Unschuld“ hatte Google schon 2007 längst verloren. Die Frage war nun, wie der User damit umgeht, denn allgemein gültige Regeln oder Methoden für den Umgang mit solchen Phänomenen gab es seinerzeit nicht. Heute kann man sagen: es hat sich nicht besonders viel getan. Wenn ein Mitarbeiter anonym im Internet über die eigene Firma lästert, ist dies vielen Chefs ein Dorn im Auge. Kein Wunder, dass sie entsprechend häufig versuchen, dies zu unterbinden. In den USA wurde Yahoo durch eine Klage dazu gezwungen, die Daten eines Forenposters herauszurücken, der sich negativ geäußert hatte. Doch als die Daten vorlagen und der entsprechende Mitarbeiter zur Rechenschaft gezogen werden konnte, zog die Firma das Verfahren zurück – ein glatter Missbrauch des Rechtssystems, wenn sich herausstellt, dass diese Absicht von Anfang an vorlag.56 Blogger und andere Online-Quälgeister können halt nerven – das dachte sich damals auch das Magazin Forbes und pries gleich einige vermeintlich hilfreiche Ideen, die Bloggern (die sowieso nur gegen Markeninhaber aktiv seien und deren Geschäft gefährdeten) ihre Bloggerei verderben sollen, wie beispielsweise den anklagenden Blogger mit Schmutz zu bewerfen und seine Person zu diskreditieren.57 Diese beiden Beispiele zeigen sehr deutlich, wie drastisch Firmen ihr Kernziel verteidigten, wenn sich jemand die Möglichkeiten des Netzes zunutze machte und dies nicht unbedingt im Sinne der Firma war. Dabei könnten Firmen an dieser Stelle mit simplen Methoden eingreifen und über das Internet positiv wirken, indem sie beispielsweise das Expertenwissen der Forumsteilnehmer sowie ihre Multiplikatorenfunktion ausnutzen. Doch wie die beiden exemplarischen Beispiele aufzeigen, wurde nicht selten die altbekannte Keule der Repression geschwungen, anstatt sich die neuen Möglichkeiten

55 Gmail. http://de.wikipedia.org/wiki/Gmail, abgerufen am 6.8.2007. 56 gulli: Wie feuert man anonym kritisierende Mitarbeiter? http://www.gulli.com/news/wie-feuertman-anonym-2005-11-02/, abgerufen am 23.7.2007. 57 gulli: Forbes: so kriegt man die Blogger klein. http://www.gulli.com/news/forbes-so-kriegtman-die-2005-10-28/, abgerufen am 23.7.2007.

38

1 Einführung in die Internetsoziologie

gewinnbringend für Konzern und Mitarbeiter zunutze zu machen. Dabei ist Whistleblowing, also das rechtzeitige Anprangern von Missständen mit loyalem und seriösem Hintergrund, ein hilfreiches Instrument, um Entgleisungen zu korrigieren. Das kann im Extremfall Firmen vor dem Untergang retten. Doch dafür muss ein Bewusstsein vorhanden sein, welches sich bis in den digitalen Raum hineinzieht. Die Verunglimpfung von Personen, die Missstände anprangern, war seinerzeit noch vorherrschend. Hier hat sich in der Tat einiges gebessert und der Begriff „Whistleblower“ ist nicht mehr automatisch negativ konnotiert. Doch von einem mangelfreien Zustand kann noch lange nicht gesprochen werden: Whistleblower leben immer noch gefährlich und oftmals keineswegs angstfrei. Der Fortschritt scheint hier sehr langsam zu sein. Ein im Netz sehr populärer Fall handelte damals vom Datensammel- und – weitergabewahn bei Amazon und davon, dass eine Frau aufgrund ihres AmazonProfils behördlichen Ärger bekam. Das Ganze las sich bei genauerer Betrachtung jedoch deutlich harmloser: Bisher ist nur der Fall einer Bundesbürgerin pakistanischer Herkunft bekannt geworden, die im Oktober 2003 nicht in die USA einreisen durfte. Die Grenzbeamten wussten dabei auffallend viele Einzelheiten über ihr Kaufverhalten bei Amazon.58

Nichtsdestotrotz ist die Tendenz auch hier eindeutig: neue Möglichkeiten (hier: der Erhalt von privatwirtschaftlichen Daten durch US-Behörden) werden irgendwann auch genutzt. „Stille Post“ ist ein Kinderspiel – im Wortsinn erst recht im Internet. Denn allzu oft gehen Nachrichten digital auf die Reise, die weder objektiv überprüft noch richtig gelesen werden. So auch im Falle des angeblichen Weiterverkaufs von Bürgerdaten aus den biometrischen Ausweisdokumenten59 oder der Frau, deren Kaufverhalten bei Amazon von Interesse war (s. o.). Befeuert wird diese Tendenz freilich durch die allgemeine Desillusionierung, die seit dem 11. September 2001 vorherrschte und sich seit 2007 wohl kaum gebessert hat – die entsprechenden Gesetzesänderungen luden aus datenschutzrechtlicher Sicht weder damals noch heute zum Jubeln ein. Des Weiteren würden, so die damalige Annahme, den Schritt des Verkaufs von Bürgerinformationen – hier angedacht zur Refinanzierung der Biometriedokumente – gerade die Bürgerinnen und Bürger ganz und gar unkritisch sehen, die stets gebetsmühlenartig wiederholen, dass sie ja nichts zu verbergen hätten. Doch auch schlicht unsaubere Arbeit, die emotional befeuert wenig Raum für Objektivität lässt, ist nicht selten. Dies zeigt der Fall des Vorsitzenden des Vereins Carechild e.V., Gabriel Gawlik:

58 Datenhunger: Amazon, Terror-Abwehr und der Staatsschutz. http://www.spiegel.de/netzwelt/ web/0,1518,365663,00.html, abgerufen am 22.7.2007. 59 TP: Stille Post im digitalen Dorf. http://www.heise.de/tp/r4/artikel/21/21937/1.html, abgerufen am 22.7.2007.

1.3 Erste Forschungsphase: 2005 bis 2007

39

Bei der Diskussion im Bildungsportal Ysilon wurde Herr Gawlik auf den Artikel „Gefährliche Doktorspiele“ des Journalisten Erik Möller aufmerksam gemacht. (. . .) Wenig später hat er im Internet über Erik Möller recherchiert und ist auf einen weiteren Artikel von ihm gestoßen. Es ist nicht klar, aus welchen Gründen Herr Gawlik einen Hass auf Erik Möller pflegt. Auf jeden Fall unterlief ihm bei seinen Recherchen ein Fehler und er hielt Jörg Kantel, den Betreiber des Weblogs Schockwellenreiter, für Erik Möller. Er denunzierte darauf Herrn Kantel bei seinem Arbeitgeber. Dieser leitete die E-Mail von Herrn Gawlik an Herrn Kantel weiter, der diesen Vorfall im Internet unter der Überschrift „Der größte Lump im ganzen Land, das ist und bleibt der Denunziant“ dokumentierte.60

Das entscheidende Problem ist nun, dass Emotionalität und Kurzsichtigkeit nicht aufscheinen lassen, welche Folgen dieses Verhalten für den angeprangerten Menschen haben kann. Die Identitätsarbeit kann maßgeblich gestört werden, wenn solche Anschuldigungen ihren Weg in den digitalen Raum finden. Dabei kam in diesem Falle sogar noch hinzu, dass der Mensch, der beschuldigt wurde, der gänzlich falsche Adressat war. Doch auch der vermeintlich „richtige“ Adressat würde ein riesiges Problem bekommen: durch die weltweite Verfügbarkeit der Informationen würde seine Identitätsarbeit schwer unter Beschuss geraten – egal, ob die Anschuldigungen nun gerechtfertigt sind oder nicht. (Und darum geht es ja, wie das Beispiel Google gezeigt hat, nicht zwangsläufig.) Dies würde in der Folge zu nicht abschätzbaren Irritationen führen, da durch die nicht greifbare Ausbreitung der Information kaum erfolgreich abgeschätzt werden könnte, welche Auswirkungen dies nun auf Familie, Freunde, Bekannte, Kollegen und Fremde haben würde. Die Person müsste sich täglich fragen: Spricht mich jemand darauf an? Reagiert vielleicht sogar jemand direkt, ohne lange zu diskutieren? Wie bekomme ich den Eintrag aus dem Netz? Lohnt sich eine Gegenrede oder nicht? Google und andere Suchmaschinen haben dieses Problem erkannt und entfernen strittige Einträge auf Anfrage aus ihrem Index – was erneut bestätigt, dass sie fern einer rechtlichen Vorgabe durchaus wissen, welche Bedeutung sie für die User haben. Da all diese Punkte, die bisher besprochen wurden, nicht einfach nur als Rauschen in der Tiefe des digitalen Raumes verschwinden, ist es nicht überraschend, dass auch zahlreiche darauf aufbauende Forschungsprojekte innerhalb des Beobachtungszeitraumes aufzufinden waren. Grundsätzlich war eine Zweiteilung festzustellen: entweder waren die Projekte technisch determiniert und boten so unmittelbar keinen erkennbaren Link zur Identitätsanalyse oder sie waren auf einer philosophischen Metaebene angesiedelt und eine Annäherung an bedeutende Fragen der digitalen Welt wurde versucht. Ein Bereich, dem damals (und wie man heute weiß: zurecht) große Wachstumschancen unterstellt wurden, war der Bereich der Computerforensik. Die Spurensicherung auf dem PC ist eine junge Disziplin und eine recht diffizile Angelegenheit. Opfer

60 TP: „Zeigt her Eure Namen“. http://www.heise.de/tp/r4/artikel/20/20885/1.html, abgerufen am 23.7.2007.

40

1 Einführung in die Internetsoziologie

von Phishing, Spam und Betrug durch Social Engineering haben beispielsweise meist keine Ahnung davon, dass sie beispielsweise ihren PC nicht ausschalten sollten, da auch der Arbeitsspeicher eine Fülle von Beweisen und „Fingerabdrücken“ von Tat und Täter beinhaltet und diese Beweise nach dem Ausschalten schnell für immer verloren sind. Auch das reine Datenvolumen ist schnell ein Problem, welches bei der Sicherstellung und Untersuchung von Speichermedien in den üppigen Terabytebereich gehen kann und so eine Analyse enorm umfangreich und zeitaufwendig macht. Zusätzlich war zumindest seinerzeit (2007) die Rechtslage anscheinend etwas verwirrend und in vielen Bereichen hinsichtlich der Computerforensik ein unbestelltes Feld: so hatten Behörden auch bei vermeintlich einfachen Aufgaben wie dem Erstellen eines Festplattenimages teilweise mit schwierigen rechtlichen Problemen wie beispielsweise der Anerkennung als Beweismittel zu kämpfen. Dabei ist der Bedarf an Forensikexperten unzweifelhaft vorhanden: Längst seien die „amerikanischen Verhältnisse“ auch bei uns anzutreffen, würden Auftragsviren und -Würmer speziell für eine Firma geschrieben, werde Datenschutzgeld über das Internet erpresst, würden Botnets stundenweise für eine Handvoll Dollars gemietet.61

Doch es gibt auch Kritiker dieser Disziplin. So sehen sie vor allem in der Komplexität der Technik Probleme: In dieser Diskussion mehren sich die Stimmen, dass möglicherweise viele unschuldige Menschen auf Grund eines falschen Verdachtes inhaftiert oder dadurch gar in den Suizid getrieben wurden. Der Vorwurf: Die Computer-Forensiker suchten nach belastendem Material in gelöschten Sektoren auf den Festplatten und sähen beispielsweise in Thumbnail-Dateien Beweise. Jedoch würde sehr selten geprüft, ob sich Dritte zu dem Rechner Zugang verschafft hätten, was zum Beispiel durch böswillige Adware oder Trojaner geschehen könne.62

Es gibt somit ein ermittlungstaktisches technisches Dilemma: Wenn ein Krimineller seine Machenschaften verschleiern will, bräuchte er nur einen Trojaner auf seinem Rechner installieren – in den Mailboxen finden sich zahlreiche davon.63

Schon wäre nicht mehr festzustellen, wer welche Aktion auf dem PC ausgeführt hätte. So könnte ein Virus die gesamte digitale Beweisführung zunichtemachen. Das bedeutet: durch die – im Übrigen vollkommen realistische – tägliche Bedrohung und Einflussnahme von außen ergibt sich nur schwer ein realistisches Bild, welches Beweischarakter haben kann. Da viele Fragen in diesem Bereich damals

61 heise online – Computer-Forensik: Kein Fall für Dr. Watson. http://www.heise.de/newsticker/ meldung/62984, abgerufen am 22.7.2007. 62 heise online – Computer-Forensik gerät in die Kritik [Update]. http://www.heise.de/newsticker/ meldung/64537, abgerufen am 22.7.2007. 63 heise online – Computer-Forensik gerät in die Kritik [Update]. http://www.heise.de/newsticker/ meldung/64537, abgerufen am 22.7.2007.

1.3 Erste Forschungsphase: 2005 bis 2007

41

wie heute noch nicht geklärt sind, läuft jeder Betroffene Gefahr, zum Musterfall zu werden. Auch hier ist also eine entsprechende Vorsorge, um möglichst unzweideutig zu arbeiten, von größter Wichtigkeit. So sollte man den eigenen PC nicht unkontrolliert lassen, Spyware und Viren so effektiv wie möglich bekämpfen und strikte Datenschutz- und Datensicherheitsregeln einführen und durchhalten. Auch sind eine möglichst harte Verschlüsselung sowie das Verstecken und Verschleiern von Partitionen und Dateien der beste Schutz, um Spielräume zu eliminieren, die sonst im Falle eines Falles die Last der Identitätsarbeit und der Auseinandersetzung auf den eigenen Schultern abladen würden. Denn leider verhalten sich auch kriminelle Profis so, so dass – im Guten wie im Schlechten – die Szeneweisheit gilt: Erwischt werden nur die Dummen. Die anderen dampfen alle gefährlichen Spielräume ein und kommunizieren ungestört weiter. Vint Cerf, einer der immer wieder gern genannten „Väter“ des Internets, sah damals in der fortschreitenden Digitalisierung und Vernetzung verschiedenster Dinge die nächste Evolutionsstufe des Netzes.64 Dies habe, so Cerf, entsprechende Folgen für Gesellschaft und Politik. Doch bis dahin seien die gegenwärtigen Fragen zu klären, zum Beispiel: Was ist überhaupt Privatsphäre? Jeder Mensch hat eine Privatsphäre. Doch während es ziemlich einfach ist, einen Überwachungsangriff auf die Privatsphäre eines Menschen zu definieren, ist es ziemlich schwierig, die Privatsphäre positiv zu definieren. Ein „Recht auf Privatsphäre“ lässt sich mit den Mitteln der Philosophie nur unter größten Verrenkungen definieren. Außerdem fehlt es an einer kritische Masse von Wissenschaftlern, die sich im großen Stil mit der Erforschung und dem Schutz der Privatsphäre befassen.65

Die Veränderungen im Bereich der Privatsphäre warfen auch damals bedeutende Fragen auf: so können beispielsweise Fahrtstrecken eines Autos mitgeschnitten, Maut oder Versicherung centgenau abgerechnet und aufgrund des Streckenauswahlverhaltens neue Routen passgenau optimiert werden. Solche Techniken bezogen sich damals noch auf das Auto, nicht direkt auf den Menschen. Doch der nächste Schritt, der die Diskussionen dann wiederum heftig befeuern kann, ist nicht weit entfernt: Das (. . .) wirft die Frage nach dem telematisch überwachten „loyalen Auto“ auf, das automatisch jeden Rechtsverstoß der Polizei meldet.66

64 heise online – Vint Cerf und die Zukunft des Internet. http://www.heise.de/newsticker/mel dung/68583, abgerufen am 22.7.2007. 65 heise online – Die Privatsphäre ist teilbar. http://www.heise.de/newsticker/meldung/69490, abgerufen am 22.7.2007. 66 heise online – Die Privatsphäre ist teilbar. http://www.heise.de/newsticker/meldung/69490, abgerufen am 22.7.2007.

42

1 Einführung in die Internetsoziologie

Das bedeutet: Ubiquitous Computing kann ein Antrieb dafür sein, dass Menschen freiwillig Einschränkungen ihrer Privatsphäre in Kauf nehmen.67

Das fehlende proaktive, progressive Denken war damals – und ist aus meiner Sicht auch heute noch – wohl eines der größten Probleme: Die Forschung (. . .) [reagiert] eigentlich nur auf die jeweils neuesten technologischen Entwicklungen.68

Damit blieben schon damals zu viele blinde Flecken übrig, während die Technik Gas gab, die Wirtschaft Geld verdiente und die Politik viele hilflose Vorhaben durchsetzen wollte oder durchsetzte. Die deutsche Wissenschaftslandschaft präsentierte zwar insgesamt immer mehr Themen und Veranstaltungen rund um soziale, kulturelle und ethische Fragen der Digitalisierung, beispielsweise Langzeitarchivierung, Maschineneinwirkungen, Computer in der Alltagswelt, Forschung im Bereich Digital Living, kulturelle Identitätssuche von Emigranten,69 Vermittlung von Wissen zur interkulturellen Kommunikation70 und allgemeine Medienkompetenz. Und auch im kleinen Rahmen wird Abhilfe versprochen: die „12 goldenen Regeln“ für die Nutzung von Suchmaschinen fanden ihren Weg auf die idw-Liste.71 Ebenfalls machte man sich über „Anonymität im Zeitalter der mobilen Kommunikation“ Gedanken – wenngleich dies alles häufig eben nicht in einer technischen Tiefenschärfe geschieht, die dringend notwendig erscheint: Denn die mobile Technologie kann leicht missbraucht werden, wofür viele Science FictionFilme Beispiele liefern. (. . .)Verschlüsselungstechniken helfen dabei, Daten und Inhalte eines Gesprächs o-der einer Datenübertragung zu schützen. Diese Techniken werden bereits jetzt beim Militär und bei kommerziellen Anwendungen eingesetzt.72

Putzige Beispiele dieser Art waren des Öfteren zu finden, was demzufolge sporadisch auch mal zu Zweifeln führt:

67 heise online – Die Privatsphäre ist teilbar. http://www.heise.de/newsticker/meldung/69490, abgerufen am 22.7.2007. 68 heise online – Die Privatsphäre ist teilbar. http://www.heise.de/newsticker/meldung/69490, abgerufen am 22.7.2007. 69 Die verlorene Heimat: RUB-Studierende erforschen Identitätssuche im Internet. http://idw-on line.de/pages/de/news117057, abgerufen am 24.7.2007. 70 Interkulturelle Kommunikation in virtuellen Gemeinschaften. http://idw-online.de/pages/de/ news142577, abgerufen am 24.7.2007. 71 Ratgeber für den Umgang mit Internet-Suchmaschinen. http://idw-online.de/pages/de/ news126575, abgerufen am 24.7.2007. 72 Schloss Dagstuhl: Anonymität im Zeitalter der mobilen Kommunikation. http://idw-online.de/ pages/de/news127698, abgerufen am 24.7.2007.

1.3 Erste Forschungsphase: 2005 bis 2007

43

Was man dort [im idw-Newsletter, Anm.] lesen kann, treibt einem mitunter Tränen in die Augen.73

Fern der inhaltlichen Gestaltung und der Präsentation etwas ausgefallener Dinge wie dem exemplarisch genannten Lifestylegrill74 ist an dieser Stelle auf die trotz alledem bestehende Relevanz der Meldungen hinzuweisen. Denn es geht eben nicht immer nur um technische Gadgets, sondern auch um die Versuche, das digitale Leben zu erklären und Hilfestellung zu geben. Aus diesem Grunde wollten auch die Theologen nicht vom Cyberspace ausgeschlossen bleiben und wagen sich aus der Deckung: Der scheinbar so religionsferne, technikbestimmte Cyperspace entpuppt sich bei genauem Hinsehen als Ort, an dem vor allem jüdische und christliche Vorstellungen neu belebt werden.75

Und auch ein gewagter Zirkelschluss zu postmodernen Theoretikern wurde damals gern mal versucht: Ebenso werde von Philosophen wie Marshall McLuhan dezidiert auch auf philosophischreligiöse Quellen zurückgegriffen, um die Potenziale der neuen Medien zu beschreiben.76

Was von einer solchen Ausrichtung zu halten ist, bedarf an dieser Stelle wohl keiner besonderen Ausführung. Viele Wünsche der Userinnen und User sind wohlbekannt und dienen gerne als Eyecatcher, um auf die eigene Arbeit aufmerksam zu machen. Ein Beispiel erwähnte damals die „Nahtlose Kommunikation“: Heute heißt es noch viel zu oft „Plug and Pray“. Wir quälen uns mit komplizierten Endgeräten, unterschiedlichen Treibern oder Konfigurationen. Egal ob Handy, Email oder Telefon, das Gerät muss den Nutzer beim Interagieren und Kommunizieren unterstützen. Diese Vision einer,nahtlosen Kommunikation‘ ist die kommende Aufgabenstellung sowohl für Forschung und Entwicklung wie auch für die Kundenbe-friedigung seitens der Industrie.77

Dabei muss der Traum kein Traum bleiben, denn die Probleme sind weniger technischer als vielmehr wirtschaftlicher Art. Solange die Wirtschaft an Kabeln, Treibern und Formatstreitigkeiten gut verdient, wird es auch kein nahtloses Computing geben können. Nicht umsonst weisen beispielsweise Konsortien, die zum Bau eines neuen ICE von der Bahn vertraglich zwangsvereinigt werden, immer wieder auf die unterschiedlichen Systeme des jeweils anderen und deren komplizierte Vernetzung hin

73 TP: Die Präsentation von Forschungsergebnissen in Deutschland. http://www.heise.de/tp/r4/ar tikel/20/20522/1.html, abgerufen am 24.7.2007. 74 Der Sommer kann kommen! http://idw-online.de/pages/de/news113362, abgerufen am 24.7.2007. 75 Die Theologie des Cyberspace. http://idw-online.de/pages/de/news132761, abgerufen am 24.7.2007. 76 Die Theologie des Cyberspace. http://idw-online.de/pages/de/news132761, abgerufen am 24.7.2007. 77 Internetprofessor Steinmetz: Forschungsziel heißt “nahtlose Kommunikation”. http://idw-on line.de/pages/de/news139248, abgerufen am 24.7.2007.

44

1 Einführung in die Internetsoziologie

und begründen so ihre Schwierigkeiten. Die Suche nach einer Metaebene der Vernetzung könnte eingespart werden, wenn nur das Formatwirrwarr drastisch eingedampft werden würde. Die Wissenschaft widmete sich im Beobachtungszeitraum nur selten den psychologisch-soziologischen Fragen und viel häufiger der reinen Technik. Identitätsmanagement (IDM) bezog sich damals bedauerlicherweise sehr gerne auf die technischen und allerhöchstens noch die datenschutzrechtlichen Aspekte, nicht jedoch auf die Identitätsarbeit des Individuums.78 Vom Staat war keine Abhilfe zu erwarten, wie die bisherigen Ausrichtungen in Richtung Terrorabwehr gezeigt haben – die staatlichen Wünsche sind meist technischer und kaum kulturell-sozialer Art.79 Doch es gab auch Lichtblicke: Abhilfe schaffen im Bereich Datenschutz und Datensicherheit kann beispielsweise das Fach Datenschutz als Studienangebot.80 Einige grundlegende Probleme der digitalen Identitätsforschung hinsichtlich Datenschutz und Datensicherheit wurden hier aufgeführt und besprochen. Daraus ergaben sich 2007 auch einige Übereinstimmungen mit bereits vorliegenden Ergebnissen anderer Studien. So nannte exemplarisch die TAUCIS-Studie81 neben den Problemen der Rechtsdurchsetzung auch datensparsame Technikgestaltung, Zweckbindung, Transparenz und die Rolle des Outsourcings. Und so gibt es eine entsprechend große Übereinstimmung mit dem Fazit der Studie: Die Frage, ob und wie Ubiquitous Computing sicher und im Sinne des Datenschutzes selbstbestimmt gestaltet werden kann, ist noch unbeantwortet. Die Gestaltung datenschutzgerechter UC-Systeme wird noch erheblicher technischer Anstrengungen in Forschung und Entwicklung bedürfen. Eine umfassende Lösung wird einen grundlegenden Paradigmenwechsel vom „Calm“ zum „Secure and Privacy Aware“ Computing erforderlich machen, ohne dass dies die informationelle Selbstbestimmung beeinträchtigen darf.82

Ob es um digitale Belästigungen, das Image von Spielen oder den Spieleboom ganz allgemein geht: das Zusammenwirken von Spiel und Wirklichkeit bot stets Anlass zur Diskussion und fand 2007 entsprechenden Eingang in die Analyse der digitalen Identitätsarbeit. Dabei lagen die Schwerpunkte erkennbar im Bereich Jugend und Medienkompetenz. „Die öffentliche Debatte über Computer- und Videospiele lässt

78 Wege aus der digitalen Identitätskrise – Sicherheitsforum am Fraunhofer SIT. http://idw-on line.de/pages/de/news132248, abgerufen am 24.7.2007. 79 TP: Die Wünsche der Überwacher. http://www.heise.de/tp/r4/artikel/21/21335/1.html, abgerufen am 22.7.2007. 80 Datenschutz jetzt Studienangebot der Fachhochschule Kiel. http://idw-online.de/pages/de/ news129417, abgerufen am 24.7.2007. 81 TAUCIS_Studie.pdf. http://www.taucis.hu-berlin.de/_download/TAUCIS_Studie.pdf, abgerufen am 22.7.2007. 82 TAUCIS_Studie.pdf. http://www.taucis.hu-berlin.de/_download/TAUCIS_Studie.pdf, abgerufen am 22.7.2007, S. 328.

1.3 Erste Forschungsphase: 2005 bis 2007

45

noch nicht erahnen, welche faszinierenden Welten sich dahinter verbergen“, so Winfred Kaminski vom Institut für Medienforschung und Medienpädagogik der Fachhochschule Köln. Im Vordergrund stand vor allem das Potential von Spielen, aber auch die Bedeutung von Videospielen in der Jugendkultur, Geschlechterfragen, virtuelle Welten und soziale Interaktion in Onlinespielen.83 Kaminski war seinerzeit der Meinung, dass die Kritik am Spielverhalten von Kindern häufig von Vorurteilen geprägt sei. Auch wenn die Fülle der Spielmöglichkeiten es so aussehen lasse: Kinder seien trotz allem nicht weniger intensiv mit den jeweiligen Spielen beschäftigt als frühere Generationen, auch wenn sich die technischen Geräte sprichwörtlich im Kinderzimmer stapeln würden. Vielmehr seien diese Vorurteile generationsübergreifend, so Kaminski damals. Ursache dafür sei, dass Kinder meist viel mehr Zeit hätten, um sich in die Spielwelten hineinzuversetzen und die Erwachsenen hier mangels Zeit nicht das notwendige Verständnis entwickeln könnten.84 Die digitale Ungleichheit war allerdings schon damals Realität und zeigte auf, dass nicht alle – auch nicht alle Jugendlichen – die gleichen Chancen im Netz haben.85 Trotzdem: „Techniken und Formen des Computerspiels bestimmen heute soziale Fantasien – und umgekehrt“.86 Die Brauchbarkeit eines solchen (spielerischen) Handelns könnte beispielsweise in der Arbeitswelt hilfreich sein, da der aus dem Teilsystem Arbeit weitestgehend (widerwillig, jedoch nicht chancenlos87) wegrationalisierte Mensch als „Gewährleistungsarbeiter“88 ein relevanter Faktor bleibt, indem er „Fehlerquellen erahnen, Störungen (. . .) antizipieren und mittels assoziativen Denkens“ ausloten kann.89 Am Beispiel von Internetforen wurde zudem erneut deutlich, wie widersinnig alle Behauptungen sind, die Handeln im Netz als „virtuell“ oder gar „andersartig“ und damit diskreditierend betrachten: Foren sind kein künstlicher Raum in einer virtuellen Welt, den von der Realität entfremdete Menschen und absurde Themen „bevölkern“. Sie befriedigen vielmehr ganz alltägliche kommunikative Bedürfnisse „normaler“ Menschen.90

83 Internationale Fachtagung „Clash of realities – Computerspiele und soziale Wirklichkeit“. http://idw-online.de/pages/de/news141666, abgerufen am 14.9.2007. 84 WELT ONLINE – Häufiges Spielen mit Computern schadet Kindern nicht. http://www.welt.de/ data/2005/07/18/747197.html, abgerufen am 14.9.2007. 85 Internationale Fachtagung: „Grenzenlose Cyberwelt? Digitale Ungleichheit und neue Bildungszugänge für Jugendliche“. http://idw-online.de/pages/de/event16180, abgerufen am 14.9.2007. 86 ERNSTFALL COMPUTERSPIEL. Virtuelles Handeln und soziales Spielfeld. http://idw-online.de/ pages/de/news115911, abgerufen am 14.9.2007. 87 Treusch-Dieter, 2001. 88 TP: Spiel und Arbeit. http://www.telepolis.de/r4/artikel/20/20498/1.html, abgerufen am 14.9.2007. 89 TP: Spiel und Arbeit. http://www.telepolis.de/r4/artikel/20/20498/1.html, abgerufen am 14.9.2007. 90 RUB-Studie über Internetforen: Treffpunkt der Multiplikatoren. http://idw-online.de/pages/de/ news123819, abgerufen am 14.9.2007.

46

1 Einführung in die Internetsoziologie

Doch andersherum finden ebenfalls Überschneidungen statt, sprich: wenn alt-reale Muster ins digitale Leben eindringen. Ein Trojaner stahl beispielsweise die Passwörter für das Multiplayerspiel „World of Warcraft“ und bestätigte so, dass auch digitale Werte zunehmend real bemessen werden und Onlinespiele, Avatare und ähnliche Errungenschaften der Gegenwart keineswegs nur mehr belangloser Zeitvertreib oder harmlose Spielerei waren und sind.91 Dass vor allem Eltern Medien- und ganz besonders Spielkompetenz benötigen, bestätigte auch Hartmut Warkus. Eltern sollten aufgeschlossen, selbstsicher, kommunikativ und explorativ an Spiele herangehen und den Dialog mit ihren Kindern suchen, so die damalige Empfehlung. Digitale Spiele als Teil der Gegenwart und Kultur lassen sich nicht (mehr) verbieten oder kleinreden.92 Auch das Deutsche Kinderhilfswerk verweigerte sich der negativen Grundtendenz der Eltern: Die kulturpessimistische Einstellung der erwachsenen Generation hier zu Lande, die einzig dem Buch die Fähigkeit von Wahrhaftigkeit zugesteht, könnte sich als Bumerang erweisen. (. . .) Wenn wir nicht endlich beginnen, die praktischen Eigenschaften von Computern in der Erziehung zu nutzen, droht Deutschland diesbezüglich zu einem Entwicklungsland zu werden.93

Doch es gibt auch andere Stimmen. So spitzte Christian Pfeiffer vom Kriminologischen Forschungsinstitut Niedersachsen (KFN) seine These – recht medienwirksam – zu: Ein Übermaß an Medienkonsum macht dick, dumm, krank und traurig.94

Die Kernessenz seiner 2005 vorgestellten Ergebnisse: die Schulnoten von Kindern zwischen 10 und 15 Jahren würden umso schlechter werden, je mehr Zeit die Kinder vor dem Fernseher oder der Spielkonsole verbringen würden. Etwas subtiler gingen Ludger Wößmann und Thomas Fuchs vor: in ihrer Studie zeigten sie, dass ein Computereinsatz in der Schule nicht zwangsläufig zu besseren Ergebnissen führt. Sie fassten ihre Ergebnisse wie folgt zusammen: Wir benötigen nicht unbedingt mehr Computer, sondern ihren wirkungsvolleren Einsatz.95

91 heise online – Trojaner stiehlt Passwörter von World of Warcraft. http://www.heise.de/newsti cker/meldung/62376, abgerufen am 14.9.2007. 92 heise online – Medienpädagoge: Erwachsenen Kompetenz bei Computerspielen geben. http:// www.heise.de/newsticker/meldung/62833, abgerufen am 14.9.2007. 93 heise online – GC family: Lernen mit „Spaßfaktor“. http://www.heise.de/newsticker/meldung/ 63008, abgerufen am 14.9.2007. 94 heise online – Studie: Hoher Medienkonsum sorgt für schlechte Noten. http://www.heise.de/ newsticker/meldung/64258, abgerufen am 14.9.2007. 95 heise online – Computer können zu schlechteren Noten in der Schule führen. http://www. heise.de/newsticker/meldung/64574, abgerufen am 14.9.2007.

1.3 Erste Forschungsphase: 2005 bis 2007

47

Sabine Grüsser-Sinopoli sammelte Belege für die Abhängigkeit von Spielern. Bei einer EEG-Messung, zu der sich „starke Videospieler“ bereiterklärten, hatte sich wohl herausgestellt, dass die Gehirne der Videospieler ähnlich auf die Bilder reagierten, wie dies bei Spielesüchtigen beim Anblick von Karten oder bei Heroinsüchtigen beim Anblick von Nadeln der Fall ist. (. . .) [Dies sei] ein Argument für das Suchtpotenzial von Videospielen.96

Das Image von Computerspielen blieb umstritten. Zwar spielten die Deutschen damals weniger als ihre europäischen Nachbarn, jedoch war der Anteil eher unkritischer Spiele recht hoch – sogenannte „Ballerspiele“ hätten nur gut zehn Prozent des Marktes ausgemacht.97 Nicht nur der Erfolg des Spiels „Die Sims“ zeigt, wie wichtig Frauen als Zielgruppe in diesem Marktsegment geworden sind. Wie auch immer die Mehrheitsmeinung in Sachen Computerspiele aussehen mag – der Markt gab in der Zwischenzeit schon mal die Richtung vor: Experten erwarten auch weiterhin ein starkes Wachstum bei Onlinespielen, welches vor allem durch die kostenlose Verknüpfung von heimischer Konsole und Onlineservice realisiert wird.98 Damit dominierten auch weiterhin die marktorientierten und nicht die pädagogischen oder medien- bzw. kulturpolitischen Trends. Dass das Handy auch die Bildung und Dynamik neuer sozialer Netzwerke bestimmt und so eine entscheidende Rolle im Bereich der Medienkompetenz von Kindern und Jugendlichen spielt, war nicht überraschend. Jugendliche nutzten das Handy zur Etablierung und Ausdifferenzierung ihrer Peer Groups, beispielsweise bei der Suche nach der coolsten Party.99 Dabei waren sie die führenden „Impulsgeber“ beispielsweise in den Bereichen Entertainment und Kommunikation.100 Eine dermaßen technisch präformierte Systematik war vor dem Handy kaum denkbar. Trotzdem waren damals die Verhaltensweisen je nach Geschlecht durchaus unterschiedlich: So schrieben Frauen untereinander deutlich längere SMS als Männer – ein Beispiel für die Anpassung der technischen Rahmenbedingungen an die eigenen Bedürfnisse.101 (Heute schreibt freilich fast niemand mehr SMS, WhatsApp sei Dank.) Im Jahre 2005 wurde festgestellt, dass 1,7 Millionen Kinder Handys hatten,

96 heise online – Forscherin sammelt Belege für Suchtpotenzial von Videospielen. http://www. heise.de/newsticker/meldung/66254, abgerufen am 14.9.2007. 97 heise online – EA-Deutschland-Chef: Computerspiele haben kein schlechtes Image. http:// www.heise.de/newsticker/meldung/62955, abgerufen am 14.9.2007. 98 heise online – Marktforscher erwarten starkes Wachstum bei Online-Spielen. http://www.heise. de/newsticker/meldung/67934, abgerufen am 14.9.2007. 99 TP: Partykiller Handy? http://www.heise.de/tp/r4/artikel/21/21665/1.html, abgerufen am 18.7.2007. 100 heise online – Studie: Pubertät treibt Zukunftsmärkte voran. http://www.heise.de/newsticker/ meldung/64315, abgerufen am 22.7.2007. 101 heise online – Die Textlänge verrät das Geschlecht. http://www.heise.de/newsticker/meldung/ 66323, abgerufen am 22.7.2007.

48

1 Einführung in die Internetsoziologie

wobei die Altersgruppe von 10 bis 13 Jahren mit Abstand die größte war.102 Dabei waren die jährlichen Bekleidungskosten nicht weit von den anfallenden Handykosten entfernt (316 Euro bzw. ca. 300 Euro). Dies kennzeichnete den Stellenwert des multimedialen Begleiters für die Jugendlichen. Der Computer formt ebenfalls Sozialkontakte – schon seinerzeit auch bei Mädchen, die vor in den Jahren vor 2007 offenbar ein gänzlich anderes Verhalten gegenüber Internet, Onlinespielen und Co. zeigten.103 Das muss nun kein Nachteil sein: Was an [den beobachteten Jugendlichen] auffällt, ist ihre fehlende Angst vor Menschen. Die Sicherheit, mit der sie auf Fremde zugehen, die Offenheit, mit der sie von ihren Leben erzählen, wirken überraschend erwachsen. Wie Kinder, die in einem Hotel aufgewachsen sind und jeden Tag mit anderen Leuten am Speisetisch gesessen und geredet haben. Und die darüber nicht vergessen haben, dass das eigentliche Leben außerhalb des Hotels stattfindet.104

Wie possierlich jedoch manchmal versucht wurde, soziales Verhalten in geregelte Bahnen zu lenken, zeigte das Beispiel eines chinesischen Onlinespiels, welches kommunistische Werte und chinesische Kultur vermitteln sollte.105 Virtuelle Fußgänger davon abzuhalten, den Rasen zu betreten, ist wohl naturgemäß deutlich wenig spannender als heroische Rettungseinsätze mit SWAT-Teams oder das Erobern fremder Welten. Dass der Staat Medienkompetenz vermittelt und fördert, ist ja grundsätzlich gut und notwendig – sofern es nicht so endet wie seinerzeit in China. An den vorgefundenen Problemen im digitalen Raum war schon damals unsere schulische Bildung wohl nicht ganz unschuldig: „Lernt die heutige Generation besonders schlecht?“ Ja und nein. Dieses faktisch vorhandene Nichtlernen wird allzu rasch als Lernunfähigkeit ausgelegt. In seiner unendlichen Anschmiegsamkeit hat das pädagogische System schnell eine neue Forderung erhoben: Schülerinnen und Schülern sollen vor allem das Lernen des Lernens lernen, in die Lage versetzt werden, sich methodisch Zugänge zu Themen und Stoffen zu bahnen. Das klingt gut. Aber das ist gerade nicht „Jugend forscht“. Denn die behutsame Erschließung von Themen wird oft vorschnell mit dem Abklappern von methodischen Mustern verwechselt.106

Umgesetzt werde, so die damalige Feststellung, faktisch nur eine wilde Melange alter und neuer Ideen. Denn die

102 Kinder-Studie: Jährliche Handykosten von fast 300 Euro. http://www.golem.de/0508/39631. html; heise online – Generation Handy. http://www.heise.de/newsticker/meldung/65240, abgerufen am 18.7.2007. 103 (5) – Leben – ZEIT online. http://www.zeit.de/2005/41/Jugend_2fComputer_41, abgerufen am 18.7.2007. 104 (5) – Leben – ZEIT online. http://www.zeit.de/2005/41/Jugend_2fComputer_41, abgerufen am 18.7.2007. 105 China: Kommunistisches Online-Spiel soll Werte vermitteln. http://www.golem.de/0511/41522. html, abgerufen am 18.7.2007. 106 TP: Nervöse Schüler im Zeitalter der globalen Medien? http://www.heise.de/tp/r4/artikel/21/ 21374/1.html, abgerufen am 18.7.2007.

1.3 Erste Forschungsphase: 2005 bis 2007

49

„ausschließliche und tiefgehende Analyse eines Gedichtes, eines Romanabschnittes oder einer Dramenszene“ sei im Abitur des Jahres 2006 beispielsweise „völlig out“.107

Das ergebe höchstens „Barock meets Expressionismus“ und ähnelt so dem „Serienbau einer Automobilfabrik“.108 Damit wird das geschliffen, was zweifelsfrei auch im digitalen Raum ohne seine festgefügten Spielregeln, Rahmenbedingungen und realistischen gültigen Normen unabdingbar ist: Bildung, als intensives Versenken in das literarische oder filmische Kunstwerk, als phantasievolle Produktion von Text, Ton und Bild, als kreative Operation mit Logik, Grammatik und Algebra und als innovatorisches Potential gilt als ideologisches Verhalten von vorgestern.109

Dass dieses Problem allerdings den Anforderungen entgegenkommt, die die Jugendlichen von heute angeblich mitbringen, führte zu einem fatalen Schluss: Junge Leute von heute sind unkonzentriert, weil sie in dieser verrückten Mediengesellschaft groß geworden sind.110

Das war freilich nicht ganz von der Hand zu weisen: Eine Studie kam zu dem Schluss, dass die ständige Auseinandersetzung mit E-Mails, Instant Messengern und Handys den IQ deutlich senke – und zwar um bis zu zehn Punkte. Dass sich Menschen auch beim Essen oder bei privaten Anlässen digital unterbrechen lassen, wurde unter anderem damit begründet, dass es „Einsatz und Effizienz signalisiere“.111 Der Einsatz von Computern und die Nutzung des Internets haben also zu Verhaltensmustern geführt, die alle altbekannten Medien infrage stellen. Immerhin wurde hierbei auf die Unordnung des digitalen Raumes rekurriert: Die schulischen und außerschulischen Produkt-Splitter sind vor dem Hintergrund der Informationsüberflutung und der zahllosen Medienquellen und Medienformate als Prototypen, Modelle und Hohlformen wahrnehmbar, als Nachahmungen und Kopien, die aus dem Universum der tausend noch nicht geordneten Symbole und Formen scheinbar ohne Kontext, Sinn und Verstand herausgeschnitten sind.112

107 TP: Nervöse Schüler im Zeitalter der globalen Medien? http://www.heise.de/tp/r4/artikel/21/ 21374/1.html, abgerufen am 18.7.2007. 108 TP: Nervöse Schüler im Zeitalter der globalen Medien? http://www.heise.de/tp/r4/artikel/21/ 21374/1.html, abgerufen am 18.7.2007. 109 TP: Nervöse Schüler im Zeitalter der globalen Medien? http://www.heise.de/tp/r4/artikel/21/ 21374/1.html, abgerufen am 18.7.2007. 110 TP: Nervöse Schüler im Zeitalter der globalen Medien? http://www.heise.de/tp/r4/artikel/21/ 21374/1.html, abgerufen am 18.7.2007. 111 heise online – Infomanie vermindert IQ. http://www.heise.de/newsticker/meldung/59176, abgerufen am 14.9.2007. 112 TP: Nervöse Schüler im Zeitalter der globalen Medien? http://www.heise.de/tp/r4/artikel/21/ 21374/1.html, abgerufen am 18.7.2007.

50

1 Einführung in die Internetsoziologie

Das Mashup der Gegenwartskultur wurde so leider verkürzt zum Copy-and-PasteSyndrom degradiert, das die „jungen Gemüter“ voll erfasst hat. Gerade aus Sicht des Bastelnden Denkens ist so eine Denkweise fatal, unsinnig und in keinster Weise irgendwie hilfreich. Doch wie kann nun geholfen werden? Appelliert werden müsse allen Ernstes an den „Internet-Spirit der Jugendlichen“ (sic!) – was bei genauerem Hinsehen so skurril nun auch wieder nicht ist, denn der Autor erinnert noch an „Gameboy, Computer und Internet“ – das klingt nicht ganz nach dem gegenwärtigen Stand der Technik. Immerhin wurde noch etwas über die Versäumnisse der heutigen Bildungspolitik sinniert und an die geisteswissenschaftliche Bildung erinnert, die das autonome Subjekt im Mittelpunkt sah. Trotz alledem: Der Schüler in seiner Doppelrolle als Heranwachsender und junger Medienkonsument ist das aufregendste Medium, das die Gesellschaft für ihre eigenen Projektionen je hatte.113

Er war damals offenbar Opfer und Hoffnung zugleich – und scheint in dieser Rolle seitdem doch erstaunlich gut zu Recht zu kommen. Der alarmistische, sich durchschlängelnde Pessimismus mündete nach all den Irrungen und Wirrungen letztlich doch noch in der richtigen Spur, denn als gehaltvoll wurde die mediale Sensibilisierung der Schüler angesehen. Es solle beispielsweise um die „Auseinandersetzung mit anderen, um die kritische Erkenntnis der gesellschaftlich vermittelten Wirklichkeit und ihrer Widerspiegelung und Transformation in den Medien“114 gehen: Auf diese Weise werden die Bedingungen der Dekonzentration und der Konzentration der Wahrnehmung, der Phantasie und Imagination, des reflexiven Denkens, des Entscheidens und Wollens sowie des Handelns praktisch einholbar als Bedingungen der Arbeit an sich selbst.

Dies alles solle, so der damalige Ansatz, Teil des Alltagshandelns werden, Grundelement der Arbeit an sich selbst – das war aber erstens schon damals nicht neu, denn so war Identitätsarbeit grundsätzlich schon immer und zweitens ist es fern des Kulturpessimismus, der marktschreierisch warnen soll vor dem Verlust unserer Jugendlichen an Medien, die Stress und „Dekonzentration“ produzieren. Die „Dekonzentration“ ist also wiederum nichts anderes als Digitalität ohne Regeln, ohne Rahmen und ohne Richtlinien, „der Nullpunkt eines noch unbestimmten “Irgendwo/Jemals”, von dem alle radikale Produktivität, jede effektive Verknüpfung und jeder wirksame Austausch sowohl im pädagogischen und im professionellen Leben, überhaupt ihren Ausgang nehmen.“115 Damit war man aber keineswegs weiter als bisher – was nicht zuletzt am

113 TP: Nervöse Schüler im Zeitalter der globalen Medien? http://www.heise.de/tp/r4/artikel/21/ 21374/1.html, abgerufen am 18.7.2007. 114 TP: Nervöse Schüler im Zeitalter der globalen Medien? http://www.heise.de/tp/r4/artikel/21/ 21374/1.html, abgerufen am 18.7.2007. 115 TP: Nervöse Schüler im Zeitalter der globalen Medien? http://www.heise.de/tp/r4/artikel/21/ 21374/1.html, abgerufen am 18.7.2007.

1.3 Erste Forschungsphase: 2005 bis 2007

51

zu kritisierenden Aktualitätsgrad und der sehr engstirnigen pädagogischen Sichtweise gelegen haben mag, die hier die pessimistische Grundlinie vorgibt. Was fehlte, um den damaligen wie gegenwärtigen digitalen Herausforderungen zu begegnen, sind Regeln, Tiefgang, Detailschärfe, Offenheit, Optimismus, Reflexion und auch Respekt gegenüber den technisch und kulturell fitten Jugendlichen. Eine Umfrage ergab, dass in Deutschland 50 Prozent der Onlinespiele am Arbeitsplatz oder in der Schule gespielt werden. Hochgerechnet ergibt das einen Arbeitszeitausfall von 15 Millionen Stunden pro Jahr in Deutschland sowie einen volkswirtschaftlichen Schaden von gut 300 Millionen Euro. Zugleich wurde aber auch darauf hingewiesen, dass Spiele am Arbeitsplatz Arbeitszufriedenheit und Produktivität fördern.116 Ganz anders das Bild in den USA: hier ging eine Studie gleich von 178 Milliarden US-Dollar Schaden (umgerechnet ca. 130 Milliarden Euro) aus. Pro Woche hätten Angestellte ihren Internetzugang für insgesamt 5,9 Stunden zu anderen Zwecken genutzt als ursprünglich vorgesehen. Es ist schwierig, diese Ergebnisse richtig zu deuten: Mit dieser Zahl [178 Mrd. USD, Anm.] rührt der Spezialist für Netzwerk-Überwachsungssoftware Websense die Werbetrommel für die eigenen Produkte.117

Zwar wurde das Messverfahren dargelegt, jedoch verschließt sich die Vorgehensweise methodisch bedingt einer weiterreichenden Analyse, die zuvor bei den deutschen Zahlen zumindest angedeutet wurde: nicht erfasst wurden weiche Faktoren wie Kreativität, Arbeitszufriedenheit usw. Es ist also stets zu berücksichtigen, welche Folgen vollumfänglich feststellbar sind. Eine bloße Reduktion auf die finanziellen Schäden des Arbeitgebers wirkt wieder einmal präformierend in Richtung einer Postulierung von Wahrheit, die selektiv und subjektiv ist und der es an einem Gefühl für das Digitale mangelt, für Zusammenhänge und Einflüsse. Eine sehr umfangreiche Diskussion entstand damals durch die immer mal wieder auftauchenden Ideen der Politik, sogenannte „Killerspiele“ zu verbieten.118 Die

116 heise online – Studie: Millionenschaden durch Browsergames? http://www.heise.de/newsti cker/meldung/60468, abgerufen am 14.9.2007. 117 heise online – Netzwerküberwacher: Milliardenschäden durch privates Websurfen am Arbeitsplatz. http://www.heise.de/newsticker/meldung/61881, abgerufen am 14.9.2007. 118 Heise liefert allein für den Suchbegriff „Killerspiele“ (ohne jegliche Abwandlungen oder inhaltlich verwandte Suchen) zwischen September 2000 und Ende Juni 2007 eine Ergebnisliste mit 122 Artikeln. Wird die Suche ausgeweitet auf andere Medien, sieht es noch eindeutiger aus: für die vergangenen vier Wochen bietet Google News 73 Artikel, die das Wort „Killerspiele“ beinhalten (Tag der Stichprobe: 16. Juli 2007). Dass die Diskussion emotional geführt wird, ließe sich an vielerlei Beispielen zeigen. Ein eindrucksvolles Beispiel scheint aber auch hier Wikipedia zu sein, wo die Diskussion der Wikipedianutzer über den Artikel „Killerspiel“ und seine inhaltliche Ausgestaltung ausgedruckt 20 DIN-A4-Seiten ergäbe. Zudem ist der Artikel aufgrund zahlreicher Vandalismusattacken nicht mehr editierbar (vgl. Diskussion: Killerspiel. http://de.wikipedia.org/wiki/Diskussion: Killerspiel, abgerufen am 14.9.2007).

52

1 Einführung in die Internetsoziologie

Politiker überboten sich mit plakativen Forderungen, nachdem es 2002 in Erfurt, 2006 in Emsdetten und 2007 in Tessin zu schweren Gewalttaten Jugendlicher kam. Die Diskussion, die sich in der Öffentlichkeit seit Beginn der Wahrnehmung digitaler „Killerspiele“ ereignete, soll an dieser Stelle nicht wiedergegeben werden. Was letztlich – jenseits der Emotionen, fest verankert im Bereich von Logos und Ratio – festgehalten werden kann, ist, dass es zwar große methodische Schwierigkeiten gab und weiterhin gibt, Mediengewalt und Medienwirkung zu fassen, jedoch auch die altbekannten Politikerthesen und -phrasen keinesfalls einfach zu bestätigen sind. Michael Kunczik kommt beispielsweise zu folgendem Schluss: Letztlich bestätigen aktuelle Forschungsbefunde die schon länger gültige Aussage, dass manche Formen von Mediengewalt für manche Individuen unter manchen Bedingungen negative Folgen nach sich ziehen können.119

Damit wurde klar: Diese Folgerung aus der bisherigen Forschung zum Thema „Medien und Gewalt“ entspricht nicht dem Bedürfnis weiter Teile der Öffentlichkeit nach eindeutigen Antworten auf die Frage nach der Gefährlichkeit von Mediengewalt. Jede einfache Antwort auf die komplexe Entstehung von Gewalt und die Rolle der Medien dabei muss vor dem Hintergrund wissenschaftlicher Befunde jedoch als unseriös betrachtet werden.120

Jugendmedienschutz ist und bleibt im Internet zugleich eine „besondere Herausforderung“.121 Besonders die Unkenntnis über die digitalen Spielregeln, gepaart mit Unerfahrenheit sind gefährlich. Fakt ist eben, dass „dem flexiblen Medium Internet die Aufsicht ständig hinterherjagt“.122 Das Internet ist für die Jugendmedienschutzverantwortlichen zu schnell. Die trendsetzenden Szenen werden oftmals belächelt oder gar nur geduldet, jedoch keineswegs in einen fruchtbaren Dialog eingebunden, der den Realitäten entsprechen würde. Kinder und Jugendliche werden in Chatrooms nicht nur von Außenstehenden, sondern auch von (gleichaltrigen) Bekannten (sexuell) belästigt. Die vom Schulhof bekannten (und oftmals schöngeredeten) „Gemeinheiten“ fügen sich Heranwachsende somit auch im digitalen Raum zu. Gewichtiger Grund für die Belästigungen: die fehlende soziale Kontrolle im Chatroom.123 Neben dem Element der Kompetenz-

119 http://www.bmfsfj.de/RedaktionBMFSFJ/Abteilung5/Pdf-Anlagen/kurzfassung-medien-und-ge walt,property=pdf,bereich=,rwb=true.pdf, abgerufen am 14.9.2007. 120 http://www.bmfsfj.de/RedaktionBMFSFJ/Abteilung5/Pdf-Anlagen/kurzfassung-medien-undgewalt,property=pdf,bereich=,rwb=true.pdf, abgerufen am 14.9.2007. 121 heise online – Jugendmedienschutz im Internet eine “besondere Herausforderung”. http:// www.heise.de/newsticker/meldung/59069, abgerufen am 14.9.2007. 122 heise online – Jugendmedienschutz im Internet eine “besondere Herausforderung”. http:// www.heise.de/newsticker/meldung/59069, abgerufen am 14.9.2007. 123 heise online – Jugendliche werden im Internet auch von Bekannten sexuell bedrängt. http:// www.heise.de/newsticker/meldung/59747, abgerufen am 14.9.2007.

1.3 Erste Forschungsphase: 2005 bis 2007

53

vermittlung, die hier hilfreich wäre und den Jugendlichen wie auch den Erwachsenen entsprechende „Spielregeln“ an die Hand geben könnte, gibt es bekanntlich auch das Element der Repression. Und so versuchten Staatsanwälte, die Chaträume von Yahoo stärker unter die Lupe zu nehmen. Yahoo schloss aufgrund der staatlichen Attacken 70.000 Chaträume, die aufgrund ihres Raumnamens aufgefallen waren. Ziel war der Schutz von Minderjährigen vor Erwachsenen, die sexuelle Interessen durchsetzen wollten. Das war technisch wie sozial keine große Hürde: einerseits waren die Chatraumnamen recht eindeutig (beispielsweise „girls13 & up for much older men“), andererseits sei „ein verdeckter Ermittler, der sich als 14 Jahre altes Mädchen ausgegeben habe, (. . .) in solchen Chaträumen mit sexuellen Angeboten überhäuft worden“.124 Einfache Maßnahmen sind jedoch meist nur der erste Schritt und sorgen dafür, dass der Hase-und-Igel-Wettlauf einerseits erst so richtig in Schwung kommt, andererseits aber auch eine Professionalisierung einsetzt, die Trittbrettfahrer und Amateure zunehmend rausdrängt. Der repressive Druck nimmt zu. Dies war seit 2007 zu beobachten – begleitet von einer Professionalisierung der Täter. Internet-Rollenspiele sind schon lange kein virtuelles Vergnügen mehr: inzwischen sind sie ein knallhartes Geschäft, sowohl als Gegenstand als auch als Austragungsort von „ökonomischen Schlachten“.125 Spiele werden nicht mehr nur hunderttausendfach verkauft (oder schlicht kopiert), sondern auch über die häufig notwendigen Monatsabos (zur Teilnahme am Onlinespiel) kommt zusätzliches Geld in die Kasse des Herstellers. Auch der Verkauf der eigenen Spielleistung, sprich: das Tunen von Avataren und das anschließende Versilbern dieser digitalen Spielfiguren ist längst ein großes Geschäft, welches 2007 vor allem in China professionell bis ausbeuterisch betrieben wurde.126 Dass beispielsweise von Blizzard, der Entwicklerfirma von „World of Warcraft“, vieles versucht wurde, um diesen Handel zu unterbinden, war seinerzeit deshalb auch nicht überraschend. Schnell können jedoch Grenzen überschritten werden im Kampf gegen den Betrug: Blizzard behält sich in seinen Nutzungsbedingungen von World of Warcraft das Recht vor, Informationen einzuholen, um „Cheatern“ auf die Spur zu kommen. Für helle Aufregung in der Community sorgt jedoch der Umstand, dass sich die Programmdatei des Spiels in den Verzeichnissen des Internet Explorers umsieht. Dabei wird auch auf den Cache, die Cookies und den Verlauf zugegriffen.127

124 heise online – Yahoo will Kinderschutz in Chaträumen verbessern. http://www.heise.de/news ticker/meldung/64872, abgerufen am 14.9.2007. 125 Unterhaltungsindustrie: Die Kapitalisten von Kalimdor. http://www.spiegel.de/spiegel/ 0,1518,363363,00.html, abgerufen am 14.9.2007. 126 YouTube – World of Warcraft – BBC News Coverage, Chinese Gold Farming. http://www.you tube.com/watch?v=qMS8K_Swu10, abgerufen am 14.9.2007. 127 Spyware in World of Warcraft? http://www.golem.de/0508/39857.html, abgerufen am 18.7.2007.

54

1 Einführung in die Internetsoziologie

Die Rede war also schnell von Spyware und entsprechenden Datenschutz- und Datensicherheitsverletzungen beim vermeintlich harmlosen Spiel. Dabei müssen solcherlei Probleme noch nicht einmal beabsichtigt sein und können trotzdem für massenhaften Wirbel sorgen. „World of Warcraft“ erfuhr 2005 seine erste größere „Blutseuche“, die durch einen Programmierfehler ausgelöst wurde und zahlreiche Spielfiguren das „Leben“ kostete.128 Wie sehr so eine Seuche, die starke (sprich: gesunde) Spielfiguren überleben konnten und für viele andere durch sogenannte Game Masters in der rettenden Quarantäne endete, an wahre Begebenheiten der Menschheitsgeschichte erinnert, zeigte auch die entsprechende Konklusion: (. . .) [Die] denkwürdigsten Geschichten schreibt nun mal der Zufall – in der wahren ebenso wie in der virtuellen Welt.129

Bedauerlich ist dabei, dass leider immer noch zu viel Zufall im digitalen Raum vorherrscht. Von einer ausreichenden Professionalisierung konnte nur selten die Rede sein, ganz unabhängig von den beobachteten Fällen. Die „deutsche Digitalisierung“ gleicht immer noch, auch 12 Jahre nach den Konklusionen aus Digitale Identitäten, einer Herausforderung, der nicht ausreichend begegnet wird. Der iPod ist der Walkman der 2000er Jahre, ein digitaler Wegbegleiter, der „so manches Leben verändert“130 hat. Gemeint sind damit beispielsweise die Leben von Designchefs, denn Gucci und Prada boten beispielsweise iPod-Schutzhüllen an. Der inzwischen verstorbene Modemacher Karl Lagerfeld besaß angeblich rund 70 iPods und sorgte so für entsprechende mediale Aufmerksamkeit. Zusätzlich überhäuften Zubehörhersteller die stolzen Besitzer mit allerlei (un)brauchbaren Gadgets: „Seit dem Tamagotchi hat kein elektronisches Gerät solch einen Pflegetrieb ausgelöst“.131 Jenseits des Hypes versteckte sich im Geräteinnern jedoch recht gewöhnliche Technik, die den Boom dieses Gerätes allein keineswegs rechtfertigen konnte. Doch das schadete dem Hype ja nicht – im Gegenteil: mittlerweile wurden die Meldungen schon deswegen interessant, weil sie nur irgendwie mit dem iPod in Verbindung zu bringen waren. So wurde beispielsweise auch Queen Elizabeth II zu den iPod-Fans addiert, obwohl dies nicht bestätigt werden konnte.132 Michael Bull sah den wahren Grund für den Hype jedoch in der „Ausblendung“ der Welt, da das Gerät eben kein Handy sei und somit nicht zur Kommunikation zwinge.133 Ein wunderbares Beispiel

128 TP: Die Blutseuche von W.o.W. http://www.heise.de/tp/r4/artikel/20/20986/1.html, abgerufen am 18.7.2007. 129 TP: Die Blutseuche von W.o.W. http://www.heise.de/tp/r4/artikel/20/20986/1.html, abgerufen am 18.7.2007. 130 Leben – ZEIT online. http://www.zeit.de/2005/34/I-Pod_34, abgerufen am 18.7.2007. 131 Leben – ZEIT online. http://www.zeit.de/2005/34/I-Pod_34, abgerufen am 18.7.2007. 132 Leben – ZEIT online. http://www.zeit.de/2005/34/I-Pod_34, abgerufen am 18.7.2007. 133 Leben – ZEIT online. http://www.zeit.de/2005/34/I-Pod_34, abgerufen am 18.7.2007.

1.3 Erste Forschungsphase: 2005 bis 2007

55

für die Besonderheit dieses Beispieles im Bereich der intrinsischen Motivation lautet wie folgt: Ein unscheinbares Detail verstärkt die Hörigkeit: Der iPod hat keine Stopp-Taste. Es gibt lediglich einen Knopf für die Alternative „Play/Pause“. So wird die Musik immer nur vorübergehend unterbrochen – und der iPod auch dann zum Unruheherd, wenn er gerade keine Musik abspielt.134

Auf der gesamten Ebene wurde hier von Apple Hypebildung betrieben: fern der technischen Ratio und Perfektion anderer Geräte, die günstiger und leistungsfähiger sind, nah dran am Individualisierungstrend unserer Zeit. Apple baute auf dem bestehenden Image auf und eroberte so sympathisch und nonchalant eine neue Branche. Dass dabei nichts dem Zufall überlassen wurde, zeigt eben auch die fehlende StoppTaste und damit die These, dass eine Analyse von Entwicklungen immer nur so gut ist wie ihre Auflösung auf binärer Ebene, sprich: die Stopp-Taste hier nicht einfach übergangen werden darf.135 Die Frage, was nach dem iPod kommt, war seinerzeit völlig offen. Einige setzten auf den Video-iPod, der auch dank „Porncasting“ (angelehnt an das bereits bekannte „Podcasting“136; die Distribution von Pornographie im Videoformat) seinen Durchbruch erleben sollte.137 Doch das Videovergnügen hielt sich auf dem Minibildschirm recht stark in Grenzen. Realistischer waren meinerseits (und seitens zahlreicher Kolleginnen und Kollegen) wohl eher Einschätzungen, die auf die zunehmende Vernetzung setzen – also dem iPod-Hype und der Postulierung von fehlender Kommunikation als Erfolgsgrund entgegenlaufen und sich in der Tat im Smartphone manifestierten: Das iPhone schickte sich ja derzeit an, genau in diese Kerbe zu schlagen. Es bietet all das, was der iPod auch bietet – plus Kommunikation. Die aber dafür hip und chic. Damit stand das iPhone dem gegenwärtigen Trend diametral entgegen. Apple sieht erst jetzt, in 2019, ein Ende dieser Entwicklung und wird zunehmend auf Content statt auf Hardware setzen. Die Berichterstattung über gegenwärtige Hacks und Cracks war – wenig überraschend – technisch ausgerichtet. Aufgrund der Vermischung von Social Engineering und technischer Attacke soll Phishing hier als Hauptbeispiel dienen.138 Es stellt im Bereich des Identitätsdiebstahles den wohl bedeutendsten Teil dar, wobei der Identitätsdiebstahl selbst eines der größten Internetprobleme ist. Phishing wird vor allem aus Profitgier betrieben, weniger aus Geltungsdrang oder anderen nichtfinanziellen Beweggründen. Diese Schlussfolgerung ergab sich sowohl aus der Sekundäranalyse

134 Leben – ZEIT online. http://www.zeit.de/2005/34/I-Pod_34, abgerufen am 18.7.2007. 135 Das ist wohl auch nicht weniger innovativ als ein iPod für Queen Elizabeth II. 136 Podcast. http://en.wikipedia.org/wiki/Podcast, abgerufen am 18.7.2007. 137 TP: Sofortige (Selbst-) Befriedigung immer und überall? http://www.heise.de/tp/r4/artikel/21/ 21318/1.html, abgerufen am 18.7.2007. 138 Language Log: Phishing. http://itre.cis.upenn.edu/~myl/languagelog/archives/001477.html, abgerufen am 18.7.2007.

56

1 Einführung in die Internetsoziologie

anderer Studien139 zu diesem Thema und der dazugehörigen Berichterstattung als auch aus den hier nun folgenden exemplarischen Fällen.140 Diese dokumentierten Fälle, ihre Analyse sowie vielversprechende hilfreiche Gegenmaßnahmen aus der Perspektive des Jahres 2007 sollen nun vorgestellt werden. Grundsätzlich der Klassiker im Phishing-Bereich sind gefälschte Emails. Sie sollen stets Authentizität vermitteln und kommen beispielsweise vom „eBay Security Center“, der (vermeintlich) eigenen Bank oder einer Partnersuche-Plattform. Solche Mails sollen dem Empfänger vortäuschen, dass ein plausibler Partner mit ihm kommuniziert.141 Doch mit simpler Absenderfälschung und entsprechender Mailgestaltung ist die Phantasie der Angreifer noch lange nicht erschöpft: von Hinweismails zum Hurrican Katrina über Rechnungen für Flugtickets bis zu Nacktfotos von Stars und Sternchen reicht(e) die Bandbreite – eine zunehmende Professionalisierung und Spezialisierung sowie Fokussierung auf einzelne Firmen oder Personen ist auch heute weiterhin festzustellen. Auch Links, die über Messenger eintrudeln, können entsprechend gefährlich sein. Denn in Wirklichkeit hat es der Absender stets nur auf die Daten des Empfängers abgesehen und bietet freilich weder echte Rechnungen noch nackte Tatsachen. Diese Daten landen nach erfolgter Eingabe meist auf ausländischen Servern oder Email-Postfächern. Ziel sind dabei nicht nur Ebay- und andere Online-Shopper, sondern eben vor allem Bankkunden. In Deutschland waren in den Jahren des Projekts Digitale Identitäten vor allem Kunden der Commerzbank,142 der Postbank,143 der Sparkasse144 und der VR-Bank145 Ziel der Datendiebe. Und auch international waren und sind straff organisierte Banden Urheber solcher Angriffe. Aus einem internen Papier, welches auf einer Mailingliste verteilt wurde, ging folgendes Szenario hervor: eine IP-Adresse samt dazugehörigem Server führte zu Verzeichnissen, die alphabetisch sortiert und jeweils einer Bank zugeordnet waren. „/a/“ stand für Alliance Leicester, „/b/“ für Barclays, „/c/“ für Citibank usw. Insgesamt offenbarten sich so 14 Fake-Websites, die international ausgerichtet waren.

139 Beispielsweise Lagebericht2005.pdf. http://www.bsi.bund.de/literat/lagebericht/lagebe richt2005.pdf, abgerufen am 20.7.2007. 140 heise online – Zotob-Würmer: Geld war das Motiv. http://www.heise.de/newsticker/meldung/ 63350; heise online – Symantec: Profitgier ist Hauptmotiv der Angriffe. http://www.heise.de/newsti cker/meldung/64080, jeweils abgerufen am 18.7.2007. 141 heise online – Phishing-Mails mit Paßworteingabefeld. http://www.heise.de/newsticker/mel dung/59321, abgerufen am 18.7.2007. 142 heise online – Commerzbank-Kunden Ziel von Phishern. http://www.heise.de/newsticker/mel dung/59766, abgerufen am 18.7.2007. 143 heise online – Postbank schon wieder im Visier der Phisher. http://www.heise.de/newsticker/ meldung/59370; heise online – Neuer Phishing-Trick zielt auf Postbankkunden. http://www.heise. de/newsticker/meldung/61003, jeweils abgerufen am 18.7.2007. 144 heise online – Sparkassen-Kunden im Visier der Phisher [Update]. http://www.heise.de/newsti cker/meldung/60540, abgerufen am 18.7.2007. 145 heise online – VR-Bank-Kunden im Visier der Phisher. http://www.heise.de/newsticker/mel dung/61241, abgerufen am 18.7.2007.

1.3 Erste Forschungsphase: 2005 bis 2007

57

Doch nicht nur die direkte Eingabe, die mittels Social Engineering ergaunert wird, fällt in den Bereich Phishing. Auch Keylogger sind ein klassisches und sehr beliebtes (technisches) Mittel, um Accountdaten auszuspähen – bereits für das Jahr 2005 zählte eine Sicherheitsfirma über 6000 verschiedene Ausführungen der Tastaturspione.146 Ebenso können Websites mit Frames Daten untergejubelt werden, die nicht zum originären Inhalt gehören, so dass beispielsweise auch Formular- oder Eingabefelder gefälscht sein können.147 Die Vertrauenswürdigkeit von bestimmten Websites wie Google kann ausgenutzt werden, indem eine eventuell vorhandene Weiterleitungsfunktion einer Site kompromittiert wird, um eine betrügerische Zieladresse zu verschleiern.148 Und auch die Anfertigung von „neuen“ Kredit- und ecKarten, um letztlich am Geldautomaten die widerrechtliche Abhebung vorzunehmen, ist eine Möglichkeit. Die Daten werden gephisht und dann auf „White Cards“ kopiert, mit denen an bestimmten Geldautomaten Geld problemlos (d. h. ohne Echtheitsprüfung der Karte) abgehoben werden kann.149 Um an ihr Geld zu gelangen, setzten Phisher in der Vergangenheit auch gerne Privatpersonen ein, denen eine Nebentätigkeit mit grandiosen Verdienstmöglichkeiten versprochen wird. Diese Privatpersonen erhalten Überweisungen und dürfen für die Weiterleitung des Geldes einen Teil davon einbehalten, quasi als Honorar. Diese Tätigkeit ist jedoch strafbar, da es sich schlicht um Geldwäsche handelt. Die Weiterleitungen fanden häufig per „Western Union“ statt, einem Geldtransferdienst, der es aufgrund seiner vergleichbar lockeren Bestimmungen ermöglichte, weltweit Geld ohne großes Identifikationsrisiko zu empfangen.150 Um die eigene Kompetenz zu testen, gibt es beispielsweise „Phishing IQ Tests“, bei denen sich herausstellte, dass nicht jeder User sattelfest ist: Die Ergebnisse zeigen, dass zwar 83 Prozent der Teilnehmer Phishing-E-Mails erkennen, 52 Prozent scheitern derzeit jedoch, eine legitime E-Mails (sic!) zu identifizieren. Vor neun Monaten war es noch anderherum: 81 Prozent erkannten die echten Mails, aber nur 68 Prozent die Betrugs-Mails.151

146 heise online – Phisher setzen zunehmend auf Keylogging-Schädlinge. http://www.heise.de/ newsticker/meldung/59316; heise online – Bedrohung durch Keylogger unterschätzt. http://www. heise.de/newsticker/meldung/66308, jeweils abgerufen am 18.7.2007. 147 heise online – Phishing mit Frames reloaded. http://www.heise.de/newsticker/meldung/ 60297, abgerufen am 18.7.2007. 148 heise online – Phishing mit Google. http://www.heise.de/newsticker/meldung/68257, abgerufen am 18.7.2007. 149 heise online – Phisher entdecken Geldautomatenkarten. http://www.heise.de/newsticker/mel dung/62369, abgerufen am 18.7.2007. 150 heise online – Polizei warnt vor Mithilfe bei Geldwäsche von Phishing-Betrügern. http://www. heise.de/newsticker/meldung/62437, abgerufen am 18.7.2007. 151 heise online – Phishing-IQ-Test: Finde die echten und falschen Mails. http://www.heise.de/ newsticker/meldung/60345, abgerufen am 18.7.2007.

58

1 Einführung in die Internetsoziologie

Der Schaden, den Phisher anstellen, war und ist enorm: geschätzte 6,1 Milliarden Phishing-Emails werden weltweit pro Monat verschickt, die sich im Januar 2006 auf 15451 individuelle Phishingattacken sowie 7484 Phishingwebsites aufteilten. Der Durchschnittschaden im „Erfolgsfalle“ betrug 1200 US-Dollar.152 Im Jahre 2005 wurde der Missbrauch von Bank-Zugangsdaten mit einem Schaden von 4,5 Millionen Euro beziffert.153 Auch die Staatsanwaltschaft Berlin sowie das Innenministerium von Brandenburg wiesen in den vergangenen Jahren steigende Fallzahlen aus.154 Die Behörden verstehen verständlicherweise bei dieser Art von digitaler Kriminalität keinen Spaß.155 Der US-Bundesstaat Kalifornien beispielsweise hat Phishing unter Strafe gestellt: Nach dem neuen Gesetz ist es verboten, durch Vortäuschen einer falschen Identität andere Personen über eine Webseite, E-Mail oder anderem Weg über das Internet dazu zu verleiten, persönliche Informationen wie Sozialversicherungsnummern, Kreditkartennummern, Zugangsdaten oder auch biometrische Daten zu verraten.156

Die scharfe Vorgehensweise lässt sich auch durch die größeren Probleme mit Identitätsdiebstahl in den USA erklären: geschätzte sechs Millionen Haushalte haben dort bereits damals Erfahrung mit dieser Art des digitalen Verbrechens gemacht. Darunter litt auch das Vertrauen in das Internet: nur 21 Prozent der USBürger gaben bei einer Umfrage an, dass sie ihre Kreditkartendaten sicher aufgehoben glauben.157 (Ereignisse wie der Verlust von fast vier Millionen Kundendatensätzen bei der Citibank158 trugen freilich auch nicht gerade zum Vertrauensausbau bei, auch wenn hier nicht von einem Diebstahl, sondern von Schludrigkeit ausgegangen wird – was die Sache freilich nicht besser macht. Der damals größte bekanntgewordene Schadensfall dürfte wohl der Diebstahl von sagenhaften 40 Millionen Kreditkarten-Datensätzen beim Dienstleister CardSystems gewesen sein.159) Auch

152 SonicWALL Phishing IQ Test. http://www.sonicwall.com/phishing/, abgerufen am 18.7.2007. 153 heise online – Millionenschaden durch Phishing. http://www.heise.de/newsticker/meldung/ 65252, abgerufen am 18.7.2007. 154 heise online – Staatsanwaltschaft Berlin: Internet-Straftaten nehmen deutlich zu. http://www. heise.de/newsticker/meldung/67521; heise online – Schönbohm: Internet-Kriminalität angestiegen. http://www.heise.de/newsticker/meldung/60415; jeweils abgerufen am 18.7.2007. 155 heise online – Phishing: US-Amerikaner muss für sechs Jahre ins Gefängnis. http://www.heise. de/newsticker/meldung/61215; heise online – Estnische Phisher festgenommen. http://www.heise. de/newsticker/meldung/66173; jeweils abgerufen am 18.7.2007. 156 heise online – Kalifornien verbietet Phishing. http://www.heise.de/newsticker/meldung/ 64552, abgerufen am 18.7.2007. 157 heise online – Liberty Alliance startet Initiative gegen Identitätsdiebstahl. http://www.heise. de/newsticker/meldung/60602, abgerufen am 22.7.2007. 158 heise online – 3,9 Millionen Citigroup-Kundendatensätze verschwunden. http://www.heise. de/newsticker/meldung/60365, abgerufen am 23.7.2007. 159 heise online – 40 Millionen Kreditkarten-Daten gestohlen. http://www.heise.de/newsticker/ meldung/60767, abgerufen am 23.7.2007.

1.3 Erste Forschungsphase: 2005 bis 2007

59

andere Studien sehen in Phishing und Kreditkartendiebstählen die wichtigsten Ursachen für den digitalen Vertrauensverlust.160 Neben rechtlichen Maßnahmen wird stets auch an technischen Empfehlungen gearbeitet, die die User beherzigen sollen. Der Schwerpunkt lag damit eindeutig im Bereich der Verhaltensmaßregeln für User.161 Schützen sollte man sich, so die damalige Empfehlung (die sicherlich – in aktualisierter Form – auch heute noch gilt), durch die Beachtung einiger weniger Sicherheitsregeln: Wer auf Nummer sicher gehen will, sollte also seine hosts-Datei im Verzeichnis c:\windows \system32\drivers\etc (für Windows 2000 und XP) überprüfen und mit Schreibschutz versehen, um sich auch vor Pharming-Angriffen zu schützen. Außerdem sollte man die Internetseite seiner Bank nur über direkte Eingabe der Adresse beziehungsweise durch Bookmarks aufrufen und beachten, dass Banken laut eigenem Bekunden niemals die Passwörter oder PINs und TANs per E-Mail anfordern würden.162

Enthält die hosts-Datei lediglich die IP-Adresse 127.0.0.1, also den localhost und ist ansonsten blank, wurde sie nicht durch Pharmer163 manipuliert. Eine weitere Schutzmöglichkeit bieten auch heutzutage spezielle Tools, die Sites identifizieren und verifizieren können.164 Diese machen allerdings im Wesentlichen das Gleiche wie der gesunde Menschenverstand, denn Phishingversuche zeichnete bisher vor allem aus, dass sie auf die Leichtsinnigkeit bzw. Dummheit der User zielten. Hier gilt in Sicherheitskreisen das Motto: Der Benutzer mag keine Passwörter, der Sicherheitsexperte mag keine Benutzer.165

Einfache Regeln sowie gesundes Misstrauen helfen jedoch in vielen Bereichen weiter.166 Ein kurioses Angebot hingegen machte die israelische Firma Blue Security genervten Spamopfern: sie bot an, mit technischen Mitteln die in Spammails 160 heise online – Vertrauen der US-Bürger in Online-Geschäfte lässt nach. http://www.heise.de/ newsticker/meldung/60979, abgerufen am 22.7.2007. 161 heise online – Vertrauen der US-Bürger in Online-Geschäfte lässt nach. http://www.heise.de/ newsticker/meldung/60979, abgerufen am 22.7.2007. 162 heise online – Postbank-Kunden erneut im Visier der Phisher. http://www.heise.de/newsti cker/meldung/61365, abgerufen am 18.7.2007. 163 Pharming. http://de.wikipedia.org/wiki/Pharming, abgerufen am 6.8.2007. 164 heise online – Stanford-Professoren stellen Phishing-Schutz vor. http://www.heise.de/newsti cker/meldung/62393, abgerufen am 18.7.2007. 165 heise online – CAST-Forum Internet-Kriminalität: Der Mensch bleibt das schwächste Glied. http://www.heise.de/newsticker/meldung/82576, abgerufen am 18.7.2007. 166 SANS Institute – SANS Top 20 Internet Security Attack Targets (2006 Annual Update). http:// www.sans.org/top20/#h2; heise online – Goldene Regeln für Suchmaschinennutzer. http://www. heise.de/newsticker/meldung/68357; heise online – Mobile Devices: Bequemer Datentransfer mit Nebenwirkungen. http://www.heise.de/newsticker/meldung/68504; heise online – Tricks von Online-Betrügern abwehren. http://www.heise.de/newsticker/meldung/64951, jeweils abgerufen am 18.7.2007.

60

1 Einführung in die Internetsoziologie

beworbenen Websites zu überlasten, damit der Spamversand eingestellt wird.167 Doch die Firma wurde von gigantischen Spamattacken ihrer Gegner letztlich in die Knie gezwungen und zog ihr Angebot zurück.168 Das permanente Kräftemessen endete in diesem Falle 1:0 für die Spamcommunity. Aggressive Anti-SpamAngebote fordern durchaus auch aggressive Angriffe heraus – die defensive Bekämpfung von Spam durch den User hat sich (leider) bisher als beste Strategie erwiesen. Auch die Banken versuchten, sich mit neuen Strategien gegen Phisher zu wehren. So führte die Postbank (wie andere Banken auch) seinerzeit das iTAN-Verfahren ein, bei dem gezielt eine bestimmte Transaktionsnummer abgefragt wird.169 Damit sank die Brauchbarkeit einer ergaunerten Transaktionsnummer auf ein Prozent,170 da nicht mehr eine Gleichwertigkeit bestand wie bei nichtindizierten TAN-Nummern, die frei ausgewählt werden konnten. Ein Phisher müsste bei seinem unerwünschten Überweisungsversuch nach exakt der iTAN gefragt werden, die er erbeutet hat.171 Die Freude über dieses neue, „sichere“ Verfahren hielt allerdings nicht lange: es wurden schnell Szenarien diskutiert, wie man auch dieses Verfahren umgehen könnte. So kann sich beispielsweise ein Phisher zwischen den User und die Bank schalten und so die Kommunikation beeinflussen: Versucht das Opfer nun eine Überweisung anzustoßen, so tut es der Phisher ihm gleich – wiederum bei der echten Bank. Das Opfer erhält in diesem Fall von der Bank aber keine Nachfrage nach einer iTAN. Stattdessen fragt die Bank den Phisher nach der iTAN xyz für dessen Überweisung. Da er die nicht kennt, gaukelt er nun seinem Opfer eine Nachfrage der Bank vor. In der Annahme, die Nachfrage sei für seine Überweisung, tippt das Opfer die gewünschte iTAN ein, die anschließend beim Phisher landet. Damit kann der Betrüger seine Überweisung erfolgreich beenden.172

Drei Monate nach dieser Diskussion wurde die Funktionsfähigkeit dieser Idee bewiesen.173 Auch über den Umweg HBCI konnte das iTAN-Verfahren umgangen werden.174

167 heise online – Selbstjustiz-Software für Spam-Opfer. http://www.heise.de/newsticker/mel dung/62016, abgerufen am 18.7.2007. 168 heise online – Spammer zwingen Anti-Spam-Start-up in die Knie. http://www.heise.de/newsti cker/meldung/73241, abgerufen am 18.7.2007. 169 Postbank: Indizierte TAN gegen Phishing. http://www.golem.de/0508/39702.html, abgerufen am 20.7.2007. 170 Da eine TAN-Liste stets 100 Nummern beinhaltet, ergibt sich durch die Indizierung die Quote von einem Prozent. 171 heise online – Postbank mit neuem TAN-System gegen Phishing. http://www.heise.de/newsti cker/meldung/62558, abgerufen am 18.7.2007. 172 heise online – iTAN-Verfahren unsicherer als von Banken behauptet. http://www.heise.de/ newsticker/meldung/63249, abgerufen am 18.7.2007. 173 heise online – Erfolgreicher Angriff auf iTAN-Verfahren. http://www.heise.de/newsticker/mel dung/66046, abgerufen am 18.7.2007. 174 heise online – Hintertür im iTAN-Procedere der Postbank [Update]. http://www.heise.de/news ticker/meldung/66652, abgerufen am 18.7.2007.

1.3 Erste Forschungsphase: 2005 bis 2007

61

Mithilfe der sich nahezu allumfassend ausbreitenden „Supermacht“175 Google zu hacken bzw. diese für eigene kreative Zwecke zu nutzen, ist stets sehr beliebt gewesen. Die Bandbreite reicht(e) hier vom Gmail-Filesystem176 über besondere Tools wie Wikto177 bis hin zur Google Hacking Database (GHDB),178 die anhand bestimmter Suchbegriffe aufzeigt, wie man gezielt nach Schwachstellen von Onlinegeräten suchen kann. Dies sind allerdings noch recht einfache Beispiele für die Ausnutzung und Manipulation von Google. Deutlich komplexer wird es, wenn aufgrund der Vertrauensstellung, die Google lange Zeit genoss (und die seit über einem Jahrzehnt schon zunehmend kritischer reflektiert wird) auch betrügerische Manipulationen möglich sind. So wurde beispielsweise auf der Mailingliste Full Disclosure eine mögliche Vorgehensweise vorgestellt: An attacker can take advantage of the Google’s WMLProxy Service by sending a HTTP GET request with carefully modified URL of a malicious nature. Such request hides the attacker’s IP address and may slow down future investigations on a successful breakin since Google’s Services are often over-trusted.179

Dabei ist das Prinzip sehr einfach: die Adresse http://ipchicken.com wurde hier verschleiert, indem sie durch den WMLProxy180 von Google geschleust wurde und damit folgendermaßen aussah: http://wmlproxy.google.com/wmltrans/u=ipchi cken.com. Bei einer IP-Nummern-Überprüfung kam allerdings die IP-Nummer 64.233.166.136 heraus, welche zu Google Inc. gehört. Da Google in den meisten Netzen nicht auf irgendeiner Blacklist stehen dürfte (und auch nicht immer mitprotokolliert wird), würden so auch bösartige Adressen und Vorhaben durchschlüpfen können (und ggf. unerkannt bleiben). Kommunikation in ihren verschiedensten Ausprägungen – das war und ist ein bedeutendes Thema, wobei auch hier der Schwerpunkt zum Zeitpunkt der ersten Analyse (2007) im Bereich Antiterrorkampf/Strafverfolgung und den dazugehörigen technischen Maßnahmen lag. Es wurde beispielsweise über die Einführung von Abhörschnittstellen für VoIP-Telefonate berichtet, wobei streng genommen nur der Signalisierungspart eines VoIP-Gesprächs gemeint war: die Datenpakete, also das eigentliche Gespräch, wandern ohne zentralen Server „nomadisierend“ durchs Internet und sind daher – im Falle eines Abhörwunsches – eine Angelegenheit für den

175 heise online – Schöne neue Welt der Google-Gesellschaft. http://www.heise.de/newsticker/mel dung/59709, abgerufen am 22.7.2007. 176 Gmail Filesystem – Gmail FS. http://richard.jones.name/google-hacks/gmail-filesystem/gmailfilesystem.html, abgerufen am 18.7.2007. 177 http://www.sensepost.com/research/wikto/, abgerufen am 18.7.2007. 178 Google Hacking Database. http://johnny.ihackstuff.com/ghdb.php, abgerufen am 18.7.2007. 179 Bugtraq: Anonymous Web Attacks via Dedicated Mobile Services. http://seclists.org/bugtraq/ 2005/Jul/0332.html, abgerufen am 18.7.2007. 180 Der Service ist unter der hier aufgeführten Adresse nicht mehr erreichbar.

62

1 Einführung in die Internetsoziologie

Provider der Zielperson.181 Zusätzliche Probleme wirft ggf. eine Verschlüsselung auf, wie sie beim Provider Skype der Fall ist. Aufgrund der noch recht geringen Nutzerzahlen maß man von Behördenseite dem Abhören von VoIP-Verbindungen offiziell noch keine allzu große Relevanz bei. Doch bereits die Idee, VoIP-Telefonie abzuhören, sorgte damals für ein Problem: da die Grenzen zwischen altbekannter und paketbasierter Telefonie zunehmend verwischen, schrumpft aufgrund der zunehmenden diffusen Vermischung das Vertrauen auch in altbekannte Kommunikationsformen. Analog (bekannt) vermengt sich mit digital (unbekannt), was letztendlich die etablierten Grundsätze zunehmend unterminiert. Man kann jedoch auch die Regierung bzw. ihre Vertreter direkt digital attackieren. Im Berliner Regierungsviertel konnten per Bluetooth-Attacke die Telefonnummernverzeichnisse der Handys von drei Personenschützern erfolgreich ausgelesen werden.182 Der Aufwand zur Ausnutzung einer Bluetooth-Schwäche in der Firmware einiger Handymodelle ist gering: entsprechende Tools standen zur Anwendung durch Jedermann bereit.183 Updates sind zwar verfügbar, werden jedoch nicht immer von allen Personen durchgeführt.184 Bei zahlreichen (älteren) Handymodellen muss man für die Einspielung eines Updates den Kundendienst in Anspruch nehmen (und ggf. auch bezahlen). Neue Modelle hingegen können durch den User zu Hause auf den neuesten Firmwarestand gebracht werden. Hier zeigt sich, dass mittlerweile auch die Software von Handys regelmäßig auf den neuesten Stand gebracht werden sollte. Und das Updaten dürfte dann auch keine einmalige Aktion bleiben: die Entwicklung der Angriffswerkzeuge schreitet entsprechend voran.185 Auch Handyviren waren schon damals keine Neuheit; es tauchten (wenn auch nur in Testregionen) auch Exemplare auf, die auf Windows-Systeme überspringen konnten.186 Die Verknüpfungen zwischen den digitalen Szenen wurden somit entsprechend deutlich, denn es tritt das bereits erwähnte Phänomen auf, dass bekannte Strategien durch neue Herausforderungen ausgehöhlt werden. Altbekannte Standardverhaltensweisen werden mit neuen Beeinflussungen vermengt.

181 heise online – VoIP-Provider müssen Abhör-Schnittstellen schaffen. http://www.heise.de/ newsticker/meldung/63400, abgerufen am 18.7.2007. 182 heise online – Angriff auf Bluetooth-Handys im Regierungsviertel. http://www.heise.de/newsti cker/meldung/60542, abgerufen am 18.7.2007. 183 Trifinite.org – the home of the trifinite.group. http://trifinite.org/trifinite_stuff_blooover.html, abgerufen am 6.8.2007. 184 Zum damaligen Zeitpunkt war die Relevanz dieses Hacks nicht nur geringfügig. Gegenwärtig spielt dieses Szenario aber keine entscheidende Rolle mehr, da die betroffenen Geräte nicht mehr in nennenswerter Stückzahl im Umlauf sind. 185 heise online – 22C3: Neue Angriffe auf Bluetooth-Handys. http://www.heise.de/newsticker/mel dung/67855, abgerufen am 18.7.2007. 186 heise online – Handy-Schädling springt auf Windows über [Update]. http://www.heise.de/ newsticker/meldung/64196, abgerufen am 22.7.2007.

1.3 Erste Forschungsphase: 2005 bis 2007

63

Sony BMG geriet mit seinem „Kopierschutz“ nach heftigen weltweiten Protesten in die Defensive und veröffentlichte ein Tool zum Entfernen der Software, die nach Aussagen Betroffener weit mehr machte als nur die CD vorm Kopieren zu schützen: sie installierte ein sogenanntes Rootkit.187 Der Nachteil: nach Entfernen des Kopierschutzes lässt sich die entsprechende CD nicht mehr abspielen, da ja die notwendige Kopierschutzsoftware fehlt.188 Kurz darauf bot Sony an, dass betroffene Kunden die CD gegen eine ohne den Kopierschutz XCP eintauschen können.189 Doch dabei blieb es nicht: es wurde bekannt, dass Sony nicht nur Software, die unter der freien Lizenz LGPL veröffentlicht wurde, unberechtigt implementiert hatte, sondern zusätzlich auch Software, die unter der strengeren GNU Public License (GPL) bereits veröffentlicht wurde. Die Spielregeln der jeweiligen Lizenzen wurden dabei missachtet.190 Mehrere Klagen wurden infolgedessen eingereicht.191 Dass die ganze Geschichte überhaupt bekannt wurde, konnte damals durchaus der Netzgemeinde zugute geschrieben werden, die im Sinne der „Full Disclosure“-Philosophie für eine Offenlegung gesorgt hat.192 Die Herausforderung für die Identitätsarbeit ist in diesem Falle erneut der vorliegende Medienbruch: ein eigentlich etabliertes, altbekanntes Medium wird zu einem gänzlich anderen Zwecke missbraucht, was aufgrund fehlender Bewältigungsstrategien zu massiven Verwirrungen führen kann. Die Ereignisse in der CCC-Usenet-Group waren damals als ambivalent zu bezeichnen. Einerseits wurde durchweg auf hohem technischem Niveau diskutiert, andererseits mangelt es teilweise an den einfachsten Sozialverhaltensregeln, so dass diese Newsgroup nur in Teilen brauchbar erschien. Der größte Teil der Arbeit bestand faktisch darin, Flamewars, persönliche Streitereien, die offline oder anderweitig im Netz begannen, sowie inhaltlich belanglose Beiträge auszusortieren und die relativ wenigen hochwertigen Inhalte umso genauer zu beobachten. Auch dies soll in der Beschreibung der Beobachtung kritisch gewürdigt werden. Das beobachtete Sozialverhalten kann interessante Aufschlüsse über den Status Quo selbsternannter Netzkulturkonservatoren geben und ihre Arbeit entsprechend bewerten. Im Bereich des Hackings bzw. Crackings bot die Newsgroup seinerzeit letztlich etliche interessante Punkte. So wurde beispielsweise lustvoll über den „Premiere-Hack“ diskutiert, also das Decodieren des „Premiere“-Fernsehbouquets ohne Bezahlung der Abogebühr. Der Schwerpunkt lag

187 Rootkit. http://de.wikipedia.org/wiki/Rootkit, abgerufen am 6.8.2007. 188 heise online – Uninstaller für Sony BMGs Kopierschutz-Rootkit. http://www.heise.de/newsti cker/meldung/65688, abgerufen am 18.7.2007. 189 heise online – Sony BMG ruft CDs mit Kopierschutz-Rootkit zurück. http://www.heise.de/news ticker/meldung/66237, abgerufen am 19.7.2007. 190 heise online – Drama um Sony BMGs Kopierschutz-Rootkit nimmt kein Ende. http://www. heise.de/newsticker/meldung/66423, abgerufen am 19.7.2007. 191 heise online – Bürgerrechtler und Texas verklagen Sony BMG wegen XCP-Kopierschutz. http:// www.heise.de/newsticker/meldung/66485, abgerufen am 19.7.2007. 192 heise online – 22C3: Hacker beklagen „digitalen Hausfriedensbruch“ durch Sony BMG. http:// www.heise.de/newsticker/meldung/67820, abgerufen am 19.7.2007.

64

1 Einführung in die Internetsoziologie

hier auf den Cerebro-Karten, die diesen Hack letztlich ermöglichten.193 Dabei ging es vor allem um die Bezugsmöglichkeiten194 sowie die technischen Einzelheiten, wobei keine konkreten Anleitungen oder entscheidenden Informationen (wie zum Beispiel der Code einer gültigen Abokarte) zum Auflösen der Premiere-Verschlüsselung veröffentlicht wurden. Auch wurde hin und wieder moralisch argumentiert, worum es im Falle der Medienaufmerksamkeit rund um den „Premiere-Hack“ wirklich geht. Einerseits wurden die Verantwortlichen beurteilt, deren System geknackt wurde: Herstellern unsicherer Systeme gefällt es nicht, dass die lachhafte „Sicherheit“ ihres Systems mittels Simulation legitimer Chipkarten gebrochen werden kann. Daher beschwert man sich lauthals über programmierbare Karten und unterstellt, dass diese ausschließlich zu kriminellen Zwecken eingesetzt werden.195

Andererseits wurden auch die Personen kritisch gewürdigt, die den „Hack“ betrieben haben: (. . .) [Bei] den Vertreibern und auch Nutzern dieser Karten handelt es sich schlicht um Kriminelle.

Diese Meinung blieb allerdings nicht unwidersprochen, sondern fand recht rational-nihilistischen Widerhall: Ich halte den Vertrieb solcher Karten für genausowenig illegal wie den Vertrieb von Wasserpfeifen mit denen in der Regel gekifft wird. Das Benutzen dieser Karten zum Empfang von verschlüsselten Programmen ist aber genauso illegal wie das Rauchen von Cannabis; vielleicht sogar insofern illegaler als man dafür eine höhere Strafe erhält. (. . .) Ich bin über die Qualität des Hacks nicht informiert, aber wenn ich ein Interesse daran hätte, Premiere zu schauen, mir von der Karte versprechen könnte, diese Möglichkeit längerfristig zu sichern und ich sie nicht anderswo günstiger bekommen könnte, dann wäre mir egal ob der Wiederverkäufer mir eine Karte verkauft die er für einen Bruchteil einkauft – ganz einfach weil der Nutzen dieser Karte ein subjektiv hoher wäre und ich damit einiges sparen könnte. (. . .) Selbst deinem Bäcker ist es egal ob Du dich nach dem Frühstücken seiner Brötchen erholter fühlst – dem geht es auch nur um den „schnöden Kommerz“. Glaubst Du der sieht noch in Gedanken den Kunden beim Genuss seiner Brötchen?196

193 Cerebro-Karte – de.org.ccc. http://groups.google.de/group/de.org.ccc/browse_thread/thread/ a718fa366b81500a/751b44f0d580ec84?lnk=st&rnum=1&hl=de#751b44f0d580ec84, abgerufen am 18.7.2007. 194 gulli: Premierehack: Hausdurchsuchungen bei Cerebro-Händlern. http://www.gulli.com/ news/premierehack-2005-12-08/, abgerufen am 20.7.2007. 195 Aus einem Beitrag von Michael Holzt vom 9. Dezember 2005, 3.01 Uhr, online (bei Google Groups) nicht mehr verfügbar. 196 Cerebro-Karte – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/33b88c3de52dcc08? hl=de&, abgerufen am 18.7.2007.

1.3 Erste Forschungsphase: 2005 bis 2007

65

Die Diskussion glitt dann allerdings ab und die Stimmung begann zu sinken: Bei Deinem rosa getrübten, scheinheiligen Geblubber (. . .) vergisst Du offenbar vorsaetzlich, dass sich hinter den PayTV-Cracks nahezu mafiöse Strukturen bewegen.197

Die beiden Diskutanten duellierten sich über zahlreiche weitere Postings, während – wie so häufig in solchen Fällen – die anderen Personen mehr oder weniger humorvoll die Diskussion zielgerichtet weiterführten. Eine Diskussion, die die Autoren in der Newsgroup stark beschäftigte, war die Einführung des ePasses. Diese wurde wie so häufig in dieser Newsgroup nicht nur technisch, sondern auch sozialpolitisch kontrovers diskutiert, beispielsweise anhand der ausgewählten Technik RFID: Ich frage mich sowieso, weshalb man auf die Logistik-Technologie RFID setzt; schön langsam komme ich mir weniger wie eine Nummer als vielmehr Stückgut vor.198

Die technischen Schwerpunkte lagen vor allem auf dem RFID-Chip sowie der Durchführung der Datenverarbeitung und -speicherung. Viele Angaben waren jedoch zum Zeitpunkt der Diskussion noch Hörensagen oder unbestätigte Informationen, ganz im Gegensatz zu heute. Eine andere Diskussion fand zum Thema Softwarepatente statt. Ein Schwerpunkt war die Frage der Patentierung von Dingen, die noch keine konkrete Erfindung darstellen, also die Kerninnovation im Bereich der Patentierung von Software: In Deutschland werden keine Patente auf Verfahrenswege oder Geschäftsprozesse erteilt.199

Der Diskussionsstil wurde schnell wieder etwas ruppig: Aber schön, das Du auch schon mal was von Patenten gehört hast. Leider hast Du nichts davon verstanden, scheint’s. Wer aber auf de.org.ccc pro Softwarepatente argumentieren möchte, benötigt dafür zweifelsfrei eine Merkbefreiung.200

Die Diskussion glitt zudem über die Rolle von Erfindungen und deren Abgrenzungen zu der Rolle von Axiomensystemen und Gott ab – und blieb dabei nicht sachlich:

197 Cerebro-Karte – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/c3a07cb93cb9d44b?hl= de&, abgerufen am 18.7.2007. 198 RFID-Pässe [was: Schily: Bedenken von Datenschützern sind Angstmacherei] – de.org.ccc. http:// groups.google.de/group/de.org.ccc/msg/a24ca4f9a49f9f40?hl=de&, abgerufen am 20.7.2007. 199 SPF War: Re: Scheiss Haecksen! – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/ c86c942e550d6b77?hl=de&, abgerufen am 20.7.2007. 200 SPF War: Re: Scheiss Haecksen! – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/ 3adb608335fc118a?hl=de&, abgerufen am 20.7.2007.

66

1 Einführung in die Internetsoziologie

„ >>Physiker, elendiger. > “Philosoph und Nörgler”, bitte ! Ah, ein Schwätzer.:-(“201 Wie eine Diskussion allerdings von ihrem ursprünglichen Thema abweichen und aufgrund der unsachlichen Animositäten der Diskutanten letztlich ausufern kann, zeigt folgendes Beispiel.202 Nach 32 Beiträgen, die sich um die Bearbeitung von Vortragsvideos drehten, kippte die Stimmung aufgrund dieses Beitrages des Autors Felix: (. . .) Und ich finde diese Einstellung eine Zumutung. Sei froh, dass du das Material überhaupt kriegst. Nur weil du ne Flatrate hast, heißt das nicht, dass die Server, die du leer saugst, nichts für ihren Traffic zahlen.203

Die Antwort ließ nicht lange auf sich warten und sparte nicht mit Konsequenz in der Antwort: Und ich finde dein komisches Format eine Zumutung. (. . .) Ich hab keine Flatrate. Aber danke für die Unterstellung.204

Die erneute Antwort auf dieses Posting entglitt Felix dann völlig – er wurde beleidigend und unsachlich: Leute wie du sind der Grund, dass Aktionen wie diese Einmal-Aktionen bleiben, weil keiner Bock hat, für Typen wie dich auch nur einen Finger zu rühren. Aber was will man schon von Apple-Usern erwarten.205

Dieses Verhalten wurde von anderen Beteiligten wahrgenommen und sie stellten sich – wohl etwas entnervt – entsprechend darauf ein: Auf die Gefahr hin, dass ich hier gleich als Macintosh-Benutzer verunglimpft werde, ich benutze Windows . . .206

201 Beweise – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/60dd98ed74783816?hl= de&, abgerufen am 20.7.2007. 202 21C3-Vortragsvideos – de.org.ccc. http://groups.google.de/group/de.org.ccc/browse_thread/ thread/2697181b3a792aaa, abgerufen am 19.7.2007. 203 21C3-Vortragsvideos – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/ 8e314a6792a86977, abgerufen am 20.7.2007. 204 21C3-Vortragsvideos – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/ 7cdb5a2d17bcfd3c, abgerufen am 20.7.2007. 205 21C3-Vortragsvideos – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/ c73005cbcb0fc6ed, abgerufen am 20.7.2007. 206 21C3-Vortragsvideos – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/ 34e6e66cc503e07e, abgerufen am 20.7.2007.

1.3 Erste Forschungsphase: 2005 bis 2007

67

Nachdem dann über einen Zeitraum von wenigen Tagen etwas Ruhe in die Diskussion einzog (wohl vor allem, weil Felix einige Zeit aussetzte), ging die Auseinandersetzung in die nächste Runde. (Die Diskussion über die Vortragsvideos hatte sich zudem bereits in eine Diskussion über die Vor- und Nachteile von verschiedenen Betriebssystemen und ihrer Hardware gewandelt.) Felix verteilte pauschal Beleidigungen: Kurz gesagt: Apple-User haben alle nen Knall. Es ist vertane Zeit, in deren mundschäumendes Brabbeln irgendeinen Sinn hineininterpretieren zu wollen.207

Auch die technischen Detailfragen wurden ihm nicht ausreichend erfolgreich diskutiert: Aber lieber erst mal inkompetent rumfurzen . . . Meine Fresse, diese Newsgroup ist echt noch genau so schlimm wie ich sie in Erinnerung habe.208

Dieses „Lob“ bekam er postwendend zurück: Deine Postings machen sie [die Newsgroup, Anm.] nicht gerade besser.209 Aber ich sehe, dass eine Diskussion mit Dir mal wieder zwecklos ist, weil Du direkt persönlich wirst, und mit der üblichen Inkompetenzvermutung um Dich schlägst. (. . .).210

Eine seriöse Diskussionskultur setzte bei Felix auch im weiteren Verlauf nicht ein: Heul doch. Bisher lag ich mit meiner Inkompetenzvermutung in der überwältigenden Mehrheit der Fälle richtig.211

Dass es längst nicht mehr um Technik ging, wurde den Beteiligten schnell klar: Es geht nicht um Inhalte sondern um Deinen Diskussionsstil, der mal wieder nur noch zum kotzen ist. Eigentlich sind sowohl die Begriffe ‘Diskussion’ wie ‘Stil’ sogar fehl am Platz um das zu klassifizieren, was aus Deinem Newsreader quillt. Ziehst Du da persönliche Befriedigung raus, oder warum kannst Du nicht einfach sachlich klar machen, dass der Vorposter mutmaßlich eine fachliche Null ist, und nur Quatsch schreibt? Vielleicht solltest Du Deinen Newsreader so modifizieren, dass er jedes Posting erstmal um 30 Minuten verzögert, vielleicht regst Du Dich in der Zwischenzeit ja ab. Wer brüllt hat unrecht, wer niveaulos flamed, auch. (fup, Deine sozialen Defizite sind hier nicht wirklich ontopic)212

207 PPC-CPU – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/be9e19c7c6faeae2, abgerufen am 20.7.2007. 208 21C3-Vortragsvideos – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/ ba79113a35401f62, abgerufen am 20.7.2007. 209 21C3-Vortragsvideos – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/ e29eaeee470c5241, abgerufen am 20.7.2007. 210 PPC-CPU – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/b9be7fc45b4071e7, abgerufen am 20.7.2007. 211 PPC-CPU – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/215a9bdecd505665, abgerufen am 20.7.2007. 212 21C3-Vortragsvideos – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/52aa6cc9 f9e62a04, abgerufen am 20.7.2007.

68

1 Einführung in die Internetsoziologie

Woher Felix seine überlegenen Informationen hat, denen alles andere untergeordnet werden muss, wollte er allerdings auch nicht verraten: Woher ich das alles weiß? Geht euch nichts an. Ich weiß es halt.213

Grundsätzlich behielt er in dieser Diskussion seinen undiplomatischen Stil bei: Anderer Leute Software einsetzen, anderer Leute Security-Findings lesen, dann von anderen Leuten Patches erwarten. Konsumentenhaltung wie bei den Ossis nach dem Mauerfall. Zum Kotzen.214

Außerdem sah er seinen Stil als höheres Gut an, hinter dem soziale Belange zurückzustehen haben: Aber Leute wie kju pupen lieber rum, winseln, heulen, regen sich über Diskussionsstil auf, während unsere gemeinsame kritische Infrastruktur erodiert.215

Und er liegt nach den vorliegenden Ergebnissen auch mal schlicht falsch: auf die berechtigte Frage, warum Microsoft – die Firma, der er zuvor im Bereich der Sicherheitsarbeit „messbaren Aufwand“ attestiert hatte – seit Jahren bekannte Fehler im Browser „Internet Explorer“ nicht repariert habe, antwortete er: Warum sollten sie. Dann hättest du ja keinen Grund mehr, für Longhorn mit dem neuen Internet Explorer Geld aus zu geben.216

Das Verhalten von Felix ist ein exemplarisches Beispiel einer gefährlichen Mischung aus selektiver Wahrnehmung und sozialen Defiziten, welche in den Usenet-Newsgroupsps nicht selten Diskussionen verenden ließ und wie sie bei technikfokussierten Usern häufig zu finden ist. Dabei erscheinen meist letztlich die Diskutanten als „Sieger“, die bis zum Schluss übrigbleiben und entweder mit Behauptungen argumentieren, die nicht eindeutig überprüfbar sind („Woher ich das alles weiß? Geht euch nichts an. Ich weiß es halt.“) oder weil sich ihre Diskussionsgegner auf ihr Niveau herablassen und damit ebenfalls die Ebene der sachlichen Diskussion verlassen. Der Sache ist dieses Verhalten keineswegs dienlich. Wer trotzdem noch Interesse an einer sachlichen Diskussion hat, verhält sich häufig nach dem Motto „Don´t feed the trolls!“. Nach diesem Motto werden alle Autoren von Beiträgen

213 21C3-Vortragsvideos – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/ 6e8eb05b4959f0ff, abgerufen am 20.7.2007. 214 21C3-Vortragsvideos – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/ 32486c742e913d35, abgerufen am 20.7.2007. 215 21C3-Vortragsvideos – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/ 32486c742e913d35, abgerufen am 20.7.2007. 216 21C3-Vortragsvideos – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/eb3f a7228f357f7e, abgerufen am 20.7.2007. Er liegt falsch, weil der Internet Explorer grundsätzlich kostenlos verfügbar ist.

1.3 Erste Forschungsphase: 2005 bis 2007

69

ignoriert, die nicht hart am Thema diskutieren, sondern anderweitig ausufern, beispielsweise um Unfrieden zu stiften oder die Diskussion in eine andere Richtung zu leiten, in die niemand mitziehen will. Es erscheint also möglich, dass Felix sich als Mahner versteht, der aufgrund seiner „überlegenen“ Informationen auf die „wahren“ Missstände hinweisen will, wie ja auch der Satz „Aber Leute wie kju pupen lieber rum, winseln, heulen, regen sich über Diskussionsstil auf, während unsere gemeinsame kritische Infrastruktur erodiert“ zuvor gezeigt hat. Auch dieses Verhalten kennzeichnet einen Troll.217 Dass hier kein missbräuchlicher Einsatz der Bezeichnung „Troll“ stattgefunden hat, ließ sich anhand des Diskussionsverlaufes und der 220 vorliegenden Diskussionsbeiträgen gut darstellen. Ein Mobbing von Felix ist hier ebenfalls nicht festzustellen. Bekannt, wenn auch nicht unumstritten218 ist in der Netzkultur auch der Begriff des „Elches“, welcher sich von einem „Troll“ darin unterscheidet, dass er nicht nur provoziert, sondern seine eigenen Ansichten bekräftigen will. Dieser Begriff wurde im Verlauf der eigenen Arbeit jenseits von Wikipedia jedoch nicht beobachtet, so dass er an dieser Stelle keine Berücksichtigung erfährt. Soweit die damaligen (und aktualisierten) Beobachtungen aus dem Forschungsvorhaben. Die Analyse hat damals in den drei Teilbereichen Datenschutz und Datensicherheit, Chatten und Spiele sowie Hacken und Cracken teilweise erstaunliche Ergebnisse über den Status der digitalen Identitätsarbeit im deutschsprachigen Raum ergeben, welche hier nun nochmals zusammengefasst dargestellt werden sollen: Im Bereich Datenschutz und Datensicherheit überwogen ganz eindeutig die Themen Überwachung, Medien und Soziales sowie Rechte und Pflichten. Die Überwachung dominierte den Diskurs. Im Mittelpunkt stand stets der Kampf zwischen Freiheit und Sicherheit sowie deren sinnvolle Ausbalancierung. Das bedeutete, wie bereits erwähnt, eine defensive Ausgangsposition für einen Großteil der Identitätsarbeit. Im Bereich Chatten und Spiele waren die Schwerpunkte in den Bereichen Jugend, Spiele und Soziale Realität zu finden. Beachtlich ist, wie sehr die Jugend im Fokus stand. Bedauerlich erscheint hingegen, wie altbacken teilweise die Rezepte waren, die vorgeschlagen wurden, um die jeweiligen Probleme in den Griff zu bekommen. Auch gingen damals wie heute zahlreiche Projekte und Analysen nicht bis ins binäre Detail, sondern enden mit einem recht oberflächlichen Blick auf die Technik und die Trends. Hacken und Cracken bedeutete in den Jahren 2005 und 2006 im Rahmen der beobachteten

217 Troll (Netzkultur). http://de.wikipedia.org/wiki/Troll_%28Netzkultur%29#Allgemeines, abgerufen am 20.7.2007. 218 Wikipedia hat zwar einen Artikel über den Elch in der Netzkultur (vgl. Elch (Netzkultur). http://de.wikipedia.org/wiki/Elch_%28Netzkultur%29, abgerufen am 20.7.2007), jedoch ist dieser mit einem Warnhinweis versehen: Dieser Artikel oder Abschnitt ist nicht hinreichend durch Quellenangaben belegt. Die fraglichen Angaben werden daher möglicherweise demnächst gelöscht. Hilf Wikipedia, in dem du die Angaben nachrecherchierst und gute Belege ergänzt.“

70

1 Einführung in die Internetsoziologie

Quellen vor allem Phishing, Identitätsdiebstahl und auch – überraschenderweise – die Rolle der Ethik. Wird die digitale Identitätsarbeit betrachtet, geht es im Wesentlichen stets um die technische Identität und deren Management. Das ist zwar im Allgemeinen der richtige Start, greift aber viel zu kurz. So wurde das Thema Social Engineering beispielsweise kaum angesprochen und auch kulturelle Analysen kamen häufig nicht vor. Geht es um Infos aus dem Magazin Telepolis, welches fallweise auch in die Arbeit einbezogen wurde, muss auch heute noch in jedem einzelnen Fall die politische Färbung des Autors berücksichtigt werden, da dieses Magazin (mehr als beispielsweise der Heise-Newsletter aus dem gleichen Hause) subjektive Einflüsse zulässt. Die Analyse kultureller Art konnte damals insgesamt aufgrund der Fülle der brauchbaren Extraktionen als positiv bewertet werden. Soziologische und psychologische Projekte können die Digitalisierung unserer Gesellschaft sehr gut beobachten und deuten, sofern ausreichende Technikkenntnisse vorhanden sind. Dies ist notwendig, weil die Digitalisierung keinen Bereich des Lebens verschont – aus diesem Grunde sind interdisziplinäre Zugänge das Mittel der Wahl. Da es aber zu der gerade erwähnten allumfassenden Digitalisierung und deren interdisziplinärer Exploration kommt, darf die Definition von Identität eben nicht nur technisch erfolgen – sie muss auch individuell und gesellschaftlich konnotiert sein. Die Dominanz der Definition von Identität als technisch muss bei jeder sich bietenden Gelegenheit gebrochen werden. Die Zusammensetzung von Identitätsanalysen mithilfe des Foucaultschen Werkzeugkastenzuganges (oder nach heutiger Diktion: des Bastelnden Denkens) hat sich als ein mögliches Mittel bzw. als Methodik bewährt. Darüber hinaus ist es zum Erhalt eines ganzheitlichen Bildes hilfreich, Medientheorie und – praxis zu verbinden. Dringend vermieden werden muss auf jeden Fall die Akzeptanz von Mythen und Ritualen. Das Ergebnis dieser Arbeit war (und ist) hoffentlich für viele Forscherinnen und Forscher hilfreich auf dem Weg zu einer neuen Analyseform, die der digitalen Revolution und ihren Auswirkungen entspricht, mit Digitale Identitäten startete und mit diesem Buch (hoffentlich) erfolgreich weiterentwickelt wurde. Denn fest stand damals wie heute: wir stehen mit allem noch am Anfang. Mehrere Punkte waren 2007 entscheidende Wegmarken dieser Analyse: 1) Analysen erfolgten im deutschsprachigen Raum anscheinend meist auf einer recht oberflächlichen Ebene, da sehr häufig tief in die Technik reichende Analysefähigkeiten und Kenntnisse allgemeiner Art fehlten. Das kann einerseits daran liegen, dass Soziologen, Psychologen und andere Wissenschaftler keine ausreichenden Technikkenntnisse haben, andererseits kann es aber auch daran liegen, dass altbekannte Handlungsschemata wirken und somit eine Exploration unbekannter technischer Ebenen überflüssig erscheint, frei nach dem Motto: Man hat ja „bewährte“ Methoden parat. Interdisziplinarität ist allerdings weit über etablierte Grenzen hinaus notwendig. Die Digitalisierung ist zu wichtig, um sie allein Technikern zu überlassen. Diese denken, so die Erkenntnis, vornehmlich

1.3 Erste Forschungsphase: 2005 bis 2007

2)

3)

4)

5)

6)

71

im Rahmen ihrer Hard- und Software, aber nur selten über den Befehlssatz ihrer Chips hinaus. Sozialwissenschaftler hingegen benötigen dringend umfassende Technikkenntnisse, wobei die Ausgangsvoraussetzungen hier grundsätzlich deutlich positiver erscheinen als bei Technikern. Es wurden häufig Handlungsschemata genutzt, die der vordigitalen Zeit entspringen und entweder nur rudimentär oder gar nicht erfolgversprechend einsetzbar sind. Vorläufige Erfolge sorgten hier – gerade im Bereich der Legislative – für die vermeintliche Bestätigung der Korrektheit der Entscheidungen; man denke nur an die Killerspieldiskussion oder zahlreiche Antiterrormaßnahmen. Langfristig wird sich diese Denkweise aber als fatal erweisen. Neue Handlungsschemata sind somit weiterhin dringend notwendig. Hieran besteht heute (2019) weiterhin der größte Mangel. Neue soziale Regeln waren seinerzeit noch nicht vorhanden, was sehr oft zu „Versuch und Irrtum“ verführte. Dies wiederum beinhaltete viele Reibungsverluste und erforderte eine sehr hohe Frustrationstoleranz. Effektiv ist diese Vorgehensweise nicht, vor allem nicht für Menschen, die nur begrenzte Mittel zur Problembewältigung einsetzen können. Es wurde in zahlreichen Arbeiten und Projekten häufig schlicht zu kurz gedacht – Phantasie war kaum zu finden. Das liegt sowohl an mangelnden Technikkenntnissen, die den Blick über den Tellerrand hinausleiten könnten als auch an der defensiven Grundhaltung der grundsätzlich problemzentrierten Arbeit, die keine Abschweifungen zuzulassen scheint. Es wurde häufig nicht ausreichend kreativ gehandelt. Auch mal in eine Sackgasse oder gegenwärtig unbrauchbare Richtung führende Gedanken sind kaum zu finden. Der Ingenieur bestimmt auch weiterhin das Bild der technischen Arbeit, und dieser zeichnet sich nicht gerade durch soziale und kulturelle Kreativität aus. Immerhin ist durch die Erlebnisse am MIT (Februar 2019) eine Perspektivenänderung erkennbar, zumindest auf dieser höchstklassigen Ebene. Es bleibt freilich abzuwarten, was konkret daraus wird. Eine defensive Kultur kann zwar durchaus die Tiefenschärfe fördern, da sie zu intensiven Auseinandersetzungen führen kann, welche grundsätzlich sehr gewinnbringend sind. Da jedoch noch nicht ein brauchbarer Status Quo erreicht wurde, wirkt eine andauernde kleinteilige Durchleuchtung der digitalen Welt – zudem noch mit falschen Werkzeugen (aus der analogen Welt) – hemmend. Es bestand damals (und besteht auch heute noch) im Wesentlichen kaum ein Bewusstsein dafür, dass die Analyse im Detail eventuell recht schnell nicht nur aufhören, sondern gar verworfen werden muss. Sie wird häufig schlicht nicht mehr gebraucht. Was interessiert uns (erst recht heute) noch eine Verhaltensanalyse rund um den Gameboy der ersten Generation im Detail? Nur die Metaebene ist hier häufig noch von Bedeutung – und auch sie wird schneller irrelevant als es bei früheren Medienanalysen der Fall war, beispielsweise rund um das Fernsehen oder gar das Radio.

72

1 Einführung in die Internetsoziologie

7) Handlungen entstanden häufig aus einer Defensive heraus, gerade aufgrund zunehmender (legitimer wie illegitimer) Repression. Das führt schneller zu Problemen wie Skepsis und Verzweiflung und hemmt Kreativität. Wir haben seit dem 11. September 2001 einen Paradigmenwechsel, der ganz besonders zu einer Attackierung des „unerhörten“ Freiraums Internet geführt hat. Zwar gab es trotz alledem spannende und bedeutsame Entwicklungen, doch für Deutschland musste befürchtet werden, dass wir auch weiterhin deutlich hinter unseren Möglichkeiten bleiben. Dies hat sich leider vollumfänglich bewahrheitet. 8) Erfolgreich im Netz waren 2007 vor allem Wirtschaft, Politik und kreative Einzelpersonen. Die überwältigende Mehrheit der Userinnen und User war nur rezipierend und orientierte sich an den Vorgaben der anderen. Grundsätzlich galt und gilt auch heute: Die Wirtschaft ist erfolgreich, weil sie mit dem Tempo des Internets und der Digitalisierung Schritt halten kann. Sie setzt nicht nur – als technischer Produzent rein zwangsläufig – neue technische Trends, sondern schafft es auch, Hypes zu generieren, die nicht technisch bedingt sind. Die Politik besitzt ebenfalls Macht im Netz, allerdings deutlich abgeschwächt im Vergleich zur Wirtschaft. Sie besitzt vor allem normative Macht, die einer Legislative generell innewohnt: auch wenn Gesetze im Cyberspace meist belächelt werden und Spam sicherlich nicht durch Bundes- oder Landesgesetz abzuschaffen ist, wird die gewünschte Wirkung in vielerlei Hinsicht nicht völlig verfehlt. Das zeigt allein die Diskussion rund um die Vorratsdatenspeicherung. Die Macht des Faktischen geht aber – wie so häufig – nicht zwangsläufig von der Politik aus: was technisch machbar ist, wird meist auch technisch umgesetzt, so die Erfahrung. Kreative Menschen haben – sinnigerweise im Verbund mit Wirtschaft und/oder Politik – häufig ebenfalls Macht. Sie können Firmen wie Google gründen, aber auch als Cyberdissidenten zum Märtyrer werden und so auf Missstände aufmerksam machen. Die große Masse der Userinnen und User wird jedoch – auch und gerade im vermeintlich interaktiven Netz – nur berieselt, auch wenn sie vieles für wahre Teilnahme und Teilhabe hält. Die zahllosen Blogs zeugen zwar von einem freiwilligen Verzicht auf Privatsphäre, sind jedoch faktisch von buribunkenhafter Irrelevanz. MySpace- und StudiVZ-Hypes waren damals durchaus putzig, aber nur in seltenen Fällen von überwältigender Relevanz – es sei denn für das Teilsystem Wirtschaft, welches so Umsätze generiert und Werte schafft, siehe Facebook. Die Millionen bis Milliarden Userinnen und User, die bei solchen Systemen angemeldet sind, sind vor allem eines: das digitale Kapital der Systeminhaber. Und sie befinden sich aufgrund der allgemeinen Tendenzen auch weiterhin in der Defensive, was ihre Identitätsarbeit angeht. 9) Durch mangelhafte soziale Kompetenz kommt es immer wieder zu Konflikten, die der jeweiligen Hauptsache nicht dienlich sind. Dies ist sowohl bei Individuen als auch bei Kollektiven auszumachen. In der Folge entstehen Probleme, die sowohl für Produzenten wie Rezipienten eines Disputes nicht nur kurzfristige negative Folgen haben. Vermeintliche Profis diskreditieren sich durch so ein

1.3 Erste Forschungsphase: 2005 bis 2007

73

Verhalten ebenso wie Politaktivisten. Wenn man sich untereinander beharkt, fehlt die Energie für weitaus bedeutendere Auseinandersetzungen. Im Detail müssen zum Beispiel fachliche Sprachbarrieren überwunden werden, die zwischen Technikern und Sozialwissenschaftlern für Probleme sorgen. 10) Es muss auch weiterhin anerkannt werden, dass wir in Europa und in Deutschland zu viele kulturelle Besonderheiten zu bieten haben, um lemminghaft den USA oder Asien in der gegenwärtigen digitalen Entwicklung hinterher zu hecheln. Bereits zu Beginn der 1970er Jahre gab es eine Art nachholende Modernisierung in Europa, um technisch-kulturelle Lücken zu schließen. Heute ist die Situation ein wenig anders: Europa und Deutschland haben zwar bewiesen, dass sie mit der Audiorevolution MP3, Mobilfunk auf GSM-Basis und Meilensteinen wie der SMS durchaus in der Lage sind, digitale Trends zu setzen, die die Gesellschaft weiterbringen. Doch hieran muss dauerhaft und intensiv angeknüpft werden. Im Vergleich zu 2007 muss ich allerdings heute, im Jahre 2019, feststellen: es hat sich wenig getan. Punktuell: ja, da gab es Bewegung. Aber das war wie so oft zu spät, zu wenig, zu verzagt, zu unrealistisch, zu unkreativ und zu unkultiviert. Freilich formulierte ich damals aus den seinerzeitigen Erkenntnissen auch die künftigen Perspektiven im Bereich der digitalen Identitätsarbeit. Diese Passage bleibt unbearbeitet, damit Sie als Leserin bzw. Leser die Möglichkeit haben, sich diese Worte vor dem heutigen Sachstand durch den Kopf gehen zu lassen – immer mit der Frage im Hintergrund, was sich im Vergleich zu 2007 (nicht nur hinsichtlich der inhaltlichen Analysen bzw. Ergebnisse, sondern auch an der Ausprägung der Internetsoziologie) geändert hat: Die künftigen Perspektiven im Bereich der digitalen Identitätsarbeit sind gemäß der Breite der Entwicklung und der Vielfältigkeit der Einflüsse extrem umfangreich. Die Kunst des digitalen Identitätsmanagements wird sich zunehmend mit der Notwendigkeit der Abwehr digitaler Manipulation verknüpfen. Identitätsarbeit wird zunehmend PR-Arbeit in eigener Sache, inklusive der Kunst der digitalen proaktiven Manipulation. Das ist nichts anderes als individueller Lobbyismus. Auch Business und Competitive Intelligence werden zunehmend wichtiger. Externe Berater werden fehlendes Knowhow vermitteln müssen. Maßgeschneiderte Angriffe, auch via Social Engineering, werden zunehmen. Einer der wichtigsten technischen Angriffsvektoren wird Keylogging sein. Das Abfischen von Daten direkt bei der Tastatureingabe ist auch eine Perspektive für die zuständigen Behörden.219 Die Analyse von Identitätsmanagementaufgaben wird ein (sozialer wie technischer) Aufgabenschwerpunkt werden. Software kann hier eine wertvolle Unterstützung sein, beispielsweise Programme wie WebSeeker, WebWhacker und Bulls Eye Pro. Da in der Soziologie zwar

219 heise online – “Bundestrojaner” heißt jetzt angeblich “Remote Forensic Software”. http:// www.heise.de/newsticker/meldung/93807, abgerufen am 5.8.2007.

74

1 Einführung in die Internetsoziologie

analysiert wird, daraus aber nicht automatisch praktisches Handeln entsteht, sondern die Analyse vor allem für sich stehen soll, ist der Aufbau einer Datenbank eine logische Konsequenz in Richtung einer Beratung, die aber vornehmlich noch Analyse (und deren notwendige Darstellung) ist. Ob darauf automatisch ein Handeln im Sinne eines Sozialingenieurs folgt, kann offenbleiben. Was wir auf jeden Fall brauchen, ist die Kreativität des menschlichen Denkens und die Anleitung derer, die das gewonnene Wissen für ihre alltägliche Identitätsarbeit benötigen. Die wohl wichtigste Aufgabe besteht darin, ein Bewusstsein für die digitale Identitätsarbeit zu schaffen. Es geht um das Wissen, den Weitblick und den Wert von Identität. Allgemeine Identitätsvorstellungen müssen vermittelt werden. Digitalisierung bedeutet eben Imagination. Es müssen Methoden entwickelt, vorgestellt und aufgeführt, die soziale gegenüber der technischen Komponente gestärkt werden. Derzeit geben andere die Regeln, das Tempo und die Trends vor: Wirtschaft und Politik. Der Film „Das Netz“ mit Sandra Bullock hat es uns – seinerzeit noch in Form eines abstrakten Hollywoodhorrors – vorgemacht, wovon wir heute längst bedroht sind: die soziale Komponente, die Einflüsse des Identitätsdiebstahls können gefährlich werden. Einen nicht geringen Anteil an der gegenwärtigen Misere hat allerdings auch die Naivität der User, Kunden und Verbraucher. Es ist eben verlockend, sich auf Bekanntes zu verlassen. Früher hatten wir ausschließlich analoge Verhaltensweisen. Diese waren bekannt, einstudiert, traditionell. Doch heute haben wir die digitale Komponente dazubekommen, sprich: die Digitalisierung als zusätzliche Ebene, und da helfen analoge soziale Muster nur begrenzt – und in vielen Fällen gar nicht. Heute nehmen Menschen und Maschinen Einfluss – eine neue Ebene entsteht und wirkt auf uns ein. Ganz und gar nicht schädlich ist da das Schaffen von Reserven, da neue Anforderungen zweifelsohne kommen werden. Sie werden sich nicht immer klar und deutlich am Horizont abzeichnen, aber sie werden kommen. Wer also bereits vorher seine Fühler ausstreckt, wird dann nicht unvermittelt ins kalte Wasser geworfen werden. Digitales Wissen muss nicht sofort „nützlich“ sein – es kann ganz im Sinne der allgemeinen Bildung als Vorrat dienen, um irgendwann zur Anwendung kommen zu können.220 Im Laufe der Zeit besteht so auch die Möglichkeit, dass sich Umrisse einer Methodik abzeichnen können, die von Profis erarbeitet und verfeinert wurde und weiter wird. Proaktives Arbeiten und Denken sollte somit dringend eine Pflichtübung werden. Diese Analyse soll auch eine Anleitung sein: eine Anleitung für das Individuum, ein Appell für Wissen – denn es geht um uns alle. Wir dürfen uns nicht beeindrucken lassen von Tempo, Trends und Emotionen – denn diese werden nicht der Emotionen wegen geschürt, sondern aus anderen Gründen, die nicht primär unserer Identitätsarbeit dienen. Ignoranz, Fatalismus oder Unwissen helfen dabei nicht. Wir müssen objektiv bleiben, und das so gut wie irgend möglich. Wir müssen

220 Keupp, 1999. S. 285.

1.3 Erste Forschungsphase: 2005 bis 2007

75

lernen, leben und dürfen nicht die Kontrolle verlieren. Was wir brauchen, ist positiver Aktivismus, der auch das Potential bietet, kriminellen Ideen den Wind aus den Segeln zu nehmen. Dabei hilft die Analyse auf binärer Ebene: kann ich meine PINNummer beeinflussen? Kann ich die Bank anrufen und um eine Wunschnummer bitten? Oder ist die Nummer dank einer Eselsbrücke zumindest leicht zu merken? So eine Analyse kann – gespeist durch die Praxiserfahrungen der Menschen – in einer Datenbank münden, die Inspirationen und Tipps zugleich liefert. Diese Identitätsarbeitsdatenbank (ID-DB) bietet sich an, um alle Daten zu erfassen, die relevant erscheinen, sie zu strukturieren und zu bewerten. Besonderes Feature ist dann die Identitätskaleidoskopie: verschiedene Identitätseinflüsse werden gemixt und es wird dann aufgezeigt, welche Anregungen daraus entstehen. Zusätzlich denkbar sind Bewertungen der verschiedenen Zielgruppen, eine eigene anschauliche Phishingkampagne im Sinne des Guerilla-Marketings sowie durchaus auch ein Tool für jeden einzelnen User, welches seine eigene Identitätsarbeit managen hilft. All dies führt aber wieder zurück zu dem, was im Kern dringend gebraucht wird: mehr Denken, mehr Kreativität, mehr Grundlagenorientierung. Die digitale Identitätsarbeit ist nicht einfach. Es wurde aufgrund der analysierten Geschehnisse aus den Jahren 2005 und 2006 deutlich gemacht, dass Identitätsarbeit im digitalen Raum für Individuen wie auch Gruppen erheblichen Aufwand bedeutet und zunehmend aus der Defensive heraus geschieht. Die Aktivierung und Ausdifferenzierung von Identitäten ist im digitalen Raum noch vor wenigen Jahren sehr leicht und sehr erfolgversprechend gewesen, doch das hat sich zunehmend geändert. Heute ist das Internet weit mehr als nur das World Wide Web, sind Identitätsaktivierungen weitaus differenzierter möglich als nur im Schwulen- und Lesbenforum, im Fanforum eines Fußballvereins oder in einer technisch orientierten Usenet-Group. Das Internet ist erstens deutlich ausdifferenzierter, zweitens deutlich professioneller und drittens deutlich aggressiver geworden. Die Ausdifferenzierung bekommt jeder Mensch zu spüren: war das Internet 1995 noch auf WWW und Usenet beschränkt, so findet heute alles überall statt: Hauptsache, man ist digitalisiert. Das Handy schickt Faxe, die Liebesbeziehung entsteht mithilfe einer Datenbank und der Grenzbeamte überprüft Kopfform und Fingerabdrücke digital. Beim Shoppen wird ein Kundenprofil, beim Fahnden ein Täterprofil erstellt. Und schließlich sollen sämtliche Kommunikationsdaten auf Vorrat gespeichert werden. Man weiß ja nie, wofür man sie mal brauchen und womit man sie später mal verknüpfen kann. Die Professionalisierung wird ebenfalls deutlich: wir sind längst nicht mehr allein im Netz. Die fröhliche Userschar mit Kompetenz und Kreativität, vormals die Pioniere im digitalen Raum, stellt sogar nur noch eine markante Minderheit dar. Onkel Otto und Tante Frieda sind nun auch dabei – allerdings nicht mittendrin, denn sie kamen ins Netz, weil man einfach „drin“ sein muss. Von den Möglichkeiten und den Gefahren ahnen sie jedoch nur am Rande – Begriffe wie Spyware, Botnetze und Kryptographie bleiben diffus, weit weg und schlussendlich irrelevant. Mit dabei sind heute aber auch die „Bösen“: sie betreiben

76

1 Einführung in die Internetsoziologie

diese Botnetze, die fremde Rechner lahmlegen. Sie verkaufen Kreditkarten zum Spottpreis. Sie erstellen und vertreiben Kinderpornographie. Sie machen ihre Attentate öffentlich und betreiben so Propaganda, die vorher undenkbar gewesen wäre. Und sie rufen die auf den Plan, die vielleicht nicht die größte Gefahr darstellen, jedoch ohne Zweifel den größten Einfluss ausüben: Strafverfolger, Politiker und Lobbyisten. Sie fordern die Vorratsdatenspeicherung, die Onlinedurchsuchung und die Datenweitergabe von Filesharern – und bekommen sie. Noch bevor sich eine durchschlagend erfolgreiche digitale Kultur bilden konnte, grätschen sie dazwischen. Mit wenig Feingefühl, aber viel gutem Willen. Denn wer will schon ernsthaft gegen Strafverfolgung – analog wie digital – sein? Doch „gut gemeint“ ist oft das Gegenteil von „gut“. Und manchmal sind die Maßnahmen auch gar nicht gut gemeint. Den Lobbyisten von Musik- und Filmindustrie geht es schließlich nur ums Geschäft. Sie würden es selbstverständlich begrüßen, wenn sich die Politik dazu entschließen würde, hohe Hürden wie den Richtervorbehalt zu kippen, um endlich an all die Filesharer zu kommen, die ihnen angeblich ihr Geschäft zerstören. Dabei sind sie es selbst, die ihren Businessplan unterminieren, da sie sich der Gegenwart allzu lange verweigert haben und jetzt wie ein bockiges Kind reagieren. Sie sind damit interessanterweise auch ein Beispiel für analoges Handeln im digitalen Raum – und das entsprechende Scheitern. Das Netz ist deutlich aggressiver gegenüber Otto Normaluser geworden, denn das Netz sind die User und Entscheider. Und die Menschen, die entscheiden können, sprich: Politiker und Wirtschaftsvertreter, entscheiden sich derzeit entweder für Repression oder für Profit. Andere entscheidende Tendenzen sind in den Jahren 2005 und 2006 nicht kommuniziert worden. Da sie auf den verschiedensten Wegen nicht festgestellt werden konnten, liegt der Schluss nahe, dass sie nicht existieren, was nur bedeuten kann: der User befindet sich damit faktisch in der Defensive. Was ist also zu tun? Fest steht, dass nach der Analyse des Materials sowie der Betrachtung der allgemeinen Geschehnisse der vergangenen Jahre in Deutschland keine digitale Kultur festgestellt werden kann, die ausreichend schlagkräftig ist, um die Gesellschaft wirklich nach vorne zu bringen oder um zumindest einen Einfluss auszuüben, der dem Netz deutlich mehr positive Seiten abverlangen kann. Das Internet ist für viele lediglich Mittel zum Zweck: ein schneller Vertriebskanal, ein netter Plausch, ein billiger Fax- und SMS-Service. Sie haben noch nicht begriffen, wie revolutionär das Netz nicht nur schon war, sondern erst recht noch sein wird. Es ist vollkommen richtig, wenn gesagt wird, dass wir gerade erst am Anfang stehen: das allgegenwärtige Computing, die Digitalisierung so vieler technischer Geräte und die darauffolgende Vernetzung, all dies ist derzeit nur diffus und kleinteilig erkannt worden. Und das hat Folgen: denn wenn die in Jahrhunderten entstandenen sozialen Gepflogenheiten ohne nennenswerte Anpassung auch im Netz angewandt werden und die dringend notwendige Entwicklung von neuen Formen der Identitätsarbeit im Besonderen und der sozialen Interaktion im Allgemeinen unterbleibt, wird schlicht und einfach nach dem Versuch-und-Irrtum-Schema gearbeitet. Und das ist

1.3 Erste Forschungsphase: 2005 bis 2007

77

bekanntlich nicht gerade der effektivste Weg. Was gebraucht wird, ist ein Verständnis der fortschreitenden Kompetenzverlustproblematik in Bezug auf die fortschreitende Digitalisierung, denn diese hat beim „Durchschnittseuropäer zu einer KompetenzEntwertung geführt, so dass man durchaus von einer Primitivierung der Beziehungen zwischen Mensch und Lebenswelt sprechen kann“.221 Was wir brauchen, ist mehr kulturell-digitale Grundlagenforschung. Das Gelingen von digitaler Identität ist kein Privatvergnügen. Es rekurriert immer mit der Gesellschaft; es ist auch ein gesellschaftlich vermitteltes Projekt.222 Reflexive digitale Soziologie hat ganz allgemein die Möglichkeit, eigenes emanzipatorisches Handeln zu fördern, Identitätszwänge im digitalen Raum aufzuzeigen und zum Widerstand anzuleiten sowie differenziertes Denken zu ermöglichen. Damit kann sie den Bestrebungen technischer Art entgegenwirken, die versuchen, „jedes Engagement wissenschaftlicher Vernunft im Politischen zu desavouieren“.223 Und dabei brauchen wir mehr als nur die Adaption US-amerikanischer Ergebnisse. Nur weil wir unsere Schuhe nach der Vorgabe US-amerikanischer Modetrends kaufen, Burger essen oder bei Discountern shoppen, heißt das nicht, dass unsere Kultur auch einfach die Übernahme US-amerikanischer Internettrends zulässt. Und das gilt im Übrigen für alle globalisierten Trends, nicht nur für US-amerikanische. Denn in nicht allzu ferner Zukunft werden Trends auch aus China kommen, aus Indien und aus Brasilien. Wenn wir nicht nur Kopisten und Mitläufer sein wollen, müssen wir hier proaktiv, professionell und fair kämpfen. Wir brauchen eine europäische Trendwende, die den Menschen im Mittelpunkt hat und nicht nur Überwachung oder blutleere Profitorientierung. Um es deutlich zu machen: bisher haben sich freilich häufig Entwicklungen durchgesetzt, mit denen niemand gerechnet hatte. Dazu gehören unter anderem die E-Mail und die SMS. Und ebenso gingen zahlreiche nette Versuche sang- und klanglos unter. Doch die Freiräume, in denen positive Dinge entstehen können, werden zunehmend zugunsten umfassender Kontrolle und Profitorientierung beschnitten. Dabei ist Deutschland durchaus ein Testfall: in einem Land, in dem es keine Bodenschätze und keine billigen Arbeitskräfte mehr gibt, kommt es immer mehr auf Imagination, Virtualität, Digitalität und Immaterialität an. Wer hier früh seine Claims absteckt und sichert, hat gewonnen. Doch die Abgrenzung der Spielräume hat immer auch eine Beschneidung der Freiräume zur Folge. Was wir desweiteren brauchen, ist digitale Bildung. Was wir brauchen, sind „neue Erzählungen“ – diese sind die „heimlichen oder auch offenen ´Lehrpläne´ für die Identitätsbildung der Subjekte“.224 Dass Menschen im Medienbereich hier eine Multiplikatorfunktion haben können, ist nicht neu, aber trotzdem weiterhin

221 222 223 224

Negt, 1998, S. 40. Keupp, 1999. S. 286. Keupp, 1999, S. 273; Bourdieu et al., 1997, S. 825 f. Keupp, 1999, S. 293; 1996, S. 42.

78

1 Einführung in die Internetsoziologie

richtig und wichtig. Bedeutend ist auch die Betonung des Nicht-Wissens. Kluges Handeln kommt auch mit Nicht-Wissen daher.225 Und ganz besonders wichtig ist aufgrund des hohen Tempos und der extremen Anforderungen im digitalen Bereich das Vergessen. Neben progressivem, bejahrenden Handeln ist vor allem Ambiguitätstoleranz vonnöten. Was wir brauchen, sind aktive Userinnen und User. Das Handeln im digitalen Raum ist neu für die Menschheit, daher wird hier nicht weniger eigenwilliges Verknüpfen und Kombinieren verlangt als im Rahmen anderer (nicht-digitaler) Teilrealitäten. Digitales Handeln muss nicht zwangsläufig auf Perfektion hinauslaufen. „Dem Gelingen muss das Misslingen gleichberechtigt zur Seite stehen, um das Selbst nicht auf das Gelingen festzulegen und es nicht unter Erfolgszwang setzen zu lassen“.226 Die Qualität von Identitätsarbeit und Lebensart steigt mit dem Level der Aufdeckung von digitalen Machtverhältnissen, wie das Beispiel Trusted Computing aufgezeigt haben sollte. Nur durch die Kenntnis der Machtverhältnisse sind Eingriffe und Einwirkungen möglich. Was neu diskutiert werden muss, ist auch die harte Trennung von Bürgerrechten und Antiterrorkampf. Eine dauerhafte Aufgabe in freiheitlichen Demokratien ist zweifellos die Austarierung von Freiheit und Sicherheit. Jedoch muss im Zuge der zunehmenden Individualisierung und der steigenden Eigenverantwortung im Netz diskutiert werden, ob wir nicht zu fluideren Bewertungsmaßstäben kommen können. Eine wichtige Rolle spielt hier auch der Kampf zwischen Sicherheit und Bequemlichkeit, wobei jedoch anzumerken ist, dass Benutzerfeindlichkeit, also die Ignoranz von Bequemlichkeit, stets auch ein Sicherheitsproblem darstellt. Die digitale Identität sollte sich im diskursiven Sinne positionieren zwischen der fitten individualisierten, beinahe narzisstischen Person227 und den großen Erzählungen mit Ewigkeitscharakter, die mit dem Verlust von Individualität einhergehen.228 Die Rede ist also von einem „reflexiven Selbst“,229 das Freiheit und Zivilgesellschaft erfolgreich verknüpft: „Ein solches Konzept des Empowerment hilft den Menschen, die Kontrolle über ihre eigene Lebenssituation auszudehnen.“230 Und das ist auch dringend notwendig, denn: Vor einem Vierteljahrhundert war die Vergangenheit bekannt, die Zukunft vorhersagbar und die Gegenwart veränderte sich in einem Schrittmaß, das verstanden werden konnte. (. . .) Heute ist die Vergangenheit nicht immer das, was man von ihr angenommen hatte, die Zukunft ist nicht mehr vorhersehbar, und die Gegenwart ändert sich wie nie zuvor.231

225 Schmid, 1998, S. 295. 226 Keupp, 1999, S. 275 f.; Schmid, 1998, S. 77 f. 227 Keupp, 1999, S. 290. 228 Keupp, 1999, S. 291. 229 Keupp, 1999, S. 292; 1996, S. 56. 230 Keupp, 1999, S. 293. 231 Gelatt, 1989, S. 252.

1.4 Zweite Forschungsphase: 2008 bis 2015

79

Warum nun das alles? Ganz einfach: Nur wenige Generationen bekommen die epochale Chance, Gegenwart und Zukunft in diesem Maße entscheidend zu formen. Die Digitalisierung wird die Welt umfassend verändern. Wir sollten diese Entwicklung positiv beeinflussen und nicht nur zuschauen. Das überwältigende Gefühl des Erschaffens ist unvergleichlich. Daran hat sich seit 2007 nichts geändert.

1.4 Zweite Forschungsphase: 2008 bis 2015 Maßgeblich auf Basis von Digitale Identitäten entstanden in der zweiten Forschungsphase, d. h. ab 2008, zahlreiche Folgevorhaben, die zu ganz unterschiedlichen Ausprägungen führten. Etliches wurde realisiert (siehe dazu in der Folge beispielsweise die Projekte MisPel und PERFORMANCE), vieles blieb jedoch auch roh und unbearbeitet. An dieser Stelle soll ein Überblick über drei Vorhaben erfolgen, welche aus Geheimhaltungsgründen zwar nicht konkret benannt und in allen Details dargestellt werden können, jedoch unter anderem Namen („Alpha“, „Beta“ und „Gamma“) aufgeführt werden und deren (internetsoziologische) Kernideen hier skizziert und kontextualisiert werden sollen. Im Anschluss finden sich vier Texte, die bereits an anderer Stelle veröffentlicht wurden und nun – entsprechend überarbeitet und stellenweise erweitert – auch hier dokumentiert werden sollen. Für die nun folgenden drei Unterkapitel mit Projektbeschreibungen („Alpha“, „Beta“ und „Gamma“) gilt wie immer: die Projektideen sind auf der Gesamtebene in aller Regel Teamarbeit, wobei im Detail dann logischerweise eine Unterscheidung zwischen den internetsoziologischen und allen anderen (beispielsweise technischen und rechtlichen) Ideen gemacht werden muss. Für die internetsoziologischen Ideen und Aspekte zeichnet allein der Verfasser verantwortlich. Die Nennung aller weiteren Beteiligten ist aus Geheimhaltungsgründen an dieser Stelle leider nicht möglich. Es wird aber stets auf ihre Mitwirkung verwiesen, wo dies notwendig erscheint. Die Erstellung der Gesamtskizze und Vertretung gegenüber Dritten oblag letztlich mir.

1.4.1 Projekt Alpha Für Projekt Alpha galt: es war (im Jahre 2009) mein Einstieg in die institutionelle Sicherheitsforschung. Mit diesem Projekt wurde die Internetsoziologie erstmalig und massiv geprägt, und zwar durch die anwendungsorientierte Forschung für die zivile Sicherheit.

80

1 Einführung in die Internetsoziologie

Abbildung 1: Logo von Projekt Alpha.

Projekt Alpha (siehe Abbildung 1) widmete sich folgenden Forschungsschwerpunkten: – Videoüberwachung – Datenschutz – Privatsphäre – Interdisziplinarität – soziologische/technische/juristische Dimensionen in Parallelbetrachtung Ich war als Vertreter „meiner“ Universität als Verbundkoordinator, eine technische und eine juristische Forschungseinrichtung jeweils als Verbundpartner, ein international tätiger Transportdienstleister und eine Polizeibehörde als Anwender in beratender Funktion (und ohne Partner-Status) vorgesehen. Die Verknüpfung zu einem bereits laufenden, sehr ähnlichen, aber nicht identischen Forschungsvorhaben wäre durch diese beiden Anwender sichergestellt worden, so dass entsprechende Synergieeffekte zu verzeichnen gewesen wären. Das Forschungsvorhaben kam – wie immer aus nicht konkret genannten bzw. hier zu nennenden Gründen – zwar nicht zustande, war aber letztlich zu großen Teilen die Vorlage für das (erfolgreich verlaufene) Projekt MisPel. Die Projekteinleitung und -motivation, auf die wir uns geeinigt hatten, lautete in der Kurzform wie folgt: „Wer Sicherheit will, muss Privatheit opfern.“ „Wer Videoüberwachung ablehnt, begünstigt nur Gefährder.“ „Mit jeder neuen Technikgeneration dringt ‚big brother‘ ein Stück tiefer ins Privatleben ein.“ So plakativ und eindimensional wird in der öffentlichen Diskussion häufig argumentiert. Sicherheit und Privatheit scheinen sich unvereinbar gegenüberzustehen. Soziologen, Juristen und Techniker beteiligen sich am Diskurs, jedoch mit bisweilen geringem Verständnis der Denkwelt der jeweils anderen Disziplinen.

1.4 Zweite Forschungsphase: 2008 bis 2015

81

Das Gesamtziel umschrieben wir dann etwas ausführlicher: Im Projektvorhaben bündelt sich soziologische, technische und juristische Kompetenz, um wissenschaftspragmatisch unter Einbeziehung von Anwendern den Herausforderungen gegenwärtiger und zukünftiger (Un-)Sicherheitsszenarien zu begegnen. Betrachtungsschwerpunkt sind Überwachungstechnologien, insbesondere die Videoüberwachung. Die Evaluation von Überwachungstechnologien, die Kenntnis der Sicherheitsbedürfnisse der Anwender, die Analyse und Fortentwicklung gesellschaftlicher und juristischer Normen sind die Koordinaten der Entwicklung neuer Gestaltungsansätze für Überwachungsanlagen. So soll das klassische Spannungsverhältnis zwischen Sicherheit einerseits und Privatsphäre andererseits mit innovativen Ansätzen entspannt werden. Zu diesen gehört das Commitment zur Ambivalenz von Überwachungstechnologie, die eben angesichts verbesserter technischer Möglichkeiten nicht nur zur Erhöhung der Sicherheit genutzt werden können, sondern – entgegen der landläufigen Wahrnehmung – gleichzeitig neue Chancen für den Schutz der Privatsphäre bietet. Agenda des Projektvorhabens ist die simultane Betrachtung und Zusammenführung der drei Dimensionen Recht, Gesellschaft und Technik, die entlang von Use-Cases konkretisiert wird. Der Trend zur ubiquitären und allzeitigen Informationsgewinnung und Datengenerierung ist ungebrochen. Auf Sicherheitsprodukte, insbesondere Videoüberwachungsanlagen, wirkt er sich direkt aus: Die Anzahl der Kameras steigt und „smarte“ Systeme assistieren bei der Auswertung des Bildmaterials und leisten der Automatisierung Vorschub. Zusätzlich können mobile Sensoren und letztlich beliebige Datenquellen (Drohnen, Mobiltelefone, GPS, RFID, etc.) integriert werden. Diese Entwicklungen führen zu einer verstärkten präventiven Datenerhebung. Diese Entwicklung stellt das deutsche und europäische Prinzip der Datensparsamkeit (mit seinen Grundlagen: „Recht auf informationelle Selbstbestimmung“; „Recht auf Integrität und Vertraulichkeit informationstechnischer Systeme“, „Recht am eigenen Bild“ (Art. 2 Abs. 1 i. V. m. Art. 1 Abs. GG, § 3 a. BDSG; EU Directives 95/ 46/EC und 2002/58/EC)) in Frage. Darüber hinaus müssen sich die Überwachungstechnologien den Fragen des Schwindens der Privatheit („The Disappearance of Disappearance“, Haggerty/Ericson) wie der Beendigung der Flüchtigkeit menschlicher Kommunikation („The Future of Ephemeral Communication“, Schneier) stellen. Nicht zuletzt der „Krieg gegen den Terror“ führt dazu, dass immer mehr Überwachungsanlagen gefordert und errichtet werden. Dem Zugewinn an Sicherheit durch solche Anlagen steht jedoch stets die mögliche Gefährdung der Privatheit gegenüber. Bereits mit etablierten Technologien ist die Wahrung der Privatsphäre in der Wahrnehmung weiter Teile der Bevölkerung gefährdet, und neue Technologien werden oft als weitere Bedrohung begriffen. Wichtigstes Ziel muss deswegen sein, eine gesellschaftlich und rechtlich verträgliche Balance zwischen Sicherheit und Privatheit zu finden und zu schaffen, durchaus unter Fortentwicklung bestehender Normen. Die aktuellen und zukünftigen technischen Möglichkeiten (etwa datensparsame Repräsentanz zu überwachender Objekte anstelle einer Daueraufzeichnung) müssen dabei

82

1 Einführung in die Internetsoziologie

als Chance begriffen werden, um Datenschutz auf einem bisher nicht erreichten Niveau umzusetzen, bei gleichzeitiger Erfüllung der Sicherheitsanforderungen. Sicherheit und Privatheit müssen in jeglicher Hinsicht als Ganzes betrachtet werden. Bisher erschöpften sich Projekte auf dem Feld der Sicherheitsforschung oft in der Beschreibung und Interpretation von Normen, aus denen – statisch – rechtmäßige Ausprägungen von Überwachungsstrategien abgeleitet wurden. Ziel dieses Projekts ist es hingegen, auf Basis soziologischer Untersuchungen und in disziplinübergreifendem Dialog zwischen allen Parteien – entlang im kritischen Diskurs entwickelter Kriterien – wünschenswerte Anpassungen der Rechtsnormen in Deutschland herauszuarbeiten und gleichzeitig die zur Umsetzung erforderlichen technischen Lösungskonzepte aufzuzeigen. Um Akzeptanz und Praxistauglichkeit der Normenvorschläge und innovativen Technologien zu gewährleisten, sollen neben Soziologen, Juristen und Technologen von Beginn an qualifizierte Endanwender das Projekt begleiten. Letzteres ist von essenzieller Bedeutung, da ein Gewinn an Privatheit nur dann realisiert werden kann, wenn die erarbeiteten Lösungen tatsächlich von den avisierten Zielgruppen eingesetzt werden. Die Gesellschaft als mittelbarer „Endnutzer“ wird in regelmäßigen Dialogen ebenfalls einbezogen. Im Hinblick auf zukünftige europäische Richtlinien, vereinheitlichte Gesetzgebungen und verstärkte Zusammenarbeit der Mitgliedsstaaten soll untersucht werden, welche Auswirkungen vorgeschlagene Änderungen auf Europa haben. Soweit die gemeinsame Projektbeschreibung, die ich als Einreicher verfasste und verantwortete. Im soziologischen Teil sowie auch in der Gesamtausrichtung sind einige der Erkenntnisse, die in Digitale Identitäten gewonnen wurden, klar erkennbar. Dieses Vorhaben samt seinen Ergebnissen war im Übrigen auch der Grund für die Entscheidung, an Projekt Alpha mitzuwirken. Projekt Alpha sollte als ressourcenbegrenztes Einzelprojekt die oben skizzierte Problematik multidisziplinär beleuchten und diskutieren, es konnte und sollte sich jedoch nicht eine globale und endgültige Lösung vornehmen. Eine solche Lösung erschien damals wie heute vermessen, denn wie man allein schon aus Digitale Identitäten entnehmen konnte, spielen die kulturellen Aspekte bei der Suche nach digital plausiblen Lösungen eine große Rolle. Natürlich brauchten wir damals ein Einsatzszenario, weshalb wir uns auf folgenden Ansatz einigten: Projekt Alpha sollte sich in der Projektarbeit auf das Feld der Überwachung von Liegenschaften und öffentlichen Orten mit (bildgebenden) Sensoren konzentrieren, und zwar unter gesellschaftlichen, rechtlichen und technischen Dimensionen. Die Vielschichtigkeit der aufgezeigten Problematik spiegelte sich wider in der gewählten Herangehensweise: In einer vorgeschalteten Untersuchung sollten im engen Dialog mit den Anwendern Klassen von Überwachungsaufgaben definiert werden, die in der Praxis, so die Annahme, von großer Bedeutung waren und, zusammengenommen, eine weitgehend vollständige Abdeckung ergaben. Die Klassen müssen bei so einer Herangehensweise grundsätzlich nicht überlappungsfrei sein, vielmehr kann es sich durchaus als sinnvoll erweisen, die Problematik der Informationsweitergabe über Systemgrenzen hinweg in die Erarbeitung der Klassen aufzunehmen,

1.4 Zweite Forschungsphase: 2008 bis 2015

83

auch um die Nutzung von Daten für zunächst nicht vorgesehene Zwecke unter verschiedenen Aspekten erörtern zu können. Für die einzelnen Klassen sollten dann, so die seinerzeit bereits übliche Vorgehensweise, Use Cases erarbeitet werden, entlang derer später eine abstrakte Diskussion konkretisiert werden kann. In der Projektarbeit sollte die Betrachtung der Dimensionen nicht sequentiell, sondern miteinander verwoben erfolgen. So sollte sichergestellt werden, dass in die Vorschläge zur Fortentwicklung juristischer Normen Ergebnisse aus der soziologischen Dimension einfließen und aktuelle sowie zukünftige Technologien Beachtung finden. Technische Betrachtungen werden mit diesem Ansatz nicht getrennt von soziologischen und juristischen Diskussionen erfolgen, wie man dies in manchen monodisziplinären Vorhaben beobachtet. Und mit dem Begriff der Verwebung ist man natürlich ganz nah an der Vorgehensweise des Bastelnden Denkens gewesen, welche sich inhaltlich interdisziplinär und eben verwebend bewegt. Hier rannten die Kollegen bei mir natürlich offene Türen ein. Der Projekt-Alpha-Ansatz erlaubt ebenfalls die multidisziplinäre Diskussion der Ökonomie von High-Tech-Überwachungssystemen auf der Mikro- und der MakroEbene und stellte damit einen Vorläuferansatz der drei Ebenen von Sociality by Design (SbD) dar: Akzeptanz begünstigt Kooperativität der breiten Mehrzahl der Überwachten und damit die Effektivität als Voraussetzung für Wirtschaftlichkeit. Das Konzept der Use Cases erlaubt es, die gesellschaftlichen, juristischen und technischen Betrachtungen miteinander verwoben auf konkrete Anwendungsfälle zu projizieren, anhand derer ein praxisnaher und ganzheitlicher Lösungsansatz entwickelt werden kann. Diese Use-Case-Orientierung mit konkreten Anwendungsfällen ist auch heute noch die übliche Vorgehensweise bei anwendungsorientierter Forschung. Aus internetsoziologischer Sicht – die damals noch nicht so genannt wurde – ergaben sich folgende Innovationen: Die sicherlich bedeutendste Innovation ist in einem Projekt wie dem hier vorgestellten Vorhaben die neuartige Definition eines unverletzlichen Kernbereichs von Privatsphäre, sprich: eines „kleinsten gemeinsamen Nenners“ im Bereich Datenschutz und Datensicherheit. Dieser Kernbereich taugt dann nicht nur für konkrete Anwendungen und ist somit bei erfolgreicher Implementierung im Alltag deutlich sichtbar, sondern hat darüber hinaus aufgrund seiner inhaltlichen bzw. methodischen Übertragbarkeit und Vorbildfunktion auch das Potential, ein entscheidendes Element für eine erfolgreiche Neuausrichtung von Datenschutz und Datensicherheit in allen digitalen Umgebungen zu werden. Denn der Fokus bei soziologisch-technischen Analysen sollte unzweifelhaft auf der Digitalisierung der Lebenswelt liegen, da anhand zahlreicher Beispiele (wie unter anderem in Digitale Identitäten) gezeigt wurde, wie „analoge Strategien“ bei der Bewältigung digitaler Herausforderungen versagt haben. Mithilfe einer Adaption der soziologisch relevanten Grundregeln des Datenschutzes232 auf das Projektziel im

232 Bizer, 2007.

84

1 Einführung in die Internetsoziologie

Rahmen der Überwachung von Liegenschaften und öffentlichen Orten mit (bildgebenden) Sensoren wird festgestellt, welche Regeln unabdingbar und welche eher vernachlässigbar sind. Die Produktion von Datenschutz und -sicherheit ist aus soziologischer Sicht stets sowohl eine Vertrauens- als auch eine Machtfrage. Das Ziel war in Projekt Alpha deshalb die Erreichung eines ausgewogenen Verhältnisses zwischen den beteiligten Parteien und die individuelle wie kollektive Akzeptanz einer Untergrenze, die nicht verletzt werden darf bzw. auch (technisch betrachtet) kaum mehr verletzt werden kann. Die Festlegung der Vertrauens- und Machtkoordinaten bereits im Vorfeld – also zum Beispiel in der Planungsphase einer Videoüberwachungsanlage für eine Firma – hat mehrere entscheidende Vorteile: Die Austarierung der Macht erfolgt deutlich früher und somit effektiver und Vertrauensbrüche fallen deutlich schwerer. Der Missbrauch technischer Möglichkeiten wird von Anfang an stark minimiert, was die Akzeptanz der Maßnahme wiederum stark steigern kann. Das Aufzeigen von verbindlichen Grenzen entspricht dem Recht der Betroffenen auf Kenntnis von der jeweiligen Maßnahme und ihrem Umfang. Insgesamt würde so eine Lücke geschlossen werden können, die in den letzten Jahren (sprich: vor 2009) immer wieder für politische und zivilgesellschaftliche Auseinandersetzungen gesorgt und viel Kraft und Zeit gekostet hat. Und selbst wenn das freilich nicht gerade niedrige Ziel der Definition einer effektiven Privatsphären-Untergrenze nicht erreicht werden sollte, so hat vor allem die Herangehensweise (so die damalige Annahme aufgrund der positiven Wahrnehmung von Digitale Identitäten auf epistemologischer Ebene) enormes Potential, anderen Forscherinnen und Forschern als Vorbild zu dienen und einen Weg zu ebnen, denn wie bereits gesagt wurde, erschien seinerzeit vor allem der monokausale Ansatz zahlreicher Sicherheitsforschungsprojekte als großes Problem, da eine ganzheitliche Betrachtung, die der Aufgabe gerecht wurde, so bisher nicht zustande kommen konnte. Die Verschmelzung soziologischer, technischer und rechtlicher Komponenten von Beginn an sollte mit Projekt Alpha somit auch ein Modellversuch in Sachen interdisziplinärer, digitaler Zusammenarbeit und Projektgestaltung werden, der das Zeug hat, die tradierten und oftmals hinderlichen Disziplin- und Kooperationsgrenzen zu sprengen. Auf die technischen und rechtlichen Innovationen wird aus Gründen des Innovations- und Datenschutzes an dieser Stelle nicht eingegangen. Dies ist aber auch thematisch an dieser Stelle nicht von Belang. Die soziologische Ausrichtung bzw. Perspektive war seinerzeit klar, ebenso die Notwendigkeit der Durchführung dieses Vorhabens an der Universität der Künste (UdK) in Berlin: es ging hier um ein gravierendes Statement für die Internetsoziologie, auch wenn sie eben – aus entsprechender Vorsicht – noch nicht so genannt wurde. Doch wer sich die Aspekte „drumherum“ genau anschaut, der stellt freilich fest, dass dieses Projekt auf die Internetsoziologie-Beschreibungen auf meiner Website abzielte. Deshalb war es nur konsequent, dieses Vorhaben auch vollumfänglich in der Digitalen Klasse der UdK zu verorten. Schließlich hat innovatives und exploratives wissenschaftliches Arbeiten

1.4 Zweite Forschungsphase: 2008 bis 2015

85

an der Fakultät Gestaltung der UdK Tradition. Und wenn von Gestaltung gesprochen wird, war schon damals seit langem nicht mehr nur die künstlerische Gestaltung gemeint, sondern vor allem auch die medientheoretische. Internationale und nationale Medientheoretiker und Medienpraktiker arbeiten miteinander im Medienhaus der UdK und bilden so gemeinsam den akademischen Nachwuchs im besten interdisziplinären Sinne aus. Mit der Etablierung eines medientheoretischen Seminars in der Digitalen Klasse im Jahre 2006 und der Übertragung dieser Verantwortung auf mich verband Joachim Sauter, ein Pionier der digitalen Medien, gleichermaßen effektiv wie visionär die entstandenen Bedürfnisse nach einer gesellschaftswissenschaftlichen Verortung digitalen Handelns. Die Arbeitsweise des Seminars orientierte sich dabei an international renommierten Vorbildern wie dem Berkman Center der Harvard University oder dem Media Lab des MIT und war damit hinsichtlich seiner Ausrichtung und Arbeitsweise nicht nur einzigartig in Deutschland. Der Schwerpunkt von Forschung und Lehre lag seinerzeit in den Disziplinen Soziologie, Psychologie, Medien- und Informationswissenschaften. Die Digitale Klasse war im Jahr 2008 gemessen an den erhaltenen Ehrungen und Auszeichnungen die erfolgreichste Digitaldesignklasse der Welt. Mit diesem Vorhaben, im beschriebenen Umfeld, sollte (im Idealfall) die Wissenschaft weitergebracht werden, und zwar außergewöhnlich innovativ und experimentell. Ein tatsächlich ganzheitlicher Diskurs zwischen den drei entscheidenden Dimensionen der Sicherheitsforschung wurde, so unsere damalige Einschätzung, bis dato von keinem Vorhaben gewagt. Vielmehr arbeitete man formal zwar zusammen, aber in vielen Projekten, so vor allem die Auskunft der damaligen Projektpartner, die schon deutlich mehr Erfahrung im Bereich Drittmittelforschung hatten, war dieses „Zusammen“ eher ein Nebeneinander. Neben Forschungsprojekten, die sich innerhalb einer Fachrichtung bewegen, gab es zwar (EU-)Projekte, in denen mehrere Dimensionen betrachtet wurden, jedoch geschah dies eben nicht tatsächlich übergreifend im Sinne einer Verwebung noch – und das kritisierten vor allem die Technikwissenschaftler im hiesigen Projektkontext – ausreichend praxisnah und nur in unzureichender Detailschärfe. Die internationale soziologische Diskussion von Überwachung im digitalen Zeitalter erschien mir und auch den Mitstreitern als recht junge Diskussion, sprich: eine Diskussion ganz am Anfang. Zwar beriefen sich zahlreiche Forscherinnen und Forscher gerne und häufig auf klassische Überwachungsdiskurse, Grundlagen und Theorien, jedoch befindet sich die Analyse technischer – und vor allem digitaler – Überwachung historisch betrachtet noch ganz am Anfang und mit der Analyse alter Meister zudem auf einem Irrweg, wie mir bereits durch Digitale Identitäten deutlich gemacht wurde. Klassische Schriften sind nun einmal aufgrund der Neuartigkeit des Digitalen meist nur begrenzt hilfreich. Freilich waren damals auch einige neue und spannende Ansätze in unterschiedlichen Disziplinen erkennbar,233 doch von

233 Etwa Kammerer, 2008; Zurawski, 2007.

86

1 Einführung in die Internetsoziologie

einem etablierten Forschungsfeld oder gar einer Subdisziplin konnte, so mein damaliger Eindruck, (noch) nicht gesprochen werden. Zudem waren diese neuen Ansätze sehr oft noch weit von einer Einheitlichkeit oder einem interdisziplinär wahrnehmbaren Standpunkt entfernt – so mischten sich beispielsweise soziologische, politologische, technische, juristische und journalistische Diskurse, Beobachtungen und Gedanken jeglicher Couleur und enden in einer bunten Argumentationskaleidoskopie, was zwar durchaus zu anregenden Diskussionen führen kann, einem strukturierten Fortschritt jedoch nicht unbedingt förderlich ist. Zwar stellt sich aufgrund des Untersuchungsgegenstandes auch schnell die Frage, inwiefern eine Einheitlichkeit oder gar eine Einengung auf eine „klassische Disziplin“ möglich und vor allem sinnvoll erscheint, jedoch dürfte wohl unumstritten sein, dass ein ständiges Anregen von Diskursen ohne eine konsequente, logische Weiterentwicklung zentraler Gedanken und Konzepte nicht besonders zielführend ist und letztlich auch dem Forschungsfeld nicht dauerhaft dienlich sein kann. Es ging also schon damals einerseits darum, die vielversprechenden Teile des Forschungsfeldes „Surveillance Studies“,234 also der Ansätze, die sich mit den Bedingungen von Überwachung beschäftigen, zu identifizieren und weiterzuentwickeln, ohne dabei in die schwammige, teilweise ideologisch getrübte Gemengelage zurückzufallen, die nicht selten vorzufinden war.235 Wenn also dem Forschungsfeld zugestanden wird, dass es sich noch in seiner explorativen Phase befindet, so verhindert dies nicht die interdisziplinäre Fokussierung auf konkrete und klar umrissene Kernbereiche des Themenbereiches „Überwachung“ – ganz im Gegenteil. Werden zentrale Überwachungsthemen aufgegriffen und quantitativ wie qualitativ beleuchtet, so hilft dies gleichermaßen der Grundlagen- wie auch der anwendungsorientierten Forschung und ist überdies ein deutlicher Beweis für die Sinnhaftigkeit interdisziplinärer Zusammenarbeit, wie sie in diesem Projekt zustande kommen sollte. Dass die Soziologie in dieser Runde eine entscheidende Rolle spielt, begründet sich erstens durch die kulturellen Auswirkungen, die Überwachung auch ohne jegliche (digitale) Technikeinwirkung hat236 und welche somit gesellschaftshistorisch noch vor der Einwirkung von Technologie zu verorten sind, zweitens durch die Beeinflussung von Technikgenese, welche niemals losgelöst von gesellschaftlichen Entwicklungen stattfindet und drittens aufgrund der sozialen Dimension, die (digitale) Überwachung aufgrund der aktuellen Entwicklungen (Videoüberwachung, Biometrie in Ausweisdokumenten, Vorratsdatenspeicherung, etc.) insgesamt beansprucht und dafür sorgt, dass eine Betrachtung losgelöst vom sozialen Kontext nicht ausreichend sein kann. In der digitalen Welt haben Datenschutz und Datensicherheit einen revolutionären Wandel erfahren. Nie zuvor gab es einen mit der Digitalität vergleichbaren,

234 Lyon, 2002; 2007. 235 z. B. Bisky, 2009; Leipziger Kamera, 2009. 236 Foucault, 1976.

1.4 Zweite Forschungsphase: 2008 bis 2015

87

dermaßen machtvollen gemeinsamen Nenner, nie zuvor war der Datenabgleich über alle Grenzen hinweg – technisch wie rechtlich – so problemlos möglich und nie zuvor waren Überforderung und Desinteresse der Betroffenen einerseits sowie das Interesse der Datenverwerter an möglichst vielen und detaillierten Daten andererseits so groß. In der digitalen Welt dominieren somit vor allem die Begrifflichkeiten, die genau diese Punkte genauer beschreiben: die Verknüpfung von sämtlichen Daten, die Vereinheitlichung der Datenstandards und -sätze sowie die Vervollkommnung der Datenbestände zu einem nie zuvor da gewesenen Datenkonvolut.237 Datenschutz und Datensicherheit sind sowohl im Teilsystem Politik als auch im Teilsystem Wirtschaft für den Bestand des jeweiligen Systems nur von nachrangiger Bedeutung. Für das Individuum hingegen sind Datenschutz und Datensicherheit Kern des digitalen Handelns und somit von entscheidender Bedeutung. Der Wirtschaft ist der Datenschutz vor allem dann dienlich, wenn er zur Profitmaximierung eingesetzt werden kann – und dies ist mittelbar ja auch dann der Fall, wenn Datenschutz in der öffentlichen Diskussion gerade eine entsprechende Beachtung erfährt und damit ein Marketingargument ist.238 Hilfreich sekundiert wird diese Gemengelage vom großen Desinteresse der Bürgerinnen und Bürger: da sie häufig glauben, den Überblick bereits seit langem verloren zu haben, schreiben sie Datenschutz und Datensicherheit schnell ab. Erst wenn der Bürger die Auswirkungen zu spüren bekommt – beispielsweise als Folge falscher Schufa-Einträge – wird er hellhörig. Dann ist es jedoch meist zu spät und bezieht sich in der Regel lediglich auf das individuelle Schicksal. Zwar obliegt die Gestaltungsmacht bezüglich der Aufstellung und Abschaffung von Datenschutzrechten der Legislative, jedoch gibt es einen nicht zu unterschätzenden Freiraum, der sich aus der Macht des Faktischen ergibt und im Wesentlichen von nichtstaatlichen Akteuren ausgenutzt wird.239 In vielen Fällen (Schufa-Klausel, Versicherungsbedingungen, Kredit-Scoring) helfen rechtliche Regelungen nur bedingt: wenn es zur Schufa keine Alternative gibt, ist eine Verweigerungshaltung von Seiten des Kunden nur begrenzt hilfreich. Es heißt dann: Wer nicht mitmacht, wird kein Kunde. So kann schnell der Eindruck entstehen, im digitalen Raum herrscht entweder Allmacht oder Anarchie. Von einem fair austarierten Verhältnis zwischen Datengebern und Datennutzern kann jedenfalls keine Rede sein. Schaut man jedoch genauer hin, so wird deutlich, dass Individuen sehr wohl Einfluss auf ihre Daten nehmen können, sei es nun aufgrund einer Rücknahme freiwilliger Machtaufgabe oder einer Ausgestaltung konkreter Handlungsoptionen. Im Rahmen von Projekt Alpha sollte nun vor allem der gestaltende Rahmen konsequent interdisziplinär und unter

237 Schulzki-Haddouti, 2004. 238 Lessig, 2004. 239 Humer, 2008.

88

1 Einführung in die Internetsoziologie

Einbeziehung von Anwendern ausgenutzt werden. Datenschutz und Datensicherheit kann dies nur dienlich sein. Projekt Alpha wurde durch eine mehrdimensionale (sprich: stark miteinander verwobene) Problembetrachtung geprägt, die sich in der Matrix-Arbeitspaketstruktur widerspiegelte. Von zentraler Bedeutung sollte der ständige Dialog mit den Anwendern sein, welche ebenfalls – so wie sonst sehr oft vorzufindende „Begleitforschung“ – nicht nur „nebenbei mitlaufen“, sondern Akteure im besten Sinne sein sollten. Projekt Alpha sollte insgesamt auf drei Abstraktionsebenen arbeiten: – sehr konkret entlang der identifizierten Szenarien – allgemeiner auf der Ebene der identifizierten (Überwachungs-)Klassen – abschließend auf einer Transferebene, die eine Verallgemeinerung des entwickelten Problemverständnisses zum Ziel hat, wobei dann die Beschränkung auf Videoüberwachung entfallen kann Man sieht hier, dass das Drei-Ebenen-Schema von Sociality by Design240 erkennbar ist und so auch in den seinerzeitigen Diskurs eingebracht wurde. Freilich war das Projekt – wie zu Beginn beschrieben – eine Teamleistung, d. h. ich steuerte die Präferenz des Drei-Ebenen-Ansatzes bei und die anderen Projektpartner stimmten einer sprachlichen Ausprägung zu, mit der sie leben und arbeiten konnten. Innerhalb der unterschiedlichen Disziplinen sollten Kriterien zur Klassenspezifikation erarbeitet werden, auf deren Basis zusammen mit den Anwendern eine Identifikation der Überwachungsklassen stattfinden sollte. In Zusammenarbeit mit den Anwendern sollte anschließend die Spezifikation der Anforderungen an die Privatheit und Informationsverarbeitung für die Überwachungsklassen stattfinden, so dass später Lösungsansätze für beide Bereiche erarbeitet werden können und diese miteinander im Einklang stehen. Zudem sollten konkrete Use Cases entwickelt werden, die im Laufe des Projekts verwendet werden sollten. Um die Anwendungsnähe sicherzustellen sollte wie bereits erwähnt ein kontinuierlicher, innovativer, strukturierter, aber trotzdem offener Dialog mit den Anwendern während der gesamten Projektlaufzeit stattfinden. Zum Projektabschluss sollten die Ergebnisse gemeinsam evaluiert werden. Auch dies war mein Vorschlag, der besondere Relevanz beinhaltete und deshalb auf jeden Fall realisiert werden sollte. Die internetsoziologische Komponente sah folgende Arbeitsschritte vor: Im ersten Arbeitsschritt (Survey und Klassenbildung) wäre ein Survey erstellt und eine entsprechende Erhebung durchgeführt worden, welche sich an den definierten Spezifikationen orientiert und soziologische Kernfragen rund um die Ausgestaltung von Datenschutz und Datensicherheit im digitalen Raum gestellt hätte, gefolgt von der Datenaufbereitung sowie deskriptiven und multivariaten Analysen. Im zweiten Arbeitsschritt (Interviews und Theorieabgleich) sollten Leitfadeninterviews durchgeführt

240 Humer, 2012.

1.4 Zweite Forschungsphase: 2008 bis 2015

89

werden, welche der Verstärkung bestimmter Schwerpunktanalysen dienen sollen. Der dritte Arbeitsschritt (Inhaltsanalyse und Theorieabgleich) sollte aus einer Inhaltsanalyse bestehen, welche sich der gesellschaftlichen Datenschutzperspektive unter Berücksichtigung medialer Meinungsbildungsmacht gewidmet hätte. Im zweiten und dritten Arbeitsschritt wäre ein permanenter Theorieabgleich erfolgt, welcher die gewonnenen Erkenntnisse (auch der anderen Verbundpartner) mit bestehenden Theorien und Ansätzen vergleicht und die soziologischen Entwicklungsmöglichkeiten beschreibt. Einer (Neu-)Definition eines unantastbaren Bereichs von privater Lebensgestaltung kommt insgesamt eine überragende Bedeutung für die Gesellschaftsforschung zu. Die Verbindung von quantitativen und qualitativen Methoden ermöglicht sowohl eine Erhebung repräsentativer Daten als auch die Gewinnung differenzierter Informationen über die Bedeutung dieser Daten. Die Arbeitsschritte orientieren sich dabei an etablierten Erhebungsverfahren, welche sich durch ihre Zuverlässigkeit, handhabbare Struktur und interdisziplinäre Anerkennung auszeichnen und damit erste Wahl für eine solche Aufgabe sind.

1.4.2 Projekt Beta Projekt Beta widmete sich einem Ansatz des Diebstahlschutzes im internationalen Transportwesen, womit die wichtigsten Zusammenhänge zwischen Projekt Alpha und Projekt Beta offensichtlich sein dürften. Vor allem dürfte aber in der Folge der Projektvorstellung die Weiterentwicklung der internetsoziologischen Komponente erkennbar sein: Projekt Beta wurde einige Jahre nach Projekt Alpha verortet und profitierte demzufolge deutlich von den Arbeiten an der internetsoziologischen Idee. Inhaltlich ging es in Projekt Beta erneut um die zivile Sicherheit, genauer: um den Schutz vor organisierter Kriminalität. Folgende Forschungsschwerpunkte waren vorgesehen: – Kritische Infrastruktur Eisenbahn (auf der Meta-Ebene) – Multisensorsysteme (auf der Mikro-Ebene) – Diebstahl von Bahninfrastrukturkomponenten – Transportgutdiebstahl – Schutz von Bahntrassen – Schutz von Transportgütern Das Ziel von Projekt Beta war die erfolgreiche Bewältigung der organisierten Kriminalität in der kritischen Infrastruktur Eisenbahn. Es waren zahlreiche Forschungs- und Sicherheitseinrichtungen beteiligt. Ich war diesmal nicht als Verbundkoordinator vorgesehen, sondern als Teilprojektleiter. Mit dem zu entwerfenden ganzheitlichen Konzept sollten letztlich, so das Konsortium, folgende Ziele erreicht werden: – Frühzeitige Ermittlung von Tatort und Tatzeitpunkt – Frühzeitige Ermittlung von Schadensumfang und Gefahrenpotential

90

1 Einführung in die Internetsoziologie

– Ermittlung von Hinweisen zu Tätern, z. B. verwendete Transport-, Arbeits-, und Kommunikationsmitteln – Gerichtsverwertbare Dokumentation der Tatdurchführung – Aufklärung der Organisationsformen der Organisierten Kriminalität – Aufklärung von Querbezügen zu anderen Straftaten – Entscheidungsunterstützung bei der Zugriffssteuerung von Sicherheitskräften Für die genaue Erreichung dieser Ziele waren Innovationen vorgesehen, die hier leider nicht dargestellt werden können. Dass diese innovativen Komponenten inzwischen übliche Aspekte wie – einfache Installation und Nutzung – Energieeffizienz – Manipulationssicherheit beinhalten sollten, verstand sich auch damals schon von selbst. Den beiden Kriminalitätsszenarien des Transportgutdiebstahls und des Diebstahls von Bahninfrastrukturkomponenten wurde auf mehreren Ebenen begegnet, so dass einerseits das Szenario „Diebstahl“ ganzheitlich aufgegriffen und andererseits auch die repressiven Strategien ganzheitlich ausgestaltet werden sollten. Die verschiedenen Herausforderungen wurden adressiert und unterschiedliche Lösungsvorschläge unterbreitet. Bei allen Ansätzen sollte durch die rechtliche und internetsoziologische Begleitung sichergestellt werden, dass Datenschutz und Datensicherheit sowie persönliche und kollektive Rechte der Betroffenen Teil des Lösungsansatzes sind, und zwar von Anfang an. Anders als beim ersten Projekt sollte dieses Vorhaben aus organisatorischen Gründen nicht mehr in der Digitalen Klasse der UdK, sondern am Alexander-von-HumboldtInstitut für Internet und Gesellschaft (HIIG) angebunden werden. Ich sollte als Wissenschaftler am HIIG begleitend zu den Arbeitspaketen die Akzeptanz der Konzepte beim Anwender und in der Gesellschaft untersuchen, da es sich letztlich um hochgradig spezielle, maßgeschneiderte Konzepte vorrangig auf technischer und personeller Basis handeln sollte, für die sich keinerlei Vergleichsmöglichkeit in der SicherheitstechnikGegenwart gefunden hätte. Ergänzt worden wären diese Arbeiten durch eine KostenNutzen-Analyse und einer darauf aufbauenden Bewertung zur Zukunftsfähigkeit des Gesamtkonzepts. Doch wie kam es überhaupt zum Wechsel von der UdK zum HIIG? In erster Linie lag es an den bereits erwähnten organisatorischen Gründen: am HIIG wäre ich kein Einzelkämpfer mehr gewesen, so wie an der UdK, sondern wäre von Gleichgesinnten umgeben gewesen, getragen auch von der inhaltlichen Ausrichtung dieser Struktur. Das HIIG wurde im März 2012, also einen Monat nach der endgültigen Begründung meines Arbeitsbereiches Internetsoziologie, von der Humboldt-Universität zu Berlin, der UdK und dem Wissenschaftszentrum Berlin für Sozialforschung begründet (ergänzt durch den integrierten Kooperationspartner Hans-Bredow-Institut für Medienforschung in Hamburg), mit dem Ziel, innovative und impulsgebende

1.4 Zweite Forschungsphase: 2008 bis 2015

91

wissenschaftliche Forschung im Bereich Internet und Gesellschaft zu leisten. Dazu gehört ganz besonders die digitale Sicherheitsforschung, welche vom HIIG-Direktorium als hochrelevante interdisziplinäre Querschnittsaufgabe betrachtet und dementsprechend in mehreren Vorhaben und mit renommierten Partnern auch individuell realisiert wurde. Beispielhaft sind das Kompetenznetzwerk für das Recht der zivilen Sicherheit in Europa (KORSE, Prof. Dr. Dr. Pernice), aber auch das Forschungsbündnis D-WERFT (Zukunftsforschung und Wissenstransfer, Prof. Dr. Dr. Schildhauer) zu nennen. Hinzu kommen interne Arbeitsseminare zur sozio-technischen Sicherheitsforschung an Partnerinstitutionen (Verbundprojekt MisPel, UdK Berlin) und die intensive Mitwirkung im internationalen Network of Centers, welche eine besonders hochwertige Forschungsdialogizität mit renommierten Institutionen wie dem Berkman Center (Harvard), dem Media Lab (MIT) und dem Oxford Internet Institute (OII) sicherstellt. Hinzu kommt natürlich auch: das HIIG wurde von der UdK zusammen mit ihren Partnern ins Leben gerufen und war damit auch für mich der „natürliche“ nächste Schritt in Richtung einer besseren Analyseumgebung. Die Digitale Klasse an sich war und ist super, doch am HIIG gab es noch bessere Rahmenbedingungen. Und diese Rahmenbedingungen führten auch zu einer entsprechend stark ausgebauten Herangehensweise innerhalb des Projekts: im Rahmen der Begleitforschung wollte ich mich deshalb im (numerisch) letzten Arbeitspaket (hier gekennzeichnet als APx) im Sinne einer Abrundung der Gesamtskizze den gesellschaftlichen und wirtschaftlichen Aspekten dieses Projekts widmen. Dies sollte nicht nur in erwartungsgemäß enger Zusammenarbeit mit dem rechtswissenschaftlichen Begleitforschungspartner geschehen, sondern von Beginn an mit allen Projektbeteiligten, so dass APx by Design funktionieren sollte und nicht nur eine parallele, d. h. weitestgehend vom Entwicklungsgeschehen isolierte Betrachtung der Ergebnisse anderer AP erfolgen kann. Die Schwerpunktsetzung auf Sociality, Legality und Privacy by Design und damit auf ein integratives Rahmenkonzept hätte somit eine gleichermaßen effiziente wie effektive Arbeitsprozessgestaltung sicherstellen können, die allen Beteiligten (hier ganz besonders: den technischen und polizeilichen Partnern) auch bereits vertraut ist, beispielsweise aus Konzepten wie BSI-IT-Grundschutz, BSI-Privacy-Impact-Assessment-Leitfaden oder behördeninternen Datenschutz- und Compliance-Policies. Sozialwissenschaftliche Ergebnisse sind in dieser Form zeitnah und unkompliziert in die Technik implementierbar, zudem werden semantische Anknüpfungsmöglichkeiten an die Ideen und Methoden der sozialwissenschaftlichen Partner ermöglicht (sprich: ein gemeinsamer Nenner in der Zusammenarbeit wird hergestellt und somit Reibungsverluste in der Kommunikation überwunden) – und das bei geringstmöglichen Kosten, da eine modulare Handlungsstrategie genutzt wird, die auf bereits verfügbaren Elementen aufbaut (Fundament und Logik von Privacy by Design, Nutzung etablierter und passend erscheinender Methoden und Theorien aus den Bereichen Surveillance Studies, Digital Humanities, Open Innovation usw.) und damit eine zeit- und kostenintensive „Insellösung“ vermieden werden kann. Aufgrund der immensen und weitestgehend

92

1 Einführung in die Internetsoziologie

unbearbeiteten Herausforderungen, die durch die digitale Revolution für unsere Gesellschaft entstanden sind, erschien ein solches Konzept damals ebenso hilfreich wie heute. Da das gesamte Projekt Projekt Beta ohne die nahezu alle Lebensbereiche erreichende digitale Revolution nicht denkbar wäre, fokussierte sich das Forschungskonzept für die gesellschaftlichen und wirtschaftlichen Aspekte auf vier Themenschwerpunkte aus dem interdisziplinären Arbeitsbereich Internet und Gesellschaft: Akzeptanzanalyse und Technikfolgenabschätzung samt Privacy Impact Assessment im Bereich der Anwender und im Bereich der Gesellschaft sowie KostenNutzen-Analyse und Analyse der Standardisierungs- und Zukunftsfähigkeit entwickelter Lösungen. Die hier vorgesehenen Akzeptanzanalysen erfolgen sowohl durch Literaturrecherchen und einer Agenda-Setting-Medienanalyse zur Feststellung der Haltung der Meinungsmacher der „vierten Gewalt“ gegenüber solchen Vorhaben als auch durch Expertengespräche, so dass ein triangulierter Erkenntnisgewinn ermöglicht wird. Diese Form der Technikfolgenabschätzung erfolgt partizipativ, ebenso das Privacy Impact Assessment. Hier werden intensiv Möglichkeiten aus dem Bereich Open Science (d. h. konkret: eine Co-Working-Plattform) genutzt, welche insbesondere für die Involvierung einer erweiterten Gruppe von Ideengebern (erweiterte Expertenbefragung) hilfreich erscheint. Eine solche Co-Working-Plattform soll auch genutzt werden, um das Lösungsszenario kontinuerlich zu erweitern und neben der sprachlichen so auch eine technische Anknüpfungsmöglichkeit der anderen Projektpartner sicherstellen. Die Kosten-Nutzen-Analyse widmet sich, so der internetsoziologische Ansatz, in einem Projekt wie dem hier beschriebenen Vorhaben auf der qualitativen Ebene der Minimierung des Schadensbildes, ebenfalls durch Literaturrecherchen sowie entsprechende Expertenbefragungen, und auf der quantitativen Ebene wird eine Faktorenanalyse durchgeführt, in der die verschiedenen Faktoren nach Wichtigkeit und Auswirkung bewertet werden. Die Analyse der Standardisierungs- und Zukunftsfähigkeit der entwickelten Lösungen baut auf den Erkenntnissen aus den drei anderen Schwerpunkten auf, extrahiert hier jedoch die wirtschaftlichen Aspekte, die aus den gewonnenen Erkenntnissen herausgelesen werden können. Als Querschnittsaufgabe wird in allen Bereichen eines Vorhabens wie Projekt Beta besonderes Augenmerk auf das Verhältnis Mensch – Maschine (oder präziser: Mensch – Digitalisierung) gelegt. Dies ist beispielsweise nicht nur für die avisierten Anwenderinnen und Anwender von besonderer Relevanz, sondern auch für die allgemeine Öffentlichkeit. Es ging damals wie heute um völlig neue Fragen der ethisch und sozial akzeptablen Eingriffstiefe von im Projekt entworfenen digitalen OK-Bekämpfungsmaßnahmen, um eine möglichst erfolgreiche Einbindung aller Betroffenen und entsprechende Minimierung von Risiken wie Ablehnung der neu entworfenen Tools, Überforderung bei der Schulung oder Anwendung und unverhältnismäßigen Aufwand bei der Implementation in den Arbeitsalltag, um bisher ungeahnte Datenschutzerwägungen aufgrund digitaler Paradigmenwechsel in vielen Lebensbereichen, die nicht nur Anwender, sondern auch Entscheider vor völlig neue Herausforderungen

1.4 Zweite Forschungsphase: 2008 bis 2015

93

stellen (beispielsweise Formen digitaler Überwachung, die so bisher noch nirgendwo umgesetzt wurden und gleichermaßen Datenanalysemöglichkeiten wie auch Datenschutzrisiken potenzieren) und ähnliche Aspekte, die sich allesamt nicht nur aus der für jedermann klar erkennbaren digitalen Revolution ergeben. Denn inzwischen, so die damalige, d. h. aus dem Jahre 2014 stammende Festellung, ist ein analytischer Paradigmenwechsel erfolgt: weil nun mit digitalen Möglichkeiten auch nichtdigitale Phänomene analysiert werden können, müssen Menschen Digitalisierung nicht mehr aktiv nutzen, sondern „nur noch“ davon betroffen sein. Dies gibt digitalen Methoden und Anwendungen einen enormen Machtzuwachs gegenüber dem betroffenen Subjekt – und dieser Kernüberlegung wird durch die Berücksichtigung dieser Querschnittsaufgabe in APx umfassend Rechnung getragen. Am Ende des Vorhabens sollten idealerweise nicht nur konkrete transdisziplinäre, beispielsweise in einen Demonstrator integrierte Ergebnisse, sondern auch grundlegende Erkenntnisse im Bereich Sociality by Design stehen. Oder anders gesagt: das Gesamtziel von APx war die Präsentation von konkreten Handlungsstrategien mit darauf angestimmter Technologie, die auch über das hier skizzierte Projekt hinausgehend bei der Bewältigung von digitalen Herausforderungen nachhaltig Hilfestellung geben können.

1.4.3 Projekt Gamma Während der Tätigkeit an der UdK gab es auch Bemühungen, jenseits der anwendungsorientierten Forschung tätig zu werden. Ein Grundlagenforschungsvorhaben wurde zu diesem Zweck initiiert, seinerzeit zusammen mit dem Flusser-Archiv der UdK. Das Projekt wurde 2011 auf Einladung der Kollegin Claudia Becker an der UdK angestoßen. Es hätte eine Laufzeit von zwei Jahren gehabt und wäre von mir geleitet worden. Da es nicht um sicherheitsrelevante Themen ging, kann die Skizzierung des Vorhabens an dieser Stelle etwas offener erfolgen. Betont werden sollen aber erneut vorrangig die internetsoziologischen Schwerpunkte. Sämtliche allgemeinen Inhalte entstanden in Zusammenarbeit mit Claudia Becker, wurden aber letztlich durch mich als Einreicher nicht nur formuliert und nach unseren Diskussionsrunden final überarbeitet, sondern auch verantwortet. Der internetsoziologische Teil ist wie immer ausschließlich von mir gestaltet worden. Es sollten Wechselbeziehungen und Ausdifferenzierungen in der zwischenmenschlichen Kommunikation und ihre Auswirkungen auf Individuum und Gesellschaft untersucht werden, die durch die Entwicklung von apparativen und computerbasierten Technologien hervorgerufen wurden. Mediatisierung als Metaprozess sozialen Wandels sollte mittels tiefenzeitlicher Analyse untersucht und die Folgen der Entwicklung der Kommunikationstechnologien für die heutige mediatisierte Gesellschaft im so genannten digitalen Zeitalter herausgearbeitet werden. Ein besonderer Fokus lag hierbei auf der Fruchtbarmachung des Denkens Vilém Flussers mithilfe seines an der UdK verorteten

94

1 Einführung in die Internetsoziologie

Archivs, um neue Modelle und wirkungsmächtige Analysemethoden der Digitalisierung unserer Lebenswelt für eine symbolisch-interaktionistische Medienkommunikationstheorie zu entwickeln. Das Forschungsprojekt nahm sich vor, unter Bezugnahme auf Flussers kommunikologischen Ansatz die tiefenzeitlichen Dimensionen unserer heutigen Mediengesellschaft und ihrer elektronisch mediatisierten Kommunikationsweisen zu untersuchen. Es wurde seinerzeit durch meine Kollegin und mich die These aufgestellt, dass sich mit der Umstrukturierung des vorherrschenden gesellschaftlichen Kommunikationscodes von der Schrift hin zu audiovisuellen Projektionen die Denkstrukturen, Kommunikationsweisen und zwischenmenschlichen Interaktionen grundlegend geändert haben und eine internetsoziologische Analyse dieser Veränderungen besonders zielführend erscheint. Technische Bilder, wie Fotografien oder Film, das war für uns wie auch für alle anderen Mediennutzenden immer klar, haben schon früh und sehr massiv durch entsprechende Distributionsmedien, wie Zeitung oder Fernsehen, Einzug gehalten in unsere Alltagswelt und auf diese Weise das kommunikative Handeln des Einzelnen sowie der Gesellschaft verändert. Diese Veränderungen sind durch die computerbasierten elektronischen Medienkommunikationstechnologien im so genannten digitalen Zeitalter und durch ihre grenzenlose Verbreitung im Internet noch stärker, oder besser: revolutionär hervorgetreten. Technische Bilder dürfen daher, so unser damaliger Ansatz, nicht „einfach“ als Repräsentation der Welt oder Wirklichkeit aufgefasst werden, ebenso wie die durch sie produzierten „Medienereignisse“ keine Konstruktionen von Realität oder keine „Pseudo-Events“ mehr darstellen, sondern sie müssen, so vor allem der Schwerpunkt der Kollegin Becker, als symbolisch operierender Kommunikationscode begriffen werden, mittels dessen wir unsere Welt und Wirklichkeit konstituieren. Sie sind so zur Bedingung der Möglichkeit geworden, innerhalb derer wir unsere Kommunikation gestalten und innerhalb derer viele unserer heutigen Alltagsdinge zu uns in Erscheinung treten. Ebenso wie die technischen Bilder Einzug erhielten in die alltägliche zwischenmenschliche und gesellschaftliche Kommunikation, so wurde auch ihre Erzeugung und Verbreitung für jedermann erschwinglich und handhabbar und ermöglichte jedem die Möglichkeit der Teilhabe am Kommunikationsgeschehen – was in keinem Falle so intensiv und prägend gewesen sein dürfte wie durch die Digitalisierung unserer Gesellschaft. Gleichzeitig haben sich aber auch unsere Handlungsmuster und Interaktionsformen in vielen Fällen bzw. Szenarien durch digitale Technik stark gewandelt: von mit Worten und Sätzen beschreibenden in Knöpfe drückende und Bilder zeigende. Dieser grundlegende Wandel in unseren Handlungsmuster und Interaktionsformen, auf deren Grundlage wir unsere Wirklichkeit konstituieren, hat einen fundamentalen, durch internetsoziologische Ideen jedoch auch gut zu beschreibenden Wandel zur Folge, so unsere damalige Annahme. So soll die Entstehung der neuen computerbasierten Kommunikationstechnologien, wie beispielsweise der des Internets, als Folge der apparativ gestützten Kommunikation begriffen werden, die keineswegs ein Ende darstellt, sondern vielmehr einen Ausgangs- und Angelpunkt

1.4 Zweite Forschungsphase: 2008 bis 2015

95

zu einer neuen Art der zwischenmenschlichen Kommunikation und der Selbstversicherung – und der Analyse. Claudia und ich gingen deshalb von einer Analyseform aus, die aus zwei Aspekten besteht (wie hier hoffentlich bereits deutlich wurde): dem Aspekt des Flusser-Wissens (Claudia) und der internetsoziologischen Kernideen und Methodenansätze (mein Beitrag). Aus diesem Grund müssen, so unser damaliger Plan, für eine erfolgreiche Analyse innovative Modelle und Methoden entwickelt werden, anhand derer der grundlegende soziale Wandel in den Handlungsmustern und Interaktionsformen der mediatisierten Gesellschaft analysiert werden kann. Vilém Flusser machte, so Claudia, schon früh darauf aufmerksam, dass eine solche Theorie von seiner Enkelgeneration, die heute in den Wissenschaften oft als „Digital Natives“ bezeichnet wird, ausgearbeitet werden müsse, da sie durch die veränderten Kommunikationsweisen völlig anders in der Welt sein werde und somit auch ein völlig anderes (Selbst-)Bewusstsein haben werde. Vor diesem Hintergrund soll Flussers Denken als Inspirationsquelle genutzt werden, mit deren Hilfe neue Modelle und Methoden für eine interaktionistische Kommunikationstheorie entwickelt werden. Und spätestens hier erkennt man freilich, dass ich von diesem Ansatz nicht nur überzeugt, sondern begeistert war – und weshalb ich beispielsweise Luhmannsche Lösungen heutzutage nicht mehr für tragbar halte. Die Zeiten haben sich geändert und erfordern neue Ansätze, die vielleicht aus Einzelelementen der alten Ansätze entstehen können, doch eine komplette Übernahme der alten Ideen als ganzheitliches Analysekonzept passt aufgrund der extrem stark veränderten Rahmenbedingungen nicht mehr. Wichtig war uns seinerzeit aber auch schon zu betonen, dass gerade die Methodenentwicklung nicht nur auf vagen Arbeitshypothesen beschränkt bleiben, sondern konkret anwendbare Grundlagen für die sozialwissenschaftliche Praxis herstellen soll. Dafür bedarf es einiger Grundannahmen, die ich über die Jahre entsprechend weiterentwickelt habe, wie ja auch in diesem Buch zu entdecken sein wird: Die Digitalisierung ist aus technischer Sicht eine Revolution, keine Evolution, denn PC, Internet und Handy sind keine weiterentwickelten Schreibmaschinen, Fernseher oder Telefonzellen, sondern dank des gemeinsamen digitalen Nenners medienhistorisch betrachtet völlig neue Phänomene. Dass die Digitalisierung nicht nur technische, sondern – nicht zuletzt dank der Gerätevielfalt in Kombination mit der massenhaften Verbreitung derselben – auch nachhaltige soziale Auswirkungen auf unsere individuelle Lebenswelt, auf Gruppen und letztlich auf die Gesellschaft als Ganzes hat, dürfte inzwischen ebenfalls als allgemein anerkannt gelten. Daraus ergaben sich folgende Überlegungen: Erstens sind analoge Methoden für die Analyse digitaler Phänomene oftmals nicht ausreichend, da sie die Spezifika der gänzlich neuen Phänomene teilweise gar nicht korrekt erfassen können (“blinder Fleck”). Zweitens ist die digitale Durchdringung der Gesellschaft bereits so weit fortgeschritten ist, dass nicht nur keine Notwendigkeit für die Anwendung analoger Methoden zur Analyse digitaler Phänomene besteht, sondern mit digitalen Methoden inzwischen nicht mehr nur digitale, sondern eben auch analoge Phänomene analysiert werden können – und zwar in derselben oder sogar oft noch besseren

96

1 Einführung in die Internetsoziologie

Qualität als mit den analogen Methoden. Der Methodenteil in diesem Projekt folgte damit Claudias Verständnis von Vilem Flussers Vision, welche mir natürlich sehr entgegenkam: Flusser weist selber keine konkrete Methodik aus, bietet jedoch ein Œuvre, aus dem eine Vielzahl von wichtigen Grundlagen für die Entwicklung digitaler Methoden entnommen werden kann. Mithilfe der Theorie Flussers sind Rahmenbedingungen skizzierbar, die nicht nur im Laufe des Vorhabens zu konkreten Einzelanwendungen führen, sondern anderen Wissenschaftlerinnen und Wissenschaftlern auch einen gangbaren Weg aufzeigen können, damit blinde Flecken vermieden und neue Phänomene sozialwissenschaftlich adäquat analysiert werden können. Oder, an dieser Stelle, kurz gesagt: man kann Elemente Flussers extrahieren, um daraus neue Werkzeuge zusammenzusetzen. Erneut: Bastelndes Denken. Ich war begeistert und machte deshalb gern mit bei dieser Projektentwicklung. Wir gaben uns in der Folge insgesamt vier Kernziele, die zweifach, nämlich gleichermaßen allein wie auch miteinander verwoben, entscheidende Erkenntnisse aus Flussers Oeuvre liefern sollten und in vier Arbeitspakete (AP) unterteilt waren (“4 × 4”). Dabei starten und laufen die Kernzielbestrebungen zeitgleich, so dass die Detailbeschreibungen der vier Kernziele nicht nur inhaltliche, sondern auch Ablauffragen beantworten sollen. Ziel 1 war Aufgabe von Claudia, Ziel 2 meine Aufgabe. Die Ziele 1, 3 und 4 werden hier nicht aufgeführt, da insbesondere die Ziele 3 und 4 zu weit von den internetsoziologischen Fundamenten entfernt sind und von zwei Kollegen bearbeitet worden wären, die im hiesigen Kontext keine Nennung erfahren können. Ziel 1 wird nicht aufgeführt, da es an dieser Stelle nicht um die ausführliche Theorie Flussers, sondern um die Aussagen über die Einbindung meiner Idee von Internetsoziologie geht. Deshalb erscheint die Darstellung von Ziel 2 hier als ausreichend: Das Internet hat unsere Gesellschaft tiefgreifend verändert und mit der Veränderung kamen oftmals auch Verwirrung und Verunsicherung, denn keine wissenschaftliche Disziplin konnte bisher einen weitreichenden Lösungsanspruch für die Analyse digitaler Phänomene aufführen, welche mittlerweile sämtliche Bereiche unserer Gesellschaft durchdrungen haben. Es liegt in der Natur der Sache, dass monokausale Lösungsansätze dem komplexen und tiefgreifenden Thema Digitalisierung gar nicht gerecht werden können – und man ihnen auch nicht das Feld überlassen darf, wie Vilem Flusser erkannte: „Die Technik ist gegenwärtig eine zu ernste Sache, um Technikern überlassen werden zu können.“241 Trotzdem arbeiten die Disziplinen allzu häufig aneinander vorbei statt miteinander, was wiederum auch nur bedingt brauchbare Lösungen zur Folge haben kann. (Streng genommen ist ein solch radikales Wettbewerbsdenken aufgrund der Inkomparabilität der verschiedenen Disziplinen bereits von vornherein zum

241 Flusser, 1987, S. 3.

1.4 Zweite Forschungsphase: 2008 bis 2015

97

Scheitern verurteilt und damit letztlich sinnlos.) Vertreter der im Falle der Digitalisierung besonders relevant erscheinenden Bereiche Technik, Recht und Gesellschaft sollten stattdessen gemeinsam an ganzheitlichen Lösungen arbeiten, die digitale Phänomene ausreichend tiefgreifend analysieren und schließlich entsprechende Handlungsmöglichkeiten präsentieren. Denn die Digitalisierung der Gesellschaft schreitet unaufhaltsam voran und damit steigt automatisch der Bedarf an zielführenden Lösungsansätzen. Dafür braucht es eine medientheoretische, in ihrer Gesamtheit dem Phänomen angemessene Grundlage, so wie in Ziel 1 angestrebt. An der Notwendigkeit transdisziplinären Arbeitens ändert auch eine bereits erfolgte (und teilweise jahrhundertealte) Verankerung von einigen Disziplinen in gesamtgesellschaftlichen Prozessen und Institutionen nichts, denn so mögen zwar sowohl ein formaler als auch ein Wahrnehmungsvorsprung erreicht worden sein, doch das allein dürfte nicht hinreichend sein. Einen solchen Vorsprung hat zum Beispiel die Rechtswissenschaft, welche nicht nur essentieller Bestandteil der gesellschaftlichen Ordnung ist und diese beispielsweise durch Gesetze und Bestimmungen maßgeblich prägt, sondern auch Institutionen wie die Datenschutzbeauftragten des Bundes und der Länder bedingt. Doch die reine Existenz dieser Ämter sagt nur wenig über ihre Akzeptanz und Wirkmächtigkeit aus. Es ist ja keineswegs so, dass die engagierten Datenschutzbeauftragten aufgrund ihrer Beobachtungen und Schlussfolgerungen stets unmittelbar so tätig werden können, wie es ihnen konsequent und angemessen erscheint – die Einflussnahme von Seiten der Politik ist hier nicht zu unterschätzen. Doch sie haben immerhin den Vorteil der medialen Aufmerksamkeit, mithilfe derer zum Beispiel Konzepte wie „Privacy by Design“ einer breiten Öffentlichkeit vermittelt werden können. Und an diese Konzepte können auch die Soziologie und die Psychologie anknüpfen (Sociality by Design), ohne dazu über eine vergleichbare eigenständige und institutionell bedingte mediale Wirkmächtigkeit zu verfügen. Diese Anknüpfung erscheint dringend notwendig, denn die teilweise sehr große Aufgeregtheit, z. B. in den Diskussionen um Freiheit und Sicherheit im digitalen Raum, zeigt, dass es nicht nur um Gesetze und Verordnungen geht, sondern um eine gesamtgesellschaftliche Entwicklung, die die Menschen tief in ihrem Innersten berührt, stellenweise aber eben auch irritiert und die durch das globale Vernetzungstempo Recht und Gesetz sehr deutliche Grenzen aufzeigt. Die inhaltliche Anknüpfung an entsprechende Ansätze dürfte den Betroffenen das Verständnis der angesprochenen Problemstellungen erleichtern, ohne dabei die besonderen Merkmale zu verwischen oder gar zu ignorieren. Das Ziel: Sozialität und Digitalität müssen nicht als Gegensatzpaar verstanden werden, sondern – ganz im Gegenteil – die Verwebung dieser beiden Bereiche realistisch und damit im Sinne einer sozialen Gestaltung von Digitalisierung durchaus vielversprechend gelöst werden. Anhand der Analyse von Flusser und damit anknüpfend an die entscheidende Analysearbeit in Ziel 1 wird hier ein Grundlagenkonzept für die transdisziplinäre Methodenentwicklung angelegt, welches exemplarischen Charakter haben soll.

98

1 Einführung in die Internetsoziologie

Bevor eine Anknüpfung an rechtliche oder technische Beispiele erfolgen kann, muss zuvor deutlich gemacht werden, womit überhaupt eine Verbindung hergestellt werden soll. Die bloße Benennung von Soziologie oder Psychologie als inhaltliche Grundlage ist diesbezüglich zu wenig präzise, weshalb nun eine kurze Einführung in die bisherige Skizzierung der Internetsoziologie erfolgt, einer neuen Forschungsrichtung, die erstmals mit der Einrichtung einer umfangreichen Forschungsstelle an der UdK eingerichtet wurde und inzwischen Teil eines dreijährigen, vom Bundesministerium für Bildung und Forschung geförderten Projekts ist. In diesem Zusammenhang wird Internetsoziologie als der Arbeitsbereich definiert, der sich soziologisch mit der Digitalisierung unserer Gesellschaft auseinandersetzt und gleichermaßen soziale wie technische Kenntnisse einbringt. Dabei geht es vorrangig um die medientheoretischen Fragen, die die Digitalisierung unserer Lebenswelt aufwirft sowie deren Beantwortung. Freilich wird das Thema Digitalisierung längst von einer Vielzahl sozialwissenschaftlicher Disziplinen bearbeitet und hier stellenweise exzellente Arbeit geleistet. Jedoch erschien die Soziologie in Deutschland bei der Analyse der Digitalisierung oftmals unterrepräsentiert, wobei sie in anderen Ländern wie den USA augenscheinlich deutlich häufiger anzutreffen ist. Wenn man die Digitalisierung unserer Gesellschaft mit den Mitteln der Soziologie analysiert, schließt man somit nicht nur eine erkennbare Lücke, sondern kommt in vielen Fällen, so die bisherigen Erfahrungen des Antragstellers, auch zu Ergebnissen, die näher an der lebensweltlichen Realität sind, denn das Internet ist ein gesamtgesellschaftliches Phänomen und damit eine sehr soziologische Angelegenheit. Die Soziologie sollte deshalb nicht zu einer (rein empirischen) Hilfswissenschaft degradiert werden. Hierzu ein Beispiel: Medienpsychologen bearbeiten beispielsweise die Frage, wie ein Computerspiel auf einen Spieler wirkt – die Internetsoziologie hilft sodann bei der Beantwortung der Frage, welche Auswirkung dieses Computerspiel auf Gruppen (z. B. einen Freundeskreis von Kindern bzw. Jugendlichen) oder auch die (deutsche) Gesellschaft hat. Das versuchen Medienwissenschaftler häufig ebenfalls, doch es gibt in der akademischen Ausbildung und Ausrichtung erhebliche inhaltliche wie strukturelle Unterschiede zwischen den Medienwissenschaften (sprich: andere Theorien, Methoden, Ansätze mit unterschiedlicher Tiefenschärfe und vielfach nur verkürzt wiedergegebenen Hilfswissenschaften) und der Soziologie, so dass es zwangsläufig auch unterschiedliche Ergebnisse geben wird. Eine digital ausgerichtete Soziologie bringt jedoch ganz eigene, unverwechselbare Merkmale mit, die in diesem Zusammenhang besonders hilfreich erscheinen und in direkter Verbindung mit der Philosophie Flussers stehen: I. Die Internetsoziologie konzentriert sich auf digitale Phänomene. Historischtechnische Aspekte anderer Medien werden eingebunden, doch die Digitalisierung als medienhistorisch völlig neues Phänomen genießt höchste Priorität. Eine Internetsoziologie erweitert die Mediensoziologie entsprechend und kann im Zusammenspiel mit den Erkenntnissen aus Ziel 1 blinde Flecken bei der Analyse und Methodengenerierung vermeiden helfen.

1.4 Zweite Forschungsphase: 2008 bis 2015

99

II. Neben den soziologischen werden extrem umfangreiche und tiefgehende Technikkenntnisse eingebracht, d. h. es besteht im Grundsatz die Möglichkeit der Analyse bis ins letzte Bit. Im Vergleich dazu kommt das klassische soziologische Studium ohne umfassende Technikausbildung aus, was im hiesigen Projektkontext und bei der Technikanalysekompetenz Flussers ein entscheidendes Problem darstellen dürfte. System- und Netzwerkarchitekturen und -strukturen müssen schließlich entsprechend bekannt sein, bevor ihre Wirkung analysiert werden kann. III. Ein intensiver Austausch mit international tätigen Kolleginnen und Kollegen (z. B. den über 2000 Mailinglisten-Mitgliedern der Association of Internet Researchers, Kooperationsvereinbarungen mit Instituten und Einrichtungen in Ländern mit ausgeprägter Internetanalyseaffinität zur Stärkung der Forschernetzwerke und der Institutionalisierung des Forschungsfeldes) gehört zur alltäglichen internetsoziologischen Praxis und wird in diesem Falle durch die Zusammenarbeit mit dem HIIG symbolisiert. IV. Die Anwendung, Weiter- und Neuentwicklung von Methoden (gleichermaßen quantitativ wie qualitativ) stellt das methodische Kernziel dieses Zielpunktes dar. Dabei gibt es zwei Grundannahmen, die für Ziel 2 entscheidend sind: Erstens ist es offensichtlich, dass für Phänomene wie Google, Facebook und Twitter „analoge Methoden“ oftmals nicht ausreichend sind und neue Analysewege gefunden werden müssen (Stichwort „Big Data“/ vgl. Boyd 2010), und zweitens ist die Durchdringung der Digitalisierung inzwischen so weit fortgeschritten, dass wir mit digitalen Methoden inzwischen auch Aussagen über analoge Phänomene treffen können, so wie es Richard Rogers im Rahmen seiner „Digital Methods Initiative“ beispielhaft aufgezeigt hat: Ich möchte vorschlagen, eine neue Ära der Internetforschung zu begründen, die sich nicht länger mit der Kluft zwischen dem Realen und dem Virtuellen aufhält. Dies betrifft eine Veränderung der Fragen, die in Untersuchungen des Internets gestellt werden. Das Internet wird dabei zum Ort der Erforschung von viel mehr als bloß der Onlinekultur. Das Thema ist nicht mehr, wie groß der gesellschaftliche und kulturelle Teil ist, der online ist, sondern eher, wie sich anhand der Nutzung des Internets kulturelle Veränderungen und gesellschaftliche Sachverhalte diagnostizieren lassen. Der konzeptuelle Ausgangspunkt [. . .] ist die Anerkennung der Tatsache, dass das Internet nicht nur ein Untersuchungsgegenstand ist, sondern auch eine Quelle. Eines der bemerkswerteren Beispiele ist Google Flu Trends, ein nichtkommerzielles Projekt auf Google.org, das 2008 gestartet wurde und das lokale Grippeausbrüche antizipiert, indem es Suchmaschinenanfragen nach Grippe, Grippesymptomen und verwandten Begriffen zählt und daraufhin die Orte , an denen die Abfragen gemacht wurden. Bislang etablierte Methoden der Datengewinnung (Meldungen aus Notaufnahmen in Krankenhäusern) werden dadurch infrage gestellt und das Web wird als ein Medium der Prognostik und Vorsorge entdeckt, das sehr viel enger mit der realen Geografie und Lebenswelt verbunden ist, als man erwarten würde.242

242 Rogers, 2011, S. 64.

100

V.

VI.

VII.

1 Einführung in die Internetsoziologie

Eine konsequent transdisziplinäre Zusammenarbeit in leistungsstarken, kommunikationsfreudigen (Projekt-)Teams mit dem Ziel einer ganzheitlichen Digitalisierungsanalyse ist Mittel der Wahl. Idealerweise werden die so gewonnenen Erkenntnisse über die transdisziplinäre Projektarbeit aufbereitet und neben den inhaltlichen Erkenntnissen anderen Kolleginnen und Kollegen zur Verfügung gestellt. Die Verbindung von Grundlagen- und anwendungsorientierter Forschung, d. h. die Aufrechterhaltung einer permanenten Skalierbarkeit (“vom Groben ins Feine” und zurück) zur Schaffung von konkretem Mehrwert zeichnet die Internetsoziologie aus. Dieser Aspekt ist stark mit dem transdisziplinären Arbeits- und Kommunikationsansatz verbunden. Umfangreiche Öffentlichkeitsarbeit durch (populärwissenschaftliche) Beiträge in den Medien, Vorträge und Beratungen gehören ebenfalls zum internetsoziologischen Alltag, denn letztlich sollen nicht nur Fachdiskussionen entstehen, da die interessierte Öffentlichkeit ganz konkret von den Ergebnissen betroffen ist.

Die Werkzeuge der Internetsoziologie müssen insgesamt eine logische und zugleich brauchbare Methodik haben, um sie anwenden und kontinuierlich weiterentwickeln zu können. Was gebraucht wird, sind dauerhaft gültige Ansätze einer digitalen Theorie, deren Ideen im Idealfall lediglich den individuellen (Projekt-) Erfordernissen angepasst werden müssen, ohne dass jedoch gleich eine gänzlich neue Grundlage geschaffen werden muss. Und genau hier kann das Oeuvre von Flusser entsprechend positiv wirken, da es nach Meinung der Antragsteller ein besonders vielversprechendes Repertoire an Grundlagen und Ideen bietet, welches bei der Analyse der Digitalisierung besonders wertvolle Dienste leisten kann. All dies sind Aspekte einer Idee zur Entwicklung einer Internetsoziologie, die sich in der Vergangenheit bereits in mehreren Projekten des Antragstellers bewährt haben und deshalb als Grundmuster von Ziel 2 für das hiesige Vorhaben hilfreich sein können. Ziel 2 sollte sich somit umfassend mit den bestehenden Analysemethoden aus der empirischen Sozialforschung auseinandersetzen, welche eine Brauchbarkeit für die Analyse digitaler Phänomene vermuten lassen oder bereits bewiesen haben (was im Bereich der quantitativen Methoden durchaus des Öfteren erfolgreich der Fall gewesen sein dürfte, auch wenn die Datenmengen, wie bereits erwähnt, völlig neue Dimensionen erreichen können). Doch wie am Google-Flu-Trends-Beispiel aufgezeigt wurde, brauchte es auch experimenteller bzw. innovativer Ansätze, welche ebenfalls entwickelt werden sollten. Das Gesamtziel war eine Neuskizzierung eines Methodensets für die digitale Sozialforschung, welches auf Grundlage des Flusserschen Oeuvres hilfreiche Ansätze und konkrete Methoden bereitstellt, an die Kolleginnen und Kollegen in der Folge anknüpfen können.

1.4 Zweite Forschungsphase: 2008 bis 2015

101

Neben diesen exemplarischen Forschungsvorhaben entstanden freilich auch etliche Texte, die nicht als Grundlage von Forschungsanträgen oder -vorhaben dienten und von denen vier Beispiele hier nun dargestellt werden sollen. Wie immer gilt: ich habe diese Texte teilweise aktualisiert, teilweise verändert, aber sie bilden sowohl in der Original- als auch in der neuen Fassung stets meine Position zum Thema ab und zeichnen sehr gut erkennbar die Evolution meiner Internetsoziologie nach. Da die Sicherheitsforschung für mich seit 2009 eine große Rolle spielt, beschäftigt sich der erste Text aus dem Jahre 2014 mit dem Thema Onlineradikalisierung.

1.4.4 Themenfeld Onlineradikalisierung Onlineradikalisierung bewegt Wissenschaft und Behörden schon seit einigen Jahren. Und auch der Öffentlichkeit ist nicht verborgen geblieben, dass das Internet inzwischen sehr vielfältig und manchmal erschreckend kreativ und professionell zur Rekrutierung von Attentätern, zur Do-it-yourself-Radikalisierung und natürlich auch zu klassischen Propagandazwecken eingesetzt wird. Zu einer gewissen Popularität hat es beispielsweise das islamistische Magazin „Inspire“243 geschafft. Es dient oft als Paradebeispiel einer islamistischen Digitalisierungsstrategie, bei der nichts dem Zufall überlassen wird, sondern ein hochwertiges PDF-Magazin elementarer Bestandteil eines ganzheitlichen Radikalisierungs- und Rekrutierungsansatzes ist. Und wie jede erfolgreiche Idee fand es Nachahmer: so gibt es seit kurzem ein weiteres Magazin namens „Dabiq“,244 welches auch auf Deutsch erhältlich ist245 und sich in seiner ersten Ausgabe vor allem dem „Kalifat“ der IS widmet und damit nicht nur dieselbe strukturelle Strategie einer zielgruppengerechten Darstellung erfolgt, sondern auch inhaltlich genau im Trend islamistischer Diskurse und Onlineradikalisierungsbestrebungen liegt. Dabei ist Onlineradikalisierung streng genommen kein besonders neues Phänomen. Seit es das Internet gibt, versuchen Extremisten, das digitale Netz zu Propaganda- und Radikalisierungszwecken zu nutzen. Als gutes Beispiel kann hier das in den 70er Jahren erstmals erschienene und später auch als eine der ersten Szenezeitschriften im Internet vertretene246 linksextremistische Blatt „radikal“247

243 http://jihadology.net/category/inspire-magazine/, abgerufen am 5.5.2019. 244 https://azelin.files.wordpress.com/2014/07/islamic-state-e2809cdc481biq-magazine-2e280b3. pdf, abgerufen am 5.5.2019. 245 https://ia902306.us.archive.org/3/items/pdfy-sDqxhJXO9ZqvrWaT/dbq01_de.pdf, abgerufen am 5.5.2019. 246 http://radikal.squat.net/154/16.html, abgerufen am 5.5.2019. 247 http://de.wikipedia.org/wiki/Radikal_(Zeitschrift), abgerufen am 5.5.2019.

102

1 Einführung in die Internetsoziologie

dienen, welches man wohl mit einiger Berechtigung die am meisten von Ermittlungsverfahren betroffene Zeitschrift Deutschlands nennen kann.248 Selbst ein Umzug ins Ausland war da wenig hilfreich: 2002 musste der niederländische Hoster XS4ALL auf Druck eines Gerichts die Seiten der Zeitschrift entfernen.249 Trotzdem half dies nicht, die Verbreitung der „radikal“ zu stoppen. Im Gegenteil: Überall im Netz tauchten Mirrorwebsites auf, die sich mit der linksradikalen Zeitschrift solidarisierten.250 Auch war die „radikal“ schnell über andere, nicht-WWW-basierte Services wie P2P und Mailinglisten erhältlich – und natürlich über die etablierten nichtdigitalen Kanäle. Bereits viele Jahre vor dem Schritt in die digitale Sphäre war die „radikal“ eines der wichtigsten Blätter für die linksradikale Szene, und auch die frühe Netzpräsenz sowie die medienwirksamen Sperrbemühungen von Justiz und Wirtschaft verhalfen der „radikal“ zu einem Ausbau ihrer szeneinternen Berühmtheit. Davon kann heute, mehr als ein Jahrzehnt später, jedoch keine Rede mehr sein: die „radikal“-Website wurde seit Jahren nicht mehr aktualisiert.251 Nichtsdestotrotz haben die Behörden das Blatt noch nicht ad acta gelegt. Ihre Bedeutung hallt noch in so manch Schrift über den Linksextremismus nach.252 Inzwischen hat sich viel getan. Während die „radikal“ noch sehr nach „linker Szene“ aussah, d. h. hinsichtlich Gestaltung, Textlänge und Lesbarkeit oftmals noch zu wünschen ließ, da die Texte und ihre Verbreitung im Vordergrund standen, lassen die islamistischen Magazine von heute weder in Sachen Layout noch inhaltlich Wünsche offen. Ebenso die Propagandavideos von ISIS und Co.: Bild, Ton, Schnitt, Text und Länge orientierten sich im Laufe der Jahre immer mehr an professionellen Studiovorbildern. Auch Extremisten wissen inzwischen sehr genau, was die Zielgruppe will und nehmen Rücksicht auf die digitalen Eigengesetzlichkeiten. Langatmige Traktate oder zähe Vorträge von Islamistenführern in Großaufnahme sind passé. Dazu kommen die entsprechenden Verbreitungswege wie YouTube, Facebook und Twitter – und schon hat man ein ganzheitlich konzipiertes Produkt, über dessen Wirkung man sich sicher sein kann. Zumindest in der Theorie, denn selbstverständlich ist Onlineradikalisierung weder mit einem PDF-Magazin noch mit einem Enthauptungsvideo ein Selbstläufer im Sinne der Initiatoren. Es ist ein Baustein von vielen, wenngleich ein sehr wichtiger. Um zu verstehen, wie Onlineradikalisierung

248 http://www.nadir.org/nadir/archiv/Medien/Zeitschriften/radikal/netzzensur/, abgerufen am 5.5.2019. 249 http://www.heise.de/tp/artikel/12/12329/1.html, abgerufen am 5.5.2019. 250 http://www.nadir.org/nadir/periodika/radikale_zeiten/raz-7/adressen.htm, abgerufen am 5.5.2019. 251 https://radikalrl.wordpress.com/, abgerufen am 5.5.2019. 252 http://www.verfassungsschutz.de/de/oeffentlichkeitsarbeit/newsletter/newsletter-archive/bfvnewsletter-archiv/bfv-newsletter-2013-1/bfv-newsletter-2013-01-05.html, abgerufen am 5.5.2019.

1.4 Zweite Forschungsphase: 2008 bis 2015

103

überhaupt wirkt, lohnt ein Blick auf den aktuellen Forschungsstand, denn an Publikationen, Präsentationen und Konferenzen mangelt es heutzutage nicht. Und es werden inzwischen auf wissenschaftlicher Seite ganz unterschiedliche Ideen vorgestellt, Onlineextremismus und -radikalisierung zu analysieren. Besonders beliebt sind dabei freilich die sozialen Netzwerke. Sie bieten schließlich nicht nur eine riesige Zahl an Mitgliedern, sondern auch entsprechende Relevanz für alle Beteiligten. Zahlreiche Tools sollen helfen, Facebook und Co. zu durchleuchten, um Zusammenhänge, Entwicklungen und Verbindungen darzustellen. So existieren inzwischen einige Erfahrungen und auch Schulungsangebote für Tools wie Gephi,253 Netvizz254 und NodeXL,255 welche der Datenextraktion aus Quellen wie Facebook und Twitter dienen. Von besonderer Bedeutung ist dabei nicht nur die Datenauswahl, sondern auch eine brauchbare Visualisierung, denn nur so entdeckt man das Unbekannte im Bekannten. Die Datenmengen sind oftmals enorm: so existieren beispielsweise islamistische Diskussionsgruppen bei Facebook, die von einem harten Kern von 30 Islamisten gegründet wurden, aber inzwischen über 2000 Teilnehmerinnen und Teilnehmer haben. Hier alle mehr oder weniger interessanten Querverbindungen und Beziehungen herauszufinden bzw. vor allem die uninteressanten Verbindungen herauszufiltern, kann sehr schnell sehr umfangreich werden. Facebook und Co. sind heutzutage auch deshalb interessant, weil sie eine niedrige Einstiegshürde für alle Beteiligten darstellen. Interessierte und Suchende finden schnell Anschluss – im wahrsten Sinne des Wortes, denn soziale Netzwerke ergeben bekanntlich erst durch aktive Vernetzung viel Sinn. Und Islamisten liefern sowohl bei Facebook als auch bei Twitter viel: von Propagandamaterial über Schulungen bis zur Interaktion mit Anführern und Kämpfern in Kriegsgebieten. So kommt man von der simplen Mitgliedschaft in einer offenen Diskussionsrunde schnell zu den berüchtigten Enthauptungsvideos und Magazinen mit Bauanleitung für Sprengvorrichtungen, aber auch zu Berichten aus Kriegsgebieten – und kann aus erster Hand erfahren, wie es ist, im „heiligen Krieg“ zu kämpfen. Dass hierbei oftmals eine Beschleunigung von Radikalisierung festzustellen ist, dürfte auf der Hand liegen. Und spätestens das interessiert dann auch wieder die zuständigen Behörden. Zwischen wissenschaftlichen Projekten und Behördenvorgängen liegen allerdings oftmals Welten, nicht zuletzt aufgrund der Zugriffsmöglichkeiten, die ausschließlich Staatsorgane haben. Ein Live-Mithören einer VoIP-Telco, ein Mitlesen eines Chats von Schmugglern in einem gerade stattfindenden Online-Game oder eine Funkzellenauswertung – das sind Analysemöglichkeiten, die Forschern kaum zur Verfügung stehen, meistens sogar nicht einmal als Beobachter innerhalb einer Behörde. Deshalb muss man sich in solchen Fällen oftmals auf retrograde Alternativen wie die Analyse von

253 https://gephi.github.io/, abgerufen am 5.5.2019. 254 https://apps.facebook.com/netvizz/, abgerufen am 5.5.2019. 255 http://nodexl.codeplex.com/, abgerufen am 5.5.2019.

104

1 Einführung in die Internetsoziologie

Gerichts- oder freigegebenen Fallakten oder Interviews mit den Tätern konzentrieren,256 um festzustellen, welche Rolle das Internet bei der Radikalisierung spielte. Dass es hier zu entsprechenden Informationsverlusten kommen kann, die auch die wissenschaftliche Analyse entsprechend beeinflussen, ist naheliegend. Auf wissenschaftlicher Seite stößt man allerdings nicht nur an rechtliche und methodische, sondern sehr oft auch an ethische Grenzen. Aus polizeilicher Sicht ist ein Lauschangriff nicht verwerflich, sondern notwendig und auch unumstritten, da parlamentarisch legitimiert und in Gesetzesform gegossen. Auf wissenschaftlicher Ebene sieht das jedoch ganz anders aus. Wenn man beispielsweise in einem öffentlichen Chat eine Sollbruchstelle entdeckt, an der man intervenieren und die Diskussion „ins Positive“, d. h. in eine demokratische Richtung drehen könne – oder, um beim polizeilichen Pendant zu bleiben, zwecks Verhinderung einer Straftat, stellt sich schnell die Frage: ist solch Social Engineering überhaupt vertretbar? Doch während Wissenschaftler weltweit intensiv über eine Cyber(forschungs)ethik diskutieren und sich an der Vielfalt des Internet of Everything und seinen zahllosen Verwebungen abarbeiten, schaffen Behörden in manchen Ländern knallharte Fakten: in China arbeiten angeblich zwei Millionen Analysten am „Public Opinion Policing“257– eine für europäische Verhältnisse ungeheure Einmischung in die Meinungsfreiheit. In Europa bevorzugt man hingegen die Stärkung der Zivilgesellschaft, auch im Bereich Social Media: sich die Netzwerke so zunutze machen, wie es die Extremisten tun, ist eine häufig zu hörende Empfehlung von Wissenschaftlern und Praktikern, beispielsweise aus der Aussteigerhilfe. Aktiv werden sollen also die Bürgerinnen und Bürger. Die Wissenschaft soll diese inhaltlich unterstützen und Behörden sollen nur als letzte Instanz tätig werden, und auch nur mit Maßnahmen, die ihnen allein aufgrund der rechtlichen Lage zur Verfügung stehen, d. h. in Form von Datenlöschungen (wie im bereits erwähnten Falle der „radikal“) und Strafverfolgungen. Denn wo Meinungsfreiheit anfängt und ab wann man eingreifen kann oder sogar muss, um Hass kein Forum zu bieten, ist eine hochgradig sensible und zugleich stark umstrittene Frage. Etliche Forscherinnen und Forscher diskutieren beispielsweise anhand der Repräsentation von Extremismus in den klassischen Medien, wo hier eventuell Grenzen zu ziehen sind. In den deutschen Medien war dies in der jüngsten Vergangenheit an der Diskussion über die Präsentation des Enthauptungsvideos von James Foley zu beobachten. Darf man so ein Video zeigen? Oder muss man hier bildtechnisch eingreifen? Reicht ein Kommentar anstelle des Videos, vielleicht zusammen mit einem Screenshot und Verpixelung des Opfers vor seiner Enthauptung? Oder hat dies alles ohnehin keinen Zweck, da jedermann das Video innerhalb weniger Minuten online finden kann – ungeschnitten und unkommentiert. Wo beginnt 256 http://www.bka.de/nn_231072/SharedDocs/Downloads/DE/Publikationen/Publikationsrei hen/01PolizeiUndForschung/1__40__DieSichtDerAndren.html, abgerufen am 5.5.2019. 257 http://edition.cnn.com/2013/10/07/world/asia/china-internet-monitors/index.html?hpt=wo_ c2, abgerufen am 5.5.2019.

1.4 Zweite Forschungsphase: 2008 bis 2015

105

das legitime Interesse der Öffentlichkeit und ab wann fördert man nur die Propaganda der Extremisten? Zusätzlich ist auf der Metaebene eine gewisse Hilflosigkeit festzustellen, da alle bisherigen Einschränkungsversuche im Internet nahezu vollständig erfolglos waren und Islamisten nicht zuletzt durch ihre Erfolge im Irak auch an medialer Wirkungsmacht hinzugewonnen haben, also medial wahrscheinlich stärker sind als je zuvor. Es ist deshalb davon auszugehen, dass Einschränkungen höchstens in den klassischen, redaktionell betreuten Medien Anklang finden dürften, auch aufgrund des herrschenden Pressekodex und der damit verbundenen Symbolwirkung bzw. Vorbildfunktion. Wirklich verhindern kann man digitale Propaganda bis hin zu extremer Brutalität in Zeiten digitaler Vernetzung jedoch nicht. Insgesamt bleibt festzuhalten, dass sich Analyse und Bekämpfung von Onlineradikalisierung noch in ihren Anfängen befinden und die zahlreichen digitalen Phänomene – beispielsweise das Aufkommen sozialer Netzwerke in den letzten Jahren, die begonnene Ausbreitung des ubiquitären Internet of Everything, die rasante Professionalisierung und weiter zunehmende Ausbreitung von Extremismus im digitalen Raum – das Forschungsfeld sowie mögliche Gegenmaßnahmen volatil halten. Kaum haben Forscher oder Behörden einen interessanten Ansatz gefunden, schon besteht die Gefahr, dass in kurzer Zeit bereits ganz andere Wege beschritten werden und man mehr oder weniger von vorn beginnen muss. Einfache Antworten sind deshalb nicht zu erwarten: weder helfen technische Sperren noch reicht eine vorrangig behördliche Auseinandersetzung mit dem Thema. Zwischen den fast schon gemächlich erscheinenden und über viele Jahre andauernden Auseinandersetzungen zwischen der Zeitschrift „radikal“ und der Staatsmacht und den heutigen digitalen Herausforderungen liegen Welten: in immer kürzeren Abständen tauchen völlig neue Phänomene auf, die man nicht aus den Augen lassen darf, da sie oft genug das Potential haben, zu einem riesigen Problem zu skalieren – oder aber zur Lösung beizutragen. So verbinden sich in einem sozialen Netzwerk plötzlich Rechtsradikale mit Islamisten und tauschen sich aus über den Bau von Waffen und Sprengfallen. Aber es werden im selben Netzwerk auch Attentate verhindert, die ohne sie wohl niemals geplant worden wären.258 Die Lage ist und bleibt komplex. In den letzten Jahren sind zahlreiche Herausforderungen aufgetaucht, die nicht nur nach passenden Forschungsgrundlagen und Werkzeugen verlangen, sondern auch nach neuen Theorien und viel intensiverer Interdisziplinarität und einer Vermittlung von Forschungsergebnissen und Lösungsansätzen zugunsten der Öffentlichkeit.259 Denn letztlich ist wohl die (digitale) Gesellschaft das beste Korrektiv. Wissenschaft und Behörden müssen sie dabei nach Kräften unterstützen.

258 http://www.newsweek.com/two-teenage-girls-arrested-over-french-synagogue-suicide-bombplot-267523, abgerufen am 5.5.2019. 259 https://twitter.com/VOX_Pol/status/505337026326310912, abgerufen am 5.5.2019.

106

1 Einführung in die Internetsoziologie

1.4.5 Themenfeld Social Media Intelligence Der zweite Text widmete sich (im Jahre 2015) einer Bestandsaufnahme des Themenfeldes Social Media Intelligence bei der Polizei. Seit es soziale Netzwerke gibt, gibt es den Wunsch, die dort entstehenden Daten auszuwerten. Man könnte sogar sagen, dass dieser Wunsch essentieller Teil der „DNA“ von Facebook und Co. ist: angeboten wird schließlich nur eine Struktur, die die Nutzerinnen und Nutzer selbst mit Inhalten füllen und so dem Anbieter die gewünschten Daten liefern müssen. Nicht umsonst lautet einer der bekanntesten Sprüche in diesem Zusammenhang: „Du bist nicht der Kunde, du bist das Produkt“. Und natürlich wollen nicht nur die Betreiber ihr Netzwerk ausbeuten, sondern – spätestens seit der NSA-Affäre wurde dies in allen Details deutlich sichtbar – auch Behörden. Wie so oft bei neuen Trends hat sich auch in diesem Falle ein Begriff herauskristallisiert: Social Media Intelligence. Dahinter steckt die zielgerichtete Analyse von Daten und Strukturen sozialer Netzwerke mit bestimmten inhaltlichen Absichten. Einer breiten Öffentlichkeit dürfte der Begriff durch Aussagen des ehemaligen GCHQChefs Sir David Omand bekannt geworden sein260: Omand forderte im April 2012 Spionagemöglichkeiten unter anderem für die Analyse von Twitter und Facebook und fasste diese Notwendigkeit unter dem Label Social Media Intelligence zusammen. Während in der angelsächsischen Analystenszene Terminologien rund um das Wort Intelligence üblich sind – beispielsweise „Signal Intelligence“ (SIGINT) für elektronische Aufklärung oder „Cyber Security Intelligence“ für die Aufklärung von Cyberbedrohungen261– , zudem ständig neue Intelligence-Begrifflichkeiten entstehen und deren Bezug zur Nachrichtendienstwelt auch eher als unkritisch bis wünschenswert angesehen wird, werden Intelligence-Begrifflichkeiten in Deutschland traditionell etwas anders gehandhabt. Social Media Intelligence bedeutet hierzulande eher eine wirtschaftsorientierte Strategie- bzw. Reputationsanalyse, also eine spürbare Abgrenzung zum Schaffen in der Geheimdienstwelt, was auch bei anderen Begriffen wie Business und Competitive Intelligence beständig betont wird: ja, es gäbe durchaus einige wenige Berührungspunkte, doch man betreibe beileibe keine Spionage, so hochrangige Vertreter der Szene im deutschsprachigen Raum. Nachrichtendienstliche Bezüge sind ganz klar verpönt, es geht um wirtschaftliches Handeln – und das, so der Sinn der Abgrenzung zu Staat und Geheimdiensten, auf transparente, rechtlich klare und kaufmännisch faire Art und Weise, ohne Gesetzes- und Moralverstoß. Doch ganz so einfach ist die Abgrenzung zwischen anrüchiger Spitzelei und sauberem Wettbewerb in der Praxis natürlich nicht. Denn erstens nutzen Wirtschaft und Behörden oftmals dieselben SOCMINT-Tools: es macht technisch schließlich

260 http://www.dailymail.co.uk/news/article-2134333/Why-allowed-spy-Facebook-Twitter-White hall-intelligence-chief.html, abgerufen am 5.5.2019. 261 http://www-935.ibm.com/services/us/en/it-services/security-services/2014-cyber-security-intel ligence-index-infographic/, abgerufen am 5.5.2019.

1.4 Zweite Forschungsphase: 2008 bis 2015

107

keinen Unterschied, ob man herausfinden will, wer ein Produkt gut findet oder wem eine demokratiefeindliche Demonstration gefällt. Die Grenzen sind hier dank der zahllosen digitalen Analysemöglichkeiten fließend. Zweitens sprechen die Traditionslinien eine eindeutige Sprache. In dem 2006 erschienenen Standardwerk „Competitive Intelligence“ von Rainer Michaeli wird sehr energisch versucht, eine Abgrenzung der „CI“ von Geheimdiensten und ihren Spionen darzustellen, indem man die Methoden eher mit denen investigativ arbeitender Journalisten vergleicht und sich spöttische Bezeichnungen wie „007-Abklatsch“ verbittet. Doch der wohl bedeutendste Verband im Bereich Competitive Intelligence, die Non-Profit-Organisation „Strategic and Competitive Intelligence Professionals“ (SCIP) wurde im Jahre 1986 im Großraum Washington von etlichen US-Geheimdienstlern mitgegründet. Man mag den Verantwortlichen der SCIP sowie anderen Praktikern im Bereich der Competitive Intelligence sicherlich glauben können, dass sie ethisch faire und rechtlich saubere Methoden propagieren, doch dass eine traditionelle Nähe zu geheimdienstlicher Tätigkeit besteht, lässt sich nicht leugnen. Und das ist mehr als nur eine Marginalität, denn von der Pike auf sozialisierte Manager und Geheimdienstler unterscheiden sich nicht nur in ihrer jeweiligen, die Vorgehensweise einer Intelligence-Strategie maßgeblich prägenden Mentalität, sie haben ganz allgemein eine andere Weltsicht, andere soziale Grundeinstellungen und politische Positionen, die sich nicht von heute auf morgen abstreifen lassen wie ein Jobtitel. Andersherum prägen die vielfältigen und kinderleicht einzusetzenden Intelligence-Tätigkeiten auch Entscheidungsträger in den Chefetagen und werfen völlig neue Fragen auf, beispielsweise die eigene Ethik, die offensive Ausrichtung des eigenen Unternehmens oder die Grundprinzipien des Geschäftsbetriebs betreffend („Don´t be evil“). Gerade weil es eben so einfach ist, weil Unmengen an Daten nur darauf zu warten scheinen, quasi heilsbringend eingesetzt zu werden. Daten sind für viele der Rohstoff des 21. Jahrhunderts262– und sie fallen einfach überall an. Da ist die Versuchung groß und die Hürde niedrig. Diese Gemengelage, so ist sich CI-Profi Michaeli sicher, schafft entsprechende Probleme in der öffentlichen Wahrnehmung, denn Wirtschaftsspionage und – kriminalität lassen sich besonders im Zusammenhang mit Geheimdiensten „gut journalistisch aufbereiten“. Das wissen neben CI-Experten freilich auch die nicht nachrichtendienstlich tätigen Behörden, sprich: die Polizeien des Bundes und der Länder. Deshalb wird oft sehr deutlich versucht, einen Bezug zu nachrichtendienstlichen Tätigkeiten um jeden Preis zu vermeiden. In der Praxis bedeutet das: auch die Polizeien möchten natürlich wissen, was um sie herum im Netz passiert – doch das geht nur im Rahmen ihres gesetzlichen Auftrages und ihrer sozialen Stellung innerhalb der Gesellschaft. Dazu passen allzu geheimes Verhalten oder gar offen zugegebene Spionage naturgemäß nicht.

262 http://www.vdi-nachrichten.com/Technik-Wirtschaft/Daten-Rohstoff-21-Jahrhunderts, abgerufen am 5.5.2019.

108

1 Einführung in die Internetsoziologie

Doch wenn die Grenzen fließend, die Begrifflichkeiten nicht eindeutig und die technischen Möglichkeiten ebenso groß sind wie die Verführung: wie gehen Polizeibehörden dann offiziell mit SOCMINT um? Das Bundeskriminalamt antwortet kurz und knapp: „Das BKA setzt keine Social Media Intelligence – im Sinne einer Analyse des Ansehens des BKA in den sozialen Netzwerken – ein“. SOCMINT ist für das BKA somit Reputationsmanagement im Netz – und das findet nicht statt. Etwas umfangreicher bezieht die Bundespolizei Stellung: „Die Bundespolizei ist seit November 2013 mit einer Facebook-Karriereseite in den sozialen Medien vertreten. Weitere Online-Aktivitäten in sozialen Netzwerken sind in Planung. Im vergangen Jahr führte die Bundespolizei für die Neugestaltung der eigenen Webseite ein Imagescreening (in Form eines Monitorings) durch. Ein klassisches und/ oder regelmäßiges Social Media Intelligence wie es beispielsweise von Unternehmen für die Ausrichtung oder Verbesserung der eigenen Reputation oder zur Erleichterung von Geschäftsentscheidungen eingesetzt wird, nutzt die Bundespolizei jedoch nicht.“ Auch hier ist erkennbar, dass SOCMINT mit Reputation und Management in Verbindung gebracht wird, nicht mit dem polizeilichen Kerngeschäft von Prävention und Strafverfolgung. Auch die Polizei Hamburg bezieht sich auf kommunikationsstrategische Aspekte und antwortet, man „nutzt Facebook zur Internetkommunikation und plant künftig auch Twitter zu nutzen.“ Ganz anders hingegen die Berliner Polizei: „Ermittlungen im Bereich Social Media werden von der Polizei Berlin nur anlassbezogen geführt. Eine Statistik dazu wird nicht erhoben.“ Von Reputationsmanagement oder Strategieunterstützung keine Spur, die Berliner Polizei sieht SOCMINT als Teil ihres Kernauftrags, und der besteht eben unter anderem in Strafverfolgung – auch online. Nun ist Reputationsmanagement keine schlechte Sache; es schadet nicht, wenn sich Presse- und Öffentlichkeitsarbeit auch für soziale Netzwerke wie Twitter und Facebook öffnet, doch die weiteren Möglichkeiten, die ebenso wie das Reputationsmanagement unter den Begriff Social Media Intelligence fallen, dürften letztlich die spannenderen sein. Denn auch wenn Facebook und Co. aus medienhistorischer Sicht extrem junge Phänomene sind, so gibt es natürlich den Wunsch, wie die Berliner Polizei deutlich macht, auch auf das Internet ein wachsames Auge zu haben. Die Ereignisse der jüngsten Vergangenheit wie die Verbreitung von Enthauptungsvideos des Islamischen Staates oder die Erforschung des Radikalisierungshintergrunds der „Charlie Hebdo“-attentatsverdächtigen Brüder Kouachi zeigen eindrücklich, wie machtvoll Facebook, Twitter und Co. inzwischen sind. Der Staatsschutz schaut sich die Online-Kommunikation der Szene genau an und beobachtet auch den Jubel über den Angriff auf das französische Satiremagazin.263 Manche Polizeibehörden mögen dieses Vorgehen nicht SOCMINT nennen – doch genau das ist es letztlich.

263 http://www.faz.net/aktuell/islamisten-im-netz-feiern-anschlag-von-paris-13360121.html, abgerufen am 5.5.2019.

1.4 Zweite Forschungsphase: 2008 bis 2015

109

Aufgrund der Entwicklungen im Bereich SOCMINT und der bisherigen Anwendung im polizeilichen Bereich erscheint es unrealistisch, dass es bei den wenigen Maßnahmen bleiben wird, die die Polizeibehörden offiziell bestätigt haben. Denn erstens geschehen immer mehr Dinge digital, so dass es zwangsläufig auch mehr digitale Gesetzesverstöße geben wird – eine Entwicklung, die durch aktuelle Cybercrime-Fallzahlen schon jetzt belegt wird und die Polizeibehörden entsprechend unter Zugzwang setzt. Zweitens erweitert sich das Möglichkeitsspektrum von SOCMINT sehr rasant, so dass immer mehr Analysemöglichkeiten entstehen, die auch für die Polizei interessant sein dürften. Und drittens hat Deutschland ganz allgemein Nachholbedarf, wie eine aktuelle Studie der Fachhochschule der Polizei Brandenburg aufzeigt.264 Selbst Länder wie Mazedonien sind digital aktiver und erfüllen damit die Erwartungen, die Menschen auch im digitalen Raum ganz selbstverständlich an ihre Polizei stellen: Präsenz, Prävention und Strafverfolgung. Hier schließt sich der Kreis: dieser internationale Druck aus technischer und behördlicher Sicht sowie das Schaffen von Fakten mit historisch ungetrübter Leichtigkeit in der Grauzone von polizeilicher und geheimdienstlicher Tätigkeit dürfte der entscheidende Hebel für die Stoßrichtung der Entwicklung in den kommenden Jahren in Deutschland sein. Denn in Ländern, in denen es kein Trennungsgebot zwischen Polizei und Nachrichtendiensten265 gibt, wird wie deutlich lockerer unter dem Label SOCMINT entwickelt, experimentiert und analysiert, so wie beispielsweise Umut Ertogral, Leiter der Abteilung Open Source Intelligence im Metropolitan Police Service von London, vor anderthalb Jahren zugab: „Just like the private sector use it for marketing and branding, we’ve developed something to listen in and see what the public are thinking.“266 Eine derartige polizeiliche Leichtigkeit berührt jedoch Eigengesetzlichkeiten der Digitalisierung, die dadurch allzu oft nicht ausreichend zur Kenntnis genommen werden: so sind beispielsweise manche Facebook-Profile zwar „öffentlich“, jedoch bedeutet das nach Einschätzung der jeweiligen Nutzerinnen nicht automatisch, dass die Polizei beliebig in ihnen herumstöbern darf. Öffentlich ist für viele Menschen nicht gleich öffentlich. Es liegt hier ein anderer Öffentlichkeitsbegriff zugrunde, der mit allzu einfachen Analogien aus der nichtdigitalen Welt nicht begriffen werden kann. So kennt man aus den Niederlanden die soziale Gepflogenheit, trotz fehlender Vorhänge nicht voyeuristisch in Wohn- oder Schlafzimmer zu schauen. Die Niederländer verhindern somit das Gaffen nicht „technisch“, sondern sozial. Noch befindet sich die digitale Welt aber in der Phase, in der – zumindest irgendwie geartete Legalität einmal vorausgesetzt – alles Mögliche von Behörden aus-

264 http://www.faz.net/aktuell/feuilleton/medien/die-polizei-soll-auch-im-netz-auf-streife-gehen13304750.html, abgerufen am 5.5.2019. 265 http://de.wikipedia.org/wiki/Trennungsgebot_zwischen_Nachrichtendiensten_und_Polizei, abgerufen am 5.5.2019. 266 http://www.wired.co.uk/news/archive/2013-06/26/socmint, abgerufen am 5.5.2019.

110

1 Einführung in die Internetsoziologie

probiert wird267: „Mal gucken, was so passiert“ ist aus rechtsstaatlicher Perspektive aber durchaus eine heikle Angelegenheit, denn wo (noch) keine deutlichen Grenzen sind, stellt sich immer erst nachher heraus, wo man zu weit gegangen ist. Das ist nicht nur inhaltlich gefährlich, sondern auch gesellschaftlich heikel. Die deutschen Polizeien stehen zweifellos vor großen Herausforderungen. Die Behörden, die zu der Frage nach dem SOCMINT-Einsatz Stellung bezogen haben (etliche angefragte Behörden waren nicht zu einer Stellungnahme bereit), haben sich ganz offen auf ein besonders sensibles Thema eingelassen. Sie werden früher oder später wohl mehr machen müssen als bloßes Reputationsmanagement, wie Bundesinnenminister Thomas de Maizière betont, der beispielsweise den Extremisten nicht die Propagandahoheit im Internet überlassen will: „Wir [müssen] im Internet den Versuch unternehmen und eine Art Gegenoffensive verbreiten.“268 Die Polizeibehörden werden dafür aber Digitalisierung ganzheitlich betrachten müssen, um die Grenzen des Sinnvollen und des Machbaren gleichermaßen sensibel und brauchbar auszuloten, vor allem im Zusammenspiel mit Politik, Wissenschaft und Gesellschaft. Sie werden die weitere Entwicklung des Begriffs SOCMINT langfristig und intensiv begleiten müssen, um ein Abdriften in Richtung einer „Geheimpolizei“ mitsamt ihrer verführerischen, aber oftmals äußerst bedenklichen Methoden zu verhindern. Auf der Suche nach brauchbaren Perspektiven in einem heiklen Umfeld stehen die deutschen Polizeien offenbar ganz am Anfang einer langen Reise.

1.4.6 Themenfeld Vorratsdatenspeicherung Der letzte und sicherlich am meisten diskutierte Text widmete sich im Jahre 2014 dem Thema Vorratsdatenspeicherung, ihrer Ablehnung und ihren Alternativen: Die Vorratsdatenspeicherung (VDS) erregt die Gemüter: längst geht es in vielen Diskussionen und Analysen nicht mehr um die Fakten, sondern ums Prinzip. Die einen wollen sie unbedingt, die anderen lehnen sie bedingungslos ab. Die jüngste Entscheidung des Europäischen Gerichtshofs (EuGH) hat die hitzige Diskussion keinesfalls abgekühlt oder gar beendet, denn während nun die einen ein zeitnahes Update nach den neu gezogenen Grenzen des EuGH herbeisehnen, sehen die anderen mit dem europäischen Urteil die konzertierte Datensammlung endgültig am Ende. In der Sache gibt es seit Jahren leider keine Fortschritte. Das ist sehr bedauerlich, weil der derzeitige Schwebezustand nur zur Verhärtung der Fronten zu führen scheint, eine vernünftige Lösung dadurch jedoch sehr viel schwieriger wird. Dabei

267 http://www.andrej-hunko.de/start/download/doc_download/559-tests-recherchen-und-markt sichtungen-zur-einfuehrung-polizeilicher-vorhersagesoftware, abgerufen am 5.5.2019. 268 http://www.faz.net/aktuell/politik/inland/thomas-de-maiziere-will-aufklaerungsoffensivegegen-islamisten-13277369.html, abgerufen am 5.5.2019.

1.4 Zweite Forschungsphase: 2008 bis 2015

111

ist gerade eine rationale Analyse der Fakten, ganz ohne Emotion und Ideologie, in diesem Falle besonders vielversprechend. Dass eine freiheitlich-demokratische Polizei plausible, datenschutzgerechte und handhabbare Möglichkeiten braucht, um retrograd digitale Daten einsehen zu können, die bei der Aufklärung von Straftaten helfen könnten, sollte grundsätzlich unbestritten sein. Es geht also nicht darum, ob solche Datenanalysen durchführbar sein sollten, sondern wie. Das führt wiederum zu der Frage, ob die VDS in ihrer bisher bekannten und stark umstrittenen Form im Sinne der Zielstellung überhaupt ein taugliches Instrument ist. Aufgrund der weiter stark zunehmenden Digitalisierung unserer Gesellschaft kann die Antwort aus internetsoziologischer Sicht nur lauten: Nein. Das bedeutet aber wie bereits gesagt nicht, dass gar kein Zugriff auf Datenvorräte möglich sein sollte. Nur geht das inzwischen wohl deutlich besser als mit der altbekannten „VDS 1.0“, denn es liegen mit an Sicherheit grenzender Wahrscheinlichkeit längst mehr Daten als genug in digitaler (und damit entsprechend auswertbarer) Form vor, die beim Aufklären eines Falles gewinnbringend genutzt werden können – und das gleichermaßen rechtlich wie sozial unbedenklich. Der Hintergrund dieser Erkenntnis ist schnell ausgemacht: Die Digitalisierung unserer Gesellschaft hat zur Folge, dass wir immer „digitaler“ werden. Dies betrifft Randbereiche unseres Lebens ebenso wie unser Innerstes, unsere Identität. Zahlreiche Paradigmenwechsel fanden und finden weiter statt: während man noch vor gut 15 Jahren grundsätzlich Erreichbarkeit erst einmal herstellen musste, indem man jemanden beispielsweise zu Hause wähnte, um ihn dann auf dem Festnetztelefon anzurufen, ist man heute eigentlich immer erreichbar. Nichterreichbarkeit ist somit nicht mehr die Regel, sondern die Ausnahme geworden. Und das ist sogar noch ein eher triviales Beispiel im Vergleich zu dem, was derzeit entwickelt und erst recht in naher Zukunft entstehen und unser Leben prägen wird. Wir reden in der digitalen Forschung längst über ganz andere Möglichkeiten, wie drei Beispiele zeigen sollen. Über den Kurznachrichtendienst Twitter werden täglich mehrere Hundert Millionen Nachrichten, sogenannte Tweets abgesetzt. Diese Tweets sind eine perfekte Datenquelle, auch für Analysen, die man auf den ersten Blick vielleicht nicht erwartet hätte. Kollegen aus den USA ist es vor gut einem Jahr nach eigener Auskunft sehr präzise gelungen, durch eine Analyse von Tweets aus bestimmten Regionen herauszufinden, wo sich eine Grippeepidemie ausbreitet, und das qualitativ auf demselben Niveau wie die Analysen der zuständigen Gesundheitsbehörden. (1) Andere USForscher arbeiten an der Analyse von Tweets zur Diagnose von Depressionen. (2) Noch etwas weiter ging ein deutscher Kollege mit der Analyse von elektromagnetischen Wellen, wie sie beispielsweise vom WLAN-Router in der Wohnung abgestrahlt werden: anhand ihrer Veränderung kann man, so seine Einschätzung, erkennen, wann, wie und mit welcher Geschwindigkeit sich jemand in der Wohnung bewegt. Auch diese, an ein Radar erinnernde Analyse hatte nach Aussage des Forschers eine hohe Erfolgsquote. (3) Ohne an dieser Stelle auf technische Details einzugehen, darf man diese Analysen nicht nur für plausibel halten, sondern kann

112

1 Einführung in die Internetsoziologie

zugleich sicher sein, dass diese Forschungsprojekte nur einen ganz kleinen Ausriss aus dem schier unerschöpflichen Möglichkeitsspektrum darstellen, welches Wissenschaftlern – und auch Anwendern aus dem Behördenbereich – inzwischen geboten wird. Im Forschungsalltag begegnen uns noch ganz andere Methoden und Experimente, die abermals weit über die hier erwähnten Beispiele hinausgehen. Vor diesem Hintergrund erscheint die Idee, Telefon- und Internet-Metadaten zwangsweise zu speichern, um etwas über das Kommunikationsverhalten von Menschen zu erfahren, beinahe schon antiquiert. Gleich mehrere Gründe lassen diese erwähnten Beispiele und Möglichkeiten besser erscheinen als die klassische VDS: sie wirken passgenauer und weniger invasiv, in vielen Fällen sicherlich deutlich akzeptabler, datenschutzkonformer bzw. verhältnismäßiger und auch praktischer, sowohl für wissenschaftliche als auch für polizeiliche Anwendungsfälle. Viele der Daten liegen bereits vor, viele weitere Quellen kommen in den nächsten Jahren hinzu. Meist werden die Daten sogar freiwillig generiert. Gerade dieser Aspekt ist aus Akzeptanzgesichtspunkten ein entscheidender Vorteil gegenüber der pauschalen „Massenüberwachung“ durch die VDS. Wer seine Lebenswelt digital wie analog individuell ausgestaltet, kann sich nach Begehung einer Straftat kaum beschweren, wenn sich die Ermittler diese Lebenswelt mal genauer anschauen und Erkenntnisse zutage fördern – digital wie analog. Die digitale Sphäre verwebt sich immer mehr mit der nichtdigitalen Welt. Einen Unterschied zwischen der „virtuellen“ und der „realen“ Welt zu machen ist nicht nur sprachlich falsch, sondern auch lebensweltlich unsinnig. So wie wir bestimmten Entwicklungen und ihren jeweiligen Ausprägungen in der analogen Welt kaum bis gar nicht mehr entgehen können, gibt es auch in der digitalen Sphäre Entwicklungen, die lebensweltlich grundsätzlich nicht mehr vermeidbar sind. Die notwendige Lebensmittelvielfalt für eine gesunde und ausgewogene Ernährung gibt es vorrangig im Supermarkt und nicht im eigenen Garten oder beim Nachbarn, bezahlt wird mit einheitlichem Geld und nicht mit Phantasiewährungen oder individuellen Tauschgegenständen, Arbeitsverträge mit persönlichen Daten, Rechten und Pflichten regeln das Verhältnis zwischen Arbeitgeber und Arbeitnehmer auf Grundlage des Arbeitsrechts anstelle eines anonymen Handschlags und vager Versprechungen ohne rechtlichen Rückhalt. Und genau so verhält es sich auch mit digitalen Entwicklungen: Ausweis bzw. Reisepass enthalten Computerchips, der Supermarkt wird videoüberwacht und erreichbar ist man via Smartphone, E-Mail oder sozialem Netzwerk. Digitale Daten fallen in Tools, Endgeräten und bei Anbietern zuhauf an, ebenso wie analoge Daten im Alltag anfallen, beispielsweise in Form von Zeugenbeobachtungen, Blut- oder Geruchsspuren. All diese Aspekte können in Ermittlungsverfahren wertvolle Bausteine zur Aufklärung eines Falles darstellen. Das Ermitteln wird zunehmend digitaler, aber genau deshalb lässt es sich besser denn je ohne spezifische Zwangsdatenspeicherung durchführen. Dazu ein Fallbeispiel aus der Praxis: Immer wieder ist von polizeilicher Seite zu hören, dass der sogenannte Enkeltrick nur mithilfe der VDS aufzuklären sei. Eine

1.4 Zweite Forschungsphase: 2008 bis 2015

113

deutlich akzeptablere Lösung ohne jegliche inhaltlichen Verluste dürfte hingegen sein, eine opfergruppenspezifische „kleine VDS“, gepaart mit weiteren digitalen Maßnahmen, einzusetzen. Dazu werden die bisherigen Fälle hinsichtlich Opferstatus (Alter, Wohnsituation, Finanzlage etc.) ausgewertet und dann eine Vorratsdatenspeicherung für den jeweiligen Telefon- und Internetanschluss potentieller Opfer durchgeführt. Um einen genaueren Zuschnitt zu ermöglichen, können auch deren Kontodaten miteingebracht werden, so dass beispielsweise bei einer Abhebung von mehreren tausend Euro durch das potentielle Opfer in zeitlicher Nähe von Anrufen via Prepaidhandy, aus dem Ausland oder auch nur von unbekannten Nummern eine entsprechende Mustererkennung und damit ein Frühwarnsystem greift. Wenn man dies noch verbindet mit dem via „Passivradar“ festgestellten Bewegungsprofil von Opfer und Täter – zum Beispiel eine Zusammenkunft an der nächsten Straßenecke zwecks Geldübergabe zugunsten des „Enkels“ – könnte man sogar den Täter vom Tatort ausgehend mithilfe seines Bewegungsprofils verfolgen – und zwar anonym. Damit wäre die Datensparsamkeit insgesamt gewahrt und die Aufklärungschance deutlich erhöht. Sogar eine Tatverhinderung aufgrund der Mustererkennung wäre möglich. Aus Akzeptanzgesichtspunkten dürfte so eine Lösung schon deshalb vielversprechend sein, weil trotz der Erstellung eines Opferprofils keine Diskriminierung stattfindet: ältere Menschen werden durch die individuelle Vorratsdatenspeicherung bzw. Musteranalyse ihrer digitalen Spuren nicht als vermeintlich senil oder naiv stigmatisiert, denn im Falle körperlicher Gebrechlichkeit sind Pflegedienste, Hausnotrufe und Sturzmatten mit Sensoren – also erneut digitale Muster- und Signalerkennungen – ja auch keine verpönte Diskriminierung, sondern anerkanntes Hilfsmittel. Dies ist freilich nur ein erstes Beispiel, welches jedoch jederzeit individuell ausgearbeitet und – besonders wichtig – ohne enorme finanzielle Neuinvestitionen umgesetzt werden kann. Es zeigt vor allem, dass es schon heute nicht an den Daten mangelt, sondern an intelligenteren Konzepten. Schließlich gilt auch im Falle der VDS: von vermeintlich allzu einfachen Heilsversprechen sollte man sich nie blenden lassen. Lange Zeit glaubte man auch an eine Art magische Unfehlbarkeit des Bildes – bis jemand auf die Idee kam, von einer Fotografie einfach etwas wegzuschneiden und somit die repräsentierte „Wahrheit“ zu manipulieren. (Von tiefergehenden digitalen Manipulationen à la Photoshop an dieser Stelle mal ganz zu schweigen.) Die klassische Vorratsdatenspeicherung mag auf den ersten Blick genauso plausibel erscheinen wie das vermeintliche „Wundermittel“ Videoüberwachung oder eben auch die Fotografie, doch sind zahlreiche Nachteile und Probleme dieser Werkzeuge inzwischen wohlbekannt und auch nicht mehr wegzudiskutieren – der EuGH hat in seinem Urteil eine ganze Menge davon ausformuliert. Digitale Daten sind per se keinesfalls valider als analoge Erkenntnisse. Sie sehen aufgrund ihrer unzweideutigen Aussage, sprich: ihres klar bestimmbaren Werts, ihrer fehlenden Unschärfe und ihrer automatisierten Verarbeitung meist nur so aus. Man muss sie aber nicht nur kontextuell – so wie alle Spuren – bewerten, sondern auch im Rahmen ihrer Eigengesetzlichkeiten. Und dazu braucht man mehr als nur

114

1 Einführung in die Internetsoziologie

ein gesetzlich verordnetes Werkzeug und einen Schnellkurs im Bedienen der dazugehörigen Software. Hier geht es vor allem um „Code Literacy“, also tiefgehende Kenntnisse digitaler Systeme und ihrer sozio-technischen Auswirkungen. Ohne diese Kenntnisse lassen sich Technik und Gesellschaftsveränderung nicht mehr bewältigen, was letztlich bedeutet, dass viel mehr dementsprechende (Aus)Bildung nötig ist. Die VDS in ihrer ursprünglichen Form wäre ohnehin nur ein immer kleiner werdender Baustein von vielen gewesen, um einen Fall zu lösen, und eben nicht eine Art Allzweckwaffe zur Bekämpfung von Internetkriminalität. Doch ganz gleich, wie viele Argumente aus welcher Richtung auch immer gegen oder für die alte VDS-Idee sprechen: die Digitalisierung ist längst einen Schritt weiter, weshalb es Zeit wird für einen neuen Weg. Eine „VDS 2.0“ ist deshalb mehr Konzept als Einzelwerkzeug und berücksichtigt das Phänomen Digitalisierung in Gänze, nicht nur Telefon- oder IP-Metadaten. Eine entsprechende Vorgehensweise für die PostVDS-Ära könnte wie deshalb folgt aussehen: Zuerst widmet man sich den gegenwärtigen und zukünftigen digitalen Möglichkeiten und analysiert sie gleichrangig aus technischer, rechtlicher und sozialer Sicht im Rahmen eines Expertenworkshops. Die Endanwender (Polizei und Staatsanwaltschaft) sind von Beginn an mit am Tisch und werden nicht auf die Rolle des zahlenden Kunden reduziert, denn ihr Input ist hier von entscheidender Bedeutung. Am Ende eines solchen Workshops wird gemeinsam festgelegt, was man wofür nutzen kann – und was nicht. Dazu gehört auch die Entwicklung eines standardisierten Schulungskonzepts für Multiplikatoren in den Polizeibehörden, Staatsanwaltschaften und Gerichten bzw. Schulungen für die Anwender im operativen Alltag. Da die digitale Entwicklung rasant verläuft, sollten sowohl Workshops als auch Schulungen engmaschig stattfinden. Ein Methoden- und Erfahrungsaustausch sowie eine enge Zusammenarbeit mit anderen Einrichtungen – allen voran Universitäten, Fachhochschulen und Forschungseinrichtungen wie der FraunhoferGesellschaft, aber auch Nachrichtendiensten und ausländischen Behörden – ist extrem wertvoll und findet deshalb ebenso regelmäßig statt wie ein innerbehördlicher Austausch. Da die Bandbreite der Digitalisierungsphänomene enorm ist und in der Zukunft keinesfalls kleiner wird, erscheint es unrealistisch, die Aufgabe der Exploration neuer Möglichkeiten auf einige wenige internetaffine Polizisten innerhalb einer Behörde zu verteilen. Auch ist die Einteilung in bestimmte Formen der „Internetkriminalität“ zu überdenken: letztlich ist der gemeinsame Nenner des Digitalen entscheidend, weshalb Fachleute einer Behörde in einem Fachbereich Digitalisierung besser aufgehoben sein dürften. Digitalisierung ist eine Querschnittsaufgabe und die Experten einer Behörde sollten idealerweise sowohl als Anwender als auch in der Rolle des Beraters reüssieren können. Letztlich dürfte eine solche Lösung auch aus finanzieller Sicht eine deutliche Verbesserung darstellen, denn bereits durch die permanente Stärkung der eigenen Stärken findet eine entsprechende Effizienzsteigerung statt. Experten haben somit Vorrang vor Generalisten. Spätestens mit dieser Institutionalisierung der Erkenntnis, dass Digitalisierung weit mehr Möglichkeiten, aber eben auch Herausforderungen bietet als „klassische“ Telekommunikation, die Daten aus technischer

1.4 Zweite Forschungsphase: 2008 bis 2015

115

Sicht aber immer einen gemeinsamen (digitalen) Nenner haben und damit das Verständnis für das „große Ganze“ auch im Kleinen vielerlei Lösungsansätze realisiert, scheitert die Speziallösung Vorratsdatenspeicherung bereits an der Erforderlichkeit. Sie wird in der Folge als singuläres Werkzeug schlicht überflüssig, zugunsten eines gemeinsam gestalteten sowie effektiveren, akzeptableren, kosteneffizienteren und vor allem zukunftssicheren Konzepts einer intelligenten digitalen Analyse.

1.4.7 Kinderfotos im Internet Mindestens ebenso sensibel wie die Diskussion rund um die Vorratsdatenspeicherung verläuft seit einigen Jahren die Diskussion um die Frage: Fotos von Kindern – online stellen oder nicht? Auch dazu erarbeitete ich – hier besonders gut erkennbar – für ein Bayerisches Ministerium im Jahre 2011 ein Positionspapier, welches sich erkennbar auf wesentliche Elemente der Internetsoziologie bezieht und daraus entsprechende Schlüsse für das Einzelprojekt ableitet. Ein Musterfall der internetsoziologischen (Klein)Projektbearbeitung: Digitale Daten von Kindern sind immer besonders sensibel. Es gibt deshalb einige Grundregeln, die man beim Umgang mit Digitalisierung im Allgemeinen und Daten von Kindern in sozialen Netzwerken wie Facebook im Besonderen beherzigen sollte: – Die Digitalisierung ist revolutionär, nicht evolutionär! Misstrauen Sie allzu einfachen und gefälligen Analogien und Slogans. Viele Strategien und Methoden aus der nichtdigitalen Zeit bzw. Welt versagen im digitalen Raum, teilweise mit dramatischen Folgen. Die Beherrschung von Digitalisierung ist deshalb in meinen Augen so relevant wie Lesen und Schreiben, was unter anderem bedeutet, dass man nicht nach wenigen Stunden oder mit nur wenigen Handgriffen gleich ein Experte sein kann. Dies hat im Falle von Problemen und Fehlern verständlicherweise oft Frust, Ärger und Gedanken der Abkehr zur Folge. Sich bei Problemen oder nach Fehlschlägen von digitalen Geräten und Services abzuwenden, ist allerdings einer der größten Fehler, die man heutzutage überhaupt machen kann. – Ein weiterer großer Fehler, den man meines Erachtens machen kann, ist, soziale Fragen von Technikern beantworten zu lassen. Das Motto sollte deshalb stets sein: Technik ist zu wichtig, um sie nur Technikern zu überlassen. Schon die (akademische) Ausbildung befähigt Techniker nicht zu gesellschaftlichen Analysen und reine Technikkenntnis ermöglicht kein Verständnis sozialer Handlungen und Zusammenhänge. Verlassen Sie sich deshalb nicht nur auf technische Tipps, sondern suchen Sie die gesamtgesellschaftliche Lösung. – Die Digitalisierung steht medienhistorisch betrachtet noch ganz am Anfang, d. h. wir sehen gegenwärtig erst einen winzigen Bruchteil der Dinge, die noch auf uns zukommen werden. Sich der Digitalisierung zu verweigern ist

116

1 Einführung in die Internetsoziologie

kaum mehr möglich und unter dieser Prämisse auch kaum sinnvoll. Man wird höchstens einen immer größeren Berg von Herausforderungen vor sich herschieben, denn das Digitalisierungstempo und die Vernetzung der verschiedenen (Lebens-)Bereiche werden kaum abnehmen. Je früher, klüger, gelassener und effizienter deshalb eine sachliche Beschäftigung mit dem Thema begonnen wird, desto besser. Und da Digitalisierung keine Ausweichmöglichkeiten parat hält, sondern ganz eigene Räume definiert (internationale Facebook-Freundschaften funktionieren nicht ohne Facebook, Geldabheben funktioniert nur noch am digitalen Automaten und nicht mehr am Schalter usw.), ist man entweder „drin“ – oder draußen. – Es ist keineswegs so, dass man heute keine Chance mehr hat, die Privatsphäre oder die eigene Kontrolle zu wahren. Kontrollverlust ist trotz aller gegenläufigen Behauptungen in überraschend vielen Fällen immer noch etwas, das oftmals vom User und nicht vom Serviceanbieter ausgeht. Dass andere Mitwirkende – vor allem Wirtschaft und Politik – ganz andere Gestaltungsmöglichkeiten haben als ein einzelner User, ist freilich nicht überraschend. Doch man sollte bei der Digitalisierung weniger ein „Entweder – oder“ („Ich hab sowieso nix zu verbergen, also was solls?“), sondern eher ein „Sowohl – als auch“ in Betracht ziehen. Die schlechteste Position hat derjenige, der schon dann die Flinte ins Korn wirft, bevor die Herausforderung überhaupt absehbar ist. Wer meint, er habe „sowieso nichts zu verbergen“, irrt schon aus dem einfachen Grunde, dass er heute noch gar nicht weiß, was ihm morgen auf die Füße fallen kann. So waren die berüchtigten wilden Partyfotos für viele User lange ein klassisches Einstellungshindernis, weil Personaler bekanntlich auch im Netz surfen und man Angst hatte, als Bewerber hier den falschen Eindruck zu erwecken. Inzwischen wird sowas immer öfter kontextuell betrachtet: Man sieht im Falle privater Fotos (sofern sie nicht sämtliche Grenzen überschreiten), dass der Bewerber auch ein Privatleben hat, ein Mensch ist und nicht nur ein stromlinienförmiger Karrierist. Was also wann und wie von wem bewertet wird, unterliegt permanenten Veränderungen. Nach meinem Eindruck wird in Zukunft ein digitales Profil mit plausiblen Ecken und Kanten immer besser ankommen, da die Kontextualisierung und fallweise Bewertung von Daten eine immer größere Rolle spielen wird. Für soziale Netzwerke wie Facebook und die Veröffentlichung von Kinderfotos bedeutet dies: – Was einmal im Netz ist, kann nicht wieder zurückgeholt werden! Software wie der „Digitale Radiergummi“ oder Bilder mit „Ablaufdatum“ klingen vielleicht logisch und interessant, sind aber technisch nicht anderes als Unsinn und als wirkungsloses Placebo zudem Zeit- und Ressourcenverschwendung. Es ist technisch nicht machbar, digitale Bilder „zurückzuholen“ wie ein Polaroid vom schwarzen Brett, dessen Inhalt nur in den Köpfen der wenigen Betrachter existiert. Datensparsamkeit muss somit viel stärker beachtet werden. Vor einer

1.4 Zweite Forschungsphase: 2008 bis 2015

117

Veröffentlichung besonders sensibler Bilder – und das sind ausnahmslos alle Kinderfotos, weil das Kind selbst noch keine sinnvolle Entscheidung treffen kann und die Eltern hier entsprechend gefordert sind – muss man sich umfassend informieren: – Was ist der Zweck des Hochladens? – Wer soll dieses Bild überhaupt sehen – und wer nicht? – Wenn ich es jetzt und hier poste, welchen Bedingungen unterwerfe ich mich, wie viel Kontrolle habe ich? – Verstehe ich all diese Bedingungen? Verstehe ich meine Kontrollmöglichkeiten? – Bin ich nun in der Lage, hier eine sichere Entscheidung zu treffen, mich guten Gewissens dafür oder dagegen zu entscheiden? – Oder gibt es sozialen Druck: weil alle mitmachen, ich nicht außen vor bleiben will oder ich schon zugesagt habe, ohne mich vorher ausführlich zu informieren? – Oder gibt es andere Herausforderungen, die mich beeinflussen? – Gibt es Alternativen zum bisherigen Vorhaben? – Wie kann ich die mir aufscheinenden Risiken minimieren oder gar ganz ausschließen? – Im Zweifel plädiere ich stets für die Lösung, die dem einzelnen User (und ggf. seiner „Zielgruppe“, also Verwandten, Freunden, etc.) die meiste Kontrolle lässt. So ist beispielsweise in wenigen Minuten (und für nur wenige Euro pro Jahr) eine eigene Website aufgesetzt, zusammen mit einem einfach zu verstehenden und zu bedienenden Content-Management-System wie Wordpress, in Deutschland verortet und mit deutschen Datenschutz- und Vertragsbestimmungen, was einem User ungleich mehr Möglichkeiten bietet, z. B. einen passwortgeschützten Bereich, den nur enge Verwandte einsehen können. Hier sitzt kein Dienstleister wie eine Spinne im Netz und nutzt die eintrudelnden Daten z. B. für eigene Firmenwerbung. Datenmissbrauch fällt so deutlich schwerer. Der Arbeitsaufwand ist zudem überschaubar und lohnt sich auch langfristig. Facebook und Co. sind natürlich schön einfach – sonst würde man ja auch keine User anlocken, sondern abschrecken. Aber hier gilt der alte Slogan: Wenn Sie nichts dafür bezahlen, sind Sie kein Kunde, sondern das Produkt! Das vermeiden Sie z. B. mit einer eigenen Website, auf die auch im eigenen Facebookprofil mit einem Textlink hingewiesen werden kann – ohne nennenswerte Komforteinbußen. Nutzen Sie Facebook und Co. viel stärker in Ihrem eigenen Sinne, als Werbeplattform, deren Inhalte Sie bestimmen. Verweisen Sie auf Ihre Website und machen Sie diese zu ihrem Dreh- und Angelpunkt im Netz, nicht einen fremden Anbieter. – Kinderfotos sind aus zahlreichen Gründen besonders sensible Daten, und das nicht nur in Hinblick auf ihre potentielle Nutzung durch Pädophile. Nicht selten wird die Verbindung zwischen sozialen Netzwerken und Pädophilie als Alarmismus oder Randerscheinung abgetan, doch schon die ersten Recherchen

118

1 Einführung in die Internetsoziologie

z. B. bei Wikipedia sollten Eltern erkennen lassen, dass hier durchaus eine nicht ganz unbedeutende Verbindung existiert: In einer Studie gaben 86,1 % der Teilnehmer an, Bildmaterial aus dem legalen und/oder illegalen Bereich zu nutzen.269 Davison und Neale betonen, dass zur sexuellen Stimulation nicht zwangsläufig illegales Material nötig sei, vielmehr konstruieren Pädophile ihr eigenes sexuell erregendes Material aus Quellen, die allgemein als harmlos angesehen werden, wie z. B. Kinderbildern aus Versandhauskatalogen.270

Grundsätzlich halte ich die Digitalisierung für etwas weit überwiegend Positives und ich sehe die Freiheit des Individuums im Netz als ein sehr hohes Gut an, welche so weit wie möglich geschützt und keinesfalls unnötig eingeschränkt werden darf. Doch mit Freiheit geht bekanntlich Verantwortung einher. Wenn jemand vermeintlich harmlose Nacktfotos seiner am Strand spielenden Kinder bei Facebook veröffentlicht und das Profil samt Fotos z. B. durch simple Freundschaftsanfragen auch grundsätzlich völlig unbekannter Menschen zugänglich ist,271 stellt sich schnell die Frage nach der Sinnhaftigkeit eines solchen Vorgehens und ob hier nicht mehr Schaden als Nutzen entsteht. Hier helfen aber weder Verbote noch technische Placebolösungen, sondern hier ist vor allem die Verantwortung des Einzelnen gefragt. Selbstverständlich gilt hier dieselbe Grundregel wie zuvor erwähnt: was einmal draußen ist, ist draußen. Das bedeutet natürlich nicht automatisch, dass jedes Strandbild eines planschenden Kindes direkt auf einem Pädophilen-PC landet – dieses Risiko ist und bleibt glücklicherweise eher gering. Doch meine Arbeitshypothese wäre im Falle einer Studie zu diesem Phänomen folgende: würde sich ein Mann mit Fotoapparat einem FKK-Strand nähern und dort spielende Kinder ablichten, würden die Eltern bei Entdeckung dieses Vorgehens zeitnah einschreiten. Dass mit viel weniger Aufwand und einem höheren Grad an Anonymität entsprechende Bilder digital „geerntet“ werden und Interessierte so deutlich erfolgreicher und umfangreicher vorgehen können, dürfte den meisten Eltern jedoch nicht in demselben Maße aufscheinen und demzufolge auch kein entsprechendes Einschreiten zur Folge haben. (Und da ein nachträgliches Einschreiten aus den genannten technischen Gründen nicht möglich erscheint, bleibt letztlich nur das Agieren vor einer Veröffentlichung.)

269 https://de.wikipedia.org/w/index.php?title=P%C3%A4dophilie&oldid=95702997#Nutzung_le galer_und_illegaler_Medien_zur_sexuellen_Stimulation, abgerufen am 21.11.2011; Horst Vogt: Pädophilie. Leipziger Studie zur gesellschaftlichen und psychischen Situation pädophiler Männer. Pabst Science Publishers, 2006. S. 72. 270 https://de.wikipedia.org/w/index.php?title=P%C3%A4dophilie&oldid=95702997#Nutzung_le galer_und_illegaler_Medien_zur_sexuellen_Stimulation, abgerufen am 21.11.2011; Gerald C. Davison, John M. Neale: Klinische Psychologie, Beltz PVU, Weinheim, 7. Auflage, 2007. S. 505–508. 271 http://www.heise.de/newsticker/meldung/Studie-Viele-Facebook-Nutzer-sind-sorglos-1370431. html, abgerufen am 21.11.2011.

1.4 Zweite Forschungsphase: 2008 bis 2015

119

Nun kann (und soll) man Kinder nicht vor der Welt verstecken oder gar „in Watte packen“, doch im Unterschied zu Erwachsenen sind Kinder nun mal unmündig. Ein erwachsenes Unterwäschemodel kann, so die gängige Annahme, sich über die Konsequenzen seines Tuns – auch die vielleicht weniger schönen, nichtintendierten Folgen – informieren und eine ausgewogene Entscheidung treffen, ein Kind kann dies nicht. Es wird bei jeder Fotoveröffentlichung im digitalen Raum ungefragt zum „Model“. Dabei steht keinesfalls fest, dass sich das Kind später über diese Fotos freuen oder zumindest eine neutrale Haltung dazu einnehmen wird. Es dürfte, so meine These an dieser Stelle, einen signifikanten Unterschied ausmachen, ob man in der Jugend mit wenig erfreulichen Bildern aus der Kindheit konfrontiert wird und dazu die Information erhält, dass auch ein, zwei Tanten und Onkel hier einmal kurz drauf schauen und lachen durften oder ob zahllose Internetsurfer aus aller Welt diesen Schnappschuss auf ihrem heimischen Rechner oder ihrem Smartphone gespeichert haben und man nicht sagen kann, was mit dem Bild seitdem passiert ist. Es muss also gar nicht der Worst Case, das Auftauchen von Kinderbildern auf einem Pädophilen-PC, eintreten. Es ist aus psychologischer Sicht schon schwierig genug, vermeintlich harmlose Kinderbilder der ganzen Welt (oder einem Unternehmen) zur Verfügung zu stellen und so die Kontrolle darüber zu verlieren. Papierfotos hätte man vor 20 Jahren wohl auch nicht so ohne weiteres einem Unternehmen zur freien Verwendung überlassen – warum hier also anders vorgehen? – Die Thematik der Veröffentlichung von Kinderfotos ist schon schwierig genug, noch schwieriger wird es allerdings, wenn Kinder eigene Profile bei Facebook oder anderen Anbietern bekommen. Abgesehen von der Fragwürdigkeit des Profils an sich (es wird jedem klar sein, dass sich hier die Eltern bzw. Sorgerechtsinhaber dahinter verbergen und nicht das Kind selbst, was bedeutet, dass man auch nicht das Kind mit seiner digitalen Präsenz „erlebt“, sondern die Ideen der Eltern wiederfindet): die Eltern übernehmen nicht weniger als die komplette Verantwortung für die digitale Identitätsarbeit des Kindes. Das Kind wird im Laufe seines Lebens somit weniger selbstbestimmt an Digitalisierung und Internet herangeführt, sondern muss sich ab einem bestimmten Zeitpunkt (spätestens, wenn es sich eigene Gedanken zur Internetnutzung und dortigen Identitätsgestaltung macht) zusätzlich Gedanken um seine bisher massiv fremdbestimmte Identitätsarbeit im digitalen Raum machen. Anders als bei den Fotos aus Papier im Fotoalbum, die physisch belegen, dass sie aus Alters- und Entwicklungsgründen nicht vom Kind angefertigt, arrangiert, kommentiert und präsentiert worden sein können und die Fremdbestimmtheit hier unzweideutig erkennbar sein dürfte, ist dies bei einer Onlineidentität in einem sozialen Netzwerk deutlich schwieriger zu bewerkstelligen, weil nicht nur technische Gründe eine Rolle spielen, sondern auch erneut die Frage der Kontrolle sowie die Abstraktionsund Imaginationskompetenz der Rezipienten: Was sehen sie in diesem Profil,

120

1 Einführung in die Internetsoziologie

was schlussfolgern sie? Wer garantiert, dass Facebook auch in zehn Jahren noch den gewohnten Zugriff auf das Profil gewährt? Und dass sich die Gesetze, denen Facebook folgt, nicht zum Nachteil der User ändern? Welche Vernetzungen mit anderen Services werden noch erfolgen? Die Facebook-Gesichtserkennung hat eindrucksvoll gezeigt, was im Hintergrund passieren und wie wenig man dagegen machen kann. Identitätsmanagement ist jedoch der Schlüssel zum individuellen Verständnis von Digitalisierung und sollte deshalb nicht unterschätzt werden. Es geht um mehr als nur eine Profilseite bei Facebook – es geht um die eigene Identität, das Selbst, das Individuum in seinem tiefsten Innern. – Selbstverständlich gilt die umfangreiche digitale Verantwortung nicht nur für die eigenen Kinder, sondern auch für Kinder, die zu Besuch oder aus anderen Gründen zugegen sind, z. B. im Kindergarten oder in der Schule. Grundsätzlich sind die rechtlichen Regelungen – bspw. das Recht am eigenen Bild – hier eindeutig, aber: vertrauen Sie nicht nur auf Recht und Gesetz! Elementare Grundlagen der Digitalisierung wie die weltweite Vernetzung und das hohe Entwicklungstempo setzen dem Recht mit Leichtigkeit Grenzen. Zudem hinken zahlreiche gesetzliche Regelungen systembedingt permanent hinterher. Und das wird sich in Zukunft kaum ändern, da es nicht nur hochgradig unwahrscheinlich erscheint, einen weltweiten Rechtsraum mit entsprechenden Auswirkungen auf das Internet zu erhalten, sondern letztlich auch neue Entwicklungen vielfach noch gar nicht absehbar sind. Anbieter wie Facebook hören zwar auch immer wieder mal auf die Stimme der Masse und handhaben Features wie Gesichtserkennung vorsichtiger als es technisch oder aus Marketinggesichtspunkten notwendig wäre, doch auch dies ist ein Entgegenkommen, das einseitig aufgekündigt und auch nicht erzwungen werden kann. Setzen Sie deshalb auch nicht Ihr ganzes Vertrauen auf Privatsphäreeinstellungen oder die Integrität der Server von Facebook und Co. Hacker272 werden sich für Ihre persönlichen Absichten kaum interessieren und Daten im Falle eines Falles trotzdem im eigenen Sinne nutzen. – Säubern Sie alle Bilder vor dem Hochladen von Detailinformationen technischer Art. So können JPEGs mit Tools wie „ JPEG & PNG Stripper“273 von Zusatzinformationen gereinigt werden, die zur Identifikation von Personen beitragen können. Hier wird deutlich, dass technische Maßnahmen allein nicht ausreichen, sie als Teil eines ganzheitlichen Konzepts dem User aber dienlich sein können.

272 An dieser Stelle sei auf die Schwierigkeit einer Einteilung in „gute“ und „böse“ Hacker verwiesen: https://de.wikipedia.org/w/index.php?title=Hacker&oldid=95973633#Abgrenzung_zum_Be griff_.E2.80.9ACracker.E2.80.99, abgerufen am 23.11.2011. Der besseren inhaltlichen Handhabbarkeit halber wird diese Diskussion aber im Text nicht vertieft. 273 JPEG & PNG Stripper: http://www.chip.de/downloads/JPEG-amp-PNG-Stripper_36774505.html.

1.4 Zweite Forschungsphase: 2008 bis 2015

121

Wenn es bereits zu Datenmissbrauch gekommen ist: – Es gilt erneut: vertrauen Sie nicht nur auf Recht und Gesetz. Natürlich ist es hilfreich, einen erfahrenen Medienanwalt (nicht einen digital ahnungslosen Anwalt!) um Rat zu fragen und ggf. tätig zu werden, doch vergessen Sie hier nicht den Streisand-Effekt,274 welcher dazu führen kann, dass der Versuch, Daten zu stoppen die Verbreitung erst recht befeuert: ein guter Medienanwalt wird diese Problematik ausführlich mit Ihnen besprechen. Fragen Sie lieber einmal zu viel als zu wenig nach, auch wenn gute Medienrechtler oftmals nicht gerade günstig sind. – Setzen Sie auf weitere Maßnahmen, z. B. digitales Gegenwirken. Nutzen Sie die Foren anderer Betroffener, vernetzen Sie sich, überlegen Sie sich Strategien jenseits juristischer Schritte, bspw. Gegendarstellungen, Kommentare, eine eigene Website. Solche Maßnahmen helfen nicht nur inhaltlich, sondern auch emotional in dieser schwierigen Situation. – Überschreiten Sie keinesfalls rechtliche Grenzen! Wer meint, anonym oder pseudonym erfolgreich gegen Datenmissbrauch vorgehen zu können (z. B. durch massive Diffamierung, einen digitalen Pranger oder die anonyme Androhung von Gewalt), verlässt sehr schnell sicheres Terrain! Es mag aus emotionaler Sicht verlockend erscheinen, eine Website, die die Bilder des eigenen Kindes missbräuchlich einsetzt, mittels Hackerangriff lahmzulegen, doch die Risiken sind nicht nur aus juristischer Sicht enorm und deshalb kann davon nur abgeraten werden. – Sogenannte „Online-Reputationsmanager“ sind m. E. wenig hilfreich. Die Aggregation von personenbezogenen Informationen kann man via Suchmaschine kostenlos selber ausreichend effizient durchführen und die weitergehenden Maßnahmen, die solche Anbieter offerieren, sind in den meisten Fällen zahnlose Tiger (z. B. schriftliche „Ermahnungen“ an einen Websitebetreiber). Sparen Sie sich das Geld und gehen Sie lieber gleich zu einem guten Medienanwalt. (Ganz abgesehen von der Tatsache, dass hier erneut ein Dritter in den Fall einbezogen wird, der beileibe nicht denselben Qualitätsansprüchen wie ein Medienanwalt genügen muss, z. B. Anbieter aus den USA.) Den hier aufgeführten Informationen wohnt – wie fast allen Informationen den digitalen Raum betreffend – das Problem des vergleichsweise schnellen Veraltens inne. Zudem können alte Problemstellungen entfallen und bisher unbekannte hinzukommen. Deshalb kann der Text keinen Anspruch auf Vollumfänglichkeit oder langfristige Gültigkeit stellen, sondern soll vor allem als Orientierungsgrundlage

274 https://de.wikipedia.org/w/index.php?title=Streisand-Effekt&oldid=95263903, abgerufen am 23.11.2011.

122

1 Einführung in die Internetsoziologie

und Denkanstoß dienen. Sollten Sie Fragen haben oder bestimmte Aspekte vermissen, so zögern Sie nicht, nachzufragen. Suchen Sie ganz allgemein qualitativ hochwertige (wissenschaftliche) Informationen und Tipps zu Digitalisierung, Internet und sozialen Netzwerken, z. B. in der Medienpädagogik, Medienwissenschaft, Soziologie und Psychologie. Beschäftigen Sie sich langfristig und intensiv mit diesen Themen, denn sie werden zunehmend relevanter und ein Ausweichen wird immer schwieriger. Wie bereits gesagt: Lesen und Schreiben lernt man auch nicht an einem Tag – und die Digitalisierung ist, davon bin ich fest überzeugt, von derselben Relevanz. Nach dem heutigen Kenntnisstand (November 2011) würde ich u. a. die folgenden Themen im hiesigen Zusammenhang als mittelfristig besonders relevant bewerten: – Digitale Mobilität (z. B. Internet nicht nur auf dem Smartphone, sondern auch im Auto/Navigationssystem; Location Based Services aller Art; weitestgehend nahtlose, digitale Mobilitätsangebote bei Bahn, Carsharing und Co.) – Digitale Identität (z. B. eID-Funktion des neuen Personalausweises und anderer Anbieter, aber auch Gesichts- bzw. Ganzkörpererkennung in Überwachungsszenarien) – Digitale Ubiquität (z. B. reaktive Werbe-Displays mit individuell zugeschnittener Werbung „im Vorbeigehen“, RFID-Chips in unzweideutig identifizierbaren Alltagsprodukten wie Kleidung und Lebensmitteln, weitestgehend unsichtbare Digitaltechnik im Wohnumfeld, bspw. Sturzmatten für Senioren) Das Spektrum digitaler Möglichkeiten dürfte sich in absehbarer Zeit enorm erweitern. Je besser man sich also mit den digitalen Grundlagen und Entwicklungen auskennt, desto besser kann man agieren. Da Kinder und Jugendliche auch in Sachen Digitalisierung gute Vorbilder suchen, können (und sollten) Sie diese Vorbildfunktion einnehmen. Lassen Sie sich nicht von emotional geführten Post-Privacy-Diskussionen275 oder anderen Skurrilitäten irritieren: Sie können viel bewegen, viel Kontrolle bewahren und positiv wirken, für Ihre Kinder und sich selbst, hier und jetzt. Und auch in Zukunft.

1.5 Momentaufnahme: seit 2016 Im Jahre 2016 wechselte ich an die Hochschule Fresenius in Berlin, als erster Berliner Mitarbeiter am seinerzeit jüngsten Standort der größten privaten Präsenzhochschule in Deutschland. Erkennbar ein neues Vorhaben, für alle Beteiligten. Und es passte von Anfang an: nicht nur das Team war ein Gewinn, auch die Rahmenbedingungen

275 http://wissen.dradio.de/buzzwordcheck-post-privacy.85.de.html?dram:article_id=13414, abgerufen am 23.11.2011.

1.5 Momentaufnahme: seit 2016

123

sprachen sofort für sich. Das Forschungsprojekt PERFORMANCE war das erste Projekt, welches ich bei Fresenius startete: Im Projekt soll eine erweiterbare Systemplattform zur Bereitstellung, Bewertung sowie teilautomatisierten Analyse und Archivierung der Daten entwickelt werden. Weiterhin sollen für komplexe Ermittlungsfälle Konzepte erarbeitet und Schnittstellen zur Einbindung privater Dienstleister in die Erhebung und Auswertung geschaffen werden. Dabei werden seitens der beteiligten Hochschulen die rechtlichen sowie sozialen Rahmenbedingungen und Möglichkeiten bei der Entwicklung der technisch-organisatorischen Umsetzungsmodelle umfassend untersucht.276

Das Projekt „Dschihadismus im Internet“ kam in der Folge (im Rahmen einer assoziierten Partnerschaft) hinzu: Das Projekt DiI erforscht Inhalte und Gestaltung dschihadistischer Propaganda-Videos im Internet sowie deren Wirkung auf die Zuschauer. Analysiert werden zum Beispiel Ähnlichkeiten zu anderen jugendtypischen Medienformaten und dramaturgische Besonderheiten. Durch Interviews mit Konsumenten werden Beiträge in sozialen Netzwerken detailliert ausgewertet, um die Wirkung der VideoBotschaften zu entschlüsseln. Zudem wird eine OnlinePlattform zur Analyse dschihadistischer VideoBotschaften entwickelt, die als Informationsquelle insbesondere für Politik, Behörden, Bildungs- und Präventionsinitiativen genutzt werden kann.277

Hinzu kam die Mitgliedschaft im Advisory Board des EU-Projects FLYSEC.278 Im Jahre 2018 starteten wir das kleine Projekt „Cloud Computing and Abstraction“, zusammen mit einer Kollegin von der TU München und einem Kollegen vom MIT. Sociality by Design brachte ich selbstverständlich auch mit, so dass insgesamt fünf Vorhaben stattfanden bzw. weiterhin stattfinden, was mich natürlich sehr freut. Alle basieren auf meinen Überlegungen zu einer gehaltvollen Internetsoziologie, d. h. somit vor allem auf Sociality by Design. Anders als zu UdK-Zeiten entstehen jetzt mehr Projekte aus der alltäglichen Arbeit heraus, weniger aufgrund externer Einflüsse. Die Digitale Klasse war kreativ, weil die Studierenden und andere Akteure stets sehr guten bis exzellenten Input einbrachten, und deshalb wurde auch ich zunehmend kreativer. Die Projekte der Studierenden inspirierten mich und boten genug Input für neue Ideen. Nun scheint ein Arbeitsmodus gefunden worden zu sein, der deutlich unabhängiger funktioniert: ich bin weniger denn je von externen Inspirationen abhängig. Dass ich diesen Modus nun an der Hochschule Fresenius in meinem eigenen Forschungs- und Arbeitsbereich Internetsoziologie (FABIS) ausleben kann, ist wunderbar. Neben Forschung gibt es natürlich auch Lehre, und zwar zunehmend passgenauer. Das heißt: inzwischen bin ich Studiendekan für den Studiengang

276 https://www.sifo.de/files/Projektumriss_PERFORMANCE.pdf, abgerufen am 8.4.2019. 277 https://www.sifo.de/files/Projektumriss_DiI.pdf, abgerufen am 8.4.2019. 278 https://www.fly-sec.eu/, abgerufen am 17.5.2019.

124

1 Einführung in die Internetsoziologie

„Digital Management“ (M.A.) und kann an dieser Stelle entsprechend internetsoziologisch wirken, da die Fächer, die ich dort unterrichte, stark durch die eigene Prägung gestaltet werden können. Aber auch hier, bei Fresenius, zeigt sich wieder mal, wie überraschend bzw. wenig planbar Wissenschaft ist: inzwischen besteht ein Großteil meiner Forschungsarbeit aus Wissenschaftstheorie. Natürlich freut mich das, gibt es mir doch die Gelegenheit, viel mit den Werken von Karl Popper zu arbeiten, viel über die Eigengesetzlichkeiten der Digitalisierung als Kern einer jeden digitalen Theorie nachzudenken und viel zum Thema Internetsoziologie zu verfassen. Aber dass gerade diese Thematik an einer „University of Applied Sciences“ realisierbar ist, ist doch eine große Überraschung und war keinesfalls so geplant. Ich dachte zu Beginn, dass die Lehre einen extrem großen Raum einnehmen wird und dass der verbleibende Raum der anwendungsorientierten Forschung gewidmet wird. Doch dem ist nicht so. Es gelingt aufgrund der soliden Rahmenbedingungen und der großen Freiräume sehr gut, den Aspekten, die sich ergeben, folgen zu können. Ich hoffe sehr, dass dies nicht nur so bleiben, sondern auch zu sinnvollen Ergebnissen für Sie, liebe LeserInnen, führen wird.

2 Theorie und Fundament Im ersten Kapitel bekamen Sie einen Einblick in die Geschichte der Internetsoziologie, wie ich sie interpretierte und (unter Berücksichtigung neuer Erkenntnisse) weiterhin interpretiere. Das zweite Kapitel bietet Ihnen nun die Möglichkeit des Rückgriffs auf den altbekannten Ansatz von Induktion und Deduktion: die exemplarischen Arbeitsergebnisse des ersten Kapitels sind natürlich Resultate der allgemeinen Überlegungen dieses zweiten (und des dritten) Kapitels, jedoch beeinflussen sie Theorie und Methodik natürlich auch. Bevor jedoch die einzelnen Elemente der Internetsoziologie sehr konkret ausdifferenziert werden, soll einleitend ein Überblick geschaffen werden. Dazu dient das von mir über die Jahre weiterentwickelte FAQ, welches sich im InternetsoziologieTeil des Wikis279 befindet und hier nun in erweiterter Form zur Beantwortung der erfahrungsgemäß gängigsten Fragen dienen soll. Was ist Internetsoziologie? Es ist ein im Kontext meiner Tätigkeiten an der UdK gewachsener (und hier erstmals 2012 institutionalisierter) Arbeitsbereich sowie ein meine Arbeitsweise beschreibender Begriff, den ich erstmals 1999 mit der Initialisierung dieses Webangebotes im Rahmen meines Studiums an der Freien Universität Berlin öffentlich gemacht habe. Ich betrachte Internetsoziologie als den Arbeitsbereich, der sich soziologisch mit der Digitalisierung unserer Gesellschaft auseinandersetzt. Und in den Worten “Digitalisierung” und “Gesellschaft” liegt auch schon die logische Schlussfolgerung “Internetsoziologie”. Weniger geht es hier um die (technischen) Möglichkeiten, die das Internet den Soziologinnen und Soziologen gebracht hat, z. B. ganz neue bzw. andere Formen der (Online-)Markt- und Meinungsforschung oder die Datenextraktion aus sozialen Netzwerken wie Facebook zwecks Analyse und visueller Aufbereitung. Vorrangig geht es um die inhaltlichen Fragen und deren Beantwortung – auch wenn Methodenlehre natürlich ein wichtiger Teil ist. Es wurde noch in den 1990er Jahren gefragt, inwiefern sich eine Soziologie des Internets behaupten oder ausgestalten könnte. Ich denke, dass diese Frage spätestens seit den unzweideutigen Erfolgen von Big Data, aber eigentlich auch schon seit der allgemeinen Massenausbreitung des Internets beantwortet werden kann: mithilfe der aktuellen digitalen Entwicklungen kann man Aussagen über die gesamte (nichtdigitale wie digitale) Gesellschaft treffen. Spätestens jetzt reden wir wohl von Internetsoziologie, da die Verwebung von Internet und Gesellschaft in jeder Hinsicht und aus jeder Richtung klar erkennbar ist.

279 http://www.internetsoziologie.at/de/wiki/index.php/FAQ, abgerufen am 3.5.2019. https://doi.org/10.1515/9783110559767-002

126

2 Theorie und Fundament

Was ist Internetsoziologie (noch) nicht? Internetsoziologie ist (noch) keine unzweideutig umrissene soziologische Subdisziplin und auch kein eigenständiges Fach, kein Lehrstuhl, kein Institut, keine Fakultät. Warum ausgerechnet „Internetsoziologie“? Es gibt doch schon Medienwissenschaftler, -psychologen und auch -soziologen, dazu Kommunikationswissenschaftler, Publizisten und zahllose andere Wissenschaftler, die das Thema Internet und Gesellschaft beackern. Richtig, das Thema wird von vielen Seiten bearbeitet, jedoch fehlte mir bisher (und fehlt mir auch weiterhin in weiten Teilen) die Betrachtung von Seiten der Soziologie, die in anderen Ländern wie den USA deutlich häufiger anzutreffen ist. Wenn man das Internet (oder besser: die Digitalisierung unserer Gesellschaft) mit den Mitteln der Soziologie analysiert, schließt man m. E. nicht nur eine bestehende Lücke, sondern kommt in vielen Fällen, so meine These, auch zu Ergebnissen, die “näher dran am Phänomen” sind, denn das Internet ist ein (gesamt)gesellschaftliches Phänomen und mitsamt seinen Auswirkungen deshalb eine genuin soziologische Angelegenheit. Ein Beispiel: Medienpsychologen bearbeiten beispielsweise die Frage, wie ein Computerspiel auf einen Spieler wirkt – ich bearbeite hingegen die Frage, welche Auswirkung dieses Computerspiel auf Gruppen oder gar die ganze (deutsche) Gesellschaft hat. Das machen Medienwissenschaftler vielleicht auch, doch es gibt in der Ausbildung und Ausrichtung m. E. doch erhebliche Unterschiede zwischen den Medienwissenschaften (andere Theorien, Methoden, Ansätze) und der Soziologie, so dass es zwangsläufig auch andere Ergebnisse geben wird. Wer jedoch soziologische Ergebnisse will, sollte sich der Soziologie widmen. Meine bisherigen Erfahrungen aus Studium und Wissenschaftsbetrieb bestätigen diesen Eindruck meist recht deutlich. Dabei darf aber das Plädoyer für die Soziologie keinesfalls als Argumentation gegen die Medienwissenschaft oder andere sozialwissenschaftliche Disziplinen verstanden werden. Es geht vor allem darum, dass die Soziologie mit ihren Möglichkeiten m. E. besonders in Deutschland unterschätzt wird und ihre Möglichkeiten zu selten berücksichtigt werden, d. h. die Betrachtung der Möglichkeiten erscheint mir nicht ausreichend. Wenn man für die Analyse von Medienphänomenen beispielsweise die Medienwissenschaft heranzieht, ist dies schon ein guter Anfang, aber viel zu oft werden Versuche gestartet, die – wie im folgenden FAQ-Punkt beschrieben – wohl schon von Beginn an zum Scheitern verurteilt sind. Wenn man also unbedingt einen Gegensatz im Sinne von für und gegen abbilden möchte, dann fällt das Plädoyer für eine sozialwissenschaftliche (internetsoziologische) und gegen eine technikwissenschaftliche Medienanalyse aus. Warum lassen wir nicht Techniker die Technik analysieren? Sie haben sie schließlich entworfen, entwickelt und hergestellt – also dürften sie sie auch am besten kennen. Einer der größten, wenn nicht gar der größte Fehler, den man meiner Überzeugung nach machen kann, ist, soziale Fragen von Technikern beantworten zu lassen. Meist wird schon der Versuch scheitern. Techniker kennen die Technik, aber wenn beispielsweise die Grenzen eines Computerchips überschritten werden, spielen andere

2 Theorie und Fundament

127

Dinge eine größere, meist sogar die entscheidende Rolle. Das Motto sollte deshalb – frei nach Vilém Flusser – stets sein: Technik ist zu wichtig, um sie nur Technikern zu überlassen. Schon die (akademische) Ausbildung befähigt Techniker nicht zu gesellschaftlichen Analysen und reine Technikkenntnis ermöglicht kein Verständnis sozialer Handlungen und Zusammenhänge. Zudem musste leider immer wieder festgestellt werden, dass Techniker allzu oft nicht willens sind, sich auf andere Disziplinen – nicht-naturwissenschaftliche Disziplinen, um genau zu sein – einzulassen. Ein gemeinsamer Nenner war in zahlreichen Projekten nur äußerst schwer zu finden, was eine interdisziplinäre Analyse wiederum auch erschwert – eine sehr frustrierende und ineffiziente Arbeitsweise. (Auch wenn es hier freilich Ausnahmen gibt, die mich natürlich immer besonders freuen.) Deshalb ist es eine der wichtigsten Aufgaben des “Projekts Internetsoziologie”, zu Beginn eines jeden gemeinsamen Projekts für einen gemeinsamen (sprachlichen) Nenner zu sorgen, für Offenheit, Inter- und Transdisziplinarität sowie professionelles Entgegenkommen und – ja, auch das! – Geduld. Techniker müssen sich dann “nur noch” darauf einlassen und dieses Einlassen durchhalten. Die Soziologie steht an dieser Stelle aber völlig unzweideutig in der Pflicht, mehr Technikkenntnis in ihre Prozesse einzubringen als es bisher üblich war. Zu viele Analysen, die meines Erachtens gescheitert sind, scheiterten nicht am soziologischen, sondern am technischen Kenntnisstand. Wir brauchen letztlich keine Techniker mit soziologischen Ambitionen, sondern Soziologen mit profunden Technikkenntnissen (Stichwort Digital Literacy), denn die Handhabung von Technik ist eine soziale Angelegenheit. Der Mensch hat die Technik erschaffen – nicht umgekehrt. Dies ist ein bedeutender Aspekt des “Projekts Internetsoziologie”. Wo liegt nun das konkret Neue (oder Andere) bzw. Einzigartige in der Internetsoziologie? Wozu noch eine Ausprägung der ohnehin weit gefächerten Soziologie? Abgesehen davon, dass der digitale Raum in Deutschland – Angela Merkel lag 2013 völlig richtig mit ihrer Neuland-Analyse – immer noch weitgehend “Terra Incognita” ist, viel zu wenig analysiert wird und jeder sinnvolle Beitrag eine wertvolle Hilfe ist? Ich denke, dass die Analyse der Digitalisierung unserer Gesellschaft unter ganz bestimmten Voraussetzungen am besten gelingen kann, welche so nur ein Arbeitsbereich Internetsoziologie bietet (und die auch den Kern des internetsoziologischen Rahmenkonzepts Sociality by Design bilden): I. Die Internetsoziologie konzentriert sich auf digitale Phänomene und schließt – anders als die Mediensoziologie – nichtdigitale Themen konsequent aus. Historisch-technische (Einzel)Aspekte anderer Medien werden aufgrund der medienhistorischen Singularität der Digitalisierung nur begrenzt eingebunden. Es geht vorrangig um die Neuheiten, die Eigengesetzlichkeiten, die Digitalisierung mit sich bringt, was nicht mit Ahistorizität gleichzusetzen ist.

128

2 Theorie und Fundament

II. Neben den soziologischen werden auch extrem umfangreiche und tiefgehende Technikkenntnisse eingebracht, d. h. es besteht (im Idealfall) die Möglichkeit der Analyse „bis ins letzte Bit“. Im Vergleich dazu kommt das klassische soziologische Studium ohne umfassende Technikausbildung aus, was diesbezüglich ein entscheidendes Problem darstellen dürfte. Die Disziplinen, von denen die Internetsoziologie besonders profitiert, sind somit Soziologie und Informatik – wobei dies nicht die einzigen Disziplinen sind, aber insbesondere zur Rolle der Designforschung: siehe III. III. Die wahrscheinlich beste Methode (zumindest) in dieser Frühphase der Arbeit an der (hoffentlich in nicht allzu ferner Zukunft erfolgenden) Etablierung der “Idee Internetsoziologie” ist das “bastelnde Denken”,280 welches erstmals erfolgreich in meiner Arbeit Digitale Identitäten strukturiert umgesetzt werden konnte und seitdem in allen internetsoziologischen Arbeiten meinerseits unbestritten die methodische Metaebene bzw. den wissenschaftsphilosophischen Methodenkern darstellt. Das ständige Infragestellen sämtlicher wissenschaftlicher Strategien erscheint im Umgang mit dem historisch wie auch technisch und vor allem sozial völlig neuen Phänomen Digitalisierung (zumindest derzeit) als einzig gangbarer Weg, da Analogiebildungen wie auch Adaptionen nichtdigitaler Art weit überwiegend scheiterten bzw. schlicht falsch waren und somit ein ganz neues (ggf. wild erscheinendes bzw. bastelndes) Denken als einzige Möglichkeit übrigbleibt. (Deshalb ja die neue Internetsoziologie.) Konkret bedeutet dies beispielsweise eine grundsätzliche Anerkennung von Wikipedia als Quelle, inhaltlich281 wie auch strukturell.282 Zudem bedeutet es, dass Routine in der alltäglichen Forschung und Lehre konsequent abgelehnt wird: alles ist immer experimentell. Lehre ist immer forschend, Forschung ist immer verwoben mit der Lehre. Gearbeitet wird “live”, niemals statisch, niemals wiederholend. Routine ist nur im Sinne der Iteration (“Vom Groben ins Feine”) zulässig. Methoden und Theorien werden genau so infrage gestellt und überarbeitet, wie auch der digitale Raum ständig Änderungen vollzieht. Arbeit im digitalen Raum ist Prozess, nicht Projekt. Dies müssen Theorie und Methodik entsprechend abbilden. An dieser Stelle machen sich auch die Einflüsse der Designforschung (durch die Mitarbeit in der Digitalen Klasse der UdK) entsprechend bemerkbar. IV. Was für die Metaabene (=das Rahmenkonzept, die Idee Internetsoziologie an sich) gilt, gilt auch für die Mikroebene (=das Arbeitskonzept, die internetsoziologische Arbeit): die Anwendung, Weiter- und Neuentwicklung von (vor allem) soziologischen

280 https://www.schauspiel-stuttgart.de/spielplan/spielzeit-2015-2016/wozu-texte-spielzeit20132014, Seite nicht mehr abrufbar. 281 Siehe zu diesem „Stimmungswandel“ in der Wissenschaft beispielsweise http://www.zeit.de/ digital/internet/2012-04/wikipedia-scholarpedia-verweise, abgerufen am 5.5.2019. 282 http://www.internetsoziologie.at/de/wiki/index.php/Sociality_by_Design, abgerufen am 5.5.2019.

2 Theorie und Fundament

129

Methoden – gleichermaßen quantitativ wie qualitativ – nach dem Foucaultschen Werkzeugkastenprinzip283 stellt hier das methodische Kernkonzept dar, flankiert von psychologischen Ideen und Methoden. Es gibt kein zwanghaftes Festhalten an der einen Lieblingstheorie, -schule oder -methode, so wie bei manchen Soziologinnen und Soziologen üblich. Die Psychologie hat hier zudem Vorrang vor anderen Disziplinen wie der Politologie oder der Ökonomie, da die Betrachtung der Wirkungen von Digitalisierung auf den Einzelnen und die Gruppe im Vordergrund stehen, nicht politische oder wirtschaftliche Prozesse. Wenn an dieser Stelle jedoch unbedingt ein einzelner Theoretiker genannt werden soll, der zumindest mich sehr inspiriert und begeistert hat, dann ist es zweifellos Karl Popper. Dieser prägte meine internetsoziologische Arbeit sicher wie kein zweiter Philosoph: “Obzwar ich fast immer an scharf bestimmten wissenschaftlichen Problemen arbeite, so geht durch alle meine Arbeit ein roter Faden: für kritische Argumente – gegen leere Worte und gegen die intellektuelle Unbescheidenheit und Anmaßung.”284 V. Eine konsequent transdisziplinäre Zusammenarbeit mit Technikern und Juristen in leistungsstarken, kommunikationsfreudigen (Projekt-)Teams mit dem Ziel einer ganzheitlichen Digitalisierungsanalyse (Technik, Recht, Gesellschaft) ist das vornehmliche Ziel bei Verbundprojekten. Idealerweise werden die so gewonnenen Erkenntnisse aufbereitet und (nach Absprache mit den Projektpartnern) anderen (externen) Kolleginnen und Kollegen zur Verfügung gestellt, beispielsweise auf dieser Website/in diesem Wiki, auf Konferenzen oder in den klassischen Medien. VI. Die Verbindung von Grundlagen- und anwendungsorientierter Forschung, d. h. die Aufrechterhaltung einer permanenten Skalierbarkeit (“vom Groben ins Feine” und zurück bzw. Induktion Deduktion) zur Schaffung von konkretem Mehrwert zeichnet die Internetsoziologie aus – es gibt somit kein digitales „l´art pour l´art“. Dieser Aspekt ist stark mit dem transdisziplinären Arbeits- und Kommunikationsansatz verbunden. VII. Ein intensiver (digitaler) Austausch mit international tätigen Kolleginnen und Kollegen (z. B. den über 2000 Mailinglisten-Mitgliedern der Association of Internet Researchers (AoIR), Kooperationsvereinbarungen mit Instituten und Einrichtungen in Ländern mit ausgeprägter Internetanalyseaffinität zur Stärkung der Forschernetzwerke und der Institutionalisierung des Forschungsfeldes) gehört ebenso zur alltäglichen internetsoziologischen Praxis wie die Anbindung an lokale Forschungseinrichtungen wie das Alexander-von-Humboldt-Institut für Internet und Gesellschaft (HIIG), aber auch der von Bundesforschungsministerin Johanna Wanka geforderte populärwissenschaftliche Dialog.

283 http://foucaultundco.blogspot.de/2008/08/der-foucaultsche-werkzeugkasten.html, abgerufen am 13.12.2018. 284 http://www.zeit.de/1971/39/wider-die-grossen-worte, abgerufen am 29.4.2019.

130

2 Theorie und Fundament

VIII. Umfangreiche Öffentlichkeitsarbeit durch (populärwissenschaftliche) Beiträge in den Medien, Vorträge und Beratungen gehören ebenfalls zum internetsoziologischen Alltag, denn letztlich sollen nicht nur Fachdiskussionen entstehen, da die interessierte Öffentlichkeit ganz konkret von den Ergebnissen „betroffen“ ist und Digital Literacy mindestens genauso braucht wie die Fachöffentlichkeit. IX. Es gilt der Grundsatz des wissenschaftlichen Minimalismus: so wenige Quellen, Methoden, Theorien wie möglich. Wir halten es dabei mit Antoine de Saint-Exupéry: „Perfektion ist nicht dann erreicht, wenn man nichts mehr hinzufügen, sondern nichts mehr weglassen kann“. Dies streben wir an. Sobald das Problem „grob“ gelöst ist (=d. h. es gelingt beispielsweise eine erste empirische Überprüfung), wird die Arbeit „eingestellt“ (Version 1.0). Soll es „feiner“ werden, ist das ein neuer Arbeitsschritt (Version 2.0). Wie weit man geht (Version x.0?), ist von der Verfeinerung bzw. Veränderung der jeweiligen Problemstellung abhängig. Vermieden werden muss aber auf jeden Fall „der große Wurf“ – denn der lässt sich bei digitalen Projekten grundsätzlich nicht (mehr) erreichen. Vor allem aus Zeitgründen. „Rough and ready“285 geht vor perfekt, aber zu spät. Hinzu kommt, dass genau deshalb Unleserliches vermieden werden muss: „Wer’s nicht einfach und klar sagen kann, der soll schweigen und weiterarbeiten, bis er’s klar sagen kann.“ Wir folgen deshalb in unserem Arbeitsbereich Karl Poppers Plädoyer für intellektuelle Redlichkeit. X. Die (Selbst)Beobachtung im Arbeitsprozess spielt eine sehr große Rolle. Digitale Arbeitsstrategien sind auch persönlich fordernd. So schwingt beispielsweise permanent das Gefühl mit, immer mehr zu verpassen als zu (er)klären.286 Wie geht man aber mit diesen methodischen und persönlichen Herausforderungen um? Eine maximale Introspektion ist Teil einer jeden internetsoziologischen Arbeit. Gibt es ein erstes Werk, welches sich „internetsoziologisch“ nennen kann? Nach Meinung von Udo di Fabio287 und einigen anderen: ja, mein Buch Digitale Identitäten. Wie wird die internetsoziologische Idee weiterentwickelt? Die Wissenschaftswelt hat sich in den letzten Jahren bekanntlich grundlegend gewandelt: unbefristete Stellen für ein Vorhaben Luhmannscher Dimension („Theorie der Gesellschaft, Laufzeit: 30 Jahre, Kosten: keine“)288 sind de facto nicht mehr zu bekommen. Selbst neuberufene ProfessorInnen haben meist eine mehrjährige Probezeit und beileibe nicht mehr den Freiraum, den ihre VorgängerInnen hatten – die „Kenn-

285 https://en.wiktionary.org/wiki/rough_and_ready#English, abgerufen am 29.4.2019. 286 https://www.springerprofessional.de/it-sicherheit/risikomanagement/-der-tsunami-an-datenund-geraeten-ist-eine-echte-herausforderun/15443332?fulltextView=true, abgerufen am 29.4.2019. 287 https://www.vodafone-stiftung.de/uploads/tx_newsjson/transmission02.pdf, abgerufen am 5.5.2019. 288 http://www.humboldtgesellschaft.de/inhalt.php?name=luhmann, abgerufen am 29.4.2019.

2 Theorie und Fundament

131

zahlen für Erfolg“ sehen inzwischen anders aus als früher und sind deutlich quantitativer.289 Deshalb kann die reine Theorieentwicklung leider keine Priorität einnehmen, sondern muss ganz konkret ausgestalteten Stellen und Projekten den Vorrang lassen. Dies ist meines Erachtens aber nicht das entscheidende Problem, denn die meisten meiner Projekte passen sehr gut in den internetsoziologischen Fokus und ermöglichen deshalb letztlich auch eine permanente Weiterentwicklung einer internetsoziologischen Theorie. Ich würde sogar wagen zu behaupten, dass inzwischen die meisten (neuen) Projektpartner sehr gut über meine internetsoziologischen Bemühungen informiert sind und deshalb gezielt eine Kooperation suchen. Über einige Umwege kommt man so also auch zum Ziel. Deshalb können auch jüngere Wissenschaftlerinnen und Wissenschaftler einen wertvollen Theoriebeitrag leisten, auch wenn sie nicht Luhmanns Lehrstuhlvorzüge genießen. Es ist zwar organisatorisch schwierig und inhaltlich anstrengend, gar keine Frage, aber sicher nicht gänzlich unmöglich. Und vor allem ist es nicht umsonst, davon bin ich überzeugt. Was kann die Internetsoziologie (heute schon) leisten? Wenig – wie jede andere (Sub)Disziplin auch. Das mag jetzt überraschend klingen, in manchen Ohren vielleicht erfreulich oder sogar „erfrischend“ ehrlich, aber es ist nun mal so. Und ist es wirklich überraschend? Oder einfach nur sehr ehrlich? Denn was können wir heute, bei der Daten- und Informationsfülle, denn wirklich noch „exakt“ sozial bestimmen – und, vor allem, für wie lange? Ich würde sagen: Ist nicht die Idee einer Bekräftigung, so wie sie Karl Popper vertrat (anstelle einer Bestätigung – oder des Versprechens derselben), nicht nur ehrlicher, sondern schlicht die einzig plausible Lösung? (Empfohlen sei an dieser Stelle Poppers Idee der Falsifizierbarkeit.)290 Da wir uns über die Grenzen unserer Möglichkeiten in dieser Hinsicht absolut im Klaren sein dürften, gilt für unsere Arbeit folgender Maßstab, wie ihn ebenfalls Karl Popper definierte: „Um ein Wissenschaftler zu sein, muss er auch Ideen haben.“291 Ideen sind also unser Kern. Ideen können wir liefern, das können wir mit Sicherheit leisten – konkreter geht es, wiederum gemäß Karl Popper, um problemlösende Ideen: „Meine Erfahrung in der Wissenschaft ist, dass ein neues Problem sehen die größte und wichtigste Leistung eines Wissenschaftlers ist. Als nächste Leistung ist eine hinreichend gute Phantasie zu haben, um auch dann neue Problemlösungen vorzubringen.“ Deshalb: Probleme erkennen, Lösungen entwickeln, Ideen präsentieren. Darum geht es. Oder wie Hans Albert einmal zu „Worten ohne Substanz“ sagte: „Welches Problem

289 http://www.zeit.de/2015/31/wissenschaft-professoren-engagement-oekonomie, abgerufen am 29.4.2019. 290 https://de.wikipedia.org/wiki/Falsifikationismus#Falsifizierbarkeit, abgerufen am 29.4.2019. 291 https://www.youtube.com/watch?v=1467dwUh5Nw, abgerufen am 29.4.2019.

132

2 Theorie und Fundament

wollten Sie mit ihrem Vortrag eigentlich lösen?“292 Die Problemlösung ist unser Maßstab und wird es immer bleiben. Ergänzend passt dazu ein Zitat, welches von John Archibald Wheeler zu stammen scheint: „serve as a science-technologist generalist who, not once or twice his life, but many times in a year, and generally in the service of others, extracts the single, simple missing point out of a complicate situation“293 Das kann Internetsoziologie, und das macht sie auch seit 2005. Nicht mehr. Aber auch nicht weniger. Ist das wenig oder viel? Entscheiden Sie selbst. Wenn die Internetsoziologie noch ganz am Anfang steht, wie kann man sich dann „Internetsoziologe“ nennen? Ist so eine Bezeichnung denn überhaupt möglich, wenn die Subdisziplin noch nicht ausdifferenziert wurde? Ich sehe es so: die Arbeit an einer Internetsoziologie ist ein ausreichendes Merkmal für eine entsprechende Tätigkeitsbeschreibung, es muss deshalb nicht unbedingt auf Basis einer ausdifferenzierten Internetsoziologie gearbeitet werden. Die Erforschung neuer Phänomene ist ja gerade ein entscheidendes Merkmal wissenschaftlichen Arbeitens, weshalb meines Erachtens sowohl das Arbeiten auf Basis einer Theorie als auch die Neu- oder Weiterentwicklung gleichermaßen wichtig sind. Zumal: wann ist eine (Sub)Disziplin denn tatsächlich ausreichend ausdifferenziert? Wenn sie erstmals konsequent institutionalisiert wurde? Dann könnte ich behaupten: dies ist in Grundzügen bereits seit 2006, spätestens jedoch seit 2012 mit meinem eigenen Arbeitsbereich an der UdK Berlin294 der Fall und wurde von mehreren Professoren und Experten aus anderen Bereichen auch so bestätigt und benannt. Ich behaupte aber nicht, die Internetsoziologie „erfunden“ zu haben, denn aus den o. a. Gründen betrachte ich das Ganze eher als „Work in progress“. Wieso fand dies zu Beginn vor allem an der Berliner UdK statt? Ganz einfach: weil Joachim Sauter, Leiter der Digitalen Klasse, der erste war, der die Sinnhaftigkeit dieses Vorhabens in seiner Ganzheitlichkeit erkannte und nach Kräften förderte. Deshalb fand die internetsoziologische Arbeit bis 2015 an der Fakultät Gestaltung (englisch inhaltlich etwas treffender: The College of Architecture, Media and Design) im Institut für zeitbasierte Medien statt. Dabei bot die kreativ-transdisziplinäre Atmosphäre des Medienhauses der UdK mit den herausragenden Kolleginnen und Kollegen, den kreativ-neugierigen Studierenden und ihren digital-sozialen Ideen (welche besonders gut zum Ende des Sommersemesters auf dem traditionellen UdK-Rundgang zu bewundern sind) unbestreitbare Vorteile, die bei der Entwicklung neuer Ideen, Theorien, Methoden, Ansätze und Experimente in diesem Bereich zum Tragen kommen. Der wahrscheinlich bedeutendste Vorteil ist die Abwesenheit der Idee, dass das

292 https://www.giordano-bruno-stiftung.de/meldung/zum-90-geburtstag-prof-dr-dr-hans-albert/ seite/0/1, abgerufen am 29.4.2019. 293 https://www.caida.org/publications/presentations/2005/topproblemsnet/topproblemsnet.pdf, abgerufen am 5.5.2019. 294 http://www.internetsoziologie.at/de/?p=2599, abgerufen am 5.5.2019.

2 Theorie und Fundament

133

Internet zwar ein „Misthaufen“ sei, aber auf Mist ab und zu auch mal schöne Blumen blühen. Das ist eine recht defätistische, wenn nicht gar dystopische Sichtweise, die von uns, den Mitgliedern der Klasse, abgelehnt wird. Wir stellen nicht Versuch und Irrtum oder das „Prinzip Hoffnung“ in den Vordergrund, sondern Methodik, Effizienz und Effektivität – das Internet ist eher ein unbeschriebenes Blatt mit viel Raum für Ideen, und die Innovationskraft für solche Entwicklungen findet sich in der Digitalen Klasse. Nicht umsonst zählt die Digitale Klasse zu den weltweit erfolgreichsten Digitaldesignklassen und Joachim Sauter zu den besten und gefragtesten Designern der Welt. Seine Ideen sind gleichermaßen künstlerisch wertvoll wie auch gesellschaftswissenschaftlich anwendbar, so dass ein Denken über die Grenzen der Computerchips hinaus hier tägliche Übung ist. An zu analysierenden Phänomenen mangelt es mir glücklicherweise nicht. Und genau so ein Setting brauchte es meines Erachtens, wenn man innovative und wissenschaftlich anspruchsvolle Lösungen für die Analyse der Digitalisierung unserer Gesellschaft erhalten wollte. In 2016 zog der Arbeitsbereich an eine andere Hochschule um. Und das mit einem lachenden und einem weinenden Auge.295 Es gibt also einen offiziellen Arbeitsbereich Internetsoziologie? Ja. Wie lange wird dieser bestehen? Dauerhaft. Was ist das Ziel von Internetsoziologie.de? Erstens: ganz klar die Vernetzung. Die Analyse der Digitalisierung unserer Gesellschaft mit teilweise völlig neuen und bewusst mit bestehenden Konventionen brechenden soziologischen Mitteln und Methoden soll gestärkt und institutionalisiert werden. Ob sich die Ergebnisse dann auch “Internetsoziologie” nennen oder nicht, ist wohl eher nachrangig. “Digitale Soziologie”, “Soziologie des Internets” und “Soziologie digitaler Medien” sind Begriffe, die auch in Ordnung sind. (“Digitalisierungssoziologie” klingt in meinen Ohren ziemlich hingegen ziemlich meschugge, wenn ich ehrlich sein darf, weshalb ich dieses Wortkonstrukt ablehne.) Zweitens: Internetsoziologie.de ist natürlich ein knallhartes Plädoyer für eine demokratische Wissenschaft auf Basis der Menschenrechte. Ich habe die Politisierung und Ideologisierung von Wissenschaft schon im Studium nicht leiden können, denn ich habe kein Interesse an “revolutionären” Ideen oder einer wirren politischen Instrumentalisierung von Wissenschaft, sondern an Wissenschaft – ohne Wenn und Aber, sprich: ohne Ideologie. Deshalb wird es hier auch keinerlei Parteiwerbung, Lobbyismus oder andere inhaltliche Vorgaben, Überzeugungsversuche oder ideologische Schleichwerbung geben. Soziologie ist keine Werbemaßnahme, kein Vehikel und kein Mittel für die “Weltrevolution”, den Marxismus oder sonstige politische Phantasien bzw. Spinnereien. Es ist eine Wissenschaft und nur darum geht es hier. Dasselbe gilt übrigens für den Sicherheitsforschungsteil dieser Web-

295 http://www.internetsoziologie.at/de/?p=5795, abgerufen am 5.5.2019.

134

2 Theorie und Fundament

site: ich verurteile ausnahmslos ALLE Extremismen, egal ob politisch (rechts/links) oder religiös motiviert! Dass das den jeweiligen ExtremistInnen nicht gefällt, versteht sich von selbst – ist mir allerdings auch egal. Wie ist Internetsoziologie.de entstanden? 1999 entstand internetsoziologie.de, die Website über die Soziologie des Internets, als eine logische Konsequenz in Hinblick auf die Verbindung von Gesellschaft und Technik, die sich für mich bereits während des Studiums der Soziologie ergab, wie Sie bereits im ersten Kapitel lesen konnten. Private Vorläuferinhalte waren bereits seit 1992 online (in Form einer Mailbox,296 seit 1996 dann im WWW unter der Domain humer.de); seitdem wandelte sich die Website ständig. 1999 erhielt sie den aktuellen Namen samt Domain. Erst gab es nur eine einfache HTML-Seite mit einigen soziologischen Kerninfos, dann diente die Website zunehmend als Anlaufstelle für die EDV-Kurse, die von mir an der Freien Universität Berlin veranstaltet wurden sowie als Plattform für Seminare und Projekte, die im Institut für Soziologie verortet waren. Seit 2005 dient die Website vor allem der Forschungs- und Dozenturenbegleitung sowie als Anlaufstelle für Internetsoziologie-Interessierte. Auf Deiner Website stehen einige kontroverse Forschungsthemen mit teilweise deutlichen Aussagen. Wo positionierst Du dich denn selbst? Ob das wirklich alles so kontrovers ist – ich bin mir da nicht sicher. Ich befürchte eher, dass manche Themen gern aufgeblasen werden, um medialen Wirbel zu erzeugen. Aber wie dem auch sei: Ich bin Wissenschaftler. Demzufolge bewerte ich hier nichts privat bzw. persönlich, sondern immer als Wissenschaftler und versuche, so nahe wie möglich an die Wahrheit heranzukommen. Ich bin kein Parteimitglied, kein Parteianhänger, kein Partei „bevorzuger” und auch nicht interessiert an ideologischem Wirken jenseits von Demokratie und Menschenrechten im Allgemeinen. Dass man sich mit der Kommunikation mancher Ergebnisse nicht immer bei allen beliebt macht, gehört zur Wissenschaft dazu. Vor allem im Bereich der Terrorismus- und Extremismusforschung, die bei den jeweiligen Terroristen und Extremisten selten gut ankommt. Schließlich deckt man Zusammenhänge, Strukturen, Inhalte und Personen auf, die oftmals lieber im Dunkeln geblieben wären. Was hat Sicherheitsforschung denn mit Internetsoziologie zu tun? Spätestens es das Forschungsfeld Social Media Intelligence gibt, dürfte der Zusammenhang besonders leicht erkennbar sein. Aber auch Intelligente Videoüberwachung297 ist natürlich ein typisches Internet-und-Gesellschaft-Thema. Dazu findet man auf dieser Website so einige Informationen. Soweit zum FAQ. Aus diesen Überlegungen, vor allem aus den zehn Punkten (I bis X) leitete sich im Laufe der Jahre ein Prioritätenmodell ab, d. h. alle für das

296 https://de.wikipedia.org/wiki/Mailbox_(Computer), abgerufen am 5.5.2019. 297 Siehe dazu die permanent aktualisierte Literaturübersicht unter ivü.de.

2 Theorie und Fundament

135

tägliche wissenschaftliche Arbeiten relevanten Aspekte werden mit absteigender Priorität aufgelistet. Diese Orientierung ist natürlich nicht in Stein gemeißelt, d. h. es geht zuerst einmal darum, eine Orientierung zu haben, die grob hilft, aber nicht einengt. Sie scheint sich aber, so mein Eindruck, inzwischen bewährt zu haben. Prioritätenmodell der Internetsoziologie: 1. Soziologische Methoden 1.1. Entwickelte (internetsoziologische) Methoden 1.2. Bereits existierende (soziologische) Methoden 2. Technikwissenschaftliche Methoden 3. Beobachtung der jeweiligen Gesellschaft (Makro), Institution (Meso), Gruppen (Mikro) 4. Forschungsverlaufs- und Selbstbeobachtung 5. Sozial- und geisteswissenschaftliche Theorien 6. Weiterer Input (wissenschaftlich, nichtwissenschaftlich/journalistisch, . . . ) Zu 1) Die Nutzung und Entwicklung passender Methoden gehört definitiv auf den ersten Platz. Die Werkzeuge, die man zum Arbeiten braucht, genießen höchste Priorität. Dabei gehen entwickelte internetsoziologische Methoden vor bereits existierenden soziologischen Methoden. Das liegt daran, dass voll und ganz auf die Idee der Digital Methods gesetzt wird, d. h. das innovative Forschungsfeld Digitalisierung wird am besten mit dafür passenden, d. h. maßgeschneiderten Werkzeugen bearbeitet. Bereits existierende, d. h. aus vor-digitaler Zeit stammende Werkzeuge passen oftmals nicht bzw. benötigen zumindest eine Anpassung. Zu 2) Technikwissenschaftliche Methoden wie Data Mining oder Predictive Analytics haben sich ebenfalls als hilfreich erwiesen. Es handelt sich bei diesen Werkzeugen nicht um genuin soziologische Werkzeuge, aber sie können in vielen Fällen gut und sinnvoll eingesetzt werden. Aufgrund zahlreicher Konfigurationsmöglichkeiten sind Anpassungen an eigene Szenarien, Projekte und Aufgaben oftmals sehr leicht möglich, d. h. man findet in aller Regel schnell das Werkzeug zur Bewältigung der eigenen Aufgabe. Technikkenntnisse sind hier allerdings sehr von Vorteil. Zu 3) Sie wollen wissen, wie die Digitalisierung der Gesellschaft aussieht? Dann beobachten Sie sie! Viel wichtiger als Fremdanalysen sind eigene Beobachtungen und Auswertungen. Meines Erachtens verwendet man viel zu viel Zeit mit den Aussagen Dritter – viel gewinnbringender sind eigene Erkenntnisse, gewonnen direkt an der Quelle und nicht sekundär vermittelt. Natürlich gilt dies nicht für außergewöhnliche, thematisch zugespitzte oder besonders schwierige Aufgaben, aber wie unsere Medienanalyse gezeigt hat, sind „echte eigene“ Beobachtungen durchaus effizient, effektiv und einfach umsetzbar.

136

2 Theorie und Fundament

Zu 4) Beobachten Sie danach sich selbst (und immer noch nicht die Arbeit der anderen)! Eine permanente Introspektion ist sehr hilfreich, denn im extrem dynamischen Feld der digitalen Analyse müssen Sie permanent an sich arbeiten. Zu 5) Fast ganz zum Schluss kommt nun die Fremdanalyse. Erstaunt? Nun, eigentlich ist der Hintergrund ganz logisch: Intellektuell sind viele Arbeiten vieler Kolleginnen und Kollegen sicherlich interessant, aber es geht nichts über eine eigene Analyse. Nutzen Sie Aussagen Dritter nur dann, wenn Sie dieselbe Arbeit nicht leisten können (beispielsweise aus Ressourcengründen) oder wollen (beispielsweise aufgrund zwingender Priorisierung von Aufgaben und Projekten). Wenn Sie soziologische Theorie in Ihre Arbeit einbinden wollen, um auf Analysen anderer SoziologInnen zu verweisen, dann ist eine Orientierung über einen Sammelband natürlich sinnvoller als die Eigenerschließung eines Gesamtwerks. Aber zeitgenössische Analysen, die machbar sind, sind immer besser, wenn Sie sie methodisch und inhaltlich sauber durchführen. Seien Sie die Person, die Inhalte generiert und repetieren Sie nicht nur, was andere gesagt haben. Es stimmt schließlich, wenn man sagt, dass man keine eigenen Spuren hinterlässt, wenn man immer nur in andere Fußstapfen tritt. Das Projekt Internetsoziologie wäre nie zu einer individuellen Prägung gekommen, wenn ich anderen Menschen gefolgt wäre. Nutzen Sie die Sinneinheiten anderer als Bausteine, wenn es sinnvoll ist, aber verzichten Sie niemals auf die Chance der eigenen Auswertung, wenn diese auch möglich, sinnvoll und zielführend ist. Zu 6) Jeder andere Input ist willkommen, wenn man nicht mehr weiterweiß. Legen Sie sich nicht dogmatisch auf rein wissenschaftliche Quellen fest. Auch Twitter, Facebook und Co. können wertvolle Quellen sein. Doch sie genießen in unserer Abteilung keine Priorität. Nicht ohne Grund sind somit auf den ersten vier Plätzen Methoden zu finden, nicht Theorien. Es gab in all den Jahren überhaupt nur einen Theoretiker, der aus meiner Sicht passende Argumente lieferte, und das war Karl Popper. Soziologische Theorien, allen vorab deutsche Theorien, boten keinerlei sinnvoll erscheinende Passung, meist nicht mal in Ansätzen. Am wenigsten fand ich vor zehn Jahren eine Passung bei den großen Klassikern, außer eben bei Popper (welcher 1994 verstarb, weshalb die Allgemeingültigkeit und damit die zeitlose Qualität vieler seiner Aussagen auch im digitalen Zeitalter doch etwas überraschte, aber auch sehr erfreute). Es gibt natürlich zahlreiche Wissenschaftlerinnen und Wissenschaftler im Bereich der Kultur-, Geistes- und Sozialwissenschaften, die sich schon seit Jahren mit dem Netz, der Digitalisierung oder den Medien auseinandersetzen. Eine genaue Differenzierung der Vorgehensweisen, Analysen und Ergebnisse ist sowohl aufgrund der Fülle des Materials als auch aufgrund der zahllosen unterschiedlichen Ansätze nicht realisierbar. Zu den nutzbaren eindeutigen Fällen kommen zusätzlich noch die Forscherinnen und Forscher, die andere

2 Theorie und Fundament

137

Ansätze und teilweise sehr explizite, untereinander differierende, aber auch manchmal sehr abstrakte Theorien erarbeitet haben. Sollten Theorien auffindbar sein, die sich auch bei genauerer Betrachtung nicht als brauchbar erweisen, so würden sie doch sehr gut dazu dienen, um Abgrenzungen vorzunehmen. Dies ist im weiteren Verlauf anhand zweier sehr klassischer Beispiele – Systemtheorie und Kritische Theorie – auch geschehen.298 Dieser erste Versuch der Abgrenzung war für mich in der Folge von weitreichender Bedeutung. Denn schließlich ist das weite Feld der digitalen Welt trotz der uferlos erscheinenden Ausführungen dazu immer noch nicht ausreichend erschlossen – was ganz besonders für das digitale Deutschland gilt – und das Abstecken von Claims in jeglicher Hinsicht hilfreich für die weitere Kartographisierung. An der Notwendigkeit der Hilfestellung suchender Menschen, denen die Digitalisierung als enorme Herausforderung und eventuell sogar als Überforderung erscheint, hat sich schließlich nichts geändert. Ein scheinbarer Widerspruch zwischen bereits erfolgter Erschließung des digitalen Raumes durch fachliche Analysen und Analyseansätze und dem Mangel an ausreichenden, d. h. hilfreichen Ergebnissen löst sich durch die Kenntnisnahme der zunehmenden Ausbreitung von Digitalität und den dadurch steigenden Ansprüchen: Früher konnte man leicht reüssieren, heute sind die Ansprüche teilweise so komplex, dass der große Befreiungsschlag inzwischen sehr stark angezweifelt wird. Die Tiefenschärfe zahlreicher Ansätze ist oftmals (vorrangig aufgrund mangelhafter sozio-technischer Detailkenntnisse, einem Problem, welchem man sich zumindest in den USA nun stärker widmen wird) recht gering, tiefergehende Analysen sind aufgrund kultureller Unterschiede zudem nicht ohne weiteres übertragbar (beispielsweise US-amerikanische Forschungsprozesse auf deutsche Netzmentalitäten) und der besondere Gegenstand der (zunehmend digitaleren) Identität wurde insgesamt kaum zufriedenstellend erforscht (wobei in der Sozialpsychologie deutlich mehr dazu gesagt wurde als in der Soziologie, wie noch gezeigt werden soll).299 Es muss daher stets versucht werden, sowohl die Theorien und Methoden herauszuarbeiten, die nützlich sein können als auch zumindest zu bedeutenden Theorien Abgrenzungen auszumachen und sie anhand des Prioritätenmodells der Internetsoziologie zu operationalisieren. Wenn klar wird, was nicht nützlich erscheint, reduziert sich die Manövriermasse entsprechend und klare Konturen können erkennbar werden. Somit sind auch Abgrenzungen bzw. Begrenzungen methodischer und theoretischer Art äußerst hilfreich: sie entlasten den Suchenden.

298 In etwas weniger umfangreicher Form erstmals in: Humer, 2008. 299 All dies bezieht sich natürlich auf die Gegenwart. Selbstverständlich gibt es überragende Werke zur soziologischen Identität, allen voran das Werk von Lothar Krappmann, welches ich auch bereits 2008 sehr umfassend gewürdigt habe. Aber es fehlt doch sehr oft der sozio-technische Link, so dass man die sehr allgemeinen soziologischen Aussagen stets mit der Technikrealität abgleichen muß, was mein Modus operandi seit 2005 ist.

138

2 Theorie und Fundament

Zahlreiche Theorien und Herangehensweisen bieten auf den ersten Blick interessante Anknüpfungspunkte, um eine Analyse technischer Phänomene durchzuführen. Bei genauerer Betrachtung zeigt sich jedoch häufig, dass sich die Übersetzung in den digitalen Raum als schwierig erweisen kann. Popper, so scheint mir bisher, ist hier eine Ausnahme. Doch dieser erste, noch sehr zaghafte Eindruck benötigt unbedingt weiterer Analysen. Zwei große Theorien, Systemtheorie und Kritische Theorie, wurden 2008 erstmals von mir auf ihre Passung hinsichtlich der Analyse digitaler Phänomene untersucht. Schnell wurde jedoch deutlich: das Ergebnis erschien mir nicht einmal unter den optimistischsten Bedingungen als ausreichend, um das vorgesehene Ziel, eine bessere Digitalisierungserklärung, zu erreichen. Bereits der Weg dorthin erwies sich als holprig bis nahezu unbeschreitbar. Dieser Weg soll hier nun nochmals (im Vergleich zu 2008 in entsprechend aktualisierter und stark ergänzter Form) nachgezeichnet werden. Die Systemtheorie kann, so die entsprechende Einschätzung kurz vorweg, nicht ohne weiteres für die Analyse von digitalen Phänomenen angewandt werden. Der sicherlich wichtigste Grund für die Schwierigkeit ist die Tatsache, dass Niklas Luhmann, dessen Name untrennbar mit der Systemtheorie verbunden ist und der deshalb sicherlich auch am meisten mit dieser Theorie assoziiert wird, dem Internet und seinen Auswirkungen letztlich fernblieb. So kommt zu der ohnehin schwierigen Aufgabe, brauchbare Werkzeuge für eine zeitgemäße Analyse zu finden, die Tatsache, dass nach Luhmann wohl keine vergleichbar hochwertigen Anpassungen der Systemtheorie an das digitale Zeitalter erfolgten – zumindest fielen mir in den vergangenen zehn Jahren weder entsprechende Werke auf noch stieß ich aufgrund ihres breiten Erfolges auf sie. Das mag jetzt für manche Leserinnen und Leser überraschend klingen, kennt man schließlich Namen wie Esposito, Baecker und Nassehi und eventuell auch ihre Äußerungen über die Digitalisierung, doch es gab stets zu viele Aspekte, die letztlich nicht überzeugten, vor allem aus sozio-technischen Gründen. Mit der Systemtheorie Luhmanns kommen deshalb zahlreiche Probleme, die eine Nutzung der Möglichkeiten ganz grundsätzlich als schwierig erscheinen lassen. Dass die Systemtheorie trotzdem an dieser Stelle untersucht wurde, liegt (neben der überragenden Bedeutung für das Fach Soziologie) vor allem daran, dass sie zwar keine Medientheorie – und erst recht keine „Digitaltheorie“ – ist, jedoch eine universale Theorie mit entsprechend selbst postulierter Verantwortlichkeit, die somit „als soziologische Theorie alles Soziale behandelt und nicht nur Ausschnitte“.300 Genau daran sollte angeknüpft werden. Doch es gelang nicht. Doch der Reihe nach. Zuerst einmal (fachlich) Altbekanntes: Für die Systemtheorie ist Kommunikation von essentieller Bedeutung für die Erschaffung und Veränderung sozialer Systeme. Kritisiert wird die Vorstellung, dass Kommunikation immer einen Urheber voraussetzt. Kommunizieren kann nicht der Mensch, sondern

300 Luhmann, 2006, S. 9.

2 Theorie und Fundament

139

nur die Kommunikation.301 Luhmann sieht anschlussfähige Kommunikation als die Voraussetzung für das Fortbestehen von autopoietischen sozialen Systemen.302 Kommunikation betreibt selbst immer weiter Kommunikation, grenzt sich zu allem anderen ab, was in der Welt noch passiert – diese Abgrenzung erfolgt auch zum Bewusstsein. Das allerdings hat zur Folge, dass das Bewusstsein nicht kommunizieren kann. Das klingt logisch, denn wir kommunizieren nicht mit unserem Bewusstsein, sondern mithilfe von Sprache, Bildern, Gesten, Mimik usw. Ein unverfälschter Austausch von Bewusstseinsinhalten ist nicht möglich, denn Gedanken brauchen Mitteilungshilfen – was allerdings die Eigendynamiken der (Massen)Medien (oder im hiesigen Kontext vielleicht besser: die Eigengesetzlichkeiten der Digitalisierung) in Kauf nimmt. Was zählt, ist laut Luhmann die gesichtslose Kommunikation, nicht das Individuum, denn die eine Kommunikation ist so gut wie die andere. Die Schrift, das Buch, der Rundfunk und das Internet respektive die Digitalisierung haben in punkto Erreichbarkeit neue Meilensteine gesetzt und die Gesellschaft unübersehbar beeinflusst. So weit, so klar. Entscheidend ist hier vor allem die Entkopplung von Räumlichkeit und Zeitlichkeit. Anknüpfen lässt sich hier zwar an Luhmanns Feststellung, dass die alte Kommunikation („Face to face“) abgelöst wurde durch die neue (digitale) Kommunikation (beispielsweise Handy, Internet und IP-TV), dass dies unsere Kommunikations- und Handlungsgewohnheiten (bis in grundlegende Dimensionen) entsprechend beeinflusst hat und dass man hier auch – entsprechende spezielle Kompetenzen vorausgesetzt – enorme Chancen vorfindet. Schließlich sieht aber auch Luhmann, dass vor allem der Schichtenwandel in der Gesellschaft eine Folge der Ausbreitung der Massenmedien ist. Statt einer Spitze der Gesellschaft gibt es eine Vielzahl von Teilsystemen: allesamt zwar miteinander vernetzt, jedoch klar voneinander abhängig, und keines mehr bestimmend.303 Bedeutend ist nun der Aspekt, dass wir, wenn wir den Blick auf die Welt vornehmlich durch die Medien ausführen (lassen), in der Folge logischerweise einen mediengeprägten Blick erhalten – die Welt sieht dann so aus, wie (früher) das Fernsehen oder (heute) digitale Medien sie uns „liefern“. Als aktueller Punkt wäre hier festzustellen, dass genau dies ja auch einer der Ausgangspunkte der Ideen innerhalb dieser Arbeit ist: die Welt wird – auch und nicht zuletzt durch den ganz eigenen Einfluss der Digitalität – geformt, und zwar „medial“ stärker

301 Luhmann, 1990, S. 31. 302 Eine interessante Einführung basierend auf der Prägung durch die Arbeit von Humberto Romesín Maturana findet sich unter http://www.enolagaia.com/AT.html (abgerufen am 6.4.2007). Selbstverständlich ist auch Luhmanns Werk „Soziale Systeme“ hier von überragender Bedeutung. 303 Hier könnte man bereits intervenieren und die Besonderheiten (vulgo: Eigengesetzlichkeiten) der Digitalisierung ins Feld führen, beispielsweise Skalierbarkeit, Verführung zu Plattform-Monopolen und Digitale Kultur, also Aspekte, die jeweils die Teilsysteme und ihre Machtmöglichkeiten enorm durcheinanderwirbeln.

140

2 Theorie und Fundament

denn je. Allerdings: Kein Mensch hat einen unvermittelten Zugang zur Welt, niemand hat eine „erhabene Position“. Medien setzen bestimmte Akzente – und zunehmend auch „die Maschinen“ selbst, wenn man sich an durchaus angstbesetzte, da „maschinengesteuerte“ (seinerzeit/2007) Themen wie Trusted Computing und (heute/2019) an Diskussionen über die „Künstliche Intelligenz“ erinnert. Somit lautet dann das entsprechende Fazit: es gibt kein „besser“ oder „schlechter“, sondern nur ein „anders“ in Sachen Weltsicht. Was dann aber bedeutet, dass Wissenschaft, Fernsehen, Kino, Internet, Reporter, Hausfrauen, Plakate oder alle anderen Kommunikatoren und Kommunikate nicht besser oder schlechter von der Welt berichten, sondern nur anders. Kritik wird, so die Konsequenz, zum Paradoxon: eine Überlegenheit gibt es nicht, eine „bessere Wahrheit“ kann es ebenso wenig geben – somit wird letztlich Kritik hilflos. Dies aber scheint im Gegensatz zur komplexen Welt der Digitalität und, vor allem, zu den Bedürfnissen der in dieser Welt lebenden Menschen zu stehen, einer Welt, in der Medienkompetenz, also die sinnvolle Vermittlung von Wissen zur Beherrschung der lebensweltlichen Herausforderungen, entscheidend ist und es letztlich doch ein Wissensgefälle gibt: es gibt die (wenigen), die mehr wissen und besser klarkommen, und es gibt die (vielen) anderen. Es ist richtig, wenn, wie Gerhards sagt, die Systemtheorie die Gesellschaft beschreibt, nicht erklärt. Aber damit hat man an dieser Stelle bereits ein Problem, da die reine Beschreibung nicht ausreichend ist. Nicht in digitalisierten Gesellschaften. Durch die Ausbreitung der Massenmedien und vor allem der Digitalisierung hat sich ein Prozess in Gang gesetzt, der dafür sorgt, dass den (digitalen) Medien die Nachrichten und Inhalte nicht ausgehen. Durch die Veröffentlichung gehen Informationen „verloren“, sie sind „gesendet“, was aber dafür sorgt, dass Bedarf an „mehr“ entsteht.304 So entwickelte sich unser Bewusstsein, in einer schnellen, mobilen und globalen Welt zu leben, denn es gilt als selbstverständlich, dass immer neue Informationen folgen und uns zur Verfügung stehen. Dadurch wird zugleich definiert, was als Neuigkeit, also als Information gilt. Deshalb entwickelte sich eine spezifische Sicht der Welt: wichtig ist, was (beispielsweise) der SPIEGEL schreibt, die Tagesschau sendet, der Bundespräsident sagt. Eine Kategorisierung erscheint hier logisch: wäre alles sendenswert und würde auch tatsächlich gesendet, gäbe es keine Unterschiede mehr. Informationen würden als zufällig erscheinen und böten keine Neuigkeit; Informationen werden zu etwas Eigenem der Medien. Und dies wird, wenn man hier erneut anknüpft, besonders deutlich, wenn man sich das Internet betrachtet: sicher ist nirgendwo die Inanspruchnahme von Informationen so vielfältig, unüberschaubar und gleichzeitig offensichtlich wie dort. Und sicherlich nirgendwo anders wird so oft von wirklicher Objektivität bzw. der Chance dazu geredet.

304 Dieser Effekt ist im digitalen Raum so nicht mehr gegeben, da sich dort nichts umgehend „versendet“.

2 Theorie und Fundament

141

Es gibt nach der Logik der Theorie kein System, welches überlegen ist. Realitäten werden nun erzeugt, ohne dass es eine gemeinsame Ausgangsbasis gibt. Die Massenmedien sorgen hier laut Luhmann für eine Kompensation, eine „Wieder-Vergemeinschaftung“305 – so wie früher Glaubenssysteme (und deren Wortführer). Gibt es aber keine (Massen)Medien mehr, weil der letzte gemeinsame Nenner die Digitalität ist, stellt sich erneut die Frage nach der Vergemeinschaftung (und der Rolle der Wortführer, sprich: SPIEGEL, Tagesschau und Bundespräsident). Was man heute als Gesellschaft versteht, ist, darüber dürfte sehr weitreichend Einigkeit bestehen, eine Frage der Massenmedien bzw. (nach dieser Logik) des Internets – „die Medien“ agieren hier nahezu konkurrenzlos bei der gesellschaftlichen Gestaltung. Mit dem Internet hat sich dieser Aspekt enorm verstärkt, denn hier sind wir nicht mehr nur Rezipienten, sondern (potentielle) Akteure neuer Art. Doch auch der Aspekt der Face-to-face-Kommunikation ist aus systemtheoretischer Sicht nicht unbedeutend geworden. Im Gegenteil: im Zusammenspiel mit der Nutzung der alten Individual- und der neuen Massenmedien gewinnt dieser Aspekt an Bedeutung, zum Beispiel in punkto Bewertung und Kommentierung von medialen Produkten.306 Die Massenmedien sorgen nicht für ein kollektives Schweigen, sondern unterstützen den Dialog, die Auseinandersetzung und die Profilierung – alle können somit gewinnen.307 Individualkommunikation bzw. Interaktion ist aber kein hauptsächlicher Aspekt der Massenmedien: das Anrufen in einer (Fernseh-)Show, das Voting für einen Teilnehmer oder Song, das Bestellen im TV-Shop ist absichtliche, programmbedingte Kommunikation, jedoch kein Beispiel für einen Individualdialog innerhalb eines Massenmediums. Erst das Internet sprengte hier die Grenzen.308 Es ist auch nicht mehr zu erwarten, dass das Fernsehen nun grundsätzlich interaktiv und für individuelle Kommunikation über große Distanzen zuständig wird. Das ist heute schon Sache des Internets: hier ist jeder Produzent und Rezipient, wenn er es will. Und das Fernsehen wurde inzwischen (2019) längst zum IP-TV. Ein ganz ähnlicher Aspekt wurde in diesem Zusammenhang aber bisher (2007) eher wenig bzw. selten beachtet: die Trennung zwischen Radio, TV und Internet wird unschärfer – und letztlich hinfällig. Der gemeinsame Nenner der Digitalisierung wird früher oder später diese Medienunterscheidung aufheben, so dass entscheidende Fragen erneut gestellt werden müssen: Wer spielt welche Rolle? Wer produziert was? Wer ist Produzent, wer Rezipient? Wen erreicht man wie? Und welche Wirkung hat das dann? Die Frage nach der schwerer gewordenen Unterscheidung zwischen Mensch und Maschine war seinerzeit von untergeordnetem Interesse: jedermann war klar, dass Kommunikation im Netz meistens echt ist, was die Humanität des Gegenübers an-

305 Wehner, 2000, S. 107. 306 Hieran inzwischen perfekt anschließend: Steffen Mau, Das metrische Wir, 2017. 307 Was sie auch vielfach tun, wenngleich die negativen Aspekte wie Hate Speech und Fake News besonders im Gedächtnis bleiben (dürften). 308 Auf die Spitze getrieben: https://dissenter.com/download, abgerufen am 27.4.2019.

142

2 Theorie und Fundament

geht. Von stets großem Interesse war jedoch die Rolle, die gespielt wird, also die Frage nach Geschlecht, Alter, Person, kurz: nach dem Individuum. Dies ist interessanter als ein Rätselspiel in Sachen Künstlicher Intelligenz (KI). Interessanterweise kehren wir diskurstechnisch oftmals dahin zurück: heute haben Menschen (unnötigerweise) wieder Angst vor algorithmischen Filterblasen, Bots und Künstlicher Intelligenz im Allgemeinen.309 Von den verschiedenen Rollen, die die Menschen einnehmen, einmal ganz zu schweigen. Ebenso wenig haltbar ist das Bestehen auf einer Unterscheidung von Medien: Fernsehen und Internet waren sich damals (2007) schon näher als viele glauben mochten – und sind heute (2019) längst eins. Intern war damals bereits vieles gleich: meist war das Endgerät beim Privatnutzer noch analog, das Fernsehstudio aber zeichnete auf, „cuttete“ und sendete längst digital. Die Kommunikation läuft nun über dieselben physischen Kanäle wie die Internetkommunikation. Durch die Aufsplittung der Bedürfnisse und Aktionen (Filme anschauen, Videospiele spielen, chatten, Nachrichten lesen, VoIP-Telefonie, einkaufen, etc.) und die Einmischung des Individuums entsteht mehr und mehr etwas, was nicht alle sehen und lesen: die Homogenität der durch die Massenmedien produzierten Wirklichkeit wird, so die damalige Annahme und heutige Beobachtung, (weiter) abnehmen.310 Die Abnahme wird aber kaum absolut werden: erstens behalten klassische Massenmedien wie Zeitung und Fernsehen auch weiterhin eine gewisse Moderatorenfunktion und leiten die Menschen durch die Informationsflut – und das ist wichtiger denn je.311 Zweitens ließ sich von Beginn an ein Trend beobachten, der langfristig an den Grundfesten großer Medienapparate knabberte, aber nicht zwangsläufig einseitig zu einer Parzellierung der Medienwelten führt: es kann heute grundsätzlich jede Internetseite überragende Bedeutung erlangen – ohne teure Senderechte, Werbung, Kanalbelegung oder Personal. Dies gilt natürlich ebenso für andere Techniken wie P2P oder Open Source. Die Wirklichkeit wird, so die damalige Annahme, zunehmend geprägt von Fakten, die sich außerhalb der klassischen Kanäle verbreiten. Einerseits dienen diese somit – sofern gewünscht – als Moderator, andererseits formen sich Fakten außerhalb von ihnen. Diese Annahme trat ebenfalls ein: man denke dabei nur an Anbieter wie die Huffington Post, Twitter, Facebook, TikTok und Google News. Ein klein wenig sollte nun anhand gängiger konstitutiver Aspekte der Systemtheorie klar geworden sein, wo deutliche Probleme hinsichtlich einer Passung im

309 Siehe dazu unter anderem https://www.sueddeutsche.de/digital/kuenstliche-intelligenz-digi talgipfel-regierung-algorithmen-1.4233675 und https://causa.tagesspiegel.de/gesellschaft/wie-ver aendert-die-filter-bubble-die-politik/die-filterblase-ist-ein-mythos.html, abgerufen am 27.4.2019. 310 Siehe dazu das mit der Kollegin von der TU München und dem Kollegen vom MIT angestoßene Projekt mit der Fragestellung „Was ist Allgemeinwissen?“ unter http://www.humer.de. 311 Die damaligen Prognosen, aus dem Jahre 2007, haben sich bewahrheitet: Menschen suchen Lotsen und Lotseninstitutionen, um sich im Netz zurechtzufinden. Die „Massenmedien“ gehören dazu. Trotz aller Fake-News- und „Lügenpresse“-Diskussionen.

2 Theorie und Fundament

143

digitalen Zeitalter zu finden sind. So ist zum Beispiel die Differenzierung der Gesellschaft nach Funktionsgesichtspunkten schlicht zu kalt und entspricht kaum der menschlichen Lebensrealität und Kultur. Eine lediglich beschreibende Theorie mag wissenschaftlich spannend sein, alltagstauglich und damit hilfreich ist sie in Zeiten eines nie dagewesenen revolutionären Wandels (und der daraus resultierenden, klar erkennbaren Bedürfnisse der Menschen) wohl kaum. Desweiteren gilt: wenn es tatsächlich keine privilegierten Standpunkte gibt, bedeutet das, dass es auch keine erhabenen Positionen im digitalen Kompetenzsinne geben kann. Dies ähnelt auf der Ebene der Funktionssysteme dem, was zuvor über die Kommunikationssituation gesagt wurde. Luhmann versuchte daher etwas anderes: Ziel müsse es sein, Konsequenzen zu ziehen aus der Kontextabhängigkeit einer jeden Beschreibung der Welt. Der Beobachter soll seine Position darstellen, aber er kann nicht behaupten, dass diese besser sei. Wertungen, Richtungen und Weisungen wird es so nicht geben können. Die (digitalen) Medien zeichnen ein Bild, welches zwar anders ist, aber eben nicht besser oder schlechter. In Zeiten zunehmender Orientierungslosigkeit beschreibt diese Medienkritik der Systemtheoretiker einen Lösungsweg, der auf den ersten Blick nicht unbedingt plausibel erscheinen mag. Diese Kritik würde dafür sorgen, dass es pauschal keine Objektivität mehr gibt, so wie sie von vielen Medien (vertretern) propagiert wird. Richtig hingegen scheint eher, dass vor allem die audiovisuellen Angebote vergessen lassen, dass auch sie nur symbolische Gebilde sind: eine Tiersendung entspricht nur sich selbst, nicht aber dem wirklichen Leben der Löwen in der Savanne. Hier einhakend muss man diesen Aspekt klar verschärfen, denn mit der Digitalisierung steigert er sich ganz besonders. Leistungsfähige PCs mit schnellen Internetanbindungen lassen beispielsweise Filme ins Haus kommen, die im Verborgenen digital kontrolliert werden können – und wir halten die dort gezeigten Bilder im schlimmsten Falle für „real“. So kam es in den USA beispielsweise zur Einführung einer Verzögerung einer Sendung, so dass (vermeintliche, weil so gekennzeichnete) Live-Sendungen nur noch Near-to-Live sind, um verbale Entgleisungen, Anrüchiges, Frivoles oder Sexuelles rechtzeitig zensieren zu können.312 Dies kann zweifellos auch automatisch geschehen (vor allem bei niedrig-

312 Dieser sogenannte „Tape Delay“ bzw. „Seven Second Delay“ (Sieben-Sekunden-Verzögerung; die zeitliche Maßgabe kann variieren. Vgl. Broadcast delay. http://en.wikipedia.org/wiki/Tape_ delay_%28broadcasting%29#Computerized_delay, abgerufen am 5.5.2019.) wird aufgrund seiner Nähe zur klassischen Zensur stets kontrovers diskutiert. So gab es beispielsweise in den USA entsprechend aufgeregte Diskussionen, als es nach „Nipplegate“ (der Entblößung von Janet Jacksons Brust in der Halbzeitpause der Superbowl-Übertragung am 1. Februar 2004, vgl. Nipplegate. http:// de.wikipedia.org/wiki/Nipplegate, abgerufen am 5.5.2019.) um die verzögerte Übertragung der Verleihung der Academy Awards – besser bekannt als Oscar-Verleihung – in Hollywood ging (vgl. beispielsweise Zap2it.com – Movie news – ABC’s 7Second Oscar Delay ‘Terrible’. http://movies.zap2it. com/movies/news/story/0,1259,—24843,00.html sowie CNN.com – ABC to impose delay on Oscar telecast. http://us.cnn.com/2004/SHOWBIZ/Movies/02/05/sprj.aa04.abc.oscar.delay/, jeweils abgerufen am 5.5.2019.).

144

2 Theorie und Fundament

schwelligen Angeboten wie Chats, Telefongesprächen oder Werbung), so dass das IP-TV definiert, wie „sauber“ die Welt ist. Nicht nur die Kommunikation als Kommunikation bleibt so verborgen, sondern auch die Einflussnahme. Behandeln wir so Kommunikationen wie Wahrnehmungen und ignorieren die Einflussnahme der Maschinen oder wissen gar nichts von ihr, so verleihen wir letztlich einer maschinenbedingten Welt Realitätsgehalt. Was bleibt, ist die Chance, die diverse Systemtheoretiker sehen: die „medienkritischen“ Beobachtungen, die die Spezifika der Medien offenlegen, können angeblich aus dem naiven ein aufgeklärtes Publikum machen. Das jedoch wird mit Entwicklungen wie Trusted Computing und auch Künstlicher Intelligenz allein schon aufgrund des Komplexitätsgrades (TC) sowie der nicht mehr immer nachvollziehbaren Weiterentwicklungen (KI) schwer bis unmöglich, zumindest in der Breite der Gesellschaft. Diesem Publikum wird klar, dass es bei der Aufführung jeder „Wahrheit“ auch andere Aspekte geben wird, die ausgeblendet wurden. Die Endkonsequenz ist, dass keine Hinweise mehr geliefert werden können, wie die Gesellschaft wirklich ist. Wir würden als Publikum, welches sich gerade im digitalen Bereich nach Ordnung sehnt, immer nur eine symbolische Realität mit der anderen vergleichen können. Eine Orientierung würde dann auf ein „Entweder – oder“ hinauslaufen, nicht aber auf ein „Besser“ oder „Schlechter“. Oder anders gesagt: der gemeinsame Nenner wird kleiner. Dies dürfte zweifellos enorme Risiken beinhalten. Widmet man sich also der digitalen Technik, so fällt auf, dass die Systemtheorie alter Prägung hier schnell in ein Dilemma gerät. Der Preis, der zu zahlen ist für das Interesse an technischen Besonderheiten wie der digitalen Infrastruktur, sozio-technischen Prozessen und Konzepten, ist die Infragestellung von genau den kommunikativen Grenzen und Kreisläufen, die zuvor noch den entscheidenden theoriebildenden Einfluss hatten.313 Bleibt es jedoch bei der These von Kommunikation als letzter Instanz der Massenmedien, dann liegen „postsoziale Vergemeinschaftungsangebote“ wie das Internet nicht mehr im Fokus.314 Wird eine Medientheorie bevorzugt, die ihren Mittelpunkt in der digitalen Technik postiert, so ist die Idee einer funktionalen Differenzierung haltlos. Im Gegenteil: Entdifferenzierung ist angesagt, denn Digitalität und ihr wichtigstes Element, die Vernetzung, pflügen alle Gesellschaften entsprechend spürbar um. Medientechniken werden so nicht mehr wie in der Systemtheorie als „Black Box“ angesehen, sondern in ihrer konstitutiven Rolle für das kommunikative Geschehen analysiert. Und so, das ist heute (2019) mein klarer Eindruck, soll und muss es allgemein sein. Mehr denn je. Die pessimistische Grundkritik und die darauffolgenden wenig optimistischen Schlüsse, die dieser Meinung folgen, machen es (wie gezeigt) bereits zu Beginn schwer, begeistert zu folgen.

313 siehe dazu z. B. Brill, 1996, S. 419–428. 314 Knorr-Cetina, 1998, S. 83–120; mit eigener Betonung.

2 Theorie und Fundament

145

Trotz aller Kritik an der Systemtheorie (nach Luhmann) sind aber auch medientheoretische Anknüpfungspunkte zu finden, die nach Überprüfung der damaligen Situation im Lager der Frankfurter Schule zum Vorschein kamen. Zwar gilt für die Theorie von der Kulturindustrie ein anspruchsvolles Ziel: wenn man die Lebenszusammenhänge der Menschen und ihrer sozialen Institutionen untersucht, analysiert man anschließend, ob freiheitliche Ordnungsstufen existieren.315 Doch ist die basale These der von Adorno formulierten Kritik, dass in der kapitalistisch strukturierten Gesellschaft die Medien entfremdend wirken, weil sie Ware sind oder transportieren.316 Hier scheint eine genauere Betrachtung hinsichtlich digitaler Phänomene notwendig. Auch die von Adorno postulierte These, dass „das Falsche, einmal bestimmt, erkannt und präzisiert, bereits Index des Richtigen, Besseren ist“,317 sollte weitergeführt werden. Ist diese Bestimmung ausreichend detailscharf? Erfolgte sie unter Berücksichtigung des schnellen digitalen Wandels? Wurden die spezifischen Möglichkeiten der Umsetzung des (digital) Indexierten vielleicht sogar realisiert? Verbesserungen mag es ja gegeben haben – diese kamen aber nicht durch bloße Nennung, sondern erforderten enorme humane Zusatzleistungen. Die Authentizität der Medieninhalte – Adorno erklärt das am Beispiel der Musik, wir vergleichen es hier mit der digitalen Welt – kommt, so die These, nur zustande durch den Widerstand gegen die Marktbedingungen. Aber gäbe es das Internet (in seiner heutigen Form, mit seinen heutigen enormen Möglichkeiten) ohne einen (kapitalistischen) Markt? Musik mag es geben ohne Plattenfirmen, Labels, Musiksender, MP3, sogar ein digitales Netzwerk zwischen akademischen Einrichtungen318 – aber wäre eine Verbreitung des Internets und seine Wirkung ohne den Vortriebsschild der Wirtschaft denkbar? Wäre eine Einrichtung von Internetanschlüssen ausschließlich durch den Staat denkbar oder auch nur wünschenswert?319 Die Geschichte des Internets verneint dies ausdrücklich, der Markt gehört zum Wesenskern des Internets. Richtig ist damals (2007) wie heute noch, was Adorno zur Musikproduktion sagt: die Wechselbe-

315 Müller-Doohm, 1996. 316 Adorno, 1932, S. 103–124. 317 Adorno, 2003, S. 793. 318 Immerhin der Ursprung des Internets (vgl. Internet Society (ISOC) All About The Internet: History of the Internet. http://www.isoc.org/internet/history/brief.shtml#Origins, abgerufen am 9.4.2007). 319 Dazu mußte seinerzeit nicht einmal in Richtung China geblickt werden, wo die Situationsbetrachtung aufgrund der Zensur- und Unterdrückungsbestrebungen entsprechend negativ ausfällt. Bereits bei der Rückbesinnung auf ‚selige‘ BTX-Zeiten der Deutschen Bundespost sollte deutlich werden, dass diese Zeit mit all ihren Restriktionen und Einschränkungen entwicklungshistorisch im Schneckentempo verlief. Zudem sind die heutigen Grenzen klar gesetzt: die Europäische Union setzte auch im Bereich der Telekommunikation auf Wettbewerb; heute sind trotz der vielseitigen Beschwerden über das langsame Digitalnetz in Deutschland keine Bewegungen in Richtung Staatsintervention erkennbar.

146

2 Theorie und Fundament

ziehung zwischen Musikproduktion und –rezeption hat sich bis in die Gegenwart weiter verstärkt. Musik aus der Konserve entsteht, weil sie nachgefragt wird – und nachgefragt wird, was beliebt ist. Unzählige Popbands entstehen, weitestgehend talentund zukunftsfrei, aber solange (2007) ihre CDs gekauft und ihre Lieder downgeloaded werden, reitet die Industrie auf der Welle mit. Die Verschiebung vom authentischen Kunstwerk zum Konsumartikel war auch hier deutlich sichtbar. Die eskapistische Ausrichtung des Pop schlägt sich an dieser Stelle nieder. Schuld daran haben sicherlich auch die Konsumenten. Adorno nennt dies „dem Gesetz gehorchen und doch anders sein“320 – die Unterscheidungen sind keine Unterscheidungen, sondern dienen nur der Unterscheidung im Gleichen. Auch dieser Trend ist vielfach im Netz aufzufinden.321 Adornos grundlegende Thesen einer kritischen Kultur- und Medientheorie lassen aktuelle Bezüge zu. Die erste These, die Tendenz der Medien zu Trivialisierung und Infantilisierung lässt sich ohne Zweifel grundsätzlich bestätigen. Es ist nicht schwer zu erkennen, dass dies auch im Internet bei den populären Services (also WWW, Downloads, Chats, Spiele) geschah und weiter geschieht. Auch die zweite These, die den Starkult beschreibt, trifft in abgewandelter Form damals wie heute zu: waren es früher Bill Gates, die Gründer von eBay, Amazon, YouTube und MySpace sind es heute „Influencer“ bei YouTube, Facebook, Twitter und Instagram sowie einige Startup-Gründer – zahlreiche Vorbilder aus der digitalen Szene mit dem (schnell auftretenden und ebenso schnell wieder verschwindenden) Status von Popstars sind heute sehr einfach und schnell zu finden. Und auch die dritte, im hiesigen Bezug wahrscheinlich bedeutungsvollste These verdient entsprechende Beachtung: bleibt schon beim Hören von Musik nur das in Erinnerung, was gefällig ist, so gilt dies auch für die zunehmende Inanspruchnahme des Internets durch plattformfokussierte, massenkompatible Konzerne. Oder anders: „Ohren aber, die bloß noch fähig sind, vom Gebotenen das zu hören, was man von ihnen verlangt, und die den abstrakten Reiz registrieren, anstatt die Reizmomente zur Synthesis zu bringen, sind schlechte Ohren.“322 Die massive Kritik am Hollywood-Film beschreibt schon früh die Zustände, die von Medienkonzernen geschaffen werden und heutzutage verstärkt gelten.323 Das künstlerische Element des Filmes wird reduziert auf emissionsbasierte (visuelle) Effekte und ebenso geht es im Netz weiter: knallbunte Websites, Flash-, ActiveX-, Java-, JavaScript- und Videoelemente fordern einerseits den Konsum von leistungs-

320 Adorno, 1936. S. 255. 321 Das gemeinsame Anderssein zeigt sich derzeit besonders gut in der deutschsprachigen Bloggerszene: hier wollen Tausende von Bloggern individuell erscheinen und berichten doch stets dasselbe, nämlich triviale Alltagserlebnisse, die höchst selten (und warum auch immer) gerechtfertigte Aufmerksamkeit erlangen – vom geringen Nachrichtengehalt sowie der journalistischen Nichtqualität ganz zu schweigen. 322 Adorno, 1996b. S. 39. 323 Adorno, 1996b.

2 Theorie und Fundament

147

fähigen Netzen und Maschinen und stimulieren andererseits nur durch den Effekt. Passend sind da der klare Bezug auf das bedeutende Werk von Walter Benjamin324 und die Beschreibung der Rolle der Filmmusik, der Montagetechnik und der Verneinung von Auratisierungsmethoden in der Filmproduktion. Doch an dieser Stelle lohnt ein Innehalten: deutlich wird, wie klar die Medienkritik an zahlreichen unterschiedlichen Elementen aufgehängt ist, die sich vereinzelt auf das Internet übertragen lassen. Die Kritik an der Kulturindustrie ist nur eingeschränkt gültig, denn das Netz geht über „klassische“ Kultur, Kulturindustrie und Unterhaltung hinaus. Die Kritikpunkte der Volksverdummung und des „Kauderwelsch schrankenloser Kommunikation“325 lassen sich nicht so ohne weiteres übernehmen, ebenso wenig die ständige Fokussierung auf die Definition der Produkte der Kulturindustrie als Waren. Der Zynismus Adornos wird somit nicht geteilt. Die radikale These, dass die Rezipienten von der Kulturindustrie betrogen werden wollen (und somit auch von Teilen der Internetindustrie, wenn nicht gar komplett von den technisch Verantwortlichen im Internet, berücksichtigt man den starken Wirtschaftsbezug), obwohl sie den Betrug durchschauen,326 kann schwerlich Überzeugung finden, wenn man sich die Möglichkeiten anschaut, die das Internet bietet: wollen die Menschen tatsächlich betrogen werden? Wenn ja, warum schaffte es die Musikindustrie dann nicht, die Menschen zum Kauf von CDs zu bewegen? Warum musste sie sich dem Druck der User hinsichtlich der attraktiven Onlineverfügbarkeit von zahllosen Songtiteln327 beugen (und verzichtete in der Folge sogar auf einen bisher obligatorischen, aber auf Seiten der Verbraucher höchst unbeliebten Kopierschutz328)? Warum entscheidet hier doch die Rationalität? Und warum ist dies kein Einzelfall? Adorno gibt zu, dass „die realen Interessen der Einzelnen (. . .) immer noch stark genug [sind], um, in Grenzen, der totalen Erfassung zu widerstehen“329 – eine durchaus besänftigende Sichtweise, wenn man bedenkt, dass das Internet weltweit epochale Auswirkungen auf Industrien hatte und weiterhin hat, die seit Jahrzehnten nur marginal verändert wurden. In wessen Hand diese Veränderungen lagen, sei daher mal dahingestellt. Doch es bleiben nicht ausschließlich Zynismus und Pessimismus übrig: die Forderung Adornos nach Erziehung, die das kritische Analysieren einübt, bietet eine große Passung mit den eigenen Vorstellungen. Fachleute, die die Menschen „anlernen“, selbst spontane Kräfte zu entwickeln, das ist für Adorno ein möglicher Weg. Und erinnert stark an den Maschinenflüsterer.

324 Benjamin, 2003. 325 Adorno, 1996a. S. 307. 326 Adorno, 2003. S. 342. 327 Apple macht Musik. http://www.heise.de/newsticker/meldung/36456, abgerufen am 6.4.2007. 328 Online-Musik: Die digitale Mauer fällt bei EMI und Apple. http://www.heise.de/newsticker/ meldung/87754, abgerufen am 6.4.2007. 329 Adorno, 2003. S. 655.

148

2 Theorie und Fundament

Ohne Zweifel ist die Machtkonzentration im Bereich der Massenmedien (und heute – noch mehr als 2007 – im Bereich der Plattform-Konzerne online) ein Problem, für welches das Internet bereits des öfteren Abhilfe bereithielt: so sind Möglichkeiten geschaffen worden, innerhalb eines absichtlich nur schwach strukturierten Rahmens weitestgehend unzensiert und unkontrolliert „Öffentlichkeit zu machen“330 und zu erreichen. Und auch durch die Macht der Unmöglichkeit von Zensur wird immer wieder erfolgreich ein Gegenpol geschaffen: in den USA gab es zu Beginn des Krieges der USA gegen den Irak keine Fernsehbilder von entführten US-Soldaten, im Internet schon. Ebenso sind die Bilder von Geisel-Enthauptungen und Entführungen in Krisengebieten seit etlichen Jahren ein grausames, jedoch treffliches Beispiel für die große Macht, die wenige Nutzerinnen und Nutzer abseits der bisherigen Machtmonopole mit Leichtigkeit ausüben können.331 Das Internet kann glücklicherweise dazu beitragen, die Diskurspratiken politisch informierter Bürgerinnen und Bürger zu unterstützen – dies ist für einen demokratischen Staat eine Grundbedingung. Trotzdem bleiben Machtkonzentration und Monopolisierung ein Thema, welches häufig in der These der „One Culture“ mündet: „What is now happening is the creation and global extension of a near-total corporate informational-cultural environment.“332 Drei Haupttypen von Medien ließen sich nach damaliger Ansicht in diesem Zusammenhang feststellen: Print- und elektronische Medien klassischer Art gelten als Programmedien (die heute viel von ihrer Macht eingebüßt haben, trotzdem noch lange nicht machtlos sind), das Internet hingegen verneint alle Medieneigentumsansprüche und schließlich gibt es den Zwischenstand eines Medientypus, der sich in der Diversifizierung und Individualisierung des Medienangebots versucht. Mit diesen drei Medientypen korrespondieren drei Grundtypen von Öffentlichkeit: das SenderEmpfänger-Modell der Produktionsöffentlichkeit, das Special-Interest-Modell gemeinschaftsartiger Teilöffentlichkeiten sowie das Internet „als Modell einer diffusen Öffentlichkeit“ mit „zirkulierenden Datenmengen“.333 Trotzdem gilt: globale (digitale) Medienkonzerne haben Macht und agieren zunehmend autonomer – sie lassen sich immer weniger von Kultur, Politik, Gewerkschaften, also von außen kontrollieren. Dadurch ergeben sich zahlreiche Fragen. Wie kann man dem entgegensteuern? Ist das Internet dabei eine bzw. die (best)mögliche Lösung? Führt andererseits die

330 Zu Beginn des 20. Jahrhunderts sorgte – neben dem Trend P2P – diesbezüglich vor allem das Internetangebot „Indymedia” für entsprechende Diskussionen (vgl. de.indymedia.org sowie Humer, 2004. S. 65.). Mittlerweile, nach einer spürbaren Desillusionierung der Beteiligten und Rezipienten dieses Angebotes, sind andere Trends aufgekommen, die eine „Gegenöffentlichkeit“ bzw. eine „Graswurzel“-Tendenz aufzeigen, beispielsweise Bittorrent, Blogging und Wikipedia – aber auch islamistische („Terror“-)Websites im Ausland. 331 Seit 2015 gehörte die Auseinandersetzung mit der medialen bzw. digitalen Wirkungsmacht des sogenannten „Islamischen Staates“ für mich zum internetsoziologischen (Sicherheitsforschungs-) Alltag. 332 Schiller, 1996. S. 128. 333 Müller-Doohm, 1998. S. 53 f.

2 Theorie und Fundament

149

Unterteilung in immer kleinere Special-Interest-Gruppen nicht zur Entfremdung untereinander? (Dies wäre beispielsweise dann der Fall, wenn Menschen nicht frei über ihre Kommunikation entscheiden könnten.) Wandelt sich die kulturelle Verfassung der Gesellschaft, weil sie von visuellen Symboliken beherrscht wird? Wird die Schrift vom Bild verdrängt? Aus technischer Sicht kann sicherlich die Prognose gestellt werden: langfristig wird es zu bedeutenden Verschiebungen kommen. Zurzeit haben wir aber noch einen deutlichen Überhang an Schrift im Internet. Die gegenwärtigen Trends der Miniaturisierung und Minimalisierung fördern eher bestehende textbasierte Kommunikation, wobei auch Videos und Bewegtbildanteile bei Services wie Snapchat und TikTok keine kleine Rolle mehr spielen, sondern wesentlicher Bestandteil des Angebots sind. Schließlich ist bereits neben den oben aufgeführten Passungsschwierigkeiten auch (und nicht zuletzt) die negative Tendenz, die in der Kritischen Theorie festzustellen ist, aufgrund der ihr innewohnenden konträren Haltung zu einem kreativ-gestalterischen Medium wie dem Internet im Besonderen und der Digitalität im Allgemeinen eher abzulehnen. Das fremd anmutende Bild, welches sich durch die Beschränkung des Blickes auf das Ganze als Ware ergibt, zeigt, dass hier letztlich nur Teilaspekte der Medienwelt behandelt werden. Das Internet wird sicherlich kein allumfassender Heilsbringer sein können und Demokratie, Wohlstand oder Frieden für jedermann bringen, doch es birgt mit ebenso großer Sicherheit zahllose positive (und bisher ungeahnte) Möglichkeiten, deren optimistisch-holistische Ausgestaltung den Nutzerinnen und Nutzern obliegt. Die Kritische Theorie bietet aber insgesamt nur wenige Anknüpfungsmöglichkeiten – vor allem keine zeitgemäßen Weiterentwicklungen der ursprünglichen Ideen von Adorno in Sachen Internet und Digitalisierung – und wurde daher seit 2008, dem Zeitpunkt der erstmaligen Darstellung dieser Analyse, nicht vertiefend berücksichtigt. Wie bereits gesagt: eigentlich war es nur Karl Popper, der mich überzeugte – und das auch eher durch Zufall. Die folgenden (kurzen) Ausführungen sollen diese Überzeugung skizzieren. Soziologische Theorien werden aus den oben genannten Gründen nun in der Folge (und letztlich insgesamt seit 2005) nur noch über den Weg des Bastelnden Denkens eingesetzt, d. h. gewinnbringend erscheinende Sinneinheiten werden exzerpiert und rekontextualisiert. Einer „Schule“ wurde nie und wird auch weiterhin nicht gefolgt – und das nicht nur aus Gründen fehlender Passung, sondern auch aus prinzipiellen Erwägungen.334

334 Dazu dann mehr in Kapitel 3.2.

150

2 Theorie und Fundament

2.1 Elemente der Philosophie Karl Poppers als wissenschaftstheoretisches Fundament einer Soziologie des Internets Die Internetsoziologie meiner Lesart hat kein theoretisches Fundament, welches sich im Laufe der Zeit zu einer Schule entwickeln oder welches von einer Schule abstammen könnte. Es betont eine Mosaikbauweise von Lösungen auf Basis des Bastelnden Denkens (Kapitel 3.2), so dass eine „Schule“, der man als „Schüler“ (mehr oder weniger) treu bleibt, inhaltlich nicht funktionieren würde. Denn das Besondere am Bastelnden Denken ist ja gerade die Rigorosität der jederzeit und überall möglichen Änderungsmöglichkeit: alles kann jederzeit geändert werden, um sich den aktualisierten, neuen oder einfach nur anderen Begebenheiten anzupassen. Deshalb gilt auch an dieser Stelle nochmal der eindeutige Hinweis: Betrachten Sie „die“ Internetsoziologie nicht als „Schule“! Diese Arbeit ist vielleicht ein Plädoyer, ein erster Leitfaden, ein Werkzeugkasten – aber es ist nicht die Grundlage einer linear erklärten, ganzheitlich zu verstehenden Schule. Wissenschaft braucht keine Schulen und Sie müssen keine Schülerin bzw. kein Schüler sein! Folgen Sie universellen Werten, den Grundlagen von Demokratie und Menschenrechten und ignorieren Sie Ideologien und alles, was sich zu einer „Glaubensrichtung“ entwickeln könnte. Der beste Lehrer ist in der Tat der, der sich früher oder später überflüssig macht. Nehmen Sie, was Sie für sinnvoll halten, aus diesem Buch, aus den Lehren von Karl Popper, aus der Wissenschaft – und bleiben Sie frei und unabhängig. Follower zu sein ist etwas für Twitter, nicht für die Wissenschaft. Aus diesen Gründen habe ich Karl Popper – trotz aller Verehrung und Wertschätzung aufgrund seiner unbestrittenen wissenschaftlichen Leistungen – nie als „Lehrer“ verstanden, an dem ich mich für den Rest meiner wissenschaftlichen Laufbahn orientieren kann. Ich vermeide solche Abhängigkeiten, wie bereits erwähnt. Doch wenn an dieser Stelle unbedingt ein einzelner Theoretiker genannt werden müsste bzw. sollte, der zumindest mich sehr inspiriert und auch begeistert hat, dann wäre es zweifellos Karl Popper. Dieser prägte meine internetsoziologische Arbeit sicher wie kein zweiter Philosoph, doch eben „nur“ punktuell und nicht im Sinne einer Fortführung seiner Ideen in Gänze – dafür aber umso stärker mit jedem einzelnen Aspekt seiner Arbeit, der mir positiv auffiel. Und letztlich gilt ja auch, dass Aussagen wie diese nicht nur zur Internetsoziologie passen, sondern ganz allgemein richtig, wichtig und wertvoll sind: „Obzwar ich fast immer an scharf bestimmten wissenschaftlichen Problemen arbeite, so geht durch alle meine Arbeit ein roter Faden: für kritische Argumente – gegen leere Worte und gegen die intellektuelle Unbescheidenheit und Anmaßung.“335

335 https://www.zeit.de/1971/39/wider-die-grossen-worte/komplettansicht, abgerufen am 29.4.2019.

2.1 Elemente der Philosophie Karl Poppers

151

Das ist ein roter Faden, den man übernehmen sollte – aber er ist eben kein Popperscher roter Faden, sondern streng genommen eine Selbstverständlichkeit, die (zumindest in einer perfekten Welt) keinerlei Erwähnung mehr bedurfte. Aber da wir nicht in einer perfekten Welt leben, soll die Relevanz an dieser Stelle nochmals betont werden. Es schadet nichts, denn an Poppers Feststellungen hat sich nach meinem Dafürhalten nichts geändert: „Das grausame Spiel, Einfaches kompliziert und Triviales schwierig auszudrücken, wird leider traditionell von vielen Soziologen, Philosophen und so weiter als ihre legitime Aufgabe angesehen. So haben sie es gelernt, und so lehren sie es.“336 Und meine Aufgabe ist es, diesen Unsinn zu beenden.337 Es muss um klare, gut verständliche Sprache gehen und nicht um Selbstbeweihräucherung. Studierenden muss eben gerade nicht mal etwas „abverlangt“ werden, nur weil ein Wissenschaftler es befriedigend fand, möglichst unverständlich zu schreiben und zu sprechen. Wir haben in unserer Abteilung eine Regel, die direkt aus Poppers obigen Ausführungen abgeleitet ist: Unverständliche Texte werden ignoriert. Unverständlichkeit ist in meinen Augen Unredlichkeit. Derjenige hat eine Bringschuld, der „verschwurbelt“ redet und nicht derjenige, der den Text geliefert bekommt. Wer nicht vernünftig liefern kann, wird auch nicht gehört. Vielleicht, ja: wahrscheinlich ist es sogar eine simple Notwendigkeit, Gegenwehr zu leisten. Es ist eine Art Notwehr, ein Widerstand gegen das zwangsläufige Unerklärtlassen digitaler Herausforderungen aufgrund analytischer Zeitverschwendung, gegen die erschwerte Zurverfügungstellung von Werkzeugen zur Bewältigung der Digitalisierung unserer Lebenswelt. Denn es ist nicht weniger als eine Zumutung, egozentrischem Geschwurbel zuhören bzw. dieses lesen zu müssen, wenn die Antwort klar und einfach formuliert werden kann. Das Tempo der Digitalisierung lässt keinen Raum für Selbstverliebtheit. Demzufolge haben Lösungen allen zu dienen, in der Wissenschaft und außerhalb, klar und deutlich. In diese Richtung geht es idealerweise mithilfe guter Visualisierungen. Wir versuchen Dinge idealerweise so darzustellen, dass „grasping with the eyes“ möglich ist, das Begreifen mit den Augen.338 Das ist dann der Idealzustand: so schnell wie möglich zu Ergebnissen zu kommen. Das ist – leider – quasi das Gegenteil „klassischer Soziologie“ vieler Kolleginnen und Kollegen. Doch egal wie sehr man auch die „gute“ Vergangenheit beschwören mag: Man ist mit dieser „klassischen“ Vorgehensweise aus der Zeit gefallen. Die Welt ist komplexer denn je und wir haben wenig Zeit, uns lang und ausführlich mit irgendwelchen Einzelwerken auseinander zu setzten, nur um zu debattieren oder gar eine Schule zu begründen bzw. auszubauen. Wer als Soziologin bzw. Soziologe noch die Vergangenheit beschwört, die Vormachtstellung einer Schule bzw. des Buches, der wird nichts (mehr) gewinnen.

336 https://www.zeit.de/1971/39/wider-die-grossen-worte/komplettansicht, abgerufen am 29.4.2019. 337 Streng genommen muß es die Aufgabe eines jeden Wissenschaftlers sein, dem Unsinn entgegenzutreten – es ist aber erschreckend, wie selten dies tatsächlich geschieht. 338 https://news.harvard.edu/gazette/story/2014/03/grasping-with-the-eyes/, abgerufen am 29.4.2019.

152

2 Theorie und Fundament

„Die großen Bücher werden in der Tat von A bis Z nicht mehr gelesen. Es wird viel kurzfristiger und in kleineren Einheiten konsumiert und reagiert. Und ich glaube, dem darf man sich nicht verschließen“, so Volker Linneweber, Psychologe und ehemaliger Präsident der Universität des Saarlandes. Ich kann hier nur zustimmen. Das neben der Politisierung der Wissenschaft größte Ärgernis, welches mir in den vergangenen Jahrzehnten widerfahren ist, ist unklares Geschwurbel. Hier bin ich bereit, Poppers Aussagen bedingungslos zu folgen – und kann nur jeder und jedem empfehlen, dies ebenfalls zu tun: „Wie Sie ja wissen, bin ich ein Gegner von Marx; aber unter seinen vielen Bemerkungen, die ich bewundere, ist die folgende: „In ihrer mystifizierten Form ward die Dialektik deutsche Mode.“ Sie ist’s noch immer. Das ist meine Entschuldigung dafür, dass ich mich auf diese Diskussion nicht einlasse, sondern lieber daran arbeite, meine Ideen möglichst einfach zu formulieren.“339 An der Erwähnung von Marx merken Sie bereits, dass die Poppersche Ablehnung jeglicher ideologischer Heilsversprechen bei mir ebenfalls auf fruchtbaren Boden fiel. Popper und die Digitalisierung, das erscheint mir vielversprechend. Die kommenden Jahre werden zeigen, ob das internetsoziologische Mosaik mehr und mehr Elemente von Popper enthalten wird. Die Wahrscheinlichkeit, dass dies geschieht, ist groß.

2.2 Einflüsse soziologischer und psychologischer Theorien Selbstverständlich gibt es Einflüsse in der Internetsoziologie, die aus der „klassischen“ Soziologie und Psychologie stammen, und die man damit den klassischen Theorien zurechnen kann. Aber es gibt eben keine „Leittheorie“, keine Schule, was meines Erachtens nicht oft genug betont werden kann. Wir nehmen in unserer Abteilung (dem Forschungs- und Arbeitsbereich Internetsoziologie) zur Kenntnis, was hilfreich erscheint, jedoch in Sinneinheiten kleinerer Art. Den einen großen Geist, der stets bevorzugt wird, den gibt es nicht. Dafür gibt es thematische Schwerpunkte, die sich seit 2005 bewährt haben: So liegt der unzweideutige soziologische Schwerpunkt in den beiden gleichermaßen hilfreichen und gut ausgebauten, inhaltlich breit ausdifferenzierten und oftmals auch sehr gut zu lesenden Bereichen Kultur- und Mediensoziologie bzw. Cultural Studies. Jedoch ist auch die behutsame Anwendung sozial- und medienpsychologischer Theorien und Methoden deswegen sinnvoll, um Rückkopplungen zwischen Mikro- und Makroebene, also zwischen Individuen und Gruppen sicherzustellen. Letztlich gilt dasselbe wie 2005: Digitalisierung betrifft uns auf allen Ebenen, und die Schlüssel zum individuellen wie kollektiven Verständnis

339 https://www.zeit.de/1971/39/wider-die-grossen-worte/komplettansicht, abgerufen am 29.4.2019.

2.2 Einflüsse soziologischer und psychologischer Theorien

153

sind ausgewählte Elemente von Psychologie und Soziologie, die zu einer Internetsoziologie (bzw. iterativen Schritten derselben) geformt werden. Zusätzlich war und ist vor allem im Rahmen von Digitale Identitäten auch festzustellen, dass diese Bereiche hinsichtlich der Analyse digitaler Phänomene keinesfalls eindeutig und sauber voneinander abzutrennen sind. In vielen Punkten bewegt sich die eine Disziplin im Bereich der anderen, was aber aufgrund der extremen Aufsplittung des „Forschungsgegenstandes Internet“ weder verwunderlich noch ärgerlich ist. Die digitale Welt berührt dermaßen viele Bereiche unseres Lebens, so dass insgesamt wohl keine Disziplin unbeansprucht bleibt. Aus diesem Grunde ist ein Blick über den Tellerrand nicht nur wünschenswert, sondern sogar dringend notwendig und korrespondiert im Übrigen auch ganz unproblematisch mit der allgemeinen Aussage, dass soziale Analysen mit einer enormen Portion Technikkenntnis erfolgen müssen, die in dem gewünschten Maße nie in soziologischen Seminaren vermittelt worden sein dürften.340 Andreas Diekmann formulierte dies 2016 ganz passend für die Standesgesellschaft deutscher Soziologinnen und Soziologen: „Wenn die Deutsche Gesellschaft für Soziologie (DGS) weiterhin jene [digitalen] Trends verschläft (nur wenige der Gremienmitglieder sind mit den neuen Methoden und Forschungen vertraut), dann werden sich jüngere, innovative Forscherinnen und Forscher von ihrer Standesvertretung abwenden. In jedem Fall aber wird eine Soziologie, die sich den Erkenntnissen anderer Disziplinen und methodischen Neuerungen verweigert, schnell ins Hintertreffen geraten.“341 Zu Beginn meiner Tätigkeit ging es mir zuerst um die Analyse der Identität, d. h. es waren sowohl die individuelle als auch die gesellschaftliche Identität gemeint, ergänzt um die Spezifika der technischen Identität. Dieser Dreiklang erwies sich aber – wie zuvor beschrieben – als generell sehr hilfreich, so dass er uns fortan vielen verschiedenen Zielen näherbrachte. Empirie, welche zum Beispiel in Form von Sekundäranalysen bisheriger Studien Fakten belegen, Tendenzen aufzeigen und vor einem theoretischen Hintergrund auf Muster und Regeln schließen lassen kann, wirkt stets hilfreich, mindestens in flankierender Form. Es ist aber – völlig unabhängig vom konkreten digitalen Forschungsgegenstand – heutzutage schlicht unmöglich, zu jedem Punkt, der weitere Untersuchungen erfordert, eigene empirische Untersuchungen anzuschließen. Zudem ist auch eine Entscheidung, welcher Punkt eventuell bevorzugt werden sollte, kaum durchzuhalten. Mit den zur Verfügung stehenden Mitteln würde dies den Rahmen einer üblichen Forschungsarbeit eindeutig sprengen. Aufgrund des kaum explorierten Feldes erscheint es daher

340 Auch heute ist kein dementsprechendes Seminar bekannt – wenn Sie Detailinfos haben, dann schreiben Sie mir bitte. Ich freue mich sehr über – dringend notwendige – Widerlegungen dieser These. 341 https://www.sueddeutsche.de/kultur/geisteswissenschaften-die-gesellschaft-der-daten-1. 3178096, abgerufen am 29.4.2019.

154

2 Theorie und Fundament

deutlich sinnvoller, sich Schritt für Schritt der Erschließung zu nähern und nicht gleich „alles auf einmal“ zu fordern.342 Dem folgen wir, dem folge ich seit 2005. Eine sinnvolle Herangehensweise war und ist aber, ganz unabhängig von jeglicher Theorie, ein Werkzeugkastenzugang, den auch Foucault und Kittler betonen und der in der von mir definierten Ausprägung des Bastelnden Denkens in Kapitel 3.2 ausführlich dargestellt wird.343 Diese Vorgehensweise scheint dem Forschungsgegenstand angemessen, da dieser durch Fragmentierungen geprägt erscheint. Zudem gibt es bisher keine Theorie, weder in Form einer Weiterentwicklung noch in Form einer Neuerfindung, welche universell erfolgreiche Analysen im digitalen Raum durchführen konnte – und es wird auch keine geben, so der Eindruck nach über zehn Jahren Arbeit in diesem Bereich. Keine Disziplin kann sich heute als die „Digitaldisziplin“ schlechthin fühlen: jede hat ihre Vor- und Nachteile, wobei allen gemein ist, dass sie insbesondere an die Rolle der Digitalität sowie die kulturelle Leistung des Menschen im digitalen Raum nicht ausreichend nah herankommen. „Bastelndes Denken“ nach der Kernidee von Claude Levi-Strauss und Werner Heisenberg ist also nicht nur hilfreich, sondern erscheint schlicht notwendig. Ich habe nie anders geforscht und gelehrt und werde aller Voraussicht nach auch nie anders forschen und lehren. Die Methode hat sich, soviel sei vorweggenommen, ausnahmslos bewährt. Sie ist dabei nicht „meine“ Methode, sie ist für mich die Methode. Das führt direkt zum nächsten Punkt: man sollte sich darüber im Klaren sein, dass es keine bloße Aufzählung oder Berichterstattung geben darf: Medientheorie kann da besonders wirksam sein, wo sie mit Medienpraxis einhergeht. Es wurde bereits zu Beginn dieses Kapitels erwähnt: Forschen Sie selbst! Stellen Sie die Erkenntnisse anderer hintan. So erlangen Sie bestmögliche Kenntnis von sozio-technischen Zusammenhängen. Soziologie und Psychologie haben die Chance, die Technik als Fundament zu sehen, welches durch menschliche Handlungen ausgeformt wird. Diese Zusammenhänge, die den Bau der digitalen Welt vornehmen, sind weder rein technisch noch rein theoretisch. Aus den gewonnenen Erkenntnissen sollte ganz automatisch auch eine Handlungspraxis hervorgehen. Diese Vorgehensweise ist deshalb kein Verzicht auf Klassiker der soziologischen und psychologische Theorie – im Gegenteil: es wird aufgezeigt, wo die Klassiker ihre Passung finden, welche Sinneinheiten welcher Theorie wo gut funktionieren, wo eine brauchbare Deckungsgleichheit vorhanden ist. Diese Chance sollte genutzt werden, um die Analyse des Netzes voranzutreiben und den Menschen Handlungsmöglichkeiten aufzuzeigen. Denn das,

342 Diesen Satz lasse ich so stehen, denn obwohl es eine starke Zunahme an Digitalisierungsanalysen in den letzten zehn Jahren gab, reichen diese bei weitem nicht aus, um auch nur die drängendsten Fragen der hiesigen Digitalisierungswelle zu beantworten. Dies ist auch kaum möglich, weshalb eine Analyse „vom Groben ins Feine“ umso sinnvoller erscheint. 343 In Digitale Identitäten wurden die Begriffe Bastelndes Denken und Werkzeugkastenzugang noch synonym verwendet. Dies soll an dieser Stelle nicht mehr geschehen und wird auch im weiteren Verlauf dieser Arbeit stets zu vermeiden versucht.

2.3 Die Rolle der Politik

155

was die digitale Welt mit Sicherheit wohl am meisten braucht, ist Kompetenz im Umgang mit ihr. Letztlich generieren Sie bei sozio-technischen Analysen „Ihre“ (eigene) Internetsoziologie. Damit lösen Sie sich von „der einen Schule“ und generieren ihre eigene – für diesen Einzelfall. Gewiss wird es auch Schnittmengen mit weiteren Analysen geben, aber ich stimme Heinz Bude voll und ganz zu, wenn er sagt: Es gab tatsächlich [zu Zeiten der „68er“, welche vor allem in der Soziologie ganze Studiengänge und letztlich auch Weltenerklärungen prägten] den Glauben, dass Bücher existieren, in denen die wahre Wahrheit steht. Eine Wahrheit meiner selbst, eine Wahrheit der Welt. Das kann man sich heute nicht mehr vorstellen. Solch umfassende Bedeutung der Schrift hat es nach 1968 nicht noch mal gegeben.344

Heute, in Zeiten der Nichtexistenz, ja: der für jedermann klar erkennbaren Unmöglichkeit solcher Handlungs- und Rollen-„Vorbilder“, ist Sein – und damit auch Wissenschaft – mehr denn je Bastelarbeit. Das Leben ist als Prozess erkennbar geworden, der kaum mehr Zwischenzustände kennt. Ein andauerndes Problem der Soziologie als Fach im Wissenschaftsbetrieb ist ihre Politisierung, die nicht nur ganz allgemein zu kritisieren und zu bedauern ist und mich persönlich massiv stört, sondern auch in der jüngeren Vergangenheit Anlass für Streit war, was an dieser Stelle exemplarisch nur ganz am Rande an Ereignissen rund um die Gründung der Akademie für Soziologie in Deutschland aufgezeigt werden soll. Einflussreiche Soziologen wie Jürgen Gerhards bezogen hier eindeutig Stellung und begründeten ihr Engagement für die neue Akademie aufgrund bisheriger Ereignisse in der deutschen Soziologie: „Zunahme der Ideologisierung – Indikator: politische Einlassungen auf schwacher empirischer Grundlage und mit schwacher Reflexion über die Werturteilsproblematik“.345 Wie man mit diesem Problem umgehen kann (bzw. wie ich damit umging), soll im folgenden Abschnitt gezeigt werden.

2.3 Die Rolle der Politik Es könnte eigentlich ganz einfach sein – indem man beispielsweise DFG-Präsident Peter Strohschneider zuhört und zustimmt: „Die Wissenschaft hat kein politisches Mandat – und es fehlt ihr auch nicht.“346 Doch nicht wenige Kolleginnen und Kollegen betrachten ihr wissenschaftliches Wirken als Teil einer größeren Mission. Sie

344 http://www.spiegel.de/kultur/gesellschaft/heinz-bude-ueber-adorno-metoo-und-was-von-68bleibt-a-1187437.html, abgerufen am 5.8.2018. 345 https://www.polsoz.fu-berlin.de/soziologie/arbeitsbereiche/makrosoziologie/mitarbeiter/lehr stuhlinhaber/dateien/Gerhards—Exit-Voice-and-Loyality-Akademie-fuer-Soziologie.pdf, abgerufen am 5.5.2019. 346 https://www.youtube.com/watch?v=HS-hwbX-SWQ, abgerufen am 28.4.2019.

156

2 Theorie und Fundament

sind beispielsweise „Bewegungsforscher“ – aber nicht nur, weil sie soziale Bewegungen aus theoretischer oder methodischer Sicht interessieren, sondern weil sie (in diesen Fällen oftmals sehr weit links stehende) Sozialpolitik machen wollen. Ich halte das nicht nur für falsch, sondern für schädlich, und teile die Ansicht von Jürgen Gerhards, die KollegInnen zu stärken, zu fördern und vorrangig zu beachten, die anders vorgehen, sprich: mit „Vorsicht bei politischen Stellungnahmen und wohl begründete[r] ideologische[r] Abstinenz“.347 Wenn mich ein Journalist anruft, weiß ich: das geschieht aufgrund meiner wissenschaftlichen Aktivitäten. Diese Rolle für ein politisches Statement, für eine (partei)politische Positionierung jenseits von universellen Werten, jenseits von Demokratie und Menschenrechten zu missbrauchen, halte ich für grundfalsch. Die Menschen nehmen uns, wenn wir als WissenschaftlerInnen sprechen, auch als WissenschaftlerInnen wahr – vor allem dann, wenn die Medienpräsenz entsprechend umfangreich ist. Dann ist man beispielsweise in meinem Falle „der Internetsoziologe“. Diesen Status dann mit einer politischen Botschaft rechter oder linker Couleur zu verbinden („Wählt die Partei X!“), ist meines Erachtens ein absolutes No-Go. ExpertInnen bzw. der ExpertInnenstatus sind in den letzten Jahren ohnehin schon massiv unter Druck geraten. (Stichworte wären auch hier unter anderem Fake News und Lügenpresse.) Dagegen kann man in vielen Fällen als Einzelperson wenig tun, denn die großen Mechanismen sind nicht immer individuell beeinflussbar, geschweige denn kontrollierbar. Aber man muss nicht auch noch Öl ins Feuer gießen. Denn was man individuell immer tun kann, ist: wissenschaftlich bleiben. Wer seine wissenschaftlichen Aussagen mit politischen Ideen vermischt, läuft immer Gefahr, das Wissenschaftliche zu verfälschen. Wer politisch aktiv sein will, muss dies sauber vom wissenschaftlichen Arbeiten trennen – oder besser noch: keine aktive Politik betreiben. Ich persönlich kann und will nur „entweder – oder“. Meine Entscheidung war für die Wissenschaft, d. h. Forschung und Lehre auf dem Boden des Grundgesetzes, eintretend für Demokratie und Menschenrechte im Falle ihrer Gefährdung. Proaktive politische Aktivitäten, die darüber hinausgehen, wurden und werden unterlassen. Dass ich beispielsweise Vorsitzender des Netzwerk Terrorismusforschung e. V. bin, ändert daran nichts: auch hier sind wir gemäß Satzung und persönlicher Einstellung pro Demokratie – und gegen alle (!) Extremismen, die die freiheitlich-demokratische Grundordnung überwinden wollen. Ob wir oder unsere Mitglieder CDU-, SPD-, Grünen- oder andere Parteimitglieder oder -anhängerInnen sind, ist uns egal – solange es demokratisch bleibt. Das ist das Maximum an Politik in der Wissenschaft, das ich vertreten kann. KollegInnen, die jedoch deutlich erkennbar „Politik machen“, dies aber nicht entsprechend vom wissenschaftlichen Arbeiten trennen (können), kann

347 https://www.polsoz.fu-berlin.de/soziologie/arbeitsbereiche/makrosoziologie/mitarbeiter/lehr stuhlinhaber/dateien/Gerhards—Exit-Voice-and-Loyality-Akademie-fuer-Soziologie.pdf, abgerufen am 5.5.2019.

2.3 Die Rolle der Politik

157

ich leider nur sehr eingeschränkt ernstnehmen. Politisierung schadet meines Erachtens der Wissenschaft. Und zwar sehr deutlich. Manchmal muss man sich eben für eine Rolle entscheiden, so schwer es auch fallen mag. Geschieht dies nicht, hat es spürbare Konsequenzen, denn die Rollenvermengung bleibt nicht unbemerkt. Dies soll anhand eines (!) Beispiels348 dargestellt werden: Schaut man sich die Zahlen an, stellt man fest: ja, es gibt tatsächlich die ungebildeten Trump-Wähler, es gibt auch die Hasswähler und es gibt auch die Clinton-Verächter. Aber es gibt neben all diesen Gruppen mindestens noch eine weitere und sicher nicht gerade kleine Gruppe, ohne die US-Präsident Donald Trump nie den Erfolg gehabt hätte, den er jetzt feiert: nennen wir sie hier “die von links Belehrten”. Was das bedeutet? Das ist ganz einfach darzustellen. Die folgenden Zitate illustrieren mein persönliches medienanalytisches Fazit der US-Präsidenten-Wahl, welches den “von links Belehrten” eine große Relevanz zuspricht . . . Die Ungleichzeitigkeit des sozialen Fortschritts hat ihren Preis. Schwule können in 50 Bundesstaaten heiraten, aber das soziale Überleben der Arbeiter hängt am seidenen Faden. Der Spätkapitalismus nährt überbordende Wut. Weiße Arbeiter erleben die Diskurse der intellektuellen Eliten wie eine Demütigung. Dass die tonangebenden intellektuellen Minderheiten sich über sie lustig machen, sie hinterwäldlerisch finden, bespielt eine Klaviatur von Gefühlen, auf der Trump spielt wie kein zweiter. Die Neue Linke betrachtet die Arbeiterklasse nicht als ihren Verbündeten. Unfassbare Ironie der Zeitgeschichte! Die Absurdität gipfelt darin, dass der um sein soziales Überleben kämpfende weiße Arbeiter sich von Studierenden der Ivy-League-Universitäten seine Privilegien unter die Nase reiben lässt. Das geht nicht gut aus.349 Fassungslosigkeit, Entsetzen, bisweilen eine Spur Verachtung für die Wähler Trumps. ‚White Trash‘, so nennt man sie tatsächlich, was wohl heute niemand mehr über rassische Minoritäten in den Vereinigten Staaten zu sagen wagte. Feldenkirchen benannte dabei das Problem der amerikanischen Politik ziemlich genau: Ihre „Unfähigkeit zum Dialog“. Allerdings kam niemand auf die Idee, ob diese Dialogunfähigkeit wirklich nur etwas mit Donald Trump zu tun. Oder nicht doch auch etwas mit der eigenen Arroganz.350 Und für einige Tage wenigstens sollten wir uns Beschämung und auch die Frage nicht ersparen, mit welcher demokratischen Berechtigung wir denn eigentlich glaubten, diese Welt unserer eigenen Werte jenen Mitbürgern auferlegen zu dürfen, die wir im besten Fall nicht ernst nehmen. Und gemeinhin als „white trash“ verachten (obwohl wir natürlich als politisch korrekte Aufklärer solche Worte nie in den Mund – oder unsere schreibenden Hände – nähmen).351

348 Es gibt sicherlich zahlreiche Beispiele, doch hier sei nun unter anderem aus Platzgründen nur dieses eine dargestellt. 349 https://kursbuch.online/hans-huett-auf-dem-weg-in-die-tyrannei-volltext, abgerufen am 29.4.2019. 350 http://www.faz.net/aktuell/feuilleton/medien/tv-kritik/tv-kritik-ard-wahlnacht-donald-trumpwird-us-praesident-14519714.html, abgerufen am 29.4.2019. 351 https://www.welt.de/kultur/article159389903/Wir-haben-Trumps-Anhaenger-zu-lange-verach tet.html, abgerufen am 29.4.2019.

158

2 Theorie und Fundament

So, wie es bei Buddhastatuen Körperhaltungen gibt, die ausdrücken, dass der Erleuchtete gerade etwas lehrt, wird man sich an Barack Obama erinnern als ethischen Erzieher, der mahnt: Bekehrt euch zur Krankenhilfe nach dem Solidarprinzip, zu nachhaltiger Energie als Klimaschutzmaßnahme, zur Achtung der Würde auch von Gefangenen, zur internationalen Politik des Ausgleichs anstelle von Vorherrschaftsarroganz, zu Kosmopolitismus, Antirassismus, Antisexismus, wie ihn die Gebildeten und Toleranten in New York schon lange lieben und leben. (. . .) Immer eifriger warf sich die Mitte-Links-Crew in die Erziehungs- statt in die langweiligere, an Zahlen und Verfahren orientierte Aufklärungsarbeit. (. . .) Elitär und salonlinks sollte nach dem Willen der in den armen Bernie Sanders Verliebten jede und jeder sein, die hier skeptisch blieben und lieber hofften, dass Hillary Clinton der Versuchung widerstehen würde, ihre aus Torschlusspanik resultierende technokratische Gerissenheit gegen ein peinliches „Die große Schwester hat euch lieb“-Streichelzoo-Theater auszutauschen, in das sie sich schließlich fallen ließ und das sie zur Niederlage geführt hat.352

Die „Belehrung von links“ fiel und fällt mir bei meiner Medienanalyse seit Jahren auf. (Sie wurde dann im Rahmen einer einsetzenden Selbstreflexion in den vergangenen Jahren etwas schwächer, scheint aber nun, in 2019, aber wieder zuzunehmen – aus Ignoranz, weil man wieder die Deutungshoheit zurückgewinnt oder aus einem „Jetzt erst recht!“-Momentum heraus? Ich weiß es nicht.) Es ist ein auch in Deutschland immer wieder vorzufindendes Handlungsmuster. Wenn die politische Linke unter den gegenwärtigen Bedingungen wieder erfolgreich sein will, muss sie, so mein Eindruck, zuerst mit der oberlehrerhaften Belehrung der Andersdenkenden aufhören. Da hilft es auch nicht, in vielen Fällen objektiv moralisch/ethisch richtig zu liegen. Solange das Oberlehrerhafte nicht eingestellt wird, dürfen sich beispielsweise Grüne und Linke nicht über ihre Wahlverluste beschweren. Denn es gilt, was Karl Popper sagte: „Die Hybris, die uns versuchen lässt, das Himmelreich auf Erden zu verwirklichen, verführt uns dazu, unsere gute Erde in eine Hölle zu verwandeln.“ Sie merken, ich halte nicht viel von Aktivismus. Er gehört nicht in die Wissenschaft, davon bin ich fest überzeugt. Die einzige Ausnahme, die Verteidigung unserer freiheitlich-demokratischen Gesellschaft, versteht sich meines Erachtens ohnehin von selbst. Aber in diesem Falle gilt: Wissenschaft und Politik sind zwei Aktionsfelder, die sich gegenseitig ausschließen. Wer das eine macht, kann das andere nicht (mehr) machen. Und beiden Aktionsfeldern würde es besser gehen, wenn Vermengungen unterbleiben würden. Das eine zu machen und gleichzeitig das andere zu unterlassen, das ist der einzige Weg, Wissenschaft und Politik zu fördern.

2.4 Digitale Eigengesetzlichkeiten Die digitalen Eigengesetzlichkeiten sind sicherlich das Paradebeispiel für die Ambivalenz dieses Projekts. Sie sind mit absoluter Sicherheit und sehr großem Abstand

352 http://www.faz.net/aktuell/feuilleton/debatten/streiten-statt-belehren-gruende-fuer-trumps-er folg-14520824.html, abgerufen am 29.4.2019.

2.4 Digitale Eigengesetzlichkeiten

159

das Wichtigste, was die Internetsoziologie zu bieten hat – kommen sie doch einem kleinsten gemeinsamen Nenner, einer ewigen Schnittmenge aller bereits analysierten und noch zu analysierenden (!) Phänomene am nächsten. Damit sind die digitalen Eigengesetzlichkeiten die Aspekte, Elemente oder Bestandteile des Digitalen (wie auch immer man es genau ausdrücken möchte), die Digitalisierung von allen anderen Phänomenen unterscheidbar, die Digitalisierung einzigartig machen. Die digitalen Eigengesetzlichkeiten zeichnen die Digitalisierung aus. Sie haben Ewigkeitscharakter und sind unverzichtbar. Wie bei so vielen Einzelaspekten in diesem Projekt ist auch die Entscheidung, nach den Merkmalen zu suchen, die das neue Phänomen Digitalisierung im Kontext seiner Vergesellschaftung einzigartig machen, kein besonderer Geniestreich. Sie ist vielmehr – ebenfalls so wie viele andere Einzelaspekte – eine logische Konsequenz, denn anhand der Merkmale, die Dinge/Phänomene/ . . . voneinander unterscheiden, lassen sich in der Folge entsprechende Definitionen vornehmen. Dies sieht man besonders gut anhand des wahrscheinlich ersten und damit „historischen“ Elements, welches von mir als digitale Eigengesetzlichkeit bezeichnet wurde: der Dynamik der Digitalisierung. Diese unterscheidet sich von allen anderen bekannten Techniken und ist in Hinblick auf ihre Geschwindigkeit außergewöhnlich, da extrem schnell. Das Internet im Besonderen und die Digitalisierung im Allgemeinen weisen in nahezu jeglicher Hinsicht eine extreme Dynamik auf: hinsichtlich ihrer technischen Entwicklung, ihres Möglichkeitszuwachses, ihrer Vernetzbarkeit und tatsächlichen Vernetzung – es gibt sehr viele digitale Bereiche, die als sehr dynamisch bezeichnet werden können. Folglich war „Dynamik“ ein erstes brauchbares Merkmal, mit dem man die Digitalisierung und ihre gesellschaftlichen Folgen beschreiben konnte. Zugleich ist es aber auch ein äußerst unbefriedigendes Merkmal. Denn irgendwie ist stets alles dynamisch, was nicht tot ist – und wie legt man dabei noch eine Definition von „extrem“ an? Die Dynamik des Netzes erscheint mehr als etwas Abstraktes, fast schon etwas Mythisches. Jeder weiß, was gemeint ist, wenn man von der Dynamik der Digitalisierung oder der Dynamik des Internets redet, doch was genau gemeint ist, bleibt meist im Dunkeln. Alle digitalen Eigengesetzlichkeiten sind somit mindestens über diesen Weg angreifbar. Denn kein einziger Aspekt dürfte final unangreifbar sein, schon allein aus Gründen des Zeitverlaufs nicht. Eine Ewigkeitsgarantie, ein ewiges Merkmal gibt es nicht, denn wer weiß schon, welche Merkmale künftige Entwicklungen und Phänomene haben werden? Alle digitalen Eigengesetzlichkeiten sind damit nur bedingt wertvoll – und zugleich eben doch außergewöhnlich wertvoll. Denn ohne sie gibt es gar keine vernünftige Grundlage für ein Fortkommen. Man braucht diese vagen Eigengesetzlichkeiten, mit ihren vagen Definitionen, ihrer vagen Haltbarkeit und ihrer unauflöslichen Ambivalenz. Aus diesem Grunde wird an dieser Stelle auch auf eine Liste mit Eigengesetzlichkeiten digitaler Art verzichtet und stattdessen die Aufgabe der Suche nach den digitalen Eigengesetzlichkeiten betont. Für mich persönlich ist die Relevanz inzwischen so klar, dass ich behaupten möchte, die Suche nach

160

2 Theorie und Fundament

den digitalen Eigengesetzlichkeiten als wissenschaftliches Lebensthema erkannt zu haben. Wenn die Internetsoziologie eine Kernaufgabe hat, dann die der Definition von Digitalisierung in der Gesellschaft: Was zeichnet die digitale Gesellschaft aus? Und wie prägt die Technik diese Entwicklung? Welche Eigengesetzlichkeiten, die Digitalisierung von allen anderen Techniken unterscheiden, spielen wo welche Rolle? Um diese Fragen muss es gehen. Jeden Tag. Sie finden einige der Eigengesetzlichkeiten in diesem Buch, aber erwarten Sie bitte keine Liste, Übersicht oder Sammlung. Noch traue ich mir so etwas nicht zu. Vielleicht finden Sie eine solche Sammlung demnächst in unserem Wiki.353 Doch das dürfte noch eine Weile dauern – (auch) der Angreifbarkeit ihrer Definition sei Dank.

2.5 Das Framework-Prinzip Nachdem im bisherigen Verlauf des zweiten Kapitels die wesentlichen inhaltlichen Ausgangspunkte und der Umgang mit ihnen beschrieben wurde, wird nun das aus diesem Strukturfundament entworfene Konzept – Sociality by Design – vorgestellt. Dieses Konzept ist die erste – und wichtigste – konkrete, d. h. einsatztaugliche Ausprägung der Internetsoziologie. Es basiert auf dem interdisziplinär bekannten By-Design-Ansatz und wurde von mir erstmals 2011 vorgestellt (siehe sozial-technisches Plus-Vier-Modell). Seitdem erfolgte eine Anpassung und Weiterentwicklung vor allem in Richtung entsprechender Sicherheitsforschungsvorhaben, so dass die in der Sicherheitsforschung stets erwünschte Sozialität (Sociality) durch ein Rahmenkonzept (by Design) sichergestellt werden kann. Dass dieses Konzept letztlich auf sehr positive Resonanz stieß, kann unter anderem in Kapitel 4.1 nachgelesen werden. Damit ist aber nicht gesagt, dass das Konzept so, wie es hier zu finden ist, „fertig“ ist. Wie alles im internetsoziologischen Kontext ist es ein Angebot: machen Sie selbst etwas draus! In der Folge soll nun der Stand der Forschung hinsichtlich einer Idee eines Rahmenkonzepts dargestellt werden, welches zeitgemäße und an digitale Eigengesetzlichkeiten angepasste Sozialität in der digitalen Forschung, Entwicklung und Gestaltung von Beginn an ermöglicht – ohne an die Expertise von Sozialwissenschaftlerinnen und Sozialwissenschaftlern gebunden zu sein. Selbstverständlich erschiene es denkbar, den Sachstand gegenwärtiger und vergangener digitaler Forschung so weit wie möglich von der Informatik, der Sozialwissenschaft bzw. der Rechtswissenschaft zu entfernen, um – bis hin zu einem Fundament aus sehr philosophischen, hinsichtlich erkennbarer Wissenschaftsdisziplinen nahezu völlig aufgelösten Dimensionen – lediglich lebensweltliche Grundannahmen als Status Quo zu berücksichtigen, die dann ihrer Übersetzung in digitaltechnische Lebenssachverhalte (wie Verbundforschungsprojekte, konkrete Anwendungen oder digitale Ein-

353 http://www.humer.de/wiki.

2.5 Das Framework-Prinzip

161

satzszenarien) harren. Dies mag noch nicht einmal völlig unüblich sein, denn viele Forschungsvorhaben beginnen mit einem gemeinsamen Brainstorming vor einem weißen Blatt Papier. Doch bei der aktuellen Quellenlage wäre diese Vorgehensweise aus projektökonomischen und auch grundsätzlichen wissenschaftstheoretischen Erwägungen ebenso abwegig wie insgesamt viel zu oberflächlich, denn selbstverständlich gibt es interessante Rahmenkonzepte und ähnliche Ideen in den drei genannten Disziplinen, die für eine sichere Gestaltung und Anerkennung von digitaler Sozialität von großer Bedeutung sein können. Diese in der Folge präsentierten Ergebnisse der Analyse des relevanten interdisziplinären By-Design-Forschungs- und Ideenstands in Informatik, Rechtswissenschaften, Soziologie und Psychologie sind in einer hinsichtlich ihrer Relevanz absteigenden Rangfolge strukturiert. Wichtig ist, dass gleich zu Beginn festzuhalten bleibt: Konzepte mit einer weit überwiegenden Ähnlichkeit zu Sociality by Design (oder gar fast oder vollständig deckungsgleiche Konzepte) gibt es offenbar keine. Es ist sogar festzustellen, dass mindestens bis zum (von mir mitgestalteten) Verbundforschungsvorhaben MisPel im Jahre 2012 offenbar kein ganzheitlicher Diskurs zwischen den drei entscheidenden Dimensionen der digitalen Sicherheitsforschung – Technik, Recht und Gesellschaft – im Sinne der By-Design-Logik gewagt wurde, sondern die rechtliche und/ oder sozialwissenschaftliche Begleitforschung in technischen Verbundforschungsprojekten stets auch genau dies war: Begleitforschung. Da By-Design-Forschung nicht nur an Wahrnehmung, sondern auch an Relevanz gewinnt und immer stärker eingefordert wird, erscheint hier die Bedarfslücke, die Sociality by Design nun füllen will.354 Andererseits gibt es jedoch auch nicht nichts: selbstverständlich haben sich viele Menschen Gedanken über Konzepte gemacht, die dem ersten Schritt der logischen Strukturierung eines Rahmenkonzepts (beispielsweise nach dem groben Schema „Beurteilen – Definieren – Realisieren“355) weitere sinnvolle Schritte folgen lassen. Nur münden diese Schritte eben, nach meiner Beobachtung, nicht in ein By-Design-Konzept für Sozialität. Dabei hat ein solches Konzept tatsächlich zahlreiche Vorteile. Die By-Design-Logik von Privacy, Security und Sociality by Design ermöglicht eine ganz andere (und das heißt vor allem: qualitativ bessere, weil passgenauere) Verwebung von Recht (Privacy),

354 Siehe dazu beispielsweise die Forderung des Bundesamtes für Sicherheit in der Informationstechnik im Bericht „Die Lage der IT-Sicherheit in Deutschland 2015“ bezüglich Security by Design („Hersteller sollten [. . .] bei der Produktentwicklung dem Security-by-design-Ansatz folgen“), https://www.bsi.bund.de/SharedDocs/Downloads/DE/BSI/Publikationen/Lageberichte/Lagebe richt2015.pdf?__blob=publicationFile&v=4, abgerufen am 25.8.2016, aber auch die prominente Platzierung von „X by Design“-Ansätzen im Wissenschafts- und Industrieforum 2017 des Heinz-Nixdorf-Instituts der Universität Paderborn, https://www.hni.uni-paderborn.de/wissenschafts-undindustrieforum/wissenschaftsforum/themen/, abgerufen am 25.8.2016. 355 Ähnlich dem IT-Governance-Modell von Deloitte, siehe beispielsweise Ratzer, Lohmann und Riesenberg, S. 20, oder frei nach den Phasen der Technikbewertung nach VDI 3780, S. 27.

162

2 Theorie und Fundament

Technik (Security) und Gesellschaft (Sociality) bereits im Vorfeld eines Sicherheitsprojekts, was auch explizit in den Verbundprojekten MisPel und PERFORMANCE356 eingefordert und als besonders innovativ gelobt wurde.357 MisPel endete 2015,358 währenddessen PERFORMANCE 2016 erst startete, jedoch die Rahmenbedingungen hinsichtlich strukturierter Sozialitätsgestaltung in den vergangenen Jahren gerade im bedeutenden deutschsprachigen Raum keinerlei entscheidende Änderung erfuhren. Es gibt keine vergleichbaren sozialwissenschaftlichen Herangehensweisen an die Gestaltung eines Systems, wie es in PERFORMANCE vorgesehen ist – es dominieren vorrangig Einzelfalllösungen oder maximal Kleinkonzepte.359 Ein allgemein gültig erscheinendes Konzept entsprechender By-Design-Gestaltung ist nicht bekannt, doch ein solches erscheint besonders hilfreich und aufgrund der sozialwissenschaftlichen Rahmenbedingungen in PERFORMANCE exemplarisch realisier- und ausbaubar; das liegt vor allem daran, dass in diesem Projekt erstmals ganzheitlich die drei byDesign-Ansätze Privacy by Design, Security by Design und Sociality by Design von Beginn an miteinander kombiniert eingesetzt werden und mit dem Projekt MisPel entsprechend hilfreiche Vorarbeiten geleistet wurden, auf die nun zurückgegriffen werden kann. Während Privacy by Design inzwischen in der Fachwelt ausreichend bekannt sein sollte,360 ist Security by Design361 wohl noch etwas weniger verbreitet, jedoch nicht nur hochinteressant und vielversprechend, sondern auch passgenau in Hinblick auf eine ganzheitliche Konzeptverwebung. Allerdings sind beide Komponenten allein weiterhin nur teildisziplinfokussiert, d. h. es fehlt zur Ganzheitlichkeit noch die soziale Komponente – und diese Lücke füllt Sociality by Design,362 so die Idee. Sociality by Design füllt damit schließlich eine nicht nur marginale Lücke, die bisher oft dazu führte, dass sozialwissenschaftliche Begleitforschung (und damit die Berücksichtigung der gesellschaftlichen Komponente) strukturell wie inhaltlich in großen Verbundprojekten eher ein Nischendasein fristete. Durch die Herstellung eines By-Design-Nenners und die so gegebene Anschlussfähigkeit an Technik und

356 Ein weiteres Verbundforschungsprojekt, an dem ich als Teilprojektleiter für die sozio-technische Forschung beteiligt bin, siehe beispielsweise http://www.sifo.de/files/Projektumriss_PERFOR MANCE.pdf, abgerufen am 8.8.2016; der gesellschaftswissenschaftliche Projektteil war nach Auskunft des Projektträgers ausschlaggebend für die Bewilligung des Projekts. 357 So beispielsweise bei der Antragsvorbesprechung mit dem Projektträger am 10. November 2015. 358 Es fand über den ursprünglichen Endzeitpunkt 31.12.2014 noch eine viermonatige Verlängerung statt, an der der Verfasser in seiner Rolle als Teilprojektleiter jedoch nicht mehr teilnahm. 359 Gut erkennbar ist dies bei Recherchen in Google Scholar, beispielsweise mithilfe des Suchbegriffs „By Design“, siehe dazu https://scholar.google.de/scholar?lr=lang_de&q=%22by+design%22&hl= de&as_sdt=0,5&as_ylo=2012 für deutschsprachige Ergebnisse seit 2012, abgerufen am 8.8.2016. 360 Privacy by Design. http://www.bfdi.bund.de/SharedDocs/Publikationen/%22PrivacyByDesign %22.pdf?__blob=publicationFile, abgerufen am 28.1.2016. 361 Entwicklung sicherer Software durch Security by Design. https://www.kastel.kit.edu/down loads/Entwicklung_sicherer_Software_durch_Security_by_Design.pdf, abgerufen am 28.1.2016. 362 Sociality by Design. http://www.socialitybydesign.org, abgerufen am 28.1.2016.

2.5 Das Framework-Prinzip

163

Recht wird die sozialwissenschaftliche Forschung „auf Augenhöhe“ angesiedelt und es werden gleichzeitig alle drei Dimensionen deutlich gestärkt. Rahmenkonzepte für Teilbereiche der digitalen Technikentwicklung (z. B. für Organisationen oder den Schwerpunkt Datenschutz) gelten schon seit einiger Zeit als hilfreich, realisierbar und erstrebenswert (eben Privacy und Security by Design, BSI IT-Grundschutz/ISO/ IEC 27001, diverse Toolkits und proprietäre Rahmenkonzepte, organisationsspezifische Compliance- und Ethik-Regelungen u. ä.). Solche systematischen Ansätze sind ein großer Schritt in die richtige Richtung und zweifellos besser als kleinere oder Einzelfall-Projektlösungen, die nur schwer Verallgemeinerungen zulassen, so dass über die einzelne Lösung hinaus kein Mehrwert für vergleichbare nachfolgende Projekte entsteht (was insbesondere in der gesellschaftlich sensiblen und oft teuren Sicherheitsforschung zur Vermeidung von Fehlern und Redundanzen jedoch durchaus wünschenswert wäre). Eine starke Verwebung aller relevanten Gestaltungsdimensionen ergibt jedoch ein Konzept „aus einem Guss“, von dem auch nachfolgende Projekte lernen und profitieren können. Angesichts der zunehmenden Komplexität einer immer digitaleren Gesellschaft und der daraus resultierenden notwendigen Interdisziplinarität von Forschung und Entwicklung sind rein technik- oder rechtswissenschaftliche Ansätze nicht ausreichend: es fehlte bisher an Projekten, die die By-Design-Logik konsequent umfassend aufgreifen, denn wenn beispielsweise Datenschutz bei einer Softwarenentwicklung auf Firmenebene stehen bleibt oder nur an die Usability, nicht aber an Datensparsamkeit gedacht wird, wird das „Skalieren in die Gesellschaft“ vernachlässigt – es entstehen automatisch „blinde Flecke“ einer proprietären Einzelfalllösung. Bei so gravierenden Eingriffen in unsere Gesellschaft wie durch viele Entwicklungen geschehen – als Beispiele seien hier Videoüberwachung, Vorratsdatenspeicherung und der neue Personalausweis genannt, aber eben auch die Nutzung von Daten (via Social Media) zu Fahndungszwecken – ist dies eine zumindest fahrlässige Nichtberücksichtigung der komplexen Lebensrealität – und, so die These, durchaus vermeidbar: eben durch eine Maßnahme „aus einem Guss“. Ein solcher Mangel soll nun konkret durch den „Überbau“ bzw. das hiesige Rahmenkonzept Sociality by Design beseitigt werden, ein Konzept, welches zeitgemäße und an digitale Eigengesetzlichkeiten angepasste Sozialität („Sociality“) von Beginn an („by Design“) ermöglicht. Oder anders gesagt: es geht dabei um ein Technikgestaltungs-Rahmenkonzept, welches zuerst von Privacy by Design (und dann später auch von der Idee Security by Design) maßgeblich inspiriert wurde, jedoch in einem gesamtgesellschaftlichen Kontext steht, dabei über bloße Empfehlungen hinausgeht und konkrete Handlungsvorschläge (wie z. B. bei BSI-Standard 100–2 und 100–3 bzw. seit Oktober 2014 200–2 und 200–3) im Rahmen eines Toolkits bzw. einer Datenbank unterbreitet. Es geht also nicht mehr nur um die Ebene des einzelnen Anwenders (Mikro), auch nicht nur um die Organisationsebene (Meso), sondern um diese beiden Ebenen und die Technikauswirkungen in der gesamten digitalen Gesellschaft (Makro). Diese drei Ebenen werden in der Folge ganzheitlich

164

2 Theorie und Fundament

berücksichtigt, wobei die Mesoebene den Kern von Sociality by Design ausmacht, welcher auf Mikro- und Makroebene ausstrahlt. Ebenen

Milieu

Prozess

Makro

Technikauswirkungen in der gesamten Gesellschaft

Tendenzanalysen

Meso

Technikauswirkungen in der Organisation

Mikro

Technikauswirkungen auf der Anwenderebene

korrespondiert

Grundprinzipien

miteinander

Wenn-dann-Ebene

Abbildung 2: Sociality by Design auf allen drei Ebenen.

Diese Vorgehensweise erscheint besonders gut geeignet, um Forschungsfragen aus Sicht einer „interessierten Institution“ (in exemplarischen Projekten wie MisPel und PERFORMANCE: der Polizei als assoziierten Partner) oder auch der Technikpartner, Programmierer, Entwickler oder Gestalter zu beantworten (in Abbildung 2: MesoEbene/die Organisation). Sociality by Design widmet sich dabei auf allen drei Ebenen so vielen relevanten sozio-technischen Einflussfaktoren wie möglich, beispielsweise dem psychologischen Aspekt des Identitätsmanagements auf der Mikroebene, dem sozialen Phänomen von Kontrolle im Internet oder dem Umgang mit dem technisch unmöglichen Vergessen im digitalen Raum auf der Mesoebene und auf der Makroebene den politischen Implikationen, welche beispielsweise durch die Enquete-Kommission Internet und digitale Gesellschaft,363 aber auch durch die Digitalstrategie der USA364 symbolisiert werden.

363 Enquete-Kommission Internet und digitale Gesellschaft. http://webarchiv.bundestag.de/cgi/ show.php?fileToLoad=2944&id=1223, abgerufen am 28.1.2016. 364 DIGITAL GOVERNMENT: BUILDING A 21ST CENTURY PLATFORM TO BETTER SERVE THE AMERICAN PEOPLE. http://www.whitehouse.gov/sites/default/files/omb/egov/digital-govern ment/digital-government-strategy.pdf, abgerufen am 28.1.2016.

2.5 Das Framework-Prinzip

165

Quelle dieser Einflussfaktoren, die letztlich das Fundament des Konzepts begründen, ist im Wesentlichen die sozio-technische Analyse, die im Forschungsvorhaben MisPel erfolgte. In diesem Verbundprojekt wurde an einem System für die (semi-)automatisierte Erkennung von ermittlungstechnisch relevanten Personen aus Lichtbildund Videomassendaten gearbeitet. Das sozio-technische Arbeitspaket widmete sich dabei den o. a. Einflussfaktoren in Form einer mehrjährigen Tendenzanalyse digitaler Medien zum Thema (Multi)Biometrie (Makroebene) sowie durch Arbeits(platz)analysen und Experteninterviews mit den beteiligten Programmierern (Mesoebene) und Polizisten (Mikroebene). So entstand ein erstes tragfähiges Bild von in der exemplarischen Praxis festgestellten Einflussfaktoren, dessen Induktion das eigentliche Konzept im Kern (konkret in Form von Bausteinen) ausmacht und hier nun dem Projekt Sociality by Design zugutekommt. Zugleich konnten sich die Methoden, die eingesetzt wurden, exemplarisch bewähren. Dort, wo MisPel bzw. letztlich auch PERFORMANCE (bisher) keine eigenen Lösungen bieten konnten, wird eine Anknüpfungsmöglichkeit an Lösungen Dritter hergestellt (z. B. andere Verbundprojekte, Studien, Konzepte, Gesetze), so dass letztlich zu jeder relevanten Technikgestaltungsfrage ein Lösungsweg angeboten werden soll. Durch die hier skizzierte Grundstruktur und die in der Folge dargestellten Prozesse und Methoden werden die wichtigsten Aspekte einer digitalen Forschungsfragestellung ganzheitlich analysiert und konkrete Lösungsvorschläge abgeleitet. Sociality by Design betritt somit erkennbar neues Terrain – sowohl alleinstehend als auch im Zusammenspiel mit Privacy und Security by Design. Um den Sachstand dieser Forschung darzustellen, die in brauchbar erscheinender Weise mit dem Thema Sozialität qua Konzept in Berührung kam, erfolgt eine Übersicht in dreifacher Form: – Zuerst werden die By-Design-Konzepte365 vorgestellt, welche zwangsläufig am nächsten an die eigene Idee heranreichen bzw. zumindest offensichtlich „ausbeutbar“ (im Sinne der Ableitung von konkreten Bausteinen366) für Sociality by Design erscheinen. – Danach werden individuelle Handbuch-Konzepte vorgestellt, welche aufgrund ihrer Verwandtschaft mit der Rahmenkonzeptidee interessant erschienen und/ oder von den Kollegen im Projektrahmen empfohlen worden und deshalb seit der Projektvorbereitungsphase (also ab dem Jahre 2009) auf ihre Passung untersucht worden sind, beispielsweise ISO/IEC 27001, ISO 31000 und der BSI-ITGrundschutz. Auch hier sind nicht selten konkrete Bausteinformulierungen

365 Dabei ist nicht alles, was „by Design“ ist, berücksichtigt worden, so wie zum Beispiel Quality by Design, siehe https://en.wikipedia.org/wiki/Quality_by_Design, abgerufen am 3.8.2016. Es geht also insgesamt stets um die Verbindung von Rahmung und Inhalt, so dass einerseits nicht nur beliebige Rahmenkonzepte („by Design“) übrigbleiben und andererseits auch nicht jede Digitalgestaltungsidee übernommen wird. 366 Exemplarisch dargestellt an Privacy by Design.

166

2 Theorie und Fundament

möglich gewesen, jedoch bereits mit zahlreichen inhaltlichen Überschneidungen, Mehrfachnennungen und/oder Dopplungen. – Schließlich werden weitere, inhaltlich oder strukturell (teilweise nur noch sehr weitläufig verwandte Ansätze) dargestellt, die zwar weder einen vergleichbaren Handbuch-Charakter aufweisen noch das Label „By Design“ tragen, jedoch zumindest einige anknüpfungsfähige Einzelaspekte beinhalten, die man ganz im Sinne des bastelnden Denkens für den hiesigen Kontext zur Bausteingestaltung übernehmen kann und die im Rahmen der Forschung zwischen 2009 und 2014 entdeckt wurden bzw. Erwähnung fanden. Dazu gehören im Übrigen auch eigene Ideen, die im Laufe der Zeit entstanden sind und zumindest in Form einer Weiterentwicklung hilfreich erschienen, beispielsweise das Bastelnde Denken oder der Grundsatz Vom Groben ins Feine. Zusätzliche Grundlage neben den eigenen Projekterkenntnissen und Entwicklungen sind exemplarische Arbeiten der Beratungsfirma Deloitte, welche im Projektkontext von PERFORMANCE Anwendung finden.367 Die Begrenzung auf Recherche- und Expertengesprächsergebnisse aus den oben genannten Jahren ist deshalb notwendig, um eine inhaltliche Mindestanbindung sicherzustellen und die dritte Ebene der Übersicht nicht ausufern zu lassen. Denn letztlich lässt sich logischerweise in fast jedem Digitalgestaltungsprojekt irgendein noch so kleiner, aber interessanter oder sogar konkret anwendbarer Aspekt finden, doch das Bastelnde Denken bezieht seine Stärke in der hiesigen Ausprägung gerade aus seiner vorausgehenden Rahmung, welche eine Uferlosigkeit des Suchens (und Findens) effektiv unterbindet. Desweiteren sollten nur Rahmenkonzepte berücksichtigt werden, die frei verfügbar waren. Zumindest war dies die ursprüngliche Idee, welche leider nicht immer durchgehalten werden konnte, denn so sind beispielsweise Normen nicht immer frei für Jedermann erhältlich, sondern grundsätzlich kostenpflichtig. Dennoch wurde zugunsten dieser unfreien Konzepte entschieden, da der erwartbare individuelle Gewinn größer als der Aufwand zum Erhalt der Informationen war. Über die meisten der hier analysierten Konzepte und Ideen dürften jedoch online mehr als ausreichend viele Informationen verfügbar sein, um zu einer eigenen Bewertung des Sachstandes zu gelangen. Das in dieser Arbeit insgesamt methodisch dominante Arbeitsmotto Vom Groben ins Feine wird in diesem Kapitel – zumindest für die Ebene der Strukturbetrachtung – auf den Kopf gestellt: Vom Feinen ins Grobe geht es nun in der Folge bei der Überprüfung des Stands der Forschung und seiner Ausbeutbarkeit für das hiesige Vorhaben, von den sehr nahen By-Design-Konzepten über Handbuch-Konzepte bis zu punktuellen Empfehlungen und Rechercheergebnissen aus der Projektarbeits-

367 http://link.springer.com/chapter/10.1007/978-3-642-30102-5_7, abgerufen am 1.8.2016; Ratzer, P., Probst, U. (Hg.): IT-Governance. UVK, 2013.

2.5 Das Framework-Prinzip

167

zeit, die nur noch sehr grobe Ableitungen und Bausteinstärkungen zulassen. Die Struktur der Darstellung der analysierten Inhalte folgt wiederum stringent der seit 2005 dauerhaft durch mich in grundsätzlich all meinen Arbeiten durchgeführten Vorgehensweise Vom Groben ins Feine, denn wenn man sich die eher allgemein gehaltenen Konzepte Privacy by Design und Security by Design anschaut, aber auch die – trotz ihrer enormen Bandbreite bewusst grob gehaltenen – Ideen ISO 27001, ISO 31000 oder IT-Grundschutz betrachtet, so fällt auf, dass hier insgesamt derselben Logik gefolgt wird: nach einem „ersten [groben] Angriff“ (beispielsweise Seven Foundational Principles of Privacy by Design) geht man etwas mehr ins Detail, bleibt letztlich aber noch sehr verallgemeinernd (beispielsweise IT-Grundschutz), bis man schließlich bei sehr feingranulierten Lösungen (individuelle Interpretation und ggf. Zertifizierung) angekommen ist. Hier geht es nun um die Identifikation von interessanten Aspekten und eine erste Skizzierung des derzeitigen Forschungsstands samt erster Erwähnung brauchbar erscheinender Bausteine. Die Idee, systematisch eine Konzeptlösung zu erarbeiten, die über eine Einzelfall-Projektlösung hinausgeht, somit also passend erscheinende Inhalte modular in einen Rahmen fasst, ist wie bereits erwähnt keine Idee, die allein mir zugeschrieben werden könnte. Dies zu tun wäre gleichermaßen unredlich wie tatsachenverdrehend, denn erstens ist der Ur-Gedanke (der dieser Arbeit zugrunde liegt), dass ein Rahmenkonzept einer Einzelfalllösung in vielen Fällen überlegen ist, keineswegs ein Gedanke, der nur einem Entdecker oder Erfinder zugutegehalten werden kann, sondern eher die logische Konsequenz einer sorgfältigen Beobachtung der immer komplexer werdenden Lebenswelt durch einen Durchschnittsbetrachter und der daraus resultierenden Notwendigkeit ihrer strukturierenden Gestaltung. (Die Kunst dürfte vielmehr darin liegen, das richtige, sprich: passende Rahmenkonzept zu gestalten und nicht nur seine Notwendigkeit zu beschreiben.) Zweitens ist genau diese By-Design-Logik der Startpunkt des hiesigen Projekts – doch eben nur der Startpunkt. Sociality by Design profitiert natürlich maßgeblich von den Ideen Privacy by Design, Security by Design, ISO 27001, 31000 und dem BSI-IT-Grundschutz (sowie den noch folgenden „kleineren Ansätzen“)368 und deshalb ist es nicht nur konsequent, sondern schlicht unabdingbar, die für die hiesige Arbeit essentiellen Aspekte dieser Ideen hier darzustellen und damit auch zu würdigen. Auch wenn Sociality by Design ein innovatives, eigenständiges und vollständig neuartiges Konzept darstellen soll: ohne die genannten Kernideen, ohne den daraus entwickelten Startpunkt gäbe es dieses Vorhaben so wohl nicht. Die nun folgenden Anknüpfungen und Ausführungen basieren grundsätzlich (ebenso wie die Auswahl der Ansätze)

368 Deren Auswahl auf die Projektvorbereitung und -arbeit für MisPel und PERFORMANCE zurückgeht, d. h. vor allem Gespräche mit Projektpartnern und KollegInnen, in denen sie ihre Vorschläge, aber auch konkreten Wünsche bezüglich Sociality by Design präsentierten.

168

2 Theorie und Fundament

– auf den seit 2009 erarbeiteten Ideen und Überlegungen in Vorbereitung auf das Sicherheitsforschungsprojekt MisPel (zwischen 2009 und 2011 als Vorläuferprojekt und „Ideenträger“ unter dem hier im Buch verwendeten Titel „Alpha“) – auf den während des Projekts MisPel gewonnenen Erkenntnissen (von 2012 bis 2014) und – den darauf aufbauenden Ideen für das Sicherheitsforschungsprojekt PERFORMANCE (seit 2016) Die Projekte MisPel und PERFORMANCE wurden bzw. werden vom Bundesforschungsministerium der Bundesrepublik Deutschland im Rahmen der zivilen Sicherheitsforschung gefördert. Sie entsprechen der wissenschaftspolitisch gewünschten wie heutzutage üblichen Idee der Verbundforschung, d. h. mehrere Projektpartner schließen sich zu einem Forschungsverbund zusammen. (Im hiesigen Falle waren dies stets Forschungseinrichtungen, Universitäten/Hochschulen, Wirtschaftspartner und Polizeibehörden.) Diese Art der interdisziplinären Forschung hat im Arbeitsalltag zur Folge, dass Ideen häufig ein kollektives Ergebnis kollaborativer Prozesse sind bzw. diesen zumindest entspringen. Es ist deshalb nicht ausgeschlossen, ja: sogar hochwahrscheinlich, dass einzelne Aspekte der hier vorliegenden Arbeit auch bei anderen Projektpartnern bzw. involvierten Personen vorzufinden sind. Ich sehe darin letztlich aber kein Problem, da alle in dieser Arbeit verschriftlichen Gedanken zuvor durch mich auf ihre inhaltliche Passung geprüft, entsprechend bewertet und aufgrund der eigenen Prägung in entsprechend individualisierter Form eingebracht worden sind. Dort, wo eine individuelle Aussage, Entscheidung oder Meinung meinerseits zwingend erforderlich erscheinen oder sachlogisch aus dem Arbeitsprozess entstehen könnte, sollte für den durchschnittlich begabten Leser auch ohne besondere Erläuterungen erkennbar sein, dass dies der Fall ist. Und da ich sowohl in MisPel als auch in PERFORMANCE (sowie im Vorläuferprojekt Alpha) stets allein für die sozio-technische Forschung verantwortlich (und auch stets der einzige sozio-technische Forscher in den Projektteams) war bzw. bin, steht die individuelle Prägung des hiesigen Projekts durch mich letztlich ohnehin außer Frage. Die Werkprägung entsteht durch meine Ideen, die dieses Vorhaben ausgestalten. Dass man dabei der sprichwörtliche Zwerg ist, der auf den Schultern des Riesen steht, ist weder überraschend noch problematisch. Ganz im Gegenteil: diese Arbeit baut auf Vorüberlegungen auf, die maßgeblich dabei geholfen haben, mithilfe von Sociality by Design die bestehende Sozialitätslücke in der digitalen Technikgestaltung zu schließen und – wie im laufenden Projekt PERFORMANCE – aus der Begleitforschung eine ganzheitlich-gemeinsame Forschung auf Augenhöhe zu machen. Um diesen Stand der Forschung soll es nun gehen.

2.5 Das Framework-Prinzip

169

2.5.1 By-Design-Konzepte Die beiden By-Design-Konzepte, die eine maßgebliche Inspiration für das hiesige Vorhaben waren, wurden bereits mehrfach erwähnt: Privacy by Design und Security by Design. Im Laufe der vergangenen sieben Jahre wurde vor allem Privacy by Design immer wieder durch mich beleuchtet und eine modularisierte Auswertung dort vorhandener Erkenntnisse im Kontext hiesiger Digitaltechnik-Gestaltung überprüft. Die Erfinderin von Privacy by Design, Ann Cavoukian, beschreibt die Kernidee wie folgt: Privacy by Design ist ein Konzept, das ich in den 90er Jahren entwickelt habe, um den ständig zunehmenden, systemischen Auswirkungen der Informations- und Kommunikationstechnologien sowie der großflächig vernetzten Datensysteme zu begegnen. Privacy by Design stützt die Auffassung, dass die Zukunft des Datenschutzes nicht allein durch die Einhaltung von Rechtsvorschriften gewährleistet werden kann; vielmehr sollte idealerweise die Gewährleistung des Datenschutzes zum Standardbetriebsmodus einer Organisation werden. Ursprünglich wurde der Einsatz datenschutzfreundlicher Technologien (PETs) als Lösung angesehen. Heute erkennen wir, dass eine intensivere Herangehensweise erforderlich ist – die Erweiterung des Einsatzes von Technologien auf PETS Plus – die Aufnahme eines Positivsummenansatzes (volle Funktionalität) und keines Nullsummenansatz. Das ist das „Plus“ in PETS Plus: Die Positivsumme, nicht die Entweder-Oder Alternative der Nullsumme (falsche Dichotomie). Privacy by Design erstreckt sich auf eine „Trilogie“ von umfassenden Anwendungen: 1) IT-Systeme, 2) verantwortungsvolle Geschäftspraktiken und 3) physikalisches Design und vernetzte Infrastrukturen.369

Wesentliche Kernideen von Sociality by Design finden sich bereits in diesem Exzerpt: es geht um die „systemischen Auswirkungen der Informations- und Kommunikationstechnologien“, ebenso um die Tatsache, dass Datenschutz „nicht allein durch die Einhaltung von Rechtsvorschriften gewährleistet werden kann“. Es geht des Weiteren darum, das soziale Konstrukt Datenschutz zum „Standardbetriebsmodus einer Organisation“ zu machen. Bleiben wir vorerst bei diesen drei Aspekten: dass die Digitalisierung enorme Auswirkungen auf unsere Gesellschaft (und damit auch auf die soziale Idee von Sicherheit) hat, dürfte inzwischen unbestritten sein. Dies ist, wie Cavoukian völlig richtig betont, systemisch, sprich: Konsequenz des Prozesses an sich. Wenn man an der einen Stelle eine Videokamera anbringt, um für Sicherheit zu sorgen, hat dies systemische Folgen auch und gerade an anderer

369 Siehe dazu das deutsche PDF namens „7foundationalprinciples-german“, welches online nicht mehr auffindbar zu sein scheint. Das englische Pendant findet man unter https://www.ipc. on.ca/images/resources/7foundationalprinciples.pdf (abgerufen am 11.7.2016).

170

2 Theorie und Fundament

Stelle.370 Wenn man Username und Passwort als Authentifizierungsmechanismus einführt, werden Menschen einen Umgang mit diesem Mechanismus entwickeln.371 Es gibt eine Vielzahl – wahrscheinlich unendlich viele – solcher Wenn-dann-Aspekte. Dies erkannte Cavoukian zu einem Zeitpunkt, als dies sicherlich noch nicht jedem Anwender von digitaler Technik in dem Maße bewusst war, in dem es heute allgemein akzeptiert zu sein scheint.372 Doch sie hat letztlich Recht behalten: die systemischen Auswirkungen sind heute nicht nur augenfällig, sondern zugleich auch unumstritten. Dasselbe gilt für die Zunahme dieser Auswirkungen. Längst ist die Gesellschaft beim Terminus der „Digitalen Revolution“ angekommen.373 Daraus ergibt sich logischerweise, dass Einzelfalllösungen immer unrealistischer erscheinen. Die Fülle der Möglichkeiten der Technik(aus)gestaltung hat längst die Gestaltungs- und Handlungsmöglichkeiten des Individuums überschritten. Mehr denn je erscheint eine konzeptbasierte Herangehensweise somit als sinnvoller Weg zum Ziel. Cavoukian stellte dieses Element sehr überzeugend in ihren Ausführungen dorthin, wo es meiner Ansicht nach auch zwingend hingehört: an den Anfang. Der zweite Schritt widmet sich der (auch durch mich in Form erfolgreicher Projektanträge) mehrfach als plausibel bewiesenen Auffassung, dass Rechtsvorschriften allein nicht ausreichen, um beispielsweise Datenschutz zu gewährleisten. Datenschutz muss – so wie andere soziale Konstrukte – in der Tat der „Standardbetriebsmodus“ (einer Institution) werden. Um dieses Ziel zu erreichen, kann man aber eben nicht nur Gesetze verabschieden oder Compliance-Regeln initialisieren. Und auch Technik – so wie in den von Cavoukian erwähnten „PETs“ (Privacy Enhancing Technologies) – kann nicht die (alleinige) Lösung sein. Dies erscheint auch aus hiesiger Perspektive als eine wahre Annahme. Cavoukian macht daraus letztlich für Privacy by Design eine „Trilogie“ von umfassenden Anwendungen: 1) IT-Systeme 2) verantwortungsvolle Geschäftspraktiken und 3) physikalisches Design und vernetzte Infrastrukturen. Sie verbindet also Technik (1 und 3) mit sozialen Handlungen und Rahmenbedingungen (2). Dies kann als eine der wichtigsten Inspirationen für Sociality by Design betrachtet werden, denn Sociality by Design basiert ganz entscheidend auf dem Dreiklang von Technik, Recht und Gesellschaft. In den Projekten Alpha und MisPel fand dieser Dreiklang als Basis der sozio-technischen Begleitforschung von allen Seiten ausschließlich Zuspruch und auch im Laufe von PERFORMANCE gab es bisher

370 http://www.krimlex.de/artikel.php?KL_ID=225, abgerufen am 24.8.2016. 371 http://www.heise.de/ct/ausgabe/2014-18-Kennwoerter-mit-Zettel-und-Stift-verwalten-2283904. html, abgerufen am 24.8.2016. 372 Siehe beispielsweise https://de.wikipedia.org/wiki/Internetsoziologie#Soziale_Auswirkungen, abgerufen am 24.8.2016, sowie ggf. Humer, 2008. 373 Siehe beispielsweise https://de.wikipedia.org/wiki/Digitale_Revolution, abgerufen am 24.8.2016.

2.5 Das Framework-Prinzip

171

nicht nur keinerlei Widerspruch, sondern ein spürbares Vertrauen auf die Wirkmächtigkeit dieser Schwerpunktsetzung, vor allem durch die Technik- und Polizeipartner im Projekt. Doch so wünschenswert eine solche Trias für alle Projektbeteiligten scheint: zumindest in der deutschen Sicherheitsforschung ist sie neu. Auch während des MisPel-Projektverlaufs gab es keine zweite gleichermassen eindeutige Positionierung hinsichtlich der Verwebung von Technik, Recht und Gesellschaft. Eine solche By-Design-Lösung schimmerte lediglich in „MisPel-S“ (dem durch mich durchgeführten sozio-technischen Teilprojekt des Verbundforschungsvorhabens MisPel) durch und wurde auch dementsprechend konsequent weiterentwickelt und, so wie hier dokumentiert, erstmals erfolgreich skizziert. Seit der ersten Publikation rund um Sociality by Design hat sich in diesem Bereich nicht viel Grundsätzliches bewegt.374 Aufgrund der großen Akzeptanz, die die Grundidee von Privacy by Design heutzutage genießt und aufgrund der sich durch die Rahmenbedingungen der digitalen Revolution im gesellschaftlichen Kontext ergebenden Logik erscheint es sehr sinnvoll, die Kernidee der Ganzheitlichkeit von Ann Cavoukians Privatheitskonzept in Form von Technik, Recht und Gesellschaft zu übernehmen. Dass ausschließlich eine Disziplin bzw. ein Bereich eine ganzheitliche Lösung für die Bewältigung extrem komplexer sozio-technischer Herausforderungen bieten kann, erscheint letztlich völlig abwegig. Zu groß wären die Lücken, die mit einem solchen Tunnelblick einhergingen, vor allem bei den hier zugrundeliegenden „Testprojekten“ mit dem Schwerpunkt auf „intelligente Videoüberwachung“. Doch selbstverständlich belässt es Ann Cavoukian nicht nur bei fundamentalen Formungen: Die Ziele des Privacy by Design – die Gewährleistung des Datenschutzes und die persönliche Kontrolle über die eigenen Daten sowie die Gewinnung eines nachhaltigen Wettbewerbsvorteil für Organisationen – können durch die Anwendung der folgenden 7 Grundprinzipien (. . .) erreicht werden.

Sie widmet sich somit dem kleinstmöglichen Nenner, der quasi immer passt und ein zweiter wichtiger Baustein auch für Sociality by Design ist: der Nennung von griffigen Empfehlungen, hier in Form von sieben Grundprinzipien, welche in der Folge hinsichtlich ihrer Passung für Sociality by Design überprüft werden: 1. Proaktiv, nicht reaktiv; als Vorbeugung und nicht als Abhilfe Der Privacy by Design (PbD) Ansatz ist von proaktiven statt reaktiven Maßnahmen geprägt. Er sieht in die Privatsphäre vordringende Ereignisse voraus und verhindert sie, bevor sie geschehen können. Privacy by Design kommt zum Einsatz bevor die Risiken für den Datenschutz aufgetreten sind, es bietet keine Abhilfe im Falle von datenschutzrechtlichen Verletzungen, wenn

374 Humer, 2012: DOI: 10.1007/978-3-642-30102-5_7.

172

2 Theorie und Fundament

sie erst einmal eingetreten sind – es verhindert vielmehr deren Auftreten. Kurz gesagt, Privacy by Design verhindert bereits, dass Fakten geschaffen werden.

Proaktivität mag gleichermaßen einleuchtend wie auch relevant klingen, ist aber freilich erst einmal erfolgreich mit Leben zu füllen – was nicht ganz trivial ist. Auf jeden Fall kann die Kernidee aber bereits ohne weitere Änderung übernommen werden oder, anders gesagt: es muss sogar das Prinzip der Proaktivität übernommen werden, da es sich wiederum denklogisch aus dem Konzeptansatz ergibt. Es soll ja genau im Vorfeld eine Aussage getroffen werden, wie das Projekt bearbeitet werden kann, welches Sociality by Design zur Grundlage hat, was nichts anderes bedeutet als Proaktivität. Im Nachhinein soll nichts Grundsätzliches mehr geklärt werden. Das Konzept soll den Weg zum Ziel erleichtern und strukturieren, da wäre es seltsam, wenn eine proaktive Beschäftigung mit den Herausforderungen gerade nicht stattfinden würde. Doch wie bereits gesagt: „einfach so“ kann Proaktivität nicht für sich stehen (bleiben). Das Prinzip muss mit Leben gefüllt werden, d. h. es müssen bestimmte Fakten ins Spiel kommen, welche diesen Aspekt projektorientiert unterfüttern. Dieser Weg wird jedoch (wie bei allen noch folgenden für Sociality by Design erarbeiteten Grundprinzipien) in Kapitel 4 beschritten und soll an dieser Stelle nur genannt werden. 2. Datenschutz als Standardeinstellung Wir können uns alle einer Sache gewiss sein – die Standardeinstellungen sind entscheidend! Privacy by Design soll den größtmöglichen Schutz der Privatsphäre bringen, indem sichergestellt wird, dass personenbezogene Daten automatisch in jedem IT-System und bei allen Geschäftspraktiken geschützt werden. Wenn eine Person nichts unternimmt, bleibt der Schutz ihrer Privatsphäre immer noch intakt. Einzelpersonen sind nicht gefordert, selbst etwas für den Schutz ihrer Privatsphäre zu unternehmen – der Schutz ist bereits systemimmanent, als Standardeinstellung.

Was bei Privacy by Design der Schutz als Standardeinstellung ist, ist bei Sociality by Design die Gesellschaftsfähigkeit. Oder ganz einfach gesprochen: an dieser Stelle erfolgt aus inhaltlicher Sicht lediglich ein simpler Austausch des Wortes „Privacy“ durch „Sociality“. Gesellschaftsfähigkeit wird dadurch zur Standardeinstellung und zum anerkennenswerten Schutzgut. Konkret heißt das: es findet ausdrücklich keine Programmierung „um der Programmierung willen“ statt, keine Technikentwicklung ohne inhaltliche Kopplung an die Gesellschaft, keine isolierte Technikgestaltung ohne Realitätsbezug. Das Festschreiben dieses Prinzips ist ein weiterer wesentlicher Bestandteil von Sociality by Design und bedarf auch keiner weiteren Verfeinerung: das Prinzip ist bereits im Namen des Konzepts vollumfänglich erkennbar und damit ausreichend definiert.

2.5 Das Framework-Prinzip

173

3. Der Datenschutz ist in das Design eingebettet Privacy by Design ist in das Design und die Architektur von IT-Systemen und Geschäftspraktiken eingebettet. Es wird nicht nach dem Vorfall als add-on eingebaut. Das Ergebnis ist, dass der Datenschutz eine wesentliche Komponente der Kernfunktionalität wird. Datenschutz ist ein wesentlicher Bestandteil des Systems, ohne Abstriche bei der Funktionalität.

Und auch an dieser Stelle reicht praktisch ein Wortaustausch: aus „Datenschutz“ wird „Gesellschaftsfähigkeit“. Auch Sociality by Design ist im Vorfeld bereits in Systeme eingebettet worden. Damit ähnelt es sehr der Idee klassischer Technikfolgenabschätzung (TFA) oder Akzeptanzforschung (AF), unterscheidet sich doch zugleich ganz wesentlich von diesen sehr weit gefassten Begriffen, vor allem dadurch, dass dort nicht die hier erwähnte Trias von Technik, Recht und Gesellschaft zum Tragen kommt, sondern sehr stark sozialwissenschaftlichen Ideen folgt. Es werden in der Regel Ergebnisse produziert, die nicht als ganzheitliches und konkret anwendbares Konzept einsetzbar sind. Klassische TFA bzw. AF führen letztlich zu einer inhaltlichen Aussage, die man als Grundlage für weiteres Handeln nehmen kann. Sociality by Design hingegen verzichtet genau auf diese Einzelfallanalysen und schlägt dafür bewusst ein Grobgerüst vor, welches sich einer Herausforderung nur rahmend und strukturierend, nicht jedoch erschöpfend analysierend nähert. TFA und AF wollen letztlich abschließend wissen, was wie wirken wird. Sociality by Design will hingegen zeigen, was wie wirken kann. Ideen der TFA und AF lassen sich in Sociality by Design wiederfinden, doch Sociality by Design ersetzt nicht zwangsläufig klassische TFA oder AF. 4. Volle Funktionalität – eine Positivsumme, keine Nullsumme Privacy by Design will allen berechtigten Interessen und Zielen entgegenkommen, und zwar durch eine Positivsumme, die ein zufriedenstellendes Ergebnis für beide Seiten erzielt, und nicht durch einen veralteten Nullsummenansatz, bei dem schließlich unnötige Kompromisse erforderlich werden. Durch Privacy by Design wird die Vortäuschung falscher Dichotomien wie Datenschutz versus Sicherheit vermieden. Privacy by Design zeigt, dass es möglich ist, beides zugleich zu erreichen.

Diese Idee findet sich so bei Sociality by Design bewusst nicht wieder. Es wird zwar angestrebt, so wenige Probleme wie möglich („unnötige Kompromisse“) zu realisieren, doch stehen die Wenn-Dann-Lösungsvorschläge von Sociality by Design im Vordergrund, nicht ihre (über den gesellschaftlichen Kontext hinausgehende) Bewertung. Das heißt: als gesellschaftsfähig wird beispielsweise Lösung x angesehen. Das bedeutet aber nicht zwangsläufig, dass x nicht zulasten anderer lebensweltlicher Aspekte geht, beispielsweise der natürlichen Umwelt. Stets ganzheitlich eine Positivsumme anzustreben, mag zwar ethisch erstrebenswert und zeitgemäß erscheinen, jedoch soll Sociality by Design auch Grenzen skizzieren,

174

2 Theorie und Fundament

was die Darstellung von Lösungen wie x ermöglicht.375 Wenn Cavoukian also schreibt, dass „Privacy by Design zeigt, dass es möglich ist, beides [Datenschutz und Sicherheit, Anm.] zugleich zu erreichen“, dann liegt diese Betonung an den disziplinspezifischen Diskussionen („Freiheit vs. Sicherheit“)376 und der nicht selten anzutreffenden Grundannahme, dass man eines schwächen muss, wenn man das andere stärkt. Eine solche Grundannahme besteht aber bei Sociality by Design nicht, auch fehlt es an einem vergleichbaren Diskurs, so dass die Idee der Positivsumme zwar mit in das eigene Konzept integriert werden, dies jedoch in abgeschwächter Form (als erstrebenswertes, aber nicht besonders zu betonendes Merkmal) erfolgen kann. 5. Durchgängige Sicherheit – Schutz während des gesamten Lebenszyklus Nachdem Privacy by Design vor der Ersterfassung der Information in das System „eingebettet“ wurde, erstreckt sich dessen Wirkung auf den gesamten Lebenszyklus der Daten – starke Sicherheitsmaßnahmen sind für den Datenschutz unerlässlich, und zwar von Anfang bis Ende. Dadurch wird erreicht, dass alle Daten sicher gespeichert und am Ende des Prozesses sicher und rechtzeitig vernichtet werden. So sorgt Privacy by Design von der Wiege bis zur Bahre durchgängig für eine sichere Datenverarbeitung.

Hier unterscheidet sich Sociality by Design erstmals sehr stark von Privacy by Design. Sociality by Design betont von Anfang an, dass eine dauerhafte Lösung nicht möglich ist. Trotz der rasanten Entwicklung der Digitalisierung wird eine erste Orientierungsperspektive durch Sociality by Design („Handbuch-Gültigkeit“) von fünf (auf Grundlage dieser Arbeit – „1.0“) bis zehn Jahren (auf Grundlage einer ersten Weiterentwicklung dieser Arbeit – „2.0“) angestrebt. Doch es gibt in der digitalen Lebenswelt auch mehr als genug Herausforderungen, die entweder weit länger andauern als fünf bis zehn Jahre oder sich „unterwegs“ stark verändern (und so Sociality by Design 3.0 notwendig erscheinen lassen). Sociality by Design 1.0 steht explizit für eine modulare Vom-Groben-ins-Feine-Lösung, welche in einem ersten Schritt (1.0) eine Groborientierung bietet und dann – je nach individueller, projektbezogener Definition des gewünschten Detailgrads – immer mehr ins Feine gehen und zugleich weiterentwickelt (d. h. den aktuellen Entwicklungen angepasst: 2.0 bzw. 3.0) werden kann. Mit steigendem Detailgrad und ohne allgemeine Weiterentwicklung in Richtung einer Folgeversion sinkt jedoch die Haltbarkeit der gefundenen Lösung, da

375 Sociality by Design folgt damit der Idee, die in VDI-Richtlinie 3780 formuliert wird und ersetzt lediglich den Begriff „Technikbewertung“ durch „Gesellschaftsanalyse“: „Es gehört zu den Aufgaben der Technikbewertung, zu diskutieren, welche Argumente für und gegen bestimmte technische Entwicklungen sprechen, und dabei auftretende Zielkonflikte zu verdeutlichen. Dazu müssen negative Auswirkungen vorsorglich abgeschätzt und gegen den erstrebten Nutzen abgewogen werden“: VDI 3780, S. 13. 376 Interessant erscheint beispielsweise dieser Debattenbeitrag: http://www.bpb.de/internationa les/europa/europa-kontrovers/38185/einleitung?p=all, abgerufen am 24.8.2016.

2.5 Das Framework-Prinzip

175

sich die Umgebungsvariablen umso stärker auswirken, je tiefgehender ihre Details reichen. „Von der Wiege bis zur Bahre“, wie Cavoukian es nennt, ist also allerhöchstens in bestimmten Fällen denkbar und keineswegs als Standardmotto durchzuhalten, wenn die allgemeine Weiterentwicklung des Modells ausbleibt. 6. Sichtbarkeit und Transparenz – Für Offenheit sorgen Privacy by Design will allen Beteiligten die Sicherheit geben, dass das System unabhängig von Geschäftspraktiken oder Technologien wirklich die angekündigten Maßnahmen und Ziele verfolgt und sich einer unabhängigen Prüfung unterwirft. Seine einzelnen Komponenten und Verfahren bleiben sichtbar und transparent, und zwar gleichermaßen für Nutzer und Anbieter. Denken Sie daran, Vertrauen ist gut, Kontrolle ist besser.

Das Transparenzgebot von Privacy by Design ist hingegen bereits in vielen Lebensbereichen zu finden und auch die Polizeipartner hatten trotz der besonderen Sozialisation, die Polizeivollzugsbeamte in Deutschland in Form ihrer grundständigen Ausbildung immer noch durchlaufen, keinerlei Einwände mit Protokollfunktionen, Logdateien, Rechtverwaltung und Accountability-Fragen anderer Art. Dadurch, dass Sociality by Design ein weiter zu pflegendes, immer in der Diskussion stehendes, weiter „bastelbares“ Konzept ist, ist es so offen wie möglich. Es wird explizit Wert auf Beteiligung, Diskussion, (modulare) Verbesserung und Weiterentwicklung gelegt. Und diese Transparenz wird (im Rahmen des Möglichen und als Fortsetzung der eigenen Mentalität) natürlich auch von den Projekten gefordert, die mithilfe von Sociality by Design eine entsprechende Soziabilität erreichen wollen. Es erscheint nicht nur kontraproduktiv, genau das vermeiden zu wollen, wenn man sich eines offenen Konzepts bedient, sondern auch unlogisch: Sociality by Design ist keine Anleitung zum Social Engineering, also zur Manipulation von Individuen und Kollektiven, sondern zur Beobachtung, Analyse und Berücksichtigung ihrer Wünsche, Ideen, Verhaltensweisen und Handlungen. 7. Die Wahrung der Privatsphäre der Nutzer –Für eine nutzerzentrierte Gestaltung sorgen Privacy by Design erfordert vor allem von den Architekten und Betreibern (von IT-Systemen), dass für sie die Interessen der Einzelpersonen an erster Stelle stehen. Sie bieten Maßnahmen wie strenge datenschutzfreundliche Voreinstellungen und angemessene Benachrichtigungen an und eröffnen benutzerfreundliche Optionen. Sie sorgen für eine nutzerzentrierte Gestaltung.

Auch hier sind letztlich nur kleine, aber doch wirkmächtige Änderungen nötig, um zu einem passenden Kontext zu gelangen: auch bei Sociality by Design hängt alles von den IT-Verantwortlichen ab, für die dieses Rahmenkonzept vorrangig gedacht ist. Doch die Nutzerzentrierung muss umgestaltet werden in eine Gesellschaftsberücksichtigung. Der Nutzer steht bei Cavoukian im Mittelpunkt. Bei Sociality by Design ist das in dieser Deutlichkeit nicht der Fall. Die Gesellschaft muss berücksichtigt werden, nicht jedoch der alleinige Fixpunkt sein; problematisch wäre nur eine Nichtberücksichtigung. Das ist vielleicht für den einen oder anderen

176

2 Theorie und Fundament

ein feiner Unterschied, für das Gesamtvorhaben jedoch ein recht schwerwiegender. Der Mensch steht im Mittelpunkt, das ist korrekt – es ergibt sich aber bereits aus der Tatsache, dass Maschinen nicht für sich selbst existieren, sondern immer „menschenabhängig“ sind. Angestrebt wird mit Sociality by Design aber eine interdisziplinäre Ganzheitlichkeit, aus der sich keine Überlegenheit eines Subsystems ergibt. Somit ergeben sich bereits aus dem wohl wichtigsten By-Design-Ansatz Privacy by Design wichtige Bausteine des Konzepts Sociality by Design. Diese lassen sich nun wie folgt zusammenfassen: Baustein 1: Systemische Auswirkungen sind der Grund einer jeden Analyse. Baustein 2: Die Fokussierung auf Technik, Recht und Gesellschaft sorgt für eine ganzheitliche Interdisziplinarität, so dass Sociality by Design die beiden Vorbilder Privacy und Security by Design ergänzt und so eine Ganzheitlichkeit herstellt. Baustein 3: Proaktivität ist unverzichtbare Vorbedingung des Konzepts. Baustein 4: Gesellschaftsfähigkeit steht im Vordergrund der Analyse. Baustein 5: Die Einbettung von Gesellschaftsfähigkeit steht im Vordergrund der Entwicklung. Baustein 6: Eine ganzheitliche Positivsumme von Technik, Recht und Gesellschaft wird angestrebt. Baustein 7: Die Arbeitsweise geht bastelnd und modular vom Groben ins Feine. Baustein 8: Transparenz in jeglicher Hinsicht wird angestrebt. Es ist also völlig egal, welche Analyseform man zur Herausarbeitung des gesellschaftlichen Stands der Dinge konkret anwendet: an diesen ersten Bausteinen sollte man nicht vorbeikommen. Sie bilden den ersten Teil des prinzipiellen Fundaments, auf dem Sociality by Design in Hinblick auf Privacy by Design aufgebaut ist. Selbstverständlich ist Privacy by Design nicht unumstritten und der wohl wichtigste Kritikpunkt – der Monozentrismus des Konzepts, seine Fokussierung auf Datenschutz durch Technik (bzw. die Fokusverschiebung auf Datensicherheit) – ist auch genau der Punkt, den Sociality by Design zu vermeiden versucht.377 Denn hier wird ja genau das Soziale berücksichtigt, welches bei Privacy by Design und anderen Konzepten in der Tat zu kurz kommt. Als weiteren Kritikpunkt kann man die Unschärfe der sieben Grundregeln nennen, denn – auch hier: in der Tat – ist das bereits das ganze Konzept. Ein so dermaßen offen formuliertes Konzept kann gut, aber auch schlecht implementiert werden. Damit ist zwar genug Raum zur Entsprechung der

377 Siehe hierzu beispielsweise http://www.fiff.de/publikationen/fiff-kommunikation/fk-2015/ fk-2015-2/fk-2015-2-content/fk-2-15-s41.pdf, abgerufen am 11.7.2016.

2.5 Das Framework-Prinzip

177

Überzeugung meinerseits, dass ein Maschinenflüsterer,378 ein Experte mit dem richtigen Händchen für eine rumdum gelungene Implementierung keine schlechte Idee ist. Doch da das Konzept einen solchen Maschinenflüsterer nicht vorsieht, ergibt sich hier eine Leerstelle (in Form der nicht vorab gezielt erfolgenden Auswahl einer kompetenten Person), was streng genommen einer Überlassung der dazugehörigen Aufgabe in Richtung Prinzip Hoffnung bedeutet. (Andersherum argumentiert man im Blog des datenschutzinteressierten Vereins Digitalcourage e. V.: „Kritik an der Freiwilligkeit des Konzepts [Privacy by Design; Anm.] erübrigt sich, wenn es in Gesetze Eingang findet“. Logischerweise erübrigt sich dann auch Kritik an der Unkonkretheit des Konzepts, wenn man schließlich den richtigen gesetzgebenden „Versteher“ der sieben Grundprinzipien findet – eben den Maschinenflüsterer.) So oder so kann Privacy by Design aber nur ein Steinbruch der Ideen sein, denn sein größter Vorteil ist zugleich sein größter Mangel: die Fokussierung auf Privacy. Sociality by Design ist qua definitionem breiter aufgestellt. Aus diesem Grunde ist Privacy by Design zwar inspirierend und partiell „ausbeutbar“, doch es reicht an sich noch nicht aus, um einen ganzheitlichen Anspruch zu erfüllen. Cavoukian nennt in diesem Zusammenhang folgende Definition: Privacy seeks to respect and protect personally identifiable information by empowering individuals to maintain control over its collection, use and disclosure. Information security seeks to enable and protect activities and assets of both people and enterprises.379

Privacy (by Design) widmet sich demzufolge in der Tat dem „menschlichen“ Datenschutz, während Security (by Design) „technischen“ Datenschutz (=Datensicherheit) betrachtet. Das sind ohne Frage zwei wichtige Aspekte bei der Gestaltung von Sicherheits(forschungs)projekten, nur eben nicht ausreichend, um einen ganzheitlichen Anspruch im Sinne von Technik, Recht und Gesellschaft zu realisieren. So oder so muss der zweite Schritt nun die Betrachtung von Security by Design sein. Hier geht es strukturell erneut nur um die Aspekte, die für die hiesige Aufgabenstellung brauchbar erscheinen. Denn wie bereits erwähnt wurde, geht es bei Security by Design vorrangig um technische Sicherheit, was Ann Cavoukian so definiert: By „Security by Design“ we mean an approach to information security which, like Privacy by Design, is at once holistic, creative, anticipatory, interdisciplinary, robust, accountable and

378 Siehe offensichtlich ablehnend dazu Frank Hartmann: http://www.heise.de/tp/artikel/6/6345/ 1.html, abgerufen am 24.8.2016; sehr positiv hingegen Wahlster, 2015: „Zur menschlichen Intelligenz gehöre aber ebenso die sensomotorische, emotionale und soziale Intelligenz. ‚Hier sind Computer noch weit von unserer Performanz entfernt.‘“, http://www.heise.de/newsticker/meldung/ Kuenstliche-Intelligenz-Uni-Studium-verliert-an-Bedeutung-3248678.html, abgerufen am 25.8.2016, und Humer, 2008. 379 https://http://www.ipc.on.ca/images/Resources/pbd-privacy-and-security-by-design-oracle. pdf, abgerufen am 12.7.2016.

178

2 Theorie und Fundament

embedded into systems. It stands in direct contrast to “security through obscurity,” which approaches security from the standpoints of secrecy, complexity or overall unintelligibility.380

Bei einem Vergleich von Privacy und Security by Design werden bereits an dieser Stelle die Ähnlichkeiten sehr gut deutlich, und das ist laut Cavoukian auch Absicht: This paper has two key objectives: –

Define a set of foundational „Security by Design“ principles that are modelled upon and support the 7 Foundational Principles of Privacy by Design.



Illustrate an enterprise-level process for defining and governing the strategic journey of Security by Design through an enterprise architecture approach.

Damit wird im Übrigen auch deutlich, woher die hier vorgestellte Vorgehensweise für Sociality by Design stammt: nach der grundlegenden Formulierung der entscheidenden Elemente des Konzepts wird ein Beispielprojekt gezeigt. Die Schlüsselemente von Security by Design sind laut Cavoukian: – Holistic – Creative – Anticipatory – Interdisciplinary – Robust – Accountable – Embedded Bereits an dieser Stelle sind nicht nur große Schnittmengen zu Elementen von Privacy by Design erkennbar, sondern auch Gemeinsamkeiten mit den bisher herausgearbeiteten Bausteinen von Sociality by Design deutlich sichtbar, beispielsweise Aspekte der Einbettung, der Interdisziplinarität und der Ganzheitlichkeit. Cavoukian modelliert daraus folgendes „set of Security by Design principles“ (siehe Abbildung 3). Wie bereits zuvor bei Privacy by Design soll nun die „Ausbeutbarkeit“ dieses Sets of Principles für den hiesigen Kontext überprüft werden. 1. Proactive not Reactive; Preventative not Remedial Begin with the end in mind. Leverage enterprise architecture methods to guide the proactive implementation of security.

Hier gilt prinzipiell dasselbe wie bei Privacy by Design: Proaktivität mag gleichermaßen einleuchtend wie auch relevant klingen, ist aber freilich erst einmal erfolgreich mit Leben zu füllen – was eben nicht ganz trivial ist. Auf jeden Fall kann aber

380 https://www.ipc.on.ca/images/Resources/pbd-privacy-and-security-by-design-oracle.pdf, abgerufen am 11.7.2016.

2.5 Das Framework-Prinzip

179

Privacy by Design and Security by Design The following table illustrates, at a high level, how a set of Security by Design principles can be modeled upon the 7 Foundational Principles of Privacy by Design. Privacy

Security

Respect and protect personal information.

Enable and protect activities and assets of both people and enterprises.

1. Proactive not Reactive; Preventative not Remedial

Anticipate and prevent privacy-invasive events before they happen. Do not wait for privacy risks to materialize.

Begin with the end in mind. Leverage enterprise architecture methods to guide the proactive implementation of security.

2. Default Setting

Build privacy measures directly into any given ICT system or business practice, by default.

Implement “Secure by Default” policies, including least privilege, need-to-know, least trust, mandatory access control and separation of duties.

3. Embedded into Design

Embed privacy into the design and architecture of ICT systems and business practices. Do not bolt it on after the fact.

Apply Software Security Assurance practices. Use hardware solutions such as Trusted Platform Module.

4. Positive-Sum

Accommodate all legitimate interests and objectives in a positive-sum “winwin” manner, not through a zero-sum. approach involving unnecessary trade-offs.

Accommodate all stakeholders. Resolve conflicts to seek win-win.

5. End-to-End Security

Ensure cradle-to-grave, secure lifecycle management of information, end-to-end.

Ensure confidentiality, integrity and availability of all information for all stakeholders.

6. Visibility and Transparency

Keep component parts of IT systems and operations of business practices visible and transparent, to users and providers alike.

Strengthen security through open standards, well-known processes and external validation.

7. Respect for the User

Respect and protect interests of the individual, above all. Keep it usercentric.

Respect and protect the interests of all information owners. Security must accommodate both individual and enterprise interests.

Privacy by Design Foundational Principles

Abbildung 3: Privacy by Design and Security by Design. https://www.ipc.on.ca/images/Resources/pbd-privacy-and-security-by-design-oracle.pdf, abgerufen am 12.7.2016.

auch an dieser Stelle die Kernidee bereits ohne weitere Änderung übernommen werden oder, anders gesagt: es muss auch hier das Prinzip der Proaktivität übernommen werden, da es sich wiederum denklogisch aus dem Konzeptansatz ergibt. Cavoukians „Begin with the end in mind“ erscheint da als hilfreicher Merksatz, der zudem eine Brücke schlägt zum hier neuen Aspekt „Preventative not Remedial“: Eine Konzeptfrage wie die der (in Sociality by Design alles entscheidenden) Gesellschaftsfähigkeit von vornherein zu klären ist immer besser als nachher Akzeptanz-, Transparenz- oder andere aus der Not heraus geborene Versprechen zu geben.

180

2 Theorie und Fundament

Somit ergibt sich auch an dieser Stelle eine vollumfängliche Zustimmung hinsichtlich der Brauchbarkeit dieses Aspekts. Dass damit ein Mentalitätswechsel von „reactive, tactical“ zu „strategic, proactive“ einhergeht und solcherlei Mentalitätswechsel stets eine entsprechende Herausforderung sind, ist zu berücksichtigen und knüpft an die o. a. Aussagen an, dass Proaktivität nicht immer leicht mit Leben zu füllen ist. Cavoukians und Dixons Vorschlag lautet diesbezüglich: We thus recommend that the discipline of enterprise architecture12 (EA) be employed to proactively define an enterprise’s security strategy. Gartner first applied this concept to information security in a 2006 paper entitled “Incorporating Security into the Enterprise Architecture Process.

Dabei beziehen sie sich auf den Beitrag „Incorporating Security Into the Enterprise Architecture Process“ von Gregg Kreizman und Bruce Robertson, der zwar an dieser Stelle nicht im Detail besprochen werden soll, doch deren grundsätzliche Idee: „By including security requirements in the EA process and security professionals in the EA team, enterprises can ensure that security requirements are incorporated into priority investments and solutions“381 – in einer institutionen- oder projektabhängigen Ausprägung – zweifellos als Vorbild dienen kann. Die Hauptsache ist, dass das Prinzip der Proaktivität erfolgreich umgesetzt wird. Dies ist der Maßstab für diesen Baustein 3 im Konzept Sociality by Design. Zudem erleichtert man sich dadurch die Respektierung der Ganzheitlichkeit, die in Baustein 2 erwähnt wird, denn Enterprise Architecture und ihre Methoden „can enable an enterprise to define a holistic EA security strategy that becomes an integral part of an enterprise’s ‚foundation for execution.‘“382 Bereits an dieser Stelle wird also deutlich, wie die bereits definierten Bausteine 2 und 3 ineinandergreifen und sich gegenseitig stärken. Das gesamte Fundament von Sociality by Design wird durch die bastelnde Verwebung aller Elemente deutlich gestärkt – es ruht so nicht nur auf solitären, leicht zu erschütternden Säulen, sondern eben auf einem stabilen Mosaik. 2. Default Setting Implement „Secure by Default“ policies, including least privilege, need-to-know, least trust, mandatory access control and separation of duties.

Auch an dieser Stelle gibt keinen Widerspruch oder auch nur die Notwendigkeit größerer Änderungen. Was bei Privacy by Design der Schutz war, ist jetzt die Sicherheit: auch hier kann praktisch das Wort „Secure“ durch „Sociality“ (oder „Sociable“, um grammatisch korrekt zu sein) ausgetauscht werden, um das gewünschte Ziel zu erreichen.

381 https://www.gartner.com/doc/488575, abgerufen am 12.7.2016. 382 https://www.ipc.on.ca/images/Resources/pbd-privacy-and-security-by-design-oracle.pdf, abgerufen am 12.7.2016.

2.5 Das Framework-Prinzip

181

Während jedoch bei Security by Design laut Cavoukian und Dixon die Vorgabe lautet „that access to information, systems and applications [has to] be limited to just the data and functionality that are needed for a particular task“,383 so lautet die Abwandlung dieses Mottos für Sociality by Design folglich „Umso gesellschaftsfähiger, desto besser“ (oder, erneut zwecks sprachlicher Analogie, um es anders zu sagen: eine Nichtberücksichtigung gesellschaftlicher Belange muss auf das absolute Minimum reduziert werden. Nur so wird Gesellschaftsfähigkeit tatsächlich zur Standardeinstellung und zum Schutzgut.) Die weitere Ausgestaltung soll an dieser Stelle (wie zuvor auch) nicht diskutiert werden, wenngleich Cavoukian und Dixon dies anhand der Beispiele Least Privilege, Need-To-Know, Least Trust, Mandatory Access Control und Segregation of Duties durchführen und damit bereits deutlich wird, in welche Richtung sich die Ausgestaltung für Sociality by Design bewegen wird. Geteilt wird jedoch bereits an dieser Stelle die Einschätzung von Cavoukian und Dixon, dass „[t]his is an area where Privacy by Design and Security by Design show especially strong synergy. For example, the privacy principle of ‚data minimization‘ – collecting, using and exposing only the data elements needed to accomplish a specific task – is very much in line with the least privilege and need-to-know policies described above.“384 Damit zeigt sich erneut, wie die konkreten Überlegungen im folgenden Kapitel fortgesetzt werden. Der von Cavoukian und Dixon abschließend erwähnte Aspekt der „Ease of Use objectives“ spielt für Sociality by Design jedoch keine weitere Rolle und kann deshalb in der Folge unbeachtet bleiben.385 3. Embedded Into Design Apply Software Security Assurance practices. Use hardware solutions such as Trusted Platform Module

Ebenso ist es sehr einfach, die Anpassung der hier genannten Ideen an Sociality by Design durchzuführen. Denn auch hier reicht de facto eine schlichte Veränderung der Embedding-Idee: nicht Security wird eingebettet in ein Konzept, sondern Gesellschaftsfähigkeit (Sociality). Da eine technische Umsetzung „in two ways: through the software and through the hardware of a system“ hier keine Rolle spielt, beschränkt sich die Passung auf die Maßgabe der Einbettung von gesellschaftlichen Fakten in das jeweilige Konzept.

383 https://www.ipc.on.ca/images/Resources/pbd-privacy-and-security-by-design-oracle.pdf, abgerufen am 12.7.2016. 384 https://www.ipc.on.ca/images/Resources/pbd-privacy-and-security-by-design-oracle.pdf, abgerufen am 12.7.2016. 385 https://www.ipc.on.ca/images/Resources/pbd-privacy-and-security-by-design-oracle.pdf, abgerufen am 12.7.2016.

182

2 Theorie und Fundament

4. Positive Sum Accommodate all stakeholders. Resolve conflicts to seek win-win.

Auch an dieser Stelle wird darauf hingewiesen, dass sich die Idee der Positivsumme so nicht bei Sociality by Design wiederfindet und hierbei auf die Äußerungen zu Prinzip 4 von Privacy by Design (s. o.) verwiesen. Eine Positivsumme ist erstrebenswert, aber da es eben nicht in der Hand des Analysten bzw. Gestalters liegt, mithilfe von Sociality by Design die Menschen in Richtung einer Win-Win-Situation zu manipulieren, kann eine Antwort, die die Analyse ergibt, auch mal zu Lasten eines Beteiligten gehen. Es hängt vielmehr davon ab, welche Entscheidung am Ende des Analyse- bzw. Gestaltungsprozesses getroffen wird. Da die Positivsummenidee aber insgesamt zumindest partiell interessant erscheint, werden im folgenden Kapitel auch die Ideen von Cavoukian und Dixon beleuchtet, die sie als „some considerations from an enterprise perspective“ ins Spiel bringen.386 5. End-to-End Security Ensure confidentiality, integrity and availability of all information for all stakeholders.

Da es hier nicht so große Schnittmengen zwischen Privacy und Security by Design gibt, so ist die Auslegung dieses Punktes nach Cavoukian und Dixon eher von geringem Wert für Sociality by Design, denn hier geht es sehr stark um technische Konnotationen, die wenig mit der Analysemöglichkeit zu tun haben, die Sociality by Design bietet. Da für Sociality by Design auch keine besonderen Rollen- oder Rechteverwaltungen vorgesehen sind, werden an dieser Stelle keine weiteren Ausführungen dazu benötigt. 6. Visibility and Transparency Strengthen security through open standards, well-known processes and external validation.

An dieser Stelle kann wieder sehr schnell zugestimmt werden: auch für Sociality by Design ist Transparenz ein wichtiges Element des gesamten Konzepts. Die von Cavoukian und Dixon erwähnten Aspekte können nur unterstützt werden: „Open Standards“ sollten auch bei Sociality by Design Anklang finden, d. h. beispielsweise ein Rückgriff auf passende Methoden oder Vorgehensweisen. Dasselbe gilt für „Wellknown processes“, welche das Vertrauen der Betroffenen in das Analyseergebnis maßgeblich stärken können – denn schließlich ist es gut zu wissen, auf welchem Weg eine Entscheidung zustande kam. „External evaluation und validation“ sind

386 https://www.ipc.on.ca/images/Resources/pbd-privacy-and-security-by-design-oracle.pdf, rufen am 12.7.2016.

abge-

2.5 Das Framework-Prinzip

183

ebenfalls absolut passende Vorschläge, die bereits zuvor mehrfach in Form der Offenheit von Sociality by Design erwähnt worden sind. Und schließlich ist auch der Aspekt der „Security policies“ besonders wichtig, wenn nicht gar essentieller Bestandteil der gesamten Sociality-by-Design-Idee. Schließlich ist Sociality by Design insgesamt eine Art Policy, nach der Gesellschaftsfähigkeit einer Idee geprüft wird. 7. Respect for the User Respect and protect the interests of all information owners. Security must accommodate both individual and enterprise interests.

Steht bei Cavoukian und Dixon nun neben dem betroffenen Anwender auch die datenverarbeitende Institution im Blickpunkt, so gilt für Sociality by Design: die Gesellschaft muss berücksichtigt werden, nicht jedoch der alleinige Fixpunkt sein (so wie der Anwender und/oder die Institution). Problematisch wäre nur eine Nichtberücksichtigung, eben Nonsociality. Der zweite Teil der Arbeit von Cavoukian und Dixon widmet sich dann der beispielhaften Projektumsetzung, wie sie im hiesigen Falle in Kapitel 4 (und mithilfe der erwähnten eigenen Projekte) durchgeführt wird, weshalb auf eine entsprechende Analyse an dieser Stelle verzichtet werden kann. Viel hilfreicher als eine thematisch eher unpassende, weil inhaltlich weit abschweifende Adaption von Security by Design am Beispiel einer Oracle-Softwarelösung erscheint eine weitergehende Betrachtung dieses Rahmenkonzepts, vor allem vor dem Hintergrund, dass eines der wohl relevantesten Papers zu diesem Thema unter anderem von einer Projektpartnerinstitution stammt und deshalb sehr nah an der Arbeitsweise und den Empfehlungen der Verbundprojektpartner ist, wie im Verlauf von MisPel und PERFORMANCE entsprechend festgestellt werden konnte. Aufgrund dieser Dynamiken wird der Blick auf Security by Design an dieser Stelle entsprechend fokussiert fortgesetzt. Doch das bedeutet nicht, dass den Autoren des erwähnten Papers387 bzw. mir die Bandbreite des Prinzips Security by Design nicht bewusst ist:

387 Das Paper von Michael Waidner et al ist nicht nur deshalb von besonderer Relevanz, weil es außerordentlich detailliert auf Aspekte der Gestaltung nach Security by Design eingeht, sondern weil es auch personell und inhaltlich Kompetenzen in einem besonderen Maße bündelt: Michael Waidner, Professor für Informatik, war als Leiter des Fraunhofer-Instituts für Sichere Informationstechnologie und Direktor des Kompetenzzentrums European Center for Security and Privacy by Design (EC SPRIDE) Leiter der Vorläufereinrichtung des heutigen CRISP (Center for Research in Security and Privacy), der Einrichtung mit der inhaltlich größten Schnittmenge mit der hiesigen Privacy- und Security-by-Design-Analyse, welcher er heute vorsteht, siehe dazu unter anderem http://www.security-insider.de/fraunhofer-sit-beleuchtet-security-by-design-a-407455/, https:// www.sit.tu-darmstadt.de/de/security-in-information-technology/staff/michael-waidner/, http:// www.ec-spride.tu-darmstadt.de/crisp/ sowie https://de.wikipedia.org/wiki/Michael_Waidner, jeweils abgerufen am 1.8.2016.

184

2 Theorie und Fundament

Der Begriff Security by Design kann in unterschiedlicher Weise verstanden werden. Im engeren Sinn bedeutet Security by Design die Berücksichtigung von Sicherheit bereits in der Entwurfsphase des Softwareentwicklungsprozesses. In einem weiter gefassten Sinn kann man unter Security by Design den systematisch organisierten und methodisch ausgestatteten Rahmen verstehen, der im Lebenszyklus von sicherer Software Anwendung findet.388

Security by Design umfasst also theoretisch unendlich viele Ausprägungen, die sich zumindest unter den weiter gefassten Rahmen versammeln lassen. Eine solche unbegrenzte Perspektive ist natürlich sowohl insgesamt wenig hilfreich und auch im Rahmen einer Auseinandersetzung mit Security by Design nur überfordernd. Ebenso wenig hilfreich erscheint es allerdings auch, einem Einzelbeispiel (wie dem obigen Oracle-Konzept) zu folgen, da dort letztlich nur dasselbe umgesetzt wird wie es im hiesigen Falle vorgesehen ist: Es kann stets nur das Ziel sein, aus den allgemeinen Aspekten eines vorliegenden Textes mit Grundlagenelementen die Elemente rauszusuchen, die für das Motto „Gesellschaftsfähigkeit qua Konzept“ brauchbar erscheinen. Genau dies soll nun – so wie bereits zuvor – geschehen. Bereits zu Beginn verdeutlichen die Autoren des Security-by-Design-Papers die grundsätzliche Relevanz dieses Konzepts in gesellschaftlicher Hinsicht: Software und insbesondere sichere Software sind für die Gesellschaft sowie für das Funktionieren und die Aufrechterhaltung unseres Gesellschaftssystems sehr wichtig. Informationstechnologie bzw. Software haben mittlerweile Einzug in fast alle Bereiche des täglichen Lebens gehalten, in staatlichen Institutionen, Unternehmen oder bei Privatanwendern. Die gesellschaftliche Bedeutung von Security by Design wird durch die folgenden Punkte verdeutlicht.389

Aufgezählt werden dann die Punkte Wohlstand, Wirtschaft, eGovernment, öffentliche Sicherheit, kritische Infrastrukturen und Demokratie. Auch wenn einige Begründungen diskutabel erscheinen,390 so ist die Quintessenz jedoch völlig plausibel: Software (und ihre Gestaltung) ist kein von der Gesellschaft isolierter, nur für eine sehr spezielle

388 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, abgerufen am 13.7.2016. 389 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, abgerufen am 13.7.2016. 390 Die Aussage „Dass Informationstechnologie zu Demokratisierungsprozessen beitragen kann, ist spätestens seit dem Arabischen Frühling bekannt“ ist angesichts der auch zum Zeitpunkt der Veröffentlichung des Papers beobachtbaren weltpolitischen Entwicklungen sicherlich fragwürdig. Zudem sehen entsprechende Prozesse in der deutschen Gesellschaft – leider – ganz anders aus, siehe dazu die langwierigen Diskussionen rund um „Hate Speech“ und die kaum von der Bevölkerung besonders bevorzugten Vorteile der Digitalisierung in kultureller Hinsicht und – ganz besonders – ihre Ängste: http://www.faz.net/aktuell/politik/inland/bundeskriminal amt-erste-bundesweite-razzia-gegen-hasspostings-im-netz-14338248.html, https://www.bilanz. de/redaktion/laender-digitale-wirtschaft, https://www.ruv.de/presse/aengste-der-deutschen, jeweils abgerufen am 13.7.2016.

2.5 Das Framework-Prinzip

185

Gruppe von Menschen relevanter Prozess, sondern untrennbar mit den gesamtgesellschaftlichen Realitäten verbunden. Und gerade bei diesem wirkmächtigsten Punkt dieser Aufzählung, der Demokratie, finden die Autoren die wohl besten Worte: Informationstechnologie und Vernetzung können Transparenz schaffen und dienen der Evaluation von Politik und staatlichen Organen durch den Souverän. Diese Prozesse verlangen in einer Demokratie Selbstbestimmung und Freiheit der Bürgerinnen und Bürger. In diesem Zusammenhang spielen der Datenschutz und die Sicherheit von Software eine wichtige Rolle. Hierbei hilft Security by Design.391

Genau deshalb sind Privacy und Security by Design die idealen Startpunkte in einer By-Design-Familie, ergänzt von Sociality by Design. Für dieses Konzept finden sich auch in der Folge weitere gute Elemente, welche im Paper vorrangig in den als „Herausforderungen“ gekennzeichneten Bereichen zu finden sind und (in raffinierter Form) als Bausteine für Sociality by Design brauchbar erscheinen. Eingeleitet werden diese Herausforderungen mit dem Hinweis, dass viele Softwareschwachstellen über Jahre demselben Typ entsprechen, letztlich also – nach Erkennung des entsprechenden Schwachstellenmusters – leicht behebbar gewesen wären. Die Quelle dieser Fehler ist zudem leicht festzustellen: Es handelt sich in der Mehrzahl um Fehler durch den Faktor Mensch.392

Damit ist eine erste hoch wichtige Schnittmenge mit Sociality by Design erkennbar; es geht letztlich in allen drei By-Design-Familien um den Faktor Mensch, und das nicht nur, weil sich Software nicht selbst entwickelt oder „menschenferne“ Use Cases entwirft. Es geht – völlig zu Recht – um den Umgang mit Technik, und der ist im Falle der Gestaltung immer noch nicht ausreichend sozial: Die Entwicklung von Software wird heute in vielen Fällen noch fast ausschließlich durch die Funktionalität der Software getrieben. Sicherheit spielt nur eine untergeordnete Rolle, wenn überhaupt. Die Entwickler sind Experten in den jeweiligen Anwendungsdomänen der Software; Fragen der Sicherheit sind für Entwickler nicht hoch priorisiert.393

Dasselbe gilt natürlich für das Thema Sozialität, welches zur Erleichterung des Verständnisses für viele Technikexpertinnen und -experten zumindest mit Akzeptanz und Technikfolgenabschätzung übersetzt werden könnte (auch wenn das – wie im hiesigen Vorhaben deutlich gemacht werden soll – insgesamt noch zu kurz greift, aber immerhin den Weg zum Verständnis der Problemstellung erleichtert), jedoch

391 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, abgerufen am 13.7.2016. 392 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, abgerufen am 13.7.2016. 393 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, abgerufen am 13.7.2016; siehe dazu auch VDI 3780, S. 3 f. (PDF).

186

2 Theorie und Fundament

auch in dieser abgeschwächten Form grundsätzlich nicht ausreichend Einzug in die Entwicklungsprozesse hält. Dazu kommt noch folgendes, meist sehr leicht zu beobachtendes Phänomen: Machbarkeit ist manchmal so verstanden worden, dass man machen soll, was man machen kann. Auch der Wert der Wirksamkeit hat sich gelegentlich verselbstständigt und zu einem schrankenlosen ‚Stärker‘, ‚Schneller‘ und ‚Größer‘ geführt.394

Dafür gibt es jedoch Gründe: Der sich auf die Entwicklung neuer Funktionen auswirkende Innovationsdruck gibt Entwicklern auch wenig Freiräume, sich mit zusätzlichen Fragen der Sicherheit zu beschäftigen. Wenn tatsächlich Sicherheitsrichtlinien für Softwareentwicklung existieren wie etwa Programmierrichtlinien und -leitfäden, dann wurden diese oft nur unzureichend umgesetzt. Stattdessen wurden Freiheitsgrade der Programmiersprachen oft gedankenlos genutzt, wenn damit die gewünschte Funktion erzielt werden kann. Wenn Sicherheitsaspekte systematisch berücksichtigt wurden, dann wurde Sicherheit oft eher externalisiert, z. B. indem Sicherheitsexperten spezielle Sicherheitskomponenten entwickelt haben wie etwa Wrapper, Firewalls oder Virenscanner. Bereits existierende Hilfsmittel zum Aufspüren von Schwachstellen in Software wurden von Entwicklern oftmals nicht verwendet.395

Machen um des Machens willen geschah also nicht völlig zusammenhang- oder gar grundlos, sondern folgt(e) oft genug handfesten Interessen wie der Forderung nach ständiger Innovierung. Für Sociality by Design ist dies jedoch nicht nur eine hochwillkommene Aussage, sondern auch ein leicht adaptierbares Element für die eigene Konzeptionierung, denn auch hier könnte man wieder einen Wortaustausch durchführen und beispielsweise das Wort „Sicherheit“ im obigen Zitat von Waidner et al mit „Gesellschaft“ oder „Gesellschaftsfähigkeit“ ersetzen oder im nächsten Satz „Sicherheitsrichtlinien“ durch „sozio-technische Richtlinien“ austauschen. Das Ergebnis bleibt letztlich dasselbe: bei der Technikentwicklung steht „by Design“ nur die Technik im Vordergrund, nicht die Ganzheitlichkeit, so dass die Idee übernommen, aber durch Sociality by Design auf die ganzheitliche Gesellschaftsfähigkeit ausgeweitet werden kann. Letztlich wird aber die Notwendigkeit von anzuwendenden Rahmenkonzepten so oder so nur gestärkt, denn: Der Gedanke, dass ein Hersteller die große Menge von Entwicklern innerhalb kurzer Zeit ändern kann, ist nicht realistisch. Eine Möglichkeit zur Verbesserung der Lage besteht darin, den Entwicklern technische Lösungen an die Seite zu stellen, die sie davor bewahren, entsprechende Fehler zu begehen.396

394 VDI 3780, S. 13 (PDF). 395 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, abgerufen am 13.7.2016, mit eigenen Betonungen. 396 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, abgerufen am 13.7.2016.

2.5 Das Framework-Prinzip

187

Hier ähneln sich Privacy, Security und Sociality by Design erneut sehr stark, wobei die „technische Lösung“ als Rahmenkonzept verstanden wird, was der Namensbestandteil „by Design“ ja auch verdeutlicht – Waidner et al sehen jedoch auch eine (zusätzliche) tatsächliche Technik als Lösungsmodell: „Diese von Menschen verursachten und mittlerweile gut bekannten Sicherheitsfehler könnten durch Assistenzsysteme bei der Entwicklung (. . .) und durch sicherheitsorientierte Rahmenbedingungen größtenteils vermieden werden.“397 Da es bei Sociality by Design letztlich auf den menschlichen Analysten ankommt und Assistenzsysteme somit nur als Entscheidungsunterstützungssysteme zu verstehen sind, folgte ich den weiteren Ausführungen von Waidner et al an dieser Stelle nicht, da diesen (vorrangig) eine Vollautomatisierung vorschwebt, die im hiesigen Falle keinen Sinn ergäbe.398 Die letztlich aus den bisherigen Überlegungen destillierte Vision ist hingegen weitestgehend deckungsgleich mit den Ideen für Sociality by Design: Der Softwareentwicklungsprozess der Zukunft wird durch Programmiersprachen und Tools geprägt sein, die konsequent sicherheitsorientiert sind und nahtlos integriert werden können. Hierdurch werden sicherheitsrelevante Fehler entsprechend dem jeweils aktuellen Stand der Forschung verhindert und Schwachstellen systematisch und weitestgehend automatisiert gefunden.399

Durch die Betonungen werden die Schnittmengen mit Sociality by Design deutlich: der jeweils aktuelle Stand der Forschung kommt durch das modulare Gesamtkonzept zum Tragen und (gesellschaftliche) Schwachstellen400 werden systematisch und nicht nur zufällig gefunden. Die erste Herausforderung, der sich Waidner et al widmen, ist das Thema „Sicherheitsorientierte Programmiersprachen“ bzw. „Managed Code“. Die für den hiesigen Kontext brauchbarste Erkenntnis dieses Abschnitts verbirgt sich ganz am Ende: „Programmiersprachen in Richtung IT-Sicherheitsorientiertung umzubauen scheint letztlich der konsequenteste Weg.“401 Dies entspricht erneut der By-DesignLogik und findet deshalb auch nicht meinen Widerspruch. Die zweite Herausforderung lautet „Risiko-, Bedrohungs- und Reifegradmodelle“. Hier ergeben sich direkt zu Beginn dieses Abschnitts größere Schnittmengen, denn schon die einleitenden Erläuterungen versprechen eine große Brauchbarkeit

397 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, abgerufen am 13.7.2016. 398 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, S. 12 f, abgerufen am 13.7.2016. 399 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, S. 13, abgerufen am 13.7.2016; mit eigenen Betonungen. 400 Im Sinne von gesellschaftlicher Ablehnung, Angst o. ä. 401 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, S. 14, abgerufen am 13.7.2016.

188

2 Theorie und Fundament

im Sinne der „Ausbeutbarkeit“ für Sociality by Design: „Durch Risiko-, Bedrohungsund Reifegradmodellierung werden Risiken überhaupt erst erfass-, beschreib- und handhabbar.“402 Diese Konzepthaftigkeit ist ja genau das, was die By-Design-Ansätze versprechen. Dass es „keine allgemein anerkannte Herangehensweise und kein allgemein akzeptiertes Tool für die Risiko-, Bedrohungs und Reifegradmodellierung zur Entwicklung sicherer Softwareprodukte, die nicht für den Hochsicherheitsbereich bestimmt sind“403 gibt, betont ja nur die Relevanz der By-Design-Ansätze im Allgemeinen und des hiesigen Ansatzes im Besonderen. Denn was für das Thema Sicherheit gilt, gilt erst recht für das Thema Gesellschaftsfähigkeit.404 In diesem Zusammenhang werden folgende Fragen gestellt:405 – Wie kann man Risiko-, Bedrohungs- und Reifegradmodellierung durchführen, so dass sie intersubjektiv nachvollziehbare Ergebnisse liefern? – Wie kann erreicht werden, dass objektive Ansätze zur Risiko-, Bedrohungsund Reifegradmodellierung verstärkt eingesetzt werden? – Wie interagieren die Modelle dieser Herausforderung mit den Entwicklungsmodellen der nächsten Herausforderung? Wie kann eine nahtlose Integration von Risiko-, Bedrohungs- und Reifegradmodellen mit Entwicklungsmodellen für den sicheren Softwarelebenszyklus erreicht werden? Genau diese drei Fragen sollen (auch) durch Sociality by Design beantwortet werden und es wird im Folgekapitel dazu auch entsprechende Einbindungen dieser Aspekte geben. In aller Kürze kann man jetzt schon illustrativ sagen – dass eine Gesellschaftsfähigkeitsmodellierung intersubjektiv nachvollziehbare Ergebnisse liefern kann, beispielsweise durch eine durchgehende Darstellung des Modellierungsprozesses, was mithilfe eines Rahmenkonzepts und einer entsprechenden Toolbox (sprich: dem Ausdifferenzieren und Zunutzemachen des Foucaultschen Werkzeugkastenprinzips) nachweislich realisier- und auch durchhaltbar ist – dass objektive Ansätze der Gesellschaftsfähigkeitsmodellierung nicht nur durch Zwangsmaßnahmen (beispielsweise in Form von Gesetzen, Vorschriften oder de-facto-Pflichten wie Compliance-Regelungen), sondern auch aufgrund der konkreten Fragebeantwortungsleistung (sprich: durch überzeugende Leistungsfähigkeit) eingesetzt werden können, so wie es bei Privacy by Design 402 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, S. 15, abgerufen am 13.7.2016. 403 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, S. 15, abgerufen am 13.7.2016. 404 Im weiteren Verlauf dieses Kapitels wird gezeigt, dass sehr offene Ansätze wie Technikfolgenabschätzung und Akzeptanzforschung insgesamt nur eine sehr geringe Deckungsgleichheit mit einem Konzeptansatz wie Sociality by Design liefern und deshalb nicht als ähnlicher oder gar gleichwertiger Ansatz zu bewerten sind. 405 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, abgerufen am 26.7.2016, mit eigenen Betonungen.

2.5 Das Framework-Prinzip

189

letztlich auch der Fall war und bei Sociality by Design vor allem in Form des Kernelements der Medienanalyse sichergestellt wird – dass eine Zukunftsfähigkeit vor allem durch eine offene Architektur des Rahmenkonzepts und eine dauerhaft gesicherte Arbeit an diesem Konzept sicherlich am besten sichergestellt werden kann: dazu braucht es eine besonders starke Berücksichtigung der Eigengesetzlichkeiten der Digitalisierung, um „Ewigkeitsfaktoren“ zu erhalten und gleichzeitig zu wissen, wo diese fehlen und eine dynamische Reaktion auf neue Herausforderung notwendig ist Die dritte Herausforderung sehen Waidner et al in Entwicklungsmodellen für einen sicheren Softwarelebenszyklus, d. h. in ihrer konkreten Ausgestaltung bzw. Anwendung: Entwicklungsmodelle erhöhen, wenn sie rigoros angewendet werden, das Sicherheitsniveau von Software von Anfang an und über die gesamte Lebenszeit von Software. Zur Umsetzung dieser Rahmenwerke ist es essenziell, dass sie ohne Verzögerung der Entwicklungszeiten schrittweise eingeführt werden und so ineinander greifen, dass sie für die Akteuere wie aus einem Guss integriert erscheinen und nicht – wie bisher – siloartig nebeneinander stehen. Leider weist kein Rahmenwerk vollständig und nahtlos integrierte Assistenzsysteme auf und die korrekte und nachhaltige Anwendung von sicherheitsorientierten Tools ist weder belegbar noch überprüfbar.406

Besonders interessant ist hier der Aspekt der korrekten und nachhaltigen Anwendung. Waidner et al schreiben dazu in der Folge, dass „soweit bekannt“ kein Tool verpflichtend angewendet werden muss und auch keine Integrationen in Entwicklungsumgebungen sowie halb- oder vollautomatisierte Überprüfungen stattfinden. Empfehlungen im Sinne eines „how to“ seien, so der Eindruck aufgrund der genannten exemplarischen Bemühungen in der Softwarewelt, zwar begrüßenswert, doch: „Offen bleibt, wie die Detaillierung, Durchsetzung und der Nachweis der Durchführung der Empfehlungen erfolgt und wie die Automatisierung der Softwaresicherheit mittels Tools angegangen wird.“407 Auch hier sind bezüglich des Sociality-by-Design-Ansatzes natürlich Überlegungen in Richtung einer verpflichtenden Anwendung zumindest bestimmter Teilaspekte des Rahmenkonzepts sinnvoll, beispielsweise die Transparenz des durchlaufenen Forschungsprozesses. Dieser Aspekt wird in Kapitel 4 mehrmals eine besondere Rolle spielen. Die vierte Herausforderung – Verifikation und Testen – entfällt hingegen für Sociality by Design, da eine Verifikation bzw. ein Test des sozio-technischen Forschungsprozesses nicht wie bei einer Software durchgeführt werden kann. Hier

406 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, S. 16, abgerufen am 1.8.2016. 407 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, S. 17, abgerufen am 1.8.2016.

190

2 Theorie und Fundament

werden in der Folge andere Aspekte eine Rolle spielen, die nur sehr geringe Schnittmengen mit der (in der Informatik klassischen) Idee des Verifizierens und Testens zu tun haben, jedoch auf ein ähnliches Ergebnis hinauslaufen, beispielsweise eine intersubjektive Reproduzierbarkeit einer Tendenzanalyse. Die fünfte Herausforderung, die nachhaltig sichere Integration von kryptographischen Primitiven und Protokollen, weist einen besonders wertvollen Aspekt auf, der symptomatisch für die gesamte Idee Sociality by Design ist: Der Entwurf komplexer Systeme erfolgt in der Regel komponentenweise; die gewaltige Komplexität großer Softwareprojekte, wie beispielsweise moderner Mehrbenutzer-Betriebssysteme, ist ohne Modularisierung nicht beherrschbar.408

Der Aspekt der Modularisierung entspricht in der konkreten Ausprägung der Bausteinidee 1:1 der durch mich erstmals 2005 durchgeführten und in dieser Arbeit weiter stark ausdefinierten Idee des „bastelnden Denkens“ von Claude Levi-Strauss. Die Besonderheiten der Integration kryptographischer Elemente in Softwareprojekte zeigen hingegen keine ausreichende Passung für das hiesige Vorhaben und erfahren deshalb keine entsprechende Beachtung. Die sechste Herausforderung – das Aufspüren absichtlich eingetragener Schwachstellen und Provenance Tracking – spielt ebenfalls keine ausreichend große Rolle für die Ausgestaltung der hiesigen Idee. Ungleich bedeutender ist da hingegen die siebte Herausforderung: gemeinsame Sprache. Hier stellen Waidner et al zielsicher fest: Bisher ist aber nicht sichergestellt, dass die unterschiedlichen Sichten der beteiligten Einzeldisziplinen konsistent sind. Dies wird insbesondere dadurch behindert, dass die Fachsprachen der beteiligten Einzeldisziplinen nicht kompatibel sind.409

Dies lässt sich wieder direkt in den Verbundforschungsprozess von MisPel und PERFORMANCE übertragen, indem ebenfalls beteiligte Einzeldisziplinen ihre Sprache aufrechterhalten, wenn nicht ein gemeinsamer Nenner erarbeitet oder gar erzwungen wird. Da diese Komponente essentieller Bestandteil des Verbundforschungsvorhabens MisPel war, wird im folgenden Kapitel auf die dort gewonnenen Erfahrungen besonders Bezug genommen. Hier zeigt sich nicht nur eine weitere „Ausbeutbarkeit“ der von Waidner et al ausgeprägten Idee Security by Design, sondern zugleich eine aufgrund der in MisPel gewonnenen Kenntnisse außerordentlich hohe Relevanz. Damit wird zudem ein erster Lösungsansatz geliefert, den sich auch Waidner et al wünschen:

408 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, S. 20, abgerufen am 1.8.2016. 409 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, S. 24, abgerufen am 1.8.2016.

2.5 Das Framework-Prinzip

191

Es ist offen, wie von abstrakten, umgangssprachlichen Sicherheitsaussagen systematisch auf Fragestellungen von Einzeldisziplinen geschlossen werden kann. Eine Methodik der schrittweisen Verfeinerung im Sinne eines Angriffsbaums ist denkbar.410

Dass die Idee der schrittweisen Verfeinerung gedanklich weitestgehend identisch mit der hier ausgeprägten Methode Vom Groben ins Feine sein dürfte und dies mir natürlich sehr entgegenkommt, dürfte sich dabei von selbst verstehen. Und aufgrund des ganzheitlichen Ansatzes wurde diese Aufgabe nicht nur für den wichtigen, aber eben nicht allein wichtigen Bereich der Rechtswissenschaft (in Hinblick auf die Softwaregestaltung) durchgeführt, wobei Waidner et al hier sicherlich ein passendes Beispiel bringen: Durch die zunehmende Verrechtlichung von Anforderungen an die IT-Sicherheit spielt im Rahmen von Security by Design aber auch der Gesetzgeber zunehmend eine Rolle bei der Formulierung von funktionalen und nichtfunktionalen Anforderungen an die Systeme. Die Besonderheit ist, dass er in Teilen ein eigenes Sprachsystem, die Rechtsterminologie, mit zwingendem Geltungsanspruch erzeugt. Die sinnerhaltende Transformation dieser Rechtssprache in Allgemeinbegriffe ist die klassische Tätigkeit des Juristen. Im Rahmen von Security by Design kommt nun noch die nur interdisziplinär zu bewältigende Aufgabe hinzu, auch die sinnerhaltende Transformation in die Sprachdomänen der Informatik-Fachdisziplinen zu gewährleisten und die Prozesse dieser Übertragung nachvollziehbar zu dokumentieren. Die Gesamtheit der Betrachtungsweisen von Einzeldisziplinen soll helfen, die Sicherheit von Gesamtsystemen zu evaluieren. Inwiefern die Sichtweisen der Einzeldisziplinen aber alle Sicherheitsrisiken beleuchten, ist nicht bekannt.411

Insbesondere beim letzten Aspekt – vorausgesetzt, man beschränkt sich nicht nur auf Sicherheit, sondern widmet sich eben auch der Sozialität – soll Sociality by Design eine entsprechende Antwort liefern. Waidner et widmen sich in der Folge der Frage von Security by Design bei verteilter Entwicklung und Integration. Dies geschah sehr ähnlich bereits im Projekt MisPel, was sich im folgenden Kapitel vor allem durch die MisPel-Bezüge entsprechend bemerkbar machen wird, doch auch die von Waidner et al in ihrer „Vision“ genannten bedeutenden Aspekte412 finden in der Folge Berücksichtigung: Die verteilte Entwicklung von sicherer Software und Integration von sicheren IT-Lösungen wird durch vereinheitlichte, organisationsübergreifende und wertschöpfungskettenumfassende Sicherheitsprozesse gekennzeichnet sein, bei denen Sicherheit zum jeweils frühest möglichen Zeitpunkt und durchgängig im Lebenszyklus berücksichtigt wird.413

410 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, S. 25, abgerufen am 1.8.2016. 411 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_De sign.pdf, S. 26, abgerufen am 1.8.2016. 412 Mit eigenen Betonungen. 413 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, S. 29, abgerufen am 1.8.2016.

192

2 Theorie und Fundament

Ähnliche Berücksichtigung erfährt die darauffolgende Herausforderung der Standardisierung von wertschöpfungskettenumfassenden Sicherheitsprozessen. Auch hier wird vor allem das in MisPel gewonnene Datenmaterial genutzt, da auch hier intensiv zum Thema Standards geforscht wurde. Schließlich gilt Ähnliches für das Thema Governance, dem sich Waidner et al im Anschluss an die Standardisierungsthematik widmen. Dem Aspekt der Transparenz kann – ohne Kapitel 3 vorgreifen zu wollen – hier wiederholt zugestimmt werden, allein schon aufgrund der in der Tat nicht nur gering wirkenden Mentalitätsverhältnisse in Verbundforschungsvorhaben: Die Ziele des Governance-Rahmenwerks bestehen darin, Unternehmen ein Vorgehensmodell zu liefern, mit dem die bisherige Softwareentwicklung durch die Erweiterung um wertschöpfungskettenumfassende Sicherheitsprozesse verbessert und betrieben werden kann. Dies umfasst die Definition von neuen Rollen mit ihren Zuständigkeiten und Verantwortlichkeiten in der Organisation. Um diese Vorgehensmodelle umsetzen zu können, müssen Hindernisse in der Organisation erkannt und beseitigt werden. Aufgrund der Tatsache, dass bisherige Vorgehensweisen und Gewohnheiten bei der Softwareentwicklung hinterfragt, auf den Prüfstand gestellt und verändert werden müssen, sind Widerstände und Reibungsverluste realistisch. Vor diesem Hintergrund hat Transparenz bei der Führung eine herausragende Bedeutung, so dass alle einbezogenen Akteure die Gründe zur Weiterentwicklung und Umstrukturierung der Softwareentwicklungsprozesse verstehen können.414

Die letzte Herausforderung, der sich Waidner et al widmen, ist die Zusicherung mittels Sicherheitsprozessen: „Aussagen zum absoluten Sicherheitsniveau von Softwareprodukten sind jedoch in der Praxis schwierig zu treffen, insbesondere wenn Softwareprodukte durch Komposition von Teilen verschiedener Hersteller entstehen. Aussagen zu Sicherheitsprozessen bei der Herstellung bieten eine Alternative, um Herstellern, Integratoren oder Anwendern Zusicherungen zu geben, dass Sicherheitsaspekte bei der Herstellung von Software berücksichtigt wurden. Mittels solcher Zusicherungen sollten Hersteller Aussagen darüber treffen, in welchem Umfang und mit welcher Genauigkeit und Sorgfalt sie bestimmte Systematiken anwenden, um Sicherheit zu gewährleisten.“415 Ersetzt man nun das Wort „Sicherheit“ durch „Sozialität“, so ergibt sich wieder einmal ein interessantes Schema für Sociality by Design. Denn auch in dem hier skizzierten Rahmenkonzept muss es um Vertrauen in die Prozesse und Ergebnisse gehen. Waidner et al schlagen in der Folge den (vielfach vorzufindenden und sicher auch insgesamt als bewährt zu bezeichnenden) Weg der Zertifizierung vor, doch das wäre im Falle von Sociality by Design eher ein Thema hinsichtlich Vertrauensaufbau und -erhalt, nicht jedoch für die Überprüfung des Rahmenkonzepts an sich.

414 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, S. 34, abgerufen am 1.8.2016. 415 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, S. 42, abgerufen am 2.8.2016, mit eigenen Betonungen.

2.5 Das Framework-Prinzip

193

Dies kann nur durch Transparenz erreicht werden, doch dieser Punkt wird selbstverständlich in der Folge eine ganz besonders große Rolle spielen, beispielsweise hinsichtlich der Methoden-, Daten- und Anwenderkompetenz. Ein wichtiger Aspekt wird dabei beinahe etwas beiläufig von Waidner et al gebracht. Die direkte Aussage zur Sicherheit von Softwareprodukten beispielsweise mittels des (auch in diesem Vorhaben berücksichtigten) Ansatzes Common Criteria ist in der Tat ein mühsamer Weg: Nach [Joab Jackson; von Waidner et al. genannte Quelle, Anm.] sind die Zertifizierungen nach Common Criteria zu schwerfällig, langwierig und sehr teuer. Zertifizierungen nach Common Criteria werden deshalb nur in Nischenbereichen angewendet, insbesondere in Fällen, bei denen es besonders hohe Sicherheitsanforderungen gibt, z. B. auf Grund von Auflagen durch Regulierung.416

Bei der Betrachtung von Common Criteria hinsichtlich der Nutzbarkeit für Sociality by Design spielten diese Argumente freilich eine Rolle, denn Sociality by Design soll ja gerade nicht „schwerfällig, langwierig und sehr teuer“ sein, sondern eine bewusst417 grob gehaltene Lösungsmöglichkeit darstellen, die mithilfe des (in Kapitel 3 entsprechend ausgearbeiteten) Ansatzes der Tendenzanalyse Antworten hinsichtlich der Sozialität eines (Software)Entwicklungsvorhabens liefern kann. Flexibilität – die gerade kein Merkmal von Common Criteria ist, so Waidner et al.418 – ist hingegen ein besonderes Merkmal von Sociality by Design und lässt einen Spielraum für Veränderungen explizit zu. Es soll eben gerade kein starres Modell entstehen, welches nur eine Einzelfalllösung (oder -zertifzierung) darstellt. Ohne bereits zu viel vorweg nehmen zu wollen: hier unterscheiden sich Common Criteria und Sociality by Design in gleich mehreren wesentlichen Aspekten sehr stark, auch wenn erneut zahlreiche Einzelideen für die Bausteingestaltung genutzt werden konnten. Waidner et al widmen sich abschließend dem in der Informatik keinesfalls als Randaspekt zu bezeichnenden Thema Legacy-Software.419 Sociality by Design soll ausschließlich für Gegenwart und Zukunft sein, so dass „Altfälle“ in dieser Arbeit keine thematische Berücksichtigung finden. Vielleicht wird es in Zukunft möglich sein, auch diese Fälle zu analysieren, doch derzeit ist dies – allein schon aus Gründen

416 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, S. 42 f, abgerufen am 2.8.2016. 417 Dieser Wunsch wurde im Übrigen vor allem durch mehrere Projektpartner formuliert, um zeitund praxisnah zu Antworten zu kommen, die eher detailscharfe Verfahren systembedingt nicht liefern können. 418 „Eine weitere wichtige Eigenschaft von Common Criteria, die im Widerspruch zu den Anforderungen der Hersteller von Anwendungssoftware steht, liegt darin begründet, dass Common Criteria keine flexiblen Kompositionen unterstützt, wie sie sich z. B. durch das Zusammensetzen eines Softwareprodukts aus Komponenten verschiedener Hersteller ergeben.“, S. 43. 419 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, S. 46, abgerufen am 2.8.2016.

194

2 Theorie und Fundament

der Arbeitsökonomie und der daraus resultierenden Verhütung von Überdehnung der hiesigen Projektidee – nicht vorgesehen. Fasst man die hiesigen Aspekte des bisher umfangreichsten Gedankenmodells rund um Security by Design in Deutschland zusammen, so kann man auch im Fazit der Autoren eine große Gemeinsamkeit entdecken: „In der Zukunft wird es darum gehen, die entscheidenden Fragen rund um Security by Design zu erforschen und verwertbare Lösungen zu entwickeln.“420 Die entscheidenden Fragen rund um Sociality by Design werden umfassend in dieser Arbeit behandelt. Quelle der Antworten auf diese Fragen sind ganz maßgeblich Privacy und Security by Design. Zugleich sind diese beiden Ideen auch ganz allgemein eine fruchtbare Inspiration, weshalb man sich den Ausführungen von Waidner et al anschließen kann: „[Dieser] Trend- und Strategiebericht gibt mit seinen Visionen und Idealbildern Richtungen vor, in die sich Security by Design entwickeln kann bzw. muss.“421 Da, wo Ideen und Gemeinsamkeiten von Privacy, Security und Sociality erkennbar sind, werden diese zweifellos in die Ausgestaltung des hiesigen By-Design-Konzepts einfließen.

2.5.2 Handbuch-Konzepte Auch die nun folgenden Handbuch-Konzepte ISO 27001 und 31000 sowie der BSI-ITGrundschutz wurden auf ihre Brauchbarkeit hinsichtlich der Ausgestaltung von Sociality by Design geprüft. Die Detailauswertung erfolgt wie bei den zuvor besprochenen By-Design-Ansätzen dann in Form der Ausprägung von Sociality by Design im entsprechenden Kapitel – vorrangig natürlich auf Basis weiterer Bausteinerstellungen; hier geht es ausschließlich um die Darstellung des grundsätzlichen Sachstands. ISO 27001: Die Norm ISO 27001 steht aufgrund ihrer inhaltlichen Ausrichtung nicht automatisch im Verdacht, eine forschungsprojektgeeignete Sozialitätsprüfung oder gar -unterstützung bieten zu können, doch ist der Zweck dieses Kapitels ja auch nicht eine Anwendung bestehender Ideen, sondern die Prüfung des Sachstandes hinsichtlich der Übernahme brauchbarer Elemente (wenn nicht gar ganzer Konzepte), auch um den Einstieg in Sociality by Design so einfach und reibungslos wie möglich zu gestalten und an die Mentalitäten anzuknüpfen, die die forschende

420 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, S. 50, abgerufen am 2.8.2016. 421 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, S. 50, abgerufen am 2.8.2016.

2.5 Das Framework-Prinzip

195

Zielgruppe bevorzugt. Und hier bietet ISO 27001 durchaus etliche interessante Aspekte, was vor allem im Gespräch mit den Projektpartnern immer wieder deutlich wurde. Die Empfehlung, ISO 27001 zu berücksichtigen, erwuchs somit letztendlich aus der Projektarbeit und dem gemeinsamen Formulieren meiner Idee,422 und zwar gleichermaßen aus eigenen Recherchen wie auch aus Expertengesprächen im Projektpartnerkreis. Beiden Ideenquellen liegt die wesentliche Tatsache zugrunde, dass die konzeptionelle Einbettung von Datenschutzmaßnahmen heutzutage ein Muss ist – womit wir beim Konzept von Privacy by Design wären. Dass bei einer Betrachtung von ISO 27001 natürlich auch der IT-Grundschutz nicht fehlen darf – und zwar nicht nur aus strukturellen, sondern eben auch aus inhaltlichen Gründen -, versteht sich fast schon von selbst.423 Bereits die Struktur der Norm ist interessant, zeigt sich doch durch die klare und logische Gliederung das Konzept der Rahmung, welches gleichermaßen allgemeine Orientierung und konkrete Hilfestellung ermöglichen soll.424 Hinzu kommt der Appell, dass ein solches Rahmenkonzept „als Teil der Abläufe der Organisation in deren übergreifende Steuerungsstruktur integriert ist und die Informationssicherheit bereits bei der Konzeption von Prozessen, Informationssystemen und Maßnahmen berücksichtigt wird.“425 Die Rahmung wird somit folgerichtig von einer allgemeinen Erklärung begleitet, was ebenfalls zur Orientierung und Hilfestellung beiträgt und somit auch ein Element für Sociality by Design sein sollte. Es ist zwar nicht überraschend, dass in einer Norm eine „klare Ansage“ bezüglich des Wieso, Weshalb und Warum gemacht wird, doch besteht ja grundsätzlich schon ein gravierender Unterschied darin, ob ein Punkt „Allgemeines“ appellierend oder informierend ausgestaltet wird. Der Wirkungsgrad dürfte bei ersterem unbestreitbar

422 Sociality by Design war beispielsweise 2009 nicht mehr als eine sehr grobe Idee, die sich vor allem im Gespräch mit den Projektpartnern immer weiter verfeinerte – und so auch erst ab einem gewissen Grad der Elaboration überhaupt als Konzeptidee erkennbar war. 423 Interessant sind hier bereits erste, anfangs noch eher oberflächliche Rechercheergebnisse, die die enge Verbindung von Norm und Konzept aufzeigen: „Unternehmen und Behörden können ihr systematisches Vorgehen bei der Absicherung ihrer IT-Systeme (Informationssicherheits-Managementsystem (ISMS)) gegen Gefährdungen der IT-Sicherheit mit Hilfe des ISO/IEC 27001-Zertifikats auf Basis von IT-Grundschutznachweisen.“ (https://de.wikipedia.org/wiki/IT-Grundschutz, abgerufen am 2.8.2016) in Verbindung mit „Viele (Groß-)Firmen haben interne Sicherheitsrichtlinien für ihre IT. Durch eine interne Begutachtung (auch Audit genannt) können Unternehmen ihr korrektes Vorgehen im Abgleich mit ihren eigenen Vorgaben überprüfen. Unternehmungen können damit allerdings ihre Kompetenzen im Bereich der IT-Sicherheit nicht öffentlichkeitswirksam gegenüber (möglichen) Kunden aufzeigen. Dazu ist eine Zertifizierung z. B. nach ISO/IEC 27001 oder ISO/IEC 27001-Zertifikat auf Basis von IT-Grundschutz notwendig.“ (https://de.wikipedia.org/wiki/ISO/IEC_ 27001, abgerufen am 2.8.2016). 424 DIN ISO/IEC 27001, Informationstechnik – IT-Sicherheitsverfahren – InformationssicherheitsManagementsysteme – Anforderungen (ISO/IEC 27001:2013 + Cor. 1:2014), S. 5. 425 DIN ISO/IEC 27001, S. 5.

196

2 Theorie und Fundament

höher sein, auch deshalb, weil individuelle Interpretationen so erfolgreich zurückgedrängt und Grauzonen vermieden werden. Deshalb wirkt auch der weitere Normgestaltungsverlauf überzeugend und in vielfacher Hinsicht nutzbar für die Ausgestaltung von Sociality by Design. Auch wenn wie so oft die gesellschaftliche Komponente in ISO 27001 meist nur indirekt angesprochen wird, so sind doch einzelne Punkte fast schon als „Klassiker“ zu bezeichnen, zumal sie auch an der richtigen Stelle vorzufinden sind. Dazu ein Beispiel: Punkt 4.3 widmet sich dem Festlegen des Anwendungsbereichs des Informationssicherheitsmanagementsystems. Dort heißt es: „Der Anwendungsbereich muss als dokumentierte Information verfügbar sein.“ Gerade diese „vernünftige“ Dokumentation kommt sowohl laut der interviewten Experten als auch nach Beobachtung und Recherche meinerseits allzu oft viel zu kurz.426 Es ist daher richtig, den Aspekt der Dokumentation immer wieder prominent zu betonen. Dies geschieht in der Norm häufig und auch durchaus fordernd. Auch andere Punkte wie 5.2 (Politik), 5.3 (Rollen) und 6.1 (Umgang mit Chancen und Risiken) bieten Ansätze für ein Rahmenkonzept, welches sich auf Sozialität bezieht und nicht auf Informationssicherheit. Doch da letzteres eine Teilmenge des ersteren ist, beides sich also um den Aspekt des Sozialen (hier konkret in ISO 27001: um Informationssicherheit; in Sociality by Design: um digitale Sozialität) dreht, erscheinen strukturelle wie auch inhaltliche Übernahmen sinnvoll. ISO 27001 wird als ideengebende Unterfütterung der eigenen Arbeit in Kapitel 4 demzufolge eine besondere Rolle spielen und sich qualitativ beinahe auf einer Ebene mit Privacy und Security by Design wiederfinden. BSI IT-Grundschutz: Die Grundidee des IT-Grundschutzes klingt einerseits sehr passend: „Der vom BSI entwickelte IT-Grundschutzermöglicht es, notwendige Sicherheitsmaßnahmen zu identifizieren und umzusetzen.“427 Andererseits allerdings ist dies eine sehr oberflächliche Aussage. Identifikation und Umsetzung notwendiger Sicherheitsmaßnahmen sollten Teil einer jeden Sicherheitsstrategie sein, so dass erst der nächste Schritt über die Brauchbarkeit des IT-Grundschutzes für Sociality by Design Aufschluss geben konnte. Und da dieser zweite Schritt gleich mehrere Dimensionen beinhaltet, lohnt eine Bevorzugung der offensichtlich brauchbaren Aspekte: der

426 Siehe dazu beispielhaft aus der Praxis http://pi.informatik.uni-siegen.de/stt/15_4/15_4_tb_cefe/ 15_4_se-errors-2.html, http://www.tecchannel.de/a/softwareentwickler-wissen-zu-wenig-ueber-ihre-pro jekte,1735821,3, http://www.computerwoche.de/a/dokumentation-eine-laestige-angelegenheit,1182829, https://www.qz-online.de/qualitaets-management/qm-basics/software-qualitaet/dokumentation/arti kel/die-rolle-der-dokumentation-in-software-projekten-258004.html und http://www.software-architek ten.de/architekturdokumentation-ist-pflicht/, jeweils abgerufen am 3.8.2016. 427 https://www.bsi.bund.de/DE/Themen/ITGrundschutz/itgrundschutz_node.html, abgerufen am 16.8.2016.

2.5 Das Framework-Prinzip

197

IT-Grundschutz-Kataloge428 und der IT-Grundschutz-Standards.429 Zumindest als Inspiration brauchbar erscheint allerdings auch der Teil „IT-Grundschutz-Modernisierung“, der sich der „derzeit durchgeführten Modernisierung des IT-Grundschutzes“ und damit der Frage nach der Methode der Modernisierung widmet. Denn spätestens nach einigen Jahren wird auch Sociality by Design ein Update benötigen, so dass dieser Aspekt definitiv in Kapitel 5 aufgegriffen wird. Für Kapitel 4 sind jedoch erst einmal die zuerst genannten Themenfelder interessant. Zudem erfolgte ein Blick in die Idee des zum BSI-IT-Grundschutz gehörenden GSTOOL bzw. in seine Leistungsmerkmale, wobei das Tool an sich aufgrund der Einstellung des Vertriebs zum 31. Dezember 2014 nicht mehr berücksichtigt wurde.430 Es wird in diesem Zusammenhang deshalb lediglich geprüft, ob die Leistungsmerkmale vorbildlich sind oder ob die Sociality-by-Design-Datenbankebene von diesen Ideen profitieren kann.431 Da das BSI explizit auf andere Tools verweist,432 schließt sich hier zudem der Kreis: die Toolebene kann und soll nicht ausufernd analysiert werden, sowohl aus organisatorischen433 als auch aus finanziellen Gründen.434 Die BSI-Angebote zu Schulung und Zertifizierung nach ISO 27001 werden aufgrund ihrer geringen Passung im Rahmen des hiesigen Projekts nicht genauer betrachtet. Neben ISO 27001 war der BSI-IT-Grundschutz mit Abstand die häufigste Nennung im Expertenkreis nach den offensichtlichen Quellen Privacy und Security by Design. Über die Jahre wurde über zahlreiche Einzelaspekte gesprochen, so dass vor allem in den beiden Forschungsvorhaben MisPel und PERFORMANCE stets ein besonderer gedanklicher Fokus auf Grundschutz und 27001 lag.435 Und beide Hauptelemente –

428 https://www.bsi.bund.de/DE/Themen/ITGrundschutz/ITGrundschutzKataloge/itgrundschutz kataloge_node.html, abgerufen am 16.8.2016. 429 https://www.bsi.bund.de/DE/Themen/ITGrundschutz/ITGrundschutzStandards/ITGrund schutzStandards_node.html, abgerufen am 16.8.2016. 430 https://www.bsi.bund.de/DE/Themen/ITGrundschutz/GSTOOL/gstool_node.html, abgerufen am 16.8.2016. 431 Dies wird auch auf Basis der Analyse der Tools zur Unterstützung des Grundschutzprozesses erfolgen, siehe dazu https://www.bsi.bund.de/DE/Themen/ITGrundschutz/ITGrundschutzKataloge/Hilfsmit tel/GrundschutznaheTools/grundschutznahetools_node.html, abgerufen am 16.8.2016. 432 https://www.bsi.bund.de/DE/Presse/Pressemitteilungen/Presse2013/BSI_stellt_Entwicklung_ GSTOOL_5_ein_19092013.html, abgerufen am 16.8.2016. 433 Es folgten keine Empfehlungen der Projektpartner bei diesem Gesprächspunkt – man nannte stattdessen die aggregierten eigenen Erfahrungen, ohne auf ein bestimmtes Tool abzuzielen. 434 Es stand kein Budget für eine proprietäre Toolanalyse zur Verfügung. 435 Eine exemplarische Betonung des IT-Grundschutzes erfolgte beispielsweise durch einen technischen Projektpartner im Gespräch mit dem juristischen Projektpartner und dem Verfasser am 24. Oktober 2014 in Karlsruhe; insgesamt fand der IT-Grundschutz an zahlreichen Stellen des sozio-technischen Teilvorhabens Erwähnung und gehört damit ohne jeden Zweifel zur Spitzengruppe der nutzbaren Konzeptvorbilder. In der Gesamtvorhabensbeschreibung wird sogar ausgeführt, dass IT-Grundschutz „als Fundament“ dient. Zudem gehören ISO 27001 und IT-Grundschutz in vielen Zertifizierungs- und Schulungskonzepten untrennbar zusammen.

198

2 Theorie und Fundament

Kataloge und Standards – geben in der Tat besonders viele Inspirationen her, die für Sociality by Design wertvoll erscheinen. Dies fängt mit der Kernphilosophie des Projekts an (siehe hierzu unter anderem „Mit dem IT-Grundschutz bietet das BSI eine einfache Methode an, um alle Informationen einer Institution angemessenen zu schützen.“436 sowie „Es ist möglich, auch als relativer Laie die zu ergreifenden Maßnahmen zu identifizieren und in Zusammenarbeit mit Fachleuten umzusetzen“437), geht beispielsweise über das Themenfeld „Ziel, Idee und Konzeption“438 mit besonders passend erscheinenden Aussagen wie „In den IT-Grundschutz-Katalogen werden Standard-Sicherheitsmaßnahmen für typische Geschäftsprozesse, Anwendungen und IT-Systeme empfohlen“439 bis hin zu den sehr praxisorientierten Bausteinausprägung des Gesamtkonzepts, exemplarisch erkennbar an Stellen wie dieser: „In jedem Baustein wird für das betrachtete Themengebiet vor der Maßnahmen-Liste eine Übersicht in Form eines “Lebenszyklus” gegeben, welche Maßnahmen in welcher Phase der Bearbeitung zu welchem Zweck umgesetzt werden sollten“440 Allerdings haben sich auch zwei gravierende Nachteile des IT-Grundschutzes herausgestellt: erstens der extrem große Umfang,441 zweitens die geringe Rolle, die die Gesellschaft im Grundschutz spielt.442 Das hat zur Folge, dass aus arbeitsökonomischen Aspekten sehr auf die Punkte geachtet wurde, die im Projektpartner- bzw. Expertengespräch erwähnt worden sind, andere Punkte deshalb nicht oder zumindest nur sehr selten erwähnt werden – selbstverständlich dürfte im IT-Grundschutz jedoch noch weit mehr stecken als es die Gesprächspartner empfohlen haben, doch ein einzelnes mehrere tausend Seiten starkes Informationspaket kann (und soll) nicht in der Konstituierungsphase eines neuen By-Design-Ansatzes komplett ausgebeutet werden. Dies würde den hier gesteckten Rahmen maßlos sprengen und damit das Projekt

436 https://www.bsi.bund.de/DE/Themen/ITGrundschutz/ITGrundschutzKataloge/Inhalt/_con tent/allgemein/einstieg/01001.html, abgerufen am 16.8.2016; man tausche hier den hinteren Halbsatz durch die Idee von Sociality by Design aus und erhalte so ein deckungsgleiches Prinzip. 437 https://de.wikipedia.org/wiki/IT-Grundschutz#Konzept, abgerufen am 16.8.2016. 438 https://www.bsi.bund.de/DE/Themen/ITGrundschutz/ITGrundschutzKataloge/Inhalt/_con tent/allgemein/einstieg/01001.html, abgerufen am 16.8.2016. 439 Man tausche hier „Sicherheitsmaßnahmen“ durch „Sozialitätsmaßnahmen“ aus und erhalte auch an dieser Stelle ein deckungsgleiches Prinzip. 440 https://www.bsi.bund.de/DE/Themen/ITGrundschutz/ITGrundschutzKataloge/Inhalt/_con tent/allgemein/einstieg/01001.html, abgerufen am 16.8.2016; dies ist beispielsweise für die Wenndann-Ebene zielführend. 441 https://www.intersoft-consulting.de/it-sicherheit/vergleich-der-iso-27001-standards/, abgerufen am 16.8.2016. 442 Von Sozialität einmal ganz zu schweigen; selbst der Social-Engineering-Teil fällt mit nur wenigen Bildschirmseiten Umfang äußerst bescheiden aus (siehe dazu G 5.42 bzw. G 0.42 unter https:// www.bsi.bund.de/DE/Themen/ITGrundschutz/ITGrundschutzKataloge/Inhalt/_content/g/g05/ g05042.html bzw. https://www.bsi.bund.de/DE/Themen/ITGrundschutz/ITGrundschutzKataloge/ Inhalt/_content/g/g00/g00042.html, jeweils abgerufen am 16.8.2016; ergänzend dazu beispielsweise M 3.94, M 2.274 und M 3.47).

2.5 Das Framework-Prinzip

199

insgesamt auch nicht fair abbilden. Genau diese Herausforderung bildet die Idee von Sociality by Design zudem passgenau ab: gerade der Ansatz „Vom Groben ins Feine“ gebietet es ja, in einem ersten (konstituierenden) Schritt die Aspekte herauszuarbeiten, die ein erstmalig einsetzbares Fundament ergeben. Für die Verfeinerung ist explizit die digitale Einsatzebene vorgesehen, konkret in Form einer Datenbank und einer Sociality-by-Design-Version 2.0. In Kapitel 4 wird deshalb stets rekurrierend auf die Aspekte hingewiesen, die kollaborativ für gewinnbringend gehalten wurden. Da die weitere Arbeit an Sociality by Design dauerhaft sichergestellt werden konnte, wird es auch zu einer Weiterentwicklung – inklusive einer tiefergehenden Analyse des IT-Grundschutzes plus seiner im Laufe der Jahre auftretenden Updates – kommen.443 ISO 31000: Mindestens ebenso interessant wie ISO 27001 erschien die Orientierung an ISO 31000.444 Während die Auseinandersetzung mit ISO 27001 bereits in vielen Punkten inspirierend war, war das Gesamtergebnis der Auseinandersetzung mit ISO 31000 nochmals deutlich erfreulicher. Ähnlich wie bei ISO 27001 ist hier bereits die Struktur interessant, insbesondere die Punkte 4 und 5 (Risikomanagementrahmen und Prozess) sind vom Aufbau her für weite Teile von Sociality by Design mustergültig geeignet. Und das führt direkt zur inhaltlichen Bewertung von ISO 31000: die Ganzheitlichkeit (und damit die hohe Relevanz) dieses Ansatzes wird bereits auf der (inhaltlich gezählt) ersten Seite deutlich. Denn: Bei dem in einzelnen Abschnitten von ISO 31000 vorgeschlagenen Risikomanagement und der Bewertung von Risiken sind Sicherheitsaspekte, der Schutz der menschlichen Gesundheit und der Umweltschutz nicht zwingend zu beachten. Dies liegt zum Beispiel an der Verwendung des Hilfsverbs „kann“. Dies könnte dazu führen, dass bei Risikomanagementprozessen finanzielle Abwägungen (siehe Nationale Fußnote N 10 zu 5.5.2) Vorrang gegenüber Sicherheit, Schutz der menschlichen Gesundheit und der natürlichen Lebensgrundlagen erhalten, da sie gegeneinander abgewogen werden können. Rechtliche Rahmenbedingungen, gesellschaftliche Verantwortung oder der Schutz der Umwelt sollten jedoch Priorität haben und nicht – wie es ISO 31000 an einigen Stellen suggeriert – lediglich Berücksichtigung finden.445

Es ist nicht überraschend: bei einem so weit gefassten Thema wie dem Management von Risiken ist natürlich die gesellschaftliche Komponente nicht an den Rand zu schieben, geschweige denn wegzudenken. Die o. a. frühzeitige und sehr deutliche Schwerpunktsetzung ist jedoch besonders erfreulich, zumal sie direkt zu weiteren Elementen führt, die ebenfalls für Sociality by Design brauchbar erscheinen. So

443 Die Möglichkeit der Arbeit an der Weiterentwicklung von Sociality by Design ist bis mindestens Mitte 2019 sichergestellt. 444 DIN ISO 31000, Risikomanagement – Grundsätze und Leitlinien (ISO 31000:2009). 445 DIN ISO 31000, S. 3, mit eigener Betonung.

200

2 Theorie und Fundament

wird bereits auf der Folgeseite davon gesprochen, dass die Norm einen „systematischen und logischen“ Prozess detailliert beschreibt und damit eine konkrete Hilfestellung bei der Bewältigung von Risiken leistet. Diese Hilfestellung manifestiert sich in einem Rahmen, der entwickelt, umgesetzt und verbessert werden soll,446 was wiederum perfekt zu Sociality by Design, zur Idee des bastelnden Denkens und zur Idee des Konzepts für Nicht-Sozialwissenschaftlerinnen und -Sozialwissenschaftler passt.447 Die Norm zeichnet sich insgesamt durch eine konzeptuelle Herangehensweise aus, die „die Grundsätze und Leitlinien für die Behandlung jeglicher Risiken auf systematische, transparente und glaubwürdige Weise ungeachtet des Aufgabenumfangs und des Kontextes“448 umfasst. Dies ist tatsächlich keine einmalige Versprechung, sondern ein durchgängig zu beobachtendes Leitmotiv und damit vorbildlich für die Gestaltung von Sociality by Design. Visuell überzeugend zusammengefasst wird die Idee der Norm in der auf Seite 7 zu findenden Abbildung (hier Abbildung 4). Hierbei fallen gleich mehrere vorzüglich adaptierbare Aspekte dieser Norm auf: zuerst ist der Dreiklang aus Grundsätzen, Rahmen und Prozess hervorzuheben, der bereits wesentliche Fragen für Sociality by Design beantwortet, so beispielsweise die Verortung der inhaltlichen und strukturellen Kernaspekte in Abschnitt 3 (Grundsätze), was sehr deutliche Parallelen zu Privacy by Design (The 7 Foundational Principles) und Security by Design (Herausforderungen) beinhaltet und somit auch für Sociality by Design nahelegt, induktiv zu Grundprinzipien/Foundational Principles bzw. der Betonung von bestimmten Schwerpunktaspekten bzw. der Bausteinausgestaltung zu gelangen. Naturgemäß sind solche Grundsätze stets ein Fundament einer Idee, eines Konzepts oder Rahmenwerks, was demzufolge auch bei Sociality by Design so sein wird. Ähnliches gilt dann in der Folge für die Abschnitte 4 und 5, so dass jetzt an dieser Stelle festzuhalten ist: die „Ausbeutbarkeit“ von ISO 31000 war als sehr hoch einzuschätzen – und ich wurde in der Folge nicht enttäuscht.

2.5.3 Sonstige Ansätze Der dritte und letzte Abschnitt dieses Kapitels speist sich aus drei Quellen, welche insgesamt einige Schnittmengen mit den Grundideen von Sociality by Design aufweisen und deshalb ebenfalls für die weitere Ausarbeitung in Betracht gezogen worden sind: als besonders relevant sind hier die Antworten der Projektpartner zu

446 DIN ISO 31000, S. 5. 447 Das Konzept für jedermann zielt auf die Erstellung einer Sociality-by-Design-Datenbank ab, was sowohl auf der Idee der CCTA Risk Analysis and Management Method (CRAMM) mit ihrem starken Toolcharakter als auch auf der seinerzeit begonnenen Identitätsdatenbank ID-DB (Humer, 2008) aufbaut. 448 DIN ISO 31000, S. 5.

Kontinuierliche Verbesserung des Rahmens (4.6)

Rahmen (Abschnitt 4)

Überwachung und Überprüfung des Rahmens (4.5)

Umsetzung des Risikomanagements (4.4)

Gestaltung des Rahmens für die Behandlung von Risiken (4.3)

Mandat und Verpflichtung (4.2)

Kommunikation und Konsultation (5.2)

Prozess (Abschnitt 5)

Risikobewältigung (5.5)

Risikobewertung (5.4.4)

Risikoanalyse (5.4.3)

Risikoidentifikation(5.4.2)

Risikobeurteilung (5.4)

Erstellen des Zusammenhangs (5.3)

Abbildung 4: Bild 1 aus DIN ISO 31000.

Bild 1 — Beziehungen zwischen den Grundsätzen des Risikomanagements, dem Risikomanagentrahmen und dem Risikomanagementprozess

Grundsätze (Abschnitt 3)

k) erleichtert die kontinuierliche Verbesserung der Organisation

j) ist dynamisch, iterativ ung reagiert auf Veränderungen

l) ist transparent und grenzt nicht aus

h) berücksichtigt Humanund Kulturfaktoren

g) ist maϐgeschneidert

f) stützt sich auf die besten verfügbaren Informationen

e) ist systematisch, strukturiert und zeitgerecht

d) befasst sich ausdrücklich mit der Unsicherheit

c) ist Teil der Entscheidungsfindung

b) ist Bestandteil aller Organisationsprozesse

a) schafft Werte

2.5 Das Framework-Prinzip

201

Überwachung und Überprüfung (5.6)

202

2 Theorie und Fundament

nennen, die sie auf die Frage nach zusätzlichen, vielleicht als „etwas entfernter“ zu bezeichnenden, aber doch möglicherweise inspirierenden Ansätzen geben konnten. Sie nannten daraufhin die VDI-Richtlinie 3780, die EU-Datenschutz-Grundverordnung (EU-DSGVO) sowie die (freilich sehr weit zu fassenden) Themenfelder Technikfolgenabschätzung (TFA) und Akzeptanzforschung (AF) und die dadurch gewonnenen Erkenntnisse als potentiell interessant. Dazu kamen die Ergebnisse der Arbeit von Ratzer, Probst et al aus dem Bereich IT-Governance, die allerdings eine sehr starke marktorientierte (Beratungsfirmen-)Prägung beinhalten449 sowie die Analysen von Waidner et al, die sich jedoch vorrangig mit englischsprachigen Konzepten beschäftigen.450 Eine ausführliche Analyse der nun folgenden Ansätze würde an dieser Stelle nicht nur den Rahmen sprengen, sondern auch die Relevanz der Ansätze überbetonen, da die meisten von ihnen nur noch marginal in Sociality by Design einwirken konnten. VDI-Richtlinie 3780: „Die Technikbewertung (einschließlich der darin enthaltenen Technikfolgen Abschätzung) ist ein (. . .) Thema, das zukunftsweisender Empfehlungen bedarf. Diese sollen das Problembewusstsein für die Gestaltbarkeit der Technik fördern, damit neue technische Entwicklungen verantwortbar und akzeptabel werden.“451 – ein aus hiesiger Sicht besonders gut passender Einstieg, der den Autorinnen und Autoren der VDI-Richtlinie 3780 da gelungen ist. In Hinblick auf Akzeptanz spielt gerade diese Richtlinie für Sociality by Design eine entsprechend relevante Rolle, da sie – anders als viele andere Richtlinien und Normen – einen klaren Schwerpunkt auf bedeutende gesellschaftliche Aspekte im Allgemeinen (und nicht nur auf Akzeptanz im Besonderen) legt, beispielsweise in Kapitel 3.7 (Persönlichkeitsentfaltung und Gesellschaftsqualität). Mehr sogar: in Bild 3 der Richtlinie stehen die Werte im technischen Handeln „Persönlichkeitsentfaltung“ und „Gesellschaftsqualität“ ganz oben, zudem sind sie direkt miteinander verwoben und alle Beziehungssystematiken laufen in letzter Instanz auf sie zu. Das bedeutet somit: „Bei jeder konkreten Technikbewertung stellt sich die Aufgabe, die für diesen Fall relevanten Wertbereiche und Ziele zu bestimmen, sowie die Beziehungen, die zwischen diesen bestehen“452 – um das Ziel der Persönlich-

449 Das ist grundsätzlich nicht schlimm, geht jedoch weniger in eine soziable, sondern vielmehr in eine marktfähige Richtung und muß deshalb auch so „gelesen“ werden. 450 Zu der besonderen Herausforderung der Gestaltung des digitalen Raums in Deutschland folgen Detailinformationen in den Kapiteln 3 und 4. „Nichtdeutsche“ Konzepte sind nach hiesiger Auffassung bei gesellschaftlich sensiblen Fragestellungen wie beispielsweise im Bereich der Sicherheitsforschung nur mit äußerster Vorsicht implementierbar, sofern sie nicht – wie Privacy und Security by Design – offensichtliche Interessenschnittmengen mit deutschen Wertevorstellungen haben. 451 VDI 3780, S. 2. 452 VDI 3780, S. 24.

2.5 Das Framework-Prinzip

203

keitsentfaltung (=psychologisch) und Gesellschaftsqualität (=soziologisch) zu erreichen. Dieses Ziel ist freilich ebenfalls fallabhängig und seine Werte werden in der Richtlinie (nicht abschließend) wie folgt definiert: – Handlungsfreiheit – Informations- und Meinungsfreiheit – Kreativität – Privatheit und informationelle Selbstbestimmung – Beteiligungschancen – Beherrschbarkeit und Überschaubarkeit – Soziale Kontakte und soziale Anerkennung – Solidarität und Kooperation – Geborgenheit und soziale Anerkennung – Kulturelle Identität – Minimalkonsens – Ordnung, Stabilität und Regelhaftigkeit – Transparenz und Öffentlichkeit – Gerechtigkeit Diese Offenheit der Wertebestimmung ermöglicht sehr leichte Bausteinableitungen für Sociality by Design, jedoch sorgt die sehr allgemeine Nennung dieser Werte auch für eine Verneinung einer speziellen Zurechenbarkeit: allzu allgemeine Aussagen können bekanntlich nicht einem einzelnen Urheber oder Ideengeber zugeordnet werden. Doch als (bestärkende) Inspiration war die Richtlinie freilich sehr gut geeignet. Dies merkt man auch an indirekten Plädoyers, so beispielsweise für Privacy by Design: Der technische Fortschritt hat dabei Möglichkeiten der Datensammlung und -auswertung eröffnet, deren volle Ausnutzung Privatheit weitgehend einschränken würde. Der Schutz der Privatheit, als eines relativ abgeschlossenen Bereichs persönlicher Lebensführung, erfordert auch informationelle Selbstbestimmung, d. h. die Entscheidung darüber, welche persönlichen Daten an andere gelangen dürfen.

Doch auch für Sociality by Design sind konkrete Bestärkungen auffindbar: Bei einer erschöpfenden Technikbewertung müssten sowohl alle natur- und ingenieurwissenschaftlichen als auch sämtliche wirtschafts-, sozial- und geisteswissenschaftlichen Gesichtspunkte berücksichtigt werden; dieses Ideal lässt sich nie vollständig erreichen.453

Das bekräftigt natürlich sehr stark die heuristische Rahmenkonzeption des hier vorliegenden Vorhabens. Auch die damit untrennbar verbundene medial fundierte Tendenzanalyse (auf der Makroebene von Sociality by Design) findet Widerhall in der Richtlinie, indem „die Medien als Umschlagstelle zwischen Öffentlichkeit und 453 VDI 3780, S. 26.

204

2 Theorie und Fundament

Politik“ erwähnt und als eine der „die Meinungsbildung und die Wertauffassungen prägende“ Institutionen benannt werden, somit die Relevanz der Medien auch für die Tendenzanalyse innert Sociality by Design entsprechend hervorgehoben wird.454 Schließlich wird auch das Rahmenkonzept als solches betont – zwar in abgewandelter Form, aber mit derselben Idee im Hintergrund: Bei konkreten, lokalen technischen Projekten beanspruchen betroffene Bürger mehr Mitsprache, womit sie oft in Konflikt zu bestehenden Institutionen geraten. Die geforderte partizipatorische Technikbewertung steht vor der besonderen Schwierigkeit, die Betroffenen so sachkundig zu machen, dass sie begründete Urteile abgeben können.455

Dies gilt nicht nur für Bürgerinnen und Bürger, sondern ja auch wie bei Sociality by Design für Nicht-Sozialwissenschaftlerinnen und -Sozialwissenschaftler. Die Schwierigkeit ist– aufgrund der systemischen Verfasstheit der Herausforderung – dieselbe. Der Lösungsvorschlag in der Richtlinie – die Planungszelle456 – wird aufgrund punktueller Nähe zu Sociality by Design nicht unberücksichtigt bleiben. Zusätzlich ist die allgemeine By-Design-Unterstützung durch die Richtlinie zu loben: Gleichwohl müssen bei einer weitgefassten Technikbewertung die verschiedenen Methoden der Einzelwissenschaften in einen einheitlichen Zusammenhang gebracht werden.457

Das ist nichts anderes als ein Plädoyer für einen gemeinsamen Nenner, sprich: eine Rahmung. Somit ist die Tonalität der Richtlinie in weiten Teilen sehr passend für Sociality by Design. In der Folge findet man dann dementsprechend immer wieder Bausteine, die sich auch aus Ideen speisen, die in dieser Richtlinie zur Sprache kommen – neben den hier bereits genannten Aspekten vor allem aus der sehr guten Zusammenfassung der Richtlinie458 sowie den ausgewählten Methoden im Anhang.459 Der Vorteil dieser Richtlinie ist letztlich, dass sie das extrem weit gefasste Thema der Technikfolgenabschätzung auf einen für eine By-Design-Rahmenkonzeption brauchbaren Mindeststandard zusammenfasst und deshalb für das hiesige Konzept kaum überschätzt werden kann. EU-DSGVO: Die EU-Datenschutzgrundverordnung bot – wie in nicht wenigen anderen Fällen – ein zwiespältiges Bild: einerseits bot sie wenig Konkretes, dafür so einiges Inspirierendes und Bestärkendes. So fiel die Betonung bestimmter Aspekte wie Transparenz, Reduzie-

454 455 456 457 458 459

VDI 3780, S. 39. VDI 3780, S. 42. http://www.planungszelle.de, abgerufen am 23.8.2016. VDI 3780, S. 26. VDI 3780, S. 30. VDI 3780, S. 31.

2.5 Das Framework-Prinzip

205

rung von Datenverarbeitung auf ein Mindestmaß und Widerspruchsmaßnahmen gegen Datenverarbeitung gleichermaßen deutlich wie positiv auf. Besonders erfreulich war in diesem Falle jedoch die explizite Erwähnung der By-Design-Logik, was für Privacy-by-Design-Advokatinnen wie Ann Cavoukian, aber auch für erste By-Design-Ergänzungsideen wie das hiesige Vorhaben äußerst erfreulich ist: Um die Einhaltung dieser Verordnung nachweisen zu können, sollte der Verantwortliche interne Strategien festlegen und Maßnahmen ergreifen, die insbesondere den Grundsätzen des Datenschutzes durch Technik (data protection by design) und durch datenschutzfreundliche Voreinstellungen (data protection by default) Genüge tun.460

Auch die häufige Erwähnung gesellschaftlicher Aspekte bietet erfreulich viele Anknüpfungsmöglichkeiten für Sociality by Design, um damit das Fundament des eigenen Rahmenkonzepts zu stärken.461 Schließlich unterfüttern auch Schwerpunkte wie Artikel 35 – Datenschutz-Folgeabschätzung – die Zielrichtung von Sociality by Design und sind deshalb von herausragender Relevanz. Aufgrund des hohen Vorbildcharakters der EU-DSGVO und ihrer Rechtsverbindlichkeit ist die Signalwirkung sehr groß. Alle datenverarbeitenden Institutionen werden zumindest zu einer Auseinandersetzung mit der Thematik gezwungen, so dass eine Anknüpfung an die EU-DSGVO für Sociality by Design nur von Vorteil sein konnte. Dies macht die Anwendung für die angestrebte Zielgruppe mit Sicherheit deutlich leichter, da viele bekannte Elemente aus dieser Verordnung Einfluss in die Gestaltung fanden. Technikfolgenabschätzung (TFA): Eine naheliegende, aber selbstverständlich auch sehr komplexe Antwort wurde im Gespräch mit den Kollegen auf die Frage nach weiteren inspirierenden Ideen immer wieder gegeben: das Feld der Technikfolgenabschätzung. Wie allen Disziplin- oder Gattungsbegriffen wohnt auch diesem das Problem der (die Analysierbarkeit betreffenden) Überkomplexität inne. Das bedeutet, dass weder an dieser Stelle noch in einem vergleichbaren Rahmen allumfassend (oder auch nur annähernd mit einem solchen Anspruch im Hinterkopf) analysiert werden kann, was sich hinter diesem Begriff insgesamt verbirgt. Um das Thema dennoch nicht unbeachtet zu lassen, wurde ja bereits die sehr hilfreiche VDI-Richtlinie 3780 erwähnt. Im Rahmen der Projektarbeit kam es zudem zu zahlreichen einzelnen (ausschließlich auf Digitalität abzielenden) Literaturanalysen, welche sich in Kapitel 4 entsprechend bemerkbar machen werden. Damit gilt für diesen Punkt: mit der Betrachtung der Technikfolgenabschätzung beginnt der Rechercheabschnitt der vollständig punktuell kontextualisierten Inhaltsanalyse. Das heißt: aufgrund der Breite des Begriffs wurde hier explizit auf das

460 http://eur-lex.europa.eu/legal-content/DE/TXT/HTML/?uri=CELEX:32016R0679&from=DE, Randnummer 78, abgerufen am 19.8.2016. 461 http://eur-lex.europa.eu/legal-content/DE/TXT/HTML/?uri=CELEX:32016R0679&from=DE, beispielsweise Rn. 4, 6, 50, 73, 75 und 153, abgerufen am 19.8.2016.

206

2 Theorie und Fundament

geschaut, was als Empfehlung oder „eigene Entdeckung“ verzeichnet wurde. Die damit verbundene Lückenhaftigkeit der Recherche wird aufgrund der erstmaligen Konstituierung des Konzepts Sociality by Design explizit in Kauf genommen und keinesfalls als Nachteil gesehen – auch deshalb nicht, weil im Laufe der Recherche die inhaltlichen Mehrfachnennungen und Ideendopplungen immer weiter zunahmen und das Risiko „blinder Flecke“ in der Recherche stetig sank.462 Damit wird zudem auch der Anspruch erfüllt (und direkt erprobt), dort, wo Sociality by Design keine eigenen Lösungen bieten kann, eine Anknüpfungsmöglichkeit an Lösungen Dritter herzustellen (z. B. andere Verbundprojekte, Studien, Konzepte, Gesetze), so dass letztlich zu jeder relevanten Technikgestaltungsfrage ein Lösungsvorschlag angeboten werden kann – so wie in der Kernidee von Sociality by Design erwähnt. Akzeptanzforschung (AF): Mindestens auf derselben Ebene, wenn nicht gar eine Dimension größer stellt sich die Frage nach der Einbringbarkeit von Akzeptanzforschungserkenntnissen in den Sociality-by-Design-Gestaltungsprozess. Auch dies kann keineswegs vollumfänglich, sondern nur im Rahmen der durch mich definierten projektrelevanten Aspekte geschehen. Hierzu wurde neben den Expertengesprächen auch die Möglichkeit der Literaturrecherche genutzt, wobei ebenso wie bei der Technikfolgenabschätzung ausschließlich auf digitale Ideen geachtet wurde. Dabei wurden die Erkenntnisse aus meiner Zeit an der TU Berlin im Projekt myID.privat eingesetzt (wo vorrangig Akzeptanzfragen und in der Folge Einsatzszenarien diskutiert worden sind), vor allem flossen jedoch die Erkenntnisse ab 2009 im Rahmen der Entwicklung des MisPel-Vorläufervorhabens Alpha in die Ausgestaltung des hier vorliegenden Konzepts mit ein. Sicherheitsethik: Letztendlich gilt das bereits zu Technikfolgenabschätzung und Akzeptanzforschung Gesagte auch für den Bereich der Sicherheitsethik. Allerdings habe ich mich hier noch stärker als zuvor, das heißt: fast ausschließlich auf die Ausgestaltung einer Scharnierfunktion (wie unter 2.1.3.4. im letzten Absatz beschrieben) konzentriert, was sich bei Fragen der Ethik aus zwei Gründen anbot:

462 Dem Verfasser ist nicht entgangen, dass der Bereich der Technikfolgenabschätzung eine für sozialwissenschaftliche Einrichtungen vergleichbar wirkmächtige Institutionalisierung existiert, unter anderem mit einem Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB), siehe http://www.tab-beim-bundestag.de/de/, abgerufen am 19.8.2016. Doch es ist gerade diese Strukturierung des Themenfeldes, die die Fokussierung auf punktuelle Aspekte der TFA so zielführend macht, da beispielsweise die Tätigkeitsberichte des TAB gezielt auswertbar sind, was die Arbeit sehr effizient gestaltete.

2.5 Das Framework-Prinzip

207

– Ich bin kein Ethikexperte. Bei einem so großen und bedeutenden, aber meinen Arbeitsschwerpunkten großteils fernliegenden Thema (bei gleichzeitig sehr umfassender Datenlage aufgrund ausgezeichneter Kolleginnen und Kollegen im deutschsprachigen Raum und besonderen, sehr großen Herausforderungen im Bereich digitaler Ethik) erschien es in jeglicher Hinsicht gewinnbringender, hier lediglich Verbindungsmöglichkeiten zu entwickeln, die dann zur gewünschten Information bzw. Datenbasis weiterführen. Dies bot sich beispielsweise aufgrund des BMBF-Projekts BaSiD463 an, welches mit dem Barometer für Sicherheit in Deutschland eine konkrete Ausleuchtung eines Themenfeldes anbietet, die direkt an die Möglichkeiten von Sociality by Design anknüpft, jedoch nicht unmittelbar inhaltlich selbst bedient werden kann. – Das Thema Ethik ist auch deshalb ein besonders gut geeigneter Fall für das Sociality-by-Design-Prinzip der Anknüpfung an Lösungen Dritter, weil es aufgrund seiner allgemeinen Akzeptiertheit, seines ausdifferenzierten Inhalts, seiner institutionellen Verfasstheit und seiner ständigen Weiterentwicklung die Scharnierfunktion des hiesigen Rahmenkonzepts mustergültig bedienen kann. Zwar sollen auch Andockmöglichkeiten für (teilweise sehr kleinteilige) Themen wie intelligente Videoüberwachung, Biometrie oder Superresolution erfolgen, doch diese sind sicherlich weit weniger massenkompatibel (und damit hinsichtlich der Sozialitätsfrage auch weniger dringlich) als das Thema Ethik. Deshalb ist es sowohl effizienter als auch effektiver, hier eine Schnittstelle zu etablieren, die im Sinne digitaler Technikgestaltung eine „nichtdigitale API“464 etabliert und als solche auch gleich akzeptiert und genutzt werden kann. Die punktuell gewonnenen Erkenntnisse aus den vorhergehenden Forschungsvorhaben flossen – wie bei den anderen erwähnten Ideen auch – direkt in Kapitel 4 und somit in die konkrete Ausgestaltung von Sociality by Design ein. Weitere Tools: Im Paper von Waidner et al werden einige weitere relevante Tools zur Risiko- und Bedrohungsmodellierung präsentiert und einige aus ihrer jeweiligen Perspektive wichtigen Aspekte dieser Lösungen genannt, was an dieser Stelle veranschaulicht werden soll:465

463 http://www.forum-kriminalpraevention.de/files/1Forum-kriminalpraevention-webseite/pdf/ 2015-01/2015-01-basid.pdf, abgerufen am 19.8.2016. 464 https://de.wikipedia.org/wiki/Programmierschnittstelle, abgerufen am 19.8.2016. 465 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, S. 15 f, abgerufen am 13.7.2017.

208

2 Theorie und Fundament

– „TRIKE Threat Modeling Methodology (. . .): TRIKE ist eine Heuristik zur Bedrohungsmodellierung und kann für Systeme und Software eingesetzt werden. TRIKE bindet alle Parteien in die Einschätzung und Zustimmung von Risiken ein.“466 Danach findet sich bei TRIKE offenbar eine sehr ähnliche Kernkomponente, wie sie auch bei Sociality by Design eine entscheidende Rolle spielt: die Heuristik, sprich: die Möglichkeit, „mit begrenztem Wissen (unvollständigen Informationen) und wenig Zeit dennoch zu wahrscheinlichen Aussagen oder praktikablen Lösungen zu kommen“.467 Im Sinne dieser gängigen Definition funktioniert ja auch Sociality by Design und es erscheint nicht nur aus gesellschaftswissenschaftlicher, sondern auch aus Sicherheitsforschungssicht plausibel, aufgrund der Komplexität der tatsächlichen Welt auf Heuristiken aufzubauen, wenn keine permanenten und nur langwierig und ressourcenintensiv erreichbaren Lösungsmöglichkeiten realistisch erscheinen. Dieser Gedanke zeichnet nun auch TRIKE aus. Zusätzlich erscheint der für TRIKE formulierte ganzheitliche Grundsatz der Einbeziehung aller betroffenen Parteien lohnenswert, was als Bestärkung für die Vorgehensweise in Sociality by Design dienen wird. – „CORAS Model-based Method for Security Risk Analysis (. . .): CORAS fokussiert sich auf die Risikoanalyse und ist allgemeiner anwendbar als auf Software(entwicklung). Das Rahmenwerk bietet eine toolgestützte Methodik zur modellbasierten Risikoanalyse von sicherheitskritischen Systemen.“468 Das wiederum entspricht sehr stark dem genuinen Denkansatz von Sociality by Design und die Konzeptlogik hinter CORAS wird von den Autoren sogar noch stärker betont als es Waidner et al machen: „Security analyses are costly and time consuming and cannot be carried out from scratch every time a system is updated or modified, so a method is needed in which the analysis results can easily be accessed and maintained.“469 Das ist ein wichtiges Element für die Stärkung des entsprechenden Socialityby-Design-Bausteins und deshalb einer der wichtigsten Aspekte innerhalb von CORAS. Nicht zu unterschätzen ist jedoch auch der Aufbau von CORAS, wobei die Punkte 2

466 Siehe einen frühen Entwurf dazu beispielsweise unter https://www.helpnetsecurity.com/dl/ar ticles/Trike_v1_Methodology_Document-draft.pdf, abgerufen am 13.7.2016. 467 https://de.wikipedia.org/w/index.php?title=Heuristik&oldid=155995122, abgerufen am 13.7.2016; siehe dazu aber auch VDI 3780, S. 22: „Kontrolle der Technik, was häufig heißt: ihrer Hersteller, Betreiber und Anwender, kann aber in einer hoch differenzierten und arbeitsteiligen Gesellschaft nur bis zu einem gewissen Grad ausgeübt werden.“. 468 Siehe dazu eine Variante aus 2006 unter http://www.uio.no/studier/emner/matnat/ifi/INF5150/ h06/undervisningsmateriale/060930.CORAS-handbook-v1.0.pdf, abgerufen am 13.7.2016; auf wessen Schultern sich der Zwerg CORAS wiederum stellte, erfährt man auf S. 2 unter „Background“. 469 http://www.uio.no/studier/emner/matnat/ifi/INF5150/h06/undervisningsmateriale/060930. CORAS-handbook-v1.0.pdf, S. 1, abgerufen am 13.7.2016.

2.5 Das Framework-Prinzip

209

und 3 besonders vielversprechend erscheinen: „The CORAS method, a step-by-step description of the security analysis process“ und „The CORAS tool, a tool for documenting, maintaining and reporting risk analysis results“.470 Hier sind wiederum klare Ähnlichkeiten zwischen dieser Lösung und Sociality by Design erkennbar. Dass die Entwickler von CORAS letztlich ihre Analyse auf sieben Schritte471 aufbauen, dürfte spätestens seit der Analyse von Privacy by Design auch als klare Befürwortung entsprechender Modelle zu verstehen sein und erinnert sehr an die Erkenntnisse, die aus MisPel gewonnen werden konnten: Schritt 1 („Introduction“) widmet sich der kollaborativen Zielbeschreibung, Schritt 2 („High level analysis“) ist ein klassischer Vom Groben ins Feine-Schritt und vertieft die in Schritt 1 gewonnenen Erkenntnisse. Der dritte Schritt („Approval“) setzt diese Arbeitsweise mit „a more refined description of the target to be analysed“ und in kontinuierlich durchgehaltener Interdisziplinarität fort. Schritt 4 („Risk identification workshop“) ist mir besonders aus dem Projekt MisPel wohlbekannt und wird auch in der Folge entsprechende Erwähnung finden: „This step is organised as a workshop gathering people with expertise on the target of evaluation“.472 Schritt 5 („Risk estimation workshop“) ist dieselbe Methode, jedoch ein anderer Themenschwerpunkt: hier geht es um die Risikoabschätzung. Schritt 6 („Risk evaluation“) ist erneut ein Prozess vom Groben ins Feine und widmet sich deshalb „some adjustments and corrections“.473 Der siebte und letzte Schritt („Risk treatment workshop“) bedient sich wieder der Methode des Workshops und ist gedacht für „treatment identification, as well as addressing cost/benefit issues of the treatments“.474 Damit sind gleich mehrere sinnvolle Aspekte genannt, die auch bei Sociality by Design entsprechend eingesetzt werden können und in Bausteine münden. – „Operationally Critical Threat, Asset, and Vulnerability Evaluation for operational risk, not technical risk (OCTAVE): OCTAVE behandelt nur operative Risiken, keine technischen“ OCTAVE ist ebenfalls ein strukturell interessanter Ansatz, wenngleich er bereits etwas älter ist (1999) und zudem aus einem anderen Milieu (der Zusammenarbeit von US-Militär und Carnegie Mellon University) stammt, was insgesamt die möglichen Schnitt470 Für beide Zitate http://www.uio.no/studier/emner/matnat/ifi/INF5150/h06/undervisningsma teriale/060930.CORAS-handbook-v1.0.pdf, S. 2, abgerufen am 13.7.2016. 471 http://www.uio.no/studier/emner/matnat/ifi/INF5150/h06/undervisningsmateriale/060930. CORAS-handbook-v1.0.pdf, S. 3 f, abgerufen am 13.7.2016. 472 http://www.uio.no/studier/emner/matnat/ifi/INF5150/h06/undervisningsmateriale/060930. CORAS-handbook-v1.0.pdf, S. 3, abgerufen am 13.7.2016. 473 http://www.uio.no/studier/emner/matnat/ifi/INF5150/h06/undervisningsmateriale/060930. CORAS-handbook-v1.0.pdf, S. 4, abgerufen am 13.7.2016. 474 http://www.uio.no/studier/emner/matnat/ifi/INF5150/h06/undervisningsmateriale/060930. CORAS-handbook-v1.0.pdf, S. 4, abgerufen am 13.7.2016.

210

2 Theorie und Fundament

mengen mit Sociality by Design bereits im Vorfeld etwas verringert.475 Die Kernidee, ein „framework for identifying and managing information security risks“,476 ist jedoch von Interesse für Sociality by Design, ebenso die Fortführung dieses Gedankens . . . [It] defines a comprehensive evaluation method that allows an organization to identify the information assets that are important to the mission of the organization, the threats to those assets, and the vulnerabilities that may expose those assets to the threats477

. . . sowie das Ziel: „implement a protection strategy to reduce the overall risk exposure of its information assets“.478 Die Kernidee von OCTAVE orientiert sich dabei an drei Schritten,479 hier „phases“ (Phasen) genannt: Phase 1: „Build Enterprise-Wide Security Requirements“ Phase 2: „Identify Infrastructure Vulnerabilities“ Phase 3: „Determine Security Risk Management Strategy“ Das Beispiel im zitierten Paper dreht sich dabei um das Thema „enterprise with sensitive financial information“480 und zeigt damit deutlich die Grenzen zum hiesigen Konzept, zumindest auf inhaltlicher Ebene. Denn Sociality by Design ist ja kein Informationssicherheitskonzept, so wie Security by Design, sondern benötigt Elemente, die bei der Analyse der Gesellschaftsfähigkeit (in Form eines anwendbaren Rahmenkonzepts) helfen. Somit ist an dieser Stelle die primäre Schnittmenge von OCTAVE und Sociality by Design bereits erkennbar: es geht vorrangig um die Rahmung, nicht um die konkreten Einzelschritte, die sich auf das Informationssicherheitsziel beziehen und deshalb nicht direkt zu übernehmen sind. Ihre Methoden (beispielsweise Punkt 2.1.1 – Activities –, dort Unterpunkt 1 („Characterize key enterprise assets – elicits and prioritizes the key assets in the organization from the perspective of senior management“481) – orientiert an der Frage „What are you trying to protect?“ – sind hingegen durchaus brauchbar, wie im hiesigen Beispiel, welches nichts Anderes vorschlägt als eine Befragung von Experten („senior management“). Oder es wird sogar „nur“ vorgeschlagen, (andere oder eigene) bestehende Lösungen einzusetzen („Goal [die-

475 Die Projekte MisPel und PERFORMANCE waren bzw. sind Forschungsvorhaben der zivilen Sicherheitsforschung und bedienen somit aus Prinzip keinerlei militärische Interessen; in den USA sind militärisch-universitäre Zusammenarbeiten prinzipiell deutlich häufiger vorzufinden und auch sehr viel stärker akzeptiert als in Deutschland. 476 http://www.dtic.mil/dtic/tr/fulltext/u2/a367718.pdf, S. vii, abgerufen am 22.7.2016. 477 http://www.dtic.mil/dtic/tr/fulltext/u2/a367718.pdf, S. vii, abgerufen am 22.7.2016. 478 http://www.dtic.mil/dtic/tr/fulltext/u2/a367718.pdf, S. vii, abgerufen am 22.7.2016, mit eigenen Betonungen. 479 http://www.dtic.mil/dtic/tr/fulltext/u2/a367718.pdf, S. 3, abgerufen am 22.7.2016. 480 http://www.dtic.mil/dtic/tr/fulltext/u2/a367718.pdf, S. 5, abgerufen am 22.7.2016. 481 http://www.dtic.mil/dtic/tr/fulltext/u2/a367718.pdf, S. 11, abgerufen am 22.7.2016.

2.5 Das Framework-Prinzip

211

ses Schritts]: Identify infrastructure vulnerabilities and missing policies and practices“).482 Ein solcher Rahmen ist deshalb von überschaubarer Komplexität und bietet zahlreiche Überschneidungen mit bisher genannten Methoden und Konzepten, weshalb es zwar im Detail in Kapitel 4 auch einzelne Elemente von OCTAVE im Sociality-by-Design-Rahmenkonzept geben wird, jedoch aufgrund der nun immer häufiger auftauchenden Dopplungen freilich immer weniger Elemente innovativen Charakter haben. Dies liegt gewiss in der Natur der Sache: die besten Elemente aus allen brauchbar erscheinenden Konzepten herauszupicken, ist zwar insgesamt keine abwegige Idee, jedoch ist nicht zu erwarten, dass sich alle Konzepte immer grundlegend voneinander unterscheiden und damit individuell innovativ sind. Das Element der Expertenbefragung beispielsweise büßt grundsätzlich nie an Qualität ein, es ist de facto ein „Evergreen“ und in vielen Kontexten sehr sinnvoll anwendbar, doch die viel interessantere Frage ist vielmehr, wie man es im spezifischen Kontext (von Sociality by Design) richtig einsetzt. Dies wird aber wie erwähnt in Kapitel 4 deutlich skizziert. – „CCTA Risk Analysis and Management Method (CRAMM): Die von der Central Computing and Telecommunications Agency (CCTA) entwickelte Methodik ist eng an die Verwendung eines kommerziellen Tools gebunden und führt eine Bedrohungs- und Schwachstellenanalyse sowie eine Risikobewertung durch, um daraus entsprechende Maßnahmen abzuleiten. Da die Durchführung von CRAMM mit signifikantem Aufwand verbunden ist, wird sie als Methode der Wahl eher für kritische Systeme angesehen.“ CRAMM483 ähnelt insgesamt sehr OCTAVE, was aber (siehe oben) auch nicht besonders überraschend ist. Analog zu den oben beschriebenen Phasen gibt es bei CRAMM „stages“484: – „identifying and valuing assets, – identifying threats and vulnerabilities, calculating risks, – identifying and prioritizing countermeasures“ Der größte Unterschied zwischen CRAMM und OCTAVE ist der Software-Fokus, d. h. die Notwendigkeit der Anwendung eines CRAMM-Tools:

482 http://www.dtic.mil/dtic/tr/fulltext/u2/a367718.pdf, S. 66, abgerufen am 22.7.2016, mit eigenen Betonungen. 483 https://en.wikipedia.org/wiki/CRAMM, https://www.sans.org/reading-room/whitepapers/au diting/qualitative-risk-analysis-management-tool-cramm-83, abgerufen am 22.7.2016. 484 https://www.sans.org/reading-room/whitepapers/auditing/qualitative-risk-analysis-manage ment-tool-cramm-83, S. 6, abgerufen am 22.7.2016.

212

2 Theorie und Fundament

CRAMM’s large selection of countermeasures (almost 4000) are collected together in groups and sub-groups, which have the same ‚security aspect‘ like hardware, software, communications, procedural, physical, personnel and environment. They are also arranged in a hierarchical structure, being in three different categories, from high-level security objectives to detailed examples of implementation. Each countermeasure is marked with the security level on a scale of 1 (Very Low) to 7 (Very High) which is selected by comparing the measure of risk.485

Diese Konzeptidee ist aufgrund ihrer Was-wäre-wenn-Logik interessant: CRAMM ‚What-if‘ facility enables the user to assess the implications of the changes that have taken place, and the effects of different scenarios on the requirements for security. Besides several options in the tool to extract informational reports, a nested ‘backtrack’ facility provides reasons (threat, vulnerability and asset value) for recommending any one countermeasure to justify its selection.486

Diese What-if-Idee ist aufgrund ihres Assessment-Ansatzes ein spannendes Element für Sociality by Design, beispielsweise in einer Wenn-dann-Variante: – Wenn man zur Schlussfolgerung x kommt, dann bedeutet dies hinsichtlich der Gesellschaftsfähigkeit: Aspekt y greift – Wenn Maßnahme a eingesetzt wird, dann ist die gesellschaftliche Reaktion b die Folge – Wenn Szenariowunsch 1 umgesetzt werden soll, dann braucht man dafür Methode M So kommt man zu den konkreten Handlungsvorschlägen, die Sociality by Design bereithält und die auf der Mikroebene des Konzepts verortet sind. – „AZ/NZS 4360: Mit AZ/NZS 4360 liegt ein generischer Standard zum Dokumentieren und Managen von Risiken vor. AZ/NZS 4360 hat sieben Schritte: RisikoStrategie, Risiko-Identifikation, Risiko-Analyse, Risiko-Gewichtung, RisikoHandhabung, Risiko-Dokumentation und -Kommunikation, Risiko-Kontrolle und -Überwachung.“ Aus AZ/NZS 4360 wurde inzwischen ISO 31000; die Analyse dieser Idee erfolgt aufgrund des „Wandels“487 von einem Tool488 zu einem ISO-Standard zusammen mit einer Analyse von ISO 27001 in Kapitel 2.5.2 (Handbuch-Konzepte). Auch hier

485 https://www.sans.org/reading-room/whitepapers/auditing/qualitative-risk-analysis-manage ment-tool-cramm-83, S. 10, abgerufen am 22.7.2016. 486 https://www.sans.org/reading-room/whitepapers/auditing/qualitative-risk-analysis-manage ment-tool-cramm-83, S. 11, abgerufen am 22.7.2016. 487 https://www.standards.govt.nz/search-and-buy-standards/standards-information/risk-manag ment/, abgerufen am 22.7.2016. 488 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, S. 15, abgerufen am 22.7.2016.

2.5 Das Framework-Prinzip

213

waren einige punktuelle Aspekte sehr interessant, wenngleich vieles (wie bereits erwähnt) nicht mehr neu war und sich so Dopplungen in vielfacher Hinsicht ergaben. Die von Waidner et al erwähnten „Rahmenwerke für Aussagen über das erreichte Sicherheitsniveau“489 sollen an dieser Stelle ebenfalls betrachtet werden, da bereits ihre Grundausrichtung als Rahmenkonzept bzw. -werk sowie die dazugehörigen Ausführungen von Waidner et al vielversprechend sind. Vorgeschlagen werden drei Werke: – Integrated Measurement and Analysis Framework for Software Security – Deriving Software Security Measures from Information Security Standards of Practice – CVSS Common Vulnerability Scoring System Hinzu kommt eine Betrachtung des Analysetools „(Open) Software Assurance Maturity Model“ (OpenSAMM).490 Und auch an dieser Stelle sei erneut, wenngleich auch fast schon abschließend darauf verwiesen, dass eine punktuelle Adaption in Kapitel 4 vorzufinden ist, alldieweil eine darüberhinausgehende Erweiterung des Konzepts Sociality by Design in Form einer Version 2.0 mit stärkerer Analyse der o. a. Frameworks und Tools im Zeitraum 2016 bis 2020 folgen wird. Eine der letzten größeren Quellen war das Buch IT-Governance von Ratzer und Probst; es präsentiert „die Struktur und erprobte Ansätze der IT-Governance und zeigt gleichzeitig konstruktive Handlungsempfehlungen und mögliche Fallstricke bei der Umsetzung von IT-Governance-Projekten“.491 IT-Governance passt freilich thematisch (ebenfalls) nicht vollständig zur Idee von Sociality by Design, aber das ist ja nicht nur bei allen anderen Ansätzen ebenfalls der Fall, sondern lässt sich oftmals durch ein bloßes Wortaustauschen bereits stark ändern, da ja die Frage ist, inwiefern die Rahmung (teilweise) übernommen oder zumindest „ausgebeutet“ werden kann und nicht die inhaltliche Ausrichtung (welche durch ein passendes Wort oftmals entsprechend verbessert werden kann). Da die Deloitte-IT-Governance zumindest einige interessante Grundannahmen mit Sociality by Design teilt – vor allem die einem Rahmenkonzept innewohnende Strukturierung eines Prozesses im Vorfeld, aber auch eine Stärkung des Bewusstseins für ein wichtiges Thema, die Schulungskomponente, starke Verbindungen zu ISO 27001 sowie weitere Verbindungen zu möglichen brauchbaren Ansätzen – und zudem zahlreiche verwandte Rahmenkonzepte präsentiert werden, war diese Herangehensweise eine Analyse

489 https://www.kastel.kit.edu/downloads/Entwicklung_sicherer_Software_durch_Security_by_ Design.pdf, S. 15, abgerufen am 22.7.2016. 490 Von Waidner et al mit dem Präfix „Open“ versehen, ebenso in der Quelldomain http://www. opensamm.org, jedoch hinsichtlich der Namensgebung auf der dazugehörigen Website ohne diese Erweiterung; in der Folge ist stets von SAMM die Rede, wenn das Tool/Model gemeint ist. 491 Ratzer, P., Probst, U. (Hg.): IT-Governance. UVK, 2013.

214

2 Theorie und Fundament

wert. Dabei wird die im Buch enthaltene Arbeit von Ratzer, Probst et al. zweigeteilt präsentiert: – zuerst wird die eigentliche IT-Governance von Deloitte betrachtet, – dann folgen die Empfehlungen, die im Kapitel 4 (IT-Management-Frameworks) vorgestellt werden. Die eigentliche IT-Governance aus der Deloitte-Perspektive finalisiert sich im IT-Governance-Modell des Unternehmens, welches die Bausteine IT-Organisation, IT-Management-Prozesse und IT-Demand/-Supply sowie den auf alle drei zuvor genannten Bausteine übergreifenden Baustein IT-Performance/-Risk-Management durch den Baustein IT-Compliance rahmen lässt.492 Kapitel 4 mit seiner Übersicht über IT-Management-Frameworks ist im Baustein IT-Management-Prozesse angesiedelt. Das (auch für Sociality by Design sehr sinnvoll erscheinende) Modulsystem dieses Governance-Modells ist somit klar erkennbar. Außerdem ist gut zu erkennen, dass es stets Abstufungen in der Wirktiefe des Modells gibt: das Modell soll eine adäquate Umsetzung „in allen Unternehmensformen“ ermöglichen.493 Es bietet somit „Strukturvorgaben und Good-Practices zur Umsetzung“, doch zur „Ausgestaltung des [Modells] orientieren sich viele Unternehmen aus Effizienz- und Effektivitätsgründen an Referenzmodellen und Marktstandards“.494 Mit dieser Aussage wird erneut eine Grenze definiert, die auch ich (aus denselben Gründen) akzeptiere, denn es verhält sich an dieser Stelle ein wenig wie mit dem IT-Grundschutz: es mögen gerade in den von Deloitte empfohlenen Rahmenwerken sicherlich noch viele „unentdeckte Schätze“ in Form brauchbarer inhaltlicher oder struktureller Aspekte schlummern, doch das Projekt würde zu Beginn viel zu groß geraten, wenn man diese Analyse auch noch vollumfänglich einbinden würde. Zumal es eben immer irgendwo noch einen guten Link mit einer interessanten Idee gibt und deshalb nie ein Ende – und damit auch keine heuristische Problemlösungsleistungsfähigkeit – absehbar wäre. Um die Idee Vom Groben ins Feine deshalb konsequent umzusetzen, wird den Empfehlungen von Deloitte deshalb an dieser Stelle nur eine sehr begrenzte Darstellung eingeräumt. Deloitte sieht diese Problematik im Übrigen ganz ähnlich, jedoch mit einer anderen Begründung: „Nun stellt sich die Frage, ob die führenden Referenzmodelle CobiT und ITIL die ganze Komplexität der Führung einer IT-Organisation abbilden können. Diese Frage muss mit „nein“ beantwortet werden.“495 Auch Deloitte geht es somit um den Aspekt der Komplexität, jedoch nicht – wie mir – um ein Zuviel, sondern um ein Zuwenig: „Grundsätzlich sind die Führungsstrukturen in den einzelnen IT-Organisationen zu verschieden, als dass sie mittels vorhandener Referenzmodelle vollständig abgebildet werden können.“496 Aber:

492 493 494 495 496

Ratzer, Lohmann und Riesenberg, S. 19. Ratzer, Lohmann und Riesenberg, S. 18. Ratzer, Lohmann und Riesenberg, S. 23. Ratzer, Lohmann und Riesenberg, S. 23. Ratzer, Lohmann und Riesenberg, S. 23.

2.5 Das Framework-Prinzip

215

„Auch wenn weder CobiT noch ITIL diesem ganzheitlichen Anspruch derzeit entsprechen, bieten sie wertvolle Ansätze zur Ausgestaltung der IT-Governance“.497 Was zurück zur gemeinsamen Basis führt: damit folgen sowohl Deloitte als auch ich dem Ansatz der heuristisch zielführenden Adaptierbarkeit vielversprechender Frameworks bzw. einzelner Elemente, wobei Deloitte in der Folge die Verwebung der beiden Ansätze miteinander für sinnvoll hält, während ich gemäß der Idee des bastelnden Denkens eher modulartig aus allen interessant erscheinenden Ansätzen sowie der eigenen Überlegungen ein völlig neues Konzeptmosaik erstelle. Bei der Arbeit von Ratzer, Probst et al ist anzumerken, dass Deloitte der kontinuierlichen Verbesserung der IT-Governance einen hohen Stellenwert einräumt.498 Im Kern bedeutet es, dass Kennzahlen und Kontrollziele eine erfolgreiche Umsetzung der IT-Governance unterstützen können.499 Das Thema der Validierung und ständigen Verbesserung spielt für Sociality by Design ebenfalls eine große Rolle, so dass an dieser Stelle schon darauf hingewiesen werden kann, dass eine derartige Berücksichtigung dieses hochrelevanten Aspektes in Kapitel 4 dieser Arbeit stattfindet. Mit der Benennung von Erfolgsfaktoren der IT-Governance endet schließlich das Kapitel der Vorstellung der IT-Governance aus der Deloitte-Perspektive. Die zehn genannten Erfolgsfaktoren dürften am ehesten mit den auf der Meso-Ebene verorteten prozessualen Grundprinzipien bzw. Bausteinen von Sociality by Design zu vergleichen sein (und dort auch am besten Berücksichtigung finden). Deloitte leitete diese zehn Erfolgsfaktoren (ebenso wie ich es tat) aus konkreter Projektarbeit ab. Damit wird insgesamt deutlich, dass die IT-Governance nach Deloitte einige wichtige Aspekte bietet, die zwar auch schon bei etlichen anderen Ansätzen zu finden sind, dies jedoch im Sinne von „Relevanz durch Häufigkeit“ nicht nur nicht nachteilig, sondern ganz im Gegenteil sehr positiv zu bewerten ist. Neben den eigenen Aspekten bietet das Buch von Ratzer und Probst in Kapitel 4 einer Übersicht über die gängigsten500 IT-Management-Rahmenkonzepte. Allein die effiziente Übersicht erleichtert die Entscheidungsfindung hinsichtlich weiterer interessanter Rahmenkonzepte und ihrer Adaptierbarkeit. Insgesamt werden 16 Rahmenkonzepte aufgeführt, wobei ISO 27001 entfällt, da es ohnehin in dieser Arbeit bereits berücksichtigt wurde. Somit bleiben 15 Rahmenkonzepte, welche von Deloitte einer Kurzbewertung unterworfen werden und in der Folge auch durch mich im Rahmen der hiesigen Notwendigkeiten bewertet wurden. Allen Rahmenkonzepten ist gemein, dass sie „idealtypische Vorgehensweisen“ beschreiben, eine „gewisse Allgemeingültigkeit“ haben und für „eine Vielzahl in-

497 498 499 500

Ratzer, Lohmann und Riesenberg, S. 24. Ratzer, Lohmann und Riesenberg, S. 24. Ratzer, Lohmann und Riesenberg, S. 25. Korves, S. 59.

216

2 Theorie und Fundament

dividueller Anwendungsfälle als bewährte Verfahren zugrunde gelegt werden können“.501 Dies ist somit gleichermaßen ein brauchbares Leitbild für Sociality by Design wie auch die allgemeine Aussage, dass die IT-Welt eine immer stärkere Professionalisierung verlangt, die Rahmenkonzepte entsprechend liefern können: „Da der IT-Dienstleistungssektor auch in Zukunft weiterhin eine zunehmend größere Bedeutung bekommen wird, ist die Anwendung von Referenzmodellen zur Schaffung einheitlicher Vorgehensweisen und Definitionen zur Steuerung im Sinne des IT-Managements unumgänglich.“502 Dies gilt in Hinblick auf die immer stärkeren Auswirkungen digitaler Technologien auf die Gesellschaft aus dieser Perspektive selbstverständlich genauso. Deutlich wird an dieser Stelle auch erneut der Kombinationsaspekt, denn wenn mehrere Rahmenkonzepte gleichzeitig beispielsweise in einer Firma eingesetzt werden, bedeutet dies erstens, dass eine gute Kombination besser ist als die Bevorzugung eines einzelnen Modells und zweitens, dass kombinierendes Vorgehen auch für Sociality by Design ein plausibler, weil zigfach durchgeführter und offenkundig bewährter Weg ist.503 Sociality by Design bietet aufgrund der Anknüpfungsmöglichkeiten an Privacy und Security by Design zudem proaktive Kombinationsmöglichkeiten, um genau dort keine eigenen Aussagen mehr zu treffen, wo die fachliche Ausrichtung an Grenzen stößt. Die von Deloitte ausgewählten Rahmenkonzepte werden als „Best Practice“-Konzepte gesehen, welche aufgrund ihrer Verbreitung, bewährten Anwendung, inhaltlichen Ausrichtung und Innovation sowie Allgemeingültigkeit Vorrang vor (sicherlich in großer Zahl existierenden) anderen Modellen erhalten:504 – COBIT – Control Objectives for Information and related Technology505 – ISO/IEC 38500 – Corporate governance of information technology – Val IT – Governance of IT Investments – ITIL – ISO/IEC 20000 – IT-Service-Management Standard – eSCM-SP – CMMI for Development – TOGAF – BS25999 – M_o_R – Risk IT – ISO 9000

501 Korves, S. 59. 502 Korves, S. 59. 503 Korves, S. 60. 504 Korves, S. 62. 505 Korves, S. 62; Anmerkung bei Wikipedia: „bis Version 4.1 Control Objectives for Information and Related Technology, ab Version 5.0 nur mehr als Akronym in Verwendung“, siehe https://de. wikipedia.org/wiki/COBIT, abgerufen am 17.8.2016.

2.5 Das Framework-Prinzip

217

– Six Sigma – PMBoK – PRINCE2 Trotz ihres teilweise kommerziellen Hintergrunds (wie beispielsweise bei COBIT) boten sich auch bei der Betrachtung dieser Konzepte zumindest punktuell noch neue Erkenntnisse, die vor allem in Kapitel 4 dieser Arbeit Niederschlag finden werden. Für den ersten Schritt der Gestaltung von Sociality by Design als heuristisches Rahmenkonzept („1.0“, 2009 bis 2016) wäre die Detailauswertung an dieser Stelle jedoch zu weitreichend (und letztlich auch nicht mehr heuristisch), weshalb sie dem nächsten Schritt („2.0“, 2016 bis 2019) vorbehalten ist. Abschließend sollen meine eigenen Arbeiten dargestellt werden, die das hiesige Rahmenkonzept einsetzten und (dadurch) stärken. Aufgrund der seit 2009 vor allem mit den Kollegen von Fraunhofer geführten Gesprächen, der Gespräche mit den Verbundpartnern in MisPel, der Arbeitsprozesse im Rahmen von PERFORMANCE sowie der Diskussionen mit zahlreichen polizeilichen Praxispartnern entstanden im Laufe der Jahre immer mal wieder gänzlich neue Ideen und Ansätze, die an dieser Stelle nicht unerwähnt bleiben sollen. Sie sind von Beginn an mit den eigenen Ideen verwoben worden, die bereits vor der Idee Sociality by Design existierten, sich bewährt haben und für den hiesigen Kontext sinnvoll erschienen, jedoch unter der Bedingung eines substantiell prägenden Ausbaus und nicht in den teilweise bis dahin existierenden „Versionen 0.1 bis 1.0“: – Die Strategie des bastelnden Denkens auf Basis der Überlegungen von Claude Lévi-Strauss506 und Werner Heisenberg507 – Die modulare methodische Herangehensweise des Werkzeugkastenzugangs auf Basis der Überlegungen von Michel Foucault und Friedrich Kittler und mit Einflüssen von Siegfried Jäger, Reiner Keller, Rainer Diaz-Bone unter anderem508 – Das heuristisch fundierte Bestreben der Ausbildung eines Maschinenflüsterers auf Basis der Überlegungen von Gerd Gigerenzer, Wolfgang Wahlster et al509 – Die bevorzugte iterative Vorgehensweise Vom Groben ins Feine510

506 Humer, 2008. 507 Heisenberg, 2015. 508 Humer, 2008, siehe dazu unter anderem http://www.qualitative-research.net/index.php/fqs/ article/view/243/537, http://www.qualitative-research.net/index.php/fqs/article/view/71/145, jeweils abgerufen am 22.8.2016. 509 Siehe zur Alltagsintelligenz Wolfgang Wahlster in Spektrum der Wissenschaft kompakt, S. 17. Bezüglich der Arbeiten von Gerd Gigerenzer sind in diesem Kontext alle Titel zum Thema Heuristiken einen Blick wert. 510 Humer, 2008; von einer Eigenentwicklung kann man wohl kaum sprechen, da trotz des griffigen Titels für diese Arbeitsweise weder eine ausreichende Einzigartigkeit noch eine entsprechende Schöpfungshöhe proklamiert werden dürfte, so dass „bevorzugt“ hier das richtige Adjektiv sein sollte.

218

2 Theorie und Fundament

– Die Installation und der Ausbau einer relationalen Sociality-by-Design-Datenbank im Sinne von CRAMM und der ID-DB511 – Die unabdingbare Berücksichtigung der Eigengesetzlichkeiten der Digitalisierung512 Es fand also wie immer durch mich eine klassische Rasterung statt: welche Elemente der Informationen der Kollegen aus den Forschungsprojektpartnerschaften seit 2009 erschienen für Arbeiten wie diese sinnvoll (und welche nicht)? Dass sich die o. a. „eigenen Elemente“ – auch unter der Bedingung eines notwendigen Ausbaus – besonders eignen, wurde schnell deutlich. Insgesamt gesehen wird damit eine Ausprägung der von mir erstmals 2012 an der UdK institutionalisierten Internetsoziologie – der Verwebung von Soziologie und Informatik – fortgesetzt, die auch für dieses Vorhaben als besonders geeignet erscheint, da sie die interdisziplinäre Arbeitsweise in den Sicherheitsforschungsvorhaben und meine Arbeitsweise am besten abbildet und damit die Positionierung des hiesigen By-Design-Konzepts klar umreißt und interdisziplinär rahmt.

511 Humer, 2008. 512 Siehe beispielsweise http://www.sigs-datacom.de/uploads/tx_dmjournals/aus_der_szene_OS_ 04_16.pdf, abgerufen am 26.8.2016.

3 Methodik Der Kern sämtlicher Methodik liegt in der hiesigen Internetsoziologie in der Idee des Bastelnden Denkens. Zwar gibt es auch noch drei weitere Aspekte, die eine nicht nur geringe Relevanz haben – die Vorgehensweise „Vom Groben ins Feine“ (3.1.), die Modularität des „Werkzeugkastenzuganges“ (3.3.) und das Bestreben der Ausbildung eines „Maschinenflüsterers“ (3.4.) –, doch letztlich dreht sich alles um das Bastelnde Denken; alle anderen Aspekte haben sich dieser Vorgehensweise unterzuordnen – und das ist auch gut so. Deshalb erfolgt an dieser Stelle nochmals der entscheidende Hinweis, dass Sie dieses Buch bitte nicht als lineare Erzählung, sondern als Sammlung von Ideen und Werkzeugen verstehen, die Ihnen inhaltlich beliebig zur Verfügung steht. Nehmen Sie sich, was Sie für Ihre Arbeit brauchen. Denn die Welt ist nicht (mehr) mit einem linearen Ansatz erklärbar. Das Bastelnde Denken erschien mir deshalb schlicht als Notwendigkeit, um überhaupt Fortschritte in der Analyse erzielen zu können, denn immer wieder änderten sich in der Vergangenheit relevante Koordinaten und es bedurfte einer Anpassung an diese neuen Gegebenheiten. Hinzu kam eine enorme Komplexität sowie zahlreiche andere Aspekte (Zeit, Kosten, Personenpower usw.), die berücksichtigt werden mussten. Übrig blieb somit nur ein Rahmenkonzept-Ansatz, der sich auf das bezieht, auf was er sich beziehen kann – und den Rest offenhält. Diese Entwicklung wird in Kapitel 3.2 ausführlich dargestellt.

3.1 Vom Groben ins Feine Aus der Idee des Bastelnden Denkens ergibt sich, dass es selten zu einem inhaltlichen Volltreffer im Laufe der ersten Analysephase kommen dürfte. Denn wäre die Welt „in einem Rutsch“ erklärbar, wären wir ja wieder bei einem linearen Ansatz, der beispielsweise nach dem klassischen Motto „Einleitung – Hauptteil – Fazit“ oder auch nach anderen von Beginn bis Ende erzählten Geschichten eine Lösung bietet. Da ich diese Welterklärungsidee für unrealistisch halte, wird gebastelt – und das bedeutet, dass Version 1.0 grundsätzlich niemals die „beste“ Version ist, sondern „nur“ ein erster, aber hilfreicher Schritt. Soll es weiter ins Detail gehen, wird man iterativ tätig und bewegt sich: vom Groben ins Feine. Bei der Analyse digitaler Phänomene, die soziale Auswirkungen haben, sind das Beherrschen von Programmiersprachen, das Verstehen der digitalen Systemarchitektur und/oder das technische Verständnis digitaler Netzwerke sinnvolle, weil unersetzliche Schritte in die richtige Richtung. Dieses technische Wissen sorgt im Zusammenspiel mit den (sozialwissenschaftlichen) Sinneinheiten für eine Vertiefung und (in der Folge) bessere Beherrschung der Kulturtechnik des Digitalen, die

https://doi.org/10.1515/9783110559767-003

220

3 Methodik

inzwischen als Kern der Bewältigung der Digitalisierung unserer Gesellschaft gesehen werden kann.513 Es entsteht ein Verständnis der Sozialität – eben Sociality by Design. Desweiteren ist durch die Analyse bis ins programmiererische Detail sichergestellt, dass markante Fälle von einer ersten Verständnisebene („Vom Groben . . . “) bis auf die Ebene von 0 und 1 („ . . . ins Feine“) analysiert werden können. Die Vorgehensweise vom Groben ins Feine sorgt dafür, dass keine Lücke zwischen Analyse und (technischer) Detailebene entsteht, sobald das Bedürfnis aufkommt, weiter ins Detail zu gehen. Selbstverständlich erwächst daraus kein Anspruch auf perfektes Wissen und Problemlösen, jedoch sind künstliche Verknappungen der Analyse immerhin ausgeschlossen. Der Weg vom Groben ins Feine ist somit gleich in mehrfacher Hinsicht hilfreich: – Auf der technischen Ebene sorgen die vorhandenen Kenntnisse dafür, dass keine digitale Black Box entsteht: Analysen bis auf die Binärebene514 sind möglich, was letztlich relevanter erscheint als sozialwissenschaftliche Kenntnisse vergleichbarer Art, da der Vortrieb der Entwicklung von der Digitalität, nicht von der Sozialität ausgeht – diese hinkt erkennbar hinterher. – Auf der sozialen Ebene wird jedoch durch das Bastelnde Denken sichergestellt, dass sozialwissenschaftliche Analysen bis ins letzte (verfügbare) Detail modular eingefügt und genutzt werden können: mit (im Laufe der Bearbeitungszeit entstehenden) Vorkenntnissen und den daraus resultierenden Lerneffekten verbessert sich iterativ wie inkrementell das sozialwissenschaftliche Verständnis, was automatisch den Weg hin zu einer tiefergehenden Analyse bereitet. (Zum Start wird „lediglich“ Logik auf Basis des Verständnisses wissenschaftlichen Arbeitens benötigt.) Das Bastelnde Denken beginnt somit stets mit dem ersten (groben) Schritt, eröffnet dabei aber gleichzeitig den Weg ins (feine) Detail. Der Modus Vom Groben ins Feine ist somit Voraussetzung des Bastelnden Denkens. In der Folge sind durch den Einsatz von Sociality by Design sogar brauchbare sozialwissenschaftliche Lösungen ohne sozialwissenschaftliche Vorkenntnisse möglich: zunächst freilich nur grob (beispielsweise in Form von ersten Einschätzungen, grundlegenden Sicherheitsempfehlungen oder selbst angefertigten Akzeptanzanalysen 513 Griffin, Herrmann, 1997. S. 286–296; Humer: Interview mit dieser Aussage (digitale Kultur ist der Schlüssel). 514 Die Frage, was genau an technischen Kenntnissen vorhanden sein muß, um den Computer nicht mehr als Black Box zu bezeichnen, kann selbstverständlich nicht mit naturwissenschaftlicher Präzision beantwortet werden und wird wohl auch immer ein umstrittener Aspekt bleiben („Was ist Medienkompetenz?“, „Wieviel digitales Wissen braucht man?“ usw.) Ein Anhaltspunkt, der sich bewährt hat und deshalb auch an dieser Stelle zur Orientierung genutzt werden soll, ist das Verständnis von Maschinensprachen: wer auf dieser Ebene zielsicher erklären, handeln und Wissen ausbauen kann, dürfte ausreichend viel Technikverständnis besitzen, um die digitale Black Box nahezu vollständig ausleuchten zu können.

3.1 Vom Groben ins Feine

221

auf Basis der Tendenzanalyse), später aber zunehmend gehaltvoller – auch ohne sozialwissenschaftliche Grundausbildung, breite inhaltliche Disziplinkenntnis, Berücksichtigung der disziplinären Traditionen und Gepflogenheiten sowie Vernetzung innerhalb der sozialwissenschaftlichen Community. Benötigt werden dafür konkret: – Digitaltechnikkenntnisse (auf Grundlage der zuvor beschriebenen Kompetenzbereiche) – Logik (auf Grundlage des allgemeinen wissenschaftlichen Arbeitens) Wie wurde Vom Groben ins Feine ein so essentielles Element des Bastelnden Denkens und damit der Internetsoziologie? Dafür gibt es mehrere Gründe. Zuerst einmal ist Vom Groben ins Feine natürlich eine typische Visualitätsidee, weil Computergraphik ja genau so funktioniert. Man hat in der Computergraphik eine lineare Entwicklung von grober zu feiner Grafik: vom C64 zum Ultra-HD-Fernseher, von 160x200 Pixeln im Multicolor-Bitmap-Modus zu 8K UHD. Die Wünsche waren stets größer als die Technikmöglichkeiten, was eine Notwendigkeit zur Beschränkung zur Folge hatte. Und so ist das im ressourcengetriebenen Wissenschaftsbetrieb ebenfalls: ich kann nicht von Vornherein ohne Limit in ein Forschungsprojekt gehen. Man mag das als Idealfall anstreben, aber es dürfte – außer in extrem seltenen Fällen wie dem des sehr reichen Privatgelehrten – kaum realisierbar sein. Wir müssen mit Limits leben und arbeiten. Und das ist demzufolge meine bevorzugte, weil eben letztlich einzig realistische Vorgehensweise: ich mache ein Mosaik mit relativ groben Markern (beispielsweise „Biometrie ist . . . “) und dann kommen beispielsweise zehn Attribute hinzu, unterhalb der „Biometrie“-Ebene. Später kommen irgendwann zu diesen zehn Attributen drei Unter-Attribute pro Attribut, dann werden aus den drei UnterAttributen zehn Unter-Attribute, dann kriegen diese zehn Unter-Attribute jeweils noch 20 Unter-unter-Attribute – und so wird das Bild über Biometrie immer feiner. Das sind freilich mehrere Arbeitsschritte, eben Schritt für Schritt vom Groben ins Feine. Aber so löst man wenigstens bereits im ersten Durchgang eine gewisse Anzahl von Problemen, weil man schon mal ein grobes Bild von der Thematik erhält. Das feine Bild ist natürlich immer das erstrebenswerte, aber eben nicht immer durchsetzbar – siehe Ressourcenbegrenztheit. Der zweite wichtige Grund für eine möglichst weitgehende Anerkennung der eigenen Begrenztheit von Ressourcen ist die Tatsache, dass man nicht alle Werke, die sich mit einem mehr oder weniger großen Aspekt der (digitalen) Lebenswelt beschäftigen, kennen kann. Vor diesem Problem stand ich bereits 2005, als ich Literatur für die erste Dissertation rausgesucht habe. Möllers schreibt dazu in seinem Buch aus dem Jahre 2005, dass die Zeit der Kenntnisnahme aller wichtigen Werke vorbei ist: „Früher galt noch das Gebot der Vollständigkeit, man hatte alle einschlägigen Autoren zu zitieren. Bei der heutigen Informationsflut geht das nicht mehr. Vielmehr ist es Aufgabe des Autors Wichtiges von Unwichtigem zu trennen und nur das Wichtige zu zitieren.“ Doch wo fängt das Wichtige an und wo hört es auf? Ich denke, dass es hier mindestens zwei wichtige Aspekte gibt:

222

1.

2.

3 Methodik

Logik: Das Wichtige definiert sich – glücklicherweise – oft durch simple Logik und Schlussfolgerung. Verschlagwortungen helfen entsprechend, aber auch Abstracts, Reviews, Rezensionen und andere Hilfestellungen, die einen inhaltlichen Link, eine sinnvolle Kontextualisierung erkennen lassen. Ich halte Logik in diesem Zusammenhang für einen extrem unterschätzten, eher beiläufig wahrgenommenen und damit nicht einmal ansatzweise ausreichend anerkannten Faktor. Aufgabenziel: Es gilt der Grundsatz des wissenschaftlichen Minimalismus: so wenige Quellen, Methoden, Theorien wie möglich. Sobald das Problem „grob“ gelöst ist (=beispielsweise gelingt die erste empirische Überprüfung), wird die Arbeit eingestellt (Version 1.0). Soll es „feiner“ werden, ist das ein neuer Arbeitsschritt (Version 2.0). Wie weit man geht (Version x.0?), ist von der Verfeinerung bzw. Veränderung der jeweiligen Problemstellung abhängig. Vermieden werden muss aber auf jeden Fall „der große Wurf“ – denn der lässt sich bei digitalen Projekten grundsätzlich nicht (mehr) erreichen. Vor allem aus Zeitgründen. „Rough and ready“ geht vor perfekt, aber zu spät.

Daran knüpft auch direkt der dritte Aspekt an, der mich überzeugte: Das, was gerade Sicherheitsforschungsprojekte auch ausmacht, ist die Feststellung, dass man immer wieder mit Leichtigkeit ein Haar in der Suppe findet, wenn es um das Thema Datenanalyse im Internet geht. Nicht wenige Kolleginnen und Kollegen meinen: man wird eine entsprechende Messung nie wirklich absolut präzise hinbekommen. Ob das so ist? Das ist schwierig zu beantworten. Viel wichtiger erscheint mir dabei: man braucht es eigentlich nie absolut präzise. Vielmehr hat das Ganze aus meiner Sicht sehr oft den Ruch eines „Fetisch“: man hätte gerne eine absolut präzise, extrem genaue, bis auf die x-te Nachkommastelle reichende, absolut verlässliche Prozentangabe – aber wofür eigentlich? Sehr oft muss man im Prinzip ja nur wissen, ob man beispielsweise eine deutliche Mehrheit, eine krachende Niederlage oder ein Unentschieden erreicht. Schließlich erscheint Vom Groben ins Feine auch deshalb als ein wichtiger Ansatz, weil es sich dabei um eine Vorgehensweise handelt, die besonders hinsichtlich der wissenschaftlichen Quellenverarbeitung zielführend Anwendung finden kann. Es gibt in dieser Hinsicht drei Ebenen verarbeitbarer Sinneinheiten: – Die Primärquelle ist dabei die eigentliche Information, der tatsächliche Datensatz. Hier ist man direkt dran. – Wenn ich zum Beispiel eine Medienauswertung mache, bin grundsätzlich nicht mehr direkt dran. Dann muss ich auf Journalisten vertrauen und bin deswegen automatisch sowohl auf der Ebene der Sekundärquelle. – Die dritte Ebene – wenn ich also wirklich nur mit Alltagswissen zu tun habe, mit Hörensagen, Allgemeinwissen, allgemeinem Fachwissen usw. – ist dann ja noch eine Stufe höher, nach hiesiger Ansicht: noch gröber. Damit hat man bei Vom Groben ins Feine die Einteilung dieser drei Ebenen, sodass man da eben auch wieder bei einer Makro-, einer Meso- und einer Mikroebene ist.

3.1 Vom Groben ins Feine

223

Aus Perspektive der Analyse der digitalisierten Gesellschaft gilt: der mittlere Weg der Sekundäranalyse ist der, der die größte Bedeutung hat. Was wir wissen, wissen wir über die Medien, so Luhmann, und das gilt mehr denn je für den gemeinsamen Nenner der Digitalisierung. Dieser mittlere Weg ist der, der zwangsläufig immer mehr an Bedeutung gewinnen wird und somit bei Analysen berücksichtigt werden muss. Denn es muss auch einen Analyseweg geben, der „grob“ in der „Mitte“ liegt, weil es völlig unmöglich ist, immer all die Daten auszuwerten, die man vielleicht selbst gerne „in Reinform“ hätte. Jetzt mag der Einwand kommen: „Big Data kann das“ – und die Standardantwort lautet: das große Problem in allen Analysebereichen ist grundsätzlich nicht die Abwesenheit von Datenmengen, sondern das Fehlen von vernünftigen Analysekonzepten. Es geht nicht um das „Ob“, sondern um das „Wie“. Und da niemand allwissend ist, müssen Konzepte wachsen, weiterentwickelt werden, reifen – was nur funktioniert, wenn man auf Basis gut zugänglicher Informationen eine vernünftige, plausible, realisierbare Auswahl trifft, die nach entsprechender Auswertung zumindest eine Tendenz darstellen kann. Um die Welt zu erklären, brauche ich nicht alle Daten auf der Mikroebene. Auf der Mesoebene ist genug zu holen, was mich weiterbringt. Und allein schon aufgrund des hohen Tempos der Digitalisierung unserer Lebenswelt sollte dieser Ansatz weiterverfolgt werden. Zusätzlich zu den obigen Überlegungen ergab sich aber auch noch folgende Frage, die direkt in Zusammenhang mit der Vorgehensweise Vom Groben ins Feine steht: Was ist zeitgemäßer wissenschaftlicher Minimalismus? Lesen ist essentiell– nicht nur im Studium, in der Forschung und in der Lehre, sondern auch im Leben. So weit, so einfach und klar. Aber wieviel „muss“ man überhaupt lesen? Studierenden wird es bekannt vorkommen: nicht selten – vielleicht sogar weit überwiegend – wird für eine Prüfung, beispielsweise eine Klausur, das gelesen, was absolut notwendig ist. Wenn man dann in der Klausur die Note 1,0 erreicht – ist man dann „wirklich“ fit in diesem Thema? Oder hat man doch irgendwie nur die „Mindestanforderungen“ erfüllt? Die viele optionale Literatur – zumal noch die Originale, Klassiker, „Must haves“– bleibt dabei links liegen. Ist das schlimm? Nein. Denn erstens wird die 1,0 – entgegen zahlreicher Behauptungen – nicht verschenkt. (Und: selbst eine 2,0 wäre immer noch wunderbar und keinesfalls ‚schlecht‘.) Es ist also allein schon aufgrund der Noten alles im grünen Bereich, denn warum sollte man sonst einen Lehrplan, eine Modulbeschreibung, ein Studium so aufbauen, wenn die Notengebung insgesamt nur teilaussagekräftig oder sogar nichtssagend wäre? Mit so einer Idee käme man kaum durch, das würde Studiengang, Studiendekane, Fachbereiche und Hochschulen, aber auch alle anderen Akteure, von der Akkreditierungsagentur bis zum Gesetzgeber, gleichermaßen diskreditieren – spätestens dann, wenn die Absolventinnen und Absolventen im „wahren Leben“ für ihr Wissen belächelt – oder schlimmer: ausgelacht – werden, wenn die 1,0 nicht ansatzweise einen brauchbaren Wissens- und/oder Kenntnisstand abbilden würde. Also, trotz aller Unkenrufe: an deutschen Hochschulen werden Noten nicht verschenkt. Das führt letztlich zu nichts. Und deshalb taugen sie sehr

224

3 Methodik

wohl als Indikator. Und die optionale Literatur? Die ist – nicht umsonst – optional. Bei weitergehendem Erkenntnisinteresse – also dem Anspruch, mit dem man selbst einen Einser-Absolventen überflügeln kann – steht sie zur Verfügung. Und hilft. Mehr aber auch nicht. Schlechtes Gewissen? Unnötig. Das „Feine“ im Sinne des Maximums ist in vielen Fällen unnötig, denn es zieht Ressourcen unnötigerweise ab. Durch die Extreme der Digitalisierung haben wir nicht die Zeit, alles immer umfassend zu analysieren. Vom Groben ins Feine ist damit kein Plädoyer für verkürztes Denken oder hingeschluderte Arbeit, kein dogmatische Leseverweigerung im Nerdstil à la tl;dr515 – ganz im Gegenteil! Nur durch eine Fokussierung auf die mittlere Ebene im ersten Schritt erreichen wir eine ausgewogene Mischung aus Aufwand und Ergebnis. Digitalisierung muss gestaltet werden. Übersteigerte Ansprüche sind dabei kontraproduktiv. Vom Groben ins Feine ist ein Ehrlichmachen im Sinne der Möglichkeiten und Grenzen digitaler Analysearbeit.

3.2 Die Strategie des Bastelnden Denkens Wahrscheinlich die bedeutendste Entwicklung meiner internetsoziologischen Laufbahn ist – zumindest aus meiner Perspektive der Erschaffung einer möglichst ganzheitlichen Internetsoziologie – die Entwicklung eines Arbeitsmodus namens „Bastelndes Denken“. Der Hintergrund dieser Entwicklung ist schnell erzählt: im Zeitalter von Google, Wikipedia und Co. erschien mir ein „lineares Abarbeiten“ von Texten nicht mehr zeitgemäß. Schließlich waren die Zeiten der Schreibmaschine auch im Jahre 2005, dem Startschuss des Bastelnden Denkens, längst vorbei und Programme wie Word zeichneten sich ja von Beginn an – systembedingt – dadurch aus, dass zu jeder Zeit ein Texteinschub (oder ein Einschub jeglicher anderer Informationseinheit) möglich ist. Eine Arbeit an einem Text war somit spätestens seit Erfindung der Textverarbeitung eine Bastelarbeit. Damit lag schon – lange vor dem Verfassen eines ersten Satzes – die technische Grundlage des Bastelnden Denkens bereit: der Computer zwingt nicht mehr zur Linearität, jedenfalls nicht in dem Maße, wie es die Handschrift oder die Schreibmaschine getan haben. Jederzeit kann alles editiert werden, es entsteht ein freieres, offeneres Arbeiten. Doch auch die inhaltliche Ebene sorgte nach meinem Eindruck dafür, dass das Bastelnde Denken längst Realität, ja: zwingende Notwendigkeit geworden ist. Denn Inhalte ändern sich ebenfalls besser und freier denn je: eine Fußnote kann, beispielsweise in einer aktualisierten Fassung eines Buches, leichter denn je „geupdatet“ werden, so dass noch während des Arbeitens eine sinnvolle Inhaltsänderung bzw. -ergänzung (beispielsweise aufgrund

515 https://en.wikipedia.org/wiki/Wikipedia:Too_long;_didn%27t_read, abgerufen am 29.4.2019.

3.2 Die Strategie des Bastelnden Denkens

225

neuer Erkenntnisse) leicht möglich ist – leichter zumindest als im Falle der Handschrift oder der Schreibmaschine. Nun mag diese hier skizzierte Grundlage der digitalen Textverarbeitung nicht gerade nach einer revolutionären Innovation im Bereich der wissenschaftlichen Textabfassung jenseits der reinen Computerisierung des Schreibprozesses klingen, aber die beiden obigen Elemente – Technik und Inhalt – waren ja auch nur der Auslöser für weiterreichende Gedanken. Denn schließlich ergibt sich schnell die Frage: Wie weit kann ich beim Bastelnden Denken, mit dieser vorhandenen Technik, mit den Unmengen an verfügbaren Inhalten, eigentlich idealerweise gehen? Übernehme ich „nur“ die Technik der Textverarbeitung mit dem Computer und die Inhaltsofferten digitaler Quellen, schreibe also „modern“, beispielsweise wie in Word und Wiki, und lasse somit lediglich (die historisch bewährte und sämtliche moderne Gesellschaften positiv beeinflussende Idee von) Schreibmaschine und Buch ab sofort weg, oder steckt hinter der Idee des Bastelns doch noch viel mehr als nur eine Weiterentwicklung von Handwerkszeug? Um es vorweg zu nehmen: ich habe versucht, diese Idee (im positiven Sinne) maximal auszureizen, maximal auf die Spitze zu treiben – und damit maximal innovativ zu sein. Denn, und das war schnell erkennbar, es geht hier um mehr als um das Update eines Prozesses auf Basis neuer Tools. Es geht um wissenschaftlich Grundsätzliches.516 Doch der Reihe nach. Dass dieses Bastelprinzip weit über ein „Werkzeugupdate“ hinausgehend eingesetzt werden kann, sieht man nach meinem Dafürhalten geradezu vorbildlich im Falle von Wikipedia, weshalb ich diese Enzyklopädie auch als ein tatsächliches Vorbild für das Bastelnde Denken betrachte. Wikipedia stellt Artikel bereit, die sich ständig ändern – den einen finalen Artikel gibt es nicht. Alles ist eine Momentaufnahme, was ein sinnvoller Gedanke in Zeiten enormer Wissens- und Informationsressourcen ist. Es gibt schließlich kaum mehr das eine endgültige Wissen, zumindest nicht in sehr, sehr vielen Lebensbereichen. Ganz grundsätzlich, nach Popper, gibt es das sowieso nie, aber freilich gibt es Lösungen, die unser Leben erleichtern sollen und deshalb „positiv dogmatisch“ sind: Dass die Sonne gelb ist – nun ja, darauf hat man sich sowohl in der Physik als auch im Leben des Durchschnittsmenschen geeinigt, und zwar in einer Form, die nicht mehr grundsätzlich diskutiert werden dürfte. Doch ich denke, es wird deutlich, was ich meine: viele Aspekte des modernen Lebens sind keineswegs so endgültig, wie es oftmals den Eindruck hat. Plötzlich tauchen Informations- oder (wie ich sie hier und andernorts bevorzugt nenne:) Sinneinheiten auf, die eine Angelegenheit in einem neuen Kontext und damit in einem neuen Licht erscheinen lassen. Welches Buch kann unter diesen Voraussetzungen noch für sich

516 Damit erfahren Sie an dieser Stelle nun auch, warum meine Arbeit in den letzten Jahren immer mehr in Richtung Wissenschaftstheorie ging: grundsätzliche Fragen sind selten leicht und schnell zu beantworten.

226

3 Methodik

beanspruchen, endgültig zu sein? Das eine, final abgeschlossene Werk soll die Lösung beinhalten? Aufgrund digitaler Technikentwicklung erscheint diese Annahme absurder denn je. Und je mehr diese Erkenntnis verbreitet wird, desto klarer wird, warum immer weniger Menschen das Buch als bestmögliche Quelle der „Wahrheit“ ansehen können: der Brockhaus sieht im Vergleich zu Wikipedia geradezu mitleiderregend aus. Wikipedia ist längst bedeutender Teil des heutigen Allgemeinwissens. Dagegen kommt kein Buch mehr an. Und das liegt nicht nur an der Begrenztheit der Updatemöglichkeiten und seinen abschließenden Charakter. Es geht auch hier um viel mehr. Denn zur digital-handwerklichen Entwicklung kommen neue Quellen. Quellen wie Google, die Suchmaschine, die eine hervorragende wissenschaftliche und auch nichtwissenschaftliche Quelle ist. Studierende sollen nicht googeln, sondern Bücher lesen? Es gab schon 2005 nichts Schlimmeres als so ein plattes Schwarz-Weiß-Denken (mit der Annahme, dass Google natürlich auf die dunkle Seite gehört.) Google ist wahrscheinlich die beste Informationsquelle aller Zeiten, denn Google zeigte mir in meiner ersten Forschungsphase, also bereits vor fast 15 Jahren, auf in der Tat „augenöffnende“ Art und Weise, wie wenig Besonderes tatsächlich in vielen Texten und Büchern steckt. Was manch Autor noch für eine herausragende wissenschaftliche Idee hält, erweist sich nach Gegenprüfung via Google als „Idee“, die schon sehr viele Menschen hatten – und die damit keineswegs so einzigartig, ja: noch nicht einmal besonders anspruchsvoll ist. Google zeigte mir: außergewöhnliche Ideen, die eine akzeptable Schöpfungshöhe erreichen, sind rar. Sehr rar. Und, ja: Sehr viel seltener als ursprünglich gedacht, was entsprechende Konsequenzen hatte. Wir sind umgeben von Unmengen an wissenschaftlichen Informationen, welche sich vor allem durch eines auszeichnen: ihre (Unter-)Durchschnittlichkeit. Diese Erkenntnis war eine der größten Ernüchterungen meiner damals noch jungen wissenschaftlichen Laufbahn. Ich hielt die großen Klassiker, aber auch die neuen Autorinnen und Autoren, die bejubelt, gefeiert, ja: in höchste Sphären gelobt wurden, beispielsweise aus Soziologie und Psychologie, ebenfalls sehr oft für außergewöhnlich, sehr innovativ, sehr spannend, letztlich: für in Gänze relevant. Doch das lag leider allzu oft nur an meiner eigenen Perspektive: sie war zu begrenzt, auf einzelne Bücher und (entsprechenden „Schulen“ geschuldeten) Jubelarien fokussiert und damit beileibe nicht mehr zeitgemäß. Sie wurde aber auch im universitären Kontext (und da haben Sie ein weiteres Beispiel für das deutsche Scheitern in der Digitalisierung) auch nicht aktualisiert. Man klammerte sich an Bücher, Autoren, Schulen – und öffnete sich nicht für die Realität. Dabei war es so einfach: bei genauerer Recherche zeigte sich nicht nur, dass viele bekannt gewordene Ideen entweder auch oder sogar in viel besserer Form bereits von anderen (oftmals leider völlig unbekannten, jenseits des eigenen Kanons arbeitenden oder schlicht kollektiv verbannten) Menschen vertreten wurden, sondern dass viele Ideen inzwischen entweder längst Allgemeinwissen geworden sind (und damit nicht mehr zu einer Person „gehören“) oder niemals eine besondere Kreativität beinhalteten, die jemals eine Attribution hätten

3.2 Die Strategie des Bastelnden Denkens

227

nötig erscheinen lassen. Es war dank Google nur nicht möglich, die anderen Ideen, die in anderen Büchern oder Texten schlummerten, zu entdecken. Es war nun auch möglich, diese endlich richtig zu bewerten. Google erlaubte es, das Bastelnde Denken erst richtig gut werden zu lassen. Google befreite das Denken endgültig von Schulen. Google ließ, ganz nach Popper, Theorien sterben. Und das war auch gut so. Diese Erkenntnis bedeutete, dass viel Arbeit anstand, aber sie befreite auch. Und zwar enorm.

3.2.1 Ausformungen Man weiß: Gut 80 Prozent der geisteswissenschaftlichen Aufsätze werden niemals zitiert. Und von denen, die zitiert werden, werden längst nicht alle gelesen. Bernhard Pörksen

Neben den Worten von Bernhard Pörksen sei auch an die Worte von Volker Linneweber (Kapitel 2.1) erinnert, denn exakt diese Bewertungen teile ich – und nehme sie zum Anlass, auf Überlegungen wie denen von Linneweber und den eigenen Beobachtungen einen entsprechenden Lösungsansatz aufzubauen, welcher nun in diesem Unterkapitel vorgestellt werden soll.517 Auch wenn die eigenen Überlegungen dazu im Wesentlichen bereits aus dem Jahre 2005 stammen: die Situation dürfte sich nicht nur nicht geändert, sondern heute vielmehr drastisch verschärft haben, was durch vielfach aufzufindende Äußerungen wie die exemplarisch aufgeführte Aussage von Linneweber nur bekräftigt wurde. Die Notwendigkeit für einen solchen Lösungsansatz erscheint mir deshalb umso dringlicher. Die sehr ehrliche und ausgesprochen deutliche Ausführung von Bernhard Pörksen hinsichtlich des Umganges mit Quellen wird an dieser Stelle ausdrücklich begrüßt: zitiert wird viel, wirklich gelesen wird sicherlich wenig.518 Dies ist allerdings, anders als es Pörksen intendiert, kein grundsätzliches oder gar bedauernswertes Problem, sondern vielmehr ein Ehrlichmachen hinsichtlich der Arbeitsleistung: „Ich glaube, es ist ein wenig verlogen, wenn jemand sagt, er habe nicht nur alle Aufsätze, sondern auch alle Bücher bis in den letzten Winkel gelesen, die im Literaturverzeichnis (. . .) stehen“, so Gaby Reinmann, Leiterin des Zentrums für Universitäres Lehren und Lernen an der Universität Hamburg.519 Auch dies lässt sich problemlos durch die eigenen Beobachtungen in Studium und Forschung bekräftigen – und ist zugleich kein Grund für Pessimismus. Warum eigentlich sollte man dogmatisch vorgehen und dem Lesen einen übergeordneten, ja von allen inhaltlichen und

517 http://www.deutschlandfunkkultur.de/zur-kritik-an-den-universitaeten-die-zeit-der-zaubererist.1008.de.html?dram:article_id=415187, abgerufen am 15.4.2018. 518 http://www.deutschlandfunkkultur.de/kritik-am-wissenschaftsbetrieb-die-vertreibung-der-zau berer.1005.de.html?dram:article_id=415080, abgerufen am 15.4.2018. 519 http://gabi-reinmann.de/?p=3495, abgerufen am 15.4.2018.

228

3 Methodik

kontextuellen Logiken befreiten Stellenwert zusprechen, sprich: das (spezifisch definierte, also beispielsweise „vollständige“) Lesen um des Lesens willen über alles stellen? Oftmals reichen nun mal ein Exzerpt, ein Hinweis, eine Verlinkung oder eine Anknüpfung an eine potenziell nützliche Quelle völlig, um die Leserin oder den Leser gehaltvoll zu informieren, weiterzuführen oder zu unterstützen; Informationen sind schließlich vielfältig vermittelbar, denn „ . . . wenn der Fall eintritt, dass man ein Thema erwähnt, das man genau NICHT eingehender behandeln will, und dazu ein Buch kennt und sich vergewissert hat, dass es etwas taugt, dann darf man den Leser aus meiner Sicht gerne darauf verweisen, dass er da noch mehr Infos findet – auch ohne es ganz gelesen zu haben.“520 Letztlich geht es immer um Texte bzw. Textelemente, die für jemanden einen Sinn ergeben, ergo: um Sinneinheiten. Es geht nicht um die Erfüllung irgendeiner „Lese(r)pflicht“ oder üblicher Gepflogenheiten um ihrer selbst willen, sondern um die Nutzung von Inhalten. Sinneinheiten müssen heute – in digitalen Zeiten und in Zeiten ihres mannigfaltigen Auftritts jenseits des Buchs, Sammelbandes oder Artikels – in der ganzen Fülle ihrer Seinsmöglichkeiten betrachtet werden. Als Sinneinheit wird deshalb in dieser Arbeit stets gelten, was für sich stehend inhaltlich (mindestens) einen Sinn für die durchschnittlich gebildete Leserin bzw. den durchschnittlich gebildeten Leser ergibt. Idealerweise ergibt dann das Zusammenfügen von Sinneinheiten einen sinnvollen Gesamtkontext. Dieser stellt letztlich die wesentliche Innovation dar. Es wird, und damit wird der Bezug deutlich, gebastelt. Damit nun, unter der Prämisse heutiger informationeller Herausforderungen, die Informationsflut der Gegenwart so effizient wie möglich für Forschung und Entwicklung genutzt werden kann, braucht es ein System, welches Sinneinheiten so verwaltet und bereitstellt, dass ein bestimmtes, wenn nicht gar das Ziel von Forschung schlechthin bestmöglich gewährleistet werden kann: Innovation. Denn darum muss es im Kern gehen, so Linneweber. Es gibt für ihn eine Disziplin, die hier als Vorbild genannt werden kann: die Informatik. „Die Informatik quantifiziert bei zum Beispiel Stellenbesetzungen nicht in dem Umfang, wie das die Naturwissenschaften tun, sondern sie fragt, welche Innovationskraft hat denn welcher Kollege, der hier vielleicht eine Stelle bei uns anstrebt.“521 Ein System, welches Sinneinheiten modular verbinden kann, um am Ende die Innovationsfähigkeit der Autorin bzw. des Autors dadurch zu stärken, dass sie bzw. er sich so gut wie nur möglich auf die Problemlösung, auf Innovation, auf Ideen konzentrieren kann, um dem Ideal zeitgemäßer Forschung so weit wie nur möglich nahezukommen, frei von Ideologien, Dogmen, Schulen und ähnlichem Ballast, das muss das Ziel sein. Denn „die Zeit der Zauberer ist vorbei“, so Linneweber. „Und die Zauberlehrlinge sind anders aufgestellt“. Diese Zauberlehrlinge brauchen,

520 http://gabi-reinmann.de/?p=3495, abgerufen am 15.4.2018. 521 https://www.deutschlandfunkkultur.de/zur-kritik-an-den-universitaeten-die-zeit-der-zaubererist.1008.de.html?dram:article_id=415187, abgerufen am 4.5.2019.

3.2 Die Strategie des Bastelnden Denkens

229

so der Schlussfolgerung, dann auch zeitgemäße Entscheidungsunterstützungssysteme. Der Soziologe Heinz Bude formulierte es ähnlich.522 Heute, in Zeiten der Nichtexistenz entsprechender Handlungs- und Rollenvorbilder, ist (wie bereits in Kapitel 2.2 erwähnt) Sein – und damit auch Wissenschaft – mehr denn je Bastelarbeit. Und das System zur Bastelarbeit ist die relationale Datenbank bzw. das Wiki. Ein maßgeblicher, wenn nicht gar der alles entscheidende Treiber der Informationsflut, die Rollen auflöst, indem sie Optionen schafft, Handlungsspielräume massiv erweitert und uns deshalb auch zum Basteln zwingt, ist die Digitalisierung. Sie verändert unsere Gesellschaft wohl mindestens so stark wie es die Industrialisierung getan hat – die Veränderungen sind letztendlich nichts anderes als epochal. Diese Veränderungen machen vor der Wissenschaft als Teilsystem unserer Gesellschaft freilich nicht halt, was wiederum zur Folge hat, dass auch das wissenschaftliche Arbeiten, konkreter: die wissenschaftlichen Methoden entsprechend beeinflusst werden. Es ergeben sich durch die Digitalisierung der Wissenschaft einerseits zahlreiche Chancen in diesem Bereich, aber auch mindestens ebenso Herausforderungen und natürlich Risiken, so dass eine entsprechende Beeinflussung des wissenschaftlichen Arbeitens mindestens eine Revision der bisherigen Methoden und Werkzeuge, wenn nicht gar eine komplette Neuentwicklung zur Folge hat. Denn die Digitalisierung bringt Eigengesetzlichkeiten523 mit, an denen nicht wenige Tools, Methoden und Traditionen früher oder später scheitern werden (oder auch bereits gescheitert sind). Und wenn von einer revolutionären Entwicklung die Rede ist, schließt das eine evolutionäre Perspektive automatisch aus. Dies gilt logischerweise auch für die Werkzeuge und Methoden im Wissenschaftsbetrieb – hier bleibt nur ein zur inhaltlichen Revolution passender struktureller bzw. methodischer revolutionärer Bruch. 524 Apropos Eigengesetzlichkeiten: Wenn man sich mit der Digitalisierung beschäftigt, fällt einem natürlich schnell auf, dass es sich um ein in nahezu jeglicher Hinsicht enorm dynamisches Themenfeld handelt – diese Dynamik ist eine der ersten, besonders leicht zu erkennenden Eigengesetzlichkeiten. Sowohl in Projektkontexten als auch ganz allgemein wird immer wieder deutlich, dass fast nie Zeit für eine erschöpfende Analyse zu sein scheint. Auch wenn dies freilich in keinem Wissenschaftskontext jemals wirklich realistisch sein dürfte – Wissenschaft ist immer das Bestreben, nicht jedoch automatisch das Gelingen, Phänomenen auf

522 http://www.spiegel.de/kultur/gesellschaft/heinz-bude-ueber-adorno-metoo-und-was-von-68bleibt-a-1187437.html, abgerufen am 5.8.2018; es wurde im Übrigen schon damals von Philosophen wie Karl Popper abgelehnt, was für die Theoriefundierung in diesem Kapitel noch von entsprechender Bedeutung sein wird. 523 Sie haben es sicherlich bereits zuvor in diesem Buch gelesen: Die Suche nach den Eigengesetzlichkeiten der Digitalisierung sollte sicherlich der „Heilige Gral“ der sozio-technischen Analyse sein: nur wer diese Attribute kennt, kann korrekt analysieren. 524 In der digitalen Szene auch gern als „Disruption“ bezeichnet.

230

3 Methodik

den Grund zu gehen –, so ist doch die Dynamik im digitalen Zeitalter eine ganz besondere Herausforderung. Hinzu kommt die im Kontext von Sicherheitsforschungsprojekten hochgradig bedeutsame Aufgabe, nicht unbedingt maximal präzise, sondern sehr schnelle, dafür aber auch nur bewusst grobe Ergebnisse zu liefern. Ein Beispiel dazu aus dem Projekt „MisPel“: während die Programmierer für ihre Algorithmen eine Erfolgsquote von 100 % anstrebten, also quasi den perfekten Match zwischen Fahndungsfoto und biometrischer Gesichtsanalyse im Videomaterial erreichen wollten und die lange Berechnungszeit bzw. den Analyseaufwand dafür auch in Kauf nahmen, war genau dieser Faktor – die Zeit – das entscheidende Problem für die Polizeibeamten im Projekt. Denn ihnen war gar nicht wichtig, dass man beim Gesichtsabgleich einen 100-prozentigen Treffer erreichen könne, der dann auch entsprechend auf sich warten ließe, sondern dass man so schnell wie möglich, dafür aber auch nur sehr grob die Spreu vom Weizen trennen kann. Das bedeutete im vorliegenden Fall konkret: der Polizei war es lieber, sehr schnell (d. h. innerhalb von Stunden) eine Übersicht von beispielsweise 50 Fotos zu bekommen (aus einem Wust von abertausenden Gesichtern, enthalten in mehreren Hundert Stunden Videomaterial), die die Software ihnen dafür strukturiert aufbereitet liefern konnte, als mehrere Tage oder gar Wochen auf das eine perfekte Ergebnis (und weitere Ergebnisse in absteigender Reihenfolge, aber bis auf die zweite oder dritte Nachkommastelle genau) zu warten. Denn mit diesen 50 Fotos kann man dementsprechend schnell in das Tatumfeld gehen, um dort Zeuginnen und Zeugen zu befragen („War es einer von diesen Männern?“ anstatt „War es dieser eine Mann?“). Man bevorzugte also eine schnelle Lösung, die nur grobe Ergebnisse lieferte, gegenüber einer ultrapräzisen Lösung, die einen dafür so lange warten ließe, dass sich der Fall im Zweifel schon wieder „erledigt“ hat. Ähnliches würde ich im Zweifel für nahezu jede digitale Analyse bekunden, die mir im Laufe meiner wissenschaftlichen Tätigkeit im Bereich der Sicherheitsforschung begegnet ist: ein Erfolg beim „ersten Angriff“ war fast immer entscheidend oder zumindest von enormer Relevanz. Denn es herrscht immer noch in so vielen Fällen so große digitale Ahnungslosigkeit, dass ein erster Schritt in die richtige Richtung fast immer das entscheidende Merkmal sein dürfte, denn dieser erste Schritt ermöglicht das, woraus alles andere folgt: zielführende Orientierung. Letztlich entspricht diese Vorgehensweise einer individuellen Ausprägung der interdisziplinär etablierten Methode der qualitativen Exploration.525 Das Digitale erscheint, wie bereits angedeutet, in vielerlei Hinsicht als ein ideales Anwendungsfeld für Karl Poppers wissenschaftstheoretische Ausführungen, denn es gibt nicht nur in sozialer Hinsicht keinen „endgültigen Grund“ der Analyse (auch wenn diskrete Werte bei digitaler Technik genau diesen Eindruck zu vermitteln scheinen), es ist sogar bei den (aus heutiger Sicht) einfacheren Maschinen526

525 Kromrey, S. 65 f. 526 Beispielsweise Systeme wie der Commodore 64 aus dem Jahre 1982.

3.2 Die Strategie des Bastelnden Denkens

231

klar erkennbar, dass nicht einmal ihre Erfinder immer genau wussten, was sich darin alles verbirgt.527 Dies lässt sich zwar oft erahnen (Stichwort „Maschinenflüsterer“528 nach Friedrich Kittler), doch die neu entstandene Disziplin der Computerarchäologie widmet sich ja genau Tag für Tag der Widerlegung der These, dass Maschinen, die extrem rational, diskret und logisch aufgebaut sind, letztinstanzlich decouvriert werden konnten: es gibt doch noch immer wieder etwas Überraschendes zu entdecken, von dem selbst die Erschaffer des Systems nichts wussten oder dies zumindest nicht dokumentierten – und diese Tatsache ist systemimmanent. Damit ist letztlich – allein schon aufgrund der dieser Tatsache innewohnenden Komplexität der Handlungs- und Rechenoptionen – der Weg frei für ein dauerhaftes bastelndes Denken, eine iterative, inkrementelle Arbeit, die eben nur gewisse Rahmungen zulässt, aber nie eine abschließende Blaupause für einen Sachverhalt darstellen kann (und will), eine Arbeit, die aus Rekontextualisierung besteht, die Sinneinheiten immer neu zusammensetzt, eben: bastelt. Richtig ist aber auch: Analyse muss nicht immer grob sein. Natürlich kann man auch digitale Sachverhalte sehr weitgehend erschließen. (Skeptisch würde ich erst bei Proklamation einer endgültigen Analyse werden, da deren Haltbarkeit aus bekannten Gründen nur sehr schwer zu verargumentieren sein dürfte.) Aber nicht nur aufgrund des stark projektorientierten Arbeitens meinerseits und der Idee dieser Arbeit erscheint eine grobe Erstanalyse sehr oft reizvoll, sondern auch aus allgemeinen Erwägungen wie Arbeitsökonomie, Effizienzaspekten und Kostengründen sowie der ganz ähnlichen Vorgehensweise im Bereich IT-Grundschutz („Basis eines IT-Grundschutzkonzepts ist der initiale Verzicht auf eine detaillierte Risikoanalyse.“) sollte ein rahmendes Bastelndes Denken seinen festen Platz im technik- und sozialwissenschaftlichen Methodenkanon finden. Denn diese Methode bietet ja nicht nur, sondern zuerst die Möglichkeit, grob zu analysieren. Durch das letztlich aber immer wieder genannte Merkmal der elementaren Vorgehensweise Vom Groben ins Feine besteht natürlich die Möglichkeit, weiter ins Detail zu gehen und zwar wie in der Informatik keineswegs unüblich: iterativ bzw. inkrementell. In diesem Kontext sei abschließend auch noch der (bereits zu Beginn dieses Buches erwähnte) Aspekt der Abwesenheit ganzheitlicher digitaler Theorien erwähnt, der es unmöglich erscheinen lässt, einfach eine passgenaue Analyseschablone über einen Sachverhalt zu legen, um eine digitale Antwort zu erhalten – denn es gibt für den deutschen Kultur- und Sprachraum keine solche die Gesellschaft beschreibende oder gar erklärende Theorie, nach der sich alle ausrichten und der alle (oder zumindest viele) folgen (können). Die in dieser Arbeit immer wieder präsentierten Zitate bedeutender Wissenschaftler illustrieren dies. Und es

527 Siehe dazu beispielsweise https://agnes.hu-berlin.de/lupo/rds?state=verpublish&status=ini t&vmfile=no&publishid=110379&moduleCall=webInfo&publishConfFile=webInfo&publishSubDir= veranstaltung, abgerufen am 18.10.2016. 528 https://blog.degruyter.com/internet-sociology-matter/, abgerufen am 11.4.2018.

232

3 Methodik

wird, soviel sei gesagt, niemals eine solche Theorie geben. Die technische Welt von heute im Allgemeinen und Digitalisierung im Besonderen (siehe Informationsflut und Computerarchäologie) sind letztlich viel zu komplex für die eine, „alles“ umfassende, dauerhaft gültige Weltenerklärung. Hier kann gerade Sociality by Design mit seinen Kernelementen jedoch einen hilfreichen Rahmen bieten, sich einer digitalen (Teil-)Theorie anzunähern oder zumindest punktuell Unterstützung bei der Suche nach Antworten zu leisten.

3.2.2 Die erste Phase (2005/2006) Das Bastelnde Denken wurde erstmals zwischen 2005 und 2007 im Projekt Digitale Identitäten strukturiert realisiert, d. h. es handelte sich dabei um Bastelndes Denken in einer Art „Pre-Alpha-Version“. Da es sich bei Digitale Identitäten in erster Linie um eine analytische Arbeit und nicht um ein Methodenprojekt handeln sollte, blieb die Beschreibung des Bastelnden Denkens gewollt (und gefordert) im dazugehörigen Buch kursorisch. Hinzu kam, dass eine Ausformulierung der methodischen Details in Form eines Forschungsprojekts bereits für einen späteren Zeitpunkt vorgesehen war, es jedoch aufgrund des Todes der designierten Projektleiterin nicht mehr zu diesem (und weiteren) gemeinsamen Vorhaben kam.529 Last, but not least war die Methode aufgrund ihres Entwicklungsstatus und ihrer erstmaligen, sehr experimentellen Umsetzung nicht ohne weiteres allgemeingültig anwendbar, es mangelte ihr an prägnanter „Vorzeigbarkeit“, unter anderem aufgrund des komplexen Hintergrundwissens, welches nicht komplett strukturiert und dokumentiert öffentlich vorlag (sondern eher den Autor als heuristisch fundierten „Maschinenflüsterer“ „auszeichnete“) sowie zahlreicher methodischer Experimente und Änderungen, die im Projektverlauf zutage traten.530 Die Idee des Bastelnden Denkens prägte zwar weiterhin – nach der ersten erfolgreichen Umsetzung – mein Wirken, jedoch sind erst die hiesigen Ausführungen in diesem Kapitel aufgrund einer starken Überarbeitung und Einbettung in Sociality by Design auf dem Niveau, welches ich mir ursprünglich einmal für eine allgemein anwendbare Methodenbeschreibung gewünscht hatte. Aufgrund der Vielzahl an Verbesserungen und Verfeinerungen an der Methode erscheint es sinnvoll, nun vom Bastelnden Denken 2.0 zu sprechen. Dabei gibt es sowohl die bereits aus dem Projekt Digitale Identitäten bekannten Kernüberlegungen (beispielsweise auf der Entwicklungsebene das wilde Denken nach Claude Levi-Strauss und auf der

529 https://www.freitag.de/autoren/internetsoziologe/sie-fehlt-zum-funften-todestag-von-ger burg-treusch-dieter, abgerufen am 18.10.2016. 530 Humer, 2008, S. 64.

3.2 Die Strategie des Bastelnden Denkens

233

Methodenebene der Werkzeugkastenzugang nach Michel Foucault und Friedrich Kittler) sowie neu hinzugekommene Elemente wie die inspirierenden Gedanken von Werner Heisenberg als wissenschaftstheoretische Tradition und letztlich eine intersubjektiv darstellbare „Bedienungsanleitung“, die nun nicht mehr nur in meinen Gedankenwelten zur vollen Blüte gelangen kann. Im ersten Projekt, welches das Bastelnde Denken als Methode nutzte, wurde dieses noch dem Werkzeugkastenzugang nach Foucault zugerechnet. Dies ist jedoch semantisch und auch gemessen am aktuellen Sachstand nicht ausreichend präzise: zwar kann die Definition des Werkzeugkastenzugangs nach Foucault und Kittler auch neue (eigene) Methoden beinhalten und es scheint (gerade aufgrund der obigen Ausführungen) ein Werkzeugkastenzugang, sprich: eine modulare Herangehensweise, die sich das jeweils passende Werkzeug heraussucht, auch dem extrem heterogenen Forschungsgegenstand angemessen zu sein, doch ist dies letztlich nicht die ideale Beschreibung für die neuentwickelte Methode. Das Bastelnde Denken ist aufgrund seines „wilden“ Charakters, seiner Radikalität (in Hinblick auf das Infragestellen zahlreicher bisheriger sozial- und technikwissenschaftlicher Gepflogenheiten) und seines Minimalismus (in Form der ausschließlichen Berücksichtigung der unabdingbaren Faktoren Logik und Rechtslage) die offensichtlich zutreffendere Beschreibung. Zwar wurde bereits damals erwähnt, dass „Bastelndes Denken“ (Levi-Strauss) nicht nur hilfreich, sondern schlicht notwendig erscheint, was auch heute noch so gesehen wird. Doch zeigt sich der damalige Bezug auf das Bastelnde Denken aus heutiger Sicht als zu dünn, da so Chancen und Herausforderungen dieser Methode wahrscheinlich nicht ausreichend klar wurden. Keine Disziplin kann sich heute als die „Digitaldisziplin“ schlechthin fühlen: jede hat ihre Vor- und Nachteile, wobei allen gemein ist, dass sie insbesondere an die Rolle der Digitalität sowie die kulturelle Leistung des Menschen im digitalen Raum allzu oft nicht ausreichend nah herankommen. Die Lösung (in der Sicherheitsforschung): Verbundprojekte. Diese sind – beispielsweise im Rahmen der Forschungsförderung durch das Bundesforschungsministerium – gleichermaßen bewährt wie üblich. Bastelndes Denken ist also nicht nur hilfreich, sondern erscheint auch aus dieser Perspektive schlicht notwendig, denn so lässt sich ein Rahmenkonzept wie Sociality by Design effizient mit Inhalten füllen – und ein universeller (Verbund-)Rahmen hat idealerweise auch eine universelle (verbundorientierte) Inhaltsstrategie. Diese wird vor allem durch das Bastelnde Denken mit Inhalten befüllt. Durch seine epistemologische Radikalität ist der Hinweis auf seine Wildheit nicht bloß Zierrat: das Bastelnde Denken negiert nahezu alle Gepflogenheiten referenzieller Art, insbesondere disziplingebundene Traditionen, und schafft seinen eigenen, nur auf Sinneinheit, Logik und Recht basierenden Bezugsrahmen. Es ist damit strukturell gut gerüstet für die Analyse neuer, kommender Phänomene und dient auch als proaktive, innovative Motivationsgrundlage in interdisziplinären Teams. Und es ist somit klar erkennbar Teil einer neuen Subdisziplin: der Internetsoziologie.

234

3 Methodik

Wie das Bastelnde Denken in seiner ersten (rohen) Ausprägung aussehen sollte, ergab sich letztlich 2006 auf einem Kongress des Chaos Computer Clubs namens „Easterhegg“ in Wien. Die Veranstaltung war erwartungsgemäß „informatiklastig“ und hatte dadurch den Vorteil, dass die eigenen Datenbankideen im entsprechenden Workshop entsprechend disziplinär fokussiert und inhaltlich auf hohem Niveau durchgearbeitet werden konnten. Daraus ergab sich die erste maßgebliche Informatikprägung von Sociality by Design, da das Bastelnde Denken in Form einer spezifischen relationalen Identitätsdatenbank (ID-DB, aufgrund des Forschungsvorhabens Digitale Identitäten; abgewandelt vom später wieder allgemeiner gehaltenen Namen „BD-DB“) realisiert werden sollte. Auch wenn die inhaltlichen Grundüberlegungen sozialwissenschaftlich konnotiert sind (beispielsweise durch die Fokussierung auf sprachliche Sinneinheiten wie Zitate und Absätze): die dominierenden Ausprägungen dieser Idee sind klar technikwissenschaftlich. Eine Datenbank des Bastelnden Denkens (BD-DB) ermöglicht überhaupt erst die Rekontextualisierungsstrategie, die einer relationalen Datenbank oder einem Wiki531 mit dem sich entwickelnden inhaltlichen Beziehungsgeflecht (Relationen bzw. Links) innewohnt. Das Bastelnde Denken ist ein Kind der Informatik.

3.2.3 Claude Levi-Strauss und Werner Heisenberg: Wildes Denken Eine BD-DB lebt vom Rekontextualisieren. Dieses „Remixen“ von Inhalten aller Art ist zwar an sich keine neue Methode, denn jede Forscherin und jeder Forscher knüpft ständig neue Verbindungen zwischen gesammelten und/oder selbständig erdachten Sinneinheiten. Doch dies dürfte sicherlich eher selten auf Basis einer potenziell unbegrenzt großen (und unbegrenzt weiter ausbaubaren) Datenbankstruktur, sondern mehr oder weniger individuell strukturiert (vulgo: „freestyle“) geschehen. Die Inspiration zur Methode des Bastelnden Denkens kam wie bereits geschildert im Verlauf der Arbeit im Projekt Digitale Identitäten: Die Projektgutachterin beispielsweise kommunizierte seinerzeit klar und deutlich, dass es nicht die eine richtige Vorgehensweise bei der Projektarbeit gibt, sprich: Text nicht zwingend linear (Kapitel nach Kapitel, Absatz nach Absatz, etc.) „runtergeschrieben“ werden muss, sondern der Verfahrensweg bzw. der Prozess an sich völlig offen ist. Andere Erkenntnisse in Sachen Google und Wikipedia taten ihr Übriges. Diese Situation wurde gedanklich und in Abstimmung mit ihr schließlich auf die Spitze getrieben: wenn man sich Inhalte als kleinste mögliche Sinneinheiten vorstellt, beispielsweise einen Satz wie

531 Unter www.humer.de/wiki steht ein erster Ansatz dieser Datensammlungsidee bereit.

3.2 Die Strategie des Bastelnden Denkens

235

„Niklas Luhmann war ein deutscher Soziologe“, der die Informationen „Niklas Luhmann“, „Soziologe“, „deutsch“ und die Vergangenheitsform aufgrund des Wortes „war“ enthält, so sind jeder Text, jedes Kapitel, jeder Absatz und jeder Satz letztlich nichts anderes als ein Mosaik aus Sinneinheiten.532 (Freilich gilt dasselbe für Bilder, Bildausschnitte und Pixel, ebenso für Tonaufnahmen, Tonauschnitte und Soundeffekte – sobald eine Sinneinheit sinnlich erfassbar und gehaltvoll ist, ist sie nutzbar.) Aufgrund der Fülle von Informationen, die durch die Digitalisierung unserer Gesellschaft in den verschiedensten Formen zu uns gelangen – von eBooks über QR-Codes, NFC-Daten und Webseiten bis zu Tweets –, erschien diese Einteilung in kleinstmögliche (sinnvolle) Einheiten logisch und letztinstanzlich. Denn hier zeigt sich (wieder einmal), wie unmöglich heutzutage ein „Runterschreiben“ einer Idee, eines Textes oder einer Aufgabe erscheint. Die Quellenlage lässt dies aufgrund von Zeit, Inhalt und, ganz besonders wichtig: sich immer wieder ändernder Aufgaben- und Inhalte-Struktur(en) gar nicht mehr zu. Sicherlich kann man sich heute noch sehr gut beispielsweise an einem Text einer Autorin bzw. eines Autors „abarbeiten“ und mit den Gedanken auseinandersetzen, im Stile einer Rezension und durchaus linear, d. h. vom Anfang bis zum Ende. Doch dies ist eine Arbeitsweise, die wenig bis gar nichts mit den Herausforderungen komplexer, verbundorientierter Sicherheitsforschungsaufgaben oder ähnlich komplexer Teamleistungen zu tun haben dürfte. Deshalb müssen Inhalte auf ihre kleinste Einheit reduziert und frei rekontextualisiert werden können. Allerdings, so wurde schnell deutlich, erschien diese Vorgehensweise in Hinblick auf die Kombination mit einer Datenbank und einer daraus resultierenden „Zusammenklickbarkeit“ eines Textes wissenschaftstheoretisch durchaus als neu und eher außergewöhnlich, wenngleich aus meiner Sicht auch schlicht notwendig. Denn nur eine solche Datenbank des Bastelnden Denkens ermöglicht überhaupt die Handhabung größerer Datenmengen, mit denen ein (analoger) Zettelkasten oder ein linear lesender und analysierender Mensch allein völlig überfordert wäre.533 Zwar gab es auch zum Zeitpunkt dieser Überlegungen, also bereits vor einigen Jahren, digitale Datenverwaltungssysteme wie Citavi, doch waren diese nicht so offen und leistungsstark wie nötig und erfüllten damit nicht die Bedingungen, die an Digitale Identitäten und die darauffolgenden Projekte gestellt wurden, beispielsweise den Umgang mit Sinneinheiten, für die gerade kein Autor genannt werden kann bzw. soll.534 Deshalb erschien ein völlig neues Denken in Hinblick auf die Informationssammlung, -nutzung und -gestaltung notwendig – sicherlich auch inspiriert durch

532 Humer, 2008. 533 https://de.wikipedia.org/wiki/Zettelkasten, abgerufen am 12.4.2018. 534 Möllers, 2005.

236

3 Methodik

die Möglichkeiten von Citavi (siehe Abbildung 5), aber nicht allein darauf beruhend, denn die eigene Beobachtung zeigte nur allzu oft: hinsichtlich des Informationsmanagements und der zahlreichen Veränderungen, die die Digitalisierung auch in der Wissenschaft mit sich bringt, entsteht eine Herausforderung, der viele Menschen mit etablierten Vorgehensweisen nicht gewachsen sind. Dieser Mangel sollte entsprechend beseitigt werden.

Abbildung 5: Citavi. Anm.: Citavi bietet auf Wikipedia-Seiten den direkten Import von (in diesem Falle: 23) Titeln an. Dies ist nichts anderes als ein konkretes Beispiel für die Vorgehensweise, die seit 2005 für das Bastelnde Denken getestet wurde (nur ohne vergleichbare Software): Sinneinheiten können genutzt werden, sobald sie irgendeinen erkennbaren Wert haben – siehe dazu die Ausführungen von Gaby Reinmann. Ein Import in eine Datenbank ist ausschließlich abhängig von ihrer sinnvollen Verwertbarkeit – die Art und Weise dieser Verwertbarkeit hingegen ist unter inhaltlichen Gesichtspunkten völlig frei.

Um dem revolutionären Aspekt der Digitalisierung in gesellschaftlicher Hinsicht gerecht zu werden, aber auch um eine wissenschaftstheoretische Anknüpfung zu finden, die die eigene radikale Vorgehensweise bekräftigt, wurde nach Vorbildern gesucht, deren Verhalten in vergleichbaren Situationen als Inspiration dienen könnte, um die Akzeptanz für eine radikale Lösung zu steigern, die alle verzichtbaren (weil nicht hilfreichen) Elemente entsorgt und sich auf das wesentliche Sinnelement konzentriert. Noch bevor also Linneweber und Bude entsprechende Diagnosen stellten, wurde man bereits in den Werken von Claude Levi-Strauss und Werner Heisenberg fündig: Claude Lévi-Strauss spricht beim Denken der tribalen Völker vom wilden Denken, das ein bastelndes Denken sei, das sich immer neue Welten daherträumt und sie mit alten Mythen verwebt. Ganz ähnlich beschreibt es der Atomphysiker Werner Heisenberg in seiner Biographie, wenn er beschreibt, dass er die chronisch auftretenden Krisen seiner Forschung nur überwinden konnte, indem er die am sichersten scheinende seiner Theorien fallen ließ und so Platz für neues Denken fand. In diesem Sinne sind Mythologie und Wissenschaft dem Verfahren der theatralen Produktion mit ihrer Mischung aus Intuition, Analyse und Improvisation mindestens seelenverwandt.535

Werner Heisenberg vertrat in seinen autobiographischen Gesprächen eine Ansicht, die dem radikal Neuen zustimmt:

535 https://www.schauspiel-stuttgart.de/spielplan/spielzeit-2015-2016/wozu-texte-spielzeit20132014/, abgerufen am 12.4.2018.

3.2 Die Strategie des Bastelnden Denkens

237

[Es] kann wirkliches Neuland in einer Wissenschaft wohl nur gewonnen werden, wenn man an einer entscheidenden Stelle bereit ist, den Grund zu verlassen, auf dem die bisherige Wissenschaft ruht, und gewissermaßen ins Leere zu springen.536

Dem Neuland, welches Bundeskanzlerin und Physikerin Angela Merkel 2013 im Internet sah, widmet sich Heisenberg somit (indirekt) in deutlicher Klarheit. Hier geht es ihm nicht nur um die Inhalte, sondern auch – oder besser gesagt: gerade – um die Struktur: Wenn wirkliches Neuland betreten wird, kann es aber vorkommen, dass nicht nur neue Inhalte aufzunehmen sind, sondern dass sich die Struktur des Denkens ändern muss, wenn man das Neue verstehen will. Dazu sind offenbar viele nicht bereit oder nicht in der Lage.

Man kann in Hinblick auf die Methode des Bastelnden Denkens hier starke Übereinstimmungen feststellen, denn das Bastelnde Denken widmet sich ja vorrangig der Bewertung und (Neu)Nutzung von sowie der ausschließlichen Konzentration auf Sinneinheiten, d. h. es geht auch um das Freisein bzw. Freisetzen von Informationen, was eine wissenschaftstheoretisch hochrelevante, jedoch weitgehend unbearbeitete537 Herausforderung ist, die Citavi und andere Systeme so (noch) nicht lösen. Dass radikal anderes Denken nicht völlig unberechtigt, sondern – im Gegenteil – in nicht wenigen Fällen und historisch belegt hochgradig wünschenswert, ja: aufgrund der digitalen Herausforderungen heutzutage offensichtlich zwingend notwendig ist, ermunterte zur Weiterentwicklung.538

3.2.4 Der Weg zu einem neuen Lösungsansatz (2006 bis 2008) Während des Projekts Digitale Identitäten wurde auf Basis der zuvor genannten Überlegungen ein radikal neuer Umgang mit Sinneinheiten gepflegt. Die Notwendigkeiten ergaben sich aus der bereits geschilderten Informationsflut sowie den von Pörksen und Linneweber beschriebenen Umgangsweisen mit Informationen und Quellen. Zwei Aspekte, die auch heute noch Gültigkeiten haben, erschienen dabei von überragender Relevanz: Der erste Aspekt dreht sich um den technischen und rechtlichen, also den nicht-inhaltlichen Umgang mit Informationen. Der Umgang mit Sinneinheiten,

536 Heisenberg, S. 88. 537 „Der Prozess, wie aus Forschungsresultaten Informationen werden, die ab einem gewissen Zeitpunkt ohne ihren Entdecker auskommen müssen, ist noch unerforscht.“ – Philipp Theisohn, 2013. 538 Dieser motivationale Aspekt ist keinesfalls zu unterschätzen, denn die deutsche Gesellschaft neigt in Sachen Digitalisierung zu Pessimismus, Alarmismus und Angst. Ein radikaler Bruch mit „guten alten“ Traditionen birgt somit immer ein nicht geringes Risiko für denjenigen, der mit ihnen bricht, was jedoch nichts daran ändert, dass manch Lösungsfindung im Zweifel auch riskant sein muß. Denn das Finden der Lösung ist und bleibt das Ziel, nicht die Berücksichtigung persönlicher Befindlichkeiten auf dem Weg dorthin oder am jeweiligen Ende.

238

3 Methodik

Quellen und Referenzen kann sich je nach Fach en detail sehr unterscheiden: in der Geisteswissenschaft wird beispielswese tiefgehender referenziert als in der Informatik. Insgesamt ließ sich zwischen 2004 und heute beobachten, dass von einer fächerübergreifenden Einheitlichkeit im Umgang mit Sinneinheiten aus ganz unterschiedlichen wie auch sehr zahlreichen Gründen keine Rede sein kann – und das bei gleichzeitiger Einwirkung der Digitalisierung und ihrer allgemeinen (Technisierung der Gesellschaft und des Wissens, Vernetzung unter globalen Bedingungen, absinkende Bedeutung von Vorrats- und zunehmende Bedeutung von Orientierungswissen usw.) wie auch speziellen (Umgang mit Quellen bei Facebook, Twitter und Co., Remix-Kultur, Ablösung des Buches durch e-Reader usw.) Einflüsse. Interessanterweise ist gerade die übliche Software keine besondere Hilfe bei der Suche nach einer Antwort auf die Frage, wie man mit Sinneinheiten optimal umgeht: Citavi, ein sehr verbreitetes Literaturverwaltungsprogramm, bietet 8000 (!) unterschiedliche Zitationsstile an.539 Wenn es jedoch 8000 (oder mehr) Zitationsstile gibt, gibt es letztlich keinen, denn jeder Zitierstil, der nicht auf die gezielte unrechtmäßige Übernahme von Ideen setzt, ist damit letztlich völlig legitim und Ausprägung einer individuellen Stilfrage, jedoch keinesfalls in irgendeiner Form verbindlich. Hier wird das Paradoxon erkennbar, dass gerade die Digitalisierung, die sich als zusätzliche Ebene durch unsere Lebenswelt zieht, die Unterschiede im Wissensmanagement eben nicht durch ihre singuläre Dominanz – alle Menschen arbeiten mit Word, Facebook und Wikipedia – einebnet, sondern auszubauen hilft. Denn nur mithilfe einer Softwarelösung wie Citavi erscheinen 8000 Zitationsstile überhaupt handhabbar. Mithilfe von Lehrbüchern wäre dies wohl ein hoffnungsloses Unterfangen. Dieses Chaos zu lichten und den Möglichkeiten der Digitalisierung nicht nur zu folgen, sondern sie gezielt dazu einzusetzen, eine interdisziplinäre Lösung, sprich: einen kleinsten gemeinsamen Nenner bei der Verwaltung von Sinneinheiten zu bieten, um ein Bastelndes Denken zu ermöglichen, war somit ein großer Ansporn. Die erste Überlegung war eine naheliegende, aber auch sicherlich durchaus passende, weil logisch und radikal zugleich: Wie sehen unter den unverletzlichen Vorgaben – kein interdisziplinär einheitlicher Zitationsstil bekannt/existent – „Ideendiebstahl“ immer unzulässig – technisch problemlose Umsetzbarkeit einer Zitation die konkreten Aspekte aus, die einen interdisziplinär brauchbaren Umgang mit Sinneinheiten ausprägen können? Man mag es in den jeweiligen Disziplinen vielleicht als despektierlich empfinden, Zitationsstile auf so ein technokratisches Minimum zu reduzieren, weil sie ja nicht ohne Grund bzw. nur zufällig so ausgestaltet worden und gewachsen sind, wie sie nun, in ihrer heutigen Ausprägung, existieren. Aber wenn man alles entfernt, was entfernt werden darf, bleiben lediglich die rechtlichen und

539 https://www.citavi.com/de/, abgerufen am 12.4.2018.

3.2 Die Strategie des Bastelnden Denkens

239

technischen Bedingungen übrig, die sowohl die gesellschaftlichen (Primat des Rechts) als auch faktischen (Digitalisierung der Gesellschaft) Grundlagen widerspiegeln. Die rechtlichen Bedingungen besagen in aller Kürze und ohne jeden Zweifel: verboten ist bzw. sanktioniert wird der bewusste „Ideenklau“. Technische Bedingung ist die digitale Realisierbarkeit. Alles andere ist, so die Konklusion, nicht mehr als eine Stilfrage, eine Frage der persönlichen oder übernommenen Arbeitsweise, der Übersichtlichkeit oder anderer optionaler Aspekte – aber rechtlich und technisch irrelevant. Auf Traditionsverluste, Fächergepflogenheiten oder individuelle Vorlieben darf man hingegen unter diesen Bedingungen verzichten, ja: sollte dies im Sinne eines möglichst schlanken (und zeitgemäßen) gemeinsamen Nenners auch tun. Da nun trotzdem (bzw. letztendlich) ein Zitationsstil für den Umgang mit den unterschiedlichsten Sinneinheiten gefunden werden musste, wurden hierfür die ganz basalen, immer verfügbaren und sicherlich den meisten AnwenderInnen von Büro-/Kommunikationssoftware bekannten oder sogar wohlvertrauten Referenzierungsmöglichkeiten von Word ausgewählt. Zitationen erfolgen hier540 als Fußnoten über den entsprechenden (über Referenzen > Fußnote einfügen zu erreichenden) Menüpunkt grundsätzlich nach dem (vom mir in diesem Buch selbstverständlich ebenfalls eingesetzten, ebenfalls sehr basalen und damit leicht handhabbaren) Schema „Name, Jahr, zusätzliche Informationen“.541 Es muss lediglich – dies jedoch unzweifelhaft – sichergestellt sein, dass eine Sinneinheit ihrem Urheber berechtigterweise zuzuordnen ist. Diese einzige Vorgabe wurde bewusst einfach gestaltet, alles andere blieb (ebenso bewusst) offen.542 Damit sind die rechtlichen und technischen Rahmenbedingungen, sprich: der kleinste gemeinsame Nenner, das nicht mehr reduzierbare Minimum im Umgang mit Sinneinheiten als erster wichtiger Aspekt definiert – in einer digital leicht umsetzbaren wie auch technisch problemlos handhabbaren Form. Der zweite Aspekt dreht sich um die Inhalte selbst: Die Idee des Bastelnden Denkens ist auch der unvermeidlichen Tatsache geschuldet, dass eine erschöpfende Quellenauswertung gerade aufgrund der digitalen Entwicklung heutzutage gar nicht mehr möglich ist und deshalb ein neues, ganzheitliches Konzept benötigt wird. Oder anders gesagt: Früher galt noch das Gebot der Vollständigkeit, man hatte alle einschlägigen Autoren zu zitieren. Bei der heutigen Informationsflut geht das nicht mehr. Vielmehr ist es Aufgabe des Autors Wichtiges von Unwichtigem zu trennen und nur das Wichtige zu zitieren.

540 Word 2016. 541 Siehe dazu die Fußnoten in dieser Arbeit. 542 Als Empfehlung sind Fußnoten ebenso denkbar wie zu weiterführenden Erläuterungen, doch der erste Ansatz widmete sich ausschließlich der Frage nach dem „Wann“: Wann müssen Fußnoten bzw. Referenzen eingesetzt werden? Dies ist nur bei Referenzzwängen, sprich: zur Vermeidung des bereits erwähnten „Ideenklaus“ der Fall.

240

3 Methodik

Die Auswahl der wesentlichen Fundstellen ist die eigentliche Bedeutung der Quellenkritik.543

Dieser dem digitalen Zeitalter mit seinen gigantischen Datenmengen plausibel und angemessen erscheinende Idee wurde seit 2005 konsequent gefolgt – und gleiches gilt nun für die hiesige Methodendeskription, die innert Sociality by Design schlicht und einfach berücksichtigt, dass man einerseits nicht mehr alle Quellen ab einer gewissen Themengröße berücksichtigen kann (und auch nicht alle Quellen für eine Problemlösung notwendig ist), andererseits aber Antworten, Lösungen und/oder weiterführende Ideen benötigt, um überhaupt voranzukommen. Eine iterative, der technischen Konstruktionslehre, aber auch dem (Change) Management544 entlehnte Vorgehensweise vom Groben ins Feine erscheint da als ein plausibler Lösungsweg. So kann über die Zeit eine Netzwerkstruktur (mithilfe der relationalen BD-DB) entstehen, welche zunehmenden Tiefgang da ermöglicht, wo er möglich und sinnvoll ist – und diesen in genau den Bereichen vermeidet, wenn er nicht (mehr) gewünscht oder möglich ist. Abgesehen davon klingt die Idee einer „Erledigung“ eines Themas bereits im ersten Arbeitsschritt unter den Bedingungen, die Möllers formuliert hat, ganz grundsätzlich sehr gewagt – jedoch dürfte sie für diejenigen, die sich kaum mehr an vordigitale Zeiten erinnern können oder diese gar nicht mehr erlebt haben, wohl automatisch noch etwas absurder klingen. Die Idee eines linear-finalen Bearbeiten eines größeren Themas innerhalb eines fest definierten, inhaltlich wie strukturell überschaubaren Zeitraums wurde deshalb aus den bereits genannten Gründen entsprechend abgelehnt. Das Kernziel des Bastelnden Denkens bestand stets darin, effizient zu Ergebnissen zu kommen. Was bedeutet „effizient“ jedoch konkret? Schon damals, zu Zeiten der Bearbeitung von Digitale Identitäten, war eine bemerkenswerte Dualität festzustellen: einerseits war bereits im Jahr 2005 – in Anlehnung an die Aussagen von Möllers – klar, dass es auch zum Thema Identität unerschöpflich viel (sozialwissenschaftliche) Literatur geben dürfte. Dies wurde nicht nur durch Literaturrecherche, sondern – auch damals schon – durch einfaches Googlen offenbar. Allein die deutschsprachige Literatur war extrem vielfältig, von anderen Regionen und Sprachwelten sowie sämtlichen passenden digitalen Quellen einmal ganz zu schweigen. Gleichzeitig erschien in den Gesprächen mit Expertinnen und Experten immer wieder klar und deutlich die Umgrenztheit der tatsächlich relevanten Kernaspekte von Identität im psychologischen und soziologischen Sinne durch. Oder anders gesagt: die wesentlichen Fakten – für eine erste Analyse, einen ersten Schritt – waren insgesamt überschaubar, da sich schnell eine entsprechende Schnittmenge aufzeigte. Zudem waren diese Schnittmengeninhalte meist gut bis sehr gut aufbereitet, inhaltlich gleichartig sowie in aller Regel auch fachlich allgemein anerkannt. So entstand die Idee, das Bastelnde Denken

543 Möllers, 2005, mit eigenen Betonungen. 544 http://www.iff.ac.at/oe/full_papers/Buono%20Antony%20F._Kerber%20Kenneth%20W.pdf, S. 6, aber auch http://www.cs.kent.edu/~jmaletic/papers/SCAM06.pdf, jeweils abgerufen am 24.7.2018.

3.2 Die Strategie des Bastelnden Denkens

241

anhand dieser Aufgabenstellung erstmals umzusetzen, da sich diese Themenstellung entsprechend anbot: ein Kernangebot (passend für einen ersten Schritt) war stets überschaubar komplex und inhaltlich gut handbbar sowie fachlich anerkannt und alle weiterführenden Schritte wären lediglich fallweise bzw. bereichsweise von Interesse gewesen. So konnte der sozialwissenschaftliche Teil von Digitale Identitäten – die wesentlichen Aspekte des soziologischen und psychologischen Themenkomplexes enthaltend – entsprechend gut generiert werden. Das Bastelnde Denken bezieht seine besondere Stärke, die der Anwenderin bzw. dem Anwender die erhoffte Orientierung verschafft, aus einer zu Beginn einer Forschungstätigkeit festgelegten Rahmung, die festlegt, wo rechts und links die thematischen Leitplanken (sprich: Grenzen) sind. Dies ist nach meinem Eindruck und meiner Erfahrung in Verbundprojekten meist gut zu realisieren: Aufgaben (Projektziele), die rahmend wirken, können meist ausreichend klar benannt werden, Hypothesenformulierungen sind früher oder später ausreichend plausibel realisierbar und fächerübergreifend – also auch für Nicht-Sozialwissenschaftlerinnen und -Sozialwissenschaftler – generierbar. Oder anders gesagt: wer Hypothesen generieren kann, kann auch das Bastelnde Denken rahmen. Nach oben (im Sinne einer Öffnung des ursprünglichen Vorhabens durch Andockung von weiteren Meta-Aspekten, -Analysen und -Attributen wie beispielsweise einer Änderung des Projektzeitpunkts in Form einer Wiederholung des Projekts ein oder mehrere Jahre später) und unten (im Sinne des Modus operandi Vom Groben ins Feine) ist das Konzept hingegen offen. Das hat den Vorteil, am Ende auch kein abgeschlossenes System wie ein Buch oder eine Einzelfallstudie zu liefern, welches nur noch für sich stehen kann, sondern eine Adaptierbarkeit und Anschlussfähigkeit an neue Umstände, Ergebnisse und Szenarien zu ermöglichen – sowohl theoretisch (durch die inhaltliche Struktur) als auch praktisch (durch die Umsetzung in Wiki- oder Datenbankform, namentlich die Datenbank des Bastelnden Denkens: die BD-DB). Die Rahmung, die entsteht, kann und soll von anderen Interessierten genutzt, verändert oder „ausgebeutet“ werden. Aufgrund des Rekontextualisierungsansatzes des Bastelnden Denkens ergab sich in den vergangenen Jahren im Gespräch mit KollegInnen allerdings eine nicht ganz unbedeutende Herausforderung: die Idee eines „Remixes“ läuft Gefahr, mit einem wissenschaftlich verwerflichen „Copy, Shake & Paste“ gleichgesetzt zu werden. Nach der eigenen Erfahrung und selbstverständlich auch nach der Auffassung der Idee eines Bastelnden Denkens ist hier allerdings eine deutliche Abgrenzung vorzunehmen, formuliert auf Basis des (bewährten) Mottos „Wehret den Anfängen“. Denn was auf jeden Fall verhindert werden muss, ist, das Bastelnde Denken, welches für Außenstehende und Kritiker gegebenenfalls auf den ersten Blick bloß als referentielles Stückwerk erscheinen mag, dem Copy, Shake & Paste, also dem Zusammensetzen fremder Inhalte zum Vorgaukeln eigener umfangreicher Arbeit, gleichzusetzen. Schließlich geht es beim Bastelnden Denken nicht um das schnellstmögliche und dadurch zwangsläufig oberflächliche Erstellen einer unreflektierten Collage, also um Textgenerierung

242

3 Methodik

via Mausklick, sondern um die weitreichende und detaillierte Möglichkeit, unerforschte Bereiche (hier: des digitalen Raumes) zu analysieren – gerade auf Basis sorgfältig ausgewählter Fakten (hier: Sinneinheiten) und mithilfe einer arbeitserleichternden Rahmung (hier: Sociality by Design). Wer die Arbeitsweise des Bastelnden Denkens reflexartig dem unstrukturierten Copy & Paste zuordnet, begeht einen logischen Fehlschluss, denn bei dieser Arbeitsweise spielt ja gerade der Kontext auf Basis entsprechender Sinneinheiten die entscheidende Rolle. Die Arbeitsergebnisse des Bastelnden Denkens unterscheiden sich durch diesen Kontext von Ansammlungen zusammenhangloser (Fremd-)Fragmente (Copy, Shake & Paste), die vielleicht nur unter eine Überschrift oder einen bestimmten Begriff zusammengetragen werden, aber auch von großflächigen Kopien und ergeben stattdessen jeweils ein „Konzentrat für spätere, ausgreifendere Studien“, so der Berliner Soziologe Bernd Ternes, da sich das Ergebnis durch die „Darstellung einer informationspraktischen [sozialwissenschaftlichen Themenbearbeitung]“ von einem „beliebigen techniksoziologischen Sammelsurium“ unterscheidet.545 Jede einzelne (sozialwissenschaftliche) Sinneinheit geht durch den Kopf der Verfasserin bzw. des Verfassers, gefiltert durch das „informationspraktische“ Wissen, und erhält so im jeweiligen Kontext – idealerweise – ihren (neuen) Wert. Ohne Konzept und technisches Hintergrundwissen würden sowohl Sinneinheitenauswahl als auch (Re)Kontextualisierung scheitern. Stand Ende 2008 zeichnete sich das Bastelnde Denken zum Schluss seiner ersten Praxisanwendung sowohl durch erste, seit 2004 getätigte Überlegungen als auch durch weitere, während des Projektprozesses (2005 bis 2008) weiterentwickelte Merkmale aus: 1. Es ist (und bleibt) ein Ansatz mit einigen wenigen Kernelementen, keine abgeschlossene, 1:1 umsetzbare Anleitung. 2. Es basiert technisch auf einer relationalen Datenbank (BD-DB) und/oder einem Wiki. 3. Es verbindet bestehende (fremde) und/oder neue (eigene) Sinneinheiten nach inhaltlichen und nicht-inhaltlichen Aspekten. 4. Die Vorgehensweise beginnt im Groben und kann dann (bei Bedarf) iterativ und inkrementell weiter ins Feine gehen, jedoch nicht tiefer als auf die computerprozessuale Ebene („0 und 1“). 5. Die konkrete Anwendbarkeit der Methodik und auch der Ergebnisse (Problemlösungsansatz) steht im Vordergrund, so dass Abgrenzungen inhaltlicher Art („nach links und rechts“) vorgenommen werden müssen. 6. Technisches Wissen ist unverzichtbare Vorbedingung (anders als sozialwissenschaftliches Wissen). 7. Logik ist das unhintergehbare, alles verbindende Element.

545 Persönliche Aufzeichnungen.

3.2 Die Strategie des Bastelnden Denkens

243

Der methodische Kern, der sich in Digitale Identitäten erstmals bewährte, wurde durch seine Anwendung in der Praxis entscheidend präzisiert.

3.2.5 Die Weiterentwicklung (2008 bis heute) Das Bastelnde Denken als epistemologische Grundlage von Sociality by Design erfuhr seit 2008 zahlreiche Erweiterungen und Verbesserungen in ganz unterschiedlichen Projekt- und Forschungskontexten, alle angesiedelt im dazu ins Leben gerufenen universitären Arbeitsbereich Internetsoziologie. Vor allem die Verbesserung der Operationalisierbarkeit war von entscheidender Bedeutung, was zu folgenden weiteren Aspekten führte: 1. Die Tendenzanalyse, die im Vordergrund der Werkzeuge steht, ergänzt das Bastelnde Denken und gibt einen Überblick über sozialwissenschaftliche Aspekte, die die Gesellschaft „bewegen“ und die in der Analyse der Sozialität Berücksichtigung finden sollten. 2. Die Beschränkung auf eine deskriptive Ebene entfällt, so dass das DreiEbenen-Modell nun das Standardmodell ist, da sich gezeigt hat, dass alle drei Ebenen in Sicherheitsforschungsprojekten – Anwender-, Institutionen- und allgemeingesellschaftliche Ebene – bedient werden sollten. 3. Der Schwerpunkt und Testfall von Sociality by Design ist nun Sicherheit bzw. die Sicherheitsforschung und nicht mehr jedes sozialwissenschaftliche Thema, welches Einflüsse digitaler Art erführt, was bedeutet, dass diesbezügliche Besonderheiten bzw. Eigengesetzlichkeiten aufgegriffen und vorrangig berücksichtigt worden sind (was sich dementsprechend in Kapitel 2 niederschlägt). 4. Das Bastelnde Denken ist innert Sociality by Design nunmehr nicht nur ein plausibler Analyseweg, sondern auch tatsächlich intersubjektiv nutzbares Werkzeug, ähnlich BSI-Standard 100–3 (Frage-Antwort- bzw. „Wenn-dann“-Systematik, siehe dazu dieses Kapitel im weiteren Verlauf). 5. Bei der Anwendung von Sociality by Design unterbleiben Änderungen am Bastelnden Denken, d. h. Updates in der Methodik finden – wenn überhaupt – erst im Anschluss statt (Motto: Erst Anwendung, dann Review und Update, dann wieder Anwendung usw.). 6. Die Induktion von Axiomen hat aufgrund ihrer überragenden Relevanz die Eigengesetzlichkeiten der Digitalisierung im Fokus; alle anderen Ableitungen für die Meta-Ebene haben dahinter zurückzustehen. 7. Es wird die Prämisse des wissenschaftlichen Minimalismus verfolgt, d. h. sobald eine (validierte) Lösung zustandegekommen ist, wird die Arbeit an dieser Stelle eingestellt. Eine anlasslose, automatische „Verfeinerung“ von Ergebnissen findet nicht statt, da dies der Schrittfolge „Vom Groben ins Feine“ widerspricht.

244

3 Methodik

Besonders der siebte und letzte Punkt bietet aufgrund der erfahrenen Reaktionen der Kolleginnen und Kollegen in Projektkontexten Anlass zu einigen weiteren Gedanken: Wissenschaftlicher Minimalismus, sprich: ein schmaler, aber doch ausreichend breiter Weg, der zum Ziel führt, statt eines breiten oder vieler unterschiedlicher Wege ist völlig ausreichend für den ersten Schritt. Und oft auch darüber hinaus, denn wenn die Zeit die Regeln setzt, schadet eine zu starke Vertiefung sogar, da man das Poppersche Ziel der Problemlösung aus den Augen zu verlieren droht. Die entscheidende Ebene ist die erste: Orientierung (erster Schritt) und Empfehlungen (für den zweiten Schritt), sprich: erste Antworten und weitere Wegweisung. Diese Vorgehensweise stimmt sehr gut überein mit dem Bastelnden Denken und den gesammelten Erfahrungen in diesem Bereich. Denn die meiste Literatur ist für anwendungsorientierte Ansätze redundant, solange ein roter Faden vom Start zum Ziel entsteht, der überprüfbar sinnvoll ist. Einzelne Elemente anderer Quellen mögen dann zwar auch sinnvoll sein, aber die findet man sicher nicht (rechtzeitig) durch lineares Lesen sämtlicher verfügbarer Quellen. Das Offensichtliche hat Priorität, erst danach kann – vom Groben ins Feine – vertieft werden. Dies ist eine Erkenntnis, die in der Informatik weit verbreitet ist: eine Softwarefunktion kann man beispielsweise via Mausklick, aber auch via Tastaturkürzel, Sprachbefehl oder Kommandozeile erreichen. Welcher Weg hier gewählt wird, ist so lange nachrangig, wie das gewünschte Ziel erreicht wird. Auch wenn manch Programmiererin bzw. Programmierer den einen Weg „besser“ findet als den anderen: was im Rahmen des gesetzten Zeitraumes zum Ziel führt, ist gut. Was wirklich eine Verbesserung darstellt, ist in vielen Fällen nicht so offensichtlich, wie es sich die eine oder der andere so wünschen mag. Und dies gilt in der Sozialwissenschaft genauso: wenn es drei gleichrangige Wege zur Senkung von Kriminalität an einem kriminalitätsbelasteten Ort gibt, eine dieser drei Maßnahmen ergriffen wird und die Kriminalität danach um die gewünschte Quote (oder stärker) sinkt, dann ist es erst einmal völlig egal, welche der drei Methoden zur Anwendung kam: das Ziel wurde ja erreicht. Erst wenn andere Faktoren hineinspielen (Kosten, Personaleinsatz, Materialeinsatz, Wartung, Haltbarkeit von Technik usw.), lohnt sich eine Neubewertung. Breite Fachkenntnis mag inspirierend, kreativitätsfördernd, horizonterweiternd, gewinnbringend im allgemeinen Sinne sein – zwingend notwendig für die Lösung wissenschaftlicher Probleme ist sie nicht.546 Im Gegenteil: Overengineering ist auf jeden Fall zu vermeiden. Auf dem Weg zum Mosaik entwickelten sich für mich im Laufe der Jahre drei Gestaltungsansätze zur Operationalisierung des Bastelnden Denkens. Vorher, nachher und zwischendurch gab es zahllose Versuche, diese Arbeitsweise zu

546 Der deutsche Wissenschaftsbetrieb trägt dem ja entsprechend Rechnung: selbständig wissenschaftlich arbeiten „kann“ man in der Regel nach erfolgreichem Abschluß eines wissenschaftlich ansprechenden Promotions-, nicht erst nach Abschluß eines Habilitationsverfahrens. Die Promotion adressiert bekanntlich ein Forschungsthema, die Habilitation die Vertretung eines Fachs in seiner ganzen Breite.

3.2 Die Strategie des Bastelnden Denkens

245

operationalisieren, doch letztlich blieben diese drei Varianten übrig. Die ersten beiden werden dabei heute nicht mehr eingesetzt, da sie letztlich zu fehleranfällig waren, doch die Grundprinzipien sind stets dieselben. Die umfangreichste Variante ist die, die die heute genutzt wird – aktuelle Änderungen möglich und demzufolge nicht inkludiert! Die erste Vorgehensweise, die nicht mehr nur „freestyle“ (d. h. im Kopf) entworfen und genutzt wurde, entsprach weitestgehend diesem Aufbau und folgenden Schritten: 1. Es wurden alle Quellen in Einzelteile zerlegt (bis hinunter auf die Ebene der jeweiligen detektierten Sinneinheit). 2. Dann kamen die Elemente in eine Datenbankstruktur (relationale Datenbank/ BD-DB). 3. Dort erfolgte ihre Neuzusammensetzung je nach Oberbegriff/roten Faden/ Schlagwort. 4. Dieser Text wurde zum Schluss sprachlich nachbearbeitet, um lesbar zu sein. Die Kernidee ist bereits im ersten Schritt erkennbar: die Zerlegung aller interessant erscheinenden Quellen in ihre Einzelteile. Normalerweise ist das die Satzebene, d. h. ein Satz wird als Sinneinheit gewertet und die in ihm enthaltenen Kernelemente werden zusätzlich markiert: „Niklas Luhmann war ein deutscher Soziologe“ Der Satz ist in einer Datenbank, mit einer einzigartigen Nummer versehen, gespeichert und mit den Begriffen „Niklas Luhmann“, „deutsch“ und „Soziologe“ verschlagwortet. Aufgrund der Verschlagwortung erhält man dann, beispielsweise beim Klick auf das Wort „Soziologe“, alle passenden Sätze, die entweder diesen Begriff beinhalten und/ oder mit ihm verschlagwortet wurden. Diese kann man in ein Word-Dokument kopieren und dann im Sinne des roten Fadens arrangieren und – sofern nötig – sprachlich verbessern bzw. etwas glätten. Die (ggf. hinzugefügten) Referenzen bleiben erhalten, können aber ebenfalls geändert, ergänzt oder aktualisiert werden. Doch mindestens bei diesem Schritt erschien der o. a. Ablauf lückenhaft. Es war letztlich sinnvoller, die Referenzüberprüfung in den Ablauf einzubauen und sie nicht nur im Hinterkopf zu behalten. Aus diesem Grunde wurde der inhaltlichen und strukturellen Überprüfung ein eigener Punkt eingeräumt, der zudem vergleichsweise prominent und damit hinsichtlich des Arbeitsablaufes so problemlos wie möglich integriert wurde: 1. Interessante Sinneinheit finden 2. Exzerpieren (in die BD-DB) 3. Überprüfen (in der BD-DB) 4. Überarbeiteten Text erstellen (in einer gespiegelten BD-DB) 5. In Themenstrang platzieren („Wiki-Basteln“) 6. Ggf. überarbeiten („Wiki-Basteln“)

246

3 Methodik

Zuerst wird eine interessante Sinneinheit gefunden und diese Fundstelle entsprechend notiert, kopiert und/oder aufbewahrt. Dies erschien sinnvoll, um einen lückenlosen Beleg für die Quelle zu haben. Danach folgt das Exzerpieren und Integrieren der Sinneinheit in die BD-DB. Diese Integration beinhaltet nun die Verschlagwortung bzw. zumindest die automatisierte Verschlagwortung, die sich durch jede durchschnittlich programmierte Suchfunktion in einer Datenbank ergibt (Termsuche). Dann erfolgt die Überprüfung: benötigt die Sinneinheit eine Referenz im Sinne einer Fußnote und wenn ja: welche? Auch sind hier Ergänzungen bis hin zu ausführlichen Nebendiskussionen möglich, wenngleich letztere erfahrungsgemäß eher vermieden werden sollten. Neu ist der vierte Schritt: in einer gespiegelten BD-DB entsteht eine Replik der bisherigen BD-DB (sprich: eine zweite BD-DB), mit der dann letztlich gearbeitet wird. Aus Gründen eines lückenlosen Backups erschien dieser Schritt seinerzeit sinnvoll, da nun in der BD-DB bereits Textüberarbeitungen stattfanden. Es wurde demzufolge eine Sinneinheit ausgesucht, gespeichert, ggf. referenziert und verändert, d. h. die BD-DB bestand nicht mehr nur aus direkten und indirekten Zitaten, sondern – zumindest in der gespiegelten Variante – auch aus eigenen Bearbeitungen oder Inhalten. Doch auch diese Variante bewährte sich letztlich nicht, v. a. nicht aufgrund der unnötig komplexen Spiegelung der BD-DB. Die aktuellste Variante ist derzeit diese Abfolge: 1. Sammeln von interessanten Sinneinheiten (aus allen möglichen Quellen) 2. Entscheiden, ob Sinneinheiten übernommen werden (inklusive Beschreibung der Sinneinheiten-Art: Direktes Zitat, indirektes Zitat, eigene Kreation mit Hinweis-Fußnote, Allgemeinwissen, Fachliches Allgemeinwissen usw.) 3. Prüfung, ob die Sinneinheiten wirklich so existieren (um Blindzitate zu vermeiden), alternativ in der BD-DB Flag setzen für „ungeprüft“ (interne Kennzeichnung) 4. Prüfung, ob Sinneinheiten in irgendeiner Form verändert werden müssen (beispielsweise ergänzt durch eigene Informationen, „sic!“, Fettdruck o. ä.) und ggf. entsprechende Veränderung 5. Übernahme in den eigenen Text (bei Bedarf) 6. Entscheidung, ob und welche Form der Referenz (immer Fußnote, aber ggf. mit Seitenangabe, „siehe dazu auch“ o. ä.) 7. FN-Entscheidung ggf. updaten, d. h. FN ggf. ergänzen, aktualisieren, entfernen 8. Satzentscheidung ggf. updaten, d. h. Satz ggf. ergänzen, aktualisieren, (teilweise) kürzen/entfernen 9. Ggf. 7 und 8 austauschen Es beginnt mit dem Sammeln von interessanten Sinneinheiten, wobei die Quellen akzeptabel sind, sobald es sich um veröffentlichte bzw. verwertbare Quellen handelt. Dann erfolgt die Entscheidung, ob die Sinneinheiten übernommen werden können und wie sie kategorisiert werden. Die üblichen Kategorien sollten dabei in der BD-DB angelegt worden sein. Deutlich umfangreicher als zuvor fällt der Schritt der Überprüfung der Sinneinheiten aus. Hat man es nicht mit Originalquellen zu tun, muss hier

3.2 Die Strategie des Bastelnden Denkens

247

eine erfolgreiche Überprüfung vermerkt werden. Andernfalls erhält der Datensatz den automatisch erstellten Hinweis „Ungeprüft“. Danach wird überprüft, ob die ausgewählte Sinneinheit in irgendeiner Form verändert werden muss. Anschließend erfolgt die Übernahme in den jeweiligen Text – idealerweise final, d. h. Bearbeitungen sollten dann, zumindest direkt an der Sinneinheit, nicht mehr stattfinden. Eine sprachliche Glättung ist damit nicht gemeint. Diese erfolgt abschließend im Text. Nach der Einbringung in den Text wird überlegt, ob die Referenz so Bestand haben soll oder ob eine Änderung vorgenommen wird. Das kann bei Quellenupdates, veränderten Links oder ähnlichen Aspekten der Fall sein, und letztlich soll der Leserin bzw. dem Leser im jeweiligen Kontext ja nicht nur eine sinnvolle, sondern auch möglichst aktuelle Quelle geboten werden. Die Referenz ist aber immer und ausnahmslos eine Fußnote, da das Textverarbeitungsprogramm Word damit am einfachsten und besten umgehen kann und die Fußnoten weder den Textfluss noch (als Endnote) die Überprüfung der Referenz erschweren. Von anderen Formen der Referenz wird Abstand genommen. Sollte sich im Verlauf der Arbeit am Text herausstellen, dass Updates notwendig sind, fallen die Schritte 7 und 8 an, ggf. einzeln oder auch in umgekehrter Reihenfolge. Da die Verarbeitung von Sätzen in einer Sinneinheitendatenbank die strukturelle Trennbarkeit von Fussnote und Sinneinheit erfordert, ist der Prozess so aufgebaut wie oben beschrieben. Da allerdings jede einzelne Überprüfung von Sinneinheiten per Hand ein aufwändiger Prozess ist, soll der zuvor geschilderte Ablauf eine Hilfestellung sein, um diesen Prozess zumindest zum Teil zu „automatisieren“ bzw. den Ablauf zu strukturieren. Dies schließt zumindest aus, dass die jeweilige handelnde Person gedankenlos oder gar vorsätzlich handelte, was den Quellenumgang bzw. die Nutzung fremder Ideen angeht. Denn die Beurteilung, ob und wenn ja: wie ein Satz in Hinblick auf Wert, Referenz und Aktualisierung behandelt werden soll, zeigt ja bereits einen durchweg ernsthaften Umgang mit der jeweiligen Sinneinheit. Ohne diese Beurteilung funktioniert das Bastelnde Denken nicht.

3.2.6 Marginalien Das Bastelnde Denken kann für sich stehen, so wie in Kapitel 3.2.5 dargestellt, als erste Konstruktion eines Rahmens, doch es kann freilich auch erweitert, verändert oder gekürzt werden. Im Laufe der Jahre tauchten zahlreiche Randaspekte auf, die an dieser Stelle der Vollständigkeit halber dargestellt werden sollen. Diese Randaspekte als solche zu bezeichnen, ist eigentlich falsch – und doch richtig. (Erinnert sei an dieser Stelle an die Ambivalenz, die diese Arbeit auszeichnet.) Denn einerseits sind sie natürlich in vielen Fällen direkte Begründung für die oben ausgeführten Aspekte, die das Bastelnde Denken in seiner heutigen Form ausprägen. Andererseits sind sie auch nur „Zusatzüberlegungen“, oftmals redundant, aber deshalb nicht irrelevant. Sollten sie für Sie hilfreich sein, dann freue ich mich natürlich darüber. Aber wie immer gilt: Sehen Sie selbst!

248

3 Methodik

Motivationen Es gab zahlreiche Aspekte, die mich besonders motivierten, das Bastelnde Denken als Herausforderung anzunehmen. Hier finden Sie nun einige davon. Da sie nach meinem Eindruck noch weniger konkret „brauchbar“ sind als die zuvor geschilderten Kernüberlegungen, werden sie etwas auf Abstand gehalten. Das Bastelnde Denken ist die kritische Methode Poppers im digitalen Zeitalter – so kann man die Idee dahinter wahrscheinlich am besten bezeichnen. Die BD-Idee kam 2006 in Wien auf – was ein angenehmer Zufall ist, denn es ist Karl Poppers (frühe) Heimatstadt und nebenbei Ort einer Konferenz, die dort in diesem Jahr stattfand, welche informatiklastig war und meine Projektideen bereicherte. Natürlich wurde auch vorher schon gebastelt, was zuvor bereits ausführlich dargestellt wurde (Stichwort: Google), aber die Konferenz bot sehr viel sinnvollen und hilfreichen Input, der ja unter anderem auch die Herausforderung BD-DB zur Folge hatte. Natürlich musste die Idee dann auch gleich entsprechend ausprobiert werden. Ich konnte das Bastelnde Denken, mit völlig neuen Ideen zum Thema wissenschaftliches Arbeiten, ja nicht nur mit den alten Methoden skizzieren und dann als eine von vielen Ideen versanden lassen. Das wäre so gewesen, als würde ich eine neue Generation hochauflösender Videos auf einem nichthochauflösenden Fernseher präsentieren. Diese Problematik kennen wir aus Werbevideos, beispielsweise für „neue hochauflösende Technologie“, die nur selbst nie zu sehen ist, da sie nicht gezeigt werden kann. Dieses „kann“, das galt es zu vermeiden, denn technisch und rechtlich sprach ja nichts gegen die Umsetzung – womit die wesentlichen Koordinaten gesetzt waren. Somit ist die Arbeitsweise seit 2006 erstmals und gleichermaßen Ergebnis und Präsentation der Methode. Und damit ein ehrlicheres Abbild der Arbeit als eine „Schönung“ nach gängigen Standards, welche jedoch den Verlust der Methode zur Folge hat. Und ich bin ja nicht allein mit (m)einer bastelnden Vorgehensweise: Alle meine Bücher, sei es ‘Wahnsinn und Gesellschaft’ oder dieses da, sind, wenn Sie so wollen, kleine Werkzeugkisten. Wenn die Leute sie aufmachen wollen und diesen oder jenen Satz, diese oder jene Idee oder Analyse als Schraubenzieher verwenden, um die Machtsysteme kurzzuschließen, zu demontieren oder zu sprengen, einschließlich vielleicht derjenigen Machtsysteme, aus denen diese meine Bücher hervorgegangen sind – nun gut, umso besser.547

Dasselbe gilt übrigens für Kittler: „Kittler ermöglicht einen Werkzeugkastenzugang. Man kann seinen Turing aufgreifen, ohne sich um seinen Lacan kümmern zu müssen.“548 Eine der Grundmotivationen des bastelnden Denkens ist, dass man zunächst in einem ersten Schritt versucht, einen Überblick zu schaffen, also wie bei einer fallenden Exponentialkurve vielleicht 50 Prozent der Herausforderungen erledigt

547 http://foucaultundco.blogspot.de/2008/08/werkzeugkisten.html, abgerufen am 5.5.2019. 548 http://www.heise.de/tp/artikel/22/22564/1.html, abgerufen am 29.4.2019.

3.2 Die Strategie des Bastelnden Denkens

249

und dann in den nächsten Schritten – sofern gewünscht – operativ präziser wird. Aber dies gilt natürlich nicht nur vertikal, sondern auch horizontal, d. h. ich gehe dann da weiter ins Detail, wo zum Beispiel eine Nachfrage aufkommt. So entsteht im Laufe der Zeit ein Mosaik, in dem immer mehr Stellen ausgefüllt werden und dadurch ergibt sich dann final ein Gesamtbild. Das ist eine sehr starke Motivation für das bastelnde Denken, denn sie ist an Poppers Problemlösungsmotiv orientiert und entsprechend hilfreich. Ein wissenschaftlicher Artikel ist allerdings nie als abgeschlossen zu betrachten. Sonst wäre er ja auch keine Einladung zum Selbstdenken (Stichwort: Peer Review), sondern ein abgeschlossenes Werk, das man so zu „schlucken“ hat. Diese Einschätzung passt zu Ausführungen Philip Theisohns über das „Besser machen“ eines Autors, wenn er sich auf kanonisches Wissen bezieht: man möchte die Auseinandersetzung, sowohl als Informierender als auch als Informierter, um sich auf die berühmten Schultern von Riesen zu setzen, um Dinge zu verändern oder, so Theisohn, zu verbessern. Das Bastelnde Denken ist auch deshalb eine sehr ehrliche Herangehensweise, denn es akzeptiert die Lückenhaftigkeit des „Mängelwesens Mensch“ und federt diese gezielt ab durch systematische Offenheit und Freiheit: Ohne zu weit vorzugreifen, lässt sich davon ausgehen, dass sowohl Cassirer wie seine zeitgenössische Leserschaft das Referenzieren von Quellen immer auch als einen Gestus verstanden haben, als eine wissenschaftliche Performance, zu der auch das Spiel mit Vorwissen und Nichtwissen, mit einem humanistischen Zitatenschatz und Ideenfundus gehört; im Übrigen ein Spiel, in dem derjenige, der permanent Stellenangaben fordert, sich gerade als der verrät, der mangels Bildung nicht zum Spiel dazugehört und deswegen den Fluss der Reflexionen mit Büchmanns Geflügelten Worten verwechselt. Man mag zu solchen Gesten – deren vielleicht deutlichstes Signalwort bekanntlich ‚bekanntlich‘ ist – stehen, wie man will. Es mag auch richtig sein, dass sie regelmäßig missbraucht werden und auch nicht selten tatsächliche Ahnungslosigkeit unter der Fassade der ‚Intertextualität‘ verstecken. In ihrer rhetorischen Grundkonzeption taugen sie jedoch keinesfalls als Indikatoren geistiger Armut und auch den Ideenhaushalt der Geisteswissenschaften schädigen sie nicht zwingend. Ihre Aufmerksamkeit gilt nämlich vor allem der Inszenierung eines Textes vor einem ganz bestimmten Publikum und mit einer ganz bestimmten Intention: etwa der Suggestion eines gemeinsamen Denkraumes, aus dem bestimmte Autoren ausgeschlossen und in den andere kanonisch eingeschlossen werden, der Einebnung des Lektüreabstands zwischen Autor und Lesepublikum (also das Zurückstellen des Expertengestus, der in Qualifikationsschriften so häufig anzutreffen ist), der Abbildung assoziativer Denkprozesse, nicht zuletzt mit dem Ziel einer erhöhten Lesbarkeit, einer stilistischen Demokratisierung, der Öffnung einer fachinternen Argumentation in Richtung der Allgemeinverständlichkeit des wissenschaftlichen Sachbuchs. Jede dieser Gesten führt aus heutiger Perspektive in eine der Grauzonen des Weiterdenkens und Wiedererzählens, die bislang in ihrer Bedeutung für die Geschichte und Systematik der Geisteswissenschaften noch unerschlossen sind. Im Angesicht einer „Überproduktionskrise“, deren strukturelles Defizit – wie oben beschrieben – in der massenhaften Verfertigung

250

3 Methodik

ewig ungelesener Texte besteht, läge es nahe, die Erforschung dieser Referenzierungs- und Appropriationstechniken zu intensivieren, verbirgt sich hinter ihnen doch ein komplexes wissenschaftliches Kommunikationssystem, welches gerade von einer Reflexion des permanenten Zusammenschlusses von Textproduktion und Textrezeption zeugt.549

Das Bastelnde Denken bietet für die zielführende Nutzung der Paraphrase einen formalen Rahmen. Es geht um die einzelnen Sinneinheiten und ihren übergeordneten Kontext, nicht um alle Sinneinheiten eines spezifischen Kontexts in einer Reihe von Kontexten. Die Welt rückt durch das Internet zusammen. Das stimmt. So rücken aber auch Daten zusammen, sprich: Aussagen, Formulierungen, Ideen werden leichter sichtbar. Das hat den Vorteil, dass viele Sätze und sogar Wörter als das dargestellt werden, was sie wirklich sind: deutlich weniger einzigartig. Damit verliert der einzelne Satz an Wert, denn es wird sehr deutlich, wie oft er in inhaltlich vergleichbarer Form schon an anderen Stellen dargestellt worden ist. Die Hürde für eine „gute Idee“ wird dadurch höhergelegt. Dadurch wird aber auch deutlich: die inhaltliche Komposition gewinnt an Wert. Wer kleinteilig bastelt, schafft etwas Neues, Einzigartiges, Eigenes – letztlich: er realisiert seine Idee. Der einzelne Inhalt, die Sinneinheit, wird „wertloser“, da seine Einzigartigkeit leichter denn je widerlegt werden kann. Und da nicht jede Wortaneinanderreihung gleich überdurchschnittlichen Kreativcharakter aufweist, ist die Zusammenstellung nun wichtiger denn je. Der Kontext zählt nun mehr, der einzelne Inhalt weniger. Denken ist mehr denn je Basteln. Mosaike Was entsteht beim Bastelnden Denken? Letztlich ist es ein Mosaik. In der Vergangenheit wurde diese Methode (auf etwas andere Art und auf etwas anderer Ebene) bereits durchgeführt, denn selbstverständlich ist weder die Collage noch das Mosaik neu. Es ist jedoch in der hiesigen Form neu. Früher – sofern der Vergleich akzeptabel erscheint – sprach man vielleicht eher von Intertextualität: Der texttheoretische Begriff der Intertextualität (lat. inter für „zwischen“) bezeichnet dabei einfache bis hochkomplexe Bezüge zwischen Texten und erhält je nach text- bzw. literaturhistorischem bzw. literaturtheoretischem Kontext eine unterschiedliche Bedeutung, die im Extremfall umfassende kulturgeschichtliche bzw. kultursoziologische Bedeutungen annehmen kann. Wird unter dem Textbegriff nicht nur ein wohlgeordnetes Gebilde aus sprachlichen Zeichen verstanden, sondern ein Netzwerk aus Kultur, Kulturtechnik und sozialen Systemen, kann Intertextualität ebenso als ein „Dialog mit der Kultur“ und „das Einspielen von Texten der Vergangenheit in einen ‚neuen‘ textuellen Zusammenhang“ verstanden werden.

549 Theisohn.

3.2 Die Strategie des Bastelnden Denkens

251

Soweit die Definition gemäß Wikipedia. Es ist, auf ihre Art und Weise, vielleicht auch eine passende Beschreibung des Bastelnden Denkens. Ohne die wilde Komponente freilich, eher beschreibend gemeint. (Und ohne die Datenbankaspekte, aber die werden dann ja in Zusammenhang mit der BD-DB in diesem Buch ausführlich beschrieben.) „Der Text wird nicht mehr in seiner festen Endgestalt analysiert, sondern im Hinblick auf seine Prozessualität untersucht. Der Blickwinkel rückt auf das Werden des Textes und seine unterschiedlichen, intertextuell sich verändernden Aggregatszustände. In dieser Sicht ist jeder Text auf einer jeden Stufe seines Entstehens als Resultat von Veränderungen zugrunde liegender Texte (auch im Sinne kultureller Systeme) zu sehen. Die Intertextualitätsforschung versucht dementsprechend Referenzbeziehungen zwischen einem sogenannten Phäno-Text (d. h. einem konkreten literarischen Text, z. B. eine Erzählung) und dem zugrunde liegenden Geno-Texten (auch avant-Texten, d. h. kulturellen Artefakten bzw. Kunstwerken verschiedenster Art) zu entschlüsseln. Ein Phäno-Text ist demgemäß als ein Netzwerk oder Gewebe aus zahlreichen anderen Texten zu begreifen.“ Das Bastelnde Denken ist somit offenbar sowohl eine besondere Art der Intertexualitätsforschung als auch entsprechende Phänotextgestaltung, vor allem durch die protokollierende BD-DB, die die Arbeitsschritte dokumentiert, um Transparenz und Nachvollziehbarkeit zu sichern. Besonders spannend sind jedoch diese abschließenden Ausführungen seitens Wikipedia: Jeder Text baut sich als Mosaik von Zitaten auf, jeder Text ist Absorption und Transformation eines anderen Textes. An die Stelle des Begriffs der Intersubjektivität tritt der Begriff der Intertextualität, und die poetische Sprache lässt sich zumindest als eine doppelte lesen.

Streng genommen bleibt (auch) nach diesen Ausführungen nur noch die Kompilation als inhaltliche Leistung übrig, und das ist die Kernidee des Bastelnden Denkens. Auch wenn der Begriff den jeweiligen AkteurInnen unbekannt sein dürfte, doch vielerorts wird (mal mehr, mal weniger erfolgreich) gebastelt: „Gelernter ist weder Philosoph noch Literaturwissenschaftler, auch wenn “Gezeiten des Geistes” sich vogelwild in Philosophie und Literatur tummelt und sich dort bedient, als handele es sich um Laborberichte.“550 Es ist an vielen Stellen, auch im nichtwissenschaftlichen Alltag, zu beobachten: der Einsatz einer bestimmten Sinneinheit in einem bestimmten (passenden) Kontext ist immer eine Leistung, nicht jedoch automatisch die Sinneinheit selbst. Einer 3sat-Sendung war zu entnehmen, dass Henryk M. Broder zu Peter Voß sagte: „Karl Kraus hat mal gesagt: ‚ich kann kein Ei legen, aber ich weiß genau, wann eines faul ist‘“.551 Diese Aussage von Kraus ist gut zu merken und dient als Beleg einer

550 https://www.sueddeutsche.de/kultur/geisteswissenschaften-geist-mit-gefuehl-1.2879581, gerufen am 12.2.2019. 551 http://www.3sat.de/mediathek/?mode=play&obj=63707, abgerufen am 12.2.2019.

ab-

252

3 Methodik

sinnvollen Aussage durch eine bekannte, ehrenwerte Person – aber der Inhalt wird nicht anders, wenn er von einer unbekannten, unehrenhaften Person (also ohne das vermeintliche Prädikat „Karl Kraus hat mal gesagt . . . “) stammt. Die Aussage bleibt – im richtigen Kontext – passend. Im falschen Kontext hingegen wird sie unsinnig, selbst wenn sie für sich stehend richtig ist. Das spielt dann aber keine Rolle. Dreh- und Angelpunkt ist der Kontext. Den hier beispielhaft genannten Satz gibt es zudem in so vielen Abwandelungen, da könnte man natürlich auch (im Falle einer Nennung) sagen, dieser Satz wurde (ohne Nennung von Karl Kraus) irgendwo „gestohlen“. An der richtigen Stelle eingesetzt ist das aber die Leistung, nicht die Satzgenerierung an sich. Das ist dann die sinnvolle, zielführende Kompilation, hier aus Sinneinheit und Kontext. Niemand zielt bei einer Nennung in einem sinnvollen Kontext auf die reine Nennung ab, beispielsweise weise um Belesenheit vorzugaukeln. Die Sinneinheit wird erst wertvoll durch ihre Kontextualisierung und dies bringt der jeweiligen Person sicherlich viel mehr Reputation als es ein nichtliterarischer Satz dieses Formats jemals ohne Kontext könnte. Logik Das Kernwerkzeug des bastelnden Denkens ist Logik – früher wie heute. Logik ist sicherlich der am meisten unterschätzte Aspekt von allen, die mir in meiner wissenschaftlichen Laufbahn bisher begegnet sind. So viele Probleme waren und sind schnell und erfolgreich mit Logik zu klären, dass ich es inzwischen für ein strukturelles Versagen halte, wenn Studierende in Bereichen, die viel mit Logik zu tun haben, keine entsprechende Ausbildung in Form von passenden Seminaren enthalten. Wobei: es ist natürlich nachvollziehbar, dass Logik ein gewisses Schattendasein führt, wenn man sich nicht so sehr für die Wissenschaft, sondern vielmehr für die Politik engagiert. Logik und Politik, das gehört nicht zwangsläufig zusammen. Stil Wichtig zu betonen ist, dass das Bastelnde Denken in Hinblick auf den Schreibstil des erstellten Ergebnisses insgesamt eine sehr journalistische Schreibweise bevorzugt. Gerade bei Agenturmeldungen ist das des Öfteren zu sehen: einzelne Sinneinheiten werden exzerpiert und mit eigenem Text verwoben („mit Material von dpa“). Selbstverständlich gibt es Unterschiede, vor allem in Hinblick auf die Referenzierung der Angaben – bei einer wissenschaftlichen Arbeit wäre ein Hinweis am Ende des Textes im Stile von „mit Material von dpa“ für den einen oder anderen Mitmenschen sicherlich manchmal recht problematisch. Aber im Kern ist auch diese journalistische Vorgehensweise ein Basteln, welches auf den Kontext setzt. Deshalb bietet sich im Umkehrschluss eine entsprechende Schreibweise an, die aus den Einzelelementen einen geglätteten Text macht. Es muss, wiederum nach Popper, verständlich, klar und

3.2 Die Strategie des Bastelnden Denkens

253

effizient geschrieben werden, damit auch verständlich, klar und effizient gelesen und gearbeitet werden kann. Mentalität Das Bastelnde Denken muss zudem zwingend in Verbindung gebracht werden mit der Mentalität des Hackers: „Ein Hacker ist jemand, der versucht einen Weg zu finden, wie man mit einer Kaffeemaschine Toast zubereiten kann“, so der verstorbene Hacker und Mitbegründer des Chaos Computer Clubs (CCC) Wau Holland. Und so viel Freiheit beim Umgang mit Texten muss erlaubt sein: dass man also Dinge ausprobiert und vielleicht Grenzen überschreitet, einfach um zu sehen, ob tatsächlich ein inhaltlicher Gewinn erreicht werden kann. Das Experimentelle gehört dazu – wie käme man sonst zu neuen Erkenntnissen, denen man sich nicht über „herkömmliche“ Wege annähern kann? Die systematische Grenzüberschreitung, das Zusammenstellen von völlig neuen Sinneinheiten, all das muss von Zeit zu Zeit durchgeführt werden. Die Arbeit ist die Arbeit mit Sinneinheiten, und diese kann aufgrund der neuen Gegebenheiten nicht weitergeführt werden wie bisher. Aufgrund der digitalen Revolution braucht es auch eine Arbeits- bzw. Prozessrevolution. Der Einfluss der digitalen Welt ist in dieser Mentalität, die hinter dem BD im Besonderen (und der Internetsoziologie im Allgemeinen) steckt, deutlich zu spüren. Der Test von Systemen, um sie zu verbessern, ist hier, in der Informatik, nicht nur üblich, sondern Pflicht. Methodentests ergeben nur Sinn, wenn sie konkret durchgeführt werden. Deshalb wird auch in der Internetsoziologie stets alles getestet, sie ist die epistemologische „Sandbox“ der digitalen Gesellschaft.552 Grenzen Wenn Aspekte in einer wissenschaftlichen Arbeit (wie beispielsweise der hiesigen) fehlen, weil man Grenzen setzte, muss man dazu anmerken, – dass das heutzutage ja auch gefordert wird. Denn es wird ja immer gesagt, dass gerade Prüflinge sich bei freien Arbeiten wie Dissertationen sehr oft viel zu große Aufgaben suchen und man da auch entsprechend eingrenzen muss, und dass das auch gut so ist. Dieser Tipp ist deshalb schon aus rein logischen Erwägungen und natürlich auch zahlreichen Erfahrungen aus dem Hochschulbetrieb (siehe dazu die Unmöglichkeit der Welterklärung beim ersten Versuch im nächsten Punkt) hochrelevant und Begrenzungen bzw. – anders, aber nicht falsch formuliert – Lücken in der eigenen Arbeit sind nur in besonders gravierenden, offensichtlichen, letztlich: sinnentstellenden Fällen problematisch. Stimmt ansonsten der Kontext, stimmt der Sinngehalt, so ist eine lückenhafte Arbeit zwar

552 https://de.wikipedia.org/wiki/Sandbox, abgerufen am 13.2.2019.

254

3 Methodik

nicht weit ausgreifend oder gar allumfassend, aber dafür ein wichtiger Baustein in einer Reihe von Arbeiten zu diesem Thema. – dass man heute auch gar nicht mehr alle Themen abdecken kann, d. h. das Ziel der Vollumfänglichkeit ist unmöglich zu erreichen. Es ist bei digitalen Themen völlig ausgeschlossen, die Aufgabe der Vollumfänglichkeit erfolgreich zu lösen, indem man alles abgrast, was relevant erscheint. Dies erkennt man leicht an einigen Zahlen: im Jahre 2018 ging man von einer generierten Datenmenge von 33 Zettabyte weltweit aus. Für 2025 lautet die Prognose 175 Zettabyte.553 Allein Facebook hatte im ersten Quartal 2019 weltweit 2,3 Milliarden aktive NutzerInnen pro Monat. Welche tiefgehende Fragestellung soll hier noch erschöpfend beantwortet werden können? Eine Fokussierung auf Ausschnitte erscheint als einzig gangbarer Weg. – dass natürlich auch des Öfteren wieder erwähnt wird, was keinesfalls vergessen werden darf: Forschung muss auch mal um ihrer selbst willen geschehen und wenn ich dann als LeserIn aus 300, 400 oder 500 Seiten nur ein, zwei, drei, vier oder fünf attraktive Punkte herausziehe, dann ist das auch gut so. Denn Forschung soll ja nicht ausschließlich nach Auftragsgesichtspunkten bewertet werden. Auftragsarbeiten, Drittmittelförderung und Promotionsvorhaben stehen sehr oft unter dem Primat der Verwertbarkeit, aber das darf nicht absolut gesetzt werden. Die Freiheit der Wissenschaft ist eine Freiheit der Themenwahl, und damit auch eine des Themenzuschnitts und der Themenverweigerung. Oftmals sind Lücken oder fehlende Informationen überhaupt kein Problem, denn wenn wir beispielsweise eine brauchbare Quelle haben, die uns einen Überblick über ein bestimmtes Thema liefert, dann reicht es für gewöhnlich, diese Quelle zu nutzen und nicht ein oder zwei weitere „Parallelquellen“ einzubinden. Dopplungen sind für gewöhnlich ein guter Hinweis, dass man ausreichend informiert ist und die zusätzlichen Informationen verzichtbar sind. Und auch aus Stilgründen sind mehrere Quellen, die dasselbe behandeln, nicht ratsam: Ausdruck eines präzisen Stils ist es schließlich, Quellen immer einheitlich zu zitieren, also die Fundstelle nicht zu wechseln. Zitieren Sie z. B. dieselbe bankrechtliche Entscheidung nicht einmal nach WM, ein anderes Mal nach ZBB.554

Seine Grenze findet das Bastelnde Denken im Falle der Nichtüberprüfung von Quellen. Vertraut man auf die Richtigkeit einer Angabe, kann der Verdacht eines Blindzitats aufkommen. Dabei wäre ein daraus resultierender Vorwurf der Unredlichkeit letztlich zwar unsinnig, da die Auswahl bereits eine Überlegung über die Sinnhaftigkeit der

553 https://de.statista.com/statistik/daten/studie/267974/umfrage/prognose-zum-weltweit-gene rierten-datenvolumen/, abgerufen am 4.5.2019. 554 Möllers, 2005.

3.2 Die Strategie des Bastelnden Denkens

255

(neuen) Kontextualisierung durchscheinen lässt und nicht die reine Quellenauswahl allein, sondern vor allem ihre Kontextualisierung im Vordergrund der jeweiligen Leistung steht. Doch selbst wenn man nur handwerkliche Mängel vorgeworfen bekäme: Blindzitate sind zu vermeiden, die BD-DB sollte dementsprechend wenige „Ungeprüft“-Flags gesetzt haben. Die Zitierweise beim Bastelnden Denken ist aus guten Gründen stark begrenzt. Das Schema ist ausnahmslos „Name, Jahr, Seite“ bzw. „Titel, URL, Abrufzeitpunkt“.555 „Zitiert nach“ entfällt bei – überprüfter mangelnder Eigenleistung des dort (in „zitiert nach“) potentiell zu nennenden Autors – Mehrfachfunden – eigenen Überprüfungen im Original – Bestätigungen anderer Art und ist damit insgesamt als redundant zu betrachten, da bei Auftreten eines der oben genannten Punkte ohnehin ein Verstoß gegen die Operationalisierung des Bastelnden Denkens (Primat der individuellen Überprüfung zur Vermeidung von Blindzitaten) vorliegt. Wenn sicherstand, dass die Quelle so, wie sie genutzt wird, existiert und der Autor, der sie aufführt (aber nicht verantwortet), keine weitere (Eigen)Leistung nennenswerter Art (außer eben dem Heraussuchen und Darstellen, was keine wissenschaftliche Leistung darstellt) erbracht hat, dann reicht die Nennung der Originalquelle. Internetrecherchen haben oft genug gezeigt: diese Information gibt es sehr oft auch woanders, sie ist schon an anderen Stellen zitiert worden oder gehört faktisch (beispielsweise aufgrund einer Eingliederung in Wikipedia) zum Allgemeinwissen. Deshalb: einfache intellektuelle Tätigkeiten wie Zusammenfassungen und Darstellungen (insbesondere kurze Nennungen) sind keine Ideen, die gestohlen werden können. Somit verbietet sich auch eine Referenz, da diese dem Gedanken der Verhinderung von Ideendiebstahl zuwiderlaufen würde: „Wenn 20 Autoren von dem ersten Autor abschreiben, der die Idee entwickelt hat, müssen nicht alle 20 Autoren genannt werden, sondern vor allem die Primärquelle. Man kann ohne weiteres auf diejenigen Autoren verzichten, welche die ursprüngliche Idee nur wiedergeben, ohne sich inhaltlich mit ihr auseinander zu setzen.“556 Problematisch wäre das Ganze demzufolge nur bei einer Übernahme einer sehr individuellen Interpretation. Aber selbst dann gälte: wenn sie so direkt und „unverfälscht“ (=unverändert) in den Kontext der eigentlichen Sinneinheit passt, ist auch aufgrund ihrer Auswahl ausreichend nachgedacht worden, so dass ein Ideendiebstahl nicht stattfand.

555 Bei anderen Quellen wie e-Books wird ähnlich knapp verfahren, wobei es kein festes Schema gibt, sondern die wesentlichen Informationen den Rahmen setzen. Designfragen sind nachrangig. 556 Möllers, 2005.

256

3 Methodik

Woher man die Infos hat, ist letztlich nebensächlich. Entscheidend ist immer und ausnahmslos die inhaltlich korrekte Verarbeitung557 der ausgewählten Sinneinheit. Und die ist bei einer sinnvollen Auswahl (entlang des eigenen roten Fadens) automatisch gegeben – sonst wäre die Auswahl ja nicht als sinnvoll zu bewerten. Ein „Zitierhinweis“ ist überflüssig, da unsinnig.558 In einer Pressemitteilung des Fraunhofer IGD erscheint folgende Passage: Doch auch dreidimensionale Dinge, etwa eine römische Vase aus dem Museum, lassen sich scannen und über einen speziellen Drucker „ausdrucken“.559

Ich schrieb über dieses Thema im Jahre 2007 in einem Beitrag: Auch dreidimensionale Dinge können gescannt und digitalisiert werden. sowie Dinge können nicht nur ein-, sondern auch ausgegeben werden, beispielsweise durch Ausdruck eines Fotos mithilfe des heimischen Druckers. Sieht man die Sinneinheiten und ihre Kernelemente, so wird deutlich, dass sowohl im viel später erschienenen Fraunhofer-Satz als auch in meinen Sätzen dieselben Aspekte eine Rolle spielen (hier: fett markiert). Ist das nun Ideendiebstahl? Keine Bejahung wäre absurder als diese. Weder Wort- noch Inhaltsähnlichkeiten – ausschließliche Ausnahme: großformatige Wort- und Inhaltsdopplungen – sind automatisch Ausweis unsauberen (oder gar: unwissenschaftlichen) Arbeitens. Sobald die innere Auseinandersetzung mit dem Inhalt anhand eines eigenen roten Fadens geschehen ist und (bei Bedarf) eine Quelle genannt wird, die tatsächlich den Inhalt kreiert hat, ist die Mindestanforderung an wissenschaftliches Arbeiten erledigt. Der Inhalt überwiegt immer die Form, und die Form darf niemals über den Inhalt siegen. Das wäre die ultimative Niederlage für die Wissenschaft. Die Grenze zwischen Copy & Paste und Bastelndem Denken verläuft zwischen der bloßen Übernahme und der inhaltlichen Auseinandersetzung mit der Sinneinheit (samt Referenzprüfung). Werden Sinneinheiten bloß großflächig übernommen, um die eigene Auseinandersetzung zu ersparen, handelt es sich logischerweise um keine eigenständige wissenschaftliche Leistung. Ist jedoch eine plausible Form von inhaltlicher Auseinandersetzung erkennbar – auch kontextueller, struktureller oder kaleidoskopischer Art –, so handelt es sich um zulässiges Basteln.

557 Dies schließt die Beantwortung der Referenzfrage ein. 558 http://itre.cis.upenn.edu/ ~ myl/languagelog/archives/004608.html, abgerufen am 13.2.2019. 559 https://www.pressebox.de/pressemitteilung/fraunhofer-institut-fuer-graphische-datenver arbeitung-igd-darmstadt/Gegenstaende-kopieren-und-exakt-ausdrucken/boxid/644571, abgerufen am 13.2.2019.

3.2 Die Strategie des Bastelnden Denkens

257

Quellen Die eigene Forschung ist häufig mit Anstrengung und Frustration verbunden, da muss man Widerstände überwinden, hingegen mit jemand anderem über dessen Forschung zu reden, ist purer Erkenntnisgewinn. Der andere transportiert ja den Frust nicht mit, der liefert mir ledigLuca Giuliani lich die Quintessenz der Ergebnisse.560

Der Umgang mit Quellen ist einer der wichtigsten Aspekte des Bastelnden Denkens, der sehr weitreichend gedacht und in der Folge mehrfach umgebaut wurde. Es dürfte die radikalste Änderung in diesem Zusammenhang sein. Und diese Änderung fokussiert auf Analyse und Kontextualisierung. Aber das ist nicht überraschend, wenn man einmal genauer hinschaut. Wenn etwas so Revolutionäres wie Digitalisierung ins Leben der Menschen tritt, dann braucht es vor allem neue Ideen. Das eine lässt sich nicht von dem anderen trennen, und wo diese neuen Ideen herkommen, ist letztlich völlig egal. Wissenschaftliche Literatur beispielsweise ist da auf Augenhöhe mit jeder anderen Quelle, und deswegen gibt es in dieser Hinsicht auch keine guten oder schlechten Quellen, keine guten oder schlechten Sinneinheiten, sondern es gibt ausschließlich Ideen, die auf Logik und sinnvollem Kontext beruhen. Dabei geht Sekundär- vor Primärliteratur, wenn man einen Einstieg sucht: Die durchschnittliche Lesezeit, die Amazon bei seinem Kindle (und der dazugehörigen App) angibt, dürfte sich auf eine „Konsumzeit“ beziehen – nicht jedoch auf eine „Lese- und Reflexionszeit“. Deshalb ist einführende Literatur genau das Richtige: sie regt zum denkerischen Einstieg an. Das ist mit Primärliteratur so oft bis fast immer nicht leistbar. Alles, was sich mit einem Themenfeld gezielt auseinandersetzt, ist somit zu bevorzugen. Wenn in der Internetsoziologie frei nach Popper auf klare Texte geschaut wird, sprich: erklärende Sekundärliteratur unverständlicher Primärliteratur vorgezogen wird, so ist das nur konsequent und eine Erkenntnis aus der eigenen Studienzeit (hier: aufgrund der Arbeiten von Dietmar Kamper), wie dieser Absatz von Rudolf Maresch über Kamper zeigt: Kritiker bezeichnen den KörperDenker gern als einen „Parteigänger des Schattens“, weil er in seinen Schriften Sachverhalte eher verneble oder verdunkle als aufklare. Viele Texte seien in weiten Teilen unverständlich, oft mangele es darin an Argumentationen und begrifflicher Klarheit. Kamper kann diese Kritik bis zu einem gewissen Grad nachvollziehen, erkennt aber in dieser Kritik zuvörderst ein Problem des Sehens. Immer habe er sich um die Beschreibung der Komplexheit der Probleme bemüht, sich um Verständlichkeit aber kaum gekümmert. Er bemerkt, dass ihm das bisweilen zum Nachteil gereicht. Denn hat man einmal das Etikett des „Dunkelmanns“ ans Revers geheftet bekommen, wird man es, vor allem im mediatisierten Betrieb, selten wieder los. Texte mit diesem Label werden nicht mehr rezipiert und sehr schnell beiseite gelegt. Vielleicht ist das auch der Grund, warum Kamper so viel und so heftig schreibt

560 https://www.wiko-berlin.de/wikothek/koepfe-und-ideen/issue/13/die-gruppe-ist-am-endeeines-jahres-jugendlicher/, abgerufen am 13.2.2019.

258

3 Methodik

oder geschrieben hat. In wiederholten Anläufen versucht er zu erklären und zu verdeutlichen, was er meint.561

Man muss sich im Falle einer Fundsache im Internet, beispielsweise im Verlauf einer Google-Suche, entscheiden. Lautet der eigene Satz beispielsweise „Das Internet muss Platz digitaler Zivilcourage sein“ und man findet später diesen Satz auf einer anderen Website „Der digitale Raum muss ein Ort digitaler Zivilcourage sein“ so gibt es zwei Möglichkeiten: entweder man wittert eine Kopie (zumindest wenn das Datum der zweiten Website vor dem Datum der eigenen Website liegt) oder man sieht den Gedanken dahinter als Allgemeingut an – jemand kam von sich aus auf diese Idee – und lässt ihn damit quasi frei. Letzteres dürfte umso unumstrittener sein, je mehr Sätze gleicher oder ähnlicher Art man findet. (Mindestmaß der Gleichheit sind hier die jeweiligen Sinneinheiten.) Doch auch wenn man nur einen oder zwei Sätze gleicher oder ähnlicher Art findet, darf man nicht zwingend den Kopiegedanken bevorzugen. Denn abgesehen vom Kontext, schlichter Logik oder auch reinem Zufall steigt natürlich mit der Anzahl der digital verfügbaren Informationen die statistische Chance, einen adäquaten Satz zu finden. Somit gibt es einen nicht unbeträchtlichen Zeitfaktor (Sie erinnern sich vielleicht an die Zettabyte-Dimensionen weltweit zirkulierender Daten, die ich zuvor erwähnt habe.) Je mehr Zeit vergeht, desto mehr Daten werden digitalisiert – und desto größer wird die Chance, etwas Ähnliches zu finden. Gleichzeitig würde derjenige ohne Verdacht auf bloße Kopie davonkommen, dessen Satz man nicht an irgendeiner Stelle des Internets ergooglen kann, weil die (in diesem Falle vielleicht tatsächlich kopierten, aber) analogen Daten noch nicht digital vorhanden sind. Der Verdacht stärkt sich selbst jedoch umso mehr, je mehr Daten man digital durchsuchen kann. Denn umso wahrscheinlicher wird dann auch ein Fund einer entsprechenden Sinneinheit. Und gleichzeitig entkräftet sich (mindestens aufgrund des Zeitverlaufs und des damit zusammenhängenden Digitalisierungsprozesses) jeder Verdacht zugleich früher oder später wieder von ganz allein – denn es wird durch die Zunahme der Entdeckungswahrscheinlichkeit ganz ähnlicher Sinneinheiten/Sätze aufgezeigt, wie unrealistisch es ist, einen Satz grundsätzlich für so wertvoll zu halten, dass er einzigartig ist. Es ist dasselbe Prinzip, das beispielsweise auch bei Menschen gilt: leben nur tausend Menschen in einer bestimmten Region, ist die Chance nicht besonders groß, auf einen Doppelgänger zu stoßen. Bei einer Million Menschen ist dies jedoch ganz anders, von sieben Milliarden Menschen und der tatsächlichen Chance ihrer Auffindbarkeit dank digitaler Datenbanken einmal ganz zu schweigen. Mathematisch ist das Prinzip dahinter einfach: je mehr und je länger digitale Daten entstehen, desto wahrscheinlicher wird es, dass darin ein Datensatz

561 http://www.rudolf-maresch.de/texte/22.pdf, abgerufen am 13.2.2019.

3.2 Die Strategie des Bastelnden Denkens

259

auftritt, der einem anderen Datensatz ähnelt. Die Annahme basiert auf Überlegungen zum Borel-Cantelli-Lemma.562 Sinneinheiten sind natürlich keine abzählbaren Buchstaben, sondern haben immer auch mit Grauzonen zu tun. Buchstabengenaue Übereinstimmungen sind nur ein Teil des Ganzen – viel wichtiger sind freilich Sinneinheiten, welche deutlich häufiger auftreten dürften als exakte Übereinstimmungen von Wörtern und Sätzen. Aber so oder so wird klar: zu Beginn der Digitalisierung mag man noch viele einzigartige Sätze bzw. Sinneinheiten gefunden haben. Dann kam es zu ersten Dopplungen (und – wenn man sich der Sache aus dieser bestimmten Perspektive nähern wollte – Verdachtsfällen) und letztlich kommt es zu so vielen Ähnlichkeiten, dass voneinander abschreiben immer unrealistischer wird. Vielmehr wird deutlich, wie wenig originell viele Sinneinheiten sind und wie wenig Wort- oder Sinnähnlichkeiten im direkten Vergleich aussagen. Für das bastelnde Denken gilt deshalb, dass bei der Auswahl der Sinneinheiten immer und zu jeder Zeit klar erkennbar sein muss, dass sie zum Kontext passen, diese somit entlang eines roten Fadens der jeweiligen Arbeit ausgewählt wurden. Dass es in der Reihung der Sinneinheiten früher oder später immer wieder zu „verdächtigen“ Ähnlichkeiten kommt, ist somit weder vermeidbar noch problematisch – es ist schlicht eine Frage der Statistik. Heutiges Lesen hat andere Grenzen als früher: Im privaten Gebrauch, in der Ausrichtung von Bibliotheken und Verlagen, in der Bildungspolitik und Lehrmittelplanung gewinnen Smartphones, Tablets und E-Reader gegenüber dem gedruckten Buch an Bedeutung.563

Wir lesen schneller, oberflächlicher, aber eben auch kontextueller als früher. Das liegt nicht nur an der Darreichungsform der Informationen, sondern auch an der Menge und den individuellen wie gesellschaftlichen Ausrichtungen. Erinnert sei deshalb an dieser Stelle an die Ausführungen von Linneweber, Pörksen und Bude. Diese Veränderung des Lesens hat entsprechende Konsequenzen. Ich spüre dies beispielsweise immer wieder dann, wenn Menschen zu mir kommen und sagen: „Du kennst doch bestimmt XY!“. Aber ich muss sehr oft sagen: nein, ich kenne sehr oft überhaupt nichts von dem, was mir die KollegInnen/Studierenden vorstellen. Das ist eine Herausforderung der heutigen Zeit: herauszufinden, was vielleicht als Denkansatz oder Startpunkt in einem gewissen Szenario interessant ist. Und die Elemente, die man aus der Theorie aufnimmt, sind nur die Einzelelemente im Sinne eines Denkansatzes, den man dann unter Berücksichtigung des eigenen roten Fadens neu zusammensetzt. Deshalb geht es beim Bastelnden Denken ausschließlich darum, zu sagen, welche Inspirationen (und damit: Sinneinheiten) man gut findet,

562 https://de.wikipedia.org/wiki/Borel-Cantelli-Lemma, abgerufen am 13.2.2019. 563 https://www.faz.net/aktuell/feuilleton/buecher/rezensionen/sachbuch/schnelles-lesen-langsa mes-lesen-von-maryanne-wolf-16149011.html?printPagedArticle=true#pageIndex_0, abgerufen am 5.5.2019.

260

3 Methodik

um zu einem individuellen Lösungsweg im Sinne des jeweiligen Szenarios bzw. der jeweiligen Aufgabe zu kommen. Und ob das nun Popper ist, Poppers bester Schüler, ein Journalist, ein Laie oder wer auch immer, das ist im Prinzip vollkommen egal, denn es geht letztlich nur darum, Lösungswege zu finden. Lösungswege, die klarmachen, wie man etwas gewinnbringend zusammensetzt – das ist die entscheidende Aufgabe. Die Frage, wo die Sinneinheit herkommt, ist in Zeiten von Google, Wikipedia und Co. irrelevant, solange die Sinneinheit korrekt ist. Die übliche Vorgehensweise beim Bastelnden Denken ist (wie bereits zuvor beschrieben) folgende: zuerst wird die Sinneinheit direkt in die BD-DB kopiert. Daraufhin erfolgt eine Allgemeinwissenprüfung via Sinneinheitenselektion. Stellt man aufgrund eigener Prüfung fest, dass das Wissen bereits allgemein geläufig ist, wird der in die Datenbank aufgenommene Datensatz auf die Sinneinheit bezogen entsprechend (nicht) referenziert. Im Detail bedeutet dies: 1. Allgemeinwissen (qua Ist-Zustand) Allgemeinwissen darf nicht einer einzelnen Person zugeordnet werden. Dies wäre genauso falsch wie die Nichtzuordnung einer individuellen Idee. Allgemeinwissen kann freilich illustrierend einer Quelle wie Wikipedia zugeordnet werden, aber bekannte (fach)allgemeine Informationen sollten auch nicht illustrierend zugunsten einer oder mehrerer Personen verlinkt werden. Allenfalls ein „z. B.“ als Einleitung von sinnvollen Quellen („z. B. Müller, 1999, Schulze, 2000“) erscheint hier denkbar, wenngleich unpräzise aufgrund der obigen Ausführungen. Aber Sätze wie „Niklas Luhmann war ein deutscher Soziologe“ erreichen sowohl aufgrund ihres Inhaltes (=allgemein bekannt, hier sogar nicht nur innerhalb der Soziologie – dort aber auf jeden Fall) als auch ihrer literarischen Qualität (=allgemeinsprachlich) keinerlei Referenzhöhe. 2. Allgemeinwissen (qua Entscheidung) Eine der größten Aufgaben und Verantwortungen eines jeden Autors ist es, eine sinnvolle Entscheidung hinsichtlich einer Referenzierung zu treffen. Das bedeutet im Kern, dass der Autor bei jedem (!) Satz, den er nicht zu 100 Prozent selbst ausgestaltet, entscheiden muss, ob eine Referenz nötig ist (und wenn ja: welche) oder nicht. Ist nach Eindruck des Autors keine Referenz nötig, kann der Satz referenzfrei übernommen werden – auch sprachlich unverändert, sofern hier keine entsprechende literarische Schöpfungshöhe erreicht wird. Ein Satz wie „Niklas Luhmann war ein deutscher Soziologe“ kann direkt übernommen werden – egal, wo er gefunden wird. Dies gilt auch für Folgesätze – mit der Einschränkung, hier eigenen Inhalt und Kontext verblassen zu sehen, je mehr Sätze direkt und unverändert übernommen werden. Deshalb sollte man die Grenze sorgfältig wählen. Eine Übername von „Niklas Luhmann war ein deutscher Soziologe. Er lebte und lehrte in Bielefeld. Bekannt war er für seine Systemtheorie.“ erscheint unproblematisch, wohingegen eine Übernahme von 20 oder gar 50 Sätzen negativ auffallen kann, weil hier die Eigenleistung stark in den Hintergrund rückt oder gar ganz fehlt.

3.2 Die Strategie des Bastelnden Denkens

261

3. Vorgehensweise im Falle von Unsicherheit Verändert man aufgenommene Sätze, werden sie durch entsprechende Veränderung schnell zu individuellen Sätzen. Schreibt jemand zum Beispiel „Im 21. Jahrhundert gilt zweifelsfrei: Computertechnik gestaltet eine technische Revolution“ so wird der veränderte Satz „Im 21. Jahrhundert gilt zweifelsfrei: Digitalisierung gestaltet eine technische Revolution“ ganz klar zu einer eigenständigen Variante des ersten Satzes und damit eine entsprechende Eigenleistung, da diese allein durch einen (hier unterstellten) Digitalisierungskontext im Gesamttext ihre vollumfängliche Berechtigung erfährt, aber auch durch die andere Schwerpunktsetzung auffällt (Digitalisierung im Allgemeinen statt Computer im Besonderen – oder, beispielsweise bei einer Annahme von Analogcomputerbelangen,564 genau andersherum: Digitalisierung im Besonderen und Computer in Allgemeinen). Es muss an dieser Stelle erneut betont werden, dass es nicht nur eigene und fremde, sondern auch allgemeine Aussagen („Ideen“) gibt. Dazu gehört nicht nur das Allgemeinwissen, das jedermann hat („Die Sonne ist gelb“), sondern auch fachspezifisches Wissen („Niklas Luhmann war ein deutscher Soziologe“). Sowohl die offensichtliche Tatsache, dass die Sonne gelb ist, als auch das soziologische Erstsemesterwissen, dass Niklas Luhmann ein deutscher Soziologe war, kann und darf nicht einer Person, einem „Ideengeber“ zugeschrieben werden. Es darf ohne Weiteres davon ausgegangen werden, dass die Leserin bzw. der Leser diese Tatsache als Allgemeinwissen erkennt, so dass das Fehlen einer Referenz nicht nachteilig ist. Jetzt kann man natürlich zu Recht fragen: sind bloße Beobachtungen tatsächlich Ideen? Reden wir hier nicht eigentlich von etwas anderem? Nein, denn auch logische Schlussfolgerungen können Ideen sein. Dazu ein Beispiel: Stellen Sie sich vor, Sie lesen einen Text nicht mehr in einem klassischen Buch, sondern in einem Amazon Kindle (E-Book-Reader). Sie stellen fest: der E-Book-Reader ist leicht, nicht wasserdicht und schwarz. Ihr Satz dazu lautet: „Der Kindle ist leicht, nicht wasserdicht, dafür aber schwarz.“ Kann dieser Satz „geklaut“ werden? Nein. Der Satz ist zwar in diesem Moment „Ihre Idee“, aber diese Idee dahinter ist sowohl inhaltlich als auch strukturell (d. h. in Hinblick auf Wortwahl und Satzgestaltung) nicht außergewöhnlich, so dass selbst einer wortgetreuen Kopie (auf Satzebene) – ohne Referenz – nichts entgegensteht.

564 http://www.analogmuseum.org/english/, abgerufen am 5.5.2019.

262

3 Methodik

Gerade das Bastelnde Denken bringt es mit sich, über jedem Satz zu ‚brüten‘, diesen mehrfach an die Situation anzupassen, neu zu kontextualisieren und zu bewerten – da bleiben Nichtnennungen aus vielerlei Gründen nicht aus. Zudem kommt bei diesem wie auch beim vorherigen Punkt hinzu: digitales Wissen verändert sich ständig. Vielleicht war die eine Quelle, die hätte „bekannt sein“ müssen, zum Zeitpunkt der Recherche offline, hinter einer Paywall oder in einem anderen Bearbeitungszustand (siehe beispielsweise Wikipedia). Der heute recherchierte Status Quo lässt sich nicht mehr auf einen beliebigen Zeitpunkt in der Vergangenheit (oder in der Zukunft) projizieren. Trotzdem bleiben Kreativkonflikte oft nicht aus. Ein Beispiel: der Elternabend. Bei Twitter fand sich folgender Tweet: Marc @Das_BinIchHier: „Ungeschützter Sex kann zu Elternabenden führen.“ Daraufhin wurde Marc von @Schlachtzeile über diesen Tweet informiert: Lisa Blue © @lisablueair: „Denkt dran: Ungeschützter Sex endet meist beim Elternabend!“ Lisa Blue witterte nun einen „Ideendiebstahl“ und schrieb öffentlich an Marc: Tweetklau ist keine schöne Sache! Bitte löschen!

Marc erhielt von mehreren Seiten Bestätigungen, seinen Tweet nicht zu löschen, da, kurz gesagt, die Idee von Lisa nicht so einzigartig sei, dass sie niemandem ein zweites Mal einfallen könnte. Dieses Beispiel zeigt sehr schön die Konflikte im digitalen Raum auf: Lisas Tweet ist drei Jahre älter als Marcs Tweet und erreichte (Stand: 19.9.2017) 73 (zum Zeitpunkt von Lisas „Meldung“) bzw. knapp über 100 (nach ihrer „Meldung“ und dem Retweet ihrerseits) „Gefällt mir“-Angaben. Marcs Tweet liegt zum selben Zeitpunkt bei über 1500 „Gefällt mir“-Angaben. Ist Marcs Tweet nun ein „Ideenklau“? Marc behauptet: nein. Ist Marc zu glauben? Das kann man am besten mit einer Gegenfrage beantworten: erscheint Lisas Tweet als so einzigartig, dass ein Plagiat die einzig denkbare (und plausible) Lösung ist? Nein, denn es gibt zwei Gründe, die sehr deutlich dagegensprechen: – Ein-Satz-Plagiate sind extrem selten, denn nur in absolut außergewöhnlichen, nahezu unerreichbaren Ausnahmefällen ist ein einzelner Satz (zudem wenn beschränkt auf 140 Zeichen) so spektakulär, dass eine unabhängige Neukreation kaum denkbar erscheint. Es gilt: je weniger Text, desto höher die Hürde einer Kreation, die außergewöhnlich ist. – Lisas Satz fällt sowohl aufgrund der Wortwahl (keine außergewöhnliche Sprache) als auch aufgrund des Inhalts (lineare Ableitung: (Ungeschützter Sex führt zu . . . ) mit gewolltem unerwarteten Schwenk in eine andere Richtung ( . . . Elternabenden) – kein besonders außergewöhnliches Stilmittel) nicht in eine Kategorie, die die Schöpfungshöhe überschreitet, da eine besondere Individualität bei gängiger Wortwahl und gängiger Gag-Struktur nicht erkennbar ist. Ähnliche

3.2 Die Strategie des Bastelnden Denkens

263

Satz- und Gag-Konstrukte sind massenweise zu finden und normaler Bestandteil des Satire- und Comedy-Betriebs. Zu diesem Ergebnis kommt auch das Landgericht Bielefeld in einem entsprechenden Fall und bestätigt damit die hiesige Einschätzung.565 Die Konzentration auf Wortwörtlichkeit verstellt ohnehin den Blick auf das Wesentliche: wenn man mal von Texten von außerordentlicher literarischer Qualität, beispielsweise zeitgenössische Texte von Roger Willemsen „Erwachen im Werden. Während die Wimpern den ersten Lidschlag tun, die Trägheit des Auges kein Bild, ein Muster bloß produziert, während das alte »Es träumte mir« in ein »Ich träume« und das »Es denkt mich« in ein »Ich denke« übergeht, entsteht mit dem beginnenden Tag die erste Frage: Wo stieß mir dies Ich zu, das gerade denkt, als habe es nie gedacht? Was wollte das Bewusstsein, als es wurde?“ aber natürlich auch Klassiker von Günter Grass „Nun war es aber ein Montagnachmittag, an dem meine Großmutter hinter dem Kartoffelfeuer saß. Der Sonntagsrock kam ihr montags eins näher, während ihr jenes Stück, das es sonntags hautwarm gehabt hatte, montags recht montäglich trüb oberhalb von den Hüften floß. Sie pfiff, ohne ein Lied zu meinen, und scharrte mit dem Haselstock die erste gare Kartoffel aus der Asche.“ absieht, dürfte es in fast allen anderen Fällen (mit „normalen“, sprich: literarisch allerhöchstens durchschnittlichen Sätzen) um den Inhalt und nicht um die literarische Qualität gehen. Deshalb spreche ich beim Bastelnden Denken stets von der Sinneinheit, also dem eigentlichen (relevanten) Inhalt des (Ab)Satzes. Hat man (noch) vergleichsweise viele Sinneinheiten aus wenigen Einzelquellen zu einem bestimmten Thema in der BD-DB, besteht das Risiko zu sehr ähnlichen Ergebnissen zu kommen wie die jeweiligen Einzelquellen. Doch ist eine ähnliche Aneinanderreihung von (verwendbaren) Sinneinheiten automatisch verwerflich? Beispielsweise wenn die Quelle die Sinneinheiten A, B, C, D und E in einer Reihe aufführt, der BD-DB-Nutzer dann die Sinneinheiten A, B und E in dieser Reihenfolge und zum selben Ausgangsthema übernimmt. Auf den ersten Blick sieht die Auslassung einer Sinneinheit nicht nach besonders viel (Eigen) Leistung aus. Doch wenn Sinneinheiten C und D weggelassen wurden – steckt dahinter wiederum nicht doch ein (individueller, im Sinne der Ausgangsquelle „neuer“) Sinn? Ist es vielleicht nicht gerade der Clou an der Sache, dass ausgerechnet C und D entfallen sind? Ergibt das in einem neuen/bestimmten/anderen Kontext vielleicht nicht sogar mehr Sinn als in der ursprünglichen Reihung? War bzw. ist die Reihung von A bis E überhaupt eine Leistung, die individuell und

565 Beschluss v. 03.01.2017 – Az.: 4 O 144/16.

264

3 Methodik

schützenswert ist? Oder wäre ein Austausch von A bis E durch 1 bis 5, also ähnliche, aber nicht gleiche Sinneinheiten, nicht bloße Maskerade, quasi anderer Wein in den gleichen Schläuchen? Wo zieht man die Grenze? Wann ist eine Collage eine Kopie, wann eine sinnvolle Zusammenstellung? Aufgrund der Einzelteile und auch ihrer wörtlichen oder sinngemäßen Übernahmen ist dies im Sinne einer einfachen Formel denkbar schlecht zu definieren. So verführerisch ein Aufschrei auch sein mag, wenn man A bis E in der neuen Zusammenstellung entdeckt und weiß, dass A bis E von einer bestimmten Quelle stammen: sinnvoller erschiene hier eine Fokussierung auf den Kontext, oder genauer: die Kontextualisierung des Gesamtbildes. Denn wenn man die Elemente A bis E – ggf. sogar wortwörtlich – nimmt und beispielsweise anhand eines eigenen roten Fadens neu arrangiert, so dass es im Kontext dieses roten Fadens Sinn ergibt, so wäre das mindestens von derselben Qualität wie die Originalauflistung A bis E (mit ihrem eigenen roten Faden, denn A bis E werden sicherlich auch nicht kontextlos dastehen). Damit verblasst die ursprüngliche Idee (=roter Faden samt A bis E) allein schon aufgrund des neuen roten Fadens – erst recht wenn zusätzlich noch weitere Elemente (beispielsweise F bis H aus Quelle 2, I bis M als eigene Gedanken und N bis Z aus Quelle 3) hinzukommen. Hier wurde dann mithilfe von vorhandenen Sinneinheiten aus der BD-DB, durch den eigenen roten Faden auf der MetaEbene (Themenwahl, Szenariogestaltung usw.) und das individuelle Arrangement aller Elemente (sprich: Sinneinheiten) eine ganz neue Idee ausgestaltet. Das kann logischerweise nicht weniger wert sein als das ursprüngliche Arrangement. Warum soll diese Vorgehensweise des Neuarrangements aber sogar dann eigenständig sein, wenn man sie mit einer Vorgehensweise vergleicht, die gar keine Fremdelemente nutzt, sondern von A bis Z alles „neu denkt“? Ganz einfach: Es gibt gar kein „neues Denken“ bei A bis Z, denn abgesehen davon, dass vieles schlichte Logik, einfache Ableitung, Durchdeklinieren, chronologische oder alphabetische Sortierung oder andere keine individuelle Schöpfungshöhe erreichende „Leistung“, sprich: eher durchschnittliches Handwerk als schützenswerte Idee sein dürfte, sind doch alle Einzelelemente mit an Sicherheit grenzender Wahrscheinlichkeit irgendwo digital auffindbar, d. h. es besteht eine überragende Chance, dass sowohl Element A als auch Element E, Element H ebenso wie Element X und natürlich auch Y und Z ebenso wie alle anderen Elemente schlicht und einfach gegoogelt werden können und damit immer ein Diebstahlvorwurf im Raum stehen kann: „Siehste, Element A hat er von Website W1, Element B aus Buch B2, Element C aus Paper P3 . . . “ Eines hat Google mit unanfechtbarer Klarheit gezeigt: sehr viele, wenn nicht sogar die meisten Sinneinheiten sind schon mal gedacht und ausformuliert worden. Das führt die Jagd nach Sinneinheits-Kopien früher oder später ad absurdum. Denn was wurde schon mal wirklich „neu“ gedacht? Und was soll passieren, wenn das Meiste irgendwo anders auffindbar ist? Wenn alles verdächtig ist, ist nichts verdächtig – denn es zeigt sich, dass die Verdächtigungen keinen Sinn mehr ergeben. Wir benutzen alle nicht nur dieselben Buchstaben und Wörter, sondern eben auch

3.2 Die Strategie des Bastelnden Denkens

265

sehr häufig, wenn eben nicht sogar fast immer dieselben Sinneinheiten. Deshalb ergibt die Jagd nach dem „Ideenklau“ an dieser Stelle keinen Sinn. Alles ist stets das Arrangement von bestehenden Dingen. Ich mag zwar behaupten, dass ich diese oder jene Idee hatte und diese Idee meine Idee ist, jedoch mag diese Überprüfung am Ende nie standhalten, denn auf irgendeinen Kontext bezieht man sich letztlich immer. Sämtliche Arbeit ist damit eine Collage bereits existierender Sinneinheiten. Alles Forschen ist Bastelarbeit.566 Es zeigt sich damit, dass selbst eine reine Collage von Fremdelementen problemlos eine eigene wissenschaftliche Leistung sein kann – sofern sie mindestens einen roten Faden oder eine andere kontextuelle und individuelle wissenschaftliche Leistung erkennen lässt. Für das Bastelnde Denken kann deshalb gesagt werden: – Ist keine inhaltliche und/oder literarische Außergewöhnlichkeit erkennbar, sind sowohl der konkrete Satz als auch sein Sinngehalt gemeinfrei: Nutzung, Bearbeitung, Verbreitung sind völlig frei. – Ist eine literarische Außergewöhnlichkeit erkennbar, muss referenziert werden. – Ist eine inhaltliche Außergewöhnlichkeit erkennbar, muss referenziert werden. – Ist kein roter Faden (oder eine andere kontextuelle und individuelle wissenschaftliche Leistung) erkennbar, besteht die Gefahr, dass die Elementansammlung ohne erkennbaren Sinnzusammenhang dasteht und ihr damit der eigene wissenschaftliche Charakter abgesprochen wird. Warum die Elemente x, y, . . . aufgeführt werden, sollte schon wohlbegründet sein. Es wohnt der Jagd nach Sinneinheitsbetrügereien eine unaufhebbare Aussichtslosigkeit inne, sie ist inhärent sinnlos: da letztlich jede Grenzziehung willkürlich erscheint, führt sich diese Jagd selbst ad absurdum, denn sie findet logischerweise – früher oder später – immer einen „Treffer“. Grenzziehungen sind wie gesagt schwierig. Denn wenn ich beispielsweise von der maschinenbedingten Welt spreche, spreche ich dann nicht von einer technisierten Welt? Oder von einer technikdominanten Welt? Oder einer technikbedingten Welt? Oder doch einer Welt, die durch Technik definiert wird? Oder durch Technik bedingt? Oder durch Maschinen? Oder Computer? Wo fängt diese Jagd an, wo hört sie auf? Da jede Grenzziehung anfechtbar wäre, ist jedes Ergebnis automatisch unbefriedigend. Es bleibt letztlich nur der Kontext. Oder, eben frei nach Popper: Forschung als Bastelarbeit. Die Idee, eine Idee zu haben, ist ohnehin in gewisser Weise eine seltsame. Was macht eine gute Idee aus – Referenzen auf andere Ideen und die daraus logische Konsequenz der Weiterentwicklung? Oder ist es besser, ganz „eigene“ Ansätze zu verfolgen? Doch wann ist etwas Eigenes etwas Eigenes? Dann ist eine Idee „meine“ Idee? Ist das quantitativ messbar?

566 http://www.internetsoziologie.at/de/?p=6439, abgerufen am 5.5.2019.

266

3 Methodik

Ich meine: jein. Natürlich ist es beispielsweise in einer wissenschaftlichen Arbeit besser, eine „eigene“ Idee zu haben, sprich: eine messbare Abgrenzung zu anderen Projekten, Themen, Ideen herbeiführen zu können. Je größer diese Abgrenzung ist, desto „eigener“ ist die Idee. Aber ist sie dadurch auch besser? Nicht automatisch. Der Idealfall dürfte also lauten: je mehr eigene gute Idee(n), sprich: je mehr Qualität, desto besser. Das Eigene soll sich nicht nur kompilatorisch, sondern inhaltlich zeigen. Und über die inhaltliche Qualität entscheiden Peers immer noch am besten. Exzellenz muss über allem stehen und absoluten Vorrang haben bei der Bewertung von Ideen. Einfachheit Carolin Emcke hat ja sehr treffend bei der Begrüßung der neuen Fellows des akademischen Jahres 2017/2018 im Wissenschaftskolleg zu Berlin gesagt, dass, wenn Texte so verschwurbelt geschrieben wurden, dass sie kaum lesbar sind, dies eine Zumutung sei. Das wurde natürlich von mir mit großer Zustimmung für das Bastelnde Denken angenommen: es ist fast schon eine Art Notwehr, klare Texte zu bevorzugen und mit diesen zu arbeiten, um zeitnah und effizient zu Ergebnissen zu kommen, wenn die Originale in bestimmten Denkschulen/Traditionen verhaftet sind, die einfach unzumutbar sind. Das Bastelnde Denken steht für Klarheit, Transparenz und inhaltliche Qualität. Verschwurbelte Texte bieten nichts von alledem. Beispiele Eigentlich ist Twitter wirklich ein schönes Beispiel für das bastelnde Denken. Man geht als LeserIn durch Artikel/Paper/Websites und findet irgendwo einen kleinen „Schnipsel“, eine Sinneinheit, die einen interessiert. Diese sollte mittlerweile auf rund 280 Zeichen beschränkt sein (Anführungszeichen im Falle eines Zitates mit dazu gerechnet), damit man sie via Twitter verbreiten kann. Demnach hat man also maximal 278 Zeichen, mit denen man sich in Form eines Zitats ausdrücken bzw. die Idee transportieren kann. Sonst muss man dieses eben auf mehrere Tweets aufteilen. Aber es bleibt insgesamt ein Schnipsel, es ist nie ein ganzer Absatz oder gar eine ganze Seite, sondern immer relativ wenig. Und das ist genau die Idee des bastelnden Denkens: man geht durch das (wissenschaftliche) Leben und sammelt diese Aspekte/Beispiele – egal, ob nun linear oder ob sie einem einfach so zulaufen/zufallen/zugetragen werden. Und daraus setzt man dann argumentativ Dinge zusammen, wenn das eben von der Logik her Sinn ergibt. Dass dies dann einen erkennbaren roten Faden ergibt, ist das Ziel. Schön, wenn es erreicht wird. Allgemeinwissen Genau deshalb sind Projekte wie Wikipedia so wichtig: um eine nicht redundante und vernetzte Wissensbasis aufzubauen, ein Lehrbuch des Menschheitswissens, an dem jeder mitschreiben kann und das niemals veraltet. Peter Uetz

3.2 Die Strategie des Bastelnden Denkens

267

Nach meinem Eindruck ist der Prozess, was als Allgemeinwissen definiert wird, ein Prozess der in den meisten Fällen bei den KollegInnen aus dem Bauch heraus geschehen dürfte, der der einer Expertin bzw. einem Experten individuell überlassen wird, die bzw. der letztlich irgendwo einen roten Stift ansetzt und sagt: „Das ist es nicht!“, danach den grünen Stift zur Hand nimmt und sagt: „Das ist es!“. Somit ist der Prozess nicht nur intransparent, sondern auch hochgradig subjektiv, ja: willkürlich. Was Allgemeinwissen ist, ist somit nicht klar und eindeutig definiert – und es ist auch extrem schwer, hier eine verbindliche Aussage zu treffen. Diese nicht vorhandene Definition macht es in der Folge natürlich schwierig, entsprechende Aussagen über entsprechende Sinneinheiten zu treffen, sobald der Sachverhalt nicht offensichtlich trivial ist. In manchen Fällen ist es kinderleicht, Sätze zu formulieren wie: „Die Sonne ist gelb“, „der Himmel ist blau“ oder „Luhmann ist ein deutscher Soziologe“ – dies alles muss man nicht (mehr) diskutieren, sondern kann es ohne Wenn und Aber als Allgemeinwissen durchgehen lassen. In vielen anderen Fällen würden sich aber mit Sicherheit viele Menschen fragen, in wie weit das Wissen, von wann bis wann Luhmann seine Professur in Bielefeld hatte, noch eine Frage des Allgemeinwissens darstellt. Daraus entstand für mich die Frage, in wie weit ich das Wissen einer Person, also einer Expertin bzw. eines Experten, überhaupt noch als Maßstab für Allgemeinwissen nehmen kann und darf. Wenn wir alle in hochgradig spezialisierten Bereichen arbeiten und diese extreme Spezialisierung immer weiter fortschreitet, kann ich dann früher oder später überhaupt noch davon ausgehen, dass ich irgendeinen Experten (hier: „Experte A“, also ein bestimmtes Invididuum) als Maßstab nehmen kann? Wenn es jetzt um die Frage geht, ob etwas Allgemeinwissen ist oder vielmehr doch Spezialwissen, dann kann man nun jemanden darauf ansetzen und fragen: „Wie findest du das?“ – und dann kann diese Person das tatsächlich abschließend definieren? Ich halte das für sehr schwierig bis ausgeschlossen. Für mich ergibt sich daraus die nächste Frage, wie viele gemeinsame Nenner wir heute denn überhaupt noch haben. Vielleicht kommt ja beizeiten ein anderer Mensch, hier einmal „Experte B“ genannt, und sagt etwas ganz anderes als Experte A, jedoch ähnlich glaubwürdig vertreten. Im ersten Durchgang hielt der erste Experte beispielsweise Fragmente einiger Inhalte noch für Spezialwissen, aber „Zweitprüfer B“ sagt dann plötzlich, dass es sich eben nicht um Spezialwissen handele, obwohl der hochangesehene Prüfer A noch klar und deutlich bekräftigt hat, das das Wissen so speziell sei, dass man dies gar nicht als Allgemeinwissen ansehen könne. A entschied aber nur, weil er es nicht besser wusste. Seine „bestmögliche Aussage“ muss keinesfalls objektiv die bestmögliche Aussage sein. Die Frage dahinter ist: wie lange trägt eigentlich dieses Expertenurteil bzw. der Ansatz dieser einzelnen Analyse überhaupt noch? Das ist eine Frage, die nicht ganz unbedeutend sein dürfte. Wie lange haben wir denn überhaupt noch den fachspezifischen Kanon, den kleinsten gemeinsamen Nenner, kurz: das, was „alle“ wissen? Deshalb ist mein Ansatz gewesen, zu sagen: wenn es mehrfach veröffentlicht wurde, kann es schon kein Spezialwissen mehr sein, das man einer Person zurechnen

268

3 Methodik

muss. Ich merke es immer wieder bei meinen Recherchen: viele Dinge sind nicht referenziert worden und tauchen auch prompt in irgendeiner Form – ob abgewandelt oder nicht – an anderer Stelle wieder auf, jedoch in einem Kontext, der glaubhaft macht, dass es sich nicht um „Ideenklau“ handelt. Was man an dieser Stelle klar und deutlich festhalten muss: ein Gespür beziehungsweise einen Maßstab hinsichtlich der Frage, was Allgemeinwissen tatsächlich ist, kann ich dabei nun wirklich nicht erkennen. Eine hochgradig individuelle bzw. subjektive Perspektive scheint klar zu dominieren. Sicher, dies ist anekdotische Evidenz – aber wenn Sie, liebe Leserin, lieber Leser, da eine bessere Lösung haben, freue ich mich natürlich über Ihr Angebot. Falls Sie diese Antwort genau so wenig parat haben wie ich: Wann kann denn nun davon ausgehen, dass etwas als Allgemeinwissen gilt? Die eine Formel, das wird wohl ausreichend klar, gibt es an dieser Stelle nicht – ausgenommen trivialste Axiome wie „Der Himmel ist blau“, „Einstein war ein Mann“ oder „Bei Regen wird die Erde nass“. Trivialitäten benötigen logischerweise keine weitere Erläuterung ihrer Existenz. Die Einfachheit ist hier quasi die Regel, Offensichtliches bedarf keiner Erklärung. Doch für komplexere Sachverhalte, die beispielsweise auf die (nicht selten strittige) Frage abzielen, wann überhaupt Fach- zu Allgemeinwissen wird, werden Modelle erarbeitet werden müssen – dies wird auch durch mich versucht. Erstes Ergebnis: Wikipedia gilt für mich seitdem als ein Bestandteil des Allgemeinwissens. Sinneinheiten Was ist eine Sinneinheit (im Bastelnden Denken)? Nehmen wir beispielhaft diesen Satz aus der Wikipedia: Niklas Luhmann war ein deutscher Soziologe und Gesellschaftstheoretiker.

Hier sind vier wesentliche Elemente zu erkennen: Der Name = Niklas Luhmann Die Staatsangehörigkeit = deutsch Die Profession = Soziologe Weitere Informationen zur Profession: Gesellschaftstheoretiker Es kommt also auf diese (hier: vier) Elemente an – oder weniger, je nachdem, was man nun nutzen will. (Es ergäbe schließlich auch Sinn, einfach zu sagen: Luhmann war ein deutscher Soziologe – o. ä.) Damit gehen diese vier (oder wenn man weniger möchte: weniger als diese vier) Elemente in die BD-DB ein. Damit man eine sinnvoll strukturierte Sinneinheit bekommt, benötigt man einen oder mehrere Sätze, die die vier Elemente abbilden. Es macht aus vielerlei Gründen schließlich wenig Sinn, nur die einzelnen Worte zu speichern, egal ob mit oder ohne Bezug aufeinander. Der Hauptgrund: es ergäben sich optische bzw. technische Dopplungen mit der Verschlagwortung, und das wäre mindestens unpraktisch bis irritierend. Der der obige Satz aus gleich mehreren Gründen als „frei“ bezeichnet

3.2 Die Strategie des Bastelnden Denkens

269

werden kann, kann man ihn so übernehmen und muss keinen eigenen Satz generieren. Die Sinneinheiten werden dann in der BD-DB markiert (=fett) und durchnummeriert (=1 bis 4). Im Quellenangabenfeld wird die Quelle (hier: Wikipediaseite über Luhmann) gespeichert – wenn man das möchte. Denn eine Referenz im Sinne einer Zuschreibung ergibt bei diesem Satz keinen Sinn, denn er kann nicht nur einer Person zugeordnet werden. Eine Referenz im Sinne einer Empfehlung („Wer mehr wissen möchte, kann dort man nachschauen:“) ist natürlich möglich – aber nicht zwingend nötig. Natürlich kann man die Wörter nun durch eigene Synonyme austauschen. Wichtig ist, dass sie nicht ihren ursprünglichen Sinn einbüßen. „Verbesserungen“ sind natürlich möglich, ebenso Anpassungen an die Tonalität der eigenen Arbeit, für die die Sinneinheit vorgesehen ist. Wichtig ist nur, dass die Sinneinheit erhalten bleibt. Hilfreich ist es, stets eine Primärsinneinheit zu definieren, an der sich alles andere orientiert. In diesem Falle wäre dies der Name. Die Elemente Staatsangehörigkeit, Profession und Weitere Informationen zur Profession bezögen sich dann stets auf den Namen. Das Verfahren der Primärsinneinheit entspricht ideentechnisch dem Primärschlüsselprinzip einer relationalen Datenbank. Der Text, der am Ende aus dem Bastelnden Denken, aber grundsätzlich auch aus allen anderen Ideenumsetzungen entsteht, wird normalerweise (mehr oder weniger) linear rezipiert. Niemand schaut nur auf einen Satz, sondern bleibt höchstens an einem Satz hängen (und bastelt damit, durch die Fokussierung auf diese Sinneinheit, wiederum selbst). Dieser ersten linearen Rezeption muss durch die Glättung des Textes am Ende des Bastelprozesses Rechnung getragen werden. Nach Fertigstellung nochmal für Feinschliff sorgen ist deshalb Aufgabe eines jeden Autors. Der Text muss selbstverständlich überarbeitet werden, denn sprachlich wird nicht jede Sinneinheit zur vorigen oder folgenden Sinneinheit passen, so dass eine sprachliche Glättung zwingend notwendig ist. Die Einzigartigkeit des Textes liegt zuerst in seiner inhaltlichen (aus Fremd- und Eigenelementen bestehenden) und (eigen-)sprachlichen Zusammensetzung und erst danach in den einzelnen Sinneinheiten (bzw. den ggf. existierenden Zwischenebenen, die auch sinnhaft zusammen gehören können). Die Kompilation (von Sinneinheiten) ist der Wesenskern der BD-DB: es geht hier um Arbeitsbeschleunigung, um schnell eine (erste) Lösung zu finden. Dafür braucht man ein Archiv an Sinneinheiten, strukturiert und ständig neu gefüllt sowie ggf. aktualisiert. Das Ziel ist also stets die Kompilation, das liegt an der Kernidee einer relationalen Datenbank. Dieses Verfahren soll das übliche Chaos verhindern und einen besseren Weg zur Verwaltung von Sinneinheiten bieten. Der entscheidende Schritt ist immer die Entscheidung, wie welche Sinneinheit in die Datenbank aufgenommen wird. Denn der jeweils entstehende Text ist nicht als abgeschlossen zu betrachten, sondern als Diskussionsangebot. Wissenschaftliche Texte sind keine in Stein gemeißelte Wahrheit, sondern kleine Schritte in Richtung Wissensgewinn. Das beinhaltet zwingend das Diskussionsangebot.

270

3 Methodik

BD-DB Das Bastelnde Denken ist als Prozess, Werkzeug oder Inspiration direkt nutzbar, aber erst so richtig sinnvoll wird die Arbeit im Zusammenspiel mit einer relationalen Datenbank. Nutzt man die Möglichkeiten dieser Software, entsteht eine Datenbank des Bastelnden Denkens (BD-DB). Dabei geht es (hier) nicht um eine konkrete Softwarelösung, sondern um das Gestalten einer eigenen Datenbank, die bestimmte Bedingungen – eben die des Bastelnden Denkens – erfüllt. Wenn man die BD-DB anschaut, so werden zu einem bestimmten Thema Sätze oder Sinneinheiten verschlagwortet, beispielsweise „Beispielsatz mit Beispielen A, B und C“ wird mit dem Schlagwort „Identität“ versehen. Dann kommt beim Klick auf „Identität“ dieser Satz (und natürlich weitere Sätze). Damit erhält man ein Identitätskompendium. Das Identitätskaleidoskop entsteht nun dadurch, dass bestimmte Verknüpfungen zulässig sind, also nicht nur zwei oder mehr Sätze oder Sinneinheiten miteinander verbunden werden können, sondern auch Teile davon. Beispiel: Obiger Beispielsatz „Beispielsatz mit Beispielen A, B und C“ wird mit dem Beispielsatz 2: „Und noch ein Beispielsatz, diesmal mit den Beispielen D, E, F und G“ partiell verknüpft (siehe Betonung). Daraus wird dann: „Ein Beispielsatz, exemplarisch mit den Beispielen A, D, E und F“ Die Betonung zeigt es: Der neue Satz besteht jeweils aus Teileinheiten der beiden Beispielsätze. Damit entfällt eine automatische Referenz für den ersten und auch für den zweiten Satz, denn der Sinn (ebenso wie der Kontext) kann nicht mehr maschinenkompatibel dargestellt werden. Soll heißen: ein Mensch muss entscheiden, ob dieser Satz-Remix eine Referenz verdient – und wenn ja: welche. Einfach beide/alle Referenzen dranzuhängen, würde erstens (bei noch komplexeren Sätzen) zu einer Kette führen („Müller, 1999, Meier, 2000, Schulze, 2001, Anton, 2002, Jäger, 2003, Schmidt, 2004, Wegmann, 2005, Heckler, 2006, Walther, 2007 . . . “), was nicht nur völlig unübersichtlich, sondern auch inhaltlich verwirrend und unsinnig wäre. Und zweitens wäre es auch ungerecht, denn gerade die im jeweiligen Kontext neue Satzkreation ist ja gerade der Witz an der Sache – hier gilt der altbekannte Satz: je mehr Eigenleistung hinzukommt, desto mehr verschwimmt die Fremdleistung. Als Orientierung bzw. Grenze gilt hier maßgeblich § 3 UrhG, v. a. i. V. m. § 2 UrhG. Jetzt mag der ein oder andere anmerken, dass es bereits Verwaltungssoftware für Quellen/Zitate gibt. Das stimmt. Literaturverwaltungssysteme sind nichts Neues. Die Datenbank des Bastelnden Denkens (BD-DB) entstand aber aus individuellen

3.2 Die Strategie des Bastelnden Denkens

271

Notwendigkeiten heraus, welche von anderen Programmen seinerzeit nicht erfüllt wurden. – Die BD-DB ist nicht nur eine Referenzdatenbank, sondern auch ein Entwicklungssystem: hier werden neue Ideen entwickelt, wenn gewünscht. – Es geht also nicht nur um Verwaltung und daraus resultierende „Perfektion“ (sprich: Statik im Ergebnis), sondern Kreativität, Innovation (sprich: Kaleidoskopivität) . – Die BD-DB widmet sich aber nicht nur der Neugestaltung von Inhalten, sondern auch der Neugestaltung von Zitiermöglichkeiten unter Berücksichtigung digitaler Entwicklungen. – Die BD-DB funktioniert nach dem Wiki-Prinzip auf Basis einer relationalen Datenbank, ist also kein Addon oder Alltagshelfer, sondern eine eigenständige „klassische“ Datenbank. – Die Hauptarbeitsebene ist die der Sprache (Bilder, Videos, etc. sind eher nachrangig). – Die BD-DB leistet umso mehr, je intensiver sie mit Daten gefüllt und kreativ genutzt wird. Es ist kein reines Ablage- und Verwaltungssystem, sondern exponentiell hilfreich. – Die BD-DB ist eine offene Idee, anbieterunabhängig, neutral, als Konzept frei adaptier- und änderbar. – Die BD-DB ist grenzenlos erweiterbar. – Die BD-DB kann grenzenlos kollaborativ eingesetzt werden. – Die BD-DB funktioniert konzeptuell auch analog, sprich: mit Papiernotizen und zwecks medienübergreifender Strukturierung. Wie Sie vielleicht in diesem Buch, aber auch an anderer Stelle (beispielsweise auf meiner Website) bereits festgestellt haben, begeistere ich mich für die Arbeit von Roger Willemsen. Angelehnt an eine seiner Werkideen finden Sie nun weitere Gedanken zum Bastelnden Denken in ganz besonders arrangierter Form.567 Fast alles ganz normal Es wird digitalisiert, was digitalisierbar ist. Es wäre albern, dieses Beispiel nur meiner Person zuzuschreiben, auch wenn es von mir im Jahre 2008 veröffentlicht worden ist.568 Gesagt haben es sinngemäß aber auch Carly Fiorina, Peter Glaser und Günther Oettinger. Und sie kamen damit sehr prominent in die Medien. Haben Sie diese Idee nun von mir geklaut? Natürlich nicht. Habe ich die Idee von jemandem geklaut? Das anzunehmen wäre ebenso absurd. Denn die Idee ist eine reine Beobachtung der

567 https://www.zeit.de/2013/03/Roger-Willemsen-Momentum/komplettansicht, abgerufen am 5.5.2019. 568 Humer, 2008. S. 14.

272

3 Methodik

Ausbreitung der Digitalisierung, keine außergewöhnliche intellektuelle Leistung. Sie wird nicht geäußert, weil sie bahnbrechende Innovation in Hinblick auf das Verständnis unserer Lebenswelt verheißt, sondern weil sie eine Tatsache benennen, verdeutlichen und/oder betonen soll. Sie widmet sich gerade nicht dem Außergewöhnlichen, sondern dem Offensichtlichen. Niemand kann hier behaupten, der oder die „Erste“ gewesen zu sein und damit irgendeine Form von Anspruch auf diesen Satz zu haben. Der Satz ist „catchy“, keine Frage, aber eben auch nur das ist etwas Besonderes an ihm. Er ist griffig, eingängig – und Allgemeingut. Nur: denken Sie sich jetzt einmal bitte alle Sätze, die demselben Muster entsprechen. Sie werden merken: extrem viele, wenn nicht gar fast alle Sätze sind – für sich stehend – nichts Besonderes. Es ist der Kontext, der sie besonders macht – oder in seltenen Fällen die sprachliche Ausprägung. Doch der Satz selbst ist in den allermeisten Fällen ein Synonym für eine für sich genommen recht wenig spektakuläre Sinneinheit. Stückwerktheorie Popper befürwortete die Stückwerktheorie: das Leben ist Basteln, keine Lösung ist mit einem großen Wurf allumfassend zu erreichen. Die großen Heilsversprechen liegen, so meine Interpretation, für ihn irgendwo zwischen Unsinn und Gefahr. Dem kann man sich nur anschließen: es ist das Basteln, welches das Leben ausmacht, weshalb das Bastelnde Denken eher ein Normal- als ein Ausnahmezustand sein dürfte, angepasst an das 21. Jahrhundert. Arbeiten, die mithilfe des Bastelnden Denkens generiert werden, sind überhaupt nur mit weit reichenden Kenntnissen gestaltbar. Das Bastelnde Denken ist deshalb Stückwerk im besten, nicht im schlechtesten Sinne. Der Kontext ist das Entscheidende. Nachträglich verallgemeinern Wenn man sich einen generierten Text aus Inhalten der BD-DB ansieht, wird man feststellen, dass diese Textgenerierung nicht automatisch in einen lesbaren Text mündet. Glättet man den generierten Text, diese Summe aus Sinneinheiten, dann mag eine Satz-, Absatz- oder Seitengestaltung entstehen, die (im positiven Sinne) verwässert, d. h. aus sehr speziellen Sätzen (d. h. mit entsprechender Pflichtreferenz) werden allgemeine Sätze (d. h. ohne Referenzpflicht, da fachliches oder generelles Allgemeinwissen) oder sogar eigene Inhalte. Eine Überarbeitung kann also zu einer Referenzentfernung oder -änderung, jedoch nie zu einer stärkeren Referenzierungspflicht führen. Mehr als ein „muss“ gibt es bekanntlich nicht, so dass es im Falle der Referenzierungspflicht nur den Zustand „Ja“, im Falle der Abwesenheit einer solchen Pflicht jedoch den Zustand „Nein, da Allgemeinwissen“ oder den Zustand „Nein, da eigene Schöpfung“ gibt. Diese Entscheidung zur „Entpflichtung“ trifft jede Autorin bzw. jeder Autor völlig autonom. Die Herausforderung besteht darin, nicht einer „Auf Nummer sicher“-Referenzierung zu erliegen.

3.2 Die Strategie des Bastelnden Denkens

273

Diese mag zwar bequem erscheinen, ist aber genau so falsch wie das bewusste Weglassen einer Referenz, wo eigentlich eine sein müsste. Es gibt qualitativ keinen Unterschied. Verifikationsfalle Die Verifikation einer Sinneinheit kann zum sogenannten Hakenproblem führen: wird in der BD-DB eine Verifikation bestätigt, täuscht der so sichtbare Haken in der Datenbank in manchen Fällen eine 100%ige Genauigkeit vor. Diese ist aber nicht immer gegeben, denn der Haken kann vorschnell gesetzt werden, auf eine nicht mehr verfügbare Quelle verweisen, auf eine Quelle verweisen, die sich inzwischen verändert hat, fehlerhaft gesetzt worden sein oder aufgrund eines Softwarefehlers entstanden sein. Auch hier sollte deshalb mit einer Backupstrategie bzw. entsprechenden Redundanzen gearbeitet werden. Radikal, sonst wertlos Alles zu überdenken, das ist der Sinn des Bastelnden Denkens. Gebastelt wird allumfassend, ganzheitlich, radikal. Nichts steht fest. Wissenschaft ist eine Reise Man fängt immer als Dilettant an. Und lernt immer dazu. Zeit ist ein entscheidender Faktor. Das Bastelnde Denken geschieht im Kontext dieses Faktors. Das Grobe unter Zeitdruck bzw. für die erste Problemlösung, das Feine in der Folge bei Zeitentspanntheit und für die Detailanalysen. („Vom Groben ins Feine“ – vom Deskriptiven ins Analytische; erst Orientierung, dann Detail. Dazu gehört die Beurteilung, wann Übergang nötig ist.) Probleme sehen Die größte Leistung eines Wissenschaftlers, so Popper. Ideen haben „Um ein Wissenschaftler zu sein, muss er auch Ideen haben“ – erneut: Popper. Fortdauern des Bastelnden Denkens Das Bastelnde Denken erscheint notwendig, solange es noch neue Eigengesetzlichkeiten der Digitalisierung zu entdecken gibt und somit keine durchgehend gültige Arbeitsweise existiert. Also noch zehn bis 30 Jahre, so der Eindruck. Mindestens.

274

3 Methodik

Tendenzanalyse Die Tendenzanalyse ist vielversprechend, weil man wenig aus der Vergangenheit mitnehmen kann: Naive Bayes reicht als Herangehensweise bzw. Schema und nur aktuelle Daten (Ereignisse und Analysen) führen zu Tendenzen oder Expertenaussagen und somit auch zu Tendenzanalysen bzw. Tendenzanalyseergebnissen. Wir brauchen viel grobe Orientierung und nicht wenig Extremdetailwissen. Über die Pose Überall da, wo der direkten linearen Auseinandersetzung höchste Relevanz zugesprochen wird, wird die Pose zur gefährlichen Haltung. Bastelndes Denken ist (angelehnt an Nassehi) Anti-Pose, Lösung, Realität. Wenig Show, viel Substanz. Heuristiken Es sind oft, wenn nicht gar fast immer bestimmte Artikel, die eine Art Aha-Effekt hervorrufen, nach dem Schlüssel-Schloss-Prinzip, und die dann Heuristiken bestätigen. Dabei geht es nicht zwangsläufig um den ganzen Artikel, sondern um wesentliche Sinneinheiten. Aus einem Buch nimmt man meist sogar nicht viel häufiger nur einzelne Punkte mit, die in Erinnerung bleiben oder Respekt und Bewunderung erhalten – vor allem, wenn das Buch kein Kunstwerk ist. Lange Geschichten prägen einen Menschen in Gänze wohl nur in Kinder- und Jugendtagen. Später wird es schwieriger. Die wesentlichen Geschichten (gut/böse, links/rechts, gestern/heute, . . . ) sind dann bekannt, vieles wiederholt sich, vieles ist redundant. Doch einzelne Sinneinheiten sind noch in der Lage, einen Unterschied zu machen. Expertentum Gibt es heute noch Experten? Frei nach Popper: ich weiß, dass ich nichts weiß – und auch heute, trotz Google und Co., kaum das. Aber trotzdem weiß ich mehr denn je, vor allem im Generationenvergleich. Aber es wird auch deutlicher denn je, wieviel man wirklich weiß. Expertenwissen ist mehr denn je Orientierungs- statt Vorratswissen. Die Rolle des Experten ändert sich. Popper passt Das Bastelnde Denken passt gut zu Popper bzw. umgekehrt. Popper erwähnt prinzipiell die Prozesshaftigkeit der Wissenschaft: wir sind auch immer in einem Prozess, der uns und unsere Arbeit beeinflusst. Man ist immer mittendrin, im Prozess. Ursprung des Bastelnden Denkens Die Ur-Idee der Referenz im BD orientiert sich am Hyperlink: ein Link für alle Fälle.

3.2 Die Strategie des Bastelnden Denkens

275

Wikipedia befreit Wikipedia ist die Befreiung von Wissen, aber auch von Normen und Regeln. Ohne Hyperlinks, ohne Wikis wäre das Bastelnde Denken wohl nie entstanden. Alles Forschen ist Problemlösen Das ist die internetsoziologische Maxime. Gleiches mit Gleichem Grundsätzliches kommt mit grundsätzlichen Sinneinheiten aus. Es bedarf gerade keiner Details, denn sonst wäre es nichts Grundsätzliches, sondern etwas Detailliertes. Solch Widerspruch wäre nicht hilfreich. Radikalität Bei radikaler Auslegung steigt die Chance auf einen Perspektivenwechsel. Ganz nach Heisenberg. Zeitdruck Vollständige Durchdringung kann es in der Wissenschaft nur ohne Zeitdruck geben. Das ist in digitaler Hinsicht immer ein Problem. Disruption Das Bastelnde Denken ist Disruption. Wikipedia ist Allgemeinwissen Wissen ist frei, wenn es bei Wikipedia zu finden ist. Merkmal: Relevanzkriterien. Literalität Bastelndes Denken ist Übung in Literalität. Theorieabwehr Das Bastelnde Denken ist auch eine Art Notwehr gegen die Theorielast(igkeit) im Sinne von Schulen. Irgendeine -ianerin oder -ianer muss, ja: sollte heute niemand mehr sein. Die Zeiten sind vorbei. Besser zu prüfen Das Bastelnde Denken ist immer auch ein automatischer Ausdruck der eigenen Denk-, nicht nur der Arbeitsweise. Das bedeutet, dass man durch die

276

3 Methodik

Sinneinheitenzusammenstellung systematisch besser informiert ist über die Ziele der Autorin bzw. des Autors. Wiederholung stärkt eigene Auswahl Sobald Dinge sich wiederholen, hat man die Bestätigung und Relevanzerklärung für die jeweilige Sinneinheit. Und aus dieser Strukturierung von Sinneinheiten entsteht das dichte Bastelergebnis. Einfach geht vor verschwurbelt Diktum für die Sprachwahl war und ist Einfachheit, siehe Karl Popper Zotero Der letzte Anstoß für die Anwendung des Bastelnden Denkens war Zotero. Diese Software kam 2006 auf den Markt. Mit Zotero starb die Idee einer ‚festen‘ Quellenarbeit. Plötzlich lassen sich enorme Mengen an Quellen einsetzen und auch darstellen. Zudem weicht Zotero die Grenzen auf: alles lässt sich zitierfähig machen bzw. in eine übliche Form bringen. Bastelndes Denken nach Willemsen Roger Willemsen bastelte zusammen mit Isabelle Faust: Text wurde mit Musik verbunden. Sehr deutlich erklärt er dies in einem Interview mit dem Journalisten Juri Steiner.569 Das perfekte Beispiel fürs Bastelnde Denken. Ziel: automatisierte Referenzprüfung und ggf. Freigabe von Texten („Allgemeinwissen erkannt!“): Ideal wäre es natürlich, wenn die Referenzprüfung während der Texterstellung durchgeführt werden könnte, beispielsweise durch einen „Allgemeingut“-Check, der während des Schreibens passiert. Idee vor Form Das Bastelnde Denken stellt die Idee vor die Form. Immer. Entscheidend ist die erkennbare Auseinandersetzung mit der Materie. Schön schreiben ist schön, aber nicht alles Wer nicht nur korrekte, sondern literarisch gelungene Texte schreiben kann, der darf sich glücklich schätzen. Doch üblich ist das nicht. Die Komponente der literarischen Qualität muss beim Bastelnden Denken deutlich betont werden. Die BD-DB arbeitet

569 https://www.youtube.com/watch?v=thmczk9khdw, ab ca. 28:39 min, abgerufen am 5.5.2019.

3.2 Die Strategie des Bastelnden Denkens

277

mit Quellen- und Referenzupdates, d. h. es können Quellen rein technisch auch problemlos ausgetauscht werden, auch wenn die Wörter stehen bleiben. Dies muss nur dann verhindert werden, wenn die Wortwahl aussergewöhnlich ist, d. h. literarischer Anspruch entstanden ist. Nur dann wird dem Wortwählenden eine Referenz gegeben, da bereits sein Satz aus der Masse aller Sätze hervorsticht. Ansonsten ist das Ganze austauschbar, sobald inhaltliche Updates passender erscheinen – oder eine Referenz gar hinfällig ist, da der Inhalt als Allgemeinwissen angesehen wird. Fazit Die Konklusion kann einer anderen ähnlich sein oder sogar mit dieser identisch, wenn der Weg dorthin ein eigener ist. Logos und Ratio Der Kitt, der alles zusammenhält. Das Einzige, worauf man sich beim Bastelnden Denken immer verlassen kann und muss, ist die Logik. Kontext Die eigene Kreation, die Logos und Ratio einsetzt. Modularität Internetsoziologie basiert auf Grundsätzen bzw. Bausteinen. Modular zusammensetzbar. Die Internetsoziologie-Theorie Es gibt keine Theorie. An ihre Stelle tritt bastelndes Denken. Nichts Statisches. Keine Glaubenssätze. Wie Popper sagte: Lasst Theorien sterben. Internetsoziologie lässt sie hoffentlich gar nicht erst entstehen – zumindest nicht über Theorieelemente hinausgehen. Imagination Sie ist essentieller Bestandteil des Bastelnden Denkens. Digitalisierung ist Imagination. Experiment Status Quo im Forschungs- und Arbeitsbereich Internetsoziologie.

278

3 Methodik

Eigengesetzlichkeiten Nicht alle aufzählbar, deshalb Methode zur fallweisen Identifikation nutzen: extrahieren, was geht. Abfolge in der BD-DB Die Kernabfolge im Bastelnden Denken: erst den Sachverhalt feststellen, dann die passende Antwort dazu eintragen. Ursprung der Quellenideen Auslöser für die Erkenntnisse hinsichtlich der Quellenbewertung im Bastelnden Denken war die quantifizierbare Einfallslosigkeit zahlreicher Aussagen: eine Google-Suche offenbarte die Trivialität vieler Gedanken und Strukturen. Zitierweise Die Form einer Referenz kann nur Nebensache sein. Denken Sie an Citavi und die 8000 Zitierweisen. Was anderes als eine Nebensache könnten sie sein? Links statt Fußnoten Fussnoten weglassen zugunsten von Links: Früher wäre dies sicher ein Affront gewesen, heute ist man jedoch „always on“, und damit ist die Möglichkeit der permanenten Überprüfung der Normalzustand. Ergo: Zeiten- und damit Sinneswandel. Twitter und Hashtags Es ist kein falsches Zitieren, wenn man in Twitter einzelne Wörter mit der Raute kennzeichnet und sie so zu einem Hashtag macht („#Digitalisierung“). In Twitter ergibt das Sinn, ja: dient gezielt der Distrubution und ist damit technisch sehr hilfreich. Ohne Twitter wäre es hingegen nicht völlig abwegig, von einer Verfälschung des Zitats zu sprechen – wobei hier eine Anmerkung entsprechende Befürchtungen heilen würde. Schöpfungshöhe von Sinneinheiten, Sätzen und Absätzen: Was verblassen soll, muss zuvor erst einmal erstrahlen. Richtiger Ansatz The value of establishing such an energetic and forward-thinking approach lies in the fact that the amount of human knowledge accessible to sociologists via physical reading is, in fact, very limited. With „genetic“ analysis of word frequency usage in a digitized era, we are likely to

3.3 Die Modularität des Werkzeugkastenzugangs

279

achieve theoretical inspirations and academic knowledge that the early generation of sociologists could not even have imagined.570

Prinzipiell ist diese Idee sehr interessant. Sie greift den Ansatz auf, der auch im Bastelnden Denken enthalten ist: unsere Aufnahmekapazitäten sind begrenzt und wir brauchen neue Strategien und Analyseformen. Big-Data-Analysen können helfen, wobei der Ansatz hier ein sehr technischer ist, während der BD-Ansatz ein sehr individueller, menschlich-handwerklicher ist. Aber die Grundannahmen sind ähnlich.

3.3 Die Modularität des Werkzeugkastenzugangs Wenn für die Inhalte eine Modulbauweise sinnvoll erscheint, sollte dies auch für die Werkzeuge der Fall sein, denn beides gehört untrennbar zusammen. Nach dem ersten Schritt der Anerkennung eines radikalen, revolutionären (anstelle eines evolutionären, ggf. auf bestehenden Lösungen aufbauenden) Ansatzes auf Basis der ermutigenden und fruchtbaren Inspirationen von Levi-Strauss und Heisenberg folgte im Prozess der Entwicklung somit der zweite Schritt: es erscheint nicht nur akzeptabel, Probleme radikal anders angehen zu wollen, sondern dies durch die freie Wahl der Mittel auch zu können. Freilich muss man aber nicht immer in allen Bereichen ganz neu starten, wenn man radikale Veränderungen herbeiführen will. Auch ein komplett neues Bewertungs- und Einsatzsystem für Sinneinheiten lässt es zu, sich der alten Methoden zu erinnern, die zielführend erscheinen, und deshalb ganz im Sinne von Michel Foucault und Friedrich Kittler von einem Werkzeugkasten zu sprechen, den man sich aus alten und neuen sozialwissenschaftlichen, technikwissenschaftlichen und epistemologischen Ideen zusammenstellen kann: „Kittler ermöglicht einen Werkzeugkastenzugang. Man kann seinen Turing aufgreifen, ohne sich um seinen Lacan kümmern zu müssen.“571 Diese Vorgehensweise – die Interessierten beispielsweise in Form einer frei verfügbaren Datenbank (oder zumindest des frei verfügbaren Konzeptes) des Bastelnden Denkens als Fundament ihrer eigenen Überlegungen und Projekte dienen kann – ist jedoch, trotz der hiesigen Überlegung, dass sie angesichts der Herausforderungen durchaus wünschenswert erscheint, in der Sozialwissenschaft keinesfalls immer üblich: In einem außergewöhnlichen Maße verweigert sich [Niklas] Luhmann jenem rezeptions- und importförderlichen Werkzeugkastenzugang, der bei Foucault oder Benjamin so gut funktioniert. Sein theoretischer Apparat ist derart in sich verknotet und verschachtelt, dass man nicht einfach hineingreifen und Dieses oder Jenes herauslösen kann. Gibt man Luhmann den kleinen

570 https://www.thesociologicalreview.com/blog/centuries-of-sociology-in-millions-of-books. html, abgerufen am 5.5.2019. 571 https://www.heise.de/tp/features/Deutschland-ist-ein-Medienprodukt-3406021.html, abgerufen am 6.2.2018.

280

3 Methodik

Finger, will er gleich den ganzen Arm. Kennenlernen und Verarbeiten dieser Theorie erfordern vor allem in der Zündphase der Rezeption einen Zeitaufwand, der auf viele abschreckend wirkt und den sich viele schlicht nicht leisten können.572

Diese Aussagen des kanadischen Medienwissenschaftlers Geoffrey Winthrop-Young über den Kerngedanken des Werkzeugkastenzugangs (hier: bei Friedrich Kittler bzw. eben nicht bei Niklas Luhmann) illustrieren sehr gut die entscheidende Problematik: ganzheitliche Theoriegebäude zur Beschreibung einer Gesellschaft (oder spezifischer Phänomene in ihr) haben es schwer, gerade in anwendungsorientierten technikwissenschaftlichen Kontexten und vor allem dann, wenn sie schwer zu erschließen sind und sich schnell die Frage stellt, ob man ihnen innewohnende Sinneinheiten, Aspekte oder Merkmale überhaupt für die eigene Analyse nutzen kann. Selbst für Soziologinnen und Soziologen ist Luhmann keine leichte Kost und es stellt sich stets die Frage nach der Sinnhaftigkeit eines Hineintauchens in die Denkwelten dieses zweifellos großen Systemtheoretikers, wenn die Mühe groß und der Ertrag vermutlich eher gering ist. Zielführender scheint da eben doch ein Werkzeugkastenzugang zu sein, sprich: eine modulartige Herangehensweise, ein kaleidoskopisches Konzept, bestehend aus – auch unabhängig funktionierenden – Einzelelementen. Was passend erscheint, kann genutzt, modifiziert oder erweitert werden – mindestens als Inspiration, maximal als komplettes Werkzeugset. Dabei erscheint es wichtig, zwei Koordinaten im Auge zu behalten: – Sämtliche Werkzeuge, egal, ob Einzelelement oder größeres Ganzes, müssen eine logische und zugleich brauchbare (Weiter-)Entwicklung sein, um sie im Alltag anwenden und kontinuierlich weiterentwickeln zu können. Was gebraucht wird, sind aus der Gesamtheit der verbesserten oder neuen Werkzeuge resultierende dauerhaft gültige Ansätze einer digitalen Theorie, deren Kernideen maximal den gegenwärtigen Erfordernissen angepasst werden, jedoch ohne gleich eine neue Grundlage schaffen zu müssen. Dies ist für anwendungsorientierte Forschung und Entwicklung unabdingbar, denn es sind gerade die induktiven Analysen, die sowohl gefordert werden als auch besonders hilfreich sind. Sehr häufig wird noch der zuvor bereits beschriebene Fehler gemacht, einzig alte Methoden auf neue Phänomene anzuwenden. Dies führt jedoch aufgrund falscher Prämissen auch zu falschen Ergebnissen, die nicht nur an sich unbrauchbar sind, sondern auch im Sinne einer vertiefenden Analyseentwicklung in eine Sackgasse führen (Folgefehler). Logik und Brauchbarkeit sind somit unantastbarer Bestandteil dieser Arbeit. – Das Fokussieren auf logikkompatible Brauchbarkeit ist zugleich das Ablehnen aller unbrauchbaren und unlogischen Aspekte: Sinn und Zweck einer Analyse kann im digitalen Bereich nur sein, Lösungen für digitale Probleme zu

572 https://www.heise.de/tp/features/Die-Zeit-der-Kulturkriege-ist-vorbei-3405751.html, abgerufen am 6.2.2018 (mit eigenen Betonungen).

3.3 Die Modularität des Werkzeugkastenzugangs

281

präsentieren – in Anknüpfung an Karl Poppers erkenntnistheoretische Aussage „Alles Leben ist Problemlösen“. Aus diesem Grunde sollte die Abgrenzung dort erfolgen, wo Theorien Praktikabilität (Brauchbarkeit) und Verständlichkeit (Logik) im jeweiligen Nutzungskontext hinter sich lassen. Es ist für den Alltag wohl nicht besonders hilfreich, bis zum Ende der Verstandesleistung und völlig losgelöst von allen Sachlagen zu theoretisieren und dabei die Brauchbarkeit in der Anwendung völlig außer Acht zu lassen. Es ist eine Abgrenzung, eine Rahmung nötig, die andeutet: ab hier verlassen wir den Pfad der Lösung gegenwärtiger Phänomene und wagen uns dann in Bereiche vor, die gegenwärtig noch nicht, jedoch vielleicht zukünftig sehr wertvoll sein können. Unter dieser Prämisse eines potentiell brauchbaren Vorratswissens für die Zukunft kann man sicherlich weiterdenken, jedoch sollte dieser Schritt klar gekennzeichnet sein (beispielsweise dadurch, dass die so entstehenden Sinneinheiten in einer eigenen BD-DB gespeichert werden). So sinnvoll fließende Übergänge im Denken auch sein mögen: im Schreiben der konkreten Analyse sind sie zu vermeiden. Projektorientiertes Arbeiten ist in den Geistes- und Sozialwissenschaften – anders als in den Technikwissenschaften – nicht gerade unumstritten. Nicht selten ist zu vernehmen, dass „Auftragsforschung“ die Grundlagen vernachlässige, „unfrei“ (weil geldgeberabhängig) oder gar interessengesteuert sei und viele Menschen bei einer Auftragsarbeit eine „Schere im Kopf“ hätten, die ihnen unterbewusst allzu geldgeberkritische Äußerungen entferne. Dabei haben die einzelne Wissenschaftlerin bzw. der einzelne Wissenschaftler nicht nur grundgesetzlich geschützt sehr große Spielräume. Auch das Argument der schlichten Notwendigkeit wiegt schwer: die Digitalisierung erfordert ständig neue Lösungsansätze, die in (drittmittelfinanzierten) Projekten sicherlich schneller zu realisieren sind als in grundlagenorientierten, sehr langfristig denkenden (und oftmals langatmig agierenden) Elfenbeintürmen – gefragt ist digitale Problemlösung, nicht nur digitale Problematisierung.573 Der Faktor Zeit spielt hier eine entscheidende Rolle. Abgesehen davon wird eben auch an dieser Stelle der Philosophie Karl Poppers gefolgt, welcher sich maßgeblich für eine Stückwerktheorie einsetzte und den großen Weltenentwurf eher kritisch sah. Alles Leben ist Problemlösen, was im Übrigen auch den großen Gedanken aus dem Elfenbeinturm erdet. Dieser Logik sollte gefolgt werden. Das Bastelnde Denken exzerpiert eine neue oder bereits vorhandene Information (jeweils in Form einer einzelnen Sinneinheit) und führt danach zur Überprüfung der Passung zur jeweiligen Aufgabe und zum jeweiligen Kontext. Die Projektorientierung, welche eine inhaltliche Grundlage schaffen will, ist somit nichts anderes als eine Feldbeobachtung: welche Sinneinheit passt wie zum jeweiligen Projekt? Wo

573 https://www.freitag.de/autoren/internetsoziologe/wissenschaftliches-care-paket-google-finan ziert-internet-institut, abgerufen am 3.8.2018.

282

3 Methodik

tauchen Lösungsansätze, Ideen, Theorien, Anwendungen usw. auf, die sich zielführend nutzen lassen? Diese Feldbeobachtung, diese konkrete Fallanalyse ist das Mittel der Wahl. Sie erscheint vor allem deshalb sehr sinnvoll, weil durch die radikale Reduktion auf das Element „Sinneinheit“ ausnahmslos alle sinnvoll erscheinenden Quellen erschlossen und beliebig genutzt werden können: nicht nur wissenschaftliche Dokumente, Bücher oder Projektberichte können dienlich sein, sondern auch Netzdokumente wie FAQs, Newsgroup-Netiketten, Tweets, Chatprotokolle, aber eben auch Musik oder Videos. Die Sinneinheiten sind das Fleisch am Skelett der BD-DB. Sie ergeben stets allein, aber eben auch in der (logischen und brauchbaren) Verknüpfung Sinn. Sie sind die Werkzeuge im Kasten, die weiterhelfen sollen.

3.4 Das heuristisch fundierte Bestreben der Ausbildung eines Maschinenflüsterers Die eine welterklärende Theorie ist zu verneinen, trotzdem existiert bei vielen Menschen eine große Sehnsucht nach ExpertInnen, die ihnen die Welt erklären. Es ist meine Sicht auf die Dinge, dass solcherlei ganzheitliche Welterklärungen für die Zukunft allesamt keinerlei brauchbare Aussagekraft haben dürften, weil sich die Rahmenbedingungen permanent stark ändern. Mehr denn je sind Welterklärungen Momentaufnahmen – die sie zwar schon immer waren, jedoch niemals so nah an der Grenze zur maximalen Flüchtigkeit. Das Eigengesetzliche der Digitalisierung ist permanent in Bewegung. Diese Erkenntnis ist hochrelevant, keine Frage, aber zugleich ist sie so abstrakt, dass sie konkret in den wenigsten Fällen in der jeweiligen Konfiguration weiterhelfen wird. Deshalb ist der Wunsch nach Weltenerklärung nur auf eine Art und Weise zu erfüllen: durch den Maschinenflüsterer. Die Arbeit von Gigerenzer zum Thema Heuristiken ist hierbei von entscheidender Bedeutung. Digitalisierung ist komplex, und zwar in einem Maße, welches Menschen schnell überfordert. Durch die stets komplexer werdende Digitalität ist ein einfacher Einblick in die Funktionsweise der Technik immer schwieriger geworden. Während der Verbraucher früher beispielsweise seinen (analogen) Videorekorder zumindest noch verstehen und unter Umständen zumindest teilweise – mit ein klein wenig handwerklichem Geschick und Technikkenntnis aus anderen Bereichen wie Job oder Hobby – selbst reparieren konnte, so ergab sich in der digitalen Welt erstmals mit Einführung der Surface Mounting Technology574 (SMT) gegen Ende der 1980er Jahre ein Ende dieser Phase, da diese Technologie die Reparatur zu Hause aufgrund ihrer Bauform erheblich erschwerte. SMD-Motherboards waren zwar kleiner und sicher auch einfacher bzw. kostengünstiger in der Massenfertigung, doch die kleine

574 Surface Mounted Device. http://de.wikipedia.org/wiki/Surface_Mounted_Device, abgerufen am 24.2.2007.

3.4 Das heuristisch fundierte Bestreben der Ausbildung eines Maschinenflüsterers

283

Bauweise wurde durch eine direkte Aufbringung der Chips auf dem Board erreicht. Sockel, wie früher noch den Chipaustausch ermöglichten, gab es nicht mehr. Stattdessen „klebte“ man einfach alles auf die Platine. Es blieb somit im Falle von Problemen oder Austauschwünschen zumeist nur der Gang zur Fachwerkstatt übrig – oder der komplette Austausch. Hinzu kommt das Komplexitätslevel: nicht nur, dass Chips kaum mit Schraubenzieher und Lötkolben zu reparieren sind, sie sind auch dermaßen komplex, dass man seit etlichen Jahren schon entsprechend Entwicklungsabteilungen mit Hunderten bis Tausenden von Spezialisten benötigt, um diese hochkomplexen Chips zu designen. Wenn selbst die Entwickler die Komplexität nur noch in Form von riesigen Teams bewältigen können, hat der Endkunde kaum eine Möglichkeit, dieser Entwicklung durch eigene Einwirkung entgegenzuwirken. Wir sind unterm Strich längst von einem System abhängig geworden, von dem „wir nicht mehr sagen können, wir sind die Herren.“575 Eingriffe (in einem internetsoziologisch gewünschten, weil ausreichend viel Kontrolle ausübenden Maße) sind nicht mehr möglich, es sei denn, man wird selber Spezialist und bedient sich der Hilfe anderer Spezialisten – was freilich für den Durchschnittsanwender keine Option ist. Doch Eingriffe sind nicht nur nicht mehr ausreichend möglich – sie sind auch schlicht und ergreifend nicht gewünscht. Es wurde bereits 2008 darauf verwiesen, dass beispielsweise Trusted Computing ein Mittel ist, um einen Einblick in die digitale Realität, hinter die technischen Kulissen, zumindest zu erschweren. Ein anderes, gern eingesetztes Werkzeug ist neben einem Verbot schlicht Verblendung: Durch die Digitalisierung erfolgte eine Auffächerung des Produktangebotes – es gibt mehr digitale Geräte (und damit auch Gerätekategorien) denn je. Zwar kann der heutige „klassische“ Personal Computer als Standalone-Maschine (sprich: heutzutage oftmals in Form eines Laptops/Notebooks) nahezu alles, was für den Endverbraucher im Digitalsegment interessant und spannend ist (vom „normalen“ Internetzugang zum Browsen, Mailen und Chatten über VoIP-Telefonie via Skype bis zum Spielen anspruchsvoller Spiele), jedoch hat sich das Produktangebot gleichzeitig immer weiter aufgefächert. Dieser Trend wurde erstmals 1992 mit der Einführung des digitalen Mobilfunks allgemeingesellschaftlich besonders deutlich: Telefonie gab es nun nicht nur analog und ortsgebunden, sondern auch digital und unabhängig von Schnur und Anschlussdose.576 Musste der Durchschnittsverbraucher in den 1980ern lediglich wenige (analoge) Geräte wie Fernseher, Radio und Videorekorder bedienen, hat er heute eine Fülle von Geräten zu beherrschen, die in ihrer Komplexität alleine bereits überfordern, geschweige denn im Verbund. Neben einem Smartphone buhlen auch noch digitale Videorekorder, Tablets, Spielekonsolen (Handhelds und stationäre Geräte für zu Hause) und Pay-TV-, Satelliten- oder Kabel-Geräte um Aufmerksamkeit.

575 Friedrich Kittler, Stefan Banz. Platz der Luftbrücke. Ein Gespräch. http://www.xcult.org/banz/ texte/banzkittler.html, abgerufen am 5.5.2019. 576 Mit der Unabhängigkeit von der Anschlußdose ist die Sim-Karte gemeint, die „das Telefon“ im Sinne des Anschlusses darstellt.

284

3 Methodik

Ganz zu schweigen von Notebooks, Apple- und Windows-PCs samt aller Must-haves von E-Mail und PowerPoint, deren Beherrschung im Berufsleben sowieso (für viele eine lästige) Pflicht577 ist. Nebenbei ist auch die Installation eines DSL-, WLANoder Digital-TV-Anschlusses mittlerweile eine erfolgreich zu absolvierende Pflichtübung geworden. Hinzu kommen in den letzten Jahren immer mehr Smart-HomeGerätschaften, beispielhaft für alle ubiquitären Ideen, die Einzug in unsere Lebenswelt finden. Zwar findet auch ein Wegfall alter Medien bzw. eine Verlagerung von Interessen statt, doch es ist auch weiterhin feststellbar, dass die Tiefenschärfe der User eher abnimmt und ein tiefgehendes Interesse an den Hintergründen der Technik abnimmt.578 Daher liegt nichts näher, als diese zahlreichen Systeme immer bedienerfreundlicher zu gestalten, so dass sie nur für eine „einzige und unverwechselbare Adresse da (. . .) sein“579 können. Zwar ist Bedienerfreundlichkeit in Form möglichst intuitiver Nutzbarkeit eine der wohl wichtigsten Bedingungen für die Massenverbreitung und die Akzeptanz in der Bevölkerung, jedoch liegt in der immer benutzerfreundlicheren Gestaltung auch eine Täuschung verborgen, die vom Wesentlichen ablenken soll. Je mehr man mit bunten Piktogrammen geblendet und bespasst wird, desto weniger will man ins System hineinschauen – es ist ja für die Erfüllung der täglichen Wünsche auch gar nicht nötig. Die beste Lösung dieser Problematik wären freilich Programmierkenntnisse zum Durchschauen des Bösen. Doch diese Lösung liegt, so beispielsweise Friedrich Kittler, noch weit weg: „Viel produktiver wären Synergien zwischen Mensch und Maschine, die zwar auch keine Dekelhauben (sic!) öffnen, aber doch mit allen Knöpfen spielen.“580 Eine Erlösung aus der selbst verschuldeten digitalen Unmündigkeit ist also nicht nahe. Die User bleiben weiterhin User und bei dem Versuch, „mit den Händen zu denken und die Blackboxes im praktischen Umgang auszuloten“.581 Wir passen uns also augenscheinlich den Maschinen an, anstatt sie zu beherrschen. Von einem „Maschinenflüsterer“, jemandem, „der

577 Studie: E-Mail-Flut ist Belastung im Beruf. http://www.heise.de/newsticker/meldung/74599, abgerufen am 21.2.2007. 578 Schärfere Wahrnehmung und langsameres Denken durch neue Medien. http://www.heise.de/ newsticker/meldung/10661, abgerufen am 21.1.2019. Freilich gibt es neben zahlreichen positiven Ergebnissen diverser Forschungsvorhaben auch Studien mit negativen Befunden, doch sollte neben aller Vorsicht stets vor alarmistischem Unsinn gewarnt werden. Auch wenn die hier genannte Studie, welche der BD-DB entstammt und im Jahr 2007 eingepflegt wurde (und damit als längst veraltet bezeichnet werden dürfte), so beschreibt sie den übergeordneten Sachstand insgesamt recht deutlich: Menschen verändern sich durch Digitalisierung, und zwar in hochrelevanten Bereichen wie der Wahrnehmung. 579 Kittler, 1993. S. 212. 580 Hartmut Winkler: Flogging a dead horse ? http://wwwcs.uni-paderborn.de/~winkler//flog ging.html, abgerufen am 27.2.2007. 581 Hartmut Winkler: Flogging a dead horse ? http://wwwcs.uni-paderborn.de/~winkler//flog ging.html, abgerufen am 27.2.2007.

3.4 Das heuristisch fundierte Bestreben der Ausbildung eines Maschinenflüsterers

285

den unbewussten maschinellen Code so beherrscht, dass er sie (sic!) sehr wohl zur souveränen Anwendung und damit zur Beherrschbarkeit bringen kann“582 trennt den Durchschnittsnutzer mit Sicherheit einiges. Schreiben auf Codeebene anstatt bunter Oberflächen, die zahlreiche Mausklicks erfordern, das entspricht für Kittler einer sehr puritanischen Denkfigur, die sich so auch bei Immanuel Kant findet: „In seiner Verteidigung des alttestamentarischen Bilderverbots zur Hebung der Moralität verteidigte bereits Kant jene Negativität, die am besten noch vom Schriftgelehrtentum verkörpert wird, während das gemeine Volk mit Bildern bei der Stange gehalten wird.“583 Zweifelsfrei wäre die Beherrschung von Code und Maschine ein enormer Gewinn für alle Beteiligten, jedoch sieht es mit der alltäglichen Umsetzung dieser Idee eher schwierig aus. Einer ganz simpler Grund dafür ist – fern aller vermeintlichen bösen Versuchungen durch die Softwareindustrie und ihre schrill-bunten Benutzeroberflächen, die von Wesentlichen ablenken sollen – schlicht der Faktor Zeit.584 Da die Produktzyklen immer kürzer und die Vielfalt der Geräte immer größer wird, ist eine Beschäftigung mit diesem Bereich in der Freizeit- und Lebensgestaltung des Durchschnittsusers kaum mehr machbar. Für immer mehr Geräte steht immer weniger Zeit und somit immer weniger Raum für die Erforschung der Geräte zur Verfügung, was freilich fatale Folgen585 haben kann. Dass der mündige Kunde König und somit Herrscher bleibt, scheitert somit weit vor der bedeutsamen und entscheidenden Programmierhürde an viel banaleren Gründen. Ein „Maschinenflüsterer“, also der sozial begabte und zugleich technisch versierte Spezialist, der sich den digitalen Phänomenen professionell widmet, erscheint da schon realistischer. Ein Mensch, der sich dieser Aufgabe professionell widmet – eben beispielhaft als InternetsoziologIn – hat hier freilich bessere Karten. Während des Analyse- und Arbeits-Prozesses wird der Forscher automatisch zum Experten und verbessert sein Wissen mit jedem Schritt. Dieser Prozess zielt auf Kittlers „Maschinenflüsterer“ ab, eben den Titel, den Frank Hartmann denjenigen gab, die einen Computer so kompetent benutzen, wie Kittler es gemeint haben könnte (und wollte), wenngleich Hartmann diesen Titel etwas provokanter zu verwenden schien. Aber aus einer anderen Perspektive klingt diese Idee gar nicht falsch. „Maschinenflüsterer“ nutzen den Computer nicht nur erfolgreich, sie können auch aufgrund ihrer Erfahrung mit heuristischen Entscheidungen ein Vorbild sein. Damit lehnt sich der Gedanke an die Heuristik-Erkenntnisse von Gerd Gigerenzer an, dessen Arbeit zeigte, dass

582 Frank Hartmann: Vom Sündenfall der Software. http://www.heise.de/tp/r4/artikel/6/6345/1. html, abgerufen am 27.2.2007. 583 Frank Hartmann: Vom Sündenfall der Software. http://www.heise.de/tp/r4/artikel/6/6345/1. html, abgerufen am 27.2.2007. 584 Studie: Yahoo erforscht die „i-Generation“. http://www.heise.de/newsticker/meldung/54467, abgerufen am 21.2.2007. 585 http://www.staysafeonline.org/pdf/safety_study_v04.pdf, abgerufen am 21.2.2007.

286

3 Methodik

a) Einzelpersonen und Organisationen sich oft adaptiv auf einfache Heuristiken verlassen, und b) das Ignorieren eines Teils der Informationen zu genaueren Beurteilungen führen kann als das Gewichten und Hinzufügen aller Informationen, zum Beispiel für geringe Vorhersagbarkeit und kleine Stichproben.586

Das ist genau der allgemeine Aufbau, den wir bei der Analyse digitaler Phänomene haben. Daher sollte die Konzentration auf einen heuristischen Ansatz sehr hilfreich sein, zumindest für einen ersten Schritt in der Entscheidungsfindung – was oft ausreichend ist. Es könnte sogar die einzige realistische Methode sein, die aufgrund flüchtiger Phänomene zur Verfügung steht. Ein Maschinenflüsterer ist aber nicht nur im Sinne Gigerenzers eine gute Idee, sprich: im Sinne individueller Problemlösung. Es geht dabei auch ums „große Ganze“: um die deutsche Gesellschaft. Wenn digitale Kultur der Schlüssel zur Beherrschung der Herausforderung der Digitalisierung ist, brauchen wir viele Maschinenflüsterer.

586 http://library.mpib-berlin.mpg.de/ft/gg/GG_Heuristic_2011.pdf (eigene Übersetzung), abgerufen am 17.5.2019.

4 Anwendung in Forschung und Praxis – Sociality by Design Auf Basis der Ausführungen in den Kapiteln 2 und 3 entstand nun das wesentliche Rahmenkonzept anwendungsorientierter Internetsoziologie: Sociality by Design. Das Konzept wird gegenwärtig teilweise oder komplett durch mich in zahlreichen Projekten und Kontexten angewendet, und das in all denjenigen Fällen, in denen es in irgendeiner Form einsetzbar erscheint. In diesem Kapitel folgt nun eine Übersicht über einige ausgewählte Projekte und Vorhaben. Die erste Idee, die ich Sociality by Design nannte, der Ursprung dieses Rahmenkonzepts, soll dabei freilich nicht unerwähnt bleiben: das sozial-technische Vier-Stufen-Modell. Dieses Modell ist der Nukleus von Sociality by Design. Alles begann im Jahre 2011 mit dem Thema Identitätsmanagement, welches ich seit 2008 bei verschiedenen Gelegenheiten präsentierte. Somit wurde eines der ersten (und wichtigsten) Themenfelder der Internetsoziologie der Bereich Identitätsmanagement. Es zeigte sich sehr schnell, dass klassisches Identitätsmanagement, sprich: die rein technische Besetzung der digitalen Identität durch Username und Passwort, längst zu kurz griff. In meinem Projekt Digitale Identitäten konnte ich zahlreiche Einflüsse und auch Angriffe auf die digitale Identität des Individuums der Gegenwartsgesellschaft aufzeigen. Hier zeigte sich auch recht deutlich der Unterschied zwischen einer ausschließlich technischen und einer sozial-technischen Betrachtung: während die technische Betrachtung ausschließlich auf die Rolle von Username und Passwort (und ggf. entsprechende Erweiterungen wie weitere Authentifizierungsfaktoren) fokussierte und die Lösung aller Probleme rein technisch sah, wurde schnell klar, dass ein sozial-technisches Modell nicht nur realistischer und proaktiver ist, da es die lebensweltlichen Belange der UserInnen berücksichtigt, sondern ein entsprechendes Modell auch komplexer sein muss. So entstand am Ende dieses ersten Entwicklungsschritts „sozial-technisches Identitätsmanagement“,587 welches den Menschen und seine unterschiedlichen Bedürfnisse (Ebene 1 bis 3: allgemeine, kollektiv relevante Bedürfnisse, z. B. Datenschutz, Datensicherheit, digitale Ethik, realistische Usability, realistische Authentifizierungsmöglichkeiten; Ebene 4: individuelle, durch den User auszuprägende Bedürfnisse, z. B. Zeitpunkt, Ort, Form und Häufigkeit der Anwendung) in den Mittelpunkt stellt und nicht eine rein maschinelle Problemlösung im Sinne der Verwaltung von Username

587 Mobiler Zugang zum Dokumentenschrank – Zeitung Heute – Tagesspiegel. http://www. tagesspiegel.de/zeitung/mobiler-zugang-zum-dokumentenschrank/1969268.html, abgerufen am 6.9.2011. https://doi.org/10.1515/9783110559767-004

288

4 Anwendung in Forschung und Praxis – Sociality by Design

und Passwort. Angelehnt an das OSI-Schichtenmodell588 und darauf aufbauend ergibt sich folgende Systematik in Form des sozial-technischen Plus-Vier-Modells589: Ebene 4 (unechte bzw. Hauptebene): User Ebene 3 (soziale Ebene): soziologische/psychologische Aspekte Ebene 2 (kosmetische Ebene): User Interface, Usability, etc. Ebene 1 (hybride Ebene): klassisches IDM (Accountgestaltung usw.) Unterhalb von Ebene 1 knüpfen weitere Ebenen bzw. Schichten an, so wie sie seitens der Systematik das OSI-Schichtenmodell vorgibt. Damit setzt das Plus-Vier-Modell im Sinne einer Entwicklungs- bzw. Strukturlogik dort an, wo das OSI-Schichtenmodell aufhört (hier: über der Anwenderebene). Dadurch wird die ganzheitliche Betrachtung von Identität im digitalen Raum erstmals systematisiert – und das, nebenbei gesagt, aufgrund der Anlehnung an das OSI-Modell in einer Form, die auch für Techniker direkt verständlich sein dürfte. Die Schichtung soll dabei vor allem zeigen, dass alle Ebenen durchweg relevant sind: da Digitalisierung, die Beherrschung derselben sowie die persönliche Weiterentwicklung in diesem Themenfeld prozessual sind (und nicht ein irgendwann abgeschlossener Lernzustand, wie beispielsweise ein Schulbesuch samt Abschluss), müssen (Weiter)Entwicklungen bzw. Updates permanent auf allen Ebenen laufen. Zudem wird die Relevanzstruktur des OSI-Schichtenmodells fortgesetzt. Die Erkenntnisse dieser Arbeit wurden nicht nur sehr konkret in ein Forschungsprojekt zur Entwicklung von Einsatzszenarien für den neuen Personalausweis (nPA)590 eingebracht, sondern dienten auch ganz allgemein als Grundlage für den Einsatz eines ganzheitlichen Identitätsmanagements, welches rechtliche (z. B. “Privacy by Design”591) und soziologische Aspekte (z. B. Internetsoziologie) von Beginn an mit einbezieht, um ein umfassendes Ergebnis zu erhalten. So entstand Sociality by Design mit seinem ersten Anwendungsfall, dem Identitätsmanagement. Der Schritt in andere (sicherheitsrelevante) Anwendungsfälle war somit nicht nur nicht weit, sondern fast schon zwangsläufig. Eine entsprechende Weiterentwicklung dieses ersten und damit noch sehr ausbaufähigen Modells allerdings auch.

588 OSI-Modell. https://secure.wikimedia.org/wikipedia/de/w/index.php?title=OSI-Modell&ol did=93128440, abgerufen am 6.9.2011. 589 Erstmals en detail vorgestellt und diskutiert auf der European Identity Conference 2011 in München, siehe http://www.kuppingercole.com/sessions/901, abgerufen am 6.9.2011. 590 http://http://www.internetsoziologie.at/de/?page_id=4#toc-ausgewhlte-wissenschaftliche-ttig keiten, abgerufen am 3.5.2019. 591 Vgl. http://privacybydesign.ca, abgerufen am 6.9.2011.

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

289

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung Sociality by Design wurde bisher zweimal in der Sicherheitsforschung angewandt, darunter einmal als reine Inspiration innerhalb eines Projekts (MisPel) und einmal als konkrete Basis für ein Projekt (PERFORMANCE) im Rahmen der drittmittelgeförderten Verbundforschung. Darüber hinaus werden in Kapitel 4.2 weitere Anknüpfungsmöglichkeiten gezeigt, die seit dem damaligen Zeitpunkt (Anfang 2019) zu weiteren Forschungsvorhaben führen können, jedoch als Beiträge auch durchaus für sich selbst stehen. Zuerst sollen aber die beiden Forschungsprojekte MisPel und PERFORMANCE im Detail vorgestellt werden, damit ein Einblick in die Sociality-by-DesignKomponente und ihre Weiterentwicklung möglich wird. Das Projekt MisPel (MultiBiometriebasierte Forensische Personensuche in Lichtbild- und Videomassendaten) war ein Verbundforschungsprojekt, welches von 2012 bis 2015 lief und vom Bundesforschungsministerium gefördert wurde. Ich war in diesem Projekt zuständig für die sozialwissenschaftliche Begleitforschung (“MisPel-S”). Der Verbund widmete sich vorrangig den folgenden Aspekten: – Multi-Biometrie im Allgemeinen – Multi-biometrische Personensuche/-detektion – Nah- und Fernbereichsbiometrie im Allgemeinen – Soft-Biometrien – Recht auf informationelle Selbstbestimmung – unantastbarer Kernbereich persönlicher Lebensgestaltung – Datenschutz MisPel basierte hinsichtlich der soziologischen Komponente bewusst und mit voller Absicht sehr stark auf Projekt Alpha, welches Sie bereits im ersten Kapitel kennengelernt haben. Demzufolge werden Sie hier auch etliche Informationen finden, die wir bereits in Projekt Alpha eingebracht hatten. So war die aus soziologischer Sicht bedeutendste angestrebte Innovation auch in diesem Projekt die neuartige Definition eines unverletzlichen Kernbereichs von Privatsphäre, sprich: eines „kleinsten gemeinsamen Nenners“. Denn der Fokus bei soziologisch-technischen Analysen sollte auch in MisPel unzweifelhaft auf der Digitalisierung der Lebenswelt liegen, da anhand zahlreicher Beispiele gezeigt wurde, wie „analoge Strategien“ bei der Bewältigung digitaler Herausforderungen versagt haben.592 Die sozialwissenschaftliche Begleitforschung unterstützt – so wie die rechtswissenschaftliche Begleitforschung – die Technikziele maßgeblich, indem interdisziplinär die gesamtgesellschaftliche Relevanz des Vorhabens sichergestellt wird. MisPel

592 Lessig, 2004; Humer, 2008

290

4 Anwendung in Forschung und Praxis – Sociality by Design

ermöglicht den Anwendern eine neue Form der Personensuche in Lichtbild- und Videomassendaten, die damit auch neue gesellschaftliche Fragen aufwirft. Auch wenn der Schutz vor Bedrohungen im Vordergrund steht, so ist bekanntlich kein System ohne Nachteile. Da hier Gesellschaft und Individuum maßgeblich betroffen sind, ist eine entsprechende sozialwissenschaftliche Analyse geboten. Diese Analyse ist damit Teil der gesamten Innovationskette. Die Entwicklung eines kleinsten gemeinsamen Nenners liegt im vitalen Interesse der Technikpartner, da dieser Punkt entscheidend und untrennbar mit der Akzeptanzfrage der gesamten Lösung verwoben ist. Mithilfe einer – wie auch bei Projekt Alpha vorgesehenen – Adaption der soziologisch relevanten Grundregeln des Datenschutzes593 auf das Projektziel im Rahmen der Überwachung von Liegenschaften und öffentlichen Orten mit (bildgebenden) Sensoren wird festgestellt, welche Regeln unabdingbar und welche eher vernachlässigenswert sind. Die Produktion von Datenschutz und -sicherheit ist, und daran hatte sich nichts geändert, aus soziologischer Sicht stets sowohl eine Vertrauens- als auch eine Machtfrage. Das Ziel ist deshalb die Erreichung eines ausgewogenen Verhältnisses zwischen den beteiligten Parteien und die individuelle wie kollektive Akzeptanz einer Untergrenze, die nicht verletzt werden darf bzw. auch (vor allem technisch betrachtet) nicht mehr verletzt werden kann. Diese Idee hielt ich für zu wertvoll, als sie ausschließlich für das (nicht zustande gekommene) Projekt Alpha zu verwenden. Die Festlegung der Vertrauens- und Machtkoordinaten bereits im Vorfeld – also zum Beispiel in der Entstehungsphase eines (anders als bei Projekt Alpha nun:) Videoüberwachungskonzeptes für eine Behörde oder Firma – hat auch diesmal mehrere entscheidende Vorteile: Die Austarierung der Macht erfolgt deutlich früher und somit effektiver und Vertrauensbrüche (v. a. durch die Operatoren einer solchen Lösung) fallen deutlich schwerer. Der Missbrauch technischer Möglichkeiten wird von Anfang an stark minimiert, was die Akzeptanz der Maßnahme wiederum stark steigern kann. Das Aufzeigen von verbindlichen Grenzen entspricht dem Recht der Betroffenen auf Kenntnis von der jeweiligen Maßnahme und ihrem Umfang. Insgesamt würde so eine Lücke geschlossen werden können, die auch in den Jahren zwischen 2009 und 2011 weiterhin für politische und zivilgesellschaftliche Auseinandersetzungen gesorgt und alle Beteiligten und Betroffenen viel Kraft und Zeit gekostet hat. (Ein deutlicher Sinneswandel war hier im Übrigen erst nach dem Anschlag auf den Breitscheidplatz in Berlin im Jahre 2016 erkennbar.) Und selbst wenn das freilich nicht gerade geringe Ziel der Definition einer effektiven Privatsphären-Untergrenze nicht erreicht werden sollte, so hat vor allem die (im Vergleich zu Projekt Alpha nun zweifache Strategie, d. h. die) methodische und inhaltliche Herangehensweise enormes Potential, anderen Forscherinnen und Forschern als Vorbild zu dienen und einen Weg zu ebnen, denn wie bereits

593 Bizer, 2007

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

291

gesagt wurde, erscheint vor allem der monokausale Ansatz zahlreicher Sicherheitsforschungsprojekte als großes Problem, da eine ganzheitliche Betrachtung, die der Aufgabe gerecht wurde, so bisher nicht zustande kommen konnte. Ein ganzheitlicher Diskurs zwischen den drei entscheidenden Dimensionen der Sicherheitsforschung wurde bis jetzt von keinem Vorhaben gewagt. Neben Forschungsprojekten, die sich innerhalb einer Fachrichtung bewegen, gab zwar es (EU-)Projekte, in denen mehrere Dimensionen betrachtet wurde, jedoch geschah dies weder übergreifend noch ausreichend praxisnah und nur in unzureichender Detailschärfe. Im EU-Projekt DYVINE594 aus dem FP 6 lag der Fokus auf der technischen Realisierung eines Überwachungssystems für Krisensituationen. Die Integration von einer hohen Anzahl an festen und mobilen Sensoren und die Entwicklung einer generischen Architektur standen im Vordergrund. Rechtliche Aspekte der Überwachung wurden ebenfalls untersucht.595 Hervorgehoben wurden offene Probleme im Datenschutz, die sich durch die Vernetzung von Überwachungssystemen ergeben. Innerhalb des PRISE-Projekts596 wurden Kriterien und Empfehlungen für privatheitsfördernde Sicherheitstechnologie unter Einbeziehung partizipativer Verfahren entwickelt. Das Projekt gibt einen Überblick über Basistechniken, die aktuellen Sicherheitslösungen zu Grunde liegen und über die Datenschutzgesetzgebung in ausgewählten EU-Ländern. Es wurden Kriterien erarbeitet, die in zukünftigen Sicherheitslösungen berücksichtigt werden sollen. Es werden technische, regulative und organisatorische Maßnahmen genannt, um akzeptable Sicherheitsmaßnahmen zu nutzen, jedoch nicht in einem ausreichenden Masse soziologische Maßnahmen. Das FP7-Programm INDECT597 hatte das Ziel, unterschiedliche Überwachungstechnologien zu bündeln und unterscheidet sich damit ebenfalls maßgeblich von den Zielen dieses Projekts. Die endgültigen Erkenntnisse aus MisPel-S ließen sich dann im Jahre 2015 wie folgt zusammenfassen: Mit dem Projekt „MisPel“, insbesondere aber mit dem Teilprojekt „MisPel-S“ wird ein Forschungsvorhaben vollendet, welches zweifellos seinesgleichen sucht, und zwar sowohl hinsichtlich der Arbeitsthemen und -ergebnisse als auch der persönlichen Leistungen aller Beteiligten. Die in diesem Abschlussbericht festgehaltenen Ergebnisse und getätigten Äusserungen beziehen sich zwar im Wesentlichen auf die Äusserungen und Ideen des Verfassers und Teilprojektleiters, doch sie wären ohne die exzellente Zusammenarbeit innerhalb des Projektverbunds so niemals zustande gekommen. Deshalb kann ich auch keine alleinige Urheberschaft für

594 Dynamic Visual Networks. FP 6. 595 Coudert & Dumortier, 2008 596 Privacy enhancing shaping of security research and technology – A participatory approach to develop acceptable and accepted principles for European Security Industries and Policies. http:// prise.oeaw.ac.at/objectives.htm 597 INDECT. http://www.indect-project.eu/

292

4 Anwendung in Forschung und Praxis – Sociality by Design

diese Kollektivleistungen beanspruchen, füge mich allerdings aufgrund der Projektregularien in die Rolle des primus inter pares und freue mich zugleich über die Möglichkeit, allen interessierten Personen die ersten Arbeitsergebnisse dieses Konsortiums in Form der soziologischen Forschungsresultate vorstellen zu können – wohl wissend, wie sehr der gute Projektverbund, die über Jahre reibungslos verlaufene Zusammenarbeit und die Ideen aller zu dieser Dokumentation beigetragen haben. Da die Arbeitsergebnisse deutlich umfangreicher waren als ursprünglich erwartet, sind weitere Veröffentlichungen vorgesehen, um so viele Informationen wie möglich öffentlich bereitzustellen. Mindestens ein Wiki, wahrscheinlich aber auch (weitere) Präsentationen bzw. Proceedings sind fest vorgesehen. Das Teilprojekt der sozialwissenschaftlichen Begleitforschung im BMBF-Projekt MisPel (intern MisPel-S genannt) beschäftigte sich mit den gesellschaftlichen Aspekten des Gesamtvorhabens. Die Aufgabenstellung war dabei in drei zeitgleich stattfindende Arbeitspakete gegliedert, wenngleich auch im Verlauf des Gesamtvorhabens phasenweise unterschiedlich priorisierte Unterpunkte zu verzeichnen waren: 1. Teilnehmende Beobachtung (T1) der Verbundpartner mit dem Schwerpunkt der Beobachtung von Technikentwicklung und Diskurs 2. Medienbeobachtung (T2) des öffentlichen und wissenschaftlichen Diskurses in Bezug auf Privatsphäre (Privacy), Datenschutz, Datensicherheit und Datensparsamkeit (in Zusammenhang mit dem Projektthema Videoüberwachung) 3. Interviews (T3) mit Anwendern und Experten mit dem Ziel der Effizienzsteigerung des Systems (Demonstrator wie auch finale Version) sowie einer Skizzierung des Missbrauchspotentials aus Endanwendersicht Dieses Triangulation598 genannte Verfahren, also die Anwendung dreier Verfahren zur gleichen Zeit, ist eine etablierte Forschungsstrategie der empirischen Sozialforschung und in der Soziologie weit verbreitet. Die Triangulation hat aus Sicht der Disziplin den Vorteil, dass ein Phänomen aus drei unterschiedlichen Perspektiven beleuchtet wird, um damit eventuelle Schwächen einer einzelnen Perspektive auszugleichen bzw. für ein besseres Gesamtverständnis zu sorgen. Aus Sicht der anderen Projektpartner war der wohl grösste Vorteil, dass ein differenzierteres Bild entstehen sollte, weil man sich nicht nur auf eine Perspektive (beispielsweise Interviews) verlässt. Zudem bin ich der Überzeugung, dass eine Fokussierung beispielsweise ausschliesslich auf Interviews nicht für eine notwendige Detailtiefe sorgen würde, da das Forschungsziel aufgrund seines innovativen und gesamtgesellschaftlich sensiblen Charakters gleichermassen in Tiefe und Breite umfangreich erforscht werden sollte. Das gesamte Vorhaben hatte – aufgrund der letztlich leider enttäuschten Hoffnung, dass sich die Analyse von Internet und Gesellschaft in Deutschland während der Projektlaufzeit insgesamt massiv verbessern, ausbreiten oder zumindest

598 Flick, Uwe: Triangulation: Eine Einführung. VS-Verlag, 2007. S. 12.

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

293

beschleunigen wird – explorativen und (projektbedingt) Pioniercharakter und demzufolge wurde jeder einzelne Teilbereich so intensiv wie möglich gewürdigt. Dies führte letztlich zu einer sehr umfassenden qualitativen, aber durchaus auch quantitativ aussagekräftigen Analyse. Die Triangulation erschien aufgrund der in diesem Projekt herrschenden Rahmenbedingungen äusserst vielversprechend und überzeugte in der Tat durch Zuverlässigkeit, die handhabbare und auch durch Aussenstehende (d. h. auch Nicht-Sozialwissenschaftler innerhalb des Projekts) leicht nachvollziehbare Struktur und die interdisziplinäre Anerkennung und Bewährung. Sie wurde deshalb gegenüber ausschliesslich quantitativ oder singulär ausgerichteten Verfahren bevorzugt. Nachteile waren für das Projekt weder im Vorfeld noch während der Durchführung erkennbar, weder aus inhaltlicher noch aus personeller Sicht. Die Triangulation war mit den im Folgenden aufgeführten Detailausprägungen in den 36 Monaten Projektlaufzeit durch den sozialwissenschaftlichen Projektpartner leistbar und bot für den (tatsächlich eingetretenen) Fall von Schwerpunktanpassungen (beispielsweise durch das Ausscheiden zweier Projektpartner und den weitest gehenden Rückzug der Bundespolizei aus aktuellem Anlass) ausreichend Flexibilität, um auch solche Anpassungen zu verkraften. Einziges ernstzunehmendes Risiko wäre ein gesundheitlicher, beruflicher oder sonstiger persönlich bedingter Ausfall des Projektleiters gewesen, da dies eine massive Unterbrechung der Begleitforschung sowie ggf. die Einarbeitung eines neuen Projektleiters oder zumindest ein langwieriges Nacharbeiten durch den ursprünglichen Projektleiter zur Folge gehabt hätte. Dieses Szenario trat jedoch nicht ein. Das Vorhaben fand in der Digitalen Klasse der UdK (Fakultät Gestaltung, Medienhaus am Kleistpark in Berlin-Schöneberg) statt und wurde vom Projektleiter und Verfasser in partnerschaftlicher Zusammenarbeit mit den anderen Projektpartnern (Fraunhofer IOSB, KIT, Videmo, Universität Passau, L1/Morpho, Bundespolizei, LKA Hamburg, Regierungspräsidium Karlsruhe) durchgeführt. Die Forschungsleitung und -verantwortung des Teilprojekts lag vollständig in meinen Händen. Neben der Tätigkeit in der UdK waren zahlreiche Projekttreffen sowie Arbeitsplatzbeobachtungen und Interviews zu verzeichnen, welche ausschliesslich mit und bei den Projektpartnern stattfanden. Einmal war ein Team des Projektpartners Fraunhofer IOSB zu Gast in der UdK, um eine szenarienorientierte Befragung durchzuführen. Diese Vorgehensweise entsprach gleichermassen den fachlichen Bedürfnissen wie auch den Angaben in der Teilvorhabensbeschreibung des Projekts MisPel-S. Von Seiten des Teilprojektpartners gab es weder Verzögerungen noch Störungen im Teilprojektverlauf. Eine durchgehend funktionierende Arbeitsplatzsituation wurde durch die UdK auf tadellose Art und Weise ermöglicht. Besonders erfreulich und hilfreich waren die für ein dermassen innovatives Projekt vorzufindenden Freiräume inhaltlicher und organisatorischer Art, welche durch Joachim Sauter, den Leiter der Digitalen Klasse, vollumfänglich sichergestellt wurden. Einschränkungen an dieser Stelle wären nach heutiger Bewertung die einzige echte Sollbruchstelle des Projekts gewesen, denn die Arbeit musste aufgrund ihres hochgradig innovativen Charakters

294

4 Anwendung in Forschung und Praxis – Sociality by Design

oftmals projektinterne und inhaltliche Veränderungen abfedern. Dies wäre in einem starren organisatorischen und inhaltlich eng zurechtgeschnürten Korsett nicht möglich gewesen. Das Vorhaben wurde wie in der Teilvorhabensbeschreibung dargestellt und (wie durch den Begutachtungsprozess des damaligen Antrags bestätigt und den Projektträger bzw. das Bundesforschungsministerium genehmigt) durchgeführt, d. h. für die sozialwissenschaftliche Forschung waren die folgenden vier Segmente vorgesehen: M1 bis M6: Übersichtsphase (Monate 1 bis 6 des Projektzeitraums; 6 Personenmonate): – Teilnehmende Beobachtung (T1): Vorbereitende Massnahmen und Durchführung (Arbeitsanteil: 40 %) – Medienbeobachtung (T2): Wissenschaftliche Diskurse als Grundlage (40 %) – Interviews (T3): Vorbereitung der Leitfadeninterviews, methodische Ausgestaltung, organisatorische Vorbereitungen (10 %) – Szenariendefinition zusammen mit den Partnern der Begleitforschung (10 %) M7 bis M18: Erste Forschungsphase (12 Personenmonate): – Teilnehmende Beobachtung (T1): Durchführung (30 %) – Medienbeobachtung (T2): Wissenschaftliche und nichtwissenschaftliche Diskurse (30 %) – Interviews (T3): Durchführung und Aufbereitung (30 %) – Begleitung (M7 bis M18) der und Abfassung erster Empfehlungen aus sozialwissenschaftlicher Sicht (M16 bis M18) aus allen drei Teilbereichen für die Demonstratorentwicklung (10 %) M19 bis M30: Zweite Forschungsphase (12 Personenmonate): – Teilnehmende Beobachtung (T1): Durchführung (30 %) – Medienbeobachtung (T2): Analyse der gewonnenen Daten und Abschluss (30 %) – Interviews (T3): Analyse (30 %) – Aggregation der Forschungsergebnisse (T1 + T2 + T3) (10 %) M31 bis M36: Abschlussphase (6 Personenmonate): – Verfassen des Forschungsberichts (T1 + T2 + T3) (75 %) – Abschliessende Arbeiten im Projektkontext (25 %) Aufgrund der Probleme innerhalb des Konsortiums (Rückzug bzw. Austausch von de facto drei Projekt- bzw. assoziierten Partnern) musste ich die Störungen in der Projektplanung/-durchführung individuell abfedern, was beispielsweise bedeutete, dass im Jahre 2012 Begleitforschung faktisch nur durch mich stattfand, da der juristische Partner wechselte (und somit eine rechtliche Einschätzung in Form der Begleitforschung nicht zuverlässig erfolgen konnte) und die Stelle beim Fraunhofer IOSB, die für die technikwissenschaftliche Begleitforschung vorgesehen war, nicht

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

295

besetzt werden konnte (und somit keine entsprechende Begleitforschung möglich war). Da ich jedoch wie bereits erwähnt allein für das Teilprojekt zuständig war, war ein individuelles Abfedern der aufgetretenen Hürden problemlos möglich, da nicht auf andere Mitarbeiter oder Projektpartner Rücksicht genommen werden musste. Letztlich lief dies auf eine überschaubare Verschiebung der teilprojektintern vorgesehenen Gewichtungen von T1 bis T3 hinaus, nicht jedoch auf einen Verzicht, einen Wegfall, eine Übervorteilung oder andere signifikante Änderungen. Durch die Triangulation der sozialwissenschaftlichen Begleitforschung entstanden in der Folge drei zeitgleich stattfindende Arbeitspakete des sozialwissenschaftlichen Projektpartners: Die teilnehmende Beobachtung der anderen Projektpartner (auch zum Zwecke der Analyse der interdisziplinären Zusammenarbeit; T1), die Medienbeobachtung und -analyse der Fach- und Laienöffentlichkeit (T2) sowie Interviews (T3), vorrangig mit Polizisten in ihrer Rolle als „betroffene Profis“ (und avisierte Nutzerzielgruppe dieses Vorhabens). Damit waren zum Meilenstein M18 drei Ergebnispakete vorhanden, hier nun priorisiert nach Relevanz für den Meilenstein und die Erstellung eines Zwischenberichts: 1. T2 (Medienbeobachtung) = Grundlagen aus sozialwissenschaftlicher Sicht 2. T3 (Interviews) = Grundlagen aus Anwendersicht 3. T1 (Teilnehmende Beobachtung) = Grundlagen aus Projektpartner-Sicht Der Meilenstein M18 wird an dieser Stelle als inhaltlicher Startpunkt dieser Dokumentation genutzt, da er nicht nur den letzten Zeitpunkt einer inhaltlichen Ergebnisverschriftlichung darstellt, sondern den entscheidenden Projektteil (die zweite Hälfte des Verbundprojekts) massgeblich mitprägte. Die Medienbeobachtung (T2) sollte für M18 ein grundlegendes Bild sowohl der Fach- als auch der Laienöffentlichkeit ergeben, so dass hier begleitend bis zum Meilenstein für die Projektpartner eine zunehmend solidere Datenbasis aus sozialwissenschaftlicher Sicht entstehen konnte. Damit sollte die grundlegende Erwartungshaltung – Input aus sozialwissenschaftlicher Sicht beisteuern – befriedigt werden, die an den sozialwissenschaftlichen Projektpartner gestellt wird. Das heisst: der „kleinste gemeinsame Nenner“ im Bereich Privatsphäre baut(e) entscheidend auf diesen Grundlagenergebnissen auf, die aber auch im Falle eines Projektabbruchs einen verwertbaren Status Quo sowohl der internationalen sozialwissenschaftlichen Forschung (beispielsweise der „Surveillance Studies“) als auch der medialen Meinung (Videoüberwachung in der Gesellschaft, Diskussionen über Überwachung und Kontrolle) ergeben hätten. Der an zweiter Stelle stehende Bereich der Interviews (T3) sollte ebenfalls bis zum Meilenstein kontinuierlich dazu beitragen, dass die Userperspektive für die Erschaffung des Demonstrators berücksichtigt werden kann. Aufgrund der projektinternen Verzögerungen sowie der formalen Anforderungen wurde dieser Aspekt allerdings deutlich umgebaut. Der Verbundkoordinator verdeutlichte, dass solcherlei Userwünsche letztlich nur zum Projektende vonnöten wären, was mir aufgrund der Verzögerungen bei der Interviewplanung sehr entgegen kam und zusätzlichen

296

4 Anwendung in Forschung und Praxis – Sociality by Design

Spielraum in der Projektplanung verschaffte. Letztlich musste so oder so aber gelten: Die Anwender sollen nicht aussen vor bleiben, sondern zu Beginn (bzw. aufgrund der Projektverzögerungen und den Wegfall der Zwischenergebnisvorstellung zu M18, sprich: so schnell wie möglich) deutlich artikulieren, was sie aus ihrer Perspektive im Projektkontext für sinnvoll halten. Die teilnehmende Beobachtung599 (T1) konnte zum Meilenstein M18 lediglich einen Zwischenstand darstellen, da das Projekt ja noch nicht vollendet worden war und somit keine abschliessenden Aussagen über das Zusammenwirken der Projektpartner erstellt werden konnten. Freilich war es möglich, den bisherigen Verlauf zu skizzieren, um eventuelle Korrekturen durch die beteiligten Parteien zu ermöglichen. T1 ist somit der Gradmesser der Interdisziplinarität und Professionalität im Projekt und vor allem für den zweiten Kernauftrag der sozialwissenschaftlichen Begleitforschung – die Verwebung von Technik, Recht und Gesellschaft – ein wichtiger Indikator. Schliesslich muss es im „Musterprojekt“ am besten gelingen, den eigenen Ansprüchen gerecht zu werden. (Was, soviel sei an dieser Stelle vorweggenommen, auch funktioniert hat.) Zugleich ist T1 aufgrund der Anforderungen an das Projekt jedoch das Arbeitspaket, welches die vergleichbar geringste Aussagekraft zum Zeitpunkt des Meilensteins M18 entfalten konnte. Möglich war zwar eine Richtungsbestimmung und erste Skizzierung des bisher Beobachteten, jedoch keine so deutliche Grundlagengestaltung wie bei T2 und T3 – dies war erst zum Ende des Projekts möglich. Zusammengefasst ergaben die Zwischenergebnisse zu M18 somit in der entsprechenden Rangfolge: – T2 (Medienbeobachtung) = Grundlagen aus sozialwissenschaftlicher Sicht – T3 (Interviews) = Grundlagen aus Anwendersicht – T1 (Teilnehmende Beobachtung) = Grundlagen aus Projektpartner-Sicht Aufgrund der projektinternen Entwicklungen hat sich der Meilenstein M18 und damit auch seine Ausgestaltung terminlich ein wenig nach hinten verschoben (vom Monat Juli in den Monat September). Dies ist aus Sicht der sozialwissenschaftlichen Begleitforschung jedoch kein grundsätzliches Problem gewesen, da die (eigenen) Meilensteinziele insgesamt erreicht worden sind – auch wenn sich der Weg dorthin ein wenig anders gestaltete als geplant. Damit ist bei solch grossen Vorhaben jedoch stets zu rechnen, weshalb die Veränderungen durch vorherige flexible inhaltliche wie organisatorische Planung entsprechend reibungslos abgefedert werden konnten und aufgrund der vorhergesehenen Möglichkeit ihres Auftretens auch nicht überraschten.

599 Siehe dazu vor allem Lamnek, S.: Qualitative Sozialforschung: Lehrbuch. Beltz Psychologie Verlagsunion 2010. S. 498–581.

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

297

Die teilnehmende Beobachtung (T1) war methodisch wie zeitlich letztlich der am einfachsten zu realisierende Baustein des sozialwissenschaftlichen Teilvorhabens: so beschränkte sich die Zusammenarbeit auf eine sehr gut zu überschauende Anzahl an persönlichen (Verbund- bzw. Einzel)Treffen sowie ebenfalls keineswegs ausufernde digitale Kommunikation. T1 wurde letztlich in der Tat der Gradmesser der Interdisziplinarität und Professionalität im Projekt und vor allem für den zweiten Kernauftrag der sozialwissenschaftlichen Begleitforschung – die Verwebung von Technik, Recht und Gesellschaft – ein wichtiger Indikator, denn hier trafen diese drei Bereiche aufeinander und entwickelten – idealerweise gemeinsam und nicht separat voneinander – einen gemeinsamen Fortschritt. Nachdem dann letztlich auch eine Richtungsbestimmung und Skizzierung des bisher Beobachteten nach M18 erfolgten konnte, könnten die Endergebnisse von T1 nun durchaus eine gewisse Vorbildfunktion für weitere Verbundprojekte entfalten. Die teilnehmende Beobachtung war nach Lamnek strukturiert, offen, partizipativ und fand „im Feld“ statt.600 Die Medienbeobachtung (T2) ergab durch einen umfangreichen Korpus zahlreicher601 Primärquellen und Medienberichte ein grundlegendes Bild sowohl der Fach- als auch der Laienöffentlichkeit, so dass hier in der Tat zum Meilenstein für die Projektpartner eine im Laufe der ersten anderthalb Jahre zunehmend stabiler gewordene Datenbasis aus sozialwissenschaftlicher Sicht entstanden ist. Damit sollte die grundlegende Erwartungshaltung befriedigt werden, die an den sozialwissenschaftlichen Projektpartner gestellt wurde, was konkret bedeutet: der „kleinste gemeinsame Nenner“ im Bereich Privatsphäre baut(e) entscheidend auf diesen Grundlagenergebnissen auf, die einen verwertbaren Status Quo sowohl der internationalen sozialwissenschaftlichen Forschung (beispielsweise der „Surveillance Studies“) als auch der medialen Meinung (Videoüberwachung in der Gesellschaft, Diskussionen über Überwachung und Kontrolle usw.) ergaben (sowohl zur Projektmitte als auch deutlich klarer zum Projektende). Zusätzlich ist dies die Basis für das übergeordnete Rahmenkonzept Sociality by Design.602 Die Analyse der Fachöffentlichkeit erfolgt durch klassische Literaturrecherche, die Analyse der Laienöffentlichkeit durch eine digitale Diskursanalyse, denn:

600 Lamnek, S. 508–514. 601 Genaue Zahlen wurden an dieser Stelle – zum Zeitpunkt des Meilensteins M18 – bewusst vermieden, da erst die endgültige Festlegung zum Projektende nach vollständiger (und nicht nur vorläufiger) Analyse aller vorliegenden Daten beispielsweise prozentuale Angaben zu „pro/contra Videoüberwachung“ o. ä. erlaubt. Zum Zeitpunkt von M18 wurde von einer Artikel- und Beitragsanzahl im niedrigen vierstelligen Bereich ausgegangen, d. h. ca. 1.000 bis 1.500 Artikel und Einzelbeiträge (= ca. 4.500 Seiten) wurden durch den Verfasser ausgewertet – sowohl Fachliteratur als auch nichtwissenschaftliche Beiträge in der Presse. 602 http://http://www.socialitybydesign.org, abgerufen am 31.7.2015.

298

4 Anwendung in Forschung und Praxis – Sociality by Design

Diskurse gelten nicht als wesenhaft passive Medien einer In-Formation durch Realität, sozusagen als Materialitäten zweiten Grades bzw. als „weniger materiell“ als die echte Realität. Diskurse sind vielmehr vollgültige Materialitäten ersten Grades unter den anderen603

Selbstverständlich ist auch diese Diskursanalyse in nicht nur geringem Masse explorativ bzw. experimentell, da sie ein wesentlicher Baustein des völlig neuen Konzepts Sociality by Design ist, so dass auch in diesem Falle dem Diskursanalytiker Siegfried Jäger zugestimmt werden kann, der die Diskurstheorie selbst in einem Spezialdiskurs sah, da es sich dabei nicht um ein Konzept handelt, welches „einfach so“ übernommen und „mechanisch“ angewendet werden kann.604 Betont wird somit das Werden und nicht das Sein. Wie sich diese Sinnhaftigkeit einer solchen Analyse sehr konkret im Projekt bemerkbar machen kann, wurde im Rahmen der Diskussion über das Merkmal „Hautfarbe“605 deutlich: hier konnte sehr detailliert dargestellt werden, welche Vor- und Nachteile die Nutzung dieses Attributs aus sozio-technischer Sicht bietet und welche Risiken dabei auftreten können. Letztlich konnte so eine klare Entscheidungsempfehlung ausgesprochen werden: die Ablehnung des Merkmals im Rahmen von MisPel; dieser Empfehlung wurde dann vollumfänglich entsprochen. Dabei ging es nicht nur um die (auch durch Laien durchaus zu erwartende) besondere Sensibilität der Öffentlichkeit bei diesem Thema, sondern auch um die präzisen Bruchstellen in einem Diskurs über die Anwendung des Merkmals Hautfarbe in Videoüberwachungsszenarien. Denn man kann sehr wohl gehörigen Einfluss auf den Diskursverlauf nehmen, wenn man die Startvariablen zu Diskursbeginn entsprechend beeinflusst.606 Man ist also einerseits nicht wehrlos jedem „Shitstorm“ ausgeliefert, sondern hat Einflussmöglichkeiten – andererseits birgt dies natürlich auch das Risiko der sozialen Manipulation, so dass hier nicht nur sorgfältig beobachtet, sondern auch mindestens genauso sorgfältig gehandelt werden muss, denn: Dabei handelt es sich jedoch nicht um ‚objektive‘ oder ‚ewig gültige Wahrheit(en)‘, sondern um ‚jeweils (historisch) gültige Wahrheiten‘. Natürlich weiss FOUCAULT, dass jede Gesellschaft auf Wahrheiten angewiesen ist (Normen, Werte), damit sie ‚funktioniert‘. Diese jeweils gültigen Wahrheiten sind jedoch mit Macht und Interessen und somit auch mit Herrschaft verbunden.607

603 Link, J. (1992): Die Analyse der symbolischen Komponenten realer Ereignisse. Ein Beitrag der Diskurstheorie zur Analyse neorassistischer Äußerungen. In: OBST 46. S. 40; zitiert nach DiazBone, R., Krell, G. (Hrsg.) (2009): Diskurs und Ökonomie – Diskursanalytische Perspektiven auf Märkte und Organisationen. S. 24. 604 http://www.qualitative-research.net/index.php/fqs/article/view/148/325, abgerufen am 10.9.2013. 605 Diskutiert auf dem ersten Statustreffen in 2013 am 15. Januar. 606 Siehe dazu einführend das Interview mit Professor Jason Stanley („Psychologische Tests zeigen die Wirkung von scheinbar normalen Worten wie Mutter“) unter http://www.zeit.de/politik/ deutschland/2015-07/propaganda-jason-stanley-interview/komplettansicht, abgerufen am 31.7.2015. 607 http://www.qualitative-research.net/index.php/fqs/article/view/148/325, abgerufen am 10.9.2013.

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

299

In der „grossen Runde“ des Projektverbunds wurde bereits zu Beginn der Diskussion über das Merkmal Hautfarbe nach Einwänden bzw. Anmerkungen gefragt. Die Diskussion war sachlich und geprägt von kollegialer Professionalität und Diplomatie. So fiel es mir auch nicht schwer, das Merkmal entsprechend vom Entwicklungsprozess ausschliessen zu lassen, da meine Argumente – unter anderem historische Sensibilität,608 politische Ablehnung609 sowie ein falsches Signal für die Öffentlichkeit610 bei technisch ohnehin nur geringer Relevanz des Attributs – im Vordergrund standen und keinerlei Emotionen, Ideologien oder persönliche Befindlichkeiten die sachlich gerechtfertigte Ablehnung des Merkmals beeinflussten. Auch eine abgeschwächte Form des Rückgriffs auf das Merkmal Hautfarbe wurde vermieden, ebenso jegliche andere Nutzungsmöglichkeit, die diskutiert worden ist, vor allem aufgrund meiner Hinweise hinsichtlich der Manipulation durch Sprache und dem daraus potentiell entstehenden Risiko für das Projekt. Jedes Festhalten an einem unerwünschten Merkmal würde ebenso wie jeder nur vermeintlich harmlosere „Verschleierungsversuch“ mit an Sicherheit grenzender Wahrscheinlichkeit gesellschaftlich inakzeptabel sein, und das wäre weder überraschend noch ungerecht. Der unzweideutige Ausschluss des Attributs stand somit nie zur Diskussion und wurde auch in der Folge nicht mehr erörtert – ein klares Statement für einen fachlich hochwertigen Diskurs und ein grosser Akzeptanzgewinn für zukünftige Einsatzszenarien intelligenter Videoüberwachung. Doch nicht nur in der „grossen Runde“ wurde sehr gut diskutiert und entschieden, auch in kleineren (bilateralen) Runden gab es entsprechende Entwicklungen: so wurde bereits mit den Kollegen vom Fraunhofer IOSB bei verschiedenen Gelegenheiten über die sozio-technischen Einflechtungen gesprochen und diese auch entsprechend vorangetrieben, auch immer wieder zusammen mit dem (späteren) rechtswissenschaftlichen Projektpartner. Ebenso erfolgte ein Arbeitstreffen in Bochum bei Verbundkoordinator und Technikpartner L1/Morpho, so dass auch hier die Einbringung sozialwissenschaftlicher Aspekte erfolgreich durchgeführt werden konnte. Ergänzt wurde die Medienbeobachtung durch eine zusammen mit dem IOSB ausgehandelte Datennutzung, welche sich auf Interviews bezieht, die in der UdK in Zusammenarbeit mit mir durchgeführt worden sind. Dabei ging es um Szenarien zur Videoüberwachung und ihre Akzeptanz in der Bevölkerung. Hierzu wurden knapp 80 Personen interviewt und um ihre Meinung zu verschiedenen FlughafenVideoüberwachungsszenarien gefragt. Auch diese Daten können als wichtiger

608 Anders als in den USA oder dem Vereinigten Königreich, wo eine Unterscheidung/Identifizierung von Menschen nach „race“, „color“ oder „ethnicity“ deutlich häufiger anzutreffen ist – was die Sache jedoch auch dort nicht unumstritten macht. 609 http://dip21.bundestag.de/dip21/btd/17/119/1711971.pdf, abgerufen am 4.8.2015. 610 Siehe hierzu aktuell http://www.welt.de/vermischtes/article145484123/Aktenzeichen-Posseum-schwarzen-Vergewaltiger.html, abgerufen am 21.8.2015.

300

4 Anwendung in Forschung und Praxis – Sociality by Design

Indikator in die Gesamtbewertung der öffentlichen Meinung einfliessen. (Die Ergebnisse dieses Forschungsteils lassen sich im folgenden Teil dieses Berichts finden.) Der Teilbereich der Interviews (T3) sollte dazu beitragen, dass die Userperspektive für die Erschaffung des Demonstrators berücksichtigt werden kann. Bei den Interviews handelt(e) es sich um Leitfadeninterviews,611 die mit mindestens 25 bis 30 Personen aus zwei oder allen drei (sich schließlich signifikant unterscheidenden) assoziierten Polizeibehörden geführt werden sollten, welche jetzt und später mit Videoüberwachung und -auswertung befasst sein werden. Das heisst, dass vorrangig Polizisten in ihrer Rolle als „betroffene Profis“ befragt werden sollten. Die Polizisten qualifizierten sich durch vorherige und zukünftige Aufgaben in diesem Bereich bzw. durch die dienstliche Einteilung für diese Aufgaben durch Vorgesetzte/ den Dienstherren für das Interview. Es erschien zur Festlegung der Details in der Teilvorhabensbeschreibung nicht nur sinnvoll, sondern geradezu notwendig, diese Userbedürfnisse klar umrissen zu haben. Die Anwender sollten deutlich artikulieren, was sie aus ihrer Perspektive für sinnvoll halten. Dies muss stets in einem strukturierten und methodisch sauberen Masse geschehen. Da es bisher nicht der Regelfall war, dass auch die Polizisten als Praktiker in einen solchen Forschungsprozess einbezogen wurden, sie aber unverzichtbar für eine ganzheitliche Projektarbeit erscheinen, sollten sie nun zu Wort kommen, um den Forschungsprozess aus ihrer Sicht entsprechend mitgestalten zu können. Die Interviews waren somit als Chance der Mitgestaltung für die Anwender gedacht und kommuniziert. Nach Lamnek (bezugnehmend auf Koolwijk, 1974) handelt es sich hierbei um ein Informatorisches Interview, welches hier in Form einer Expertenbefragung geführt wird: In dieser Form des Interviews wird der Befragte als Experte verstanden, dessen Fachwissen verhandelt wird. Der Befragte ist Informationslieferant für Sachverhalte, die den Forscher interessieren.612

Diese Abgrenzung ist deshalb erwähnenswert, weil es sich – nach der Definition von Koolwijk – somit weder um ein analytisches noch um ein diagnostisches Interview handelt. Es geht also nicht um soziale Sachverhalte (z. B. das Verhältnis des Befragten zu Kollegen, Vorgesetzten oder Behördenleitung) und auch nicht um (medizinische/psychologische) Diagnosen. Diese Information ist nicht nur aus Gründen der gebotenen Präzision notwendig: ihre Erwähnung half auch den befragten Polizisten bei der Einordnung des Befragungswunsches des Verfassers.613 Das Interview

611 Auf die Schwierigkeit der trennscharfen Unterscheidung der Interviewtypen sowie möglicher Mischungen und Mischformen von Interviews (laut Lamnek, S. 330 und Kromrey, H. (2009): Empirische Sozialforschung, 11. Auflage, S. 387 f.) wird an dieser Stelle hingewiesen. 612 Lamnek, S. 305 613 Streng genommen bleibt es natürlich spekulativ, doch ich hatte den Eindruck, dass ein diagnostisches Interview bzw. keine klare Verneinung eines solchen im Vorfeld die Polizisten nicht so offen hätte reden lassen wie es letztlich der Fall war, da die Situation vielmehr den kontraprodukti-

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

301

ist nicht-standardisiert, d. h. die Fragen können in aller Regel nicht mit „Ja“ oder „Nein“ kurz und knapp „abgehakt“ werden. Standardisiert sind die Bedeutungen (Sinn).614 Der Interviewprozess ist somit gerahmt, die Fragen sind jedoch offen gehalten und es kann beispielsweise von der Abfolge abgewichen werden. Ursprünglich erschien es wie gesagt nicht nur sinnvoll, sondern geradezu notwendig, die Userbedürfnisse bis zu M18 klar umrissen zu haben, damit die Arbeit an den technischen Komponenten im fortgeschrittenen Stadium (jenseits M18) nicht mehr in einem entscheidenden Masse von Anwenderwünschen irritiert werden kann. Dies konnte aufgrund des Projektablaufs jedoch nicht wie ursprünglich vorgesehen umgesetzt werden; der Verbundkoordinator bat mich hier um entsprechende Geduld in Hinblick auf die interdisziplinäre Ausgestaltung der Technik, da die technische Integration nach Absprung eines Projektpartners bereits eine entsprechende Herausforderung darstellte und rechtzeitig zur Meilensteinpräsentation fertiggestellt werden musste. Die Anwender konnten trotzdem von Beginn an deutlich artikulieren, was sie aus ihrer Perspektive für sinnvoll halten, da nach entsprechender Ankündigung durch mich sowohl eine fruchtbare Zusammenarbeit zwischen Technikern und Anwendern als auch zwischen Technikern, Anwendern und sozialwissenschaftlicher Forschung stattfand. Es gab also eine entsprechende Kompensation, und dies (wie üblich) in einem strukturierten und methodisch klaren Masse, so dass die Ursprungsidee nicht gescheitert ist, sondern leichter und problemloser als erwartet umgestaltet und damit inhaltlich gesichert werden konnte. Dies war freilich nur aufgrund der hervorragenden Mitarbeit der Anwender möglich – eine Tatsache, die bei weniger engagierten Polizeikräften so nicht zu verzeichnen gewesen wäre. Die Kompensation der bis M18 vorgesehenen Interviews durch interessierte und engagierte Endanwender im Dialog mit dem Verfasser war somit zu einem Gutteil auch schlicht dem Glück geschuldet. In der Teilvorhabensbeschreibung wurde ursprünglich erwähnt, dass in der zweiten Projekthälfte eine erneute Befragung stattfinden könnte, welche die User dann über die erfolgte Umsetzung befragen würde, um festzustellen, ob ihre „Wünsche“ tatsächlich entsprechend umgesetzt worden seien. Aufgrund der projektinternen Verschiebungen wurde nun keine Trennung mehr zwischen erster und möglicher zweiter Befragung gemacht, sondern die Befragung der Anwender insgesamt kontinuierlich weitergeführt, da der Weg (und damit die Fragen) so modifiziert worden sind, um das vorgesehene Ziel doch noch entsprechend zu erreichen. Diese Modifikation liegt wie bereits erwähnt im Rahmen der ohnehin eingeplanten Flexibilität und war wie ebenfalls bereits erwähnt auch inhaltlich leichter umzusetzen als zu Beginn des Projekts erwartet.

ven Eindruck eines „Aushorchens“ oder einer Psychoanalyse („auf der Couch liegen“) vermittelt hätte. 614 siehe Lamnek, S. 311 sowie laut Lamnek auch ders. 1980, S. 136

302

4 Anwendung in Forschung und Praxis – Sociality by Design

Zum Meilenstein M18 konnte nun insgesamt festgestellt werden: die sozialwissenschaftliche Begleitforschung befindet sich mit dem nun verfeinerten Forschungsvorhaben Sociality by Design mehr denn je in einer „Pole Position“, denn abgesehen von sehr technik- oder rechtswissenschaftslastigen Verfahren wie BSI-IT-Grundschutz, IEC/ISO 27001 oder Privacy by Design gibt es im sozialwissenschaftlichen Bereich keine vergleichbaren Konzepte. Die Aufmerksamkeit, die das Thema bei Präsentationen vor Expertinnen und Experten aus ganz Europa und den USA erzeugte, wurde von mir jedes Mal als Bekräftigung dieser Einschätzung gewertet. Es ist aufgrund inzwischen mehrerer Publikationen und Präsentationen zu diesem Thema sowie der Verbreitung der Idee auch nicht davon auszugehen, dass in den Monaten nach Projektende ein vergleichbares Konzept der Idee „den Rang ablaufen“ wird. Das bedeutet: das Konzept wurde erfolgreich in der (Fach)Öffentlichkeit platziert, Konkurrenzvorhaben sind nicht bekannt und dürften nun auch nicht mehr denselben Effekt erzielen wie das hiesige Vorhaben, weshalb die Informationsrecherchen entscheidend positiv zu bewerten sind.615 Die Ausweitung des Vorhabens MisPel-S auf das sozio-technische Rahmenkonzept Sociality by Design erscheint nicht nur im Sinne der Grundlagenforschung, sondern auch für die Anwendungsorientierung und damit für den Wissenschaftsstandort Deutschland insgesamt äusserst interessant. Ein Rahmenkonzept, welches kommenden Projekten ermöglicht, digitale Eigengesetzlichkeiten und gesellschaftliche Rahmenbedingungen ganzheitlich, gesellschaftlich adäquat und wirtschaftlich effizient zu berücksichtigen, entworfen an einem der innovativsten Orte für digitale Forschung und Anwendung in Deutschland, der UdK, und weiterentwickelt an einer exzellenten deutschen Universität, der FU Berlin, bedeutet mit an Sicherheit grenzender Wahrscheinlichkeit nicht weniger als einen ganz konkreten Vorteil für entsprechende Projekte am Wissenschaftsstandort Deutschland, auch wenn das Rahmenkonzept selbst sicherlich international und auch in zahlreichen anderen Kontexten einsetzbar sein dürfte und nicht zwangsläufig auf Deutschland beschränkt bleiben muss. Doch die exemplarischen Details beziehen sich ja konkret auf die deutsche Gesellschaft und deshalb entsteht hier automatisch ein digital-kultureller Vorteil, was als entscheidendes Alleinstellungsmerkmal nicht unterschätzt werden sollte. Konkret wurde diese Entwicklung – spezifische Ergebnisse als Quelle der Induktion für ein übergeordnetes Konzept mit der Möglichkeit der Deduktion – erstmals zum Meilenstein M18 erkennbar. In Form einer durch den Projektträger standardisierten Prüfung von potentiellen Abbruchkriterien616 ergab sich folgende Darstellung der erreichten Ziele:

615 Ähnliche Vorhaben dürften inzwischen auch deshalb nachrangig sein, da Sociality by Design als Projekt am Fachbereich Mathematik und Informatik der Freien Universität Berlin anerkannt worden ist. Es fanden sich somit professorale Fürsprecher, die die Idee weiterentwickelt sehen möchten. 616 Im Detail wurde die Wahrhaftigkeit der Zielerreichung durch den Projektträger geprüft und bestätigt. Im weiteren Verlauf dieses Abschlussberichts werden nicht alle, jedoch zahlreiche dieser Ziele genannt.

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

303

Die Vorgabe: Als Abbruchkriterium für T2 galt das Nichterreichen eines grundlegenden Abbildes sowohl der Fach- als auch der Laienöffentlichkeit, d. h. es liegt dann keine erste Grundlagenskizze eines „kleinsten gemeinsamen Nenners“ aus dem Bereich Privatsphäre in Berichtsform vor. Das Ergebnis: Dieses Ziel wurde erreicht, es wurde wie bereits ausgeführt ein auch mithilfe von anderen Experten immer wieder gegengeprüftes Bild der Fachund Laienöffentlichkeit erstellt. Dieses wurde in Zusammenarbeit mit den Projektpartnern entsprechend genutzt und ins Projekt eingewoben. Die Vorgabe: Für T3 galt als Abbruchkriterium das Nichterreichen einer Userbedürfnisübersicht, so dass die anderen Projektpartner nicht mit einem Bericht über die Userperspektive aus sozialwissenschaftlicher Sicht versorgt werden können. Das Ergebnis: Dieses Ziel wurde erreicht, wenngleich auch teilweise auf Umwegen, da nicht wie ursprünglich geplant alle Interviews durchgeführt werden konnten. Die Userbedürfnisübersicht wurde jedoch auch so deutlich, was sich besonders durch die erfreulich positive Zusammenarbeit mit den Polizeipartnern ergab. Bereits zu M18 konnten somit stichhaltige Aussagen aufgrund der gewonnenen Erkenntnisse getroffen werden und auch der etablierte Dialog erwies sich als äusserst fruchtbar, so dass es unter anderem auch keine „Berührungsängste“ zwischen Forschung und Polizei gab. Dies steigerte die Effizienz der Zusammenarbeit spürbar. Die Vorgabe: T1 sollte als Gradmesser der inter- bzw. transdisziplinären Arbeit gelten, deshalb gilt als Abbruchkriterium hier die Nichtvorlage einer Richtungsbestimmung und Skizzierung des bisher Beobachteten. Das Ergebnis: Dieses Ziel wurde erreicht, da es erstens aufgrund der besonders erfreulichen Zusammenarbeit der gegenwärtigen Projektpartner besonders leicht war, hier eine teilnehmende Beobachtung durchzuführen und es zweitens sogar möglich war, Empfehlungen abzugeben, die konkretes Resultat dieser Tätigkeit waren und den Beteiligten so direkt positiv auffielen. Die Zusammenarbeit erforderte somit einerseits gar keine grossen Veränderungen und war auch von grosser Offenheit für die wenigen aus sozialwissenschaftlicher Sicht notwendigerweise zu äussernden Empfehlungen geprägt. Im Dialog mit dem Verbundkoordinator wurde beispielsweise ein passender rechtswissenschaftlicher Partner nach dem Ausscheiden von TUD/FÖR (Lehrstuhl Schmid) gefunden, es wurde gemeinsam das Ausscheiden von Visual Defence abgefedert und es wurden auch Modi der Zusammenarbeit zwischen den verschiedenen Projektpartnern etabliert, die reibungslos funktionierten, beispielsweise mithilfe exzellenter Telco-Planung, Treffen vor Ort oder Einzelgesprächen. Neben den inhaltlichen Erkenntnissen gibt es auch Erkenntnisse organisatorischer Art: Insgesamt kann man festhalten, dass alle Aufgaben, die frei (d. h. ohne direkte Mitwirkung der Projektpartner) durchgeführt werden mussten, ohne jegliche

304

4 Anwendung in Forschung und Praxis – Sociality by Design

Beanstandung auch wie vorgesehen, d. h. erfolgreich stattfanden. Besonders die Erkenntnis, dass das sozio-technische Forschungsprogramm aufgrund des guten Arbeitsfortschritts nicht nur zur einer Begleitforschungs-Einzelfalllösung, sondern in der Tat zu einem breiter verwendbaren Rahmenkonzept Sociality by Design weiterentwickelt werden kann, stiess sowohl beim Verfasser als auch bei allen anderen informierten Personen (Experten) auf einhellige Zustimmung. Die aus soziologischer Sicht in der Teilvorhabensbeschreibung erwähnte und insgesamt angestrebte bedeutende Innovation, die Definition eines unverletzlichen Kernbereichs von Privatsphäre, sprich: eines „kleinsten gemeinsamen Nenners“, wurde zu Beginn von MisPel recht behutsam als Vorbildfunktion skizziert. Heute kann man zweifellos sagen: ich kam dem entscheidenden Element für eine erfolgreiche Neuausrichtung von Privatsphäre, Datenschutz und Datensicherheit in allen digitalen Umgebungen einen grossen Schritt näher. Bei den Arbeiten, die die Mitwirkung von bestimmten Projektpartnern erforderten, sah es teilweise etwas anders aus: die Begleitforschung konnte nicht wie vorgesehen zusammenarbeiten, da der Projektpartner TU Darmstadt (Lehrstuhl Schmid/FÖR) im laufenden Projekt überraschend ausstieg und erst gegen Ende des Jahres 2012 eine Neubesetzung in Person von Gerrit Hornung (Lehrstuhl Öffentliches Recht, Uni Passau; auf Vorschlag von UdK und IOSB/KIT) stattfand. (Dessen Mitarbeiter wurde mit zusätzlicher Verzögerung aufgrund des Einstellungsprozesses ins Projekt eingeführt, was für die Zusammenarbeit entsprechende Folgen hatte.) Dazu kam, dass die vom IOSB/ KIT vorgesehene Stelle des für Datenschutzanalysen im Rahmen der technikwissenschaftlichen Begleitforschung verantwortlichen Mitarbeiters in 2012 nicht besetzt werden konnte, so dass die Begleitforschungsarbeiten im gesamten Jahr 2012 wie bereits erwähnt im Wesentlichen allein durch mich durchgeführt wurden. In 2013 besserte sich die Lage durch die von Beginn an sehr professionelle und kollegiale Zusammenarbeit mit dem Lehrstuhl Hornung merklich. Auch kam zur Mitte des Jahres 2013 der neue IOSB-/KIT-Mitarbeiter hinzu und konnte von Beginn an problemlos mitarbeiten. Die geschilderten Herausforderungen wurden unter anderem durch die auf den Statustreffen mehrfach vorgestellte und von allen Beteiligten in der Folge akzeptierte Expansion grundsätzlicher – nicht interner – Projektforschungsfragen in einen Expertenkreis zu kompensieren versucht. So wurde das kompensatorische Gespräch mit Expertinnen und Experten im In- und Ausland gesucht, die dem Projekt vor allem methodisch und theoretisch gewinnbringend Unterstützung bieten konnten. MisPelProjektinterna wurden wie mit dem Konsortium verabredet zu keinem Zeitpunkt preisgegeben, lediglich die Teilvorhaben-Rahmenbedingungen wurden mit diesen Expertinnen und Experten diskutiert, z. B. Methodenfragen (Interviews, Beobachtung, Workflowgestaltung, etc.). Im Wesentlichen gibt es aus organisatorischer Sicht keine besonderen Anmerkungen, da das in der Teilvorhabensbeschreibung skizzierte Arbeitsschema (volle inhaltliche Kontrolle des Teilvorhabens durch mich) problemlos umgesetzt werden konnte. Negative Einflüsse (haus)interner Art gab es deshalb auf der inhaltlichen

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

305

Ebene an dieser Stelle nicht. Die Meilensteinziele (M18 und auch M36) waren somit aus meiner Sicht zu keinem Zeitpunkt in Gefahr, da die Projektgestaltung ausreichend viel Flexibilität vorwies. Unerfreulich war jedoch zweifellos die Störung des Projektablaufs durch externe Einflüsse, namentlich die beiden Projektpartnerwechsel sowie das Verwaltungsgebaren einiger beteiligter Hochschulen, z. B. in Hinblick auf anderthalb (!) Jahre Wartezeit bis zur Vollendung einer notwendigen projektinternen Vereinbarung. Diese Faktoren haben die einzelnen Aufgaben stellenweise sehr negativ beeinflusst und zogen eine individuelle Kompensation nach sich. Anzumerken ist an dieser Stelle, dass ich mit der Verwaltungsarbeit meiner Institution auch unter der unabdingbaren Berücksichtigung strengster Massstäbe sehr zufrieden ist. Die UdK gewährleistete einen reibungslosen Arbeitsablauf ohne entscheidende Störungen und erwies sich für mich als nahezu idealer Arbeitgeber für ein Projekt dieser Art. Auf den ersten Blick klang es für nicht wenige Gesprächspartner stets ein wenig überraschend oder auch exotisch: Sicherheitsforschung an einer Kunstuniversität? Dabei ist der Hintergrund so einfach wie einleuchtend: als ich mit meiner Tätigkeit – der Analyse von Internet und Gesellschaft – begann, gab es schlicht keine bessere Anlaufstelle als die UdK Berlin, denn die Digitale Klasse war mit Abstand die kompetenteste Einrichtung ihrer Art in der Stadt. Joachim Sauter, Leiter der Klasse und des dazugehörigen Studienganges, verstand sofort, worum es mir ging und welches Potential meine Arbeit bot, und auch alle anderen Mitarbeiterinnen und Mitarbeiter in der Klasse boten mir sofort eine akademische Heimat an. Die Mitwirkenden der Digitalen Klasse dürfen nicht umsonst als bedeutende Wegbereiter der digitalen Gestaltung bezeichnet werden – und das entspricht auch dem Klassenmotto: The Digital Media Design Department at the Berlin University of the Arts looks critically at new developments in technology and makes the underlying issues graspable through clear-cut concepts, prototypes, artworks and scenarios.617

Genau an diese Konzept- und Szenario-Idee knüpft die sozialwissenschaftliche Forschung in MisPel an. Sie bietet dadurch allen Interessierten neue methodische Ideen und Wege, kreative Kollaborationen und realitätsnahe Projektfundierungen, ohne dabei kritische Projektinterna, die vereinbarungsgemäss der Geheimhaltung unterliegen, preisgeben zu müssen. Sociality by Design, die konzeptuelle Ableitung der MisPel-Erkenntnisse, ist hier prototypisch zu nennen. Die interdisziplinäre Arbeit im Team ist somit gleichermassen Chance wie Herausforderung und besonderes, wenngleich nicht mehr einzigartiges Merkmal der Digitalen Klasse, da auch andere Einrichtungen inzwischen diesen besonders kreativen interdisziplinären Weg

617 Selbstbeschreibung gemäss „Mutable Postcard“, siehe dazu unter anderem http://mutable.digi tal.udk-berlin.de, abgerufen am 16.8.2015.

306

4 Anwendung in Forschung und Praxis – Sociality by Design

wählten, so zum Beispiel das Forschungsforum Öffentliche Sicherheit, welches vorrangig aus Sozialwissenschaftlerinnen und Sozialwissenschaftlern besteht, jedoch zu Beginn seiner Tätigkeit an einem Ingenieurs-Lehrstuhl der Freien Universität Berlin beheimatet war.618 Und auch die UdK selbst fördert und bündelt stringent und zukunftsorientiert all die Kräfte, die sich digitalen Themen widmen, beispielsweise im Institute of Electronic Business (IEB), vor allem aber im neuen Humboldt-Institut für Internet und Gesellschaft (HIIG), was sowohl die Innovationsfähigkeit der UdK als auch die Fruchtbarkeit der bisherigen digitalen Analysetätigkeiten bestätigt. Und auch wenn die UdK somit in strukturell-organisatorischer Hinsicht viel bietet und sich als Ort der besonders innovativ-explorativen Forschungsthemen keineswegs gegenüber klassischen Volluniversitäten verstecken muss, so erscheint ein Projekt wie MisPel mit seinen besonderen Herausforderungen nur dann an einem Ort wie der UdK gut verortet zu sein, wenn die mitwirkenden Wissenschaftlerinnen bzw. Wissenschaftler äusserst selbständig, innovativ, integer und engagiert arbeiten können und – abgesehen vom Austausch mit Kolleginnen und Kollegen z. B. in Workshops oder auf Konferenzen – keinerlei Rahmensetzung durch Vorgesetze und Kolleginnen oder Kollegen mehr benötigen, sprich: bereits seit längerer Zeit auch umfassende Perioden der Einzelarbeit problemlos bewältigen können. Wer sich vor allem oder sogar ausschliesslich in einem Team wohlfühlt, welches sich nahezu täglich im Büro oder Institutsgebäude über den Weg läuft, wäre für ein Projekt wie MisPel-S wohl kaum geeignet. Denn an der UdK gibt es ein solch üppig ausgestattetes Institut nicht, wo täglich Kolleginnen und Kollegen für intensive Kollaborationen, Ideenaustausch und gemeinsame Problembewältigung zur Verfügung stehen. Selbst das HIIG bildet jeden Arbeitsbereich mit nur wenigen Personen ab und kann daher so wie auch die „Mutter UdK“ nicht mit personalintensiven sozialwissenschaftlichen Einrichtungen wie dem Wissenschaftszentrum Berlin für Sozialforschung (WZB) verglichen werden, welche (wie im Falle des WZB) auch noch eng an eine Universität (hier: FU Berlin) angebunden sind. Verbundprojekte solch besonderer Güte bedürfen daher auch besonders erfahrener und routinierter Spezialisten, da sie in dieser „exotischen“ Verortung für einzelne bzw. vereinzelte Nachwuchswissenschaftlerinnen und -wissenschaftler kaum geeignet sein dürften. Besonders die Berücksichtigung sämtlicher Sicherheitsbelange dürfte für Nachwuchswissenschaftlerinnen und -wissenschaftler durchaus irritierend sein, wobei hier angemerkt sei, dass ein grösseres allgemeines Verständnis auf Seiten der beteiligten Verwaltungen bei diesem Thema insgesamt doch wünschenswert gewesen wäre. Wenn mit Spezialeinheiten von Landes- und Bundespolizei(en) zusammengearbeitet wird, sind entsprechende Sicherheitsstandards nicht nur zwingend erforderlich, sondern auch eine Selbstverständlichkeit. Dass dies durchaus mit der allgemeinen Offenheit einer Universität kollidieren kann, ist nachvollziehbar, jedoch konnten aufkommende Bedrohungslagen erfolg-

618 http://www.sicherheit-forschung.de/, abgerufen am 10.9.2013.

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

307

reich überwunden werden, wie der letztlich völlig störungsfreie Ablauf von MisPelS aufzeigt.619 Mit Personen oder Institutionen ausserhalb des Projektes wurde nicht zusammengearbeitet. Es wurden (wie zuvor erwähnt) durch mich Veranstaltungen besucht, die dem Projekt zuträglich erschienen, doch offiziell wurden Dritte nicht in das Teilprojekt eingebunden. Ausserhalb des Projektes wurde die übliche akademische Arbeit geleistet, d. h. Nutzung (von Teilen) des Vorhabens als allgemeines Prüfungsund Seminarthema, transdisziplinäre Diskussionen mit (hausinternen) Kolleginnen und Kollegen zur Vertiefung und Optimierung der Arbeit (hier insbesondere mit dem Institut für Internet und Gesellschaft, dem An-Institut IEB e.V., dem Studiengang Gesellschafts- und Wirtschaftskommunikation und Kollegen des Berkman Centers der Harvard University) und die Nutzung von Konferenzen und Tagungen als Plattform. Die im Rahmen von MisPel vorgesehene Etablierung eines Advisory Boards wurde aktiv unterstützt, jedoch kam diese Einrichtung letztlich nicht zustande, was sehr bedauert wird. Weitere Kooperationen mit Sicherheitsforschungs- und speziell Videoprojekten waren denkbar, jedoch musste auch im Sinne der innovationsbedingten Breite des Projekts stellenweise auf weitere Ausdehnungen verzichtet werden. Inhaltlich findet ohnehin eine Auseinandersetzung mit anderen Projekten statt. Ursprünglich sollte mithilfe einer Adaption der soziologisch relevanten Grundregeln des Datenschutzes620 auf das Projektziel im Rahmen der Überwachung von Liegenschaften und öffentlichen Orten mit (bildgebenden) Sensoren festgestellt werden, welche Regeln unabdingbar und welche eher vernachlässigenswert sind. Schnell wurde aber deutlich, dass der „Versuch der Reduktion auf das Wesentliche“ (Bizer) in dieser Form nicht (mehr) ausreichend ist. So kann man die Komplexität der derzeitigen (und erst recht nicht der sich entwickelnden) digitalen Lebenswelt kaum plausibel fassen, allein schon aufgrund der Tatsache, dass insgesamt zu viele Interpretationsspielräume freibleiben, die die gewünschten Probleme im Zweifel nur oberflächlich lösen würden. Die Grundidee der Reduktion auf einige wesentliche Aspekte ist jedoch keineswegs per se schlecht. Nur muss ein zeitgemässes Konstrukt etwas weiter greifen als die sieben „goldenen Regeln“ oder auch die „seven basic principles“ von Privacy by Design. Es wird somit am Ende dieses Berichtsteils zwar auch konkrete (basale) Empfehlungen geben, doch werden diese insgesamt gerahmt von einem ersten Aufbauschritt von Sociality by Design, welcher „mehr Rahmenkonzept“ bei gleichzeitigem Verzicht auf immer weiter ausufernde Komplexität bietet. Dass an dieser Stelle nicht das ganze Konzept von Sociality by Design geboten wird, liegt im Übrigen vor allem daran, dass es nicht ausschliesslich auf

619 Der Verfasser erlaubt sich an dieser Stelle einen Hinweis auf seine individuellen Bemühungen zur Sicherstellung von Personen- und Datenschutz, die weit über universitätsübliche Massnahmen hinausgingen 620 Bizer, J.: Sieben Goldene Regeln des Datenschutzes. Datenschutz und Datensicherheit – DuD (2007) 31:350–356, Mai 2007.

308

4 Anwendung in Forschung und Praxis – Sociality by Design

MisPel-S aufbaut, sondern etliche sehr grundlegende technikphilosophische Annahmen beinhaltet, die konkret nichts mit MisPel-S zu tun haben. MisPel ergänzt bzw. unterfüttert somit die Idee von SbD, doch SbD ist keine 1:1-Konsequenz von MisPel-S. Ausserdem würde eine weitergehende Ausführung von SbD an dieser Stelle den Rahmen sprengen. Es wird deshalb auf die kommenden Veröffentlichungen im Rahmen des Projekts SbD verwiesen. Unabhängig von den Schlüssen, die die Leserinnen und Leser aus den Empfehlungen in diesem Schlussbericht ziehen werden und die aufgrund des erwartbaren Auftretens divergierender Meinungen ohnehin nicht zu dem einem finalen, alle betroffenen Personen endgültig zufriedenstellenden Ergebnis führen dürften, ist somit anzumerken: das Mindestziel der vorbildhaften Bearbeitung eines kleinsten gemeinsamen Nenners von Privatsphäre für intelligente Videoüberwachung konnte – und kann auch zukünftig wieder – erreicht werden. Die drei Bereiche Technik, Recht und Gesellschaft wurden in diesem Teilvorhaben entsprechend berücksichtigt. Konkrete Empfehlungen für das Gesamtprojekt MisPel waren und sind (für das mögliche Endergebnis in Hard- und Softwareform) nennbar. Da die Ergebnisse zweigeteilt sind – zuerst die Einzelergebnisse der Bereiche T1 bis T3 und dann das Gesamtergebnis mit Empfehlungen für die Finalisierung eines intelligenten Videoüberwachungsprojekts im Sinne von MisPel -, werden nun zuerst die Einzelergebnisse anhand der Teilprojektvorgaben vorgestellt. Danach folgt direkt der zweite Teil mit den jeweiligen Schlussfolgerungen bzw. Empfehlungen.

T1: Teilnehmende Beobachtung Du sollst zur Grosszügigkeit und Unvoreingenommenheit fähig sein, um Werte zu erkennen und nach Grundsätzen zu urteilen, die nicht die eigenen sind. Hinderlich ist es, wenn du überall böse und hinterlistige Menschen vermutest. Zweites Gebot der Feldforschung nach Roland Girtler

Die teilnehmende Beobachtung621 (T1) wurde durch mich ab M1 durchgeführt und erstreckte sich über den gesamten Projektzeitraum, mit der Ausnahme einer kurzen Abschlussphase, in der keine neuen Daten mehr erhoben wurden.622 So musste die Beobachtung entsprechend rechtzeitig enden, damit die aus den drei Perspektiven der Triangulation erhobenen Daten final miteinander verwoben werden konnten. Schwerpunkte der Beobachtung waren

621 Lamnek 2010. S. 498 ff. 622 Aufgrund der bisherigen Forschungsprojekterfahrungen ist es in den letzten Monaten nicht mehr zuverlässig leistbar, bis zum Schluss neue Daten zu erheben und zugleich erste relevante Ergebnisse zu verschriftlichen.

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

309

– die Verbundtreffen – darüber hinausgehend Treffen mit Technikern (z. B. zur Mitarbeit am Demonstrator) und – Treffen mit Praktikern der Polizei Die teilnehmende Beobachtung ist auch das Herzstück der Analyse der interdisziplinären Zusammenarbeit, denn hier lässt sich die konkrete Arbeitsausgestaltung am besten und zugleich einfachsten beobachten. Kernstück der teilnehmenden Beobachtung selbst waren die Statustreffen der Projektpartner. Diese fanden grundsätzlich einmal pro Halbjahr statt.623 Hierbei fertigte ich jeweils ein Protokoll an, welches den Verlauf der Statustreffen (die jeweils gut sechs Stunden dauerten) nachzeichnen sollte. Ich war in der Protokollierung – wie auch bei allen anderen Aufgaben im Rahmen des Teilprojekts – völlig frei und konnte meine Arbeit stets ungestört durchführen. Die Ausgangsposition war die Annahme, dass die Treffen professionell, effektiv, effizient, diplomatisch und reibungslos verlaufen, so dass die Protokollierung durchaus auch als seismographisch bezeichnet werden kann.624 Über diese Ausrichtung wurden die Projektpartner zuvor nicht aufgeklärt, um zu vermeiden, dass sie sich unrealistisch verhalten. Kommuniziert wurde nur, dass die Beobachtung stattfindet, um die Zusammenarbeit zu analysieren. Erfreulicherweise kam es auf keinem einzigen Statustreffen zu Auseinandersetzungen, so dass das Ergebnis hier kurz und eindeutig benannt werden kann: die Zusammenarbeit während der Statustreffen verlief durchgehend störungsfrei. Da auf den Statustreffen die wichtigsten Entscheidungen für alle Teilprojekte getroffen wurden und jeder Teilprojektverantwortliche bzw. sein Beauftragter zur bisherigen Tätigkeit Stellung beziehen musste, ist dies ein ausserordentlich positives Ergebnis. Mir wurde durch mehrere Personen berichtet, dass es auf solchen Statustreffen auch schon zu Zerwürfnissen kam, die zu einem Projektabbruch/vorzeitigen Projektende führten. Davon waren die Partner in diesem Fall weit entfernt. Die Gründe für den reibungslosen Verlauf über einen Zeitraum von drei Jahren sind vielfältig, aber doch leicht erkennbar: alle Akteure traten durchweg professionell auf, sowohl die erfahreneren Kollegen als auch die Nachwuchswissenschaftler. Es gab weder sprachliche Irritationen noch Probleme anderer Art wie technische

623 Fakten, die geheimhaltungsbedürftig erscheinen, werden (ohne inhaltliche Einbussen) ausgelassen, nur grob dargestellt bzw. durch andere Daten ersetzt. So ist es beispielsweise für die Leserin bzw. den Leser unbedeutend, an welchem Datum im ersten Quartal das Statustreffen stattfand, da daraus kein inhaltlicher Erkenntnisgewinn im Sinne der teilnehmenden Beobachtung gewonnen werden kann, jedoch beispielsweise durch genaue Personen-, Orts- oder eben auch Zeitangaben die Arbeitsweise der beteiligten Polizisten beeinträchtigt werden könnte und diese in diesem Zusammenhang um besondere Diskretion baten. 624 Massstab für die Analyse der gelebten wissenschaftlichen Praxis waren v. a. die Empfehlungen für gute wissenschaftliche Praxis, die unter anderem hier zu finden sind: https://www.wim.unimannheim.de/fileadmin/download/Leitlinien_wissenschaftliche_Praxis/04_DFG_Denkschrift_zur_ Sicherung_guter_wissenschaftlicher_Praxis.pdf, abgerufen am 5.8.2015.

310

4 Anwendung in Forschung und Praxis – Sociality by Design

Schwierigkeiten, organisatorische Versäumnisse, nicht einmal mehrfaches Zuspätkommen oder ähnlich marginale Störungen. Die Kommunikation war von maximaler Höflichkeit geprägt, ohne dabei künstlich zu wirken. Fragen wurden bis zur Klärung ausnahmslos geduldig und effektiv beantwortet. Jenseits der berechtigten Freude über diesen Erfolg ist natürlich anzumerken, dass so ein Ergebnis gleichermassen selten wie auch nahezu vollständig personenabhängig ist. Allein durch den Verbundkoordinator wurden viele (externe) Projektirritationen abgefedert und nur seiner besonderen Professionalität ist es zu verdanken, dass die Projektsteuerung dermassen fehlerlos verlief. Ebenso hilfreich war Gastgeberrolle der FraunhoferKollegen in Karlsruhe, da hier eine Örtlichkeit geboten wurde, die keine Wünsche offen liess. Somit sind „Soft Skills“ hier von entscheidender Bedeutung, kombiniert mit infrastrukturellen Realisierungen (vom WLAN über das Mittagessen bis hin zum stets höflich-hilfreichen Pförtnerdienst). Die Projektpartner, die das Projekt vorzeitig verlassen haben, sind ebenfalls während der Statustreffen durchgehend professionell aufgetreten. (Ihr Ausscheiden basierte auf anderen Faktoren und hatte nichts mit der persönlichen Zusammenarbeit im Projekt zu tun.) Treffen mit Technikern und anderen Projektpartnern verliefen ebenfalls problemlos. Besonders hervorzuheben ist an dieser Stelle ein gemeinsamer Besuch mit dem rechtswissenschaftlichen Partner bei drei technischen Projektpartnern zur endgültigen Klärung von technischen Fragen im Oktober 2014. Da weder ich noch der rechtswissenschaftliche Kollege alle projektspezifischen Programmierkenntnisse hatten, war es nur logisch, vor der finalen Analyse sozio-technischer Zusammenhänge nochmal die Details final in Zusammenarbeit mit den zuständigen Kollegen klären zu lassen. Daraus wurden mehrstündige Sitzungen, in denen auch die kleinsten Detailfragen mit grosser Geduld und zugleich ständigem hilfreichem Blick auf den Projektkontext beantwortet wurden. Das war letztlich sehr hilfreich und wird auch im weiteren Verlauf dem Schlussbericht klar zugutekommen. Hätten sowohl der rechtswissenschaftliche Partner als auch der Verfasser nicht bereits das Gefühl gehabt, mit diesen sehr kleinteiligen, zeitraubenden und für Experten stellenweise sicher banal erscheinenden Fragen niemanden auf die Nerven zu gehen, so wäre der Versuch der Klärung von letzten Details mit grosser Wahrscheinlichkeit nicht zustande gekommen. Denn trotz aller Professionalität wird letztlich doch immer ein „chilling effect“ auftreten, wenn man sich an die Haltung des Wunschgesprächspartners erinnert und damit automatisch die Unerfreulichkeit des möglichen Gesprächsverlaufs sowie die vorauseilende Vermeidung von bestimmten Fragen zwecks Vermeidung weiterer Unerfreulichkeiten aufscheinen.625 625 Ein in diesem Zusammenhang populär gewordener Begriff ist der der sogenannten „chilling effects“. Damit ist eine Art vorauseilender Gehorsam gemeint, der einen ob der Vorkenntnisse von einem bestimmten Vorgang absehen lässt. Beispiel: “Being listed as potential drugs of abuse had a chilling effect on prescribing”, https://www.psychologytoday.com/blog/how-everyone-became-de

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

311

Letztlich verliefen auch die Gespräche mit den Polizeipraktikern – Angestellten und Beamten, Vorgesetzten und Sachbearbeitern – durchweg tadellos. Hier hatte ich stellenweise den Eindruck, dass die Gesprächspartner einer wissenschaftlichen Auseinandersetzung mit ihrer Arbeit besonders aufgeschlossen gegenüberstanden, oftmals sogar schon lange auf so eine Gelegenheit gewartet zu haben scheinen. Ein oft gehörter Satz lautete sinngemäss, dass man sonst schliesslich nicht gefragt werde und doch viele Ideen habe, welche die Arbeitsabläufe, Hard- und/oder Software sicher verbessern könnten. Demzufolge war die Stimmung bei den Gesprächen ebenfalls professionell, entspannt und offen, d. h. die Polizeipartner erklärten gleichermassen ihren Arbeitsalltag und -platz wie sie auch sämtliche Fragen geduldig und umfassend beantworteten.

T2: Medienbeobachtung Wer keine Zeitung liest, ist uninformiert, wer Zeitung liest, ist desinformiert. Mark Twain (angeblich)

Die Medienbeobachtung setzt sich aus der Beobachtung und Auswertung von medialen Diskursen im In- und Ausland (vorrangig Länder mit entsprechenden Videoüberwachungserfahrungen und -diskursen, d. h. Grossbritannien, USA, Kanada) sowie der Literaturrecherche und Auswertung von nationalen und internationalen wissenschaftlichen Diskursen zu den Kernthemen dieses Vorhabens zusammen. Wichtig sind also nicht nur die Experten, sondern auch die Laien, repräsentiert durch die nichtwissenschaftlichen Medien, welche die Position der Öffentlichkeit widerspiegeln bzw. zumindest meinungsbildenden Charakter haben. Dass dies eine durchaus plausible These ist, ergibt sich allein schon aus der allgemein bekannten Tatsache, dass wir heute ohne „die Medien“ nicht mehr in der Lage wären, einen Überblick über das (wesentliche) Weltgeschehen zu erlangen und auch die grossen Diskussionen im Wesentlichen medial transportiert werden. Unsere Lebenswelt ist zunehmend globaler, nicht nur durch das Internet, sondern auch durch Verwandte und Freunde, die ihren Heimatort verlassen und in anderen Regionen und auch auf anderen Kontinenten sesshaft werden. Hier erscheint es unmöglich, sich nur über Hörensagen, eigene Betrachtung oder direkte Involvierung ausreichend informieren zu können. Zudem gehören Medienanalysen hinsichtlich der Frage der Meinungsbildung und Analyse zu den üblichen Forschungsprojekten in der Soziologie.626 Hinzu kommt die durch die Digitalisierung stark angewachsene Zersplitterung der Medien(inhalte), die bereits aufgrund ihrer Eigengesetzlichkeiten die Welt nicht

pressed/201306/benzo-hysteria; siehe dazu aber ggf. auch https://en.wikipedia.org/wiki/Chilling_ effect, jeweils abgerufen am 5.8.2015. 626 Siehe als ein „klassisches“ Beispiel: Gerhards, J., Neidhardt, F., Rucht, D.: Zwischen Palaver und Diskurs: Strukturen öffentlicher Meinungsbildung am Beispiel der deutschen Diskussion zur

312

4 Anwendung in Forschung und Praxis – Sociality by Design

für weniger, sondern ganz im Gegenteil für deutlich mehr Verkomplizierung des Daseins gesorgt haben. Es ist also durch das Internet keinesfalls eine Reduzierung der Suche nach (verlässlichen) Informationen zu verzeichnen, sondern vielmehr eine Hinwendung zu Journalisten und Experten, die Ordnung ins Chaos bringen – und das geht letztlich „massenkompatibel“ nur über die Medien. Der Arbeitsaufwand für eine solche Medienanalyse ist grundsätzlich nicht zu unterschätzen: Für die letzte grosse Studie dieser Art vor diesem Projekt, die ich durchgeführt hat, sind allein im Rahmen der Medienbeobachtung im deutschsprachigen Raum bekanntlich ca. 10.000 Seiten Rohmaterial angefallen, die innerhalb eines Jahres ausgewertet wurden. Mit diesen Erfahrungen und der Bestätigung der erfolgreichen Bewältigung solch immenser Datenmengen erscheint es aber realistisch, eine derartige Medienbeobachtung auch in diesem Projektkontext durchzuführen, um entsprechende Schlüsse zu ziehen. Zudem ist die Medienanalyse – hier vor allem der nichtwissenschaftliche Teil – von nicht zu unterschätzender Bedeutung für die Akzeptanzbewertung und damit die Privatsphäre-Grenzziehung, denn aus den Stimmungen in der Gesellschaft lassen sich grundsätzlich äusserst hilfreiche Schlüsse für die Gestaltung des Demonstrators bzw. des Endergebnisses der technischen Projektpartner ziehen. Oder anders gesagt: ein „kleinster gemeinsamer Nenner“ von Privatsphäre kann weder an der Fach- noch an der allgemeinen Öffentlichkeit vorbei generiert werden. Wenn die Öffentlichkeit – in welcher Form auch immer – zu erkennen gibt, dass sie gegen intelligente Videoüberwachung nichts einzuwenden hat, ist das eine brauchbare Aussage. Wenn sie sich genau dagegen erkennbar wehrt, ist dies ebenso hilfreich.

Abbildung 6: Mit Vorsicht zu genießende Angaben über untersuchte Datenmengen. Anm.: Nachweis der im Zeitraum 20. Oktober 2013 bis 20. Oktober 2014 auf dem Dienstnotebook durch die Antivirensoftware Kaspersky Anti-Virus verarbeiteten Datenmenge. Selbst wenn von einem fünfzigprozentigen Privatnutzungsanteil ausgegangen werden würde (was im hiesigen Falle viel zu hoch gegriffen wäre), sprechen die Zahlen der untersuchten Daten dennoch eine eindeutige Sprache: unabhängig vom genauen Prozentanteil dokumentieren sie die Notwendigkeit, viel Information effizient und zielführend zu verarbeiten.

Für T2 fielen letztlich im Zeitraum Januar 2012 bis Dezember 2014 insgesamt gut 10.000 (Bildschirm)Seiten Rohmaterial an, verteilt auf 1600 Stunden Arbeitszeit

Abtreibung. Westdeutscher Verlag, 1998; aber auch direkte Befragungen zum Thema Meinungsbildung sind hier nennbar, beispielsweise Ecke, O.: Mediaresearch, TNS Infratest. Relevanz der Medien für die Meinungsbildung. Empirische Grundlagen zur Ermittlung der Wertigkeit der Mediengattungen bei der Meinungsbildung. TNS Infratest Media Research, http://www.blm.de/files/pdf1/Relevanz_ der_Medien_15072011.pdf, abgerufen am 7.8.2015.

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

313

bzw. 200 Arbeitstage (siehe Abbildung 6). Dabei wurden neun Haupt- und – an zehnter Stelle – einzelne Nebenquellen genutzt: – Spiegel Online – Zeit Online – Süddeutsche Zeitung (online) – Frankfurter Allgemeine Zeitung (online) – Focus Online – Welt Online – BILD Online – Twitter – Facebook – individuelle (Neben)Quellen wie einzelne Nachrichtenwebsites, private Blogs, ausländische Nachrichtenseiten usw. Die zehn Quellen ergaben sich aus ihrer Reichweite sowie dem Gespräch mit Expertinnen und Experten, sowohl aus der Wissenschaft als auch aus dem journalistischen Bereich, so dass gleichermassen Qualität wie Quantität berücksichtigt werden konnten. Bezüglich der Quantität, dem hier letztlich ausschlaggebenden Kriterium, kann auch heute, im Jahr 2015, eine entsprechende Korrektheit der o. a. Auswahl attestiert werden, denn egal, welche Zahlen man in diesem Zusammenhang nimmt (Ranking der Nachrichtenwebsites oder „reine“ Klickzahlrankings): die Auswahl der o. a. Nachrichtenquellen erscheint hier passend. Angewendet wurde das experimentelle Verhaltensmodell des „Durchschnittslesers“, d. h. ich begab mich in die Rolle des sich täglich online informierenden Menschen. Stand 2014 sind laut ARD/ZDF-Onlinestudie627 79 Prozent der Deutschen online, das sind gut 56 Millionen Personen über 14 Jahren, die zumindest gelegentlich online sind. Von einer Massenverbreitung des Internets kann also ohne jeden Zweifel gesprochen werden. Täglich sind, so die Studie, ca. 41 Millionen Menschen online. Auch wenn Fernsehen und Radio – noch – starke Positionen im Bereich der Mediennutzung halten, so kann nun doch zweifellos davon ausgegangen werden, dass eine Onlinenutzung einen vergleichbaren Nachrichtenwert haben dürfte wie der Konsum von TV- und Radionews. Online sein ist keine Nischenaktivität mehr – das ist nicht überraschend, sondern längst klar und deutlich belegbar. Vor allem in Hinblick auf den zukünftigen Zuwachs der Onlinenachrichtennutzung.628

627 http://www.ard-zdf-onlinestudie.de/fileadmin/Onlinestudie_2014/PDF/0708-2014_Eimeren_ Frees.pdf, abgerufen am 7.8.2015. 628 Siehe dazu auch die Ergebnisse des Reuters Digital News Survey 2014 in Form der Präsentation „Die Nutzung von Informationsangeboten“ von Uwe Hasebrink und Sascha Hölig unter https:// www.hans-bredow-institut.de/webfm_send/1012, abgerufen am 7.8.2015, mit der klaren Aussage „Zunehmende Rolle der Onlinemedien in der Informationsnutzung und Meinungsbildung“ (S. 3).

314

4 Anwendung in Forschung und Praxis – Sociality by Design

Informationen stehen online dabei hoch im Kurs. Es wird also nicht nur gespielt oder nach Unterhaltung gesucht, sondern auch umfangreich recherchiert und informiert. Die Onlinestudie hält fest, dass Nachrichten mit 49 Prozent auf Platz 5 der „generell genutzten Anwendungen“ zu finden sind (nach „Informationen suchen“, „Suchmaschinen“, „E-Mail“ und „Wetterinformationen“). Auch hier wird somit eine entsprechende Relevanz belegt. Schaut man sich die Zeit an, die jede(r) Deutsche täglich online ist (durchschnittlich 111 Minuten) und behält man dann noch die Onlinezeit der tatsächlichen Onliner im Hinterkopf (166 Minuten; in der vorherigen Zahl sind auch die Offliner miteingerechnet), dann wird deutlich, dass Onlinenachrichten nicht nur von der Mehrheit der Bevölkerung genutzt werden und somit entscheidender Teil ihrer Meinungsbildung sein dürften, sondern auch, dass sie ein ganz wesentlicher Teil ihrer Onlineaktivitäten sind – wobei der Begriff „Nachrichten“ sicherlich nicht immer für jedermann dasselbe bedeutet, denn über den „echten“ Nachrichtenwert von News beispielsweise in der eigenen Facebooktimeline kann freilich vortrefflich gestritten werden. Hier soll nun jedoch der Begriff „Nachrichten“ eher grosszügig ausgelegt werden: der Durchschnittsmensch informiert sich online somit durchaus vielfältig. Das Ziel war nun, ein (grobes, lediglich entsprechende Tendenzen widerspiegelndes) Stimmungs-/Meinungsbild – direkt wie indirekt – zum Thema (intelligente) Videoüberwachung zu erhalten, um festzustellen, welcher Input der Meinungsbildung der Bevölkerung dient und inwiefern das daraus entstandene Wissen der Onlinenachrichtenleserin/des Onlinenachrichtenlesers für MisPel aussagekräftig genutzt werden kann. Dafür beobachtete ich ca. anderthalb Stunden pro Tag die Nachrichten der o. a. Websites in einem entsprechenden Modellversuch.629 Gemessen an den Zahlen des durchschnittlichen Nachrichtenkonsums erschien dieser Zeitraum mehr als ausreichend, um den Status „gut informiert“ zu erreichen. Wenn man ein etabliertes professionelles Modell zum Vergleich heranziehen will, entspricht die Zusammenstellung einer Morgenlage sicher am ehesten der hier durchgeführten Vorgehensweise.630 Nun gibt es bei diesem Modell freilich mehrere Schwachstellen: zum Beispiel wird uns wohl kaum ein Laie im Alltag begegnen, der anderthalb Stunden pro Tag so konzentriert die Nachrichten analysiert ich es modellhaft ausprobiert habe. Selbst eine journalistische, politische oder Management-Morgenlage professioneller Art wird nie perfekt, sondern immer auch subjektiv geprägt sein. Und auch ich bin nicht nur mit einem immer noch – zumindest teilweise – professionell gefärbten Blick in die Nachrichtenbeobachtung gegangen, der sich nicht vollständig mithilfe eines inneren Hebels ausschalten lässt, sondern Nachrichtenkonsum ist (wie so viele

629 Nicht selten wurden es mehr als 90 Minuten, doch als gesicherte (Mindest)Angabe gilt die genannte Zahl 630 Siehe dazu das Beispiel des ähnlich vorgehenden Pressestellenmitarbeiters im ZEIT-Artikel „Der ganz eigene Wahnsinn“, http://www.zeit.de/2015/32/verschwoerungstheorien-informationchemtrails-reichsbuerger/komplettansicht, abgerufen am 9.8.2015.

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

315

Medienkonsumvarianten) nicht selten auch „Nebenbei-Konsum“, d. h. man lässt sich treiben, verliert sich in Hin-und-Her-Klickereien, bewegt sich weiter, länger oder intensiver in bestimmte (News)Bereiche als ursprünglich vorgesehen usw. Abgrenzungen sind deshalb nicht nur strukturell, sondern auch inhaltlich schwierig und immer stark subjektiv geprägt. Wo fangen „echte“ Nachrichten an, wo hören sie auf?631 Sind Videos in der Rubrik „Panorama“ bei Spiegel Online „echte“ Nachrichten? Ist es noch Nachrichtenkonsum, wenn man vom Artikel über das Interview von YouTube-Star LeFloid mit Bundeskanzlerin Angela Merkel zu weiteren Videos von LeFloid weiterklickt und dort „hängenbleibt“?632 Oder ist das bereits Entertainment, Ablenkung, Zerstreuung, vielleicht noch „Infotainment“, aber kein echter Nachrichtenkonsum mehr? Und wenn es subjektiv noch Nachrichtenkonsum sein mag, d. h. für die einzelne Leserin/ den einzelnen Leser – was ist es dann objektiv? Von trennscharfen 90 Minuten konzentrierten Nachrichtenkonsums kann also streng genommen keine Rede sein. Des Weiteren bedeuten (bereits recht üppige) 90 Minuten Nachrichtenkonsum auch keinesfalls, dass man automatisch „alles Wichtige“ mitbekommt und keine blinden Flecken mehr bleiben. Gerade bei besonderen Lagen ist das Risiko, entscheidende Dinge zu verpassen, sehr gross – als Beispiel möchte ich an dieser Stelle den Anschlag auf den Boston-Marathon nennen, der medial einerseits fast schon sekundengenau mitzuverfolgen war, andererseits in seiner medialen Fülle jeden Laien (der ja in der Regel arbeitet, lernt oder anderweitig sein Leben umfassend ausfüllt und nicht bei jedem Ereignis zum Computer eilt und in der Folge alle anderen Tätigkeiten einstellt) überfordert haben dürfte. Das Internet bietet nicht zuletzt dank Facebook und Twitter die Möglichkeit, sehr nah an besonderen Ereignissen dran zu sein – doch nicht jedermann kann diese Möglichkeit auch umfassend nutzen. Somit sind auch 90 Minuten Nachrichtenkonsum pro Tag letztlich nur eine, so die Annahme, gute, aber keinesfalls eine perfekte Annäherung an die (Nachrichten)Realität. Diese erscheint auch eher unerreichbar. Denn gegen eine Erreichung sprechen neben der Zeit auch die Datenmengen, denn selbst die o. a. seriösen Quellen bürgen keineswegs durchgehend für vollständige, objektive und zeitnahe Berichterstattung. Neben den subjektiven Überlegungen von Verlag, Redaktion und MitarbeiterInnen spielen auch hier technische, finanzielle und organisatorische Aspekte eine beeinflussende Rolle. Sicher erscheint nur, dass die wesentlichen Ereignisse – also das, was die Mehrheit (der jeweiligen Konsumenten) beschäftigt – mit an Sicherheit grenzender Wahrscheinlichkeit immer „mitgenommen“ werden und man so zumindest die grossen Ereignisse nicht verpassen dürfte. Wenn man (wohlwollend gegenüber Konzept und Institution) die ARD-Tagesschau mit ihren

631 Siehe hierzu auch den Beitrag auf meiner eigenen Website zum Thema „Landesverrat“ unter http://www.internetsoziologie.at/de/?p=5625, abgerufen am 15.8.2015. 632 Schliesslich bauen Onlinemedien gern und häufig YouTube-Videos in ihre Artikel ein, die man auch per Mausklick auf YouTube anschauen kann. Dann ist man jedoch nicht mehr auf der ursprünglichen Nachrichtenwebsite, sondern kann der Verführung erliegen, direkt völlig andere Videos anzuschauen und so auch ganz andere Inhalte („nichtnachrichtlicher“ Art) zu konsumieren.

316

4 Anwendung in Forschung und Praxis – Sociality by Design

15 Minuten Sendezeit pro Tag als Nachrichtenreferenz („was man wissen muss“) heranzieht – was nach meiner Ansicht für viele Deutsche ein plausibler kleinster gemeinsamer Nenner sein dürfte -, so dürfte die sechsfache Nachrichtenkonsumdauer in einem viel stärker verlinkungsorientierten Medium zumindest dafür sorgen, dass man einen entsprechend ausreichenden Blick auf die Weltläufe erringen kann. Näher dürfte man wohl kaum an den Durchschnittskonsum – und damit an die Durchschnitts-Meinungsbildung – herankommen, weshalb dieses Modell trotz seiner Schwächen immer noch – auch bei mehreren Diskussionen im ExpertInnenkreis – als das in diesem Kontext plausibelste und vor allem ein in der Praxis seit vielen Jahren etabliertes Modell (Stichwort: Morgenlage) galt. Nun tauchte im Zuge der Arbeit mehrfach die (völlig berechtigte) Frage auf, warum ein Durchschnittsnachrichtenabbild angestrebt wurde und nicht gezielt nach Videoüberwachungsartikeln gesucht worden ist. Der erste Grund ist, dass die Mehrheit der deutschen Bevölkerung nicht aus Nerds besteht, die tunnelblickartig nur ihr Metier im Blick haben und alle anderen Nachrichten niedriger priorisieren oder ganz ausblenden.633 Die meisten Menschen konsumieren mit an Sicherheit grenzender Wahrscheinlichkeit eher einen recht bunten Nachrichtenmix, der im digitalen Raum aufgrund der Interaktionsmöglichkeiten zwar durchaus individuell geprägt sein dürfte, trotzdem aber nicht nur das Thema Videoüberwachung beinhaltet.634 Zweitens sind auch gar nicht besonders viele spezifische Artikel zum Projektthema vorzufinden. Selbst jetzt – im August 2015 – ergeben sich bei stichprobenartiger Eingabe des Suchbegriffs „intelligente Videoüberwachung“ folgende Zahlen: Spiegel Online: 1 FAZ Online: 0 Süddeutsche Zeitung (Online-Archiv): 0 Und auch der technikzentrierte Nachrichtendienst heise.de bietet lediglich „ungefähr 16 Treffer“, was klar aufzeigt, dass der inzwischen als gesetzt zu betrachtende Begriff der intelligenten Videoüberwachung in den Artikeln bei heise.de zwar inhaltlich richtig eingesetzt wird, doch eben nicht besonders oft in den Nachrichten auftaucht. Sogar bei Google kommt man zum Testzeitpunkt635 auf nur „ungefähr

633 Siehe dazu die Merkmale des „Durchschnittsdeutschen“ im Statistischen Jahrbuch 2014 unter https://www.destatis.de/DE/Publikationen/StatistischesJahrbuch/StatistischesJahrbuch.html, abgerufen am 3.8.2015. 634 Siehe hierzu als Einstieg in das Thema „Filterblase“ („Filter Bubble“) den dazugehörigen Wikipedia-Eintrag unter https://de.wikipedia.org/wiki/Filterblase, aber auch die dort erwähnten Konzepte wie die Schweigespirale und den ebenfalls dort erwähnten Artikel „Wer stellt die Mehrheit?“ unter http://www.faz.net/aktuell/feuilleton/medien/meinungsbildung-im-internet-und-in-sozia len-netzwerken-13692445.html, jeweils abgerufen am 3.8.2015. 635 3. August 2015.

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

317

2860 Ergebnisse“, was äusserst wenig ist. (Selbst der von mir seit 1999 immer wieder vereinzelt medial ins Spiel gebrachte Begriff „Internetsoziologie“ erhält mit ungefähr 3400 Ergebnissen einen besseren Output.) Würde man einen anderen Begriff nehmen und die Kriterien für die Suche somit aufweichen – Beispiel: „Videoüberwachung“ –, so würde man zwar weit mehr Begriffe, Artikel und somit auch Auseinandersetzungen mit dem Thema finden, jedoch wäre die Ergebnismenge zugleich nicht mehr von derselben Güte aufgrund der zahlreichen themenfremden Videoüberwachungstexte. Dies würde letztlich wohl wieder zu einer gewissen Beliebigkeit führen und die Menschen in ihrer Meinungsbildung zum hiesigen Forschungsthema nicht unterstützen (siehe dazu Abbildung 7). Denn wer konsumiert schon gezielt dermassen viele Texte zum Thema Videoüberwachung? Bei der Durchschnittsbürgerin und dem Durchschnittsbürger dürften diese Nachrichten vielmehr im bunten Nachrichtenkonsummix „mitlaufen“, weshalb eine Konzentration auf „Videoüberwachung“ letztlich unplausibel erschien.

Abbildung 7: Screenshot zum News-Suchbegriff „Videoüberwachung“ bei Google News Deutschland mit über 22.000 prognostizierten Ergebnissen.

Die Menschen, so die Beobachtung, bilden ihre Meinung zu diesem Thema aufgrund der Fakten, die sie allgemein, d. h. in einem anderen Zusammenhang erhalten, verarbeiten und weitergeben.636 Soll heißen: die Menschen informieren sich über die Me-

636 Dieses Phänomen ist in der Sozialpsychologie als Halo-Effekt bekannt, siehe dazu beispielsweise Kromrey, S. 385 f.

318

4 Anwendung in Forschung und Praxis – Sociality by Design

dien in bedeutendem Masse auch zum Thema Sicherheit, somit bilden sie sich auch ihre Meinung in Sachen intelligenter Videoüberwachung aufgrund ihrer bisherigen Kenntnisse zu ähnlichen Themen. Eine besondere Recherche wird wohl eher nicht gestartet: ein Gewaltvorfall oder ein Amoklauf dürften die Akzeptanz von Videoüberwachungslösungen insgesamt eher steigern und die Entscheidungsfindung entsprechend beeinflussen oder sogar überlagern, so dass die Frage nach „intelligent“ oder „konventionell“ kaum gestellt werden dürfte.637 Wenn also die Politik oder Unternehmen eine intelligente Videoüberwachungslösung einführen, basiert die Meinung der Bevölkerung zu diesem Thema, so die These, ganz wesentlich auf allgemeinem Medienwissen. Dies beschreibt natürlich auch klar die Macht der Medien und ihre Möglichkeit zur Manipulation: nicht zuletzt deshalb wurde bereits auf die Schweigespirale hingewiesen. Wenn neun von zehn der bedeutendsten Medienhäuser über einen längeren Zeitraum und medial lautstark Videoüberwachung auf allen Plätzen und Strassen Deutschlands fordern würden, wäre es für die Gegner dieser Idee eine gewaltige Aufgabe, gegen diesen Vorschlag argumentativ anzukommen und auf eine individuelle objektive Bewertung durch jede einzelne Bürgerin und jeden einzelnen Bürger hinzuwirken – ganz egal, ob die Forderung der Medienhäuser objektiv gerechtfertigt oder völliger Unsinn wäre. Jede Leserin und jeder Leser unterliegt somit wohl immer wieder mal dem HaloEffekt. Nicht jedes Thema wird gleichermaßen diszipliniert und tiefgehend analysiert, sondern es gibt schwankende Motivationen, unterschiedliche Leistungsfähigkeiten, unbewusste Verzerrungen, tiefsitzende Vorurteile, unvermeidbare Heuristiken und viele andere Einflüsse, die nicht immer zum „richtigen“ (d. h. objektiv bestmöglichen) Ergebnis führen. Der Modellversuch sollte somit zu einem plausiblen Abbild dieser alltäglichen Situation führen. Nun, nach Abschluss dieses Projektteils, kann folgendes Fazit gezogen werden: – Grundsätzlich erscheint die Idee plausibel und umsetzbar. – Medial besonders außergewöhnliche Ereignisse sorgen jedoch für enorme Herausforderungen. Das bedeutet konkret: bis ca. Mitte 2013 wähnte ich mich auf einem guten Weg. Die Medienbeobachtung verlief kontinuierlich und in der experimentellen Rolle des Durchschnittslesers gewann ich ein entsprechendes Bild zum Thema Sicherheit. Doch dann kam der Einschnitt: die NSA-Affäre. Medial änderte sich die Situation komplett. Zwischen Juni und September 2013 rechneten sicher nicht wenige BeobachterInnen mit einer spürbaren Richtungsänderung der öffentlichen Mehrheitsmeinung hinsichtlich der Verwendung von Sicherheitstechnologie, auch in klassisch eher wohlwollenden Kreisen, sprich: bei konservativen Politikerinnen und Politikern und deren

637 „Der Effekt entsteht auch bei mangelnder Motivation und Informiertheit der Beurteilenden“, https://de.wikipedia.org/wiki/Halo-Effekt#Effekt, abgerufen am 7.8.2015.

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

319

Wählerinnen und Wählern. Die Medienbeobachtung in diesem Zeitraum liess keinen anderen Schluss zu: fast niemand fand die NSA-Überwachung gut.638 Dieses Ereignis hätte, so der Eindruck während der Medienbeobachtung, fast schon zwangsläufig zu entsprechenden Reaktionen führen müssen, so wie die Katastrophe von Fukushima auch entsprechende Massnahmen (vor allem den Atomausstieg Deutschlands) zur Folge hatte, aber auch die Anschläge vom 11. September 2001 zu entsprechenden Gesetzesverschärfungen in Deutschland führten (Stichwort: „Otto-Kataloge“). Die Chance eines Stimmengewinns seitens oppositioneller Parteien wie der Piratenpartei bei der Bundestagswahl 2013 erschien aufgrund der Medienberichte fast schon zwangsläufig. Wenn nicht die Opposition jetzt daraus Kapital schlagen kann – wann dann? Wie gesagt: das war ein durchaus plausibler Eindruck auf Basis der Medienbeobachtung. Doch wie zuvor erwähnt wurde, gehört zu einer Analyse der Situation bei besonderen Lagen weit mehr als nur das alltägliche Lesen von Nachrichten. Denn die Opposition versagte nicht nur sehr deutlich bei der Bundestagswahl, sondern ganz besonders erfolglos waren vor allem die Piraten. Mit nur rund zwei Prozent blieben sie – aus meiner Sicht bei Betrachtung des gesamten Bildes: zu Recht – völlig unbedeutend. Angela Merkel stand mit der CDU hingegen kurz vor der absoluten Mehrheit (siehe Abbildung 8).

Abbildung 8: Screenshot von SPIEGEL ONLINE mit dem vorläufigen Endergebnis der Bundestagswahl 2013.

Das Thema Sicherheit, so die Erkenntnis, war den Deutschen unterm Strich offenbar nicht so wichtig wie andere Themen. Das mag rückblickend nicht besonders überraschend erscheinen, doch während der Medienbeobachtung sah dies durchaus anders aus. Die Medien steigerten sich allgemein in immer neue Superlative:

638 „Klar ist eins: Die Deutschen sind enttäuscht von ihrer Regierung“, http://www.spiegel.de/ netzwelt/netzpolitik/studie-zum-nsa-skandal-deutsche-internetnutzer-enttaeuscht-von-merkel-a914299.html, abgerufen am 7.8.2015.

320

4 Anwendung in Forschung und Praxis – Sociality by Design

dass die USA für nicht weniger als einen globalen Skandal verantwortlich seien war noch eine der harmloseren Aussagen. Wer jetzt online nach News suchte, konnte den NSA-Enthüllungen faktisch kaum entgehen – und die Meinungen sowohl in den Medien als auch in den Kommentarbereichen waren sehr oft sehr eindeutig, d. h. ablehnend. Das dürfte es vielen freilich schwer gemacht haben, eine andere Meinung zu bewahren (Stichwort: Schweigespirale) oder auch auf eine andere Meinung zu kommen. (Oder auch nur Desinteresse am Thema zu signalisieren.) Doch die Bundestagswahl findet nun einmal geheim statt. Niemand kann die Wählerinnen und Wähler völlig „durchleuchten“ und ihre endgültige Motivation bestimmen. Sie mögen sich der öffentlichen NSA-Ablehnung anschliessen, wenn sie mit anderen Menschen oder auch Vertretern der Medien darüber sprechen. Sie mögen auch zustimmen, dass sich „etwas ändern“ muss. Doch dass so viele von ihnen dann die CDU gewählt haben und nicht die politischen Angebote der Opposition annahmen, die sich medial umfangreich und ausdauernd über die „Untätigkeit der Regierung“639 aufgeregt hat, bedeutet zumindest, dass entweder andere Themen noch deutlich wichtiger waren (und im Wahljahr 2013 mangelte es freilich nicht an gesellschaftlich relevanten Themen) oder ihre wahre Meinung von ihrer geäusserten abwich. Schliesslich ist es nicht neu, sich öffentlich – und sei es auch nur im kleinen Kreis – anders zu äussern als es späteres Verhalten nahelegt.640 Damit wurden der Medienbeobachtung sehr deutlich ihre Grenzen aufgezeigt: sie funktioniert nach dem vorgesehenen Modell wohl nur dann recht präzise, wenn im Beobachtungszeitraum und zum entsprechenden Thema (hier: Sicherheit) die „alltäglichen“ Mechanismen greifen. Bei besonderen Ereignissen, die die Welt bewegen oder zumindest in Deutschland für aussergewöhnlichen Aufruhr in den Medien sorgen, wird das Bild verzerrt und es müssen zusätzliche Aspekte stärker berücksichtigt werden. Sonst entsteht nicht Schritt für Schritt ein „Durchschnittsbild“ eines medial konnotierten Meinungsbildungsprozesses, sondern es gibt Ausreisser und „Meinungsspitzen“, die auch entsprechende Auswirkungen auf andere Lebensbereiche haben und dorthinein abfärben. Oder um es mit einem Beispiel zu illustrieren: zwar gab und gibt es in der Bevölkerung sicherlich eine sehr grosse Ablehnungshaltung gegenüber der Internetüberwachung der NSA, zugleich gab es in Deutschland aber auch weiter eine sehr konkrete Gefährdung durch (islamistischen) Terrorismus und es gibt auch weiterhin den NSU-Prozess, der deutlich macht, dass rechtsextremistische Gewalt keineswegs längst Geschichte, sondern vielmehr bitterer Alltag ist, was die Menschen letztlich zu einer Abwägung zwang:

639 https://www.google.de/search?q=nsa+aff%C3%A4re+%22unt%C3%A4tigkeit+der+regierung %22, abgerufen am 7.8.2015. 640 Diese Überlegungen begegneten dem Verfasser auch immer wieder im Zusammenhang mit „Protestwählern“ beispielsweise der NPD: „die Partei schneidet bei Wahlen oft besser ab als in Umfragen“, http://www.sueddeutsche.de/politik/npd-in-mecklenburg-vorpommern-bodenstaendigbraun-1.1138717, abgerufen am 16.8.2015.

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

321

generell Überwachung einzuschränken könnte (!) auch bedeuten, Terroristen ihr tödliches Handwerk zu erleichtern. Auch wenn Deutschland zumindest vom islamistischen Terrorismus bisher weitestgehend verschont geblieben ist, so sprechen auch fehlgeschlagene Attacken und erst recht die Ereignisse im Ausland – vor allem in geographisch nahen Ländern – eine eindeutige Sprache. Das sorgt für innere Konflikte: einerseits wünschen sich sicherlich die meisten Deutschen keine „Stasi 2.0“, andererseits gilt Deutschland auch als besonders sicherheitssensibles Land und der Begriff der „German Angst“ ist im Ausland längst etabliert. Wenn dann noch zahlreiche Einflussgrössen (andere bewegende Ereignisse wie die Eurokrise, Griechenlands Finanzprobleme, Flüchtlinge, die aussergewöhnlich zahlreich nach Deutschland kommen usw.) hinzukommen, mag vielleicht die Bestimmung des Endergebnisses („Pro/Contra Sicherheit“, „Pro/Contra Überwachung“ usw.) noch möglich sein, doch für eine wissenschaftliche Analyse der Beweggründe bedürfte es mindestens zahlreicher Interviews (nicht unerheblicher, eher sogar extrem hoher Zahl), was weder im Rahmen dieses Teilprojekts vorgesehen war noch leistbar gewesen wäre und auch nicht ohne einen besonders grossen Rahmen in einem anderen Kontext (separates, sehr umfangreiches Forschungsprojekt, langjährige Daueraufgabe eines Instituts o. ä.) zu leisten ist. Aber da dies ohnehin nicht das Ziel der hiesigen Medienbeobachtung war, sondern diese sich auf die Feststellung eines ersten brauchbaren Status Quo beschränkte, soll dieser nun auch hier entsprechend dargestellt werden. Trotz aller Verwerfungen während der Beobachtungen konnten einige Aspekte deutlich herausgefiltert641 werden, die hier nun genannt werden sollen: – Das Thema Videoüberwachung spielt im Alltagsdiskurs keine besondere Rolle. Allgemein ist Sicherheit ein Thema (befeuert beispielsweise durch Gesetzesentwürfe, die ihren Weg durch den Bundestag gehen, besondere Ereignisse, die weniger bedeutend sind als die NSA-Affäre, beispielsweise Überfälle, Kindesentführungen, Einbrüche), doch es bleibt erstens eher abstrakt und zweitens spielten auch Spezialdiskurse mit Ausnahme der NSA-Affäre im Beobachtungszeitraum insgesamt keine bemerkenswerte Rolle. (Selbst die Diskussion rund um die Vorratsdatenspeicherung blieb weitestgehend ein Spezialdiskurs.) Von der Einwirkung des Halo-Effekts kann somit entsprechend ausgegangen werden. – Die Qualität der Beiträge rund um das Thema Videoüberwachung liess in aller Regel deutlich zu wünschen übrig, d. h. es unterliefen zahlreichen Journalisten entweder bedeutende Fehler (v. a. technischer Art), die den Sinngehalt eines

641 Im Rahmen der Beobachtung war explizit eine eher allgemeine Auswertung vorgesehen, so dass an dieser Stelle auch keine tiefgehende Diskursanalyse dargestellt werden soll, die bis auf einzelne Wörter eingeht, sondern lediglich die Tendenzen, die der Verfasser beobachten konnte. Naturgemäss kann so eine Analyse nur zu eher behutsamen Aussagen führen, doch diese sind dafür entsprechend dokumentiert – und sie erfüllen das Projektziel, da sie bei der Skizzierung einer Privatsphäreuntergrenze helfen.

322

4 Anwendung in Forschung und Praxis – Sociality by Design

Artikels nicht nur marginal beeinflussten und zudem bereits im ersten Schritt einer eigenständigen Recherche aufzudecken waren oder die Artikel waren deutlich weniger objektiv als es aufgrund journalistischer Sorgfaltspflicht nötig gewesen wäre. Damit könnte – im Falle einer entsprechend negativ konnotierten Interpretation der Motivation der jeweiligen Autorin bzw. des jeweiligen Autors – das Merkmal der „Stimmungsmache“ durchaus als erfüllt angesehen werden. Ich hatte schon „mit den Augen des Laien“ nicht den Eindruck, dass zahlreiche Sicherheits- bzw. Videoüberwachungsbeiträge wirklich zu einer gehaltvollen Information der Öffentlichkeit beitragen können – und erst recht nicht aus der Perspektive des Experten. Der von zahlreichen Kolleginnen und Kollegen oftmals kritisierte Trend zur Boulevardisierung der Nachrichten dürfte hier entsprechende Spuren hinterlassen haben. Und selbst wenn dies faktisch nicht so sein sollte, so wird doch in der Medienwelt durchaus angenommen, dass sich Medien und MediennutzerInnen deutlich voneinander entfremdet haben.642 Die digitale Vernetzung mit ihren Kommentierungs- und alternativen Informationsmöglichkeiten fällt hier entsprechend ins Gewicht. Und letztlich finden sich zahlreiche Fakten, die es einer inhaltlich sauberen Auseinandersetzung mit einem Thema nicht leicht machen: Amerika ist das Land der Freien, aber es ist auch das Land der Apokalypse. Hier gehört das Misstrauen gegenüber Autoritäten zur institutionellen Grundausstattung. (. . .) Aber das Ablehnen von wissenschaftlichen Ergebnissen hat noch einen anderen Grund. Es ist die Angst, die Kontrolle zu verlieren – nicht nur über die Welt, sondern über das eigene Leben. Und so zieht sich die Wissenschaft in Amerika immer stärker aus der Öffentlichkeit zurück. (. . .) Pro fünf Stunden Fernsehnachrichten kommt weniger als eine Minute an wissenschaftlichen Themen vor. Die Anzahl an Zeitungen, die einen Wissenschaftsteil haben, ist in den letzten zwanzig Jahren um 40 Prozent gesunken. Das hat vielen Wahrheiten Platz gemacht: 87 Prozent der Wissenschaftler sagen, dass der Klimawandel menschengemacht ist; nur 50 Prozent der Amerikaner glauben daran. 98 Prozent der Wissenschaftler sagen, der Mensch ist durch Evolution entstanden; nur 65 Prozent der Amerikaner glauben daran.643

– Die Kommentarbereiche der beobachteten Onlinemedien waren grundsätzlich keine brauchbare Hilfe bei Informationssuche oder Entscheidungsfindung. Zwar fanden sich auch immer mal einige hilfreiche Kommentare, doch meist erschien mir stets dasselbe Bild von der einen Blume, die auf einem riesigen Misthaufen wächst, vor dem inneren Auge. Oder anders ausgedrückt: man mag ab und zu auf etwas Sinnvolles stossen, doch bis dahin trifft man meist auf sehr viel Unsinn. Beliebige Stichproben aus den zahlreich dokumentierten Websites, die ich in den

642 Siehe dazu beispielsweise http://www.zeit.de/2015/32/verschwoerungstheorien-informationchemtrails-reichsbuerger/komplettansicht, abgerufen am 9.8.2015. 643 http://www.zeit.de/2015/32/verschwoerungstheorien-information-chemtrails-reichsbuerger/ komplettansicht, abgerufen am 9.8.2015, mit eigenen Betonungen, fett formatiert.

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

323

Jahren 2012 bis 2014 durchgearbeitet hat, können dies entsprechend deutlich machen. Diese Beobachtung wurde zwischenzeitlich auch durch Externe mehrfach bekräftigt, direkt beispielsweise durch das massenmediale und international entsprechend stark beachtete Phänomen der „Putin-Trolle“644 und indirekt durch nicht weniger deutlich erkennbare Entwicklungen wie Clickbaiting.645 Beide Phänomene trugen dazu bei, dass die ohnehin schon durch zahlreiche Negativerscheinungen stark in Mitleidenschaft gezogene Partizipation und Interaktion in journalistischen Medien weiter an Qualität einbüsste und kein Massstab für Entscheidungen wie im Falle von MisPel sein kann. Ein „Shitstorm“ eines bestimmten Milieus gegen die Einführung einer konkreten Technologie (beispielsweise Fahndungsfotoabgleich durch Kameras in einem internationalen Flughafen nach Betreten des Sicherheitsbereichs) hat sein mediales Empörungspotential faktisch längst eingebüsst. Zur „Schwarmintelligenz“ gehört eben auch immer „Schwarmdummheit“ und Quantität geht auch hier – in Kommentarspalten, Diskussionsforen und Chats – nicht über Qualität. Es ist das gute Recht eines jeden Menschen, frei seine Meinung äussern zu können – nur muss nicht jeder Meinung automatisch auch gleiches Gehör bzw. gleich viel Aufmerksamkeit geschenkt werden. Twitter ist beispielsweise nicht automatisch repräsentativ für die deutsche Gesellschaft, nur weil sich zigtausende durch Mausklick einer bestimmten Empörung anschliessen, und bestimmte Themenstränge oder Empörungswellen in anderen digitalen Bereichen sind es ebenfalls nicht. Das zeigte sich in den drei Jahren der Medienbeobachtung sehr deutlich. – Die Aussage bezüglich einer allgemein anerkannten Untergrenze von Privatsphäre konnte letztlich nicht mit einem finalen Aspekt, einem Schlusspunkt oder einem Leitsatz festgemacht werden („Konventionelle Videoüberwachung: ja, intelligente Videoüberwachung: nein“). Eher wurde im Laufe der Arbeit immer deutlicher, dass es eines Rahmenkonzepts bedarf, welches die sich ständig ändernde (und technisch wie rechtlich allein kaum mehr zu fassende) Frage der Privatsphäre einerseits strukturiert, andererseits genügend Raum für relevante Änderungen in technischer, rechtlicher und gesellschaftlicher Hinsicht lässt. Dies wird in der Folge zum Rahmenkonzept Sociality by Design führen, doch für MisPel sollen entsprechende Empfehlungen bereits im letzten Teil dieses Berichts genannt werden. Die Kernerkenntnis ist jedoch klar: die Zeiten einer dauerhaften statischen Definition von Privatsphäre sind vorbei. Der Wunsch des Gesetzgebers, eine entsprechende Norm zu verabschieden, um dann zehn Jahre oder länger „Ruhe haben“ zu können („ein Problem – eine Lösung“), erscheinen aufgrund der immer zahlreicheren und vielfältigeren

644 Siehe dazu beispielsweise https://de.wikipedia.org/wiki/Troll-Armee, abgerufen am 7.8.2015. 645 Siehe dazu beispielsweise http://www.oxforddictionaries.com/de/definition/englisch/click bait, abgerufen am 7.8.2015.

324

4 Anwendung in Forschung und Praxis – Sociality by Design

Einflüsse auf Phänomene wie Privatsphäre/Privatheit, Datenschutz und Datensicherheit äusserst unrealistisch. Dies belegte vor allem die Auswertung der ExpertInnenliteratur sehr eindrucksvoll, aber auch die immer zahlreicher auftretenden Ereignisse im digitalen Bereich, die in den allgemeinen Medien kommuniziert worden sind – von Windows-Updates über Sicherheitsvorfälle in Behörden und Firmen, Smartphone-Hacks und „Cyberkriege“ bis zum selbstfahrenden Auto und dem Smart Home, welches ebenfalls via Internet ansteuerbar ist – machen der Gesellschaft und somit uns allen deutlich, dass Datenschutz keine singuläre Massnahme mehr sein kann und auch keine singuläre Perspektive mehr zulässt. Je individualisierter die (Lebens)Welt ist und je mehr die technische Sphäre um uns herum zersplittert, desto individueller und vielfältiger wird auch die Ausgestaltung von Privatsphäre. Ganz abgesehen von der Herausforderung, die komplexen Auswirkungen überhaupt noch zielführend verstehen und erfolgreich einordnen zu können. Es erscheint deshalb schwerer denn je, jedermann eine erfolgreiche Gestaltung von Rückzugsraum und Privatheit zutrauen zu können. Die Medien trugen jedenfalls aus meiner Sicht nicht dazu bei, das Individuum erfolgreich bei dieser Tätigkeit zu unterstützen. Hier ist davon auszugehen, dass nur Beiträge auf wissenschaftlichem Niveau entsprechende Wirkung entfalten können. Das heisst letztendlich, dass ich in meiner Rolle als Medienbeobachter nur zu dem einen Schluss gelangen konnte: die Meinungsbildung zum Thema Sicherheit erfolgt eher abstrakt und ist aufgrund der weiter stark anwachsenden Meinungs- und Informationsvielfalt in Zukunft eher schwieriger als leichter zu bewältigen. Das macht ein Stimmungsbild entsprechend herausfordernd. Eine Institution, die nun eine moderne, erstmals einsetzbare Technologie in die Gesellschaft implementieren und zuvor eine Feedbackprognose erhalten möchte, kann nun aufgrund „simpler“ Analysen keinesfalls mehr zu einem haltbaren Schluss kommen, sondern muss sich die engen Grenzen einer Einzelfalllösung („Wir haben 100 Leute gefragt und das Ergebnis war eindeutig . . .“) ebenso klar und deutlich vor Augen führen wie die Komplexität einer Medienanalyse im Rahmen einer Längsschnittstudie (v. a. aufwändig, teuer, langwierig, nichttrivial). Die aufwändigere Variante sollte es einem aber – zumindest bei komplexeren, invasiveren und/oder langfristigeren Techniklösungen – wert sein, denn so sind aufgrund der Expertenkenntnisse, die während des Forschungsprozesses gewonnen werden, deutlich feiner abgestimmte Technikimplementationen und wohl auch deutlich geringere Reibungsverluste realisierbar. Da dieser Bericht aus organisatorischen Gründen vor allen anderen Berichten des Projektverbunds angefertigt werden musste, sind an dieser Stelle leider keine Einzellfalleinschätzungen dieser Art nennbar. Doch ich für solcherlei Fragen jederzeit gern kontaktiert werden kann, entstehen keinerlei Informationsverluste. Auch bleiben die Daten bis auf Weiteres erhalten, auf denen ich meine Aussagen begründe – an

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

325

dieser Stelle sei sowohl auf das Wiki646 als auch auf das Projekt Sociality by Design, aber natürlich auch auf den Schlussteil dieses Berichts verwiesen.

T3: Interviews Don’t be thinking what you’re going to say. Most people never listen. Nor do they observe. You should be able to go into a room and when you come out know everything that you saw there and not only that. If that room gave you any feeling you should know exactly what it was that gave you that feeling. Ernest Hemingway

Für die Interviews konnten letztlich elf Polizeibedienstete gewonnen werden. Eine grössere Anzahl war aus organisatorischen Gründen leider nicht möglich. Es wurde mit einer Interviewdauer von ca. 20 bis 30 Minuten gerechnet.647 Da der Interviewte in seiner Antwortgestaltung aber entsprechend frei war, konnte es auch durchaus länger dauern. (Das längste Interview dauerte circa 45 Minuten, das kürzeste knapp 25 Minuten.) Es fanden ausschliesslich Einzelbefragungen statt. Dafür wurden von jeder Dienststelle Räumlichkeiten zur Verfügung gestellt, die ein ungestörtes Interview ermöglichten. Es fand eine Aufzeichnung auf SD-Karte mithilfe eines Diktiergerätes (keine digitale Vernetzungsfunktion via Funk wie bei einem Smartphone mit Aufzeichnungs-App) statt. Die Interviews verbleiben ausschliesslich beim Interviewer auf der jeweiligen SD-Karte und wurden auch hausintern (d. h. innerhalb der UdK) nicht weitergegeben. Der Interviewer sicherte zu, keinerlei Angaben über Inhalte, Vorgänge und Personen machen, wenn die Vorgesetzten der Interviewten oder die Interviewten selbst dies wünschen. Dieser Geheimschutz wurde kooperativ zwischen dem Interviewer und den Vorgesetzten der Interviewten vollzogen, wobei anzumerken ist, dass kein Vorgesetzter hier besondere Wünsche äusserte, einige der interviewten Personen hingegen auf einige persönliche Angaben wie Nachname oder Alter verzichteten. Allgemein erwünscht war der Verzicht auf alles, was konkrete Rückschlüsse auf Arbeitsweisen oder Fälle zulassen könnte. Dieser Wunsch war problemlos umsetzbar, allein schon durch die Fragenauswahl, die mit dem Konsortium ebenso abgestimmt wurde wie mit den Vorgesetzten der Interviewten und vollumfänglich meinen Wünschen entsprach. Während des Interviews durften nur der Interviewer und der Interviewte zugegen sein, was ebenfalls in allen Fällen problemlos realisierbar war. Das Interview selbst war/ist vertraulich.648 Es wird an dieser Stelle auf die Zugehörigkeit des Interviewers zum schweigepflichtigen Personenkreis gemäss § 203 StGB (Amtsträger und Amtsgeheimnis) hingewiesen. Die Interviewten waren frei in ihren Antworten und es durfte diesbezüglich kein Druck auf sie ausgeübt werden.

646 http://www.humer.de/wiki. 647 Lamnek, S. 307. 648 Lamnek, S. 366.

326

4 Anwendung in Forschung und Praxis – Sociality by Design

Die erste Frage diente zur Unterscheidung der Interviews/Interviewpartner und ist nicht Teil des Fragenkatalogs im engeren Sinne. Die Interviewpartner wurden vorher kurz über Inhalt und Ablauf des Interviews aufgeklärt, bekamen jedoch keinen Fragenkatalog zur Ansicht, da dieser wie gesagt nur den Rahmen absteckte und nicht Schritt für Schritt „abgehakt“ werden sollte. Ob die Vorgesetzten, die über den Fragenkatalog vorab zu informieren waren, diesen an ihre Mitarbeiter weitergeleitet haben, kann an dieser Stelle keine Aussage getroffen werden. Soweit mir bekannt, war dies nicht der Fall. Die Einstiegsfrage: 1.

Bitte nennen Sie Ihren Namen (oder einen Aliasnamen/ein Pseudonym, eine Nummer oder eine andere unzweideutige Kennung), Ihre Amtsbezeichnung und Ihre derzeitige Tätigkeit bei Ihrem Dienstherren/Arbeitgeber.

Von den elf Bediensteten (allesamt Männer) waren die meisten Polizeibeamte, ein Interviewpartner war technischer Angestellter. Die Amtsbezeichnungen der Polizeibeamten reichten von Polizeiobermeister bis (Polizei-/Kriminal-)Hauptkommissar, vertreten war hinsichtlich der Statusgruppen vorrangig der gehobene Dienst (der Polizeiobermeister war der einzige Vertreter des mittleren Dienstes). Alle befragten Personen waren direkt mit Videoüberwachung befasst, wobei die zeitliche Bandbreite hier von wenigen Jahren bis zu mehreren Jahrzehnten reichte.649 Fragen im engeren Sinne (mit inhaltlichem Schwerpunkt): 2.

Erzählen Sie bitte etwas über Ihre Tätigkeit in Bezug auf Videoüberwachung und -auswertung (konkrete Aufgabenbereiche, Aufgabenausprägung, Ausbildung, . . . )

Festzustellen war, dass nur die wenigsten Personen eine standardisierte Ausbildung durchlaufen haben. Häufig fiel der Begriff „learning by doing“ und auch hausinterne sowie Firmenschulungen wurden des Öfteren genannt. Viele der Befragten hatten bereits (aufgrund ihres Lebens- bzw. Dienstalters) Erfahrungen mit analogen Geräten gesammelt. Häufig spielte privates Interesse an Videotechnik eine Rolle bei der Entscheidung, sich für eine Stelle im Bereich der Videoüberwachung/-analyse oder -technik zu bewerben bzw. in diesem Bereich entsprechend tätig zu werden – und auch ausgewählt zu werden. Im Bereich der Spezialeinheiten gehört Videotechnik zur jeweiligen Ausbildung, so die Aussage eines MEK-Beamten.

649 Wobei anzumerken ist, dass die Tätigkeit meist nicht zu 100 % gleichbleibend ist – Video ist vielmehr ein sich permanent wandelnder Teil der polizeilichen Tätigkeit.

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

3.

327

Wie bewerten Sie diese Tätigkeit? Wie erscheint Ihnen diese Tätigkeit ganz allgemein und im Kontext der polizeilichen Arbeit? (Effizient, sinnvoll, umständlich, langweilig, zielführend, unverzichtbar, angenehm, . . . )

Hier antwortete niemand, dass Videotechnik irrelevant oder redundant sei – im Gegenteil: vielfach wurde deutlich betont, dass die Technik unverzichtbar, wichtig oder auch hilfreich sei. Ein Beamter wollte kein Pauschalurteil abgeben, er verglich Videotechnik mit einem (wichtigen) Element in einem grossen Gesamtpuzzle. Ein anderer Beamter relativierte Videotechnik etwas, indem er ihren Einsatz vorrangig von den situationellen Gegebenheiten abhängig machte. Trotzdem seien die Erfahrungen gut, so der Beamte. Und dies schloss dann auch wieder an die Aussagen aller anderen Polizisten an, die ebenfalls die Sinnhaftigkeit von Videotechnik meist deutlich hervorhoben. 4. Welche Rolle spielt die konkrete Technik, d. h. Hard- und Software, und welche Rolle spielen andere Faktoren bei dieser Bewertung (beispielsweise die Arbeitsplatzgestaltung, Verwaltungsvorschriften, . . . )? Die meisten Polizisten sahen die konkrete Technik weit oben auf der Prioritätenliste. Diese müsse auf der Höhe der Zeit bzw. „High End“ sein, damit die Polizei ihre Aufgaben erfüllen könne, so die mehrmals dokumentierte Aussage. Relativ uninteressant waren für sie meist Verwaltungs- oder rechtliche Vorschriften, da diese an anderer Stelle oder durch andere Personen geregelt werden und unisono die Einhaltung dieser Regeln das einzige Interesse darstellte (im Gegensatz zu Änderung oder Erstellung). 5.

Was ist gut, was müsste verbessert werden?

Auch wenn die bisherige Technikausstattung meist gelobt wurde, so dominierte in Hinblick auf mögliche Verbesserungen der Wunsch nach noch besserer, aktuellerer und leistungsstärkerer Technik. Einmal wurden „gerichtsverwertbare Auswertungen“ als Wunsch genannt, in anderen Fällen spielte auch der Arbeitsplatz (eigener Raum, ruhige Arbeitsumgebung) eine wichtige Rolle. 6. Es gibt keine Formaldefinition von „konventioneller“ bzw. „intelligenter“ Videoüberwachung. Wie unterscheiden Sie konventionelle und intelligente Videoüberwachung? Für die meisten Polizisten hat intelligente Videoüberwachung viel mit Arbeitserleichterung, Effizienzsteigerung und der Einsparung von Manpower zu tun. Sie soll Arbeit abnehmen, beispielsweise durch automatische Detektion, Marker, die überwachte Bereiche kennzeichnen usw. Idealerweise löst sie selbständig Probleme.

328

7.

4 Anwendung in Forschung und Praxis – Sociality by Design

Wo sehen Sie Vor- und Nachteile jeweils von konventioneller und intelligenter Videoüberwachung?

Der mit Abstand am häufigsten genannte Vorteil der konventionellen Videoüberwachung – die übrigens meist mit analoger Videotechnik gleichgesetzt wurde – ist ihre robuste Einfachheit. Sie war, so mehrere Beamte unisono, einfach in der Handhabung, klar und berechenbar. Aber eben auch langsam, umständlich und wenig komfortabel, so dass letztlich niemand der analogen Technik hinterhertrauerte. Denn vor allem der Faktor Zeit, also die Auswertung in Echtzeit, ohne Möglichkeit der intelligenten Verkürzung, wurde hier als Argument gegen die konventionelle und für intelligente Videoüberwachung jeder Art ins Feld geführt. Diese ist zudem kleiner, schneller, leistungsstärker, wenngleich nicht frei von Schattenseiten. Meist sei digitale bzw. intelligente Videotechnik deutlich komplexer (hinsichtlich der Bedienung/Anwendung), zudem oft auch komplizierter und teuer. Nicht immer klappe die Erfassung anhand der Vorgaben, die der Anwender mache – die Software sei nicht fehlerfrei. Die Einsparung an „Manpower“ sei aber unterm Strich trotzdem die Einführung wert gewesen. Ein Beamter mahnte jedoch auch: das Einsetzen von Filtern (beispielsweise Definierung von räumlichen Punkten, um Bewegungen nur in diesem vorgegebenen Feld zu erfassen) verführe zur Faulheit. Wer eng genug definiert, schliesst dementsprechend viel Material aus. Ein anderer Beamter mahnte, nicht nur ironisch, zur Vorsicht aufgrund kollidierender „intelligenter Technik“ anderer Art, beispielsweise zeitgesteuerte Rollos, die versteckte Videotechnik in konspirativen Wohnungen unerwarteterweise ver- oder auch blossstellt, da auf einen äusseren Reiz wie beispielsweise unerwartet viel Sonnenschein reagiert wird, was zu Öffnen oder Schliessen führen kann. 8. Wo sehen Sie Chancen und Grenzen von konventioneller wie auch intelligenter Videoüberwachung? Bei den Chancen und Grenzen waren die Antworten vielfältig und die Tendenzen nicht mehr so deutlich wie bei den zuvor gestellten Fragen. Generell erschienen den Beamten nur sehr wenige Grenzen der intelligenten Videoüberwachung. Dass der jeweilige Sachbearbeiter aufgrund der Kenntnistiefe in „seinem“ Fall manchmal besser Personen identifizieren kann als es eine rein digitale Analyse (beispielsweise in Hinblick auf Bewegungs- und Verhaltensmuster) vermag, erschien mehreren Beamten wichtig zu betonen, vor allem im Bereich der Livebildanalyse oder bei (nicht seltener) mässiger Bildqualität. Ebenso wurde mehrfach betont, dass auch der Datenschutz mit der Zeit gehen und zumindest in Teilen neu gedacht werden müsse. Grenzen sah ein Beamter im Bereich der Gerichtsverwertbarkeit, da eine automatisierte Analyse bei Gerichten und anderen Betroffenen ein Umdenken erfordern würde. Auch die Beamten selbst müssten erst Vertrauen in die Analysefähigkeit der Software entwickeln. Eine zu hohe Fehlerquote würde es entsprechenden Systemen

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

329

schwer machen. Und auch die Bevölkerung, die, so mehrere Beamte, zu recht sehr kritisch sei, gerade aufgrund der NSA-Affäre, müsse sich erst an die neue Videotechnik gewöhnen. Viele Menschen seien diesbezüglich trotzdem eher entspannt und würden letztlich keine Gefahr sehen, anderen hingegen würde der Überwachungsstaat als Horrorvision vor dem inneren Auge erscheinen. Grenzen ergäben sich deshalb durch das kritische Hinterfragen, auch und gerade durch Nichtbetroffene. Eine Polizei, die nur von der Maschine gelenkt zur Verurteilung beitragen würde – das wäre ein steiniger Weg. Der Rechtsstaat müsse hier Grenzen setzen und entscheiden, aber auch ermöglichen. Schliesslich stünde bei intelligenter Videoüberwachung oft niemand mehr vor dem Monitor, sondern verlasse sich auf das Auswerteprotokoll. Das sei dann, so ein Beamter, Technik, die „für mich arbeitet“. Software würde also immer mehr analysieren. Das Ziel müsse so oder so sein, dass die Technik letztlich macht, was der Polizist erwartet. In den Grenzen, die von vornherein gesteckt werden, vor allem rechtlich und auch gesellschaftlich. Schliesslich gehe es auch immer, so mehrere interviewte Personen, um Privatsphäreeinschränkungen. Chancen der Entwicklung sahen die Beamten vor allem in den (technischen) Bereichen Auflösung („mehr Megapixel sind immer gut“), Zoomfähigkeit, Datenübertragungsleistung (LTE) und Speicherkapazität. Ein Rückschritt auf konventionelle Videotechnik wurde mehrheitlich abgelehnt, mehrfach sogar deutlich betont: ohne Video kann die Polizei heute nicht mehr arbeiten. 9. Nach einer kurzen Erläuterung von MisPel und den Projektzielen: halten Sie diesen angestrebten Schritt von MisPel – und somit von der konventionellen zur intelligenten Videoüberwachung – für notwendig, sinnvoll, unaufhaltbar, . . . ? Weit überwiegend wurde das Projektziel als absolut sinnvoll, notwendig, unabdingbar und intelligente Videoüberwachung als unaufhaltbar bezeichnet. Das System müsse so gut sein wie der Mensch, das bringe die Polizei nach vorne. Abschlussfrage (mit der Möglichkeit einer sehr persönlichen Antwortgestaltung) 10. Möchten Sie abschliessend noch eigene Anmerkungen machen, Dinge nennen, die wir vergessen haben oder die Ihnen besonders erwähnenswert erscheinen? Hier dominierten die Einzelmeinungen: – Die Polizei müsse mehr eingebunden werden, damit Vorstellungen in Forschungsprojekten entsprechend deutlich gemacht werden können. – Mehr Zusammenarbeit mit Forschern wurde begrüßt. – Die Akzeptanz der Bevölkerung war ebenfalls wichtig: was passiert eigentlich in welcher Situation? Beim versuchten Kofferbombenanschlag 2012 in Bonn gab es Kamerabilder von McDonalds – aber keine (öffentliche) Diskussion, warum dort aufgezeichnet und die Bilder dann veröffentlicht wurden. Das lag vielleicht, so ein Beamter, an der Anschlagssituation. Ohne würde man sich

330









4 Anwendung in Forschung und Praxis – Sociality by Design

gegen die Kameras eher wehren. Da sei aber ein Widerspruch: ohne präventive Videoüberwachung nachher keine Bilder. Und selbst um den Preis der Verdrängung, die Videoüberwachung beispielsweise bei öffentlichen Plätzen nach sich ziehen könnte: immerhin würden sich die Leute dann dort sicherer fühlen. An Tankstellen sei Videoüberwachung heute auch völlig normal, daran störe sich kein Mensch. Das sei halt Prävention, so ein Beamter, eine „ureigenste“ Aufgabe der Polizei. Übertreiben darf man es jedoch nicht. Doch wo es sinnvoll erscheint, sei man der Technik gegenüber entsprechend aufgeschlossen. Man kenne die Situation halt auch etwas besser als der Bürger. Ein direkter Zugriff auf „sämtliche“ Kameras wäre toll, so ein Beamter. Das sei aber rechtlich bedenklich. Es gebe hier eine „Privatzonenangst“ und Menschen, die sich dauerüberwacht fühlten. Von einem technisch sehr engagierten Beamten wurde der ONVIF-Standard als unbrauchbar abgelehnt. Der Open-Source-Gedanke, offene Standards, das bräuchte man stattdessen, so die Aussage. Weniger Einzellösungen, jedoch vernünftige Dokumentationen. MisPel werde für die innere Sicherheit etwas bringen. Es werde ein integraler Bestandteil der polizeilichen Arbeit sein.

Quintessenz von Tx: Empfehlungen: Die aus soziologischer Sicht bedeutende Innovation war die neuartige Definition eines unverletzlichen Kernbereichs von Privatsphäre, sprich: eines „kleinsten gemeinsamen Nenners“. Dieser Kernbereich taugt dann nicht nur für konkrete Anwendungen und ist somit bei erfolgreicher Implementierung im Alltag deutlich sichtbar und akzeptiert, sondern hat darüber hinaus aufgrund seiner inhaltlichen bzw. methodischen Übertragbarkeit und Vorbildfunktion auch das Potential, ein entscheidendes Element für eine erfolgreiche Neuausrichtung von Privatsphäre, Datenschutz und Datensicherheit in allen digitalen Umgebungen zu werden. Denn der Fokus bei soziologisch-technischen Analysen sollte unzweifelhaft auf der Digitalisierung der Lebenswelt liegen, da anhand zahlreicher Beispiele gezeigt wurde, wie „analoge Strategien“ bei der Bewältigung digitaler Herausforderungen versagt haben. Ist dieses Ziel einer solchen Privatsphäredefinition letztlich gelungen? Aus meiner Sicht lautet die Antwort ganz klar: ja. Dass dieses Ziel grundsätzlich erreicht worden ist, sieht man nicht nur an den Ergebnissen der hier nochmals aufgelisteten Aufgaben T1 bis T3, sondern auch an der Fortsetzung der Metaaufgabe in Form von Sociality by Design, einem seit 2015 an der Freien Universität Berlin angesiedelten Forschungsvorhaben, welches genau das Konzept darstellen wird, welches ich nach ausführlicher eigener Forschung und umfangreichen Diskussionen mit Kolleginnen und Kollegen letztlich für tragfähig im Sinne der Herstellung eines Privatsphärekerns halte. Die Entwicklung eines solchen Kerns erscheint also mit dem vorhandenen Methodenset machbar.

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

331

Aus drei Gründen wird nun an dieser Stelle jedoch nicht der Privatsphären-Leitsatz oder eine lange Liste von rahmenden Empfehlungen zu finden sein, welche diesen kleinsten gemeinsamen Nenner umschreiben: 1. Bereits in den Verbundtreffen wurden die Erkenntnisse aus der laufenden sozialwissenschaftlichen Forschung ins Gespräch und in die Entscheidungsprozesse eingebracht. Als Beispiel soll hier die Diskussion um die Hautfarbe dienen, aber auch zahlreiche Einzelgespräche und Nachfragen durch die Verbundpartner dokumentierten eindrucksvoll die Verwebung aller Forschungsbereiche. Der MisPel-Demonstrator trägt somit auch jetzt schon im weitesten Sinne die Handschrift des Verfassers. Dies im Einzelnen zu dokumentieren hätte aber den Rahmen gesprengt und kann demzufolge hier auch nicht wiedergegeben werden. Dokumentationen liegen dem Projektträger trotz alledem vor, vor allem in Form von Berichten des Verbundkoordinators und auch in Form von Zwischenberichten meinerseits. 2. Leider endete die Forschung an MisPel-S aus organisatorischen Gründen einige Monate früher als bei allen anderen Verbundpartnern, d. h. es konnte schon allein aus diesem Grund kein aktuelles Ergebnis genannt werden, da mir die endgültigen Aussagen aus den anderen MisPel-Teilprojekten (diese endeten Ende April 2015) seinerzeit weitgehend unbekannt waren. Nach 2015 standen – wie so oft im Wissenschaftsbetrieb – andere Aufgaben im Vordergrund, so dass es hier zu einem entsprechenden Ergebnis kam. 3. Zu Beginn der Forschungstätigkeit ging ich noch von einer zeitgleichen Vollendung der Forschungstätigkeit durch alle Projektpartner aus. Demzufolge schien auch ein Einbringen von sozialwissenschaftlichen Fakten in den finalen Demonstrator sowie eine endgültige Präsentation dieser Leistung leistbar zu sein. Nach den dann eingetretenen Problemen kam es zu den entsprechenden Verzögerungen und letztlich auch zu den Verlängerungen durch alle anderen Projektpartner, nicht jedoch durch die UdK. Somit war ein Mitwirken an einem finalen Demonstrator nicht mehr möglich. Eine endgültige Aussage in Sachen „kleinster gemeinsamer Nenner“ für den fertigen MisPel-Demonstrator kann aufgrund dieser fehlenden Mitarbeit folglich auch nicht getroffen werden, sondern es werden nun in der Folge – wie bereits unter Punkt 2 erwähnt – Aussagen zum Stand der Forschung mit allgemeiner Geltung zu finden sein. Worauf muss nun jedoch bei der Finalisierung von MisPel geachtet werden? Hierzu sollen anhand der Ergebnisse von T1 bis T3 sowie einer kurzen Zusammenfassung einiger wichtig erscheinender Aspekte entsprechende Aussagen getroffen werden. Empfehlungen aufgrund der Erkenntnisse aus T1 (Teilnehmende Beobachtung): Die Projektleistung steht und fällt ganz klar mit dem Zusammenwirken der jeweiligen Partner. Im hiesigen Falle konnte aufgrund der makellosen Leistung des Verbundkoordinators ein problemloses Zusammenarbeiten sichergestellt werden. Dies ist jedoch sicher nicht immer der Fall. Projekte sollten also grossen Wert auf

332

4 Anwendung in Forschung und Praxis – Sociality by Design

eine besonders geeignete Führungspersönlichkeit legen, welche die Verbundkoordination übernimmt. Angesichts der vielfältigen Aufgaben und auch möglichen unerwarteten Herausforderungen ist es sinnvoll, über eine 100 %-Stelle für den Verbundkoordinator nachzudenken. Dies könnte die Effizienz im Projekt entscheidend steigern. Vergleichbares ist bei EU-Projekten bereits Standard. Die höheren Kosten dürften letztlich ein akzeptabler Preis für die signifikante Steigerung der Chance des Gelingens eines solch umfangreichen Projekts sein. Zudem sollte sehr viel Wert auf einen professionellen, offenen und sehr geduldigen Umgang zwischen den Projektpartnern gelegt werden. Dies war in diesem Projekt zweifellos gegeben, sowohl auf der bilateralen als auch auf der multilateralen Ebene. Alle Fragen wurden in professioneller, entspannter und sehr geduldiger Art und Weise geklärt und die Zusammenarbeit so inhaltlich störungsfrei durchgeführt. Wenn sich Projektpartner zurückziehen und dadurch die Projektsituation insgesamt gefährden, muss bei Gründen, die nicht unvermeidbar erscheinen, über entsprechende Sanktionen nachgedacht werden. Es kann nicht sein, dass der unerwartete Sinneswandel eines einzigen Projektpartners ein mehrere Millionen schweres Verbundprojekt sowie die damit verbundenen Arbeitsplätze insgesamt gefährden kann. Wissenschaft ist heutzutage eine besonders prekäre Angelegenheit und Verträge sind in diesem Zusammenhang zwingend einzuhalten. Ausnahmen erscheinen mir aufgrund der besonderen Situation demzufolge unmöglich. Desweiteren müssen die organisatorischen Abläufe der Projektausgestaltung dringend geprüft werden. Es ist beinahe unerträglich, auf eine einzige Abteilung eines Projektpartners in einer einzigen – allerdings entscheidenden – Anlegenheit gut anderthalb Jahre warten zu müssen. Darunter leidet nicht nur das Ansehen dieses einen betroffenen Projektpartners, sondern auch die Zusammenarbeit im Verbund. Universitäten und andere Forschungseinrichtungen müssen hier zu deutlich besserer Verwaltungsleistung gebracht werden, notfalls durch Androhung oder Umsetzung von entsprechend wirksamen bis schmerzhaften Sanktionen. Es muss stets die Regel gelten: Inhalt geht vor Verwaltung. Die universitäre Verwaltung ist kein Selbstzweck, sondern Dienstleister für die Wissenschaftlerinnen und Wissenschaftler. Es empfiehlt sich deshalb, so viele organisatorische Prozesse wie nur möglich vor Projektstart verbindlich erledigen zu lassen, damit es während des Projekts nicht zu Störungen kommt. Während des Projekts sind Änderungen mit entsprechend kurzen Fristen zu versehen, um effektiv Druck ausüben zu können. Nur mit deutlich spürbaren Maßnahmen kann man hier, so der unzweideutige Eindruck, entscheidenden Problemen erfolgreich entgegenwirken. Empfehlungen aufgrund der Erkenntnisse aus T2 (Medienbeobachtung): In Hinblick auf die Meinung der Bevölkerung zum Thema (intelligente) Videoüberwachung erscheint es sehr plausibel, hier das allgemeine Medienwissen als Wissensund Entscheidungsgrundlage zu benennen. Daran hat sich auch durch die Einführung digitaler Medien- und Informationsangebote nichts geändert – im Gegenteil: mehr denn je suchen Menschen (strukturierte) Informationen online. Sie finden allerdings

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

333

nicht nur mehr Informationen, sondern auch mehr Irritationen und es fällt dementsprechend schwer, ohne Lotsen einen sinnvollen Weg durch die Informationsflut zu finden. Die Medienbeobachtung (T2) konnte zeigen, dass das Modell einer Morgenlage zu sinnvollen Ergebnissen führt: man bekommt als Beobachter einen sinnvollen Überblick und kann sich nach einer gewissen Zeit sicher sein, die Stimmung in der Bevölkerung recht gut wiedergefunden zu haben. Ich prüfte meine Einschätzung im Laufe der Zeit mit mehreren Prognosen und lag in allen Fällen richtig.650 Doch medial besonders aussergewöhnliche Ereignisse sorgen für enorme Herausforderungen, was die Medienbeobachtung dementsprechend an ihre Grenzen führte. Besonders zu erwähnen ist hier die NSA-Affäre, zu der bereits weiter oben entsprechende Ausführungen getroffen wurden. Ebenso wichtig: Das Thema Videoüberwachung spielt im Alltagsdiskurs keine besondere Rolle. Allgemein ist – wie ebenfalls bereits erwähnt – Sicherheit ein Thema, doch es bleibt erstens eher abstrakt und zweitens spielten auch Spezialdiskurse mit Ausnahme der NSA-Affäre im Beobachtungszeitraum insgesamt keine bemerkenswerte Rolle. Den Halo-Effekt sollte man keinesfalls unterschätzen. Wenn die Bevölkerung Sicherheitstechnik und Überwachung allgemein schlecht findet, wird dies bei einzelnen Massnahmen grundsätzlich nicht anders sein. Es ist also wichtig, hier zuerst die Sinnhaftigkeit eines Szenarios (wie das Ziel von MisPel) zu beschreiben, anschließend eigene wissenschaftlich korrekte (sprich: objektive) Aufklärungsarbeit zu betreiben und weitere Massnahmen inhaltlicher Art im Vorfeld zu erklären, um entsprechende Zustimmung für eine Massnahme und den innewohnenden Privatsphäreeingriff zu erreichen. Aufklärung, Professionalität und Geduld sind auch hier wichtige Elemente einer erfolgreichen Einführung von Sicherheitstechnik. Auch da die Qualität der Beiträge rund um das Thema Videoüberwachung in aller Regel zu wünschen übrig liess und man in nicht wenigen Fällen schlicht von „Stimmungsmache“ ausgehen muss, ist der Dialog mit der Bevölkerung durch die Entscheider von besonders großer Relevanz. Damit sind nicht unbedingt derzeit „moderne“ Kommunikationsformen wie Kommentarbereiche von Onlinemedien gemeint. Die Süddeutsche Zeitung schloss im Beobachtungszeitraum den Kommentarbereich unter ihren Artikeln, was ich aufgrund der geringen inhaltlichen Qualität zahlreicher dort vorzufindender Beiträge auch sehr gut nachvollziehen kann. Man muss also nicht jeder Meinung gleiches Gehör schenken, weshalb der Kommunikation von neuen Sicherheitsmassnahmen letztlich auch Grenzen gesetzt sind: wer nicht mitdiskutieren will, sondern lediglich Streit sucht oder sich nicht überzeugen lassen will, der sollte zeitnah nicht mehr berücksichtigt werden. Eine gewisse Professionalität

650 Als ein Beispiel sei hier das Ergebnis der Piratenpartei bei der Bundestagswahl 2013 genannt: der Verfasser prognostizierte ein Scheitern der Piraten an der 5 %-Hürde – und wurde mit dem Bundestagswahlergebnis von gut 2 % letztlich entsprechend bestätigt.

334

4 Anwendung in Forschung und Praxis – Sociality by Design

muss eingehalten werden, um tatsächlich zu brauchbaren Ergebnissen zu kommen – und auch um zu verhindern, dass eine Eigendynamik entsteht, die eine Massnahme eben nicht mehr aus qualitativen, sondern aus rein quantitativen Gründen (Stichwort: Shitstorm) verhindert. Anekdotisch sei angemerkt, dass mir aufgrund der Eurokrise in der jüngeren Vergangenheit immer wieder Ideen begegnet sind, die den europäischen Gedanken betonen sollten – auch und gerade in Hinblick auf die kriegerischen Auseinandersetzungen in unmittelbarer Nähe zu Europa (sprich: in Syrien und im Irak) erschienen „neue Erzählungen“ sinnvoll, da viele Menschen in unserer Gesellschaft Demokratie und Menschenrechte offenbar als Selbstverständlichkeit annehmen und, so die These einiger Kolleginnen und Kollegen, diese deshalb auch nicht aktiv verteidigen würden, sondern beispielsweise den Gräueltaten des Islamischen Staates medial eher rat- und hilflos entgegenblicken. Ich sehe hier eine Chance: Aufklärung ist nicht nur hilfreich zugunsten der Idee Europa oder als Imprägnierung gegen die Gewalttaten von Terroristen,651 sondern auch im Falle neuer Sicherheitsmassnahmen. Die Menschen suchen in Zeiten digitaler Informationsüberflutung entsprechende Orientierung, und die kann durchaus auch von Forschungsprojekten, Behörden oder zivilgesellschaftlichen Organisationen kommen, die für Menschenrechte und Demokratie stehen. Wer aber nicht mitdiskutieren, sondern lediglich stören will, hat sein Recht auf Mitgestaltung verwirkt und sollte zeitnah aus dem Diskurs ausgeschlossen werden. Dies ist gerade in der Sicherheitsforschung vor allem bei religiös und politisch motivierten Extremistinnen und Extremisten jeglicher Couleur der Fall. Empfehlungen aufgrund der Erkenntnisse aus T3 (Interviews): Die Interviews haben klar gezeigt, dass die befragten Polizisten sehr dankbar über ihre Involvierung waren und dieser Dank nicht nur einseitig ausfallen sollte, denn auch ich lernte viel über die Praxisprobleme und Erfahrungen der Beamten. Dieses Wissen darf nicht ungenutzt bleiben, so dass dringend empfohlen wird, bei künftigen Projekten dieser Art die Endanwender entsprechend einzubeziehen. Dabei verlief zwar auch die direkte Einbindung der drei Endanwendervertreter beispielsweise in die Verbundtreffen zielführend und problemlos, doch selbstverständlich können nicht alle Polizisten, die derzeit und zukünftig mit dem Thema Videoüberwachung beschäftigt sein werden, an diesen Treffen teilnehmen, so dass ich die Idee der Leitfadeninterviews hier als erfolgreiche Lösung ansehe. Sie stellen ein gleichermassen inhaltlich adäquates als auch organisatorisch gut umsetzbares Werkzeug dar, um an die notwendigen Informationen zu gelangen. Die Filterung durch den Interviewer ist im Vergleich zur ungefilterten Meinungsabgabe

651 Siehe dazu den Begriff „Counternarratives“, der im Bereich der Sicherheitsforschung seit einigen Jahren eine entsprechende Konjunktur erlebt.

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

335

der Polizisten im Entwicklungsprozess auch deshalb von Vorteil, weil menschliche Stärken und Schwächen so weitgehend eliminiert werden können: zwar waren die Polizeibediensteten in den Verbundtreffen ebenso diplomatisch, professionell und geduldig wie die beteiligten Wissenschaftler, doch in den Interviewsituationen wurde schnell deutlich, dass dies allein schon aufgrund der unterschiedlichen dienstlichen Hintergründe und persönlichen Entwicklungen keineswegs automatisch für jeden Polizisten gelten kann. Der eine war eher schweigsam, während der andere umfangreich referierte, so dass zu viele Vertreter einer bestimmten nichtwissenschaftlichen Statusgruppe beispielsweise den Verbundtreffen eine andere Ausrichtung geben könnten, was sich wiederum auf die Arbeitseffizienz und somit den Projekterfolg auswirken könnte – und zwar aller Voraussicht nach eher negativ. Bevor aber Dienststellenleiter oder andere Vorgesetzte hier einen aufwändigen Auswahlprozess starten müssen („Wen kann ich denn da hinschicken?“), erscheint eine Abschöpfung des Praxiswissens der entsprechenden Polizisten via Interview inhaltlich wie organisatorisch deutlich einfacher, zielführender und effizienter. Die Interviews waren auf jeden Fall eine Bereicherung und sorgten zudem für die Klärung von vereinzelten Fragen, die das Gesamtbild entsprechend positiv abrunden konnten. Sie sollten deshalb Standard bei allen weiteren Sicherheitsforschungsprojekten mit ähnlicher Ausrichtung sein. Abschließende allgemeine Empfehlungen: Zusammen mit den anderen Abschlussberichten dürfte insgesamt ein Ergebnis erkennbar sein, welches die intelligente Videoüberwachung in Deutschland entscheidend voranbringen kann – und zwar in technischer, rechtlicher und gesellschaftlicher Hinsicht. Die Gesellschaft muss entscheiden, wie weit sie gehen will: intelligente Videoüberwachung wird kommen, soviel steht fest, doch nicht jedes Szenario ist gleichermaßen sinnvoll. Völlig falsch ist auf jeden Fall eine pauschale Ablehnung bzw. Zustimmung zu intelligenter Videoüberwachung, denn dafür sind nicht nur die Szenarien zu mannigfaltig und unterschiedlich, sondern auch die Entwicklung zu schnell, intensiv und komplex. Da MisPel ein Forschungs- und kein Produktentwicklungsprojekt war, ist es nicht schädlich, dass kein fertiges Produkt vorliegt und sich aus der Summe der einzelnen Projektteile ein erstes Bild im Kopfe des Betrachters bilden muss. Das ist, davon bin ich überzeugt, das Fundament der weiteren Entwicklung von intelligenten Videoüberwachungslösungen in Deutschland. Damit wurde – wieder mal – digitales Neuland betreten. Die nächsten Schritte können nun folgen, soviel ist sicher. Für die UdK waren sowohl der Arbeitsprozess als auch die entstehenden Ergebnisse von grossem wissenschaftlichem Interesse. Einerseits ist die Erhebung der Daten (Umfrage, Interviews, Inhaltsanalyse, etc.) für klassische soziologische Projekte (sowohl studentische als auch Dissertationsprojekte) äußerst interessant, andererseits ist – besonders für postgraduale Zwecke – die Diskussion der Ergebnisse im Rahmen sozialwissenschaftlicher Theorie(weiter)entwicklung spannend. Die

336

4 Anwendung in Forschung und Praxis – Sociality by Design

Mitwirkung studentischer Hilfskräfte bzw. Tutoren fand statt, ebenso wie die enge Zusammenarbeit mit anderen Wissenschaftlerinnen und Wissenschaftlern, hier aufgrund der hohen inhaltlichen Passung insbesondere mit den (neuen) Kolleginnen und Kollegen im neuen Institut für Internet und Gesellschaft. Die vorgesehenen Verwertungen treten somit ohne Abstriche ein. Ein vergleichbares Projekt konnte – durchaus zu meinem Erstaunen – in einer ähnlich konkreten Form nicht entdeckt werden, und das trotz der Tatsache, dass Rahmenkonzepte/technische und rechtliche Frameworks und „By-Design“-Ideen wie Privacy by Design durchaus eine (Re)Naissance erleben. Doch dies geschieht vorrangig im internationalen Raum bzw. in anderen Ländern. Wie sich anhand zahlreicher Debatten – beispielsweise zur Vorratsdatenspeicherung, zu Anonymität im Internet und natürlich zur NSA-Affäre – gezeigt hat, werden derartige Diskussionen in der Öffentlichkeit stark von kulturellen und gesellschaftlichen Eigenheiten geprägt, so dass die Übertragung eines (inter)nationalen Modells auf deutsche gesellschaftliche Verhältnisse nur eingeschränkt möglich und zielführend erscheint. Während der Arbeit an MisPel-S sind erfreulich viele Daten angefallen, die auch anderen interessierten Personen zur Verfügung stehen sollen. Leider war die Anstellung des Verfassers (wie üblich) auf die Forschungsphase beschränkt, so dass bereits der Abschlussbericht unter erschwerten Bedingungen – sprich: ohne Anstellung an der UdK – geleistet werden musste. Damit bleibt er zwangsläufig lückenhaft, wenngleich auch nicht im Sinne der Projektanforderungen und -ziele, jedoch im Sinne des erzielten gesamten Erkenntnisgewinns. Um dieses Problem zu heilen, wollte und konnte ich mich entsprechend engagieren, um alle weiteren vorhandenen Daten in Form eines internetsoziologischen Wikis zu präsentieren. Dies ist inzwischen ja auch geschehen und, idealerweise, wurden für diese Leistung keine Projektmittel eingesetzt. Da ein Wiki logischerweise nicht beim ersten Arbeitsdurchgang komplett ist, sondern eine schrittweise Verfeinerung vielmehr die Grundidee darstellt, rechnete ich seinerzeit mit einer langfristigen Datenpräsentation, mindestens über einen Zeitraum von einem Jahr. Da es an der UdK keinen Stellennachfolger meinerseits im inhaltlichen wie auch organisatorischen Sinne gibt, erscheint die Wiki-Erstellung als die beste, modernste und einfachste Lösung, das gewonnene Wissen entsprechend bereitzustellen. Ich weise darauf hin, dass diese Leistung freiwillig, unverbindlich und ohne weitergehende Verpflichtungen erfolgt und in Abstimmung mit Joachim Sauter beschlossen wurde. Das wissenschaftlich-technische Ergebnis des Vorhabens, die erreichten Nebenergebnisse und die gesammelten wesentlichen Erfahrungen: Im Detail sind die Ergebnisse unter Punkt II zu finden; hier soll nun ein Überblick über die wesentlichen Ergebnisse erfolgen. Die aus soziologischer Sicht bedeutende Innovation, die neuartige Definition eines unverletzlichen Kernbereichs von Privatsphäre, also eines „kleinsten gemeinsamen Nenners“, konnte exemplarisch umgesetzt werden. Dieser Kernbereich taugt in Form seiner Vorbildfunktion sicherlich nicht nur für konkrete Anwendungen wie MisPel (und ist somit bei

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

337

erfolgreicher Implementierung im Alltag deutlich sichtbar und akzeptiert), sondern hat darüber hinaus auch das Potential, ein entscheidendes Element für eine erfolgreiche Neuausrichtung von Privatsphäre, Datenschutz und Datensicherheit in allen digitalen Umgebungen zu werden. Die Interviews mit den Polizeibediensteten waren zweifellos gewinnbringend. Dieses Wissen darf nicht ungenutzt bleiben, so dass dringend empfohlen wird, bei künftigen Projekten dieser Art die Endanwender entsprechend einzubeziehen. Selbstverständlich können nicht alle Polizisten mit Video-Aufgaben an den Verbundtreffen teilnehmen und so ihre Meinung in den Forschungsprozess einbringen, so ich die Idee der Leitfadeninterviews hier als erfolgreiche Lösung ansehe. Abschliessend bleibt anzumerken: Zusammen mit den anderen Abschlussberichten dürfte insgesamt ein Ergebnis erkennbar sein, welches die intelligente Videoüberwachung in Deutschland entscheidend voranbringen kann – und zwar in technischer, rechtlicher und gesellschaftlicher Hinsicht. Die Gesellschaft muss jetzt entscheiden, wie weit sie gehen will: intelligente Videoüberwachung wird kommen, soviel steht fest, doch nicht jedes Szenario ist gleichermaßen sinnvoll. Völlig falsch ist auf jeden Fall eine pauschale Ablehnung bzw. Zustimmung zu intelligenter Videoüberwachung, denn dafür sind nicht nur die Szenarien zu mannigfaltig und unterschiedlich, sondern auch die Entwicklung zu schnell, intensiv und komplex. Nun müssen Politik und Gesellschaft klären, wie es weitergeht. Auf Basis der gewonnenen Erkenntnisse vor allem hinsichtlich Sociality by Design wurde in der Folge das Teilprojekt PERFORMANCE-S entworfen. PERFORMANCE steht für eine kooperative Systemplattform für Videoupload, Bewertung, teilautomatisierte Analyse und Archivierung: Im Projekt soll eine erweiterbare Systemplattform zur Bereitstellung, Bewertung sowie teilautomatisierten Analyse und Archivierung der Daten entwickelt werden. Weiterhin sollen für komplexe Ermittlungsfälle Konzepte erarbeitet und Schnittstellen zur Einbindung privater Dienstleister in die Erhebung und Auswertung geschaffen werden. Dabei werden seitens der beteiligten Hochschulen die rechtlichen sowie sozialen Rahmenbedingungen und Möglichkeiten bei der Entwicklung der technisch-organisatorischen Umsetzungsmodelle umfassend untersucht.652

Die Forschungsschwerpunkte sind: – Öffentlich-private Partnerschaft – Forensische Bild- und Videoanalyse in Anschlags-Szenarien – Kooperative Plattform und Geschäftsmodelle für skalierbare Analysefähigkeit Das Ziel des Teilvorhabens ist nicht nur die projekt(partner)begleitende Beantwortung aufkommender gesellschaftswissenschaftlicher Fragen (v. a. in Hinblick auf Akzeptanz, Möglichkeiten und Grenzen der Bevölkerungseinbindung und den

652 https://www.sifo.de/files/Projektumriss_PERFORMANCE.pdf, abgerufen am 8.8.2016.

338

4 Anwendung in Forschung und Praxis – Sociality by Design

digitalkulturellen Kenntnisstand potentiell von der Projektidee Betroffener bei Polizei, Zivilgesellschaft und Wirtschaft), sondern auch und ganz besonders die Erstellung eines allgemeingültigen Rahmenkonzepts auf Basis des By-Design-Ansatzes. Da feststeht, dass die Erstellung von digitalen Inhalten in Zukunft keineswegs weniger wird, zudem die Bevölkerung aufgrund fehlender digital-sozialer Strategien oftmals selbst Lösungen „entwickelt“, um beispielsweise einem „Fahndungszweck“ nachzukommen und damit die Grenze zur Lynchjustiz und anderen sozial unerwünschten Phänomenen leicht überschritten werden kann, ergeben sich folgende Aufgaben für die sozio-technische Forschung in diesem Teilvorhaben: 1. Analyse der Digitalisierung der Gesellschaft im Kontext technischer, rechtlicher und wirtschaftlicher Entwicklungen (siehe dazu Punkt 1.3. in diesem Dokument, Beschreibung zu AP3.1; Mikro-Ebene) 2. Sozio-technischer Leitlinienentwurf für das Gesamtprojekt und ganz besonders für die wirtschaftliche Komponente (siehe Punkt 1.3, Beschreibung zu AP3.2; Meso-Ebene) 3. Analyse der Digitalisierung der Gesellschaft im Spannungsfeld von Zivilgesellschaft und Hoheitsträgern (siehe Punkt 1.3, Beschreibung zu AP3.3; Meta-Ebene) Der Kern des sozialwissenschaftlichen Forschungsteils liegt demzufolge in der Erschaffung eines auf Privacy, Security und Sociality by Design basierenden Rahmenkonzepts, welches sich der Verwebung von NutzerInneninhalten mit Fahndungs- und anderen Hilfsprozessen widmet, sprich: diese Problemstellung aus sozio-technischer Sicht analysiert und damit projektrelevante, aber eben auch allgemeine Antworten (welche dann beispielsweise für Folgeprojekte mit inhaltlichen/angestrebten Schnittmengen von Interesse sein könnten) liefern kann. Bisher agierten private Sicherheitsdienstleister vorrangig neben oder „unter“ den Behörden mit Sicherheitsaufgaben, doch im hiesigen Falle sollte ein besonderer Schwerpunkt auf die Analyse der potentiellen „Augenhöhe“ gegeben sein, da Polizei, Wirtschaft und Gesellschaft nun wechselseitig voneinander abhängig sind und nicht mehr automatisch von einer erhabenen Position der Hoheitsträger gesprochen werden kann. Ohne gesellschaftliche und auch wirtschaftliche Hilfe werden Polizeibehörden in Zukunft aufgrund der Social-Media-Datenflut nicht mehr bestmöglich (im Sinne ihres Auftrages) agieren können, so dass der Betrachtung des gesellschaftlichen, aber eben auch des wirtschaftlichen Potentials besondere Aufmerksamkeit geschenkt werden muss. Sowohl die Analyseverfahren als auch die entstandenen Geschäftsmodelle werden vollumfänglich auf gesellschaftswissenschaftliche Aspekte im Allgemeinen, vor allem jedoch auf digitalkulturelle Aspekte im Besonderen geprüft. Damit wird schriftlich fixiert, welcher Umgang mit einem System wie dem in PERFORMANCE angestrebten empfohlen wird. Das Ziel soll also auch und vor allem sein, gesellschaftliche Fehlentwicklungen zu minimieren und konkrete Handlungsanleitungen für alle Interessierten zu liefern, damit eben nicht „gewachsene“ Umgangsformen

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

339

mit Social-Media-Phänomenen gesellschaftlichen Raum erobern können, die mehr Schaden als Nutzen bringen – und zwar in allen drei Bereichen: Polizei, Wirtschaft und Gesellschaft. Die wissenschaftlichen Arbeitsziele des Vorhabens lassen sich in drei Bereiche gliedern: zuerst (AP 3.1) wird die Digitalisierung der Gesellschaft im konkreten, sprich: projektspezifischen technischen, rechtlichen und wirtschaftlichen Kontext betrachtet. Denn es dürfte inzwischen unbestritten sein, dass die Erstellung von digitalen Inhalten keineswegs abnehmen, sondern vielmehr weiter stark zunehmen wird. Diese Tatsache prägt die Gesellschaft und hat somit umfangreiche soziale Folgen. Eine diesbezügliche Analyse des Wechselspiels von Digitalisierung und Gesellschaft sowie die jeweiligen konkreten Auswirkungen auf den Projektfortschritt werden eine dauerhafte Aufgabe innerhalb des Teilprojekts PERFORMANCE-S darstellen, damit die Rolle der klassischen „Begleitforschung“ dementsprechend dauerhaft sichergestellt wird (beispielsweise erkennbar an der ebenfalls durchaus als klassisch zu bezeichnenden Fragestellung nach der Akzeptanz: „Was geht – und was nicht?“). Aus dieser permanenten Analyse resultiert der zweite Aspekt (AP 3.2) des Teilprojekts: ein sozio-technischer Leitlinienentwurf vorrangig zugunsten des Gesamtprojekts. Besondere Betonung erfährt hierbei jedoch vor allem die wirtschaftliche Komponente, denn die Einbindung (privat)wirtschaftlicher Akteure in hoheitliche Handlungen wird erfahrungsgemäß von vielen Seiten (beispielsweise Polizei, Wirtschaft, Gesellschaft) als besonders heikel wahrgenommen. Auch wenn systemische Elemente wie das Schöffenwesen auch in besonders schwerwiegenden Gerichtsverfahren zwar eine lange Tradition, einen guten Ruf und letztlich eine eher positive Akzeptanz in der deutschen Gesellschaft genießen, so sind Einbindungen von Laien bzw. Privatpersonen an anderer Stelle – wie beispielsweise in den Polizeidienst – keinesfalls gleichermaßen etabliert bzw. akzeptiert. Nur wenige Bundesländer wie Berlin653 und Baden-Württemberg654 setzten in der Vergangenheit auf eine umfassendere Einbindung von Privaten in die Polizeiarbeit. Berlin schaffte diese Möglichkeit des „Freiwilligen Polizeidienstes“ im Jahre 2002 ab. Andere Bundesländer wie Bayern setzen zwar auch auf eine Einbindung engagierter Bürgerinnen und Bürger, doch dieses Bundesland weist jedoch Interessierte frühzeitig auf die genaue (und keineswegs „hilfspolizeiliche“ Rolle) der Freiwilligen hin655: Die Sicherheitswacht ist keine Hilfspolizei. Sie kann und soll die Arbeit der Polizei nicht ersetzen, sondern ergänzen. Sie ist auch keine „Bürgerwehr“ (unkontrollierter Zusammenschlüssen von Bürgern, die glauben, selbst für Recht und Ordnung sorgen zu müssen). Die Sicherheitswacht ist die bessere und rechtstaatliche Alternative.

653 https://de.wikipedia.org/wiki/Freiwilliger_Polizeidienst#Berlin, abgerufen am 23.2.2016. 654 https://de.wikipedia.org/wiki/Freiwilliger_Polizeidienst#Baden-W.C3.BCrttemberg, abgerufen am 23.2.2016. 655 https://www.polizei.bayern.de/wir/sicherheitswacht/index.html/304, abgerufen am 23.2.2016.

340

4 Anwendung in Forschung und Praxis – Sociality by Design

Da auch private Sicherheitsdienste zwar zumindest mehrheitlich geduldet, jedoch keineswegs unumstritten akzeptiert oder gar begrüsst werden,656 muss die zusätzliche Einbindung von (weiteren) nichtstaatlichen Akteuren in den hoheitlichen Bereich besonders genau beobachtet und mit Leitlinien kommentiert werden. Dies ist nicht nur für die Gesellschaft von entscheidender Bedeutung, sondern auch für die Wirtschaftspartner im Projekt, damit nicht nur rechtlich, sondern eben auch sozial möglichst passgenaue Lösungen skizziert werden können. Denn – und damit kommt man direkt zum dritten Aspekt (AP 3.3) des Teilprojekts – da Bundeskanzlerin Merkel mit ihrer Einschätzung aus dem Jahre 2013, dass das Internet „Neuland“ sei, aus internetsoziologischer Sicht völlig richtig lag, die Bevölkerung demzufolge aufgrund fehlender digital-sozialer Strategien oftmals selbst nicht immer erfolgreiche Lösungen „entwickelt“, um wie bereits erwähnt beispielsweise einem Fahndungs“wunsch“ nachzukommen und damit die Grenze zur Lynchjustiz leicht überschritten werden kann, muss schließlich auch die Digitalisierung der Gesellschaft in Hinblick auf das besondere Spannungsfeld von Zivilgesellschaft und Hoheitsträgern sehr genau betrachtet werden. Akzeptiert die Gesellschaft beispielsweise eine „hilfspolizeiliche“ Rolle von Facebook oder engagierten Nutzerinnen und Nutzern (beispielsweise im Sinne von Community Managern, Admins oder Moderatoren), wenn es um die Sanktionierung von Hassreden geht? Oder wird hier ganz klar ein Einschreiten von Polizei und Staatsanwaltschaft bevorzugt? Oder gar eine ganz andere Lösung wie eine aktive Gegenrede durch alle involvierten Personen? Wie sieht also die Rolle der Polizei aus und wie die externer Mitwirkender? Muss sich vielleicht Grundsätzliches am Rollenbild der Polizei ändern? Welche gesellschaftliche Gruppe wird hier am meisten beeinflusst, herausgefordert, gestärkt oder geschwächt? Und was lässt sich aus den Erkenntnissen der Analyse solcher Spannungsfelder (Hoheitsträger Externe, Polizei Bürger, Rechtsstaat „Volkes Stimme“, etc.) analog zum bzw. für den Projektkontext ableiten? Wie gehen Gesellschaften und Polizeibehörden im Ausland damit um? Steigt bei stärkerem Digitalisierungsgrad der Gesellschaft (und stärkerer proaktiver Gestaltung des eigenen digitalisierten Lebensraums) die Akzeptanz von Grenzveränderungen? Oder erleben wir zwar eine massive Veränderung unserer Lebenswelt durch neue rechtsstaatliche Herausforderungen digitaler Art – aber eher eine reaktionäre, ablehnende oder aggressive Haltung gegenüber dieser konkreten Entwicklung? Bedeutet somit mehr Digitalisierung eher ein Erstarken der Mitgestaltungswünsche der Bevölkerung auch im „Ernstfall“ – oder eher das genaue Gegenteil: ein Rufen nach einem starken Staat, wenig(er) Wirtschaftsinvolvierung und ein bewusstes Ablehnen von digitalem Engagement durch die Zivilgesellschaft?

656 Siehe hierzu besonders den Abschnitt „Politische und gesellschaftliche Rahmenbedingungen“ auf S. 21 des folgenden PDFs: http://www.securitas.de/globalassets/germany/downloads/fachbei trage/2013/2013-01-compliance-sicherheitsgewerbe.pdf, abgerufen am 23.2.2016.

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

341

Die drei Teilbereiche sollen deutlich von der sozialwissenschaftlichen Auswertung der in AP1 erfolgten Analyse der spezifischen Kenntnisse der Endanwender und der technischen Ist-Situation, der dortigen Ableitung von exemplarischen Anwendungsfällen für den Demonstrator sowie der Festlegung der Systemspezifikationen und damit Richtlinienfestlegung für die Gewichtung der hiesigen Unterarbeitspakete unter Berücksichtigung der Entwicklungsrichtung und -geschwindigkeit des Gesamtprojekts sowie der gesellschaftlichen Entwicklung profitieren. Dabei erfolgt nach dem Foucaultschen Werkzeugkastenprinzip keine enge Vor-Festlegung auf bestimmte Methoden, sondern eine dynamische Priorisierung: die eingesetzten Methoden werden aufgrund früherer Projekterfahrungen (beispielsweise im erfolgreich vollendeten BMBF-Projekt „MisPel“) vorrangig Literaturrecherche und ExpertInnengespräche bzw. -workshops [AP3], teilnehmende (Experten- und Anwender-) Beobachtung [AP1] und technische Analyse sein [AP1 und 3]. Bis M18 wird dann entschieden, ob weitere Methoden (beispielsweise ergänzend: repräsentative Umfragen oder Anwenderinterviews) zielführend für die abschließende Verfeinerung des Konzepts sind – auch aufgrund ggf. neu eingetretener gesellschaftlicher Ereignisse oder technischer Entwicklungen. Eine intensive Zusammenarbeit v. a. mit dem rechtswissenschaftlichen Partner, aber auch den technischen und wirtschaftlichen Partnern versteht sich dabei von selbst. Aufgrund der Dringlichkeit der gesellschaftlichen Veränderungen wird bis M18 ein Grobkonzept erstellt, welches auch schon nach außen wirken kann. Die noch junge Diskussion über die (aktive wie passive) Verwebung von Nutzerinnen und Nutzern sozialer Netzwerke und digitaler Netzwerktechnik wie Smartphones und Tablets mit Fahndungs- oder anderen Hilfsprozessen bietet derzeit keinen Konzept- oder anderweitigen Lösungsansatz, so dass hier eine entsprechende Lücke besteht, die PERFORMANCE ganzheitlich füllen soll. Es gibt außerdem keine vergleichbaren sozialwissenschaftlichen Herangehensweisen an die Gestaltung eines Systems, wie es in PERFORMANCE vorgesehen ist – es dominieren vorrangig Einzelfalllösungen oder maximal Kleinkonzepte. Ein allgemein gültig erscheinendes Konzept ist nicht bekannt, doch ein solches erscheint besonders hilfreich und aufgrund der sozialwissenschaftlichen Rahmenbedingungen in PERFORMANCE realisierbar: das liegt vor allem daran, dass in diesem Projekt erstmals ganzheitlich die drei byDesign-Ansätze Privacy by Design, Security by Design und Sociality by Design miteinander kombiniert eingesetzt werden. Während Privacy by Design inzwischen in der Fachwelt ausreichend bekannt sein sollte,657 ist Security by Design658 wohl noch etwas weniger verbreitet, jedoch nicht nur hochinteressant und vielversprechend, sondern auch passgenau für die hiesige Projektaufgabe. Allerdings sind

657 Privacy by Design. http://www.bfdi.bund.de/SharedDocs/Publikationen/%22PrivacyByDesign %22.pdf?__blob=publicationFile, abgerufen am 28.1.2016. 658 Entwicklung sicherer Software durch Security by Design. https://www.kastel.kit.edu/down loads/Entwicklung_sicherer_Software_durch_Security_by_Design.pdf, abgerufen am 28.1.2016.

342

4 Anwendung in Forschung und Praxis – Sociality by Design

beide Komponenten allein nur teildisziplinfokussiert, d. h. es fehlt zur Ganzheitlichkeit noch die soziale Komponente – und diese Lücke füllt Sociality by Design,659 so dass insgesamt ein auf Technik, Recht und Gesellschaft basierendes Ergebnis herauskommen soll, welches sich zwar an den sozialwissenschaftlichen Aspekten orientiert, durch die Anbindung von Technik und Recht (arbeitsorganisatorisch auch dargestellt durch die gemeinsame Arbeit in AP1 und die enge Verwebung mit den rechts- und technikwissenschaftlichen Projektpartnern) jedoch ideal aufeinander abgestimmte Verbindungen aller beteiligten Disziplinen ermöglichen kann. Da der rechtswissenschaftliche Partner geübt im Umgang mit Privacy by Design ist und die technikwissenschaftlichen Partner ebenfalls entsprechende Kenntnisse im Bereich Security by Design haben, stellt dieser gemeinsame Nenner die ideale Ausgangsbasis für die sozialwissenschaftliche Arbeit und Anknüpfung in Form von Sociality by Design dar, denn der Teilprojektleiter hat Sociality by Design entwickelt. Sociality by Design füllt eine nicht nur marginale Lücke, die bisher oft dazu führte, dass sozialwissenschaftliche Begleitforschung in großen Verbundprojekten ein Nischendasein fristete. Durch die Herstellung eines By-Design-Nenners und die so gegebene große Anschlussfähigkeit an Technik und Recht wird die sozialwissenschaftliche Forschung „auf Augenhöhe“ angesiedelt. Rahmenkonzepte für Teilbereiche der digitalen Technikentwicklung (z. B. für Organisationen oder den Schwerpunkt Datenschutz) gelten schließlich schon seit einiger Zeit als hilfreich, realisierbar und erstrebenswert (eben Privacy and Security by Design, aber auch Common Criteria, BSI IT-Grundschutz/ISO/IEC 27001, organisationsspezifische Compliance- und Ethik-Regelungen u. ä.). Solche systematischen Ansätze sind ein großer Schritt in die richtige Richtung und zweifellos besser als kleinere oder Einzelfall-Projektlösungen (die nur schwer Verallgemeinerungen zulassen), so dass über die einzelne Lösung hinaus ein Mehrwert für vergleichbare nachfolgende Projekte entsteht (was insbesondere in der gesellschaftlich sensiblen und oft teuren Sicherheitsforschung zur Vermeidung von Fehlern und Redundanzen wünschenswert wäre). Angesichts der zunehmenden Komplexität einer immer digitaleren Gesellschaft und der daraus resultierenden notwendigen Interdisziplinarität von Forschung und Entwicklung sind rein technik- oder rechtswissenschaftliche Ansätze jedoch nicht ausreichend: es fehlte bisher an Konzepten, die die By-Design-Logik konsequent umfassend aufgreifen, denn wenn beispielsweise Datenschutz bei einer Softwarenentwicklung auf Firmenebene stehen bleibt oder nur an die Usability, nicht aber an Datensparsamkeit gedacht wird, wird das „Skalieren in die Gesellschaft“ vernachlässigt – es entstehen automatisch „blinde Flecke“ einer proprietären Einzelfalllösung. Bei so gravierenden Eingriffen in unsere Gesellschaft wie durch viele Entwicklungen geschehen – als Beispiele seien hier Videoüberwachung, Vorratsdatenspeicherung und der neue Personalausweis genannt, aber eben auch die Nutzung von Daten (via Social Media) zu Fahndungszwecken – ist dies eine zumindest

659 Sociality by Design. http://www.socialitybydesign.org, abgerufen am 28.1.2016.

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

343

fahrlässige Nichtberücksichtigung der komplexen Lebensrealität – und, so die These, durchaus vermeidbar. Ein solcher Mangel soll in PERFORMANCE-S durch den „Überbau“ Sociality by Design (SbD) beseitigt werden, ein Rahmenkonzept, welches zeitgemäße und an digitale Eigengesetzlichkeiten angepasste Sozialität („Sociality“) von Beginn an („by Design“) ermöglicht. Oder anders gesagt: es geht dabei um ein TechnikgestaltungsRahmenkonzept, welches von Privacy by Design inspiriert wurde, jedoch in einem gesamtgesellschaftlichen Kontext steht, dabei über bloße Empfehlungen hinausgeht und konkrete Handlungsvorschläge (wie z. B. bei BSI-Standard 100–3) unterbreitet.660 Es geht also nicht mehr nur um die Ebene des einzelnen Anwenders (Mikro), auch nicht nur um die Organisationsebene (Meso), sondern um diese beiden Ebenen und die Technikauswirkungen in der gesamten digitalen Gesellschaft (Makro). Diese drei Ebenen werden in der Folge des Teilprojekts auch ganzheitlich berücksichtigt. Ganz automatisch können sich so idealerweise aus den projektbezogenen Erkenntnissen Ableitungen für die Gesellschaft im Allgemeinen formulieren lassen. SbD widmet sich so vielen relevanten sozio-technischen Einflussfaktoren wie möglich, beispielsweise dem psychologischen Aspekt des Identitätsmanagements, dem sozialen Phänomen von Kontrolle im Internet, dem Umgang mit dem technisch unmöglichen Vergessen im digitalen Raum, den politischen Implikationen, welche beispielsweise durch die Enquete-Kommission Internet und digitale Gesellschaft,661 aber auch durch die Digitalstrategie der USA662 symbolisiert werden. Quelle dieser Einflussfaktoren, die letztlich das Fundament des Konzepts begründen, ist im Wesentlichen das BMBF-Forschungsvorhaben MisPel. In diesem Verbundprojekt wurde an einem System für die (semi-)automatisierte Erkennung von ermittlungstechnisch relevanten Personen aus Lichtbild- und Videomassendaten gearbeitet. Das sozio-technische Arbeitspaket widmete sich dabei den o. a. Einflussfaktoren in Form einer mehrjährigen Medien- und Diskursanalyse zum Thema (Multi)Biometrie (=gesellschaftliche Ebene) sowie durch Arbeits(platz)analysen und Experteninterviews mit den beteiligten Programmierern (=Code-Ebene) und Polizisten (= Einsatz-Ebene). So entstand ein erstes tragfähiges Bild von in der exemplarischen Praxis festgestellten Einflussfaktoren, dessen Induktion das eigentliche Konzept im Kern ausmacht und hier nun dem sozialwissenschaftlichen Forschungsteil zugutekommt. Dort, wo MisPel bzw. letztlich auch SbD (bisher) keine eigenen

660 BSI-Standard 100-3 – Risikoanalyse auf der Basis von IT-Grundschutz. https://www.bsi.bund. de/SharedDocs/Downloads/DE/BSI/Publikationen/ITGrundschutzstandards/standard_1003_pdf. pdf?__blob=publicationFile, abgerufen am 28.1.2016. 661 Enquete-Kommission Internet und digitale Gesellschaft. http://webarchiv.bundestag.de/cgi/ show.php?fileToLoad=2944&id=1223, abgerufen am 28.1.2016. 662 DIGITAL GOVERNMENT: BUILDING A 21ST CENTURY PLATFORM TO BETTER SERVE THE AMERICAN PEOPLE. http://www.whitehouse.gov/sites/default/files/omb/egov/digital-government/digi tal-government-strategy.pdf, abgerufen am 28.1.2016.

344

4 Anwendung in Forschung und Praxis – Sociality by Design

Lösungen bieten konnten, wird eine Anknüpfungsmöglichkeit an Lösungen Dritter hergestellt (z. B. andere Verbundprojekte, Studien, Konzepte, Gesetze), so dass letztlich zu jeder relevanten Technikgestaltungsfrage ein Lösungsvorschlag angeboten werden kann. Durch diese Grundstruktur und die in der Folge dargestellten sozialwissenschaftlichen Methoden werden die wichtigsten gesellschaftlichen Aspekte ganzheitlich analysiert und konkrete Lösungsvorschläge entwickelt. Ein System, wie es im Projekt PERFORMANCE realisiert werden soll, existiert derzeit nicht, wird aber spätestens seit dem „Boston Bombing“ in der Sozialwissenschaft entsprechend diskutiert, beispielsweise am Beispiel der US-amerikanischen663 oder griechischen Gesellschaften664 und auch anhand konkreter Methoden und Tools (siehe dazu auch in der Folge die Informationen im Abschnitt „Reiseplanung: Los Angeles“).665 Schließlich erreichte die Mithilfe Freiwilliger – teilweise ohne Aufruf der örtlichen Polizei, teilweise polizeilich motiviert – wohl erstmals durch dieses außergewöhnliche Ereignis die breite (Medien)Öffentlichkeit und kann deshalb als entsprechender Meilenstein betrachtet werden. Während in den Diskussionen schnell auf Gefahren wie Einbußen bei der Privatsphäre und Überlastungen der zuständigen Behörden durch die Meldung von zahllosen Bagatellen hingewiesen wird, werden auch Zwangsläufigkeiten der zunehmend digitalisierten Gesellschaft und sogar Vorteile eines digitalen Hilfskonzepts nicht ausgespart – und genau dieser Ansatz sollte auch der Kern der sozialwissenschaftlichen Betrachtung sein, denn ein Punkt steht so klar im Raum wie kein anderer: es besteht aufgrund der unaufhaltsam fortschreitenden Digitalisierung unserer Gesellschaft akuter Handlungsbedarf, damit sich keine chaotisch wachsende, iterative Lösung, gekennzeichnet durch das nur bedingt empfehlenswerte Handlungsschema „Versuch und Irrtum“ aufgrund völlig unklarer Kräfteverhältnisse ergibt.666 Bis zur Lynchjustiz oder ganz eigenen (teilweise erratischen) Gestaltung eines Umganges mit entsprechenden Phänomenen ist es im Zweifel nicht weit.667 Eine digitalkulturelle Analyse, gemessen an den Möglichkeiten und Grenzen von PERFORMANCE, dürfte hier bestmögliche Abhilfe schaffen, und so wie andere Konzepte im digitalen Raum (beispielsweise Counternarratives/Gegenrede, Digitale Literalität oder

663 Marx, G.T.: The Public as Partner? Technology Can Make Us Auxiliaries as Well as Vigilantes. http://dx.doi.org/10.1109/MSP.2013.126, abgerufen am 28.1.2016. 664 http://surprise-project.eu/wp-content/uploads/2014/11/Booklet_Final.pdf#page=39, abgerufen am 28.1.2016. 665 Siehe beispielsweise http://research.microsoft.com/en-us/um/redmond/groups/connect/ CSCW_10/docs/p515.pdf, http://www.tandfonline.com/doi/abs/10.1080/21670811.2014.892747 und auch das Projekt Sociality by Design, http://www.socialitybydesign.org, jeweils abgerufen am 28.1.2016. 666 Starbird et al. 2013 667 Siehe dazu das Zeitgeschichtliche Archiv des Westdeutschen Rundfunks zum Gladbecker Geiseldrama unter http://www1.wdr.de/themen/archiv/sp_gladbeckergeiseldrama/gladbeckgeisel drama100.html, abgerufen am 28.1.2016.

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

345

medienpädagogische Ansätze in der Mediensuchthilfe) gegenüber rein technischen oder rechtlichen Lösungen ebenfalls bevorzugt oder zumindest mit ihnen bestmöglich gekoppelt werden. M1 bis M3: Übersichtsphase In Verbindung mit den anderen Projektpartnern erfolgen die Analyse der spezifischen Kenntnisse der Endanwender und der Ist-Situation, die Ableitung von Anwendungsfällen für den Demonstrator sowie die Festlegung der Systemspezifikationen. Methodenschwerpunkte sind hier die teilnehmende Beobachtung und eine kollaborative technische Analyse. Die studentischen Mitarbeiter konzentrieren sich in diesem Falle auf unterstützende Arbeiten (beispielsweise im Rahmen der technischen Analyse, der Literatursichtung, der Gestaltung eines Wikis zwecks Quellen- und Arbeitsergebnisverwaltung) und erste eigenständige organisatorische Aspekte (beispielsweise Reisemanagement, Backups, Materialverwaltung). Die teilnehmende Beobachtung668 findet in AP1 und damit in den Monaten M1 bis M3 statt. Schwerpunkte der Beobachtung sind die Verbundtreffen sowie darüber hinausgehende Treffen mit Technikern und Praktikern der Polizei, da diese die technische Hauptarbeit leisten werden und deshalb im Fokus der Beobachtung stehen. Die teilnehmende Beobachtung ist Ausgangspunkt der interdisziplinären Zusammenarbeit. Die technische Analyse widmet sich der genauen Betrachtung technischer Ausgangsbedingungen und Spezifikationen, um die Auswirkungen des Technikeinflusses im Rahmen üblicher Technikfolgenabschätzungen zu ermitteln. Hier ist die Zusammenarbeit mit den Karlsruher Partnern von besonderer Bedeutung, zumal sie sich bereits im Projekt MisPel entsprechend bewährt hat. M4 bis M17: Erste Forschungsphase Die erste Forschungsphase gliedert sich in zwei Teilphasen, die durch eine Schwerpunktverlagerung der Arbeit des Teilprojektleiters gekennzeichnet sind. Während AP 3.1 dauerhaft die Hälfte der Forschungstätigkeit ausmacht, spielt die sozio-technische Leitlinienentwicklung in den Monaten M4 bis M12 – der ersten Teilphase – keine Rolle, da aus vorherigen Forschungsprojekten bekannt ist, dass zu so einem frühen Projektstadium die Meso-Ebene inhaltlich nicht gewinnbringend mitbedient werden kann. Der Schwerpunkt liegt deshalb auf AP 3.1 und 3.3, um der kollaborativen Informationsgewinnung, Analyse und Entwicklung ausreichend Raum zu geben und dann – ab M13 – einen Schritt weiter in die Schwerpunktanalyse und -mitgestaltung der wirtschaftlichen Projekt(partner)ideen zu gehen. In dieser zweiten Teilphase bis M18 sind dann schließlich, so die Erfahrung, ausreichend viele Erkenntnisse aus dem Gesamtprojektkontext (sowohl sehr spezifischer als auch gesellschaftlich-allgemeiner Art) einsetzbar, so dass eine Schwerpunktverlagerung v. a. von

668 Lamnek, 2010, S. 498 ff.

346

4 Anwendung in Forschung und Praxis – Sociality by Design

der Makro- zur Meso-Ebene hier sinnvoll erscheint. Die erste Forschungsphase zeichnet sich insgesamt durch umfangreiche Literaturrecherche, erste ExpertInnengespräche (projektintern und -extern), technische Analysen (v. a. M4 bis M12), die Unterstützung der technischen Ziele für M18 und die Unterstützung der wirtschaftlichen Partner (v. a. M13 bis M18) aus. Die Literaturrecherche669 setzt sich aus der Beobachtung und inhaltlichen Auswertung von medialen Diskursen im In- und Ausland (vorrangig Länder mit entsprechenden Videoauswertesystemen polizeilicher oder privater Art) sowie der Auswertung von nationalen und internationalen wissenschaftlichen Diskursen zu den Kernthemen dieses Vorhabens zusammen. Bei den ExpertInnengesprächen wird es sich um explorative Gespräche handeln. Diese sind bewusst nicht als vorstrukturierte Interviews konstruiert, sondern am ehesten als offene Interviews zu klassifizieren.670 Anhand der in AP1 gesammelten Informationen werden grobe Leitlinien für diese Gespräche entwickelt, um dann in einem gewissen vorstrukturierten Rahmen die entsprechenden Informationen diskursiv abfragen zu können. Als Zielgruppe kommen sowohl die Projektbeteiligten (v. a. die assoziierten Partner) wie auch externe ExpertInnen infrage, die sich aufgrund einer inhaltlichen Auseinandersetzung mit einem entsprechenden (ähnlichen) Thema für ein Gespräch qualifizieren (siehe dazu die Reiseplanung im Anhang dieses Dokuments). Ggf. werden weitere Analysen ab M19 hinzukommen, wenn sich zeigt, dass die gesellschaftlichen Auswirkungen und Aspekte dadurch letztlich signifikant besser analysiert werden können. Dies können Softwaretests, Experimente, aber auch Interviewvarianten oder Medienanalysen sein. Aufgrund des dynamischen Themenfeldes ist hierzu derzeit noch keine abschließende Stellungnahme möglich. Da es sich letztlich aber nur um eine Schwerpunktverlagerung und kein Aufblähen des Aufgabenfeldes im Zeitraum M19 bis M24 handelt, wird davon ausgegangen, dass ein Shift hin zu anderen Methoden, die lageangepasst zielführender erscheinen, insgesamt unproblematisch ist. M18 bis M24: Zweite Forschungsphase In der zweiten Forschungsphase stehen wieder AP 3.1 und 3.3 im Vordergrund. Es sollen dann (auch nach der Entscheidung, ob andere oder gar weitere Methoden genutzt werden sollen) weitere ExpertInnengespräche (vorrangig extern), ggf. in Form von Interviews, stattfinden. Zudem kommt es zu einer verstärkten inhaltlichen Vernetzung mit dem juristischen Projektpartner, um gemeinsam die kollaborativ angestoßene Richtung zu analysieren. Denn immerhin soll zu M18 ein „Zwischenstand“ des Projekts erkennbar sein, der letztlich (sprich: zu M26) nicht mehr nur einer ersten Skizzierung, sondern einer deutlichen Weiterentwicklung entsprechen soll. Das, was in der ersten Projekthälfte gelernt wurde, wird nun verfeinert.

669 Bortz & Döring, 2006, S. 51 670 Bortz & Döring, 2006, S. 307

4.1 Die beispielhafte Anwendung von Sociality by Design in der Sicherheitsforschung

347

M25 bis M36: Abschlussphase Wie beim zweiten Teil der ersten Forschungsphase gibt es erneut eine Verschiebung von AP 3.3 zu AP 3.2, da die Kernidee des Projekts maßgeblich vom wirtschaftlichen Projektpartner abhängt und dieser deshalb nun intensiv unterstützt werden soll. Dies geht zu Lasten der Analyse der Meta-Ebene, da nach über zwei Jahren der allgemeinen Analyse des Spannungsverhältnisses von Zivilgesellschaft und Hoheitsträgern nicht davon ausgegangen wird, dass es noch grundsätzlich neue Erkenntnisse allgemeiner Art geben wird. Die Meta-Ebene, so die Erfahrungen aus der Vergangenheit, war dann ausreichend lang im Fokus des Teilprojekts. Insbesondere in den Monaten 30 bis 35 geht es schließlich um eine finale Literatur- und Projektrecherche, abschließende technische Analysen und eine Unterstützung bei den ganzheitlichen Zielen für M36. Selbstverständlich auch eine Rolle spielen in den letzten Monaten des Projekts dann auch das Verfassen der Abschlusstexte sowie finalisierende Arbeiten im jeweiligen Unter-APKontext. Insgesamt sind zwei Meilensteine von entscheidender Bedeutung für dieses Teilvorhaben: M18 und M36. Zu M18 sollen für alle drei Unter-Arbeitspakete (3.1 bis 3.3) erste konkrete Ergebnisse vorliegen, die zu einem ersten Gesamtergebnis zusammengefasst werden sollen. Da es in AP 3.1 um die Analyse der Digitalisierung der Gesellschaft im Projektkontext geht, sollen auf Basis der durchgeführten Gespräche innerhalb und außerhalb des Projekts, der technischen und auch entsprechender Literaturanalysen Möglichkeiten und Grenzen des Projekts PERFORMANCE benannt werden können. Das soll bereits zu M18 nicht nur marginal den beteiligten Projektpartnern helfen, ihre Entwicklung (in bestimmten Bereichen) nicht in die falsche Richtung zu treiben. Dabei sind zu M18 erste, zu M36 abschließende konkrete Empfehlungen zu erwarten, die zu M18 vorrangig im Dialog distribuiert werden sollen. Etwas konkreter gefasst geht es hier also in der Tat um die Frage, „was geht“ (und was nicht), und zwar als Dienstleistung für die anderen Partner, damit das Projekt gemeinsam Schritt für Schritt vorangebracht werden kann. (Mikro-Ebene) Bei M36 beinhaltet dann auch der Demonstrator bereits die entsprechenden sozialwissenschaftlichen Einflüsse. Aus den Erkenntnissen von AP 3.1 ergibt sich in Kombination mit den Arbeiten in AP 3.2 das Ergebnis von AP 3.2 für M18 und M36, genauer gesagt: ein sozio-technischer Leitlinienentwurf. Besondere Betonung erfährt hierbei vor allem die wirtschaftliche Komponente, welche bis M18 besonders detailliert exploriert und bis M36 besonders eng beraten werden soll. Während also die Ergebnisse zu M18 aus AP 3.1 eher detailliert gestaltenden Charakter innerhalb des Projektes haben, wird in AP 3.2 vorrangig an einem Leitlinienkonzept gearbeitet, welches die wirtschaftliche Komponente des Projekts im Fokus hat und sich bereits in ersten Ansätzen allgemeinen Aspekten (hier: der Frage einer privatwirtschaftlichen/Firmen-Beteiligung an einer Aufgabe wie der von PERFORMANCE) widmet. (Meso-Ebene)

348

4 Anwendung in Forschung und Praxis – Sociality by Design

Somit führt letztlich AP 3.3 zu Erkenntnissen, die sich umfassend dem außergewöhnlichen Spannungsfeld von Zivilgesellschaft und Hoheitsträgern widmen. Selbstverständlich werden auch die Projektpartner von diesen eher allgemein gefassten Aspekten profitieren können – vor allem wohl die assoziierten Partner -, doch geht es hier perspektivisch auch schon um Folgeprojekte, Anschlussideen und allgemeine Empfehlungen für die Gesellschaft. (Meta-Ebene) Auch wenn die Rolle der Begleitforschung stets als eine projektbezogene verstanden wurde und wird, so sind doch auch stets Ergebnisse induktiver Art zu erwarten und entsprechend zu nutzen. Die drei Unter-Arbeitspakete sollen dies jeweils entsprechend abbilden. Bis M18 wird dann wie bereits erwähnt auch entschieden, ob und wenn ja: welche Methoden ggf. noch eingesetzt werden sollen. Dies hängt gleichermaßen von externen wie internen Einflüssen ab. Aufgrund der Projektplanung inklusive Finanz- und Personalmanagement erscheint diese Vorgehensweise jedoch problemlos realisierbar, so dass sowohl die „begleitende“ als auch die allgemeingesellschaftliche Rolle des Teilprojektpartners hier ausführlich ausgeübt werden kann.

4.2 Anknüpfungsmöglichkeiten inhaltlicher und technischer Art MisPel und PERFORMANCE waren und sind natürlich nicht alles. Doch ein Konzept wie Sociality by Design ist sicherlich nur so gut und sinnvoll wie seine erste erfolgreiche Umsetzung. Bevor aber eine Umsetzung in der Praxis ganz allgemein möglich ist, muss eine Konzepterstellung erfolgen, die intersubjektiv tragfähig ist. Die Konzepterstellung soll nun in der Folge – unter ständiger Bezugnahme auf Kapitel 4.1 – näher beleuchtet werden. Dabei geht es ebenso um die bereits erwähnten ersten Ideen (Kapitel 2 und 3) und allgemeine Grundlagen wie auch um das letztlich ausgearbeitete Konzept, welches am Ende des Kapitels anhand des zu durchlaufenden Prozesses dargestellt wird. Damit wird Sociality by Design ein Stück weit intersubjektiv nutzbar.

4.2.1 Erster Schritt: Allgemeine theoretische und methodische Grundlagen Der größte Fehler heute wäre, weiter so zu tun, als könnten wir die Dinge kontrollieren. Können wir nicht. Und mit dieser Nicht-Kontrollierbarkeit müssen wir rechnen. Schauen Sie in die Wirtschaft. Dort arbeitet man längst mit Szenarien, mit unterschiedlichen Modellen für verschiedene Entwicklungen. Wer so denkt, der hat die Idee von vollständiger Planbarkeit und eindeutiger Kontrolle aufgegeben, der sagt, ich kann die jetzige Situation nur weiterdenken und mir überlegen, was sich ändert, wenn an bestimmten Weggabelungen dies oder jenes passiert. Armin Nassehi

4.2 Anknüpfungsmöglichkeiten inhaltlicher und technischer Art

349

Sociality by Design bietet (in diesem Falle671) ein Rahmenkonzept zur sozio-technischen Gestaltung von digitaler Sicherheit, ist also keine eigenständigvollständige sozialwissenschaftliche, quasi die gesamte (digitale) Welt erklärende Theorie oder ein thematisch enger begrenzter bzw. definiert-spezifischer Methodenbaukasten, sondern ein Forschungs- und Entwicklungskonzept (analog der soziologischen Überlegungen von Nassehi) im technischen Sinne eines Entscheidungsunterstützungssystems: Ergebnisse kommen auf Basis einer Raffinierung von neu gewonnenen Informationen (Expertenwissen672 qua Tendenzanalyse und Bastelndem Denken) und/oder einer Rekontextualisierung von bereits vorhandenen Informationen (Expertenwissen qua Bastelndem Denken) zustande. Um die Rahmung zu verstehen und anwenden zu können, braucht es eine Darstellung der Entwicklung der einzelnen Elemente bzw. des Zustandekommens des Konzepts und der nun konkreten Ausprägung dieses By-Design-Ansatzes (Sociality by Design 1.0). Am Ende dieses Kapitels steht – analog zu Angeboten wie BSI-Standard 200-2 – das Konzept als Blaupause für die digitale Sicherheitsforschung, die entweder einen „kleinsten gemeinsamen (gesellschaftlichen) Nenner“ für den Erkenntnisgewinnungsprozess bieten („Was sollte ich bei meinem digitalen Projekt in sozialer Hinsicht auf jeden Fall berücksichtigen und was bedeutet das für mich, meine Organisation und die Gesellschaft?“, beispielsweise auf Basis des Bastelnden Denkens/von Kapitel 3 und/oder der Tendenzanalyse) oder die Anknüpfung an bestehende Erkenntnisse bieten („Forschungsergebnisse zu X helfen mir auf Ebene/ bei Problem A“, beispielsweise auf Basis des Bastelnden Denkens). Wenn BSI-Standard 100–3 eine Risikoanalyse auf der Basis von IT-Grundschutz ist, dann ist Sociality by Design eine Sozialitätsanalyse auf der Basis von IT-Grundschutz und weiteren Quellen. Bei der Rahmung der angestrebten Sozialitätsanalyse wird am Ende dieses Kapitels das Konzept auf ein Drei-Ebenen-Modell (Makro-, Meso- und Mikroebene) übertragen, um die (Sicherheits-)Forschungssituation beispielhaft abbilden zu können, da Forschung im Sicherheitsbereich in der Regel sowohl Individuen als auch Organisationen sowie – etwas abstrakter – die Gesellschaft als Ganzes betrifft. Die Struktur von Sociality by Design wird zu diesem Zweck in einer Grafik veranschaulicht. Dort wird dann deutlich, an welcher Stelle das Bastelnde Denken und an welcher Stelle die Tendenzanalyse zu finden sind. Während Sociality by Design in den frühen Jahren nur eine schemenhafte Idee673 war, die auf sehr punktuell-abstrakter Ebene in Digitale Identitäten eine Rolle spielte, wurde das Konzept für einen Projektantrag im Jahre 2011 erstmals „harte“, weil

671 Sociality by Design kann natürlich prinzipiell für jede sozio-technische Fragestellung angewandt werden, da das Zusammenspiel von Sozialität und Digitalität nicht auf Sicherheitsforschungsfragen beschränkt ist. In dieser Arbeit geht es allerdings vorrangig um die Sicherheitsforschung. 672 https://de.wikipedia.org/wiki/Experte#Expertenwissen, abgerufen am 6.2.2018. 673 https://doi.org/10.1007/978-3-642-30102-5_7, abgerufen am 5.8.2018.

350

4 Anwendung in Forschung und Praxis – Sociality by Design

deutlich skizzierte und (auf Basis der zuvor in diesem Kapitel geäußerten Überlegungen) ausformulierte Realität – mit dem Ziel, das Konzept letztmalig zu überprüfen, bevor es (in der hier nun vorliegenden Form) erstmals einer breiten Öffentlichkeit zugänglich gemacht werden kann. Wesentliche Weiterentwicklungen insbesondere des Bastelnden Denkens erfolgten während des Forschungsvorhabens MisPel, so dass hier eine Transformation aus der Pre-Alpha-Phase in die Version 1.0 stattfand. In MisPel wurde erstmals ein sozio-technisches Verbundprojekt auf Basis der Ideen des Bastelnden Denkens (1.0) bzw. Sociality by Design (Pre-Alpha) umgesetzt und entsprechend dokumentiert. Dies wurde bereits im Verlauf dieses Buches dargestellt. Selbstverständlich gehörte die Weiterentwicklung von Sociality by Design permanent zur Arbeit in MisPel dazu. Dies führte zum nächsten Schritt, der weiteren Verallgemeinerung, um das Rahmenkonzept möglichst breit einsetzen zu können.

4.2.2 Zweiter Schritt: Sociality by Design auf allen drei relevanten Ebenen Wichtig ist, dass Sociality by Design nicht nur auf einer erklärenden Ebene stattfindet, sondern auf drei Ebenen zugleich: die Mikroebene widmet sich den Aufgaben der Endanwender, welche in Sicherheitsforschungsprojekten in aller Regel konkrete Anweisungen benötigen (analog zu BSI-Standard 100–3). Die Mesoebene widmet sich den Aspekten, die für die jeweilige Institution/Einrichtung/Behörde relevant sind: allgemeine Grundregeln, Handlungsmaximen, Prinzipien usw. Die Makroebene widmet sich der Sozialität selbst, hier also der Akzeptanz der jeweiligen Lösung. Der Ablauf einer Sociality-by-Design-Analyse startet mit der Festlegung des Projektziels (in Abbildung 9: „Projekt“). In Abbildung 9 ist dies exemplarisch in der Projektzeile die Beschreibung „Bsp.: IVÜ“, was bedeutet, dass der Testfall hier ein Projekt zum Thema Intelligente Videoüberwachung (IVÜ) ist. Als nächster Schritt („Was die Anwender interessiert“) folgt die Auswahl der Schlagwörter („Schlagwort 1“, „Schlagwort 2“ . . . ), die die jeweiligen Projektpartner interessieren, analog zur in Kapitel 4.1 skizzierten Vorgehensweise. (Beispielschlagwort: Videoüberwachung). Für diese Schlagwörter sucht man sich dann eine oder mehrere passende Datenbanken, die hilfreiche Ergebnisse liefern könnten, sofern noch keine eigene Datenbank im Sinne der BD-DB bereitsteht. Im Falle von MisPel waren dies Nachrichtenwebsites, welche im Kern nichts anderes als relationale Datenbanken sind. Als nächster Schritt folgt ein Abgleich der erhaltenen Sinneinheiten (je nach Quelle z. B. Papers, Medienberichte, Messdaten; „Sinneinheit X1“, „Sinneinheit X2“ usw.) mit den Bausteinen aus Kapitel 2 („K2 als Filter“), damit die relevanten Sinneinheiten von den irrelevanten unterschieden werden können. (Dieser Prozess kann natürlich auch ohne die Zuhilfenahme von Kapitel 2 stattfinden, wenn man a) das entsprechende Hintergrundwissen zum Stand der Forschung bzw. zur Einschätzung der soziologischen bzw. psychologischen Relevanz besitzt oder b) aus projektinternen Gründen ganz andere Relevanzkriterien

4.2 Anknüpfungsmöglichkeiten inhaltlicher und technischer Art

351

Abbildung 9: Ablauf einer Sociality-by-Design-Analyse.

gelten sollen, beispielsweise ausschließlich die sieben Grundprinzipien von Privacy by Design.) Aus dieser Abfolge „SE -> K2 -> Ergebnisse“ entstehen die jeweiligen Ergebnisse. Diese Ergebnisse müssen nun umgelegt werden auf die drei Ebenen: Mikroebene (MI), Mesoebene (ME) und Makroebene (MA). Dafür gibt es jeweils eigene Vorgehensweisen: – Auf der Mikroebene werden Sätze formuliert, die den Anwenderinnen und Anwendern möglichst einfache, zielführende und effiziente Verhaltensmaßregeln bzw. Empfehlungen vorgeben. Grundsätzlich sind hier die beiden Elemente Technikkenntnis und Logik entscheidend, d. h. wenn beispielsweise das Schlagwort „Videoüberwachung“ zu einer Analyse von Medienberichten aus exemplarischen zehn Quellen mithilfe von Google News geführt hat, welche in der Summe nach Logik eines Durchschnittslesers (wie im Projekt MisPel) hinsichtlich der Akzeptanz von Videoüberwachung überwiegend negativ ausfallen und in Kapitel 2 dazu entsprechend relevante Bausteine vorzufinden sind, dann sollte die

352

4 Anwendung in Forschung und Praxis – Sociality by Design

Analystin bzw. der Analyst aus diesem Wissen und unter den in Kapitel 3 (Methodik) entsprechende Empfehlungen formulieren. Sollte bezüglich der Vorgehensweise Unsicherheit bestehen, hilft eine Orientierung an der Systematik des IT-Grundschutzes, genauer: anhand der BSI-Standards 100–2 und 100–3 bzw. 200–2 und 200–3 und ganz konkret bei BSI-Standard 200–2 das Kapitel 8.3.6 auf Seite 142 ff.674 – Auf der Mesoebene geht es nicht um konkrete Anweisungen oder Empfehlungen, sondern um die Frage, welche Schlüsse man aus den gewonnenen Erkenntnissen für die Grundprinzipien der Institution ziehen kann. Das bedeutet: wenn beispielsweise festgestellt wird, dass die Bevölkerung (auf Basis der Tendenzanalyse, siehe Kapitel 4.1) ebenso wie die wissenschaftliche Mehrheitsmeinung (auf Basis des Bastelnden Denkens, siehe Kapitel 3.2) Sicherheitsszenario X (beispielsweise „Mehr Personenkontrollen durch Polizeistreifen bereits bei kleinstem Verdacht“) klar und deutlich ablehnen, dieses Szenario X in den Grundprinzipien der Organisation mittelbar oder unmittelbar aber noch eine Rolle spielt („Wir verfolgen eine Null-Toleranz-Strategie“), so fordert Sociality by Design hier zu einem Umdenken auf. – Auf der Makroebene führt die Analyse zu Erkenntnissen aus Basis der Tendenzanalyse und bleibt dabei allgemein, d. h. es geht um eine Horizonterweiterung in Sachen Sozialität. Ob die Anwenderinnen und Anwender sowie die Institution dieses Ergebnis (beispielsweise „Die Bevölkerung lehnt Null-Toleranz-Strategie der Polizei weit überwiegend ab“) dann lediglich zur Kenntnis nehmen und damit auf der Makroebene verbleiben oder ob sie es in die Meso- und Mikroebene einfließen lassen, ist ihre Entscheidung. Die Tendenzanalyse liefert so oder so eine Antwort.

4.2.3 Anwendungsfall „Nachrichtendienst der Zukunft“ Neben MisPel und PERFORMANCE gab es wie bereits erwähnt weitere Anwendungskontexte. Einer dieser Testfälle war im Jahre 2018 ein Konzept über die soziotechnische Perspektive deutscher Nachrichtendienste, welches hier nun ausführlich dargestellt werden soll. Dass die Digitalisierung unsere Gesellschaft fest im Griff hat, bedarf inzwischen keiner weiteren Erklärung. Kaum ein Bereich unseres Lebens wird nicht von Digitalisierung berührt, spürbar verändert oder sogar komplett umgewälzt. Dass diese Revolution auch Nachrichtendienste betrifft, ist nicht erst seit der Einrichtung des

674 Da die BSI-Standards 200–2 und 200–3 seit Oktober 2017 sukzessive angewendet werden, bezieht sich der Verfasser hier ausschließlich auf diese aktuelleren Versionen. Bezüge auf BSI-Standard 100–2 oder 100–3 haben nur noch historische Relevanz.

4.2 Anknüpfungsmöglichkeiten inhaltlicher und technischer Art

353

Gemeinsamen Internetzentrums (GIZ) von Bundesamt für Verfassungsschutz, Bundeskriminalamt, Bundesnachrichtendienst, Militärischem Abschirmdienst und Generalbundesanwaltschaft im Jahre 2007 ein Thema. Schon zum Jahrtausendwechsel zeigte sich die immense Rolle der Digitalisierung klar und deutlich, auch für Außenstehende oder digitale Laien. Doch die Entwicklung bleibt nach Anerkenntnis dieses epochalen sozio-technischen Wandels nicht stehen – im Gegenteil: Digitalisierung ist so dynamisch wie kaum ein anderes Phänomen unserer Zeit und die Anerkennung dieser Entwicklung muss die Erkenntnis beinhalten, dass wir gerade erst am Anfang stehen, was die Ausprägung von Digitalität angeht. Und damit bleiben die Anforderungen, aber auch der Stresspegel hoch, denn gerade der gesellschaftlich hochrelevante Themenkomplex „Sicherheit“ muss unter solchen Bedingungen völlig neu definiert werden. Dies gilt auch und gerade in Zusammenhang mit Wissen. Denn heute gilt: Niemand kann sich ausruhen, niemand kann mehr so wie früher auf langfristig gesichertes Wissen bauen, denn die Konstanten werden kleiner, die Variablen immer zahlreicher. Das Digitale entschleunigt gerade nicht mit zunehmender Dauer seiner Existenz, sondern greift immer schneller und komplexer um sich: nach dem Einzug in die Labore der Universitäten ging es über den Fachhandel nach Hause auf den Schreib- oder Kinderzimmertisch, dann ins Wohnzimmer, schließlich in die Jackenbzw. Hosentasche – und letztlich überall hin. Alles im Detail zu verstehen, zu beherrschen und zu kontrollieren, was entstanden ist und noch entstehen wird, erscheint da nicht nur unmöglich – es ist unmöglich. Doch worauf soll man sich dann konzentrieren? Welche Ansätze sind vielversprechend, welche Lösungen wirken noch (einigermaßen) dauerhaft? Woran kann sich in diesem Kontext ein Nachrichtendienst zukünftig orientieren? Welche gesellschaftlichen Aspekte sollten berücksichtigt werden, um effektiv, effizient und ganzheitlich zu Ergebnissen, sprich: zu Wissen zu kommen – als ganz besonderer Dienstleister einer wehrhaften Demokratie? Eines lässt sich inzwischen feststellen: es sind nach mehreren Jahrzehnten der Digitalisierung unserer Lebenswelt einige (wenige) Regeln und Muster erkennbar. Regeln und Muster helfen bekanntlich sehr bei der Bewältigung des Alltags, denn so wie wir an jeder Straßenkreuzung nach festen Schemata verfahren und nicht die Situation für jede Kreuzung und jeden Verkehrsteilnehmer individuell auswendig lernen, so bewegen wir uns auch im digitalen Raum am besten nach entsprechenden übergreifenden Informationen. Doch im Vergleich zum Internet ist der Straßenverkehr ein Kinderspiel. Digitale Regeln sind zwar teilweise erkennbar, haben aber bei weitem nicht dieselbe Unzweideutigkeit, Wirkmacht und Langlebigkeit wie im hiesigen Beispiel der Straßenverkehr, da sie nicht denselben Gesetzmäßigkeiten folgen (können). Eine vergleichbare Regelhaftigkeit wird zwar stets angestrebt, jedoch nur selten – auf einer wirklich hilfreichen Ebene – tatsächlich erreicht. Dafür ist das Digitale schlicht zu komplex. „Haltbar“ ist digitale Regelhaftigkeit deshalb oft nur auf einer sehr oberflächlichen Art und Weise: dass sich beispielsweise die Erreichbarkeit der Menschen von der Formel Regelfall = Nichterreichbarkeit („Ist nicht

354

4 Anwendung in Forschung und Praxis – Sociality by Design

telefonisch erreichbar, außer zu bestimmten Zeiten zu Hause über Festnetz“) zur Formel Regelfall = Erreichbarkeit („Ist immer telefonisch erreichbar, außer bei nicht empfangsbereitem Smartphone“) geändert hat, ist inzwischen altbekannt, aber auch von sehr überschaubarem Nutzwert bei vielen Problemen, die mit der Erreichbarkeit zwar direkt zusammenhängen, aber weit über die Feststellung derselben hinausgehen. Somit gilt: Regeln sind zwar hilfreich, aber im digitalen Raum sehr oft sehr schwer zu konkretisieren bzw. sehr allgemein oder sogar oberflächlich gehalten. Die Dynamik ist für Konkreteres oft zu groß. Wie können (solch basale) Regeln trotzdem hilfreich sein? Wie kann man auf so einer Erkenntnisbasis zu einem Umgang kommen, der den digitalen Herausforderungen von Gegenwart und Zukunft gerecht wird? Einfach formuliert (aber nur schwer erreicht): durch eine sinnvolle Kombination bisheriger Regeln, Muster und Axiome. Es braucht ein Rahmenkonzept, welches die wenigen erkannten und weiterhin gültigen Eigengesetzlichkeiten (Axiome, Regeln, etc.) benennt, fallweise zusammenführt und gewichtet. Dieser Ansatz ist nicht neu: Privacy und Security by Design sind zwei Rahmenkonzepte, die genau dieser Logik folgen. Es gibt bei diesen beiden Ansätzen einige Aspekte, die (in diesem Falle: bei Technikentwicklung) grundsätzlich beachtet werden sollten, um Privacy bzw. Security von Beginn an – eben: by Design – an Bord zu haben. Im Falle einer entsprechenden Adaption hat man durch die jeweiligen Axiome, die by Design vermittelt werden, immerhin einige entscheidende Probleme aus dem Weg geräumt und muss nicht im Nachhinein ausbessern. Bei Privacy by Design erfolgt dies auf Basis von sieben Kernelementen, die Berücksichtigung finden sollten. Diese Kernelemente muss man sich nicht mehr selbst zusammenbasteln, sondern kann (einzeln oder insgesamt) auf sie zurückgreifen. Die Klammer, die diese Kernelemente zusammenhält, ist aber stets sichtbar und geht auch durch Nutzung von weniger als sieben Kernelementen nicht verloren: Privacy. By Design. Genau dieser Ansatz eines Rahmenkonzepts mit einigen bereits sehr hilfreichen, aber eben nicht alles erklärenden und sich ständig an die gegenwärtigen Bedingungen anpassenden Kernelementen wird von der Internetsoziologie (nach Interpretation des Verfassers) seit einigen Jahren konsequent verfolgt und weiterentwickelt. Das entsprechende Rahmenkonzept dazu trägt den Namen Sociality by Design und soll somit für Gesellschaftsfähigkeit qua Rahmenkonzept sorgen. Es kann gleichermaßen als konkrete Blaupause, aber auch als „auszubeutender“ Ansatz, und damit als allgemein wie individualisiert nutzbares Grundprinzip verstanden (und eingesetzt) werden. Es gibt inzwischen einige internetsoziologische Eigengesetzlichkeiten, die sich nach über zehn Jahren Forschung im Themenbereich Digitalisierung und Gesellschaft herauskristallisiert und – besonders wichtig! – bewährt haben und damit als Elemente eines (vorgegebenen allgemeinen wie individuell erstellten) Rahmenkonzepts dienen können. Sie ähneln den digitalen Axiomen und greifen diese teilweise inhaltlich, teilweise strukturell auf, sind aber nicht automatisch deckungsgleich.

4.2 Anknüpfungsmöglichkeiten inhaltlicher und technischer Art

355

Einige besonders relevant erscheinende internetsoziologische Eigengesetzlichkeiten werden anhand des hiesigen Themas in der Folge beispielhaft kontextualisiert. Da eine solche Kombination von sozio-technischen Aspekten und Nachrichtendienstbezug bisher einzigartig im deutschsprachigen Raum sein dürfte, erfolgt die Analyse an dieser Stelle demzufolge erstmalig, mit dem Ziel der Beantwortung folgender Frage: Wie können Nachrichtendienste in den nächsten fünf bis zehn Jahren in der digitalen Gesellschaft (auf Basis internetsoziologischer Erkenntnisse) ganzheitlich erfolgreich agieren? Es versteht sich von selbst, dass aufgrund fehlender Kenntnisse über interne Prozesse und Strukturen nur entlang allgemein bekannter Aspekte nachrichtendienstlicher Tätigkeit argumentiert werden kann. Bezüglich der Passgenauigkeit der Empfehlungen sind demzufolge zwangsläufig Abstriche hinzunehmen. Wie immer bei dieser sehr allgemeinen Vorgehensweise bedeutet diese außerdem auch nicht, dass alle Ergebnisse für alle Adressaten gleichermaßen gewinnbringend sein werden. Es erscheint völlig ausreichend, wenn durch einzelne Stakeholder Ideen identifiziert werden, die zu einer inhaltlichen oder prozessualen Verbesserung führen. Und wenn gar ein individuelles Rahmenkonzept aus diesen Ansätzen extrahiert, ausprobiert und schließlich dauerhaft eingesetzt werden kann: umso besser.675 Insgesamt wurden neun ausgewählte internetsoziologische Kernaspekte676 mit nachrichtendienstlichen Aspekten677 kombiniert: 1.

Die Internetsoziologie konzentriert sich auf digitale Phänomene und schließt – anders als die Mediensoziologie – nichtdigitale Themen konsequent aus. Historisch-technische (Einzel)Aspekte anderer Medien werden aufgrund der medienhistorischen Singularität der Digitalisierung nur begrenzt eingebunden. Es geht vorrangig um die Neuheiten, die Eigengesetzlichkeiten, die Digitalisierung mit sich bringt, was nicht mit Ahistorizität gleichzusetzen ist.

Für Nachrichtendienste bedeutet das: in Sachen Technikanalyse hat Digitalisierung klar Vorrang vor ausnahmslos allen anderen technischen Phänomenen. Abteilungen mit digitalen Aufgaben sollten sich so weit wie möglich nur diesen Aufgaben widmen können. „Andere“ Technik ist und bleibt andere Technik – die Schnittmen-

675 Weitere Ausführungen zu Sociality by Design finden Sie unter http://www.socialitybydesign.org. 676 Die Kernaspekte – sie sind die bisher veröffentlichten Aspekte, nicht der Gesamtüberblick aller internetsoziologischen Ideen, da dieser Überblick noch zuviel „Work in progress“ beinhaltet – findet man in ihrer ursprünglichen Form hier: http://www.internetsoziologie.at/de/wiki/index. php/FAQ#Wo_liegt_nun_das_konkret_Neue_.28oder_Andere.29_bzw._Einzigartige_in_der_Internet soziologie.3F_Wozu_noch_eine_Auspr.C3.A4gung_der_ohnehin_weit_gef.C3.A4cherten_Soziologie. 3F, abgerufen am 10.12.2018. 677 Die wesentlichen Sinneinheiten sind durch entsprechende Formatierung schlagwortartig hervorgehoben worden.

356

4 Anwendung in Forschung und Praxis – Sociality by Design

gen zwischen nichtdigitalen und digitalen Maschinen sind einfach zu gering, so dass sich eine Ableitung von Wissen (von analog zu digital) kaum lohnt, sondern (aufgrund der Gefahr entsprechender Irreführung) sogar gefährlich sein kann. Zu oft wird dieses Wissen fehlgreifen, zu oft wurden in zahlreichen Fällen in der Vergangenheit völlig falsche Schlüsse gezogen. Es muss fokussiert um den Aufbau von genuin digitalem Wissen gehen, denn Digitalisierung ist medienhistorisch einzigartig. Jeder Analysefokus muss deshalb – wie oben erwähnt – auf die Neuheiten, die Eigengesetzlichkeiten abzielen. Eine ganzheitliche Analyse von Digitalisierung ist dabei von besonders großer Relevanz. Das gilt explizit für die Gegenwart, aber auch für die Zukunft der Digitalisierung. Jede digital aktive Abteilung, Arbeitsgruppe und Einzelperson befindet sich stets zur Hälfte in gegenwärtigen und zur Hälfte in zukünftigen Herausforderungen digitaler Art. 2.

Neben soziologischen werden auch umfangreiche und tiefgehende technische Kenntnisse eingebracht, d. h. es besteht (im Idealfall) die Möglichkeit der Analyse „bis ins letzte Bit“. Die Disziplinen, von denen die Internetsoziologie besonders profitiert, sind somit Soziologie und Informatik.

Für einen Nachrichtendienst sollte demnach idealerweise gelten: die besten Digitalanalyseergebnisse erzielen Menschen mit tiefgreifenden sozialwissenschaftlichen und technikwissenschaftlichen Kompetenzen. Das heißt allerdings nicht simples „50:50“ hinsichtlich der curricularen Ausrichtung, denn mit einer Parität der Inhalte in einem Lehrplan ist es nicht getan. Es geht um mehr, um ein ganzheitliches „Weltverständnis“. Es bedeutet, dass die Soziologin im Analyseteam im Zweifelsfall tief in die Technikmaterie eintauchen kann, eben weil sie sowohl Technikkenntnis als auch -interesse hat, zugleich aber der Informatiker auch weitreichendes Verständnis für kultursoziologische und wirtschaftspsychologische Inhalte und Prozesse haben muss. Ein breiter gemeinsamer Nenner muss somit hergestellt werden. Das bedeutet weit mehr als Großraumbüro, Teambuildingmaßnahmen und punktuelle Weiterbildung: es ist eine gemeinsame Grundeinstellung, eine Identifikation als digitalkompetent in ganzheitlicher (technischer und sozialer) Hinsicht. Dies erfordert in letzter Konsequenz auch neue Curricula, die nicht mehr nur Fächer paritätisch aneinanderkleben und dies dann „innovativ“ nennen, weil Module vorkommen, die sich gegenwärtigen Trends widmen. Der digital kompetente Nachrichtendienstler genießt idealerweise ganzheitliche Kompetenzentwicklung, beruflich (d. h. fokussierend auf eine Rolle der/des digitalen Analystin/Analysten) wie privat (d. h. fokussierend auf maximale Befähigung zur Selbstentwicklung in einer immer digitaleren Lebenswelt). Der rote Faden entsteht durch die Fokussierung des Verwebens mithilfe digitaler Kultur: die Eigengesetzlichkeiten der Digitalisierung und ihre lebensweltlichen Auswirkungen begründen die Auswahl der Ausbildungsinhalte, sei es in einer Berufsausbildung als auch in einem Studiengang. Auch postgradual kann dieses Ziel erreicht werden, erfordert aber eine Abkehr von sehr

4.2 Anknüpfungsmöglichkeiten inhaltlicher und technischer Art

357

deutschen Ideen einer Perfektionierung bestehender monothematischer Kompetenzen bis zum Renteneintritt. Hier sind besonders Behördenstrukturen zu verändern, um Digitalisierung als niemals vollständig zu bewältigende, aber stets herausfordernde Lebensaufgabe, ständige Introspektion als notwendig und auch erstrebenswert und Wandel als chancen- statt risikoreich zu priorisieren. 3.

Die wahrscheinlich beste Methode der “Idee Internetsoziologie” ist das Bastelnde Denken, welches in allen bisherigen internetsoziologischen Arbeiten unbestritten die methodische Makroebene bzw. den wissenschaftsphilosophischen Methodenkern darstellt. Das ständige Infragestellen sämtlicher wissenschaftlicher Strategien erscheint im Umgang mit dem historisch wie auch technisch und vor allem sozial völlig neuen Phänomen Digitalisierung (zumindest derzeit) als einzig gangbarer Weg, da Analogiebildungen wie auch Adaptionen nichtdigitaler Art weit überwiegend scheiterten bzw. schlicht falsch waren und somit ein ganz neues (ggf. wild erscheinendes bzw. bastelndes) Denken als einzige Möglichkeit übrigbleibt. Dies bedeutet, dass Routine in der alltäglichen Forschung und Lehre konsequent abgelehnt wird: alles ist immer experimentell. Lehre ist immer forschend, Forschung ist immer verwoben mit der Lehre. Gearbeitet wird “live”, niemals statisch, niemals wiederholend. Routine ist nur im Sinne der Iteration (“Vom Groben ins Feine”) zulässig. Arbeit im digitalen Raum ist Prozess, nicht Projekt. Linearität ist somit weitgehend verschwunden.

Das Bastelnde Denken ist die radikale Abkehr von sämtlichen linearen Arbeitsprozessen und starren Methodenansätzen. Statt einmal gelernter Methoden- und Prozessbasis gilt: Ausnahmslos alles kann jederzeit verändert werden, Sprünge von hinten nach vorn sind ebenso möglich wie Vertiefungen bestimmter Aspekte, Rückschritte auf eine allgemeinere Ebene, etc. Es wird zu 100 Prozent gebastelt, inhaltlich wie strukturell, frei in allen Dimensionen. Diese radikal dynamische Vorgehensweise liegt in der extremen Komplexität der Digitalisierung begründet. Es hat sich in der Vergangenheit stets bewährt, ganzheitlich offen und änderungsfähig zu sein. Bei der Softwareentwicklung ist eine solch modulare Vorgehensweise längst gang und gäbe, doch auch im sozio-technischen Bereich hat sie bisher ausnahmslos inhaltliche Vorteile mit sich gebracht, wenngleich Linearität hier viel stärker bevorzugt werden dürfte. Dabei ist die Kernidee im Falle von inhaltlichen Analysen leicht nachvollziehbar. Letztlich geht es bei (nachrichtendienstlichen) Inhalten grundsätzlich immer um Texte bzw. Textelemente, die für jemanden einen Sinn ergeben, ergo: um Sinneinheiten. Es geht um die Nutzung von Inhalten. Sinneinheiten müssen heute – in digitalen Zeiten und in Zeiten ihres mannigfaltigen Auftritts auch jenseits des Buchs, Sammelbandes oder Artikels – in der ganzen Fülle ihrer Seinsmöglichkeiten betrachtet werden. Als Sinneinheit gilt deshalb stets, was für sich stehend inhaltlich (mindestens) einen Sinn für die durchschnittlich gebildete Leserin bzw. den

358

4 Anwendung in Forschung und Praxis – Sociality by Design

durchschnittlich gebildeten Leser ergibt. Idealerweise ergibt dann das Zusammenfügen von Sinneinheiten einen sinnvollen (neuen) Gesamtkontext. Damit nun, unter der Prämisse heutiger informationeller Herausforderungen, die Informationsflut der Gegenwart so effizient wie möglich für Forschung und Entwicklung, aber eben auch für die alltägliche Analyse genutzt werden kann, braucht es ein System, welches Sinneinheiten so verwaltet und bereitstellt, dass ein bestimmtes, wenn nicht gar das Ziel von Forschung, Entwicklung und Analyse schlechthin bestmöglich gewährleistet werden kann: Innovation. Ein System, welches Sinneinheiten modular verbinden kann, um am Ende die Innovationsfähigkeit der Autorin bzw. des Autors dieser (Re)Kontextualisierung dadurch zu stärken, dass sie bzw. er sich so gut wie nur möglich auf die Problemlösung, auf Innovation, auf Ideen konzentrieren kann, um dem Ideal einer idealen Antwort so weit wie nur möglich nahezukommen, das muss das Ziel sein. Denn „die Zeit der Zauberer ist vorbei“, so Volker Linneweber, ehemaliger Präsident der Universität des Saarlandes: „Und die Zauberlehrlinge sind anders aufgestellt“. Diese Zauberlehrlinge brauchen, so die Schlussfolgerung, dann auch zeitgemäße Entscheidungsunterstützungssysteme. Der Soziologe Heinz Bude formulierte es ähnlich: „Es gab tatsächlich [zu Zeiten der „68er“, welche vor allem in der Soziologie ganze Studiengänge und letztlich auch Weltenerklärungen prägten] den Glauben, dass Bücher existieren, in denen die wahre Wahrheit steht. Eine Wahrheit meiner selbst, eine Wahrheit der Welt. Das kann man sich heute nicht mehr vorstellen. Solch umfassende Bedeutung der Schrift hat es nach 1968 nicht noch mal gegeben.“678 Heute, in Zeiten der Nichtexistenz solcher Handlungs- und Rollenvorbilder, ist Sein – und damit auch Wissenschaft, ebenso die (wissenschaftliche) Analyse – mehr denn je Bastelarbeit.679 Und das technische System zur Bastelarbeit ist die relationale Datenbank (BD-DB) bzw. das Wiki – solange, bis sich eine bessere Lösung findet. Mit Texten soll also in Datenbanken gebastelt werden. Dauerhaft. 4. Was für die Makroebene (sprich: das Rahmenkonzept, die „Theorie“) gilt, gilt auch für die Mikroebene (das Arbeitskonzept, die alltägliche Arbeit): die Anwendung, Weiter- und Neuentwicklung von (vor allem) soziologischen Methoden – gleichermaßen quantitativ wie qualitativ – nach dem Foucaultschen Werkzeugkastenprinzip680 stellt hier das methodische Kernkonzept dar, flankiert von psychologischen Ideen und Methoden. Es gibt insgesamt kein zwanghaftes Festhalten an der einen Lieblingstheorie, –schule oder -methode, so wie

678 http://www.spiegel.de/kultur/gesellschaft/heinz-bude-ueber-adorno-metoo-und-was-von-68bleibt-a-1187437.html, abgerufen am 5.8.2018; Vergleichbares wurde im Übrigen schon damals von Philosophen wie Karl Popper abgelehnt, was für die Internetsoziologie bedeutet, dass Ansätze wie die von Popper den wissenschaftstheoretischen Background abbilden. 679 Humer, 2008. 680 http://foucaultundco.blogspot.de/2008/08/der-foucaultsche-werkzeugkasten.html, abgerufen am 13.12.2018.

4.2 Anknüpfungsmöglichkeiten inhaltlicher und technischer Art

359

bei manchen Soziologinnen und Soziologen üblich. Die Psychologie hat hier zudem Vorrang vor anderen Disziplinen wie der Politologie oder der Ökonomie, da die Betrachtung der (Wechsel-)Wirkungen von Digitalisierung auf den Einzelnen und die Gruppe im Vordergrund stehen, nicht politische oder wirtschaftliche Prozesse allgemeiner Art. Wenn Sie eine Methode, ein Werkzeug, einen Ansatz gefunden haben, die bzw. der für Sie im Arbeitsalltag funktioniert: sehr gut! Nutzen Sie sie. Aber gehen Sie nicht davon aus, dass es die eine Methode gibt (beispielsweise für Websiteanalysen), die quasi ewig Bestand haben wird. Nicht mal mit mittelfristigen Gültigkeiten ist heutzutage zu rechnen, sofern eine digitale Beeinflussung feststellbar ist – es sei denn, man befindet sich wieder auf der sehr allgemeinen Metaebene (siehe dazu das zuvor erwähnte Beispiel mit der Erreichbarkeit). Wenn es also früher oder später an der einen oder anderen Stelle hakt: basteln Sie! Für Methoden im Arbeitsalltag gilt dasselbe wie für Inhalte auf der Makroebene: es darf, ja: soll gebastelt werden. Denn das Festhalten an dem einen Tool, der einen Vorgehensweise oder der einen Form von Gruppenarbeit ist wenig hilfreich. Dafür ändern sich die Rahmenbedingungen zu schnell. Zudem ist die Ergebnisorientierung in dieser frühen Phase der Massendigitalisierung wichtiger als alles andere, schließlich können Sie aus dem, was funktioniert, Schlussfolgerungen für künftige Herausforderungen ziehen, die auch zum allgemeinen Verständnis von Digitalisierung (Stichwort: Eigengesetzlichkeiten) beitragen. Und auch wenn der Zweck freilich nicht die Mittel heiligt und es gleichermaßen rechtliche Grenzen wie auch Grenzen des Legitimen gibt, so gibt es doch keine Notwendigkeit, diesen Grenzen unnötig weit entfernt zu bleiben. Im Gegenteil: Gehen Sie an die Grenzen und – zumindest gedanklich – auch darüber hinaus! Probieren Sie neue Ansätze, Tools, Ideen aus. Stellen Sie Dinge infrage! Geben Sie sich Raum zum Basteln. Es heißt, dass Google stets zu den besten Ideen seiner Firmengeschichte kam, als die Regelung galt, dass 20 Prozent der Arbeitszeit eines jeden Mitarbeitenden völlig frei verfügbar waren. So großzügig ist Google heute nicht mehr, und so großzügig muss man als Behörde auch nicht sein, jedoch sollte ein gewisser Raum für Freiheiten geschaffen werden, wo immer dies sinnvoll erscheint. Es wird kein Weg daran vorbeiführen: wir werden alle mehr ausprobieren müssen und weniger gesichert realisieren können. Diese Entwicklung sollte man nicht durch starre Strukturen abwürgen, sondern so gut wie möglich fördern. Welches Modell hier das Beste ist, muss individuell herausgefunden werden. Doch größtmögliche intellektuelle Offenheit, Neugier und Risikobereitschaft sind hier auf jeden Fall sehr hilfreich. 5.

Eine konsequent transdisziplinäre Zusammenarbeit mit Technikern und Juristen in leistungsstarken, kommunikationsfreudigen (Projekt-)Teams mit dem Ziel einer ganzheitlichen Digitalisierungsanalyse (Technik, Recht, Gesellschaft) ist das vornehmliche Ziel bei Verbundprojekten. Idealerweise werden die so gewonnenen

360

4 Anwendung in Forschung und Praxis – Sociality by Design

Erkenntnisse aufbereitet und (nach Absprache mit den Projektpartnern) anderen (externen) Kolleginnen und Kollegen zur Verfügung gestellt. Das Besondere ist in diesem Falle wahrscheinlich nicht die gelebte Interdisziplinarität, die in vielen Projekt- und Analysekontexten eh schon Alltag sein dürfte. Das Besondere liegt hier in den Aspekten der ganzheitlichen Analyse. Digitalisierung ist ein gesellschaftliches, kein rein technisches Phänomen und so muss sie auch behandelt (sprich: diskutiert) werden. Es versteht sich von selbst, dass nicht alle Mitglieder eines Teams denselben Wissensstand haben: die eine ist die Technikexpertin, uneinholbar weit vorn in technischen Belangen, der andere ist der Jurist, ausgestattet mit einzigartigem Spezialwissen und der dritte ist der Soziologe, intimer Kenner der digitalen Gesellschaft. Sie alle haben ihre Stärken, aber ihre Schwächen werden dadurch irrelevanter, indem sie maximale Offenheit für die Inhalte der anderen zeigen. Hinzu kommt eine Offenheit gegenüber externen AkteurInnen und Ideen sowie die Anerkenntnis der Tatsache, dass Einzelkämpferprojekte völlig unrealistisch geworden sind. Alle auch nur ansatzweise relevanten Aufgaben lassen sich nur noch in Kooperation sinnvoll lösen. Schnell zusammenfinden, effizient und effektiv arbeiten, schnell neu zusammensetzen – das sind die Projektmaßstäbe von heute. Und erst recht von morgen. 6. Die Verbindung von Grundlagen- und anwendungsorientierter Forschung, d. h. die Aufrechterhaltung einer permanenten Skalierbarkeit („Vom Groben ins Feine“ und zurück bzw. Induktion Deduktion) zur Schaffung von konkretem Mehrwert zeichnet die Internetsoziologie aus – es gibt somit kein digitales „l´art pour l´art“. Dieser Aspekt ist stark mit dem transdisziplinären Arbeitsund Kommunikationsansatz verbunden. Es muss nicht immer das eine sichere Ergebnis sein. Sollte eine Aufgabe nicht konkret zu Erkenntnisgewinn führen, so kann dies durchaus abstrakt der Fall sein. Das bedeutet: man kann immer dazulernen, auch durch ein Ergebnis, das nicht überrascht und auf den ersten Blick auch nicht weiterhilft. Aber es bekräftigt gegebenenfalls vorherige Vermutungen, führt zu neuen Ideen oder dient anderen Zwecken, beispielsweise der Ergänzung digitaler Eingesetzlichkeiten. Und wenn man zum Wunschergebnis kommt: umso besser, denn dann hilft es garantiert doppelt, sprich: man lernt sowohl konkret (Mikroebene) als auch abstrakt (Makroebene). Versuchen Sie stets, so viel wie möglich aus einem Arbeitsergebnis rauszuholen. Dadurch, dass im digitalen Raum nahezu nichts feststeht, muss man effizient jede Gelegenheit nutzen, die zu weiterem Wissensgewinn führen kann. Auch Fehlschläge bieten Erkenntnisgewinn, und die Ausbeutung aller Erkenntnisse muss so effizient und umfassend wie möglich sichergestellt werden. 7.

Umfangreiche Öffentlichkeitsarbeit durch (populärwissenschaftliche) Beiträge in den Medien, Vorträge und Beratungen gehören ebenfalls zum internetsoziologischen Alltag, denn letztlich sollen nicht nur Fachdiskussionen entstehen, da

4.2 Anknüpfungsmöglichkeiten inhaltlicher und technischer Art

361

die interessierte Öffentlichkeit ganz konkret von den Ergebnissen „betroffen“ ist und Digital Literacy mindestens genauso braucht wie die Fachöffentlichkeit. Das Bundeskriminalamt hat beispielsweise die Forschungsstelle Terrorismus/Extremismus und die dortigen Kolleginnen und Kollegen gehen mit ihrer wissenschaftlichen Arbeit hinaus in die (wissenschaftliche) Welt, sprechen mit anderen Kolleginnen und Kollegen, aber auch mit der Presse und interessierten Laien. Zumindest auf der Makroebene sollte ein Nachrichtendienst ähnliches tun. Öffentlichkeitsarbeit ist auch immer die Darstellung der eigenen Arbeit, vor allem in Hinblick auf die Makroebene. 8. Es gilt der Grundsatz des wissenschaftlichen Minimalismus: so wenige Quellen, Methoden, Theorien wie möglich. Wir halten es dabei mit Antoine de Saint-Exupéry: „Perfektion ist nicht dann erreicht, wenn man nichts mehr hinzufügen, sondern nichts mehr weglassen kann“. Dies streben wir an. Sobald das Problem „grob“ gelöst ist (=d. h. es gelingt beispielsweise eine erste empirische Überprüfung), wird die Arbeit „eingestellt“ (Version 1.0). Soll es „feiner“ werden, ist das ein neuer Arbeitsschritt (Version 2.0). Wie weit man geht (Version x.0?), ist von der Verfeinerung bzw. Veränderung der jeweiligen Problemstellung abhängig. Vermieden werden muss aber auf jeden Fall „der große Wurf“ – denn der lässt sich bei digitalen Projekten grundsätzlich nicht (mehr) erreichen. Vor allem aus Zeitgründen. „Rough and ready“ geht vor perfekt, aber zu spät. Hinzu kommt, dass genau deshalb Unleserliches vermieden werden muss: „Wer’s nicht einfach und klar sagen kann, der soll schweigen und weiterarbeiten, bis er’s klar sagen kann“ – Karl Poppers Plädoyer für intellektuelle Redlichkeit ist deshalb zu folgen. Dieser Appell geht in die Richtung notorischer Perfektionisten: vergessen Sie Perfektionismus im digitalen Raum. Dafür ist grundsätzlich weder Zeit noch ausreichend Interesse bei der Zielgruppe vorhanden. Der Faktor Zeit ist hier das entscheidende Element: erstens ändern sich zu viele digitale Aspekte zu schnell und zweitens ist Perfektion nur eine Haltung, keine zwingende Notwendigkeit. Denn wer beispielsweise nur ein „Ja“ oder ein „Nein“ braucht, wird in der Regel auch nicht schlauer, wenn er die zweite Nachkommastelle des „Ja“ oder „Nein“ erfährt. Tendenzanalysen sind in vielen Fällen hilfreich. Es muss also sichergestellt werden, dass im Analysealltag Perfektion keine Bremse darstellt, sondern nur so viel Perfektion wie nötig und so wenig wie möglich eingesetzt wird. Hierfür braucht es entsprechende Überprüfungen: wo reicht prinzipiell eine grobe Antwort, wo auf gar keinen Fall? 9. Die (Selbst)Beobachtung im Arbeitsprozess spielt eine sehr große Rolle. Digitale Arbeitsstrategien sind auch persönlich fordernd. So schwingt beispielsweise

362

4 Anwendung in Forschung und Praxis – Sociality by Design

permanent das Gefühl mit, immer mehr zu verpassen als zu (er)klären. Wie geht man aber mit diesen methodischen und persönlichen Herausforderungen um? Eine maximale Introspektion ist Teil einer jeden internetsoziologischen Arbeit. Die Idee, mit Schule, Berufsausbildung/-studium und Erfahrungsammeln im Job erfolgreich durch die Jahrzehnte der Berufstätigkeit zu kommen, ist längst obsolet. Zwar wird Weiterbildung immer und überall angepriesen, doch nur selten ausreichend gelebt. Und eine Handvoll Wochenendseminare innerhalb eines Jahrzehnts bringen – wenn man ehrlich ist – auch keinen Wissensgewinn, der heutzutage noch der Rede wert sein dürfte. Man wird an einer Selbstbeobachtungs- und Selbstlernstrategie somit nicht vorbeikommen. Diese muss engmaschig, gnadenlos ehrlich und inhaltlich so professionell wie möglich erfolgen. Angefangen bei den Kernfragen (Wer bin ich? Was kann ich? Was kann ich nicht? Was will ich? Was will ich nicht?) geht es über die inhaltlichen Spezifika (Was brauche ich heute, was morgen im beruflichen Alltag?) hin zu den Metafragen (Wie kann ich besser werden? Wo geht die Reise hin, inhaltlich wie methodisch? Wo finde ich Unterstützung beim Lernen, Arbeiten, Besserwerden?). Die eigene Identität muss heute professioneller denn je gemanagt werden, und dazu gehört eben auch der Umgang mit Lernen und Wissen. Alles auf Institutionen zu verlagern wird nicht mehr funktionieren – und im Beruf lediglich auf Erfahrungsakkumulation zu setzen ist auch zum Scheitern verurteilt, denn dafür ändern sich schon die strukturellen Bedingungen viel zu schnell. Diese neun Punkte und ihre Anwendung auf den nachrichtendienstlichen Kontext haben hoffentlich gezeigt, wie man sich internetsoziologische Erkenntnisse entsprechend zunutze machen kann. Freilich sind neun Punkte noch kein ausgefeiltes Rahmenkonzept, aber auch Privacy by Design begann seinerzeit mit sieben Kernaspekten, die man partiell oder komplett für die eigenen Zwecke ausbeuten konnte. Wenn die hier genannten neun Punkte somit in irgendeiner Form hilfreich sind, war die Arbeit nicht umsonst. Auch wenn Sociality by Design als größeres Rahmenkonzept derzeit in Arbeit ist, so gilt ganz allgemein: es ist Zeit für ein Bastelndes Denken. Digitalisierung erscheint Menschen häufig als Überforderung, als übergroße Aufgabe, bei der man nur verlieren kann. Es ist deshalb hilfreich, den Worten von Linneweber und Bude zu folgen und den einen großen Wurf endgültig abzuhaken. Richten Sie sich vielmehr auf ein Leben als Bastlerin bzw. Bastler ein, mit einer Rahmung, aber ohne eine allumfassende Lösung bis ins kleinste Detail. Zumindest aus internetsoziologischer Perspektive kann dazu nur gesagt werden: es ist der erfolgversprechendere Weg. Digitalisierung ist beherrschbar, aber wir müssen dafür neu denken und handeln. Immer. Überall. By Design.

4.2 Anknüpfungsmöglichkeiten inhaltlicher und technischer Art

363

4.2.4 Anwendungsfall „Freiheit“ Ein weiterer Testfall ergab sich bei der Betrachtung von Freiheit als Ambivalenz.681 „Freiheit (lateinisch libertas) wird in der Regel als die Möglichkeit verstanden, ohne Zwang zwischen unterschiedlichen Möglichkeiten auswählen und entscheiden zu können. Der Begriff benennt in Philosophie, Theologie und Recht der Moderne allgemein einen Zustand der Autonomie eines Subjekts.“682 Sucht man einen Einstieg in das Thema Freiheit und fängt, wie dieser Tage üblich, bei Google oder Wikipedia an, so stößt man schnell auf obige Beschreibung dieses individuell wie kollektiv so elementaren Begriffs. Das Internet hat uns nicht nur auf informationeller, sondern auch auf handlungstheoretischer Ebene nie dagewesene Autonomie ermöglicht, eine Fülle von Informations- und Handlungsoptionen eröffnet und unsere Gesellschaft auf einzigartige Art und Weise revolutioniert. Die Freiheit, die wir heute haben, ist zweifellos eine andere als in vordigitalen Zeiten. Sie unterliegt einer anderen Definition, und digitale Technik spielt dabei eine ganz besondere Rolle. Bevor jedoch die Rolle dieses Technikeinflusses auf die gegenwärtige Ausprägung von Freiheit und persönlicher Autonomie näher beleuchtet werden soll, muss zuerst das Fundament von (heutiger) Freiheit dargestellt werden. Es muss zu Beginn einer jeden Debatte über Freiheit immer über den kleinsten gemeinsamen Nenner, über den Kern mit Ewigkeitscharakter gesprochen werden. Und die Kernfrage dürfte dabei stets dieselbe sein: Was ist Freiheit (heute) überhaupt, sprich: wie groß ist (heute) die bereits erwähnte Autonomie? Darauf eine Antwort zu finden ist nicht leicht, denn die Definition von Freiheit ist nicht universell, ist es nie gewesen – weder im kleinen noch im größeren Kreis, weder in westlichen noch in nichtwestlichen Gesellschaften, weder heute noch morgen oder gar übermorgen. Es dürfte letztlich unmöglich sein, das Ausmaß von (individueller) Freiheit jemals millimetergenau abmessen zu können. Eines gilt aber zweifellos auch heute, trotz weltweiter, blitzschneller Kommunikation, trotz digitaler Revolution, gerade wegen zutiefst menschlicher Denk- und Lebensweisen: Freiheit ist nicht grenzenlos. Die Grenzen verschieben sich ständig, wahrscheinlich mehr denn je ist Freiheit, ist ihre Ausgestaltung nun ein Prozess, gerade aufgrund digitaler Einflüsse, und kein über einen längeren Zeitraum kontinuierlich festzuschreibendes Konstrukt, welches nur alle paar Jahre neu verhandelt werden muss (wie sich das sicherlich nicht wenige Menschen aufgrund des gegenwärtigen Strebens nach immer mehr Struktur und Ordnung in diesen unruhigen Zeiten wünschen). Deshalb erscheint es hilfreich, ja, aus Sicht der internetsoziologischen Analyse in digitalen Zeiten geradezu zwingend, einer Formel von Joachim Gauck zu folgen: Freiheit mit Verantwortung. Freiheit steht über allem, zweifellos, aber sie

681 Zusammen mit Charies Abel, Hochschule Fresenius, 2018. 682 https://de.wikipedia.org/w/index.php?title=Freiheit&oldid=173597446, abgerufen am 5.5.2019.

364

4 Anwendung in Forschung und Praxis – Sociality by Design

steht dort eben nicht allein und sie steht nun mal auch nicht still. Sie ist gekoppelt an Verantwortung, an verantwortungsvolles Handeln, an verantwortungsvolles Sein, egal, in welche Richtung sie sich bewegt, wie genau sie ausdifferenziert wird, wie sie im Moment aussehen mag. Gerade wenn Freiheit mehr denn je ein Prozess ist, der dauerhafte Struktur und Ordnung weitestgehend vermissen lässt, erscheint eine dauerhafte Kopplung an ein Korrektiv, sprich, an Verantwortung sinnvoll. So entsteht eine zeitlose Definition von Freiheit mithilfe eines Korrektivs, welches der erste – und wohl auch wichtigste – Schritt zur Verringerung der inhärenten Ambivalenz ist. Und an Ambivalenz mangelt es heutzutage nicht: Freiheit ist aufgrund des digitalen Einflusses einerseits – zumindest für die, die die notwendigen (digitalen) Fähigkeiten besitzen, sie entsprechend zu nutzen – so groß wie nie zuvor. Andererseits ist Freiheit aber auch gerade aufgrund dieser im Digitalen begründeten Veränderungsprozesse unter Druck geraten wie nie zuvor, denn bei gravierenden Veränderungen und den darauffolgenden Aushandlungsprozessen steht naturgemäß vieles zur Disposition, was früher nicht infrage stand. Schließlich haben nicht alle Menschen immer nur ein Interesse an einer Verbesserung von Freiheit, wie man beispielsweise in China anhand des Sozialkreditsystems sehen kann.683 Freiheit benötigt deshalb heutzutage besonders viel Empowerment, Ermächtigung, Befähigung des Einzelnen und der Gesellschaft, um positiv ausgestaltet werden zu können. Denn die Freiheit, die uns die Technik einräumt, können wir eben nur dann nutzen, wenn wir diese auch bedienen können. Die dafür notwendigen Aushandlungsprozesse und daraus resultierende Ergebnisse ergeben sich kaum (mehr) automatisch oder gar intuitiv, auf Basis von Alltagswissen, Heuristiken oder eines langen, intensiven Berufs- oder Familienlebens und der daraus resultierenden Analogiebildung von sozialen Kompetenzen. Mehr denn je hängt Freiheit, hängt Autonomie mit technischem Wissen zusammen. Und mit dem Willen, es zu erlangen. Die Technik macht es uns dabei nicht gerade einfach. Sie unterstützt Empowerment nicht von selbst. Auch wenn die digitale Technik an sich nichts macht, nichts machen kann – erst recht nicht sich selbst und ihren Auswirkungen Sinn geben –, so dürfte unbestritten sein, dass Technik ganz grundsätzlich verführerisch ist. Wir entdecken Technik – im Alltag, im Privaten, im Berufsleben – und lassen uns auf sie ein. Die menschliche Neugier ist die Triebfeder, die Technik selbst das Objekt der Neugier. Ihre konkrete Ausprägung kann uns mal mehr, mal weniger verführen – aber gerade die digitale Technik erscheint besonders reizvoll. Dabei geht es nicht um konkrete Angebote wie iPhone, Facebook oder Twitter, sondern um die Eigengesetzlichkeiten der Digitalisierung, um die grundsätzlichen Aspekte, welche digitale Technik auf einzigartige Art und Weise ausprägen – und manchmal verführerisch machen. Die Fragen dazu lauten deshalb: wie wird Freiheit heutzutage durch die technische Verführung beeinflusst? Wie sehr müssen wir

683 https://de.wikipedia.org/wiki/Sozialkredit-System_(VR_China), abgerufen am 5.5.2019.

4.2 Anknüpfungsmöglichkeiten inhaltlicher und technischer Art

365

die (digital-)technische Verführung berücksichtigen, wenn wir von Freiheit mit Verantwortung sprechen? Was ist beispielsweise das (technisch) Verführerische an sozialen Netzwerken? Wikipedia beschreibt beispielsweise den Kurznachrichtendienst Twitter wie folgt: „Twitter wird als Kommunikationsplattform, soziales Netzwerk oder ein meist öffentlich einsehbares Online-Tagebuch definiert. Privatpersonen, Organisationen, Unternehmen und Massenmedien nutzen Twitter als Plattform zur Verbreitung von kurzen (max. 280 Zeichen) Textnachrichten (Tweets) im Internet.“684 Wer ein geradezu idealtypisches Beispiel für die Verführung durch die beiden Kernattribute dieser Definition – Kommunikationsplattform, Kurznachrichtenverbreitung – sucht, sollte sich den Twitteraccount von US-Präsident Donald Trump anschauen (siehe Abbildung 10).685 Im Falle von Donald Trump sind es wohl gleich mehrere, subjektive wie objektive, Aspekte, die dieses digitale Werkzeug für ihn attraktiv erscheinen lassen. Eine gewichtige Rolle dürfte die Unmittelbarkeit der Interaktion spielen, die Verbreitung einer Nachricht ohne den, üblicherweise gefilterten, Umweg über klassische (Medien-)Kanäle. Twitter bietet eine direkte und verzögerungsfreie Kommunikationsplattform. Dazu gehört in der Folge die Abhängigkeit der Journalistinnen und Journalisten der, von ihm in weiten Teilen als „Fake News Media“ bezeichneten, Medienhäuser von genau diesem Kanal: man muss Trump folgen, auch wenn man von einem Fan oder gar Jünger beruflich wie politisch meilenweit entfernt ist. Doch das Amt macht ihn zu einem der mächtigsten Twitterakteure weltweit – man

Abbildung 10: Twitter post.

684 https://de.wikipedia.org/w/index.php?title=Twitter&oldid=173858928#Charakterisierung_des_Dienstes, abgerufen am 5.5.2019. 685 https://twitter.com/realDonaldTrump, abgerufen am 5.5.2019.

366

4 Anwendung in Forschung und Praxis – Sociality by Design

kann (als Journalistin und Journalist) faktisch nicht an ihm vorbeikommen. Es ist dieser direkte Verbreitungsaspekt in Kombination mit einer direkten Abhängigkeit der Rezipienten, der sehr gut in Trumps Agenda passt – und den Twitter in seinem Falle sogar aktiv unterstützt.686 Natürlich hat diese Unmittelbarkeit der Nachrichtenaussendung auch gravierende Risiken, welche zumindest Trumps politische Gegner sehr erfreuen dürften. Nicht nur die Inhalte (vorschnell) ausgesendeter Tweets bergen Gefahren, sondern auch der Kontext: „We’ve never had this ability to read so much on what a president is thinking.“687 Die technische Verführung erfolgt nicht risikolos, sondern ist trotz hoher inhaltlicher Passung zu Trumps eigenen Vorstellungen und Zielen (sein Fake-News-Media-Feldzug, seine Vorliebe für eine direkte Adressierung seiner Fans und Gegner) jederzeit gegeben. Dass man mithilfe von Twitter jederzeit Massen von Menschen erreichen kann, kann folglich gleichermaßen segensreich wie riskant sein – so oder so ist diese Komponente eine Folge technischer Verführung. Jetzt kann man freilich argumentieren, dass (gerade kurze) Nachrichten immer im jeweiligen Kontext betrachtet werden müssen, eine einzelne Verfehlung in 140 oder 280 Zeichen nicht unbedingt in eine Katastrophe führen muss, denn es geht ja nicht nur um Quantität (Reichweite), sondern auch um Qualität (inhaltliche Einordnung). Doch durch die enorme Informationsmenge, die heute auf uns einströmt, stellt sich stets die Frage: wo endet die Kontextualisierung? Betrachte ich nur Twittermeldungen – und wenn ja: wie viele brauche ich, um ein stimmiges Gesamtbild zu bekommen? Brauche ich weitere Kanäle zur Meinungsbildung? Gar ein persönliches Gespräch, einen persönlichen Eindruck, ganz jenseits digitaler Kanäle? Twitter verführt, genauso wie andere soziale Netzwerke, zur Nachrichtenaussendung, hilft aber nicht unbedingt bei der Nachrichtenauswertung. Soziale Aspekte – Anerkennung, Interaktion, Interpretation usw. – sind Folgen der technischen Verführung. Zu nennen sind hier beispielsweise niedrige Einstiegshürden, intuitive Nutzungsmöglichkeit, niedrige Kosten, leichte Verfügbarkeit, hohe funktionelle Zuverlässigkeit und internationale Kompatibilität. Die Erkenntnis, dass die jeweilige Ausformung der Technik eine konkret-relevante Rolle bei der Gestaltung der digitalen Lebenswelt spielt, dass also die inhaltlichen Ergebnisse dem technischen Rahmen folgen, ist nun keineswegs neu. Im Gegenteil, noch bis in die frühen 2010er Jahre glaubte man auf Seiten vieler Entscheidungsträger, dass gerade die Technik und ihre jeweilige Ausprägung nicht nur das Problem, sondern auch die Lösung darstellten. Man denke dabei nur an die Debatten über die Vorratsdatenspeicherung, „Zensursula“ oder Stasi 2.0. Dabei hat sich genau diese Denkweise als ganz besonders verheerend erwiesen, denn sie hielt

686 http://www.spiegel.de/netzwelt/netzpolitik/donald-trump-warum-twitter-den-us-praesiden ten-nicht-sperrt-a-1186509.html, abgerufen am 5.5.2019. 687 https://www.politico.com/story/2016/12/trump-twitter-national-security-232518, abgerufen am 5.5.2019.

4.2 Anknüpfungsmöglichkeiten inhaltlicher und technischer Art

367

die Gesellschaft viel zu lang von sinnvollen sozio-technischen Lösungsansätzen ab. Inzwischen dürfte auch im digitalen Zeitalter als akzeptiert gelten, dass soziale Herausforderungen vorrangig soziale Lösungen erfordern, die zwar Technik berücksichtigen, aber in ihr nicht das alleinige Allheilmittel sehen, sondern sie sozial sinnvoll einsetzen. Die technische Herausforderung im digitalen Raum ist deshalb heute anders zu bewerten: Der Aspekt der technischen Verführung ist dem Bereich der Eigengesetzlichkeiten der Digitalisierung zuzurechnen, also den Aspekten, die Kern einer jeden sozio-technischen Analyse, Bewältigungsstrategie und Lösungssuche sein müssen. Es kann keine sinnvolle Antwort auf digitale Herausforderungen ohne die Berücksichtigung der Eigengesetzlichkeiten der Digitalisierung geben, die immer gleichen Einfluss auf alle digitalen Dienste, Werkzeuge und Kanäle nehmen. Das Herausarbeiten der einzigartigen Merkmale digitaler Phänomene ist deshalb unverzichtbar und Daueraufgabe aller, die an entsprechenden Lösungen arbeiten. Dass gerade die Sozialwissenschaft hier viel versäumt hat, ist im Übrigen besonders brisant, denn so blieben über lange Zeit viele Fragen unbeantwortet.688 Freiheit ist und bleibt eine besondere Herausforderung und digitale Technik bringt eine extreme Ambivalenz hinein, denn die Eigengesetzlichkeiten der Digitalisierung tragen im Falle ihrer Beherrschung zu einer enormen Freiheitserweiterung, im Falle der Unbeherrschbarkeit jedoch zu einem gigantischen Freiheitsverlust bei. Diese Herausforderung anzunehmen, heißt, sich einem extremen Prozess zu stellen, und das gelingt logischerweise nicht unbedingt ad hoc. Zwar hilft es, entsprechende Vorbedingungen zu berücksichtigen, sowohl ganz allgemein (Stichwort: Freiheit mit Verantwortung) als auch en detail (sprich, durch genaues Studium der Eigengesetzlichkeiten digitaler Phänomene). Doch auf Dauer bleibt das Ganze eine permanente Arbeit an sich selbst: Empowerment ist dabei nicht nur eine individuelle, sondern auch eine gesellschaftliche Aufgabe. Diese Arbeit, für die Freiheit, ist anstrengend, leider ohne kurzfristige Erfolge und auf unbestimmte Dauer angelegt, eben ein Prozess. Doch unsere Autonomie sollte uns alle Mühen wert sein. Wir müssen die Technik beherrschen, nicht umgekehrt. Wir alle sind für unsere Freiheit verantwortlich – wahrscheinlich so sehr wie noch nie zuvor.

688 http://www.sueddeutsche.de/kultur/geisteswissenschaften-die-gesellschaft-der-daten-1. 3178096, abgerufen am 5.5.2019.

5 Ausblick in die Zukunft der Internetsoziologie Letztes Kapitel. Letzter Akt? Mit Sicherheit nicht. Und zwar in keinerlei Hinsicht. Sie haben es schon gemerkt: es geht mir mit diesem Buch weder um geschniegelte lineare Lesbarkeit689 noch um eine hochtrabende Welterklärung, weder um einfache noch um perfekte Lösungen. Dieses Buch bildet meine Arbeit der letzten 20 Jahre ab, zumindest einen großen Teil davon. Mal mehr, mal weniger detailliert, aber immer authentisch und ehrlich. Sie hätten schließlich auch ein glattes, perfekt redigiertes, literarisch aufgedonnertes Buch erhalten können, doch Sie erhielten dieses Buch: Ein Experiment. Meine Geschichte. Die Geschichte der Internetsoziologie. Von 1999 bis 2019. Es war von Beginn an und zu jeder Zeit ein Experiment. Es war roh, holprig, voller Chancen, voller Ideen, voller Möglichkeiten, aber auch voller Risiken, voller Enttäuschungen, voller Grenzen. Und doch wird es weitergehen. Ich habe zu Beginn geschrieben, dass ich so, wie ich es durchgeführt habe, nicht mehr in den Wissenschaftsbetrieb einsteigen würde. Daran hat sich bis hierher auch nichts geändert. So schön die Arbeit an der Idee Internetsoziologie auch war: ich würde sie heute gänzlich anders beginnen und wohl auch durchführen. Aber Sie spüren vielleicht auch hier die innere Zerrissenheit: weitermachen? Ja. Nur wie? Anders. Nochmal so machen? Nein. Aber anders. Es war und ist schön und schaurig zugleich. Aber vielleicht ist das nun mal so, wenn man völliges Neuland betritt und alles zugleich voller Chancen und Risiken ist. Ich hoffe, Sie fanden (und finden vielleicht auch noch beim zweiten, dritten, x-ten Durchblättern) etwas Gewinnbringendes in diesem Buch. Was auch immer es sein mag. Sie wissen ja: basteln Sie, nehmen Sie sich, was Sie für sinnvoll halten. Wenn dem so ist, wenn Sie etwas finden, wenn Sie basteln, dann war meine Arbeit erfolgreich. Wenn nicht, dann kontaktieren Sie mich und wir finden vielleicht gemeinsame Antworten auf Ihre Fragen.690 Denn es geht um genau diese Antworten, es geht um Sie, es geht um die Digitalisierung unserer Gesellschaft und die gemeinsame Bewältigung dieser historischen Aufgabe. Digitalisierung ist eine epochale Herausforderung, die Sie niemals allein bewältigen können – ebenso wenig wie ich. Wir alle brauchen Hilfe, Ideen, Ansätze, um dieses Phänomen, das uns so massiv beeinflusst, zu bewältigen. Dieses Empowerment ist das Ziel meiner Arbeit.691 Um dieses Empowerment zu erreichen, habe ich meine „eigene“ Subdisziplin ausdifferenziert – oder besser gesagt: ich habe es versucht. Sie haben es jetzt

689 Um Lesbarkeit im Popperschen Sinne hingegen sehr wohl. Hoffentlich wurde zumindest dieses Ziel erreicht. 690 www.humer.de 691 Humer, 2008. S. 307. https://doi.org/10.1515/9783110559767-005

5 Ausblick in die Zukunft der Internetsoziologie

369

gesehen: der Weg war holprig, mühsam, voller Irrungen. Er war auch ein wenig größenwahnsinnig, denn nicht jeden Tag startet man solch ein Experiment. Es war ja auch gar nicht vorgesehen, dieses Experiment. Es erreichte mich und ich musste reagieren. „Halb zog sie ihn, halb sank er hin“? Vielleicht. Wahrscheinlich. Spannend war es allemal. Und ich bin spätestens jetzt, nach Fertigstellung dieses Buches, auch wieder aufgetaucht, aus diesem Projekt. Unversehrt? Man wird sehen. Unverändert? Auf keinen Fall. Denn prägend war die Arbeit der letzten 20 Jahre, das ist gar keine Frage. Hat sie mich positiv geprägt? Ich denke schon, in vielerlei Hinsicht. Gab es zumindest Kollateralschäden? Auf jeden Fall, und zwar mehr als erwartet. Das Ergebnis ist insgesamt ernüchternder als ich zu Beginn gedacht habe, aber trotzdem noch faszinierend genug, um weiterzumachen. Was zu der letzten Frage in diesem Buch führt: wie geht es nun weiter mit der Internetsoziologie? Ich denke, dass es drei Schwerpunkte gibt, deren Weiterentwicklung für die nahe bis mittlere Zukunft Priorität haben muss: – Sociality by Design – Die Verwebung von Soziologie und Informatik – Die Eigengesetzlichkeiten der Digitalisierung Sociality by Design versteht sich meines Erachtens von selbst: was wir brauchen, ist ein Rahmenkonzept, welches die „Welterklärung“ unterstützt.692 Die Zeit der großen, allumfassenden Theorien ist endgültig vorbei, doch ohne einzelne Ankerpunkte wird es nicht gehen. Und so, wie Privacy by Design die Privatsphäre in die Technikgestaltung gebracht hat, sollen Konzepte wie Sociality by Design eine gute Gesellschaftstauglichkeit in die digitale Gestaltung bringen. Dies dürfte ein guter Weg in Richtung Empowerment sein. Doch es ist auch nicht der einzige Weg. Die Verwebung von Soziologie und Informatik ist die Idee, die die Internetsoziologie am deutlichsten kennzeichnet.693 Sie konnten diesen Versuch hoffentlich in diesem Buch entdecken, denn das ganze Buch ist natürlich nicht zufällig so ausgestaltet worden, wie Sie es nun vor sich sehen. Auch wenn es nicht explizit erwähnt wird: eigentlich ist dieses Buch, so wie meine ganze Arbeit, eine Mischung aus Soziologie- und Informatikelementen. Das ist derzeit noch sehr viel „Maschinenflüsterer“ plus Gigerenzersche Heuristiken,694 aber zur genaueren, klareren Ausprägung besteht hoffentlich noch ein wenig Zeit. Vielleicht mit einem Update dieses Buches, vielleicht mit einem eigenen Studiengang . . . die Zeit

692 Hieran wird die Arbeit zeitnah fortgesetzt, d. h. zum Zeitpunkt des Erscheinens dieses Buches vor allem auf der Website www.socialitybydesign.org 693 https://www.mehralstaxifahren.de/interviews/stephan-g-humer/, abgerufen am 17.5.2019. 694 http://library.mpib-berlin.mpg.de/ft/gg/GG_Heuristic_2011.pdf, abgerufen am 17.5.2019.

370

5 Ausblick in die Zukunft der Internetsoziologie

wird es zeigen.695 Auf jeden Fall besteht hier enormer Bedarf – die geführten Gespräche am MIT im Februar 2019 haben dies sehr deutlich gezeigt.696 Der letzte Punkt ist die Aufgabe mit „Ewigkeitscharakter“: die Suche nach den Eigengesetzlichkeiten der Digitalisierung. Wenn es den alles entscheidenden Kern der Internetsoziologie geben sollte, dann dürfte es diese Suche nach den Eigengesetzlichkeiten der Digitalisierung sein: was zeichnet Digitalisierung im Innersten aus und wie gehen Gesellschaften damit um? Das ist, so mein Eindruck, wohl die beste Idee einer Internetsoziologie. Der ewige Kreislauf aus Induktion und Deduktion, die genaue Untersuchung der Wechselwirkungen zwischen einzigartigen Merkmalen (dem digitalen Wesenskern) und der Gesellschaft, die damit konfrontiert wird – und die Digitalisierung auch automatisch wieder prägt. Ich denke, dass die Fortführung der Arbeit an diesen drei Punkten auch entscheidet, was die Internetsoziologie letztlich wird. Was sie auf jeden Fall nicht wird, ist meines Erachtens jetzt schon erkennbar: eine reine Zulieferdisziplin für andere Bindestrichsoziologien oder „die“ Soziologie im Allgemeinen. Digitale Soziologie liefert eigenständige theoretische und methodische Ideen und wird sich nicht auf die Rolle der Zulieferung beschränken, denn dafür ist die Digitalisierung viel zu einflussreich und ubiquitär. Digitale Soziologie ist keine Methodenlehre, die nur die Werkzeuge hinstellt und dann zur Benutzung einlädt, jedoch selbst keine Ergebnisse produziert. Sie ist vielmehr ein Bruch mit zahlreichen alten Gepflogenheiten und Rollen, denn durch die erfolgreiche Verwebung von Soziologie und Informatik kann sie eine Analysekraft erreichen, die die Soziologie in Sachen Digitalisierung der Gesellschaft allein niemals mehr erreichen dürfte. Warum ich mir da so sicher bin? Nun, weil sich bisher in nahezu allen soziologischen Analysen, die ich zum Thema Digitalisierung gelesen habe und die von technisch wenig beschlagenen KollegInnen durchgeführt wurden, immer wieder gravierende inhaltliche Fehler finden oder kinderleichte Falsifikationen durchführen ließen. Etliche KollegInnen denken derzeit offenbar noch, dass Digitalisierung so wie Methodenlehre „nebenbei“ zu erlernen und dann auch zu „benutzen“ ist – so wie eine Soziologin bzw. ein Soziologe kein Mathematiker oder Informatiker sein muss, um Statistik-Tools anwenden zu können. Diese Annahme greift jedoch zu kurz. Es bedarf umfangreicher Kenntnis digitaler Kultur und Details, um hier erfolgreich zu sein. Liegt diese Kompetenz nicht vor, wird es schnell problematisch.697

695 Derzeit wird ja besonders viel Internetsoziologie in den von mir am Standort Berlin vertretenen Studiengang Digital Management eingebracht. Bisher ist die Resonanz diesbezüglich äußerst erfreulich, doch kann das Ziel letztlich nur sein, früher oder später einen „eigenen“ internetsoziologischen Studiengang zu entwerfen. 696 https://www.hs-fresenius.de/news/mit-reise-schafft-neue-perspektiven/, abgerufen am 5.5.2019. 697 Für das Jahr 2020 ist im Wiki bzw. unter www.humer.de erstmals ein Faktencheck geplant, der dann die Lücken der Analysen systematisch aufzuzeigen.

5 Ausblick in die Zukunft der Internetsoziologie

371

Sie sehen: die Internetsoziologie hat gerade erst begonnen. Ich habe versucht, sinnvolle Bausteine zusammenzutragen, die diese Subdisziplin ausprägen können. Doch das Mosaik befindet sich noch ganz am Anfang, erkennbar sind allerhöchstens erste Konturen. Wir alle sind nun aufgerufen, weiterzumachen. Ich werde versuchen, meinen Beitrag zu leisten, so weit es mir möglich ist – auch wenn ich, wie Sie bereits mehrfach lesen konnten, keineswegs optimistisch hinsichtlich der digitalen Entwicklung der deutschen Gesellschaft bin. Aber vielleicht werden wir alle ja doch noch überrascht.698 In spätestens 20 Jahren sollten wir uns deshalb erneut zusammenfinden, denn dann wissen wir mit Sicherheit wieder etwas mehr. Ich bleibe auf jeden Fall neugierig. Bleiben Sie es auch. Es lohnt sich. Trotz allem.

698 Verfolgen Sie das Geschehen unter www.humer.de, www.internetsoziologie.de, www.twitter. com/netsociology sowie www.facebook.com/Internetsoziologie. Oder schreiben Sie mir eine E-Mail: [email protected].

Literaturliste Adorno, Theodor W.: „Über Jazz“. In: Zeitschrift für Sozialforschung, hrsg. von Max Horkheimer, 5. Jg./1936, S. 235–259. Adorno, Theodor W.: Dialektik der Aufklärung. Gesammelte Schriften. Fischer, Frankfurt am Main, 1996a. Adorno, Theodor W.: Dissonanzen. Einleitung in die Musiksoziologie. Gesammelte Schriften, Band 14. Suhrkamp, Frankfurt am Main, 1996b. Adorno, Theodor W.: Kulturkritik und Gesellschaft. Suhrkamp, 2003. Adorno, Theodor W.: Zur gesellschaftlichen Lage der Musik. In: Zeitschrift für Sozialforschung, 1. Jahrgang, 1932. Benjamin, Walter: Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit. Sonderausgabe. Suhrkamp, Frankfurt am Main, 2003. Bisky, Lothar, Kriese, Konstanze und Scheele, Jürgen (Hrsg.): Medien – Macht – Demokratie. Neue Perspektiven. Texte der Rosa-Luxemburg-Stiftung. Band 54. Dietz, 2009. Bizer, Johann: Sieben Goldene Regeln des Datenschutzes. Datenschutz und Datensicherheit – DuD (2007) 31:350–356,2007. Bortz, Jürgen und Döring, Nicola: Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler. Springer, 2006. Bourdieu, Pierre et al.: Das Elend der Welt. Zeugnisse und Diagnosen alltäglichen Leidens an der Gesellschaft., Universitäts-Verlag, Konstanz, 1997. Brill, Andreas: Zur Diskussion gestellt: Niklas Luhmann, „Realität der Massenmedien“, in: Soziale Systeme. Zeitschrift für soziologische Theorie, 2. Jahrgang, 1996. Davison, Gerald C. und Neale, John M.: Klinische Psychologie, Beltz PVU, Weinheim, 7. Auflage, 2007. Diaz-Bone, Rainer., Krell, Gertraude. (Hrsg.): Diskurs und Ökonomie – Diskursanalytische Perspektiven auf Märkte und Organisationen. Springer, 2009. DIN ISO 31000, Risikomanagement – Grundsätze und Leitlinien (ISO 31000:2009). DIN ISO/IEC 27001, Informationstechnik – IT-Sicherheitsverfahren – InformationssicherheitsManagementsysteme – Anforderungen (ISO/IEC 27001:2013 + Cor. 1:2014). Flick, Uwe: Triangulation: Eine Einführung. VS-Verlag, 2007. Flusser, Vilém: Das Argument “Technik”, 1987; aus dem unveröffentlichten Nachlass, VilémFlusser-Archiv, Best.Nr. 2650. Foucault, Michel: Überwachen und Strafen. Die Geburt des Gefängnisses. Suhrkamp. Frankfurt am Main, 1976. Gelatt, H. B.: Positive uncertainty: A new decision-making framework for counselling. Journal of Counselling Psychology, 36, 1989. S. 252. Übersetzung aus Keupp, 1999. Gerhards, Jürgen, Neidhardt, Friedhelm und Rucht, Dieter: Zwischen Palaver und Diskurs: Strukturen öffentlicher Meinungsbildung am Beispiel der deutschen Diskussion zur Abtreibung. Westdeutscher Verlag, 1998. Griffin, Matthew; Herrmann, Susanne: Interview mit Friedrich A. Kittler. Weimarer Beiträge 43/2, 1997. Heisenberg, Werner: Der Teil und das Ganze. Gespräche im Umkreis der Atomphysik. Piper, 2015. Humer, Stephan: Das Imaginäre im Internet. Diplomarbeit (unveröffentlicht). Berlin, 2004. Humer, Stephan: Digitale Identitäten. CSW-Verlag, 2008. Humer, Stephan: Sociality by Design: Digitalisierung von Anfang an sicher und sozial gestalten. In: Borges, Georg und Schwenk, Jörg (Hrsg.): Daten- und Identitätsschutz in Cloud Computing, E-Government und E-Commerce. Springer, 2012. Kammerer, Dietmar: Bilder der Überwachung. Frankfurt am Main, 2008. https://doi.org/10.1515/9783110559767-006

374

Literaturliste

Keupp, Heiner: Identitätskonstruktionen. Das Patchwork der Identitäten in der Spätmoderne. Rowohlt, Reinbek, 1999. Keupp, Heiner: Wer erzählt mir, wer ich bin? Identitätsofferten auf dem Markt der Narrationen. Psychologie und Gesellschaftskritik, 4, 1996. Kittler, Friedrich: Draculas Vermächtnis. Technische Schriften. Leipzig, 1993. Knorr-Cetina, Karin: Sozialität mit Objekten. Soziale Beziehungen in posttraditionalen Wissensgesellschaften. In: Rammert, Werner (Hrsg.): Technik und Sozialtheorie, Frankfurt am Main, 1998. Korves, Jan: IT-Management-Frameworks – Wann welches Framework? S. 59–84. In: Ratzer, Peter und Probst, Uwe (Hrsg.): IT-Governance. UVK, 2013. Kromrey, Helmut: Empirische Sozialforschung, 2009. Lamnek, Siegfried: Qualitative Sozialforschung: Lehrbuch. Beltz Psychologie Verlagsunion, 2010. Leipziger Kamera (Hrsg.): Kontrollverluste. Interventionen gegen Überwachung, Unrast-Verlag, Münster, 2009. Lessig, Lawrence.: Free culture. The Nature and Future of Creativity. Penguin Books, 2004. Luhmann, Niklas: Die Wissenschaft der Gesellschaft. Suhrkamp, Frankfurt am Main, 1990. Luhmann, Niklas: Soziale Systeme. Grundriß einer allgemeinen Theorie. Suhrkamp, Frankfurt am Main, 2006. Lyon, David: Editorial. Surveillance Studies: Understanding visibility, mobility and the phenetic fix. Surveillance & Society 1(1): 1–7, 2002. Lyon, David: Surveillance Studies: An Overview. Wiley & Sons, 2007. Mau, Steffen: Das metrische Wir. Über die Quantifizierung des Sozialen. edition suhrkamp, 2017. Möllers, Thomas M. J.: Juristische Arbeitstechnik und wissenschaftliches Arbeiten. Auszug aus der 3. Auflage. München, 2005. Vorliegend als PDF. Müller-Doohm, Stefan: Die Soziologie Theodor W. Adornos. Eine Einführung. Campus, Frankfurt am Main/New York, 1996. Müller-Doohm, Stefan: Öffentlichkeit und die Ausdifferenzierung des Systems der Kommunikationsmedien; in: Jarren, Otfried und Krotz, Friedrich (Hrsg.): Öffentlichkeit unter Viel-Kanal-Bedingungen. Nomos, 1998. Negt, Oskar: Lernen in einer Welt gesellschaftlicher Umbrüche; in: Dieckmann, Heinrich und Schachtsiek, Bernd (Hrsg.): Lernkonzepte im Wandel. Klett-Cotta, Stuttgart, 1998. Ratzer, Peter und Probst, Uwe (Hrsg.): IT-Governance. UVK, 2013. Ratzer, Peter, Lohmann, Jörg und Riesenberg, Timm: Einführung in die IT-Governance aus der Deloitte Perspektive. S. 15–28. In: Ratzer, Peter und Probst, Uwe (Hrsg.): IT-Governance. UVK, 2013. Schiller, Herbert I.: Culture, Inc.: The Corporate Takeover of Public Expression. Oxford University Press Inc., Auflage: Reprint (6. Juni 1996). Schmid, Wilhelm: Philosophie der Lebenskunst. Eine Grundlegung. Suhrkamp, Frankfurt am Main, 1998. Schulzki-Haddouti, Christiane: Im Netz der inneren Sicherheit. Die neuen Methoden der Überwachung. Europäische Verlagsanstalt, Hamburg, 2004. Spektrum der Wissenschaft kompakt: Künstliche Intelligenz. Ausgabe vom 17. Oktober 2016. Theisohn, Philip: Vortrag, gehalten auf der Tagung des Wissenschaftsrats „Wissenschaft in der Verantwortung. Gute wissenschaftliche Praxis und Qualitätssicherung in der Promotion“, Berlin-Brandenburgische Akademie, 23. Juli 2013. Vorliegend als PDF. Treusch-Dieter, Gerburg et al.: Recht auf Faulheit? Zukunft der Nichtarbeit. Zeitungsverlag Freitag, Berlin, 2001. Vogt, Horst: Pädophilie. Leipziger Studie zur gesellschaftlichen und psychischen Situation pädophiler Männer. Pabst Science Publishers, 2006.

Linkliste

375

Wehner, Josef: Wie die Gesellschaft sich als Gesellschaft sieht – elektronische Medien in systemtheoretischer Perspektive. In: Müller-Doohm, Stefan (Hrsg.): Medien- und Kommunikationssoziologie. Eine Einführung in zentrale Begriffe und Theorien. Juventa, 2000. Zurawski, Nils (Hrsg.), Surveillance Studies. Perspektiven eines Forschungsfeldes. Opladen, 2007.

Linkliste „Auch in einer liberalen Demokratie wird Propaganda gemacht“. http://www.zeit.de/politik/ deutschland/2015-07/propaganda-jason-stanley-interview/komplettansicht, abgerufen am 31.7.2015. „lebt und lest radikal !“ http://www.nadir.org/nadir/periodika/radikale_zeiten/raz-7/adressen. htm, abgerufen am 5.5.2019. „Aktenzeichen“-Posse um schwarzen Vergewaltiger. http://www.welt.de/vermischtes/article 145484123/Aktenzeichen-Posse-um-schwarzen-Vergewaltiger.html, abgerufen am 21.8.2015. „Der ganz eigene Wahnsinn“, http://www.zeit.de/2015/32/verschwoerungstheorien-informationchemtrails-reichsbuerger/komplettansicht, abgerufen am 9.8.2015. „Exit, Voice and Loyality“. Ein paar Bemerkungen zu Motiven der Unterstützung der „Akademie für Soziologie“ (Juni 2016). https://www.polsoz.fu-berlin.de/soziologie/arbeitsbereiche/ makrosoziologie/mitarbeiter/lehrstuhlinhaber/dateien/Gerhards---Exit-Voice-and-LoyalityAkademie-fuer-Soziologie.pdf, abgerufen am 5.5.2019. „Über Wissenschaft in Zeiten des Populismus“. https://www.youtube.com/watch?v=HS-hwbXSWQ, abgerufen am 28.4.2019. (5) – Leben – ZEIT online. http://www.zeit.de/2005/41/Jugend_2fComputer_41, abgerufen am 18.7.2007. 21C3-Vortragsvideos – de.org.ccc. http://groups.google.de/group/de.org.ccc/browse_thread/ thread/2697181b3a792aaa, abgerufen am 19.7.2007. 21C3-Vortragsvideos – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/ 8e314a6792a86977, abgerufen am 20.7.2007. 21C3-Vortragsvideos – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/ 7cdb5a2d17bcfd3c, abgerufen am 20.7.2007. 21C3-Vortragsvideos – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/ c73005cbcb0fc6ed, abgerufen am 20.7.2007. 21C3-Vortragsvideos – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/ 34e6e66cc503e07e, abgerufen am 20.7.2007. 21C3-Vortragsvideos – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/ ba79113a35401f62, abgerufen am 20.7.2007. 21C3-Vortragsvideos – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/ e29eaeee470c5241, abgerufen am 20.7.2007. 21C3-Vortragsvideos – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/ 52aa6cc9f9e62a04, abgerufen am 20.7.2007. 21C3-Vortragsvideos – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/ 6e8eb05b4959f0ff, abgerufen am 20.7.2007. 21C3-Vortragsvideos – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/ 32486c742e913d35, abgerufen am 20.7.2007. 21C3-Vortragsvideos – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/ 32486c742e913d35, abgerufen am 20.7.2007.

376

Literaturliste

21C3-Vortragsvideos – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/ eb3fa7228f357f7e, abgerufen am 20.7.2007. 3sat – Immer gegen den Strom? http://www.3sat.de/mediathek/?mode=play&obj=63707, abgerufen am 12.2.2019. 68er-Bewegung und die Folgen – „Sex als Weg zur Wahrheit“. http://www.spiegel.de/kultur/ gesellschaft/heinz-bude-ueber-adorno-metoo-und-was-von-68-bleibt-a-1187437.html, abgerufen am 5.8.2018. A Qualitative Risk Analysis and Management Tool – CRAMM. https://www.sans.org/reading-room/ whitepapers/auditing/qualitative-risk-analysis-management-tool-cramm-83, abgerufen am 22.7.2016. AG Interdisziplinäre Sicherheitsforschung. http://www.sicherheit-forschung.de/, abgerufen am 10.9.2013. Alles Forschen ist Bastelarbeit: über 250.000 Zugriffe auf unser Internetsoziologie-Wiki. http://www.internetsoziologie.at/de/?p=6439, abgerufen am 5.5.2019. Antwort der Bundesregierung auf die Kleine Anfrage der Abgeordneten Ulla Jelpke, Jan van Aken, Sevim Dagdelen, weiterer Abgeordneter und der Fraktion DIE LINKE. Drucksache 17/11776 – „racial profiling“ bei verdachtslosen Personenkontrollen der Bundespolizei. http://dip21. bundestag.de/dip21/btd/17/119/1711971.pdf, abgerufen am 4.8.2015. Atomknopf-Drohung – Warum Twitter Trump nicht sperrt. http://www.spiegel.de/netzwelt/netzpolitik/ donald-trump-warum-twitter-den-us-praesidenten-nicht-sperrt-a-1186509.html, abgerufen am 5.5.2019. Auf dem Weg zu einer Plagiatsphobie? http://gabi-reinmann.de/?p=3495, abgerufen am 15.4.2018. Aus einem Beitrag von Michael Holzt vom 9. Dezember 2005, 3.01 Uhr, online (bei Google Groups) nicht mehr verfügbar. Ausland – Politik – FAZ.NET – China: Digitale Mauerbauer. http://www.faz.net/s/RubDDBDAB B9457A437BAA85A49C26FB23A0/Doc~EAE9C1E80FE5C4126965E956FB5307E00~ATpl~Ecom mon~Scontent.html, abgerufen am 23.7.2007. Barometer Sicherheit in Deutschland (BaSiD). http://www.forum-kriminalpraevention.de/files/ 1Forum-kriminalpraevention-webseite/pdf/2015-01/2015-01-basid.pdf, abgerufen am 19.8.2016. Benzo Hysteria – The chilling effects of the “addictive” label. https://www.psychologytoday.com/ blog/how-everyone-became-depressed/201306/benzo-hysteria, abgerufen am 5.8.2015. Beweise – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/60dd98ed74783816?hl=de&, abgerufen am 20.7.2007. BfV-Newsletter Nr. 1/2013 – Thema 5 – „Revolutionäre Aktionszellen“ – Militanz im Linksextremismus. http://www.verfassungsschutz.de/de/oeffentlichkeitsarbeit/newsletter/ newsletter-archive/bfv-newsletter-archiv/bfv-newsletter-2013-1/bfv-newsletter-2013-01-05. html, abgerufen am 5.5.2019. Borel-Cantelli-Lemma. https://de.wikipedia.org/wiki/Borel-Cantelli-Lemma, abgerufen am 13.2.2019. Broadcast delay. http://en.wikipedia.org/wiki/Tape_delay_%28broadcasting%29#Computerized_ delay, abgerufen am 5.5.2019. BSI-Standard 100-3 – Risikoanalyse auf der Basis von IT-Grundschutz. https://www.bsi.bund.de/ SharedDocs/Downloads/DE/BSI/Publikationen/ITGrundschutzstandards/standard_1003_pdf. pdf?__blob=publicationFile, abgerufen am 28.1.2016. Bugtraq: Anonymous Web Attacks via Dedicated Mobile Services. http://seclists.org/bugtraq/ 2005/Jul/0332.html, abgerufen am 18.7.2007.

Linkliste

377

Bundesamt für Sicherheit in der Informationstechnik – BSI stellt Entwicklung des GSTOOL 5.0 ein. https://www.bsi.bund.de/DE/Presse/Pressemitteilungen/Presse2013/BSI_stellt_Entwicklung_ GSTOOL_5_ein_19092013.html, abgerufen am 16.8.2016. Bundesamt für Sicherheit in der Informationstechnik – IT-Grundschutz. https://www.bsi.bund.de/ DE/Themen/ITGrundschutz/itgrundschutz_node.html, abgerufen am 16.8.2016. Bundesamt für Sicherheit in der Informationstechnik – IT-Grundschutz-Kataloge. https://www.bsi. bund.de/DE/Themen/ITGrundschutz/ITGrundschutzKataloge/itgrundschutzkataloge_node. html, abgerufen am 16.8.2016. Bundesamt für Sicherheit in der Informationstechnik – IT-Grundschutz – BSI-Standards. https://www.bsi.bund.de/DE/Themen/ITGrundschutz/ITGrundschutzStandards/ ITGrundschutzStandards_node.html, abgerufen am 16.8.2016. Bundesamt für Sicherheit in der Informationstechnik – IT-Grundschutz – GSTOOL. https://www. bsi.bund.de/DE/Themen/ITGrundschutz/GSTOOL/gstool_node.html, abgerufen am 16.8.2016. Bundesamt für Sicherheit in der Informationstechnik – IT-Grundschutz – Tools zur Unterstützung des Grundschutzprozesses. https://www.bsi.bund.de/DE/Themen/ITGrundschutz/ ITGrundschutzKataloge/Hilfsmittel/GrundschutznaheTools/grundschutznahetools_node.html, abgerufen am 16.8.2016. Bundesamt für Sicherheit in der Informationstechnik – IT-Grundschutz – Basis für Informationssicherheit. https://www.bsi.bund.de/DE/Themen/ITGrundschutz/ITGrundschutz Kataloge/Inhalt/_content/allgemein/einstieg/01001.html, abgerufen am 16.8.2016. Bundesamt für Sicherheit in der Informationstechnik – IT-Grundschutz – G 5.42 Social Engineering. https://www.bsi.bund.de/DE/Themen/ITGrundschutz/ITGrundschutzKataloge/Inhalt/_con tent/g/g05/g05042.html, abgerufen am 16.8.2016. Bundesamt für Sicherheit in der Informationstechnik – IT-Grundschutz – G 0.42 Social Engineering. https://www.bsi.bund.de/DE/Themen/ITGrundschutz/ITGrundschutzKataloge/Inhalt/_con tent/g/g00/g00042.html, abgerufen am 16.8.2016. Bundesamtes für Sicherheit in der Informationstechnik: Die Lage der IT-Sicherheit in Deutschland 2015. https://www.bsi.bund.de/SharedDocs/Downloads/DE/BSI/Publikationen/Lageberichte/ Lagebericht2015.pdf?__blob=publicationFile&v=4, abgerufen am 25.8.2016. Bundeskriminalamt: Erste bundesweite Razzia gegen Hasspostings im Netz. http://www.faz.net/ aktuell/politik/inland/bundeskriminalamt-erste-bundesweite-razzia-gegen-hasspostingsim-netz-14338248.html, abgerufen am 13.7.2016. Bundeszentrale für politische Bildung – Freiheit oder Sicherheit – Dilemma oder falscher Gegensatz? http://www.bpb.de/internationales/europa/europa-kontrovers/38185/einleitung? p=all, abgerufen am 24.8.2016. Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB). http://www.tab-beimbundestag.de/de/, abgerufen am 19.8.2016. Centuries of Sociology in Millions of Books. https://www.thesociologicalreview.com/blog/ centuries-of-sociology-in-millions-of-books.html, abgerufen am 5.5.2019. Cerebro-Karte – de.org.ccc. http://groups.google.de/group/de.org.ccc/browse_thread/thread/ a718fa366b81500a/751b44f0d580ec84?lnk=st&rnum=1&hl=de#751b44f0d580ec84, abgerufen am 18.7.2007. Cerebro-Karte – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/33b88c3de52dcc08? hl=de&, abgerufen am 18.7.2007. Cerebro-Karte – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/c3a07cb93cb9d44b? hl=de&, abgerufen am 18.7.2007. Chilling effect. https://en.wikipedia.org/wiki/Chilling_effect, abgerufen am 5.8.2015. China: Kommunistisches Online-Spiel soll Werte vermitteln. http://www.golem.de/0511/41522. html, abgerufen am 18.7.2007.

378

Literaturliste

Citavi. https://www.citavi.com/de/, abgerufen am 12.4.2018. Clickbait. http://www.oxforddictionaries.com/de/definition/englisch/clickbait, abgerufen am 7.8.2015. CNN – China ‘employs 2 million to police internet’. http://edition.cnn.com/2013/10/07/world/ asia/china-internet-monitors/index.html?hpt=wo_c2, abgerufen am 5.5.2019. CNN.com – ABC to impose delay on Oscar telecast. http://us.cnn.com/2004/SHOWBIZ/Movies/ 02/05/sprj.aa04.abc.oscar.delay/, abgerufen am 5.5.2019. COBIT. https://de.wikipedia.org/wiki/COBIT, abgerufen am 17.8.2016. Compliance im Sicherheitsgewerbe. http://www.securitas.de/globalassets/germany/downloads/ fachbeitrage/2013/2013-01-compliance-sicherheitsgewerbe.pdf, abgerufen am 23.2.2016. CRAMM. https://en.wikipedia.org/wiki/CRAMM, abgerufen am 22.7.2016. Dailymail – ‘We must be allowed to spy on Facebook and Twitter’, says former Whitehall intelligence chief. http://www.dailymail.co.uk/news/article-2134333/Why-allowed-spy-Face book-Twitter-Whitehall-intelligence-chief.html, abgerufen am 5.5.2019. Das Scheitern von Datenschutz by Design: Eine kurze Geschichte des Versagens. http://www.fiff. de/publikationen/fiff-kommunikation/fk-2015/fk-2015-2/fk-2015-2-content/fk-2-15-s41.pdf, abgerufen am 11.7.2016. Das so genannte Web 2.0 – Digitaler Maoismus. http://www.sueddeutsche.de/kultur/artikel/586/ 67519/3/, abgerufen am 25.7.2007. Datenhunger: Amazon, Terror-Abwehr und der Staatsschutz. http://www.spiegel.de/netzwelt/ web/0,1518,365663,00.html, abgerufen am 22.7.2007. Datenschutz jetzt Studienangebot der Fachhochschule Kiel. http://idw-online.de/pages/de/ news129417, abgerufen am 24.7.2007. De Gruyter Conversations – WHAT IS INTERNET SOCIOLOGY AND WHY DOES IT MATTER? https://blog.degruyter.com/internet-sociology-matter/, abgerufen am 11.4.2018. Der Foucaultsche Werkzeugkasten. http://foucaultundco.blogspot.de/2008/08/der-foucaultschewerkzeugkasten.html, abgerufen am 13.12.2018. Der Sommer kann kommen! http://idw-online.de/pages/de/news113362, abgerufen am 24.7.2007. Die Bayerische Polizei. https://www.polizei.bayern.de/wir/sicherheitswacht/index.html/304, abgerufen am 23.2.2016. Die Rolle der Dokumentation in Software-Projekten. https://www.qz-online.de/qualitaetsmanagement/qm-basics/software-qualitaet/dokumentation/artikel/die-rolle-der-dokumenta tion-in-software-projekten-258004.html, abgerufen am 3.8.2016. Die Theologie des Cyberspace. http://idw-online.de/pages/de/news132761, abgerufen am 24.7.2007. Die verlorene Heimat: RUB-Studierende erforschen Identitätssuche im Internet. http://idw-online. de/pages/de/news117057, abgerufen am 24.7.2007. Diese Länder sind führend in der digitalen Wirtschaft. https://www.bilanz.de/redaktion/laenderdigitale-wirtschaft, abgerufen am 13.7.2016. Dietmar Kamper – Begegnung mit einem philosophischen Grenzgänger und Außenseiter. http://www.rudolf-maresch.de/texte/22.pdf, abgerufen am 13.2.2019. Digital Government: Building A 21st Century Platform To Better Serve The American People. http://www.whitehouse.gov/sites/default/files/omb/egov/digital-government/digitalgovernment-strategy.pdf, abgerufen am 28.1.2016. Digital Millennium Copyright Act. http://en.wikipedia.org/wiki/DMCA, abgerufen am 6.8.2007. Digitale Revolution. https://de.wikipedia.org/wiki/Digitale_Revolution, abgerufen am 24.8.2016. Diskurse und Dispositive analysieren. Die Wissenssoziologische Diskursanalyse als Beitrag zu einer wissensanalytischen Profilierung der Diskursforschung. http://www.qualitativeresearch.net/index.php/fqs/article/view/243/537, abgerufen am 22.8.2016.

Linkliste

379

Diskussion:Killerspiel. http://de.wikipedia.org/wiki/Diskussion:Killerspiel, abgerufen am 14.9.2007. Dissenter Browser Extension – The Comment Section of the Internet. https://dissenter.com/download, abgerufen am 27.4.2019. Dokumentation eine lästige Angelegenheit? http://www.computerwoche.de/a/dokumentationeine-laestige-angelegenheit,1182829, abgerufen am 3.8.2016. Dschihadismus im Internet. https://www.sifo.de/files/Projektumriss_DiI.pdf, abgerufen am 8.4.2019 Dynamic Visual Networks. FP6. http://www.dyvine.eu. Seite nicht mehr aufrufbar. Ecke, O.: Mediaresearch, TNS Infratest. Relevanz der Medien für die Meinungsbildung. Empirische Grundlagen zur Ermittlung der Wertigkeit der Mediengattungen bei der Meinungsbildung. TNS Infratest Media Research, http://www.blm.de/files/pdf1/Relevanz_der_Medien_15072011.pdf, abgerufen am 7.8.2015. EFF: Breaking News. http://www.eff.org/news/archives/2005_08.php, abgerufen am 23.7.2007. Ein Schaltkreis fürs Buch, einer für den Bildschirm. https://www.faz.net/aktuell/feuilleton/buecher/ rezensionen/sachbuch/schnelles-lesen-langsames-lesen-von-maryanne-wolf-16149011.html? printPagedArticle=true#pageIndex_0, abgerufen am 5.5.2019. Elch (Netzkultur). http://de.wikipedia.org/wiki/Elch_%28Netzkultur%29, abgerufen am 20.7.2007 Enquete-Kommission Internet und digitale Gesellschaft. http://webarchiv.bundestag.de/cgi/show. php?fileToLoad=2944&id=1223, abgerufen am 28.1.2016. Entwicklung sicherer Software durch Security by Design. https://www.kastel.kit.edu/downloads/ Entwicklung_sicherer_Software_durch_Security_by_Design.pdf, abgerufen am 28.1.2016. Ergebnisse der ARD/ZDF-Onlinestudie 2014-79 Prozent der Deutschen online – Zuwachs bei mobiler Internetnutzung und Bewegtbild. http://www.ard-zdf-onlinestudie.de/fileadmin/ Onlinestudie_2014/PDF/0708-2014_Eimeren_Frees.pdf, abgerufen am 7.8.2015. Erinnerungen: Erzähl weiter, immer weiter. https://www.zeit.de/2013/03/Roger-Willemsen-Momen tum/komplettansicht, abgerufen am 5.5.2019. ERNSTFALL COMPUTERSPIEL. Virtuelles Handeln und soziales Spielfeld. http://idw-online.de/ pages/de/news115911, abgerufen am 14.9.2007. Erstmals en detail vorgestellt und diskutiert auf der European Identity Conference 2011 in München, siehe http://www.kuppingercole.com/sessions/901, abgerufen am 6.9.2011. Experte – Expertenwissen. https://de.wikipedia.org/wiki/Experte#Expertenwissen, abgerufen am 6.2.2018. F. Coudert, J. Dumortier. Intelligent Video Surveillance Networks: Data Protection Challenges. ARES 08. Third International Conference on Availability, Reliability and Security, 2008. doi: 10.1109/ ARES.2008.143. Factoring Differences for Iterative Change Management. http://www.cs.kent.edu/~jmaletic/ papers/SCAM06.pdf, abgerufen am 24.7.2018. Fakultät für Interdisziplinäre Forschung und Fortbildung. http://www.iff.ac.at/oe/full_papers/ Buono%20Antony%20F._Kerber%20Kenneth%20W.pdf, abgerufen am 5.5.2019. Falsifizierbarkeit. https://de.wikipedia.org/wiki/Falsifikationismus#Falsifizierbarkeit, abgerufen am 29.4.2019. Filterblase. https://de.wikipedia.org/wiki/Filterblase, abgerufen am 3.8.2015. Foucault und Co – Der Foucaultsche Werkzeugkasten. http://foucaultundco.blogspot.de/2008/08/ der-foucaultsche-werkzeugkasten.html, abgerufen am 29.4.2019. Foucault und Co – Michel Foucault: Werkzeugkisten zum demontieren von Machtsystemen. http://foucaultundco.blogspot.de/2008/08/werkzeugkisten.html, abgerufen am 5.5.2019. Frank Hartmann: Vom Sündenfall der Software. http://www.heise.de/tp/r4/artikel/6/6345/1.html, abgerufen am 27.2.2007.

380

Literaturliste

Frank Hartmann: – Gegen IS-Propaganda: De Maizière: Wir brauchen eine Aufklärungsoffensive. http://www.faz.net/aktuell/politik/inland/thomas-de-maiziere-will-aufklaerungsoffensivegegen-islamisten-13277369.html, abgerufen am 5.5.2019. Frankfurter Allgemeine – Lehren aus Trumps Erfolg: Nicht für die Schule, für das Leben hassen wir http://www.faz.net/aktuell/feuilleton/debatten/streiten-statt-belehren-gruende-fuer-trumpserfolg-14520824.html, abgerufen am 29.4.2019. Frankfurter Allgemeine – Nach dem Amoklauf: Politiker fordern Verbot von „Killerspielen“. https://www.faz.net/aktuell/gesellschaft/kriminalitaet/nach-dem-amoklauf-politiker-fordernverbot-von-killerspielen-1381949.html, abgerufen am 29.1.2019. Frankfurter Allgemeine – Reaktionen auf Terroranschlag: Hass im Netz. http://www.faz.net/ aktuell/islamisten-im-netz-feiern-anschlag-von-paris-13360121.html, abgerufen am 5.5.2019. Frankfurter Allgemeine – TV-KRITIK „ARD-WAHLNACHT“: Erwartungen fallen in sich zusammen. http://www.faz.net/aktuell/feuilleton/medien/tv-kritik/tv-kritik-ard-wahlnacht-donald-trumpwird-us-praesident-14519714.html, abgerufen am 29.4.2019. Frankfurter Allgemeine – Virtuelle Wache: Irgendwann spielen andere die Polizei. http://www.faz. net/aktuell/feuilleton/medien/die-polizei-soll-auch-im-netz-auf-streife-gehen-13304750.html, abgerufen am 29.4.2019. Frankfurter Rundschau – Computerspiele: Längst kein Kinderkram mehr. https://www.fr.de/kultur/ laengst-kein-kinderkram-mehr-11097879.html, abgerufen am 29.1.2019. Fraunhofer SIT beleuchtet Security by Design. http://www.security-insider.de/fraunhofer-sitbeleuchtet-security-by-design-a-407455/, abgerufen am 1.8.2016. Freiheit. https://de.wikipedia.org/w/index.php?title=Freiheit&oldid=173597446, abgerufen am 5.5.2019. Freiwilliger Polizeidienst – Baden-Württemberg. https://de.wikipedia.org/wiki/Freiwilliger_ Polizeidienst#Baden-W.C3.BCrttemberg, abgerufen am 23.2.2016. Freiwilliger Polizeidienst – Berlin. https://de.wikipedia.org/wiki/Freiwilliger_Polizeidienst#Berlin, abgerufen am 23.2.2016. Friedrich Kittler, Stefan Banz. Platz der Luftbrücke. Ein Gespräch. http://www.xcult.org/banz/ texte/banzkittler.html, abgerufen am 5.5.2019. Gartner – Incorporating Security Into the Enterprise Architecture Process. https://www.gartner. com/doc/488575, abgerufen am 12.7.2016. Gegenstände kopieren und exakt ausdrucken. https://www.pressebox.de/pressemitteilung/fraun hofer-institut-fuer-graphische-datenverarbeitung-igd-darmstadt/Gegenstaende-kopieren-undexakt-ausdrucken/boxid/644571, abgerufen am 13.2.2019. Geisteswissenschaften – Die Gesellschaft der Daten. http://www.sueddeutsche.de/kultur/geistes wissenschaften-die-gesellschaft-der-daten-1.3178096, abgerufen am 5.5.2019. Gephi. https://gephi.github.io/, abgerufen am 5.5.2019. Giordano Bruno Stiftung – Zum 90. Geburtstag von Prof. Dr. Dr. Hans Albert. https://www.giordanobruno-stiftung.de/meldung/zum-90-geburtstag-prof-dr-dr-hans-albert/seite/0/1, abgerufen am 29.4.2019. Gmail Filesystem – Gmail FS. http://richard.jones.name/google-hacks/gmail-filesystem/gmail-file system.html, abgerufen am 18.7.2007. Gmail. http://de.wikipedia.org/wiki/Gmail, abgerufen am 6.8.2007. Google Hacking Database. http://johnny.ihackstuff.com/ghdb.php, abgerufen am 18.7.2007. Google Scholar, Suchbegriff „By Design“ https://scholar.google.de/scholar?lr=lang_de&q=%22by +design%22&hl=de&as_sdt=0,5&as_ylo=2012 für deutschsprachige Ergebnisse seit 2012, abgerufen am 8.8.2016. google-Dossier – Feuilleton – ZEIT online. http://www.zeit.de/2005/32/Google-Bibliothek, abgerufen am 23.7.2007.

Linkliste

381

gulli: Erster Biometrie-Pass gehackt. http://www.gulli.com/news/erster-biometrie-pass-gehackt2006-02-01/, abgerufen am 22.7.2007. gulli: Forbes: so kriegt man die Blogger klein. http://www.gulli.com/news/forbes-so-kriegt-mandie-2005-10-28/, abgerufen am 23.7.2007. gulli: Premierehack: Hausdurchsuchungen bei Cerebro-Händlern. http://www.gulli.com/news/ premierehack-2005-12-08/, abgerufen am 20.7.2007. gulli: Studie: Internet-Zensur in über 20 Ländern. http://www.gulli.com/news/studie-internetzensur-in-2007-03-15/, abgerufen am 23.7.2007. gulli: USA legen weltweites Anti – Piraterie – Programm auf. http://www.gulli.com/news/usalegen-weltweites-anti-2005-09-22/, abgerufen am 23.7.2007. gulli: Wie feuert man anonym kritisierende Mitarbeiter? http://www.gulli.com/news/wie-feuertman-anonym-2005-11-02/, abgerufen am 23.7.2007. Hacker – https://de.wikipedia.org/w/index.php?title=Hacker&oldid=95973633#Abgrenzung_zum_ Begriff_.E2.80.9ACracker.E2.80.99, abgerufen am 23.11.2011. Halo-Effekt. https://de.wikipedia.org/wiki/Halo-Effekt#Effekt, abgerufen am 7.8.2015. Hartmut Winkler: Flogging a dead horse? http://wwwcs.uni-paderborn.de/~winkler//flogging.html, abgerufen am 27.2.2007. Harvard Gazette – Grasping with the eyes. https://news.harvard.edu/gazette/story/2014/03/ grasping-with-the-eyes/, abgerufen am 29.4.2019. heise online – „Bundestrojaner“ heißt jetzt angeblich „Remote Forensic Software“. http://www.heise. de/newsticker/meldung/93807, abgerufen am 5.8.2007. heise online – „Datenschutz ist Menschenrecht“. http://www.heise.de/newsticker/meldung/ 63951, abgerufen am 22.7.2007. heise online – 22C3: Hacker beklagen „digitalen Hausfriedensbruch“ durch Sony BMG. http://www.heise.de/newsticker/meldung/67820, abgerufen am 19.7.2007. heise online – 22C3: Neue Angriffe auf Bluetooth-Handys. http://www.heise.de/newsticker/ meldung/67855, abgerufen am 18.7.2007. heise online – 3,9 Millionen Citigroup-Kundendatensätze verschwunden. http://www.heise.de/ newsticker/meldung/60365, abgerufen am 23.7.2007. heise online – 40 Millionen Kreditkarten-Daten gestohlen. http://www.heise.de/newsticker/ meldung/60767, abgerufen am 23.7.2007. heise online – Angriff auf Bluetooth-Handys im Regierungsviertel. http://www.heise.de/newsti cker/meldung/60542, abgerufen am 18.7.2007. heise online – Apple macht Musik. http://www.heise.de/newsticker/meldung/36456, 6.4.2007. heise online – Bedrohung durch Keylogger unterschätzt. http://www.heise.de/newsticker/ meldung/66308, abgerufen am 18.7.2007. heise online – Biometrische Überwachung bei der WM 2006. http://www.heise.de/newsticker/ meldung/59911, abgerufen am 22.7.2007. heise online – Britischer Innenminister: Alle Bürgerrechte müssen auf den Prüfstand. http://www.heise.de/newsticker/meldung/61657, abgerufen am 25.7.2007. heise online – Bürgerrechtler und Texas verklagen Sony BMG wegen XCP-Kopierschutz. http://www.heise.de/newsticker/meldung/66485, abgerufen am 19.7.2007. heise online – CAST-Forum Internet-Kriminalität: Der Mensch bleibt das schwächste Glied. http://www.heise.de/newsticker/meldung/82576, abgerufen am 18.7.2007. heise online – Chinesischer Cyber-Dissident muss für fünf Jahre ins Gefängnis. http://www.heise. de/newsticker/meldung/62431, abgerufen am 22.7.2007. heise online – Commerzbank-Kunden Ziel von Phishern. http://www.heise.de/newsticker/meldung/ 59766, abgerufen am 18.7.2007.

382

Literaturliste

heise online – Computer können zu schlechteren Noten in der Schule führen. http://www.heise. de/newsticker/meldung/64574, abgerufen am 14.9.2007. heise online – Computer-Forensik: Kein Fall für Dr. Watson. http://www.heise.de/newsticker/ meldung/62984, abgerufen am 22.7.2007. heise online – Datenschützer fordern Taten. http://www.heise.de/newsticker/meldung/65531, abgerufen am 22.7.2007. heise online – Deutsche Bahn verklagte XS4ALL wegen linksradikaler Zeitschrift “Radikal” und gewann. http://www.heise.de/tp/artikel/12/12329/1.html, abgerufen am 5.5.2019. heise online – Deutschland ist ein Medienprodukt. https://www.heise.de/tp/features/Deutsch land-ist-ein-Medienprodukt-3406021.html, abgerufen am 6.2.2018. heise online – Die Privatsphäre ist teilbar. http://www.heise.de/newsticker/meldung/69490, abgerufen am 22.7.2007. heise online – Die Textlänge verrät das Geschlecht. http://www.heise.de/newsticker/meldung/ 66323, abgerufen am 22.7.2007. heise online – Die Zeit der Kulturkriege ist vorbei. https://www.heise.de/tp/features/Die-Zeitder-Kulturkriege-ist-vorbei-3405751.html, abgerufen am 6.2.2018. heise online – Drama um Sony BMGs Kopierschutz-Rootkit nimmt kein Ende. http://www.heise.de/ newsticker/meldung/66423, abgerufen am 19.7.2007. heise online – EA-Deutschland-Chef: Computerspiele haben kein schlechtes Image. http://www.heise. de/newsticker/meldung/62955, abgerufen am 14.9.2007. heise online – Erfolgreicher Angriff auf iTAN-Verfahren. http://www.heise.de/newsticker/meldung/ 66046, abgerufen am 18.7.2007. heise online – Estnische Phisher festgenommen. http://www.heise.de/newsticker/meldung/ 66173, abgerufen am 18.7.2007. heise online – Forscherin sammelt Belege für Suchtpotenzial von Videospielen. http://www.heise. de/newsticker/meldung/66254, abgerufen am 14.9.2007. heise online – GC family: Lernen mit “Spaßfaktor”. http://www.heise.de/newsticker/meldung/ 63008, abgerufen am 14.9.2007. heise online – Goldene Regeln für Suchmaschinennutzer. http://www.heise.de/newsticker/ meldung/68357, abgerufen am 18.7.2007. heise online – Handy-Schädling springt auf Windows über [Update]. http://www.heise.de/newsticker/ meldung/64196, abgerufen am 22.7.2007. heise online – Hintertür im iTAN-Procedere der Postbank [Update]. http://www.heise.de/newsticker/ meldung/66652, abgerufen am 18.7.2007. heise online – Infomanie vermindert IQ. http://www.heise.de/newsticker/meldung/59176, abgerufen am 14.9.2007. heise online – iTAN-Verfahren unsicherer als von Banken behauptet. http://www.heise.de/newsticker/ meldung/63249, abgerufen am 18.7.2007. heise online – Jugendliche werden im Internet auch von Bekannten sexuell bedrängt. http://www.heise.de/newsticker/meldung/59747, abgerufen am 14.9.2007. heise online – Jugendmedienschutz im Internet eine “besondere Herausforderung”. http://www.heise.de/newsticker/meldung/59069, abgerufen am 14.9.2007. heise online – Juristen fordern Anpassung der Grundrechte an die digitale Welt. http://www.heise. de/newsticker/meldung/61862, abgerufen am 25.7.2007. heise online – Kalifornien verbietet Phishing. http://www.heise.de/newsticker/meldung/64552, abgerufen am 18.7.2007. heise online – Kalifornischer Senat verabschiedet eingeschränktes Verbot von E-Pässen. http://www.heise.de/newsticker/meldung/59694, abgerufen am 22.7.2007.

Linkliste

383

heise online – Künstliche Intelligenz: Uni-Studium verliert an Bedeutung. http://www.heise.de/ newsticker/meldung/Kuenstliche-Intelligenz-Uni-Studium-verliert-an-Bedeutung-3248678. html, abgerufen am 25.8.2016. heise online – Liberty Alliance startet Initiative gegen Identitätsdiebstahl. http://www.heise.de/ newsticker/meldung/60602, abgerufen am 22.7.2007. heise online – LKW-Maut: Minister will offenbar Fahndung mit Mautdaten erlauben. http://www.heise. de/newsticker/meldung/66676, abgerufen am 22.7.2007. heise online – Marktforscher erwarten starkes Wachstum bei Online-Spielen. http://www.heise. de/newsticker/meldung/67934, abgerufen am 14.9.2007. heise online – Medienpädagoge: Erwachsenen Kompetenz bei Computerspielen geben. http://www.heise.de/newsticker/meldung/62833, abgerufen am 14.9.2007. heise online – Millionenschaden durch Phishing. http://www.heise.de/newsticker/meldung/ 65252, abgerufen am 18.7.2007. heise online – Mobile Devices: Bequemer Datentransfer mit Nebenwirkungen. http://www.heise. de/newsticker/meldung/68504, abgerufen am 18.7.2007. heise online – Mobiler Fingerabdruck-Erkennungsdienst. http://www.heise.de/newsticker/ meldung/61351, abgerufen am 22.7.2007. heise online – Netzwerküberwacher: Milliardenschäden durch privates Websurfen am Arbeitsplatz. http://www.heise.de/newsticker/meldung/61881, abgerufen am 14.9.2007. heise online – Neuer Phishing-Trick zielt auf Postbankkunden. http://www.heise.de/newsticker/ meldung/61003, abgerufen am 18.7.2007. heise online – Nummernschild-Erfassung kontra informationelle Selbstbestimmung. http://www.heise.de/newsticker/meldung/64167, abgerufen am 22.7.2007. heise online – Phisher entdecken Geldautomatenkarten. http://www.heise.de/newsticker/ meldung/62369, abgerufen am 18.7.2007. heise online – Phisher setzen zunehmend auf Keylogging-Schädlinge. http://www.heise.de/ newsticker/meldung/59316, abgerufen am 18.7.2007. heise online – Phishing mit Frames reloaded. http://www.heise.de/newsticker/meldung/60297, abgerufen am 18.7.2007. heise online – Phishing mit Google. http://www.heise.de/newsticker/meldung/68257, abgerufen am 18.7.2007. heise online – Phishing-IQ-Test: Finde die echten und falschen Mails. http://www.heise.de/ newsticker/meldung/60345, abgerufen am 18.7.2007. heise online – Phishing-Mails mit Paßworteingabefeld. http://www.heise.de/newsticker/meldung/ 59321, abgerufen am 18.7.2007. heise online – Phishing: US-Amerikaner muss für sechs Jahre ins Gefängnis. http://www.heise.de/ newsticker/meldung/61215, abgerufen am 18.7.2007. heise online – Polizei warnt vor Mithilfe bei Geldwäsche von Phishing-Betrügern. http://www.heise. de/newsticker/meldung/62437, abgerufen am 18.7.2007. heise online – Postbank mit neuem TAN-System gegen Phishing. http://www.heise.de/newsticker/ meldung/62558, abgerufen am 18.7.2007. heise online – Postbank schon wieder im Visier der Phisher. http://www.heise.de/newsticker/ meldung/59370, abgerufen am 18.7.2007. heise online – Postbank-Kunden erneut im Visier der Phisher. http://www.heise.de/newsticker/ meldung/61365, abgerufen am 18.7.2007. heise online – Schönbohm: Internet-Kriminalität angestiegen. http://www.heise.de/newsticker/ meldung/60415, abgerufen am 18.7.2007. heise online – Schöne neue Welt der Google-Gesellschaft. http://www.heise.de/newsticker/ meldung/59709, abgerufen am 22.7.2007.

384

Literaturliste

heise online – Selbstjustiz-Software für Spam-Opfer. http://www.heise.de/newsticker/meldung/ 62016, abgerufen am 18.7.2007. heise online – Sony BMG ruft CDs mit Kopierschutz-Rootkit zurück. http://www.heise.de/newsticker/ meldung/66237, abgerufen am 19.7.2007. heise online – Spammer zwingen Anti-Spam-Start-up in die Knie. http://www.heise.de/newsticker/ meldung/73241, abgerufen am 18.7.2007. heise online – Sparkassen-Kunden im Visier der Phisher [Update]. http://www.heise.de/newsticker/ meldung/60540, abgerufen am 18.7.2007. heise online – Staatsanwaltschaft Berlin: Internet-Straftaten nehmen deutlich zu. http://www.heise. de/newsticker/meldung/67521, abgerufen am 18.7.2007. heise online – Stanford-Professoren stellen Phishing-Schutz vor. http://www.heise.de/newsticker/ meldung/62393, abgerufen am 18.7.2007. heise online – Studie: Hoher Medienkonsum sorgt für schlechte Noten. http://www.heise.de/ newsticker/meldung/64258, abgerufen am 14.9.2007. heise online – Studie: Millionenschaden durch Browsergames? http://www.heise.de/newsticker/ meldung/60468, abgerufen am 14.9.2007. heise online – Studie: Pubertät treibt Zukunftsmärkte voran. http://www.heise.de/newsticker/ meldung/64315, abgerufen am 22.7.2007. heise online – Studie: Viele Facebook-Nutzer sind sorglos. http://www.heise.de/newsticker/meldung/ Studie-Viele-Facebook-Nutzer-sind-sorglos-1370431.html, abgerufen am 21.11.2011. heise online – Symantec: Profitgier ist Hauptmotiv der Angriffe. http://www.heise.de/newsticker/ meldung/64080, abgerufen am 18.7.2007. heise online – Tricks von Online-Betrügern abwehren. http://www.heise.de/newsticker/meldung/ 64951, abgerufen am 18.7.2007. heise online – Trojaner stiehlt Passwörter von World of Warcraft. http://www.heise.de/newsticker/ meldung/62376, abgerufen am 14.9.2007. heise online – Uninstaller für Sony BMGs Kopierschutz-Rootkit. http://www.heise.de/newsticker/ meldung/65688, abgerufen am 18.7.2007. heise online – US-Wissenschaftler arbeiten am RFID-DRM. http://www.heise.de/newsticker/meldung/ 59705, abgerufen am 22.7.2007. heise online – Vertrauen der US-Bürger in Online-Geschäfte lässt nach. http://www.heise.de/ newsticker/meldung/60979, abgerufen am 22.7.2007. heise online – Vint Cerf und die Zukunft des Internet. http://www.heise.de/newsticker/meldung/ 68583, abgerufen am 22.7.2007. heise online – VoIP-Provider müssen Abhör-Schnittstellen schaffen. http://www.heise.de/newsticker/ meldung/63400, abgerufen am 18.7.2007. heise online – Vorratsspeicherung von TK-Daten: “Privatsphäre wird zum Luxusgut”. http://www. heise.de/newsticker/meldung/67386, abgerufen am 25.7.2007. heise online – VR-Bank-Kunden im Visier der Phisher. http://www.heise.de/newsticker/meldung/ 61241, abgerufen am 18.7.2007. heise online – Yahoo will Kinderschutz in Chaträumen verbessern. http://www.heise.de/newsticker/ meldung/64872, abgerufen am 14.9.2007. heise online – Zotob-Würmer: Geld war das Motiv. http://www.heise.de/newsticker/meldung/ 63350, abgerufen am 18.7.2007. heise online – Generation Handy. http://www.heise.de/newsticker/meldung/65240, abgerufen am 18.7.2007 heise online – Passwort aus Papier: Kennwörter mit Zettel und Stift verwalten. http://www.heise. de/ct/ausgabe/2014-18-Kennwoerter-mit-Zettel-und-Stift-verwalten-2283904.html, abgerufen am 24.8.2016.

Linkliste

385

Heuristik. https://de.wikipedia.org/w/index.php?title=Heuristik&oldid=155995122, abgerufen am 13.7.2016. http://eur-lex.europa.eu/legal-content/DE/TXT/HTML/?uri=CELEX:32016R0679&from=DE, Randnummer 78, abgerufen am 19.8.2016. http://privacybydesign.ca, abgerufen am 6.9.2011. http://research.microsoft.com/en-us/um/redmond/groups/connect/CSCW_10/docs/p515.pdf, abgerufen am 28.1.2016. http://wissen.dradio.de/buzzwordcheck-post-privacy.85.de.html?dram:article_id=13414, abgerufen am 23.11.2011. http://www.analogmuseum.org/english/, abgerufen am 5.5.2019. http://www.bka.de/nn_231072/SharedDocs/Downloads/DE/Publikationen/Publikationsreihen/ 01PolizeiUndForschung/1__40__DieSichtDerAndren.html, Seite nicht mehr abrufbar. http://www.bmfsfj.de/RedaktionBMFSFJ/Abteilung5/Pdf-Anlagen/kurzfassung-medien-und-ge walt,property=pdf,bereich=,rwb=true.pdf, abgerufen am 14.9.2007. http://www.dtic.mil/dtic/tr/fulltext/u2/a367718.pdf, abgerufen am 22.7.2016. http://www.ec-spride.tu-darmstadt.de/crisp/, abgerufen am 1.8.2016. http://www.enolagaia.com/AT.html, abgerufen am 6.4.2007 http://www.heise.de/tp/artikel/6/6345/1.html, abgerufen am 24.8.2016. http://www.software-architekten.de/architekturdokumentation-ist-pflicht/, abgerufen am 3.8.2016. http://www.staysafeonline.org/pdf/safety_study_v04.pdf, abgerufen am 21.2.2007. https://agnes.hu-berlin.de/lupo/rds?state=verpublish&status=init&vmfile=no&publishid= 110379&moduleCall=webInfo&publishConfFile=webInfo&publishSubDir=veranstaltung, abgerufen am 18.10.2016. https://apps.facebook.com/netvizz. Seite nicht mehr abrufbar. https://azelin.files.wordpress.com/2014/07/islamic-state-e2809cdc481biq-magazine-2e280b3. pdf. Seite nicht mehr abrufbar. https://ia902306.us.archive.org/3/items/pdfy-sDqxhJXO9ZqvrWaT/dbq01_de.pdf. Seite nicht mehr abrufbar. https://twitter.com/VOX_Pol/status/505337026326310912, abgerufen am 5.5.2019. https://www.google.de/search?q=nsa+aff%C3%A4re+%22unt%C3%A4tigkeit+der+regierung%22, abgerufen am 7.8.2015. https://www.helpnetsecurity.com/dl/articles/Trike_v1_Methodology_Document-draft.pdf, abgerufen am 13.7.2016. https://www.ipc.on.ca/images/resources/7foundationalprinciples.pdf, abgerufen am 11.7.2016. https://www.ipc.on.ca/images/Resources/pbd-privacy-and-security-by-design-oracle.pdf, abgerufen am 12.7.2016. https://www.schauspiel-stuttgart.de/spielplan/spielzeit-2015-2016/wozu-texte-spielzeit20132014. Seite nicht mehr abrufbar. https://www.sit.tu-darmstadt.de/de/security-in-information-technology/staff/michael-waidner/, abgerufen am 1.8.2016. https://www.vodafone-stiftung.de/uploads/tx_newsjson/transmission02.pdf, abgerufen am 5.5.2019. Humboldt Gesellschaft – Systemtheorie: Niklas Luhmann. http://www.humboldtgesellschaft.de/ inhalt.php?name=luhmann, abgerufen am 29.4.2019. IBM IT Infrastructure services. http://www-935.ibm.com/services/us/en/it-services/security-services/ 2014-cyber-security-intelligence-index-infographic/, abgerufen am 5.5.2019. Identifying and Verifying News through Social Media. http://www.tandfonline.com/doi/abs/ 10.1080/21670811.2014.892747, abgerufen am 28.1.2016.

386

Literaturliste

INDECT. http://www.indect-project.eu. Seite nicht mehr abrufbar. Interkulturelle Kommunikation in virtuellen Gemeinschaften. http://idw-online.de/pages/de/ news142577, abgerufen am 24.7.2007. Internationale Fachtagung „Clash of realities – Computerspiele und soziale Wirklichkeit“. http://idw-online.de/pages/de/news141666, abgerufen am 14.9.2007. Internationale Fachtagung: „Grenzenlose Cyberwelt? Digitale Ungleichheit und neue Bildungszugänge für Jugendliche“. http://idw-online.de/pages/de/event16180, abgerufen am 14.9.2007. Internet Society (ISOC) All About The Internet: History of the Internet. http://www.isoc.org/internet/ history/brief.shtml#Origins, abgerufen am 9.4.2007. Internetprofessor Steinmetz: Forschungsziel heißt „nahtlose Kommunikation“. http://idw-online. de/pages/de/news139248, abgerufen am 24.7.2007. Internetsoziologie – Ausgewählte wissenschaftliche Tätigkeiten. http://www.internetsoziologie.at/ de/?page_id=4#toc-ausgewhlte-wissenschaftliche-ttigkeiten, abgerufen am 3.5.2019. Internetsoziologie – Soziale Auswirkungen. https://de.wikipedia.org/wiki/Internetsoziologie# Soziale_Auswirkungen, abgerufen am 24.8.2016. Internetsoziologie – Wo liegt nun das konkret Neue (oder Andere) bzw. Einzigartige in der Internetsoziologie? Wozu noch eine Ausprägung der ohnehin weit gefächerten Soziologie? http://www.internetsoziologie.at/de/wiki/index.php/FAQ#Wo_liegt_nun_das_konkret_Neue_. 28oder_Andere.29_bzw._Einzigartige_in_der_Internetsoziologie.3F_Wozu_noch_eine_Auspr. C3.A4gung_der_ohnehin_weit_gef.C3.A4cherten_Soziologie.3F, abgerufen am 10.12.2018. Internetsoziologie – 2016: Die Zukunft der Internetsoziologie. http://www.internetsoziologie.at/ de/?p=5795, abgerufen am 5.5.2019. Internetsoziologie – Der erste „Arbeitsbereich Internetsoziologie“ Deutschlands wird massiv ausgebaut. http://www.internetsoziologie.at/de/?p=2599, abgerufen am 5.5.2019. Internetsoziologie – Sociality by Design. http://www.internetsoziologie.at/de/wiki/index.php/ Sociality_by_Design, abgerufen am 5.5.2019. Internetsoziologie FAQ. http://www.internetsoziologie.at/de/wiki/index.php/FAQ, abgerufen am 3.5.2019 Intersoft Consulting. https://www.intersoft-consulting.de/it-sicherheit/vergleich-der-iso-27001standards/, abgerufen am 16.8.2016. Is Trump’s Twitter account a national security threat? https://www.politico.com/story/2016/12/ trump-twitter-national-security-232518, abgerufen am 5.5.2019. ISO/IEC 27001. https://de.wikipedia.org/wiki/ISO/IEC_27001, abgerufen am 2.8.2016. IT-Grundschutz – Konzept. https://de.wikipedia.org/wiki/IT-Grundschutz#Konzept, abgerufen am 16.8.2016. IT-Grundschutz. https://de.wikipedia.org/wiki/IT-Grundschutz, abgerufen am 2.8.2016. Jihadology. http://jihadology.net/category/inspire-magazine/, abgerufen am 5.5.2019. JPEG & PNG Stripper: http://www.chip.de/downloads/JPEG-amp-PNG-Stripper_36774505.html, abgerufen am 6.5.2019. Kinder-Studie: Jährliche Handykosten von fast 300 Euro. http://www.golem.de/0508/39631.html, abgerufen am 18.7.2007. Klassische Fehler in der Software-Entwicklung. http://pi.informatik.uni-siegen.de/stt/15_4/15_4_ tb_cefe/15_4_se-errors-2.html, abgerufen am 3.8.2016. Kleine Anfrage des Abgeordneten Andrej Hunko u. a. und der Fraktion DIE LINKE. Tests, Recherchen und Marktsichtungen zur Einführung polizeilicher Vorhersagesoftware. BT-Drucksache 18/3525 http://www.andrej-hunko.de/start/download/doc_download/559-tests-recherchen-und-markt sichtungen-zur-einfuehrung-polizeilicher-vorhersagesoftware, abgerufen am 5.5.2019.

Linkliste

387

Kommentiertes Vorlesungsverzeichnis Sommersemester 2004. https://www.polsoz.fu-berlin.de/ soziologie/studium/diplom/dateien/kvv/ss_04.pdf, abgerufen am 3.5.2019. KrimLEX – Videoüberwachung im öffentlichen Raum. http://www.krimlex.de/artikel.php?KL_ID=225, abgerufen am 24.8.2016. Kritik am Wissenschaftsbetrieb – Die Vertreibung der Zauberer aus der Universität. http://www. deutschlandfunkkultur.de/kritik-am-wissenschaftsbetrieb-die-vertreibung-der-zauberer.1005. de.html?dram:article_id=415080, abgerufen am 15.4.2018. Kritische Diskursanalyse: Zur Ausarbeitung einer problembezogenen Diskursanalyse im Anschluss an Foucault. http://www.qualitative-research.net/index.php/fqs/article/view/148/325, abgerufen am 10.9.2013. Künstliche Intelligenz wird überschätzt. https://www.sueddeutsche.de/digital/kuenstliche-intelligenzdigitalgipfel-regierung-algorithmen-1.4233675, abgerufen am 27.4.2019. Kursbuch – Hans Hütt – Auf dem Weg in die Tyrannei (Volltext). https://kursbuch.online/hanshuett-auf-dem-weg-in-die-tyrannei-volltext abgerufen am 29.4.2019. Lagebericht2005.pdf. http://www.bsi.bund.de/literat/lagebericht/lagebericht2005.pdf, abgerufen am 20.7.2007. Language Log – CITATION PLAGIARISM? http://itre.cis.upenn.edu/~myl/languagelog/archives/ 004608.html, abgerufen am 13.2.2019. Language Log: Phishing. http://itre.cis.upenn.edu/~myl/languagelog/archives/001477.html, abgerufen am 18.7.2007. Leben – ZEIT online. http://www.zeit.de/2005/34/I-Pod_34, abgerufen am 18.7.2007 Legal and Social Aspects of Surveillance Technologies: CCTV in Greece. http://surprise-project.eu/ wp-content/uploads/2014/11/Booklet_Final.pdf#page=39, abgerufen am 28.1.2016. Livewire RFID Shielding Solutions. http://livewire.de/epass.html, abgerufen am 22.7.2007. Mailbox (Computer). https://de.wikipedia.org/wiki/Mailbox_(Computer), abgerufen am 5.5.2019. Manöver: CIA simuliert Terrorangriff aufs Internet. http://www.spiegel.de/netzwelt/web/ 0,1518,357640,00.html, abgerufen am 24.7.2007. Marx, G.T.: The Public as Partner? Technology Can Make Us Auxiliaries as Well as Vigilantes. http://dx.doi.org/10.1109/MSP.2013.126, abgerufen am 28.1.2016. Mehr als Taxifahren: Dr. Stephan G. Humer. https://www.mehralstaxifahren.de/interviews/stephang-humer/, abgerufen am 17.5.2019. MEINUNGSFORSCHUNG IM NETZ: Wer stellt die Mehrheit? http://www.faz.net/aktuell/feuilleton/ medien/meinungsbildung-im-internet-und-in-sozialen-netzwerken-13692445.html, abgerufen am 3.8.2015. Merkmale des „Durchschnittsdeutschen“ im Statistischen Jahrbuch 2014. https://www.destatis. de/DE/Publikationen/StatistischesJahrbuch/StatistischesJahrbuch.html, abgerufen am 3.8.2015. Michael Waidner. https://de.wikipedia.org/wiki/Michael_Waidner, abgerufen am 1.8.2016. MIT-Reise schafft neue Perspektiven. https://www.hs-fresenius.de/news/mit-reise-schafft-neueperspektiven, abgerufen am 6.5.2019. Mobiler Zugang zum Dokumentenschrank – Zeitung Heute – Tagesspiegel. http://www.tagesspiegel. de/zeitung/mobiler-zugang-zum-dokumentenschrank/1969268.html, abgerufen am 6.9.2011. My National Security Letter Gag Order. http://www.washingtonpost.com/wp-dyn/content/article/ 2007/03/22/AR2007032201882.html, abgerufen am 23.7.2007. netzpolitik.org und der Angriff auf die Pressefreiheit: Stefan Aust gießt (zu Recht) etwas Wasser in den Wein. http://www.internetsoziologie.at/de/?p=5625, abgerufen am 15.8.2015. Newsweek – Two Teenage Girls Arrested Over French Synagogue Suicide Bomb Plot. http://www. newsweek.com/two-teenage-girls-arrested-over-french-synagogue-suicide-bomb-plot-267523, abgerufen am 5.5.2019.

388

Literaturliste

Nipplegate. http://de.wikipedia.org/wiki/Nipplegate, abgerufen am 5.5.2019. NodeXL. http://nodexl.codeplex.com/, abgerufen am 5.5.2019. NPD in Mecklenburg-Vorpommern – Bodenständig braun. http://www.sueddeutsche.de/politik/ npd-in-mecklenburg-vorpommern-bodenstaendig-braun-1.1138717, abgerufen am 16.8.2015. OECD: Musikindustrie sollte sich neue Technik zunutze machen. http://www.golem.de/0506/ 38667.html, abgerufen am 22.7.2007. Online-Musik: Die digitale Mauer fällt bei EMI und Apple. http://www.heise.de/newsticker/meldung/ 87754, abgerufen am 6.4.2007. OpenSAMM – Software Assurance Maturity Model. http://www.opensamm.org, abgerufen am 5.5.2019. OSI-Modell. https://secure.wikimedia.org/wikipedia/de/w/index.php?title=OSI-Modell&oldid =93128440, abgerufen am 6.9.2011. Pädophilie – Nutzung legaler und illegaler Medien zur sexuellen Stimulation. https://de.wikipedia. org/w/index.php?title=P%C3%A4dophilie&oldid=95702997#Nutzung_legaler_und_illegaler_ Medien_zur_sexuellen_Stimulation, abgerufen am 21.11.2011 PERFORMANCE. http://www.sifo.de/files/Projektumriss_PERFORMANCE.pdf, abgerufen am 8.8.2016. Pharming. http://de.wikipedia.org/wiki/Pharming, abgerufen am 6.8.2007. Planungszelle. http://www.planungszelle.de, abgerufen am 23.8.2016. Podcast. http://en.wikipedia.org/wiki/Podcast, abgerufen am 18.7.2007 Postbank: Indizierte TAN gegen Phishing. http://www.golem.de/0508/39702.html, abgerufen am 20.7.2007. PPC-CPU – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/be9e19c7c6faeae2, abgerufen am 20.7.2007. PPC-CPU – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/b9be7fc45b4071e7, abgerufen am 20.7.2007. PPC-CPU – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/215a9bdecd505665, abgerufen am 20.7.2007. Privacy enhancing shaping of security research and technology – A participatory approach to develop acceptable and accepted principles for European Security Industries and Policies. http://prise.oeaw.ac.at/objectives.htm, abgerufen am 6.5.2019. Privacy by Design. http://www.bfdi.bund.de/SharedDocs/Publikationen/%22PrivacyByDesign% 22.pdf?__blob=publicationFile, abgerufen am 28.1.2016. Privacy by Design. http://www.bfdi.bund.de/SharedDocs/Publikationen/%22PrivacyByDesign% 22.pdf?__blob=publicationFile, abgerufen am 28.1.2016. Prognose zum Volumen der jährlich generierten digitalen Datenmenge weltweit in den Jahren 2018 und 2025 (in Zettabyte). https://de.statista.com/statistik/daten/studie/267974/umfrage/prog nose-zum-weltweit-generierten-datenvolumen/, abgerufen am 4.5.2019. Programmierschnittstelle. https://de.wikipedia.org/wiki/Programmierschnittstelle, abgerufen am 19.8.2016. Quality by Design, siehe https://en.wikipedia.org/wiki/Quality_by_Design, abgerufen am 3.8.2016. R+V-Studie: Die Ängste der Deutschen 2018. https://www.ruv.de/presse/aengste-der-deutschen, abgerufen am 13.7.2016. Radikal (Zeitschrift). http://de.wikipedia.org/wiki/Radikal_(Zeitschrift), abgerufen am 5.5.2019. radikal. http://radikal.squat.net/154/16.html, abgerufen am 5.5.2019. radikal. http://www.nadir.org/nadir/archiv/Medien/Zeitschriften/radikal/netzzensur/, abgerufen am 5.5.2019. radikal. https://radikalrl.wordpress.com/, abgerufen am 5.5.2019. Ratgeber für den Umgang mit Internet-Suchmaschinen. http://idw-online.de/pages/de/ news126575, abgerufen am 24.7.2007.

Linkliste

389

Reuters Digital News Survey – „Die Nutzung von Informationsangeboten“ von Uwe Hasebrink und Sascha Hölig. https://www.hans-bredow-institut.de/webfm_send/1012, abgerufen am 7.8.2015, RFID-Pässe [was: Schily: Bedenken von Datenschützern sind Angstmacherei] – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/a24ca4f9a49f9f40?hl=de&, abgerufen am 20.7.2007. Risk management standard. https://www.standards.govt.nz/search-and-buy-standards/stan dards-information/risk-managment/, abgerufen am 22.7.2016. Roger Willemsen: Der ewig Reisende | SRF Sternstunde Philosophie vom 26. 04.2015. https://www. youtube.com/watch?v=thmczk9khdw, abgerufen am 5.5.2019. Rogers, Richard (2011): Das Ende des Virtuellen. Digitale Methoden. In: Zeitschrift für Medienwissenschaft 5(2),61–77. DOI: http://dx.doi.org/10.25969/mediarep/2607. Rootkit. http://de.wikipedia.org/wiki/Rootkit, abgerufen am 6.8.2007. Rough and Ready. https://en.wiktionary.org/wiki/rough_and_ready#English, abgerufen am 29.4.2019. RUB-Studie über Internetforen: Treffpunkt der Multiplikatoren. http://idw-online.de/pages/de/ news123819, abgerufen am 14.9.2007. Sandbox. https://de.wikipedia.org/wiki/Sandbox, abgerufen am 13.2.2019. SANS Institute – SANS Top 20 Internet Security Attack Targets (2006 Annual Update). http://www. sans.org/top20/#h2, abgerufen am 18.7.2007. Schärfere Wahrnehmung und langsameres Denken durch neue Medien. http://www.heise.de/ newsticker/meldung/10661, abgerufen am 21.1.2019. Schloss Dagstuhl: Anonymität im Zeitalter der mobilen Kommunikation. http://idw-online.de/ pages/de/news127698, abgerufen am 24.7.2007. Selbstbeschreibung gemäss „Mutable Postcard“, siehe dazu unter anderem http://mutable.digital. udk-berlin.de, abgerufen am 16.8.2015. Sicherung guter wissenschaftlicher Praxis. https://www.wim.uni-mannheim.de/fileadmin/down load/Leitlinien_wissenschaftliche_Praxis/04_DFG_Denkschrift_zur_Sicherung_guter_wissen schaftlicher_Praxis.pdf, abgerufen am 5.8.2015. Sie fehlt: zum fünften Todestag von Gerburg Treusch-Dieter. https://www.freitag.de/autoren/ internetsoziologe/sie-fehlt-zum-funften-todestag-von-gerburg-treusch-dieter, abgerufen am 3.5.2019. Sifo-Literatur – Intelligente Videoüberwachung. ivü.de, abgerufen am 5.5.2019. Sociality by Design, http://www.socialitybydesign.org, abgerufen am 28.1.2016. Sociality by Design: Digitalisierung von Anfang an sicher und sozial gestalten. http://link.springer. com/chapter/10.1007/978-3-642-30102-5_7, abgerufen am 1.8.2016. Sociality by Design: Digitalisierung von Anfang an sicher und sozial gestalten. https://doi.org/ 10.1007/978-3-642-30102-5_7, abgerufen am 5.8.2018. Sociality by Design. http://www.socialitybydesign.org, abgerufen am 28.1.2016. Softwareentwickler wissen zu wenig über ihre Projekte: Mangelhafte Dokumentation. http://www.tecchannel.de/a/softwareentwickler-wissen-zu-wenig-ueber-ihre-pro jekte,1735821,3, abgerufen am 3.8.2016. SonicWALL Phishing IQ Test. http://www.sonicwall.com/phishing/, abgerufen am 18.7.2007. Sozialkredit-System (VR China). https://de.wikipedia.org/wiki/Sozialkredit-System_(VR_China), abgerufen am 5.5.2019. SPF War: Re: Scheiss Haecksen! – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/ c86c942e550d6b77?hl=de&, abgerufen am 20.7.2007. SPF War: Re: Scheiss Haecksen! – de.org.ccc. http://groups.google.de/group/de.org.ccc/msg/ 3adb608335fc118a?hl=de&, abgerufen am 20.7.2007.

390

Literaturliste

Spiegel Online – 68er-Bewegung und die Folgen: „Sex als Weg zur Wahrheit“. http://www.spiegel. de/kultur/gesellschaft/heinz-bude-ueber-adorno-metoo-und-was-von-68-bleibt-a-1187437. html, abgerufen am 5. August 2018. Springer Professional – „Der Tsunami an Daten und Geräten ist eine echte Herausforderung“. https://www.springerprofessional.de/it-sicherheit/risikomanagement/-der-tsunami-an-datenund-geraeten-ist-eine-echte-herausforderun/15443332?fulltextView=true, abgerufen am 29.4.2019. Spyware in World of Warcraft? http://www.golem.de/0508/39857.html, abgerufen am 18.7.2007. Starbird, K.; Maddock, J.; Orand, M.; Achterman, P.; Mason, R.M.: Ru-mors, False Flags, and Digital Vigilantes: Misinformation on Twitter after the 2013 Boston Marathon Bombing. http://hdl.handle.net/2142/47257, abgerufen am 17.3.2015. Streisand-Effekt. https://de.wikipedia.org/w/index.php?title=Streisand-Effekt&oldid=95263903, abgerufen am 23.11.2011. Studie zum NSA-Skandal – Deutsche Internetnutzer sind enttäuscht von Merkel. http://www.spiegel. de/netzwelt/netzpolitik/studie-zum-nsa-skandal-deutsche-internetnutzer-enttaeuscht-von-mer kel-a-914299.html, abgerufen am 7.8.2015. Studie: E-Mail-Flut ist Belastung im Beruf. http://www.heise.de/newsticker/meldung/74599, abgerufen am 21.2.2007. Studie: Yahoo erforscht die „i-Generation“. http://www.heise.de/newsticker/meldung/54467, abgerufen am 21.2.2007. Süddeutsche Zeitung – Geisteswissenschaften – Die Gesellschaft der Daten. https://www. sueddeutsche.de/kultur/geisteswissenschaften-die-gesellschaft-der-daten-1.3178096, abgerufen am 29.4.2019. Süddeutsche Zeitung – Geisteswissenschaften – Geist mit Gefühl. https://www.sueddeutsche.de/ kultur/geisteswissenschaften-geist-mit-gefuehl-1.2879581, abgerufen am 12.2.2019. Süddeutsche Zeitung – Psychologen-Fachtagung: „Computerspiele machen dumm und faul“. https://www.sueddeutsche.de/digital/psychologen-fachtagung-computerspiele-machendumm-und-faul-1.831963, abgerufen am 29.1.2019. Surface Mounted Device. http://de.wikipedia.org/wiki/Surface_Mounted_Device, abgerufen am 24.2.2007. Tagessspiegel Causa – Filter Bubble als Populismusbeschleuniger: Die Filterblase ist ein Mythos. https://causa.tagesspiegel.de/gesellschaft/wie-veraendert-die-filter-bubble-die-politik/diefilterblase-ist-ein-mythos.html, abgerufen am 27.4.2019. TAUCIS_Studie.pdf. http://www.taucis.hu-berlin.de/_download/TAUCIS_Studie.pdf, abgerufen am 22.7.2007. Telepolis – Deutschland ist ein Medienprodukt. http://www.heise.de/tp/artikel/22/22564/1.html, abgerufen am 29.4.2019. Terrorabwehr im Internet. http://www.sigs-datacom.de/uploads/tx_dmjournals/aus_der_szene_ OS_04_16.pdf, abgerufen am 26.8.2016. Terrorismus – International – ZEIT online. http://www.zeit.de/2005/37/Anti-Terror, abgerufen am 23.7.2007. The CORAS Model-based Method for Security Risk Analysis. http://www.uio.no/studier/emner/ matnat/ifi/INF5150/h06/undervisningsmateriale/060930.CORAS-handbook-v1.0.pdf, abgerufen am 13.7.2016. Too long; didn’t read. https://en.wikipedia.org/wiki/Wikipedia:Too_long;_didn%27t_read, abgerufen am 29.4.2019. top problems of the Internet and how to help solve them. https://www.caida.org/publications/ presentations/2005/topproblemsnet/topproblemsnet.pdf, abgerufen am 5.5.2019.

Linkliste

391

TP: „Zeigt her Eure Namen“. http://www.heise.de/tp/r4/artikel/20/20885/1.html, abgerufen am 23.7.2007. TP: Anzapfen, Abhören, Abstreiten. http://www.heise.de/tp/r4/artikel/21/21991/1.html, abgerufen am 23.7.2007. TP: Der Google-Nutzer wird gegoogelt. http://www.heise.de/tp/r4/artikel/21/21946/1.html, abgerufen am 23.7.2007. TP: Die Blutseuche von W.o.W. http://www.heise.de/tp/r4/artikel/20/20986/1.html, abgerufen am 18.7.2007. TP: Die Präsentation von Forschungsergebnissen in Deutschland. http://www.heise.de/tp/r4/artikel/ 20/20522/1.html, abgerufen am 24.7.2007. TP: Die Wünsche der Überwacher. http://www.heise.de/tp/r4/artikel/21/21335/1.html, abgerufen am 22.7.2007. TP: Hacker, Globalisierungsgegner und Blogger als Störenfriede im Visier. http://www.heise.de/ tp/r4/artikel/22/22010/1.html, abgerufen am 24.7.2007. TP: Jedes Fahrzeug wird identifiziert. http://www.telepolis.de/r4/artikel/21/21635/1.html, abgerufen am 22.7.2007. TP: Nervöse Schüler im Zeitalter der globalen Medien? http://www.heise.de/tp/r4/artikel/21/ 21374/1.html, abgerufen am 18.7.2007. TP: Partykiller Handy? http://www.heise.de/tp/r4/artikel/21/21665/1.html, abgerufen am 18.7.2007. TP: Sofortige (Selbst-) Befriedigung immer und überall? http://www.heise.de/tp/r4/artikel/21/ 21318/1.html, abgerufen am 18.7.2007 TP: Spanien steht Gewehr bei Fuß zur Informationsüberwachung. http://www.heise.de/tp/r4/artikel/ 20/20539/1.html, abgerufen am 23.7.2007. TP: Spiel und Arbeit. http://www.telepolis.de/r4/artikel/20/20498/1.html, abgerufen am 14.9.2007. TP: Stille Post im digitalen Dorf. http://www.heise.de/tp/r4/artikel/21/21937/1.html, abgerufen am 22.7.2007. TP: Vorratsdatenspeicherung in Deutschland. http://www.heise.de/tp/r4/artikel/22/22057/1.html, abgerufen am 22.7.2007. Trennungsgebot zwischen Polizei und Nachrichtendiensten. http://de.wikipedia.org/wiki/ Trennungsgebot_zwischen_Nachrichtendiensten_und_Polizei, abgerufen am 29.4.2019. Trifinite.org – the home of the trifinite.group. http://trifinite.org/trifinite_stuff_blooover.html, abgerufen am 6.8.2007. Troll (Netzkultur). http://de.wikipedia.org/wiki/Troll_%28Netzkultur%29#Allgemeines, abgerufen am 20.7.2007. Troll-Armee. https://de.wikipedia.org/wiki/Troll-Armee, abgerufen am 7.8.2015. Twitter – Charakterisierung des Dienstes. https://de.wikipedia.org/w/index.php?title=Twitte r&oldid=173858928#Charakterisierung_des_Dienstes, abgerufen am 5.5.2019. Twitter – Donald Trump. https://twitter.com/realDonaldTrump, abgerufen am 5.5.2019. Unterhaltungsindustrie: Die Kapitalisten von Kalimdor. http://www.spiegel.de/spiegel/ 0,1518,363363,00.html, abgerufen am 14.9.2007. VDI Nachrichten – „Daten sind der Rohstoff des 21. Jahrhunderts“. http://www.vdi-nachrichten. com/Technik-Wirtschaft/Daten-Rohstoff-21-Jahrhunderts, abgerufen am 5.5.2019. Verschwörungstheorien: Der ganz eigene Wahnsinn. http://www.zeit.de/2015/32/verschwoerungs theorien-information-chemtrails-reichsbuerger/komplettansicht, abgerufen am 9.8.2015. Webseite automatisch aufrufen – de.org.ccc. http://groups.google.de/group/de.org.ccc/browse_ thread/thread/f5fac75ecd402ccb/, abgerufen am 25.7.2007.

392

Literaturliste

Wege aus der digitalen Identitätskrise – Sicherheitsforum am Fraunhofer SIT. http://idw-online. de/pages/de/news132248, abgerufen am 24.7.2007. Welt – Arroganz des Establishments: Wir haben Trumps Anhänger zu lange verachtet. https://www. welt.de/kultur/article159389903/Wir-haben-Trumps-Anhaenger-zu-lange-verachtet.html, abgerufen am 29.4.2019. WELT ONLINE – Häufiges Spielen mit Computern schadet Kindern nicht. http://www.welt.de/data/ 2005/07/18/747197.html, abgerufen am 14.9.2007. Wikto. http://www.sensepost.com/research/wikto/, abgerufen am 18.7.2007. Wired – Meet Prism’s little brother: Socmint. http://www.wired.co.uk/news/archive/2013-06/26/ socmint, abgerufen am 29.4.2019. Wissenschaftliches Care-Paket: Google finanziert Internet-Institut. https://www.freitag.de/autoren/ internetsoziologe/wissenschaftliches-care-paket-google-finanziert-internet-institut, abgerufen am 3.8.2018. Wissenschafts- und Industrieforum 2017 des Heinz-Nixdorf-Instituts der Universität Paderborn, https://www.hni.uni-paderborn.de/wissenschafts-und-industrieforum/wissenschaftsforum/ themen/, abgerufen am 25.8.2016. Wissenschaftskolleg zu Berlin – „Die Gruppe ist am Ende eines Jahres jugendlicher . . .“ https://www. wiko-berlin.de/wikothek/koepfe-und-ideen/issue/13/die-gruppe-ist-am-ende-eines-jahres-jugend licher/, abgerufen am 13.2.2019. YouTube – Karl Popper – Das Prinzip Kritik in der Offenen Gesellschaft (Gespräch). https://www. youtube.com/watch?v=1467dwUh5Nw, abgerufen am 29.4.2019. YouTube – World of Warcraft – BBC News Coverage, Chinese Gold Farming. http://www.youtube. com/watch?v=qMS8K_Swu10, abgerufen am 14.9.2007. Zap2it.com – Movie news – ABC’s 7Second Oscar Delay ‘Terrible’. http://movies.zap2it.com/movies/ news/story/0,1259,---24843,00.html, abgerufen am 5.5.2019. Zeit Online – Wider die großen Worte. http://www.zeit.de/1971/39/wider-die-grossen-worte, abgerufen am 29.4.2019. Zeit Online – Wider die großen Worte. https://www.zeit.de/1971/39/wider-die-grossen-worte/ komplettansicht, abgerufen am 29.4.2019. Zeit Online – Wissenschaftler fassen Vertrauen in die Wikipedia. http://www.zeit.de/digital/internet/ 2012-04/wikipedia-scholarpedia-verweise, abgerufen am 5.5.2019. Zeit Online – Wo seid ihr, Professoren? http://www.zeit.de/2015/31/wissenschaft-professoren-en gagement-oekonomie, abgerufen am 29.4.2019. Zeitgeschichtliche Archiv des Westdeutschen Rundfunks zum Gladbecker Geiseldrama http://www1.wdr.de/themen/archiv/sp_gladbeckergeiseldrama/gladbeckgeiseldrama100. html, abgerufen am 28.1.2016. Zensur: Feindliches Element. http://www.spiegel.de/spiegel/0,1518,374999,00.html bzw. http://service.spiegel.de/digas/find?DID=41834814, abgerufen am 22.7.2007. Zettelkasten. https://de.wikipedia.org/wiki/Zettelkasten, abgerufen am 12.4.2018. Zur Kritik an den Universitäten – „Die Zeit der Zauberer ist vorbei“. http://www.deutschland funkkultur.de/zur-kritik-an-den-universitaeten-die-zeit-der-zauberer-ist.1008.de.html? dram:article_id=415187, abgerufen am 15.4.2018. Zur Methodologisierung der Foucaultschen Diskursanalyse. http://www.qualitative-research.net/ index.php/fqs/article/view/71/145, abgerufen am 22.8.2016.

Abbildungsverzeichnis Abbildung 1 Abbildung 2 Abbildung 3 Abbildung 4 Abbildung 5 Abbildung 6 Abbildung 7 Abbildung 8 Abbildung 9 Abbildung 10

Logo von Projekt Alpha 80 Sociality by Design auf allen drei Ebenen 164 Privacy by Design and Security by Design 179 Bild 1 aus DIN ISO 31000 201 Citavi 236 Mit Vorsicht zu genießende Angaben über untersuchte Datenmengen 312 Screenshot zum News-Suchbegriff „Videoüberwachung“ bei Google News Deutschland mit über 22.000 prognostizierten Ergebnissen 317 Screenshot von SPIEGEL ONLINE mit dem vorläufigen Endergebnis der Bundestagswahl 2013 319 Ablauf einer Sociality-by-Design-Analyse 351 Twitter post 365

https://doi.org/10.1515/9783110559767-007