Wissensprozesse in der Netzwerkgesellschaft [1. Aufl.] 9783839402764

Der Begriff des Wissens geht davon aus, dass Tatbestände als 'wahr' und 'gerechtfertigt' angesehen w

190 68 2MB

German Pages 286 [284] Year 2015

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
INHALT
Zettelkastens Traum. Wissensprozesse in der Netzwerkgesellschaft – Eine Einführung
NETZWERKE
Internetgesellschaft – Version 0.9 Beta
Die epistemologische Rolle von Links in Wissensprozessen. Eine mediengeschichtliche Rekonstruktion
Netzwerke und/oder neue Wissensregime?
Zur Verbreitung des Internets und des Mobilfunktelefons in der Netzwerkgesellschaft
WISSENSMANAGEMENT UND BILDUNGSPROZESSE
Kollektives Wissensmanagement in virtuellen Gemeinschaften
Wissensprozesse in der Softwarebranche. Kleine und mittelständische Unternehmen unter empirischer Perspektive
Didaktische Empfehlungen für das Lernen mit Informatiksystemen
ÖKONOMISCHE PROZESSE
Ökonomische Analyse von Netzeffekten
Modellierung, Analyse und Gestaltung betrieblicher Kommunikation
ÄSTHETISCHE PROZESSE
Wissen und kulturelle Praxis – Audioarchive im Wandel
Künstlerisches Schaffen als kognitiver Prozess
Autorenverzeichnis
Recommend Papers

Wissensprozesse in der Netzwerkgesellschaft [1. Aufl.]
 9783839402764

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Peter Gendolla, Jörgen Schäfer (Hrsg.) Wissensprozesse in der Netzwerkgesellschaft

Die Reihe »Medienumbrüche« wird herausgegeben von Ralf Schnell.

Peter Gendolla, Jörgen Schäfer (Hrsg.)

Wissensprozesse in der Netzwerkgesellschaft

Medienumbrüche | Band 6

Diese Arbeit ist im Kulturwissenschaftlichen Forschungskolleg 615 der Universität Siegen entstanden und wurde auf seine Veranlassung unter Verwendung der von der Deutschen Forschungsgemeinschaft zur Verfügung gestellten Mittel gedruckt.

Bibliografische Information der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet unter http://dnb.ddb.de abrufbar.

© 2005 transcript Verlag, Bielefeld Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen. Umschlaggestaltung: Maik Pluschke, Siegen; Kordula Röckenhaus, Bielefeld Druck: Majuskel Medienproduktion GmbH, Wetzlar ISBN 3-89942-276-7 Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff. Besuchen Sie uns im Internet: http://www.transcript-verlag.de Bitte fordern Sie unser Gesamtverzeichnis und andere Broschüren an unter: [email protected]

INHALT

Peter Gendolla, Jörgen Schäfer Zettelkastens Traum. Wissensprozesse in der Netzwerkgesellschaft – Eine Einführung .......... 7

NETZWERKE Wolfgang Coy Internetgesellschaft – Version 0.9 Beta ................................................. 31 Uwe Wirth Die epistemologische Rolle von Links in Wissensprozessen. Eine mediengeschichtliche Rekonstruktion ........................................... 43 Manfred Faßler Netzwerke und/oder neue Wissensregime? ........................................... 55 Gisela Hüser, Manfred Grauer Zur Verbreitung des Internets und des Mobilfunktelefons in der Netzwerkgesellschaft ................................................................... 83

WISSENSMANAGEMENT UND BILDUNGSPROZESSE Stefan Paal, Jasminko Novak, Bernd Freisleben Kollektives Wissensmanagement in virtuellen Gemeinschaften ......... 119 Bernhard Nett, Volker Wulf Wissensprozesse in der Softwarebranche. Kleine und mittelständische Unternehmen unter empirischer Perspektive ............ 147 Sigrid Schubert Didaktische Empfehlungen für das Lernen mit Informatiksystemen .. 169

ÖKONOMISCHE PROZESSE Wolfgang König, Tim Weitzel Ökonomische Analyse von Netzeffekten ............................................. 191 Thomas Kamphusmann Modellierung, Analyse und Gestaltung betrieblicher Kommunikation .............................................................. 219

ÄSTHETISCHE PROZESSE Rolf Großmann Wissen und kulturelle Praxis – Audioarchive im Wandel ................... 239 Otto Neumaier Künstlerisches Schaffen als kognitiver Prozess ................................... 257

Autorenverzeichnis............................................................................... 279

PETER GENDOLLA, JÖRGEN SCHÄFER

ZETTELKASTENS TRAUM1 WISSENSPROZESSE IN DER NETZWERKGESELLSCHAFT – EINE EINFÜHRUNG Das mit Renaissance und früher Neuzeit einsetzende Vertrauen in die rationale Lesbarkeit der Welt, das sich von Paracelsus über Descartes kommend im aufklärerischen 18. Jahrhundert allmählich gefestigt und im Szientismus des 19. und 20. Jahrhunderts zementiert hatte, scheint sich zu Beginn des 21. Jahrhunderts wieder aufzulösen. Die Überzeugung, dass sich die Natur der Dinge, ihre Ursachen und Wirkungen bei intensivem Studium und mit den angemessenen materiellen wie geistigen 1 Für sein Opus Magnum Zettels Traum hatte Arno Schmidt ca. 120.000 Zettel beschrieben, die als Fotokopie im Großformat publizierte Erstausgabe versuchte diese Zettelwirtschaft der unendlichen Assoziationen auch materiell handgreiflich zu machen. (Als erster hatte Holger van den Boom auf Korrespondenzen des Schmidtschen Verfahrens mit den Möglichkeiten rechnergestützten Schreibens aufmerksam gemacht, vgl. van den Boom, Holger: „Arno Schmidt – Oder: Vom Typoskript zum Desktop-Publishing“, in: Götz Großklaus/Eberhard Lämmert [Hrsg.]: Literatur in einer industriellen Kultur. Stuttgart 1989, S. 537-554). In Niklas Luhmanns Nachlass fanden sich mindestens ebenso viele Zettel. Das Luhmannsche Denk- und Schreibverfahren, seine von ihm selbst so genannte ‚Kommunikation mit Zettelkästen‘ (vgl. Luhmann, Niklas: „Kommunikation mit Zettelkästen. Ein Erfahrungsbericht“, in: André Kieserling [Hrsg.]: Universität als Milieu. Bielefeld 1993, S. 53-61), ist inzwischen selbst Auslöser unendlicher virtueller Zettelkästen geworden. Eine Google-Suchanfrage am 29.9.2004 ergab 506 Einträge – nicht ohne (medientechnischen) Grund: Die Grundidee Arno Schmidts, dass die von ihm bei Edgar Allan Poe, Karl May oder sich selbst entdeckten, un- und unterbewusst wirksamen ‚Etyme‘ die kreative Schicht aller Literatur darstellen, korrespondiert dem sog. ‚impliziten Wissen‘ neuerer Wissensmanagement-Konzepte, zumindest ihrem ästhetischen, kreativen, ‚menschlichen‘ Anteil. Luhmanns aus seinen Holzkästen entwickelte System-Idee wiederum entspräche der a-humanen, autopoietisch generierenden und operierenden Aktivität dieser Kommunikationen. Insofern könnte man ja das Netz als Realisation und Synthese beider Zettelkästen ansehen, des anarchisch-kreativen mit dem rational-systematischen.

PETER GENDOLLA, JÖRGEN SCHÄFER

8

Werkzeugen schon erschließen werde, dass das Wissen der Welt schon immer da sei und nur mit exakter Methodik oder komplexer Semiotik an ihr Licht gebracht werden müsse, droht einer geistigen ‚Von-der-Handin-den-Mund‘-Existenz zu weichen. An die Stelle von allgemein gültigen und lange stabilen Konzepten scheinen nur noch momentane Gewissheiten für sehr spezifisch definierte Situationen zu treten. Die durchaus dem Beginn der so genannten Neuzeit vergleichbare gegenwärtige Relativierung oder Dynamisierung tradierter Wissensbestände hat wohl mit zwei Umständen zu tun, die inzwischen auch bereits seit einigen Jahrzehnten ökonomische, politische und soziokulturelle Verhältnisse transformieren: mit dem Einsatz des Universalmediums Computer in mehr oder weniger allen gesellschaftlichen Bereichen, insbesondere der Transformation der bisherigen analog codierten Kommunikationsmedien in digital codierte, sowie mit der globalen Vernetzung dieser Systeme.

Wissensprozesse Die beiden Haltungen, die anfänglich den Einsatz rechnergestützter vernetzter Medien begleiteten – sei es die euphorische Begeisterung für eine technische Entwicklung, die weniger körperliche Arbeit oder Bürokratie, die vor allem endlich ‚Wissen für alle‘ zu versprechen schien, sei es die eher apokalyptisch gestimmte Ablehnung einer am Horizont erscheinenden ‚Big-Brother-Kultur‘ – sind weniger aufgeregten, trockeneren Analysen der Situation gewichen.2 Sie sind jedoch keineswegs einfacher zu erstellen, denn das Feld ist seither eher unübersichtlicher geworden. Schon 1994, bei einer Zahl von nicht einmal 3 Millionen aktiven Internet-Teilnehmern, war konstatiert worden: „Die Hoffnung auf mehr Transparenz und ‚Wissen für alle‘ durch offene Netzwerke erscheint ebenfalls wenig realistisch. Zum einen verhindert die Kostenstruktur von Informationsdienstleistungen den freien Zugang zu Informationen, und zum anderen verliert

2 Als Indiz mögen die Titel von zwei dem hier vorgelegten Unternehmen vergleichbaren Publikationen gelten: War 1997 noch vom „Mythos Internet“ die Rede (Münker, Stefan/Roesler, Alexander [Hrsg.]: Mythos Internet. Frankfurt/M. 1997), so zielten die Beiträge des fünf Jahre später erschienenen Folgebandes nur noch auf Analysen der „Praxis Internet“ (Münker, Stefan/Roesler, Alexander [Hrsg.]: Praxis Internet. Kulturtechniken der vernetzten Welt. Frankfurt/M. 2002).

ZETTELKASTENS TRAUM

9

selbst der geübteste Netzwerker schnell den Überblick über die angebotenen Daten.“3

Zehn Jahre später, bei inzwischen über 900 Millionen Teilnehmern, ist die Lage wohl noch komplexer, trotz immer intelligenterer, sprich: mit semantischen Netzen operierender Suchmaschinen. Geht man von der Annahme aus, dass sich aktuell mit der Ausbreitung computergestützter vernetzter Medien alle politischen, sozialen, ökonomischen und kulturellen Verhältnisse mehr oder weniger radikal ändern, ohne dass man die Richtung dieser Medien(r)evolution bereits im Detail zu kennen vermag, und nimmt man die hierauf gegründete Rede vom Übergang von der ‚Industrie‘- über die ‚Informations‘- in die so genannte ‚Wissensgesellschaft‘ wirklich ernst, so muss vor allem die Entwicklung des Wissens genauer analysiert werden. Wenn man insbesondere den Umgang oder das Handeln mit der so genannten Wissensbasis, d.h. mit den Daten oder Informationen über die neuesten Verfahren ihrer Generierung, Übermittlung und Speicherung hinaus als entscheidend für die gesamte Entwicklung von Gruppen, Nationen, letztlich der Weltgesellschaft erachtet, dann kann nicht einfach immer wieder nur gebannt auf Effekte gestarrt werden, etwa auf die immer krassere Polarisierung von arm und reich, die sich an die neuen Klassen der Wissenden und der Unwissenden heftet. Vielmehr muss dann etwas sorgfältiger ins Innerste des Wissens, in seine Strukturen – und das bedeutet aktuell genauer: in den Verlauf, die Operationen und Effekte aktueller Wissensprozesse – geschaut werden. Dies sind mehr und mehr global vernetzte Prozesse, eben Wissensprozesse in der Netzwerkgesellschaft. Manuel Castells, der die wohl prominentesten Untersuchungen zur Netzwerkgesellschaft vorgelegt hat, übernimmt für seinen Gebrauch der Begriffe ‚Wissen‘ und ‚Information‘ Definitionen von Daniel Bell und Marc Porat.4 Danach bildet Wissen eine „Sammlung in sich geordneter Aussagen über Fakten und Ideen, die ein vernünftiges Urteil oder ein experimentelles Ergebnis zum Ausdruck bringen und anderen durch irgendein Kommunikationsmedium in systematischer Form übermittelt

3 Bormann, Sven: Virtuelle Realität. Genese und Evaluation. Bonn/Paris 1994, S. 183. 4 Vgl. Castells, Manuel: Das Informationszeitalter, Bd. 1: Die Netzwerkgesellschaft. Opladen 2001, S. 17.

10

PETER GENDOLLA, JÖRGEN SCHÄFER

werden.“5 Grundlage des Wissens bilden Informationen: „Informationen sind Daten, die organisiert und kommuniziert worden sind.“6 Die angreifbare Stelle in dieser Wissensdefinition bietet u.E. das ganz auf dem genannten Vertrauen basierende „vernünftige Urteil“ – darüber streiten von Platon und Aristoteles bis zu Habermas und Derrida gut zweitausend Jahre Philosophie – und hiermit untrennbar verbunden das Mittel, in dem diese Diskurse einander begegnen, nämlich dieses hier so vage gehaltene „irgendein[e] Kommunikationsmedium“. Viele in Lexika oder Enzyklopädien versammelte Definitionsversuche begreifen Wissen als „Inbegriff von (in erster Linie rationalen, übergreifenden) Kenntnissen; dabei auch das Innewerden einer spezifischen Gewissheit (Weisheit); philosophisch die begründete und begründbare Erkenntnis (gr. episteme), im Unterschied zur Vermutung und Meinung (gr. doxa)“7, als Variationen von „Kompetenz, Bekanntschaft und Information“ oder als „Fähigkeit, auf bestimmte Weise zu handeln“ oder als „Verfügen über Information“, die sich in kurz- oder langfristiger „situativer Vertrautheit“ beweise.8 Dabei kürzen sie den Begriff jedoch um eine Dimension ein – oder setzen sie als selbstverständlich voraus und lassen sie damit unbestimmt –, die so selbstverständlich nicht oder nicht mehr vorausgesetzt werden kann, eben das Vertrauen ins Wissen. Seine Bedeutung tritt umso stärker hervor, je mehr jene Informationen und die damit verbundenen Kenntnisse und Fähigkeiten, je mehr also diese Wissensbasis aus den Archiven der tradierten Medien – von den Printmedien Buch, Zeitung, Zeitschrift bis zu den MAZ-Kellern der Rundfunk- oder TV-Anstalten – in die Speicherbereiche der neuesten Medien verschoben und dort vernetzt werden. Diese offenbar kritischer werdende Dimension wird von Ulrich Charpa als „bes[onders] ausgezeichnete Weise des Überzeugtseins“ angesprochen: „Die Ausgangsvorstellung der erkenntnistheoretischen Erörterung zeichnet Wissen als etwas aus, das gegenüber beliebigen Überzeugungen den Vorzug besitzt, wahr und zudem gerechtfertigt zu sein. Etwas zu wissen besagt, eine wahre und legitime Überzeugung hinsichtlich eines Tatbestandes zu hegen.“9

5 Bell, Daniel: Die nachindustrielle Gesellschaft. Frankfurt/M. 1975, S. 180. 6 Porat, Marc: The Information Economy. Definition and Measurement. Washington D.C. 1977, S. 2. 7 Dtv-Lexikon in 20 Bänden. München 1995, Bd. 20, S. 120. 8 Charpa, Ulrich: „Wissen“, in: Ralf Schnell (Hrsg.): Lexikon Kultur der Gegenwart. Stuttgart 2000, S. 543. 9 Charpa 2000, S. 543.

ZETTELKASTENS TRAUM

11

Schon immer sind die Gründe für solches Überzeugtsein – von der Wahrheit wie der Legitimität des Wissens – in zwei Dingen gesucht worden: • in der sinnlichen Gewissheit der eigenen Wahrnehmung, • in der wechselseitigen Verständigung über diese sinnliche Gewissheit, im Dialog, in der Diskussion des Für und Wider, in der Kommunikation der Wahrnehmungen und so der allmählichen Erzeugung von Kohärenz. Beide Wissensbedingungen werden nun aktuell nicht einfach ins Abseits verschoben oder gar gelöscht – mit dieser Angst vor ‚Big Brother‘ oder der ‚Matrix‘ verdient nur das Kino seit langem schon gutes Geld.10 Wenn jedoch unsere sinnlichen Wahrnehmungen immer weitreichender – das ist durchaus wortwörtlich zu verstehen, in direktem Sinne räumlich: immer weiter reichend – durch Sensorsysteme eben nicht einfach ersetzt, vielmehr immer umfangreicher erweitert, ‚gestützt‘, spezifisch verstärkt oder intensiviert werden, und wenn dann auch der Verständigungsprozess über die Gewissheit solcherart erzeugter Wahrnehmungen, die Herstellung von Kohärenz immer weniger in direkter Face-to-faceKommunikation, vielmehr ebenfalls räumlich und besonders zeitlich weitreichender telematisch kommuniziert wird, dann ändern sich in der Tat die raumzeitlichen Bedingungen für jegliches Wissen, die Formen, Verfahren, Abläufe seiner Erzeugung und Erhaltung, eben die Wissensprozesse. „Die Auszeichnung einer einigermaßen reichhaltigen Menge von Überzeugungen als Wissen lässt sich nicht anders als kollaborativ, d.h. in weitgespannten Vertrauensverhältnissen bewerkstelligen“11, fährt Charpa im zitierten Artikel fort. Aber genau durch die tendenziell globale Ausweitung der Kollaborationen im Prozess der Erzeugung von und des Handelns mit Wissen werden solche Vertrauensverhältnisse gegenwärtig höchst gespannt, irritiert bis ausgehebelt, durch die Entwicklung des Wissens selbst, seine neuere Genese, Struktur, Funktion in der Netzwerkgesellschaft.

10 Vgl. zum historischen Bogen und aktuellen Stand dieses Themas Geier, Manfred: Fake. Leben in künstlichen Welten. Mythos – Literatur – Wissenschaft. Reinbek 1999. 11 Charpa 2000, S. 544.

PETER GENDOLLA, JÖRGEN SCHÄFER

12

Netzwerkgesellschaft Wir haben unseren gemeinsamen Überlegungen zu Veränderungen von Wissensprozessen das neue Gesellschaftsparadigma der ‚Netzwerkgesellschaft‘ zugrunde gelegt. Castells vertritt die These, Netzwerke bildeten die „soziale Morphologie unserer Gesellschaften“, und darüber hinaus verändere „die Verbreitung der Vernetzungslogik […] die Funktionsweise und die Ergebnisse von Prozessen der Produktion, Erfahrung, Macht und Kultur wesentlich.“12 Mit der Netzwerk-Metapher lassen sich also zum einen soziale, technische, biologische etc. Strukturen beschreiben, d.h. die Begriffe ‚Netz‘ und ‚Netzwerk‘ werden in diesem Kontext ganz allgemein als Leitmetaphern für Vorstellungen von dezentrierten Strukturen verwendet, die sich durch heterarchische Verknüpfungen auszeichnen. In diesem Sinne handelt es sich um Konstruktionen, also um Modelle, die jedoch wiederum als ‚Baupläne‘ für materielle Netze dienen können, als „prozedurale, experimentelle Skripte der Konstruktion, Herstellung oder Manipulation von artifiziellen, epistemischen Dingen.“13 Damit dienen diese Metaphern jedoch zum anderen der Beschreibung einer umfassenden Veränderungsdynamik, die zur Entstehung immer komplexerer Netzwerke führt. Auf diesen Doppelstatus von Netzwerken als Konstruktionen und ‚Wirk-Mächten‘ hat jüngst noch einmal Hartmut Böhme hingewiesen: „[D]as Netzwerk des Wissens ist eine Form der Beobachtung bzw. der Beobachtung von Beobachtung. Doch es ist zugleich eine material wirksame Systemtechnik zur Kontrolle und Steuerung des natürlichen und gesellschaftlichen Stoffwechsels. Netze sind eine, ja die spezifische Art der Episteme der Moderne; und sie sind zugleich selbst materiell-technische Systeme, welche nahezu jedweden Metabolismus formatieren. Netze sind deshalb immer Netze, die von anderen Netzen aus beobachtet werden.“14

Eine solche Veränderungs- und Ausdehnungsdynamik sieht auch Castells, wenn er Netzwerke als „offene Strukturen“ beschreibt, die in der Lage sind, „grenzenlos zu expandieren und dabei neue Knoten zu integrieren, solange diese innerhalb des Netzwerkes zu kommunizieren vermögen, also solange sie dieselben Kommunikationscodes besitzen.“15 12 Castells 2001, S. 527. 13 Böhme, Hartmut: „Netzwerke. Zur Theorie und Geschichte einer Konstruktion“, in: Jürgen Barkhoff/Hartmut Böhme/Jeanne Riou (Hrsg.): Netzwerke: Eine Kulturtechnik der Moderne. Köln/Weimar/Wien 2004, S. 27. 14 Böhme 2004, S. 31. 15 Castells 2001, S. 528.

ZETTELKASTENS TRAUM

13

Diese Definitionen erscheinen uns offen und flexibel genug, um die nicht-lineare Dynamik dieses techno-bio-sozialen Netzwerks, das artverschiedene Prozessoren verbindet, zu berücksichtigen, nämlich die „Fähigkeit, jeglichen Input in ein gemeinsames Informationssystem zu übersetzen und diese Information mit zunehmender Geschwindigkeit, mit zunehmender Macht und zu abnehmenden Kosten in einem potenziell [!] allgegenwärtigen Verfügungs- und Verteilungsnetzwerk zu verarbeiten.“16 Aus einer sozial- bzw. kulturwissenschaftlichen Perspektive werden somit die informatischen Beschreibungen von Netzwerken – die zwar wichtige, aber eben keine hinreichenden Modelle bereit stellen, um die aktuellen Netzprozesse zu analysieren – erweitert. Die NetzwerkLogik geht dabei von Homologien zwischen verschiedenen Komponenten aus. Auch das ‚Ich‘ lässt sich eben nicht als Monade beschreiben, die ‚dem Netz‘ gegenüber steht, sondern selbst wiederum als – dann neuronales – Netz konzipieren, wie dies die Neurobiologie tut. Daher – und dies wird auch bei Castells thematisiert – steht eine weiter fortschreitende Verflechtung von biologischer und mikroelektronischer Revolution zu erwarten, nämlich dadurch, dass „die Fähigkeit, aus sich selbst zuvor nicht programmierte, zusammenhängende Sequenzen hervorzubringen – zunehmend in elektronische Maschinen eingeführt“ wird.17 Dies verbindet die Diskurse der elektronischen Netzwerke mit den internen Sprachzeichen-Netzwerken, die das menschliche Gehirn aufbaut: Auch das Gehirn ist hochparallel organisiert; es verarbeitet Informationen nicht als lineare Transformation, sondern als ‚Parallel Processing‘, d.h. über die Koaktivierung von Nervenzellen.18 Was jedoch kann mit der Behauptung einer ‚Verflechtung‘ gemeint sein, wenn man von Hollywood-Phantasien à la Terminator und Matrix einmal absieht? Wie sind die menschlichen Körper und die technischen Kommunikationsmedien aufeinander bezogen? Wissen – dies ist zunächst eine entscheidende Voraussetzung – kann nicht einfach von A 16 Castells 2001, S. 35. 17 Castells 2001, S. 78. – Vgl. zur Geschichte des Zusammenhangs von neurologischer Modellbildung und Medientechnik im 19. Jahrhundert Emden, Christian J.: „Epistemische Konstellationen 1800 – 1900. Nerven, Telegrafen und die Netzwerke des Wissens“, in: Barkhoff/Böhme/Riou 2004, S. 127-154. 18 Vgl. Breidbach, Olaf: „Innere Repräsentationen – oder: Träume ich meine Welt?“, in: Michael Fehr/Clemens Krümmel/Markus Müller (Hrsg.): Platons Höhle. Das Museum und die elektronischen Medien. Köln 1995, S. 208-229; ders.: Deutungen. Zur philosophischen Dimension der internen Repräsentation. Weilerswist 2001.

14

PETER GENDOLLA, JÖRGEN SCHÄFER

nach B übertragen, sondern immer nur wechselseitig von A und B konstruiert werden. Und dies ist eine Sisyphos-Arbeit, denn das wechselseitige Konstruieren ist grundsätzlich an Medien – und damit an Materialitäten – gebunden, in denen Informationen kommuniziert werden können. Das grundlegende und damit modellbildende dieser Medien ist die Sprache. Im menschlichen Kognitionsapparat entsteht Sprache als Resultat eines Prozesses der Verdichtung von komplexen intermodalen Wahrnehmungen zu symbolischen Zeichensystemen. Sprache ist damit, in den Worten des Linguisten Ludwig Jäger, die „semiologische Prozessform“19, die überhaupt erst den Bau von inneren mentalen Episoden ermöglicht und damit Gedanken zu strukturieren vermag. Diese Episoden können jedoch nur durch Kommunikationsakte, also wiederum durch in anderen Medien codierte Informationen, artikuliert werden. Um diese Semiose für kommunikative Prozesse im allgemeinen und somit auch für Wissensprozesse zu öffnen und räumlich wie zeitlich zu einer „TechnoSemiosis“20 auszudehnen, sind im Laufe der Mediengeschichte von der Lautsprache über die Schrift und den Buchdruck bis hin zu aktuellen Computersystemen die unterschiedlichsten Medien entwickelt worden, die wiederum je spezifische Vernetzungsformen hervorgebracht haben.21 So ist beispielsweise das typografische Informationssystem der Buchkultur an mehr gebunden als an die bloße technische Erfindung der Druckmaschine. Eine weitere entscheidende Voraussetzung war die Entstehung eines marktwirtschaftlichen Vertriebssystems, in dem das gedruckte Buch als Informationsspeicher ‚übertragen‘ wird. Auch die ‚Gutenberg-Galaxis‘ hatte also bereits Netzwerkcharakter, und auch in diesem Telekommunikationsnetz waren (und sind) die Akteure bereits rekursiv aufeinander bezogen, auch wenn die Rückkopplungen, die auf den Zirkulationsprozessen von Waren und Geld basieren, über unterschiedli19 Jäger, Ludwig: „Zeichen/Spuren. Skizze zum Problem der Sprachzeichenmedialität“, in: Georg Stanitzek/Wilhelm Vosskamp (Hrsg.): Schnittstelle. Medien und kulturelle Kommunikation. Köln 2001, S. 18f. 20 Jäger, Ludwig: „Sprache als Medium. Über die Sprache als audio-visuelles Dispositiv des Medialen“, in: Horst Wenzel/Wilfried Seipel/Gotthart Wunberg (Hrsg.): Audiovisualität vor und nach Gutenberg. Zur Kulturgeschichte der medialen Umbrüche. Wien 2001, S. 32. 21 In diesem Sinne sind übrigens alle Medien technische Medien, und zwar im Doppelsinn eines weiten Technikbegriffs (téchne) und eines engen Technikbegriffs (hardware). Und da in Medien immer Zeichen über räumliche Distanzen transportiert werden, sind genau genommen auch alle Medien – also auch die Lautsprache in der Face-to-face-Kommunikation – TeleKommunikationsmedien. Vgl. Winkler, Hartmut: „Mediendefinition“, in: MEDIENwissenschaft, Jg. 2004, Nr. 1, S. 9-27.

ZETTELKASTENS TRAUM

15

che Medien und damit wesentlich langsamer erfolgen.22 In diesem Netzwerk wurde Wissen weitgehend ohne unmittelbare Interaktionen zwischen den Akteuren vermittelt, weil Schreiben und Lesen räumlich und zeitlich deutlich voneinander getrennt waren. Schon ein solches Netzwerk setzt gemeinsame Standards und Codes voraus, und all jene, die sich diesen Standards nicht anzuschließen vermögen, werden ausgeschlossen. Dies können Individuen oder Unternehmen, aber auch ganze Gesellschaften sein.23 Und selbst auf der Basis gleicher Standards und Codes laufen unentwegt Prämierungsprozesse ab. Netze bilden nämlich keineswegs gleichmäßige Verteilungsstrukturen, sondern sie bevorzugen bestimmte Knoten, sog. ‚Hubs‘, über welche die Mehrzahl der aktiven Verbindungen läuft.24 Wann immer aus unterschiedlichen Knoten komplexe Netzwerke ‚gebaut‘ werden, entwickeln die sog. ‚Konnektoren‘– das sind Knoten mit einer ungewöhnlich hohen Anzahl an Links – eine starke Anziehungskraft, getreu dem biblischen Motto: „Wer hat, dem wird gegeben.“25 Offenbar gibt es im Moment der Verschaltung, Verbindung, Assoziation von Elementen zu Netzen – sofort, allmählich oder nach einer Weile – solche bevorzugten Knoten, die immer mehr Energien, Informationen oder Kommunikationen an sich ziehen und somit eine schließlich ganz unumgehbare Anziehungskraft ausüben. Dadurch wiederum werden unterschiedliche Ereignisse synchronisiert: Gleiche, nebeneinander aufgehängte Uhren ticken nach einer Weile vollkommen gleichmäßig im Takt, tausende Glühwürmchen blinken gleichzeitig, Photonen im Laser schwingen synchron, zehntausend Herzmuskelzellen oszillieren im Takt, Verbundnetzwerke (Wasser, Abwasser, Strom) und Kommunikationsnetzwerke müssen synchron geschaltet werden.26 Eine mögliche Erklärung wäre, die Synchronie als Austausch und Angleichung der Oszillationen der zu einem Netz zusammengeschlossenen Elemente zu verstehen, d.h. dass gleiche oder sehr 22 Vgl. Giesecke, Michael: Der Buchdruck in der frühen Neuzeit. Eine historische Fallstudie über die Durchsetzung neuer Informations- und Kommunikationstechnologien. Frankfurt/M. 1991, S. 406-419. 23 Castells 2001, S. 3. 24 Vgl. Barabási, Albert-László: Linked. The New Science of Networks. Cambridge, Mass. 2002, S. 55-64. 25 Als Beispiele für diesen besonderen ‚Magnetismus‘ können Web-Suchmaschinen wie Google, die Verteilerfunktion von Call Centern oder die Zitierzirkel im Wissenschaftsbetrieb dienen. 26 Steven Strogatz hat zahlreiche solche Synchronie-Phänomene quer durch Natur, Technik und Kultur gesammelt. Vgl. Strogatz, Steven: Synchron. Vom rätselhaften Rhythmus der Natur. Berlin 2004.

16

PETER GENDOLLA, JÖRGEN SCHÄFER

ähnliche Elemente sich wechselweise über Resonanzen beeinflussen und allmählich oder schlagartig in den gleichen Takt einschwingen.27 Diese Überlegungen könnten noch durch eine idée fixe Hans Blumenbergs ergänzt werden: die der Gleichzeitigkeit.28 Danach ereignen sich immer wieder ganz banale und bedeutende Geschehnisse gleichzeitig, wobei die ‚Bedeutsamkeit‘ überhaupt erst durch diese Gleichzeitigkeit von „persönlichem Akt und weltgeschichtlichem Ereignis“29 zu einem gemeinsamen Sinnhorizont entsteht bzw. konstruiert wird. Die genannten drei Konzepte – die Attraktion in Netzen (‚Hubs‘), die Herstellung von Synchronie über Resonanzeffekte und die Konstruktion von Sinn aus der Deutung von Gleichzeitigkeiten bzw. die Auffüllung der bloßen Koinzidenz in einer auf einen Telos gespannten Geschichte – können auch für eine Theorie der Wissensprozesse produktiv gemacht werden. Denn dadurch, dass kontingente Informationen zu (mehr oder weniger) sinnvollen Ereignisreihen zusammen gebunden und dann kommuniziert werden, entstehen allmählich dichtere Entwürfe, Muster oder Schemata, schließlich kanonische Modelle. Nun könnte man angesichts solcher allgemeiner Definitionen und Modelle den Eindruck bekommen, bei der Auseinandersetzung mit den Effekten von Netzen und Netzwerken stoße man ständig bloß auf Kontinuitäten, die bestenfalls einem langsamen und stetigen Wandel unterliegen, der jedoch die wesentlichen Positionen und Funktionen unverändert belasse. Man könnte die Argumentation also auf die Untersuchung der historischen Evolution von Infrastrukturen wie Verkehrs-, Versorgungsoder (Tele-)Kommunikationsnetzen, von Sozialstrukturen wie Familien, Gruppen (Vereine, Parteien, Verbände etc.), Gesellschaften etc. beschränken, die es zu allen Zeiten gegeben hat, und es bei zwei Ergebnissen belassen: erstens, dass Netze und Netzwerke nicht erst mit Computernetzen, schon gar nicht erst mit dem Internet in die Welt gekommen sind, dass also – ganz allgemein – Gesellschaft ohne Vernetzung nicht gedacht werden kann; und zweitens, dass biologische, soziale und technische Faktoren zu allen Zeiten und in allen Gesellschaftsformen aufeinander bezogen sind. Und da dies zweifellos richtig ist, könnte man auch 27 Unter Bezeichnungen wie ‚Ähnlichkeit‘ oder ‚Verwandtschaft‘ sind Resonanzen bereits in der Romantik (Novalis, Jean Paul, Friedrich Schlegel), von Walter Benjamin und dann sehr systematisch von Michel Foucault in Die Ordnung der Dinge prominent traktiert worden. 28 Vgl. Blumenberg, Hans: Arbeit am Mythos. Frankfurt/M. 1979; ders.: Lebenszeit und Weltzeit. Frankfurt/M. 1986. 29 Wiesler, Felix: „Gleichzeitigkeiten. Ein Paradigma der Sinnarchäologie Hans Blumenbergs“, in: Frankfurter Allgemeine Zeitung, 18.8.2004, S. N3.

ZETTELKASTENS TRAUM

17

getrost auf ein neues Gesellschaftsparadigma verzichten und damit unsere Fragestellung einfach vom Tisch wischen. Es müssen sich also weitere Argumente für die These finden, die computergestützten und vernetzten Medien zeigten einen Medienumbruch an, durch den sich die skizzierten Wissensprozesse so grundlegend ändern, dass wirklich von einem neuen Paradigma gesprochen werden muss. Unsere These lautet, dass mit der so genannten ‚Digitalisierung‘ den tradierten Mediensystemen wie dem Buchdruck oder den technischen Analogmedien ein revolutionäres – destruktives oder konstruktives – Ende gesetzt wird. Dies bedeutet zwar nicht, dass Bücher und Bibliotheken, Briefe und Telefonate einfach verschwinden. Es gibt jedoch mit digital codierenden Rechnern zumindest drei Aspekte, die näher beobachtet werden müssen, und zwar • einen epistemologischen: Das Universalmedium Computer integriert alle Medien, indem alle analogen – also auf irgendeiner Ebene ‚ähnlichen‘ – Codierungen ‚entleert‘ werden.30 Diese Übersetzung von analogen, in der Zeit gerichteten und parallelen, also raumzeitlichen Symbolisierungsprozessen mit rechnergestützten Medien in Elemente eines einzigen Elementarcodes bzw. in ‚qualitätslose‘ Zeiten, nämlich die Taktzeiten der Rechner und ihrer Übertragungsmedien, der Netze, bildet den virulenten historischen Schnitt, der die Rede von der ‚Netzwerkgesellschaft‘ motiviert (Universalität); • einen technischen: Die universellen Umcodierungen basieren auf technischen Implementierungen in Soft- und Hardware, die weitgehend automatisch ablaufen und sich nur bei Kenntnis und Änderbarkeit der Quellcodes beeinflussen lassen. Computer sind universell programmierbare Maschinen (Maschinisier-, Automatisier-, Programmierbarkeit); • einen temporalen: Die genannten Umcodierungen werden immer schneller, ihre ‚materiellen Ausprägungen‘ (Texte, Bilder, Filme, Musik etc.) emergieren auf unterschiedlichsten, global verbreiteten Plattformen nahezu in Echtzeit (Schnelligkeit).

30 Zur Kritik am oft sehr vagen Gebrauch der Unterscheidung analog/digital vgl. Schröter, Jens/Böhnke, Alexander (Hrsg.): Analog/Digital – Opposition oder Kontinuum? Zur Theorie und Geschichte einer Unterscheidung. Bielefeld 2004; Warnke, Martin/Coy, Wolfgang/Tholen, Georg Christoph (Hrsg.): HyperKult II. Zur Ortsbestimmung analoger und digitaler Medien. Bielefeld 2005 (im Erscheinen).

18

PETER GENDOLLA, JÖRGEN SCHÄFER

Als Folge dieser Umcodierungs-, Maschinisierungs- und Beschleunigungsprozesse lösen sich die tradierten Handlungsrollen auf bzw. geraten in neue Konfigurationen. Wichtig ist zunächst, dass die Kommunikation zwischen Privatpersonen oder Geschäftspartnern, zwischen Anbietern von Waren oder Dienstleistungen und ihren Kunden, zwischen Autoren und Lesern ebenso wie die Distribution von symbolischen Produkten, welche zuvor auf physischen Transport über Verkehr- und Postnetze angewiesen war, von Rechnernetzen übernommen wird. Doch damit wird nicht einfach ein Kommunikations- und Distributionskanal durch einen anderen ersetzt, der lediglich ein wenig effizienter ist – etwa so, wie das Autobahnnetz einen schnelleren Transport erlaubt als holprige Landstraßen. Entscheidend an der aktuellen Situation sind u.E. vielmehr zwei – noch immer häufig vernachlässigte – Beobachtungen der Kommunikationen in/mit computergestützten und vernetzten Medien, die zu den angesprochenen weitreichenden Verunsicherungen führen. Wir kommen damit auf Castells‘ These zurück, es sei eine grundlegende Eigenschaft von computergestützten Netzen, aus sich selbst heraus nicht programmierte Sequenzen hervorbringen zu können.31 Erstens muss man immer wieder darauf insistieren, dass in Computer-Netzen in die Kommunikationen symbolverarbeitende Maschinen integriert sind, welche, so Hartmut Winkler, in der Lage sind, „Signifikanten programmgesteuert automatisch zu prozessieren.“ Aus diesem Grunde stellen computergestützte Medien mehr als nur eine neue mediale Oberfläche für die Verständigungsprozesse bereit, von denen eingangs die Rede war. Computerprogramme haben „die zusätzliche Pointe, dass sie ihre Ausführung strikt präskribieren. Sie enthalten eine Anweisung, auf welche Weise Signifikanten permutiert werden sollen, und sie erlauben, dass diese Permutation automatisch, ohne weiteren Eingriff des Menschen, tatsächlich ausgeführt wird.“32 Unsere tradierte Vorstellung der Semiose, wie wir sie aus den so genannten ‚alten‘ Medien kennen, basiert auf einer notwendigen – wenn auch minimalen und nichtwahrnehmbaren – Zeitdifferenz: Jeder Codierung eines Sprachzeichens geht ein kognitiver Prozess voraus, und jede Kommunikation eines Zeichens folgt auf einen Codierungsvorgang. Semiotisch gesprochen: Signifikationsprozesse verlaufen von der Referenz zum Zeichen als Einheit 31 Castells 2001, S. 78. 32 Winkler, Hartmut: Medium Computer. Zehn populäre Thesen zum Thema und warum sie möglicherweise falsch sind, 2000. URL: http://www.uni-paderborn.de/~winkler/compmed2.html, 30.9.2004.

ZETTELKASTENS TRAUM

19

von Signifikat und Signifikant, und der Empfänger einer Botschaft kann die Referenz nur in der umgekehrten Richtung wieder re-konstruieren. Genau an dieser Stelle sorgen Computertechnologien für eine entscheidende Modifikation des Zeichenmodells, indem sie die Signifikanten bearbeitbar machen. Dadurch entstehen aus Algorithmen mögliche Realisationen oder gar Materialisationen, deren Referenz noch nicht bekannt ist bzw. erst noch gefunden werden muss.33 Mit dem Einsatz von Computern geraten also die tradierten Zeichenmodelle insgesamt ins Wanken – und mehr noch: alle davon abgeleiteten Konzepte wie ‚Sender‘, ‚Botschaft‘, ‚Empfänger‘ oder ‚Autor‘, ‚Werk‘, ‚Leser‘. Was als Ergebnis eines solchen für unsere Sinne nicht mehr wahrnehmbaren, vom Programmcode gesteuerten Prozessierens von digitalen Daten schließlich auf den Benutzeroberflächen erscheint, unterscheidet sich fundamental von den abgeschlossenen, in Speichermedien dauerhaft fixierten Objekten, wie wir sie aus Büchern oder von Tafelbildern, aber auch aus den technischen Analogmedien kennen. Stattdessen haben wir es mit flüchtigen Materialisierungen eines ergebnisoffenen Prozesses zu tun – mit kaum absehbaren Konsequenzen für die kollaborativen Verständigungsprozesse, über die Wissen generiert wird. Den Vertrauensverhältnissen, also einer entscheidenden Voraussetzung für Wissensprozesse, wird gleichsam der Boden unter den Füßen weggezogen. Zweitens muss das Verhältnis von Offline- und Online-Prozessen beachtet werden. Gewöhnlich dient die Netz-Metapher in Informatik und Medienwissenschaft der Beschreibung von Kommunikationen, bei denen mindestens zwei räumlich voneinander getrennte Computer miteinander in einer technischen Verbindung stehen. Winkler hat diese Modelle um die interessante These erweitert, der Computer, der ursprünglich ja lediglich eine Rechenmaschine war, habe deshalb zu einem Medium werden können, weil er „den Raum der Telekommunikation mit dem inneren Funktionieren der Maschine verschmilzt.“ Auch im Inneren jedes einzelnen Computers herrsche die Telegrafie, denn der Raum zwischen den einzelnen Computern und der Raum innerhalb eines Computers stimme strukturell immer schon überein: „Signifikanten werden hin und hergeschickt, gespeichert und prozessiert/permutiert. […] Computer sind nicht ein Medium, weil sie verkabelt sind, sondern es ist umgekehrt: weil er ein Kind der Te33 Vgl. Gendolla, Peter: „Zur Interaktion von Raum und Zeit“, in: ders./Norbert M. Schmitz/Irmela Schneider/Peter M. Spangenberg (Hrsg.): Formen interaktiver Medienkunst. Geschichte, Tendenzen, Utopien. Frankfurt/M. 2001, S. 19-38.

20

PETER GENDOLLA, JÖRGEN SCHÄFER legraphie ist, erzwingt der Computer die Verkabelung. Er zwingt dazu, seine innere Telegraphie an die äußere Telegraphie anzuschließen.“34

Damit weiten sich die entscheidenden Prinzipien von Computern – die programmgesteuerte Manipulation von Signifikanten und die instantane Rückkopplung – tendenziell endlos aus. Genau so wie im Stand-aloneRechner wird auch im World Wide Web jedem Datenbit ein singulärer adressierbarer Speicherort zugewiesen. Das Prinzip der „permanenten Mutabilität“35 wird globalisiert, und damit wird die Wissensproduktion – bzw. ganz konkret: die kollaborative Verständigung, das Aushandeln von Vertrauensverhältnissen – seinen Nutzern – als ‚Autoren‘ und ‚Lesern‘ – in einer ganz neuen Dimension überantwortet: Populäre Beispiele bieten die zahlreichen Weblogs oder die ‚freie Enzyklopädie‘ Wikipedia.36 Mit Aleida Assmann könnte man also von einem „Konsistenzwandel“ der Speicher- und Übertragungsmedien sprechen, mit dem die „Ära des materialen Schreibens überhaupt“ zu Ende gehe: „Hatte diese [Metaphysik der Schrift, PG/JS] mit ihrer beeindruckenden Langzeitstabilität in der westlichen Kultur den Willen zur säkularen Dauer hervorgebracht, so wird dieser derzeit von der fließenden Bewegung der digitalen Datenströme in Frage gestellt. Das Transhistorische ist vom Transitorischen eingeholt worden.“37

Als wären die angedeuteten Veränderungen nicht einschneidend genug, so zeichnet sich eine weitere Verschärfung dieser Irritationen ab: nämlich durch die rasch voranschreitende weitere Integration von Maschinen sowie von Objekten, die wir bislang als Alltagsgegenstände betrachtet haben, ja von biologischen Organismen, in diese computerbasierten Netzwerke. Dies deuten zumindest die Visionen einer totalen Vernetzung durch das ‚ubiquitous computing‘ an, von denen uns die heutige HandyNutzung nur eine vage Vorahnung vermittelt.38 Die Maschine-MaschineKommunikationen, also die nicht-menschlichen Anteile der Kommunikationen, weiten sich aus, und damit stellt sich die Frage, ob überhaupt und 34 Winkler 2000. 35 Chaouli, Michel: „Was bedeutet: Online lesen? Über die Möglichkeit des Archivs im Cyberspace“, in: Heinz Ludwig Arnold/Roberto Simanowski (Hrsg.): Digitale Literatur. München 2001, S. 65-74. 36 URL: http://www.wikipedia.org, 30.9.2004. 37 Assmann, Aleida: Erinnerungsräume. Formen und Wandlungen des kulturellen Gedächtnisses. München 1999, S. 411. 38 Vgl. Mattern, Friedemann: „Vom Verschwinden des Computers – Die Vision des Ubiquitous Computing“, in: ders. (Hrsg.): Total vernetzt. Szenarien einer informatisierten Welt. Berlin 2003, S. 1-42.

ZETTELKASTENS TRAUM

21

wenn ja, mit welchen Interface-Technologien wir sie beobachten können bzw. noch an ihnen teilhaben.39 In diesem prekären Sinne etablieren Computernetzwerke nicht nur technische Verbindungen zwischen Computern, sondern sie verändern auch die Verbindungen zwischen Nutzern – in allen sozialen Bereichen: in Wissenschaft und Bildung, in Politik und Militär, in Justiz und Wirtschaft und nicht zuletzt auch in den Künsten. Castells hat dies in die These gefasst, die Netzwerkgesellschaft zeichne sich durch eine ‚informationelle Entwicklungsweise‘ aus: Aktuell avancieren die Technologien der Informationsverarbeitung, der symbolischen Kommunikation und damit auch der Wissensproduktion zur entscheidenden Quelle der Produktivität von Gesellschaften: „Das Besondere an der informationellen Entwicklungsweise“, so Castells, sei „die Einwirkung des Wissens auf das Wissen selbst […]. In einem Circulus vitiosus interagieren die Wissensgrundlagen der Technologie und die Anwendung der Technologie miteinander zur Verbesserung von Wissensproduktion und Informationsverarbeitung.“40

39 Um ein brisantes Beispiel zu nennen: Am 30.9.2004 berichtete die Süddeutsche Zeitung über das Projekt ASSIST (Advanced Soldier Sensor Information System and Technolgy), das die Defense Advanced Research Projects Agency (DARPA) des amerikanischen Verteidigungsministeriums entwickelt, um eine umfassende Kontrolle über GIs im Kampfeinsatz zu erhalten. Dazu werden die Soldaten mit einem in ihre Kampfausrüstung eingebetteten Sensorsystem ausgestattet, das alle relevanten Daten an einen zentralen Server überträgt: „Gedacht ist ASSIST dann als ein zweistufiges System, das zum einen sämtliche Lebensimpulse und Wahrnehmungen seines Trägers übermitteln soll. Zum anderen soll es als ein von seinem Träger unabhängiger Automatismus eine eigene Situations- und Datenanalyse betreiben. Es soll eigenständig und lernfähig sein, soll selber Objekte klassifizieren und Freund-Feind-Muster erkennen. Man erwartet von ihm, dass es Wissen aufbaut und Erfahrung sammelt. Dass es also reift. Unabhängig von seinem Transport-Wirt, dem Soldaten.“ Graff, Bernd: „Und ewig loggt das Leben. US-Soldaten zu Informationsmaschinen: Das ASSIST-Projekt“, in: Süddeutsche Zeitung, 30.9.2004, S. 13. 40 Castells 2001, S. 17f.

22

PETER GENDOLLA, JÖRGEN SCHÄFER

Zu den Beiträgen dieses Bandes Welche Konsequenzen all dies für die weitere Entwicklung sozialer Systeme und ihre ex- oder impliziten Leitkonzepte hat, wie sich Machtverhältnisse und politische Gestaltungsspielräume transformieren, wie Wissensprozesse und regionale oder globale Ökonomien sich wechselweise neu beeinflussen, welche kulturellen Umbrüche bereits stattfinden oder noch zu erwarten sind, versuchen die Beiträge des Bandes in vier größeren Feldern zu eruieren. Das erste eröffnet mit Beschreibungen, Analysen und Thesen zu den Transformationen und Umbrüchen der gegenwärtigen Gesellschaften durch weltweit vernetzte, programm- und ‚Agenten‘gestützte Kommunikationen und den daran entlang sich ausbreitenden hochgradig rückgekoppelten Wissensprozessen. In einer dichten Skizze entwirft Wolfgang Coy das Bild einer zentrale Prozesse – von der industriellen Produktion über die Bürokratie bis hin zur Bildung – mit elektronischen Netzen verkoppelnden (Welt-)Gesellschaft, ihre zunehmende, keineswegs überschaubarer gewordene Abhängigkeit vom Netzmedium. Ohne auf einem der kurrenten Begriffe für diese postindustrielle Situation – ‚Informations-‘, ‚Wissens-‘ oder ‚Dienstleistungsgesellschaft‘ – beharren zu wollen, unterstreicht er die in ihren vor allem langfristigen und unumkehrbaren Wirkungen kaum zu unterschätzende Bedeutung der neuen Wissensformen. Ob als unmittelbare Produktivkraft, als direkte Ware, die nur mit den bekannten Verteilungsmustern, auch und besonders deren rechtlichen Absicherungen noch wenig zu tun hat, oder ob als in globalen Beobachtungssystemen operierende Kontrollinstanz: Wissen ist zu einem auf strengen Algorithmen aufsetzenden und geplante Objekte produzierenden, zugleich kontingenten, vollkommen ungeplante Innovationen generierenden, ganz unabsehbare Wege gehenden Prozess geworden. Durch viele der Beiträge des Bandes zieht sich diese Idee, dass die größere Berechenbarkeit von Dingen oder Vorgängen von einer noch größeren Unberechenbarkeit der resultierenden Ereignisse begleitet wird, dass sich die vernetzten Gesellschaften in einem radikal experimentellen Stadium befinden, in ‚Beta-Versionen‘, wie der Informatiker Coy das nennt. Der Literatur-, Kunst- oder Musikwissenschaftler würde wohl einfach von einem ästhetischen Zustand sprechen, von einem in dieser Form weder von den Künstlern noch Theoretikern unbedingt erwarteten Übergang der ‚Kunst ins Leben‘, dem Traum so vieler ästhetischer Avantgarden von der Romantik zum Surrealismus und darüber hinaus. Das beginnt bei den Verfahren der Wissensgewinnung, die von den rechnergestützten Medien bereit gestellt werden.

ZETTELKASTENS TRAUM

23

Uwe Wirth beschreibt, wie aus einer eher philosophischen und ästhetischen Denkform eine medientechnisch basierte Wissensform geworden ist. Er analysiert das auf den ersten Blick nur technische Verfahren der Dokumentenverlinkung als eine in neuronalen Assoziationsprozessen immer schon aktive Form der Wissensgewinnung, die sich bisher in sprachlichen Strategien und damit spielenden literarischen Verfahren artikuliert hatte, die mit oder in den neuesten Medien schließlich als soziotechnische Struktur externalisiert und befestigt wird. Wo die Literatur noch die Kunst der Abschweifungen, Fußnoten, Einschübe pflegte, Zettelkästen über Zettelkästen stapelte, haben sich inzwischen universell anwendbare Hyperlinkverfahren als Memorialstruktur etabliert. Dass das hierüber erzeugte und verteilte Wissen nicht einfach in ex- und implizites Wissen geteilt werden kann, wie es die ersten WissensmanagementEntwürfe vorschlugen, sich vielmehr in vielfache, ganz unterschiedlich funktionierende Wissensformen ausdifferenziert hat, setzt Manfred Faßler als Eingangsthese seiner Zusammenschau der Netzwerkgesellschaften. Im Zentrum der Überlegungen steht dann, wie diese transnationalen Operationseinheiten – statistisch gesehen handelt es sich immerhin um rund 80mal mehr als einzelne Nationalstaaten gezählt werden – ihre ökonomischen, politischen, rechtlichen, vor allem ihre Lernprozesse neu organisieren (auch organisieren könnten), wie vergleichsweise einfache Mensch-Maschine-Kopplungen gegenwärtig durch immer komplexere Mensch-Netzwerk-Interaktivitäten erweitert werden und soziokulturelle Felder umgebrochen und restrukturiert werden. Im letzten Beitrag dieses ersten Abschnitts bieten Gisela Hüser und Manfred Grauer dann die statistisch nachprüfbare Basis für viele der vorhergehenden und nachfolgenden Behauptungen zur zentralen Rolle der elektronischen Netze bei den avisierten Umbrüchen in globalisierten Gesellschaften. Am Beispiel der Verbreitung des Internets und des Mobilfunktelefons wird bis ins Einzelne aufgeschlüsselt, wie dicht in der Tat bereits die Durchdringung der Kulturen mit den neuesten Medien vorangeschritten ist, ob die Rede von der ‚digitalen Teilung‘ der Welt zu Recht geführt wird, wie die Einzelmedien zu einem großen multimedialen Systemverbund zusammenwachsen. Wie jedoch wird Wissen in einem solchen Systemverbund ‚gemanagt‘? Und welche Konsequenzen ergeben sich für Lehr- und Lernprozesse im Bildungssystem? Stefan Paal, Jasminko Novak und Bernd Freisleben gehen der Frage nach, wie Wissen in virtuellen Gemeinschaften kommuniziert und konstruiert werden kann. Ihre Argumentation verbleibt jedoch nicht im Theoretischen, sondern mündet in die Vorstellung

24

PETER GENDOLLA, JÖRGEN SCHÄFER

von Software-Werkzeugen sowie Methoden zur kollektiven Kontextualisierung von Inhalten und zur Entdeckung neuer Zusammenhänge in heterogenen Dokumentenpools. Dies reicht bis hin zu einer verteilten Software-Infrastruktur, die ein ‚nomadisches Wissensmanagement‘ unterstützen soll. Dass die (Weiter-)Entwicklung von Kommunikationsmodellen und effizienten Tools nach wie vor dringend notwendig ist, belegen Bernhard Nett und Volker Wulf mit einer empirischen Studie zu den Informations-, Kommunikations- und Qualifizierungsstrategien in kleinen und mittelständischen Unternehmen (KMU) der deutschen Softwarebranche. Dabei zeigt sich auch, dass Software Engineering in den untersuchten Unternehmen nur eine untergeordnete Rolle spielt, ja sogar auf starke Vorbehalte stößt, weil seine Intensivierung nicht auf die nötige Wertschätzung der Kunden trifft. Statt dessen setzen KMU in hohem Maße zum einen auf die individuelle, aber wenig systematische Weiterbildung von Mitarbeitern, zum anderen werden externe Berater zur Lösung von Einzelproblemen herangezogen. Dass angesichts der beschriebenen Umbrüche auch die tradierten Bildungssysteme unter Druck geraten, ist in Zeiten, in denen die PISAStudie und nachfolgende OECD-Untersuchungen zu Topmeldungen in der Tagesschau avancieren, keine Überraschung. Welche Konsequenzen aus der Bildungsmisere jedoch zu ziehen sind, und welche Rolle dabei den neuen Medien zukommen soll, darüber lässt sich bislang keine Einigkeit herstellen. Sigrid Schubert konstatiert denn auch eine große Lücke zwischen den hochgespannten Erwartungen und Anforderungen an netzbasiertes multimediales Lernen sowie der ‚real existierenden‘ Lernsoftware und dem tatsächlich zu beobachtenden Verlauf der Lernprozesse in der Unterrichtspraxis. Aus der Perspektive der Didaktik der Informatik plädiert sie für neue Lernarrangements, welche die jeweiligen Vorzüge von Präsenzveranstaltungen und E-Learning-Elementen zu kombinieren versuchen (‚Blended Learning‘). Empirische Studien zeigen, dass auf diese Weise die Lernprozesse offener gelegt und daher die Aktivitäten der Lernenden gezielter gefördert werden können. Es ist bereits mehrfach angedeutet worden, dass auch und gerade ökonomische Prozesse von den Auswirkungen des aktuellen Medienumbruchs berührt werden. Wolfgang König und Tim Weitzel gehen der grundlegenden Frage nach, wie verschiedene Akteure im E-Business am besten vernetzt werden können. Um Netzwerke von Nutzern herzustellen und Koordinationsprobleme zu lösen, müssen Standards etabliert werden. Computersimulationen des so genannten ‚Start-up-Problems‘ zeigen je-

ZETTELKASTENS TRAUM

25

doch, dass Ineffizienzen auftreten können – entweder weil Partnerentscheidungen falsch antizipiert werden, oder aber weil Akteure auftreten, deren Vernetzung aus zentraler Sicht zwar sinnvoll erscheint, die aber aus ihrer individuellen Perspektive Nachteile erleiden. König und Weitzel verweisen darauf, dass sich in vielen Fällen die Netzineffizienz durch Informationsintermediation lösen ließe, in anderen Fällen durch die Bildung von Konsortien, die gleichsam voranschreiten und Netzwerke bilden, an die sich später weitere Partner anschließen können. Verlässt man diese makroökonomische Perspektive und wendet sich innerbetrieblichen Kommunikations- und Wissensprozessen zu, so zeigt sich, dass effiziente Kommunikation in zunehmendem Maße zu einem erfolgskritischen Faktor geworden ist. In vielen Unternehmen in kommunikationsintensiven Branchen scheinen die Unternehmensleitungen allein in der technischen Bereitstellung von (Mobil-)Telefon, Fax, E-Mail und Internet eine hinreichende Bedingung für die effiziente Organisation von Kommunikation zu sehen. Thomas Kamphusmann weist jedoch nach, dass diese Sicht die wachsende Komplexität von Projektstrukturen unterschätzt. Vor diesem Hintergrund stellt er ein Kommunikationsmodell vor, das durch technische und organisatorische Maßnahmen eine effizienzorientierte Kommunikationsunterstützung im betrieblichen Umfeld zu gestalten versucht. Schon mehrfach war von dem Experimentierstadium die Rede, in dem sich die Netzwerkgesellschaften befinden, vom dynamischen Zusammenspiel technischer und kultureller Systeme. Der Ingenieur, Philosoph und Psychologe Robert Musil hätte wohl wieder von jenem „anderen Zustand“ gesprochen, mit dem er in seinem Roman Der Mann ohne Eigenschaften die Auflösung des Habsburgerreiches und den krisenreichen Übergang in eine auf (natur-)wissenschaftlichem Wissen basierte Gesellschaft benannt hatte. Dieser andere, im eigentlichen Sinne ästhetische Zustand scheint sich gegenwärtig auf neuem Niveau zu wiederholen, und wieder scheinen die Künste, ihre besonderen Formen der Wahrnehmung veränderter Kommunikationen, das Testfeld für die veränderten Verhältnisse von ‚menschlicher‘ und ‚maschineller‘ Wissensproduktion und -organisation, die genannten Mensch-Netzwerk-Interaktivitäten abzugeben. Dass etwa Musik unter den gegenwärtigen medientechnischen Bedingungen endgültig nicht mehr nur als bloße Unterhaltung begriffen werden kann, vielmehr ganz im Sinne der angesprochenen Prozesse als Wissen, das durchaus an vorderster Front die unabsehbaren Möglichkeiten rechnergestützter vernetzter Medien durchspielt, macht Rolf Großmann deutlich. Am Beispiel der Transformationen der Audio-

26

PETER GENDOLLA, JÖRGEN SCHÄFER

archive, vor allem an der Analyse der Konsequenzen digitaler Codierungsverfahren für die musikalische Praxis – und das gilt mit den entsprechenden Differenzierungen für jede ästhetische Praxis – wird die von keiner Copyright-Initiative mehr blockierbare Öffnung, Manipulierbarkeit, radikale Transformation des tradierten Musiksystems in ein ‚Processing‘ aller seiner Formen nachgezeichnet. Hatte Marcel Duchamp noch die Ästhetisierung von Alltagsobjekten im Ready-made betrieben, realisieren – oder virtualisieren? – (Extended) Sampling, Remix und Reburn die Neukombination aller kulturellen ‚Materialien‘. Wo die GEMA noch nach der nichtlizenzierten Kopie von drei Noten fahndet, bildet sich in den Open Source-Gemeinden ein im wörtlichen Sinne unbezahlbares Wissen um die Unabschließbarkeit der Artefakte. Otto Neumaier schließlich unterzieht im Lichte künstlerischer Entwicklungen von der klassischen Avantgarde zu gegenwärtigen Installationen, Projekten, konzeptuellen oder ‚immateriellen‘ ästhetischen Ereignissen den über Jahrtausende, zumindest seit Aristoteles definitiv an die Kunst gebundenen Werkbegriff einer kritischen Revision. Er beschreibt die Geschichte eines Missverständnisses: Dass alle Kunst immer auf ein Werk ziele, heiße noch lange nicht, dass dieses notwendig an eine ‚materielle Realisation‘ gebunden sei. Im Gegenteil: Zuallererst sei es eine besondere Form der Wahrnehmung oder eines besonderen Denkens von Wahrnehmung, ein kognitiver Prozess, und das Werk konsequenterweise nicht materielle Repräsentanz, sondern Medium dieses Prozesses. Als solches entwickelt es sich auch immer als kommunikativer Prozess, macht die Kommunikationen über die ästhetische Wahrnehmung zum Gegenstand. Insofern bilden die mit vernetzten Medien entwickelten Prozesse kein vollkommen neues Thema der Kunst, assoziative, flüssige, nur momentan greifbare Ereignisse liefern längst ihre authentischen Impulse. Mit den gegenwärtigen Medien wird die Kunst mit diesem besonderen Wahrnehmungsverhalten allerdings aus dem Arkanum des traditionellen Kunstsystems ins offene Feld gezogen, auf Gedeih und Verderb den dort herrschenden ökonomischen, politischen oder institutionellen Energien ausgesetzt, mit denen ganz altes oder sehr neues Wissen in Macht umzusetzen versucht wird. Ob es ihr gelingt, diese Prozesse tatsächlich mit ‚interesselosem Wohlgefallen‘ wahrnehmbar zu machen, oder ob sie sich als Kunst einfach auflöst, weil die Wissensprozesse in der Netzwerkgesellschaft insgesamt zu ästhetischen Prozessen werden, bleibt abzuwarten.

ZETTELKASTENS TRAUM

27

Die meisten Beiträge dieses Bandes basieren auf einer Konferenz, die im Dezember 2003 im Rahmen des Kulturwissenschaftlichen Forschungskollegs Medienumbrüche an der Universität Siegen stattgefunden hat. Wir danken der Deutschen Forschungsgemeinschaft und der Universität Siegen für ihre Unterstützung. Unser besonderer Dank gilt Maik Pluschke für seine Arbeit an Redaktion, Gestaltung und Satz dieses Bandes.

NETZWERKE

WOLFGANG COY

INTERNETGESELLSCHAFT – VERSION 0.9 BETA Dass etwas geschieht, ist unbestritten. Was geschieht, wird allerdings sehr verschieden interpretiert. Spätestens mit dem zielgerichteten Einsatz industrieller Organisationsformen in der Großforschung beim Manhattan-Projekt und bei der Raumfahrt trat die industrielle Produktion in eine neue Phase. Forschungsergebnisse und ihre technische Umsetzung erwiesen sich als planbar, die Produktion wurde ‚verwissenschaftlicht‘. Solche Prozesse waren nicht völlig neu, vor allem in der chemischen Industrie war dies schon von Beginn an angelegt, aber die Planbarkeit des Fortschritts wurde besonders mit dem Flug zum Mond Ende der sechziger Jahre sichtbar. Die Computerindustrie hat von diesen Prozessen (und ihrer militärischen Finanzierung) enorm profitiert. Umgekehrt hat der Computereinsatz die Planbarkeit vieler Bereiche erlaubt – mittels Massendatenverarbeitung, Simulation, Modellierung, Operations Research, Spieltheorie und deren programmierter Umsetzung. Als erster hat Alain Touraine 1969 einem breiteren Publikum diese Verschiebungen der industriellen Produktion zu einer forschungs- und wissensgeleiteten Planung in La société post-industrielle1 dargelegt. ‚Postindustriell‘ soll der Name der Gesellschaftsformationen jenseits der Industriegesellschaft sein. In Frankreich deutet sich dieser frühe Umbruch durch die staatlich gesteuerte planification an, in den ,realsozialistischen‘ Länder entsprachen dem die Fünfjahrespläne, und in den USA wurden technologische Entwicklungsvorgaben entlang des Raketenprogramms mit dem Zehnjahresprogramm der NASA erprobt: „I believe we should go to the Moon.“2 Kybernetische Steuerung scheint zum 1 Touraine, Alain: La société post-industrielle. Paris 1969. 2 ,,If we are to win the battle that is now going on around the world between freedom and tyranny, the dramatic achievements in space which occurred in recent weeks should have made clear to us all…“ John F. Kennedy: A Special Address to Congress On The Importance of Space, 25. Mai 1961.

32

WOLFGANG COY

Element dieser postindustriellen Gesellschaften zu werden – später wird der radikal liberalisierte Markt zu ihrem Kennzeichen. Beides sind Versuche, den technisch induzierten Umbruch der Produktionsweise zu verwalten. Der Soziologe Daniel Bell erklärt 1973 The Coming of a PostIndustrial Society3, was vorsichtigerweise nur ausdrückt, dass sich etwas verändert, dass etwas ,heraufzieht‘. Bell schlägt zwei weitere Bezeichnungen in seinem vielzitierten Werk vor: ,Wissensgesellschaft‘ und ,Dienstleistungsgesellschaft‘. Während die Letztere die Abnahme des Produktionssektors an der Arbeitsverteilung beschreibt, soll die Erstere die wachsende Bedeutung der Forschung und der akademischen Ausbildung in der Gesellschaft betonen. Beides lässt sich statistisch untermauern – von 1973 bis heute und in allen industriellen Gesellschaften. Populäre Missverständnisse sind damit freilich vorprogrammiert. Keine Gesellschaft kann allein vom Wissen leben, und ein relativer Anstieg des Dienstleistungssektors kann mit wachsender Arbeitslosigkeit zusammenfallen. Touraine und Bell beschrieben Tendenzen, keine politischen Lösungen. Das Anwachsen des Dienstleistungssektors scheint, vor allem durch die Rationalisierung der Produktion und nun auch des Büros, eine Zunahme der Arbeitslosigkeit zu erzwingen – die wiederum eine Zunahme der Arbeitslosen- und Sozialversicherung, also der Lohnnebenkosten, bewirkt und so ein weiteres Motiv zur Rationalisierung wird. Eine solche Entwicklung bietet keine Aussicht auf Vollbeschäftigung. Die Abnahme der Lohnarbeit wird zum auffälligen Kennzeichen der Informationsgesellschaft, der Wissensgesellschaft, der Dienstleistungsgesellschaft oder wie immer der postindustrielle Übergang dereinst genannt werden wird. Begleitet werden diese Auflösungstendenzen der Industriegesellschaft durch Prozesse der Globalisierung, der globalen Finanz- und Handelsströme, der stetig anwachsenden telekommunikativen Vernetzung, der weltweiten Touristik ebenso wie durch erweiterte geopolitische Interventionsansprüche. Objektiv hat sich an Touraines und Bells Analyse nur wenig verändert, auch wenn die öffentliche Wahrnehmung nach einer Phase gespannter Aufmerksamkeit in den Neunzigern nun in eine eher ‚reserviert‘ zu nennende Haltung übergegangen ist. Verwunderlich ist dies eigentlich nicht, denn viele erfolgreiche Innovationsprozesse haben schon die Phasen kurzfristiger Überschätzung über mittelfristige Enttäuschungen bis zu 3 Bell, Daniel: The Coming of Post-Industrial Society: A Venture in Social Forecasting. New York 1973.

INTERNETGESELLSCHAFT – VERSION 0.9 BETA

33

langfristigen Umbrüchen durchlaufen. Enttäuschungen hat es in den letzten drei Jahren hinreichend gegeben – vom dot.com-Sterben über die bescheidenen Erfolge der „Schulen-ans-Netz“-Initiative bis zu den fehlenden Durchbrüchen globaler E-Learning-Strategien – begleitet mit einer weltweiten Rezession und wachsender Arbeitslosigkeit nicht nur in Deutschland. Dem stehen freilich auch solide Wachstumszahlen entgegen, die nicht nur auf der subjektiven Wahrnehmung wachsender IT-Durchdringung fußen. So geben 7 % repräsentativ befragter Mittelständler an, komplette Geschäftsprozesse über die Unternehmensgrenze hinaus mittels Internet abzuwickeln, 17 % betreiben einen Onlineshop. Vor drei Jahren waren es erst 2 % bzw. 7 %.4 Das sind zwar noch kleine Zahlen gegenüber der privaten Nutzung5, aber sie zeigen einen klaren, ungebrochenen Trend im zentralen Bereich der IT-Nutzung. Freilich wird die gesellschaftliche Entwicklung nicht nur von den Bewegungen ihrer technischen Basis bestimmt, aber erfolgreiche technische Entwicklungen verändern die ökonomischen, rechtlichen und politischen Formen und Regeln. Die derzeit bestimmende technologische Veränderung konzentriert sich auf Digitalisierung, Computer, Software, Multimedia und Netze. Die Rechnerentwicklung hat der Industriegesellschaft bislang drei Schocks versetzt. In den ersten drei Dekaden nach dem Zweiten Weltkrieg haben die Mainframes Verwaltung, Handel und Produktion umgestülpt. Seit 1981, als die IBM den Mikrorechner auf ihren Namen taufte, sind die PCs auf den Schreibtischen und in den Wohnungen zum ubiquitären Statussymbol geworden. Die von vielen ehrfürchtig erwartete Niederkunft Künstlicher Intelligenz blieb zwar aus, aber der Durchgriff digitalisierter Medien bis in die Wohnstuben und Kinderzimmer kann beobachtet werden – mit offener Zukunft. Seit den Neunzigern wachsen PCs erkennbar über sich hinaus. Die Vermählung von Informatik und Telekommunikation findet ihren sichtbaren Ausdruck im Internet, das wiederum seinen sichtbaren Ausdruck im WWW findet. Parallel dazu wird das Telefon zum persönlichen Anhängsel, Funknetze verbinden über Bluetooth und Wi-Fi/WLAN die nun tragbaren Computer miteinander und mit dem Internet. 4 ,,Internet und E-Business und Mittelstand“, TechConsult-Studie im Auftrag von IBM und Impulse über 1.008 Formen mit 10 bis 1.000 Mitarbeitern in Industrie, Handel, Dienstleistungsgewerbe, Frühjahr 2003. 5 Laut einer Emnid-/D21-Umfrage mit 30.000 Befragten sind 2003 mehr als die Hälfte der Deutschen „online“. URL: http://www.nonliner-atlas.de, 15.9.2004.

34

WOLFGANG COY

Antriebsstoff all dieser neuen Hardware ist die Software. Doch deren Zukunft ist viel schwieriger vorhersehbar als die Zukunft der Hardware. Noch jedes Jahr hat überraschende neue Anwendungen gebracht. Eine Wundertüte oder eine Büchse der Pandora – je nach Sichtweise, denn Innovationsfreude paart sich auch in der Programmierung nicht zwingend mit Nützlichkeit, Benutzerfreundlichkeit und Zuverlässigkeit. Halten wir fest: Der Point of no return ist für die industrielle Gesellschaft technisch überschritten. Der ,fünfte Kondratieff-Zyklus‘ ist in voller Entfaltung, und die Produktionsweise wird auch ökonomisch, politisch, rechtlich zu einer anderen, einer ‚nachindustriellen Gesellschaft‘. Es geht dabei wohl nicht nur um eine weitere Phase der Industriegesellschaft – wir scheinen uns mitten in einem grundsätzlicheren, längerfristigen Umbruch zu befinden. Kondratieff-Zyklen dauern typischer Weise 50-55 Jahre. Der jetzige Umbruch scheint tiefer zu gehen – schließlich ist der Computer schon 1936 erfunden worden, und seine industrielle Nutzung beginnt in den Fünfzigern. Wir beobachten wohl etwas grundsätzlich Neues. Auf Grund ihrer informatischen und informationstechnischen Basis ist es nicht abwegig, von einer Informationsgesellschaft zu reden, auch wenn dies nicht in allen Aspekten der Komplexität der Veränderungen gerecht wird. Doch auch jede andere Benennung ist ungenau und unzureichend, und alle Begriffe verlieren im Fortgang der Entwicklung ihre Unschuld. Nur wegen dieser Biegsamkeit können sie als Projektionsflächen dienen und in unterschiedlichsten, konkurrierenden Bereichen eingesetzt werden – auf Kosten präziser Benennung. ,Information‘ wird zum Rauschen der Daten; ,Informationen‘ bieten auch die Unterhaltungssendungen, die sich als ,Nachrichtensendung‘ (‚Infotainment‘) tarnen. ,Wissen‘ ist nicht nur das akademisch destillierte Forschungswissen mit präzisen Geltungsansprüchen, sondern beliebiger Content der Medien. ,Kommunikation‘ ist nicht nur der verantwortungsbewusste Diskurs; zur Kommunikation dient auch das Handy mit allem öffentlich vorgetragenen privaten Geschwätz und polyfonen Klingeltönen. Beharren wir also auf dem schlechten Namen ,Informationsgesellschaft‘, wenn andere Worte wie ,Wissensgesellschaft‘, ,Dienstleistungsgesellschaft‘ oder ,postindustriell‘ auch nicht besser passen. Der derzeitige Stand der Informationsgesellschaft gleicht freilich einer Betaversion eines Betriebssystems: Nachdem wir uns an der Featureliste berauscht haben, sind die Vorteile bislang nur in Umrissen sichtbar, die Nachteile beginnen aber schon handfest zu werden. Und viel

INTERNETGESELLSCHAFT – VERSION 0.9 BETA

35

Vertrautes muss erst angepasst werden, um die Qualitäten der alten stabilen Version wieder zu erreichen. Und wahrscheinlich brauchen wir eine neue Hardware, um die Vorteile einst wirklich nutzen zu können.

Wissen Auch das Wort ,Wissen‘ ist eine schillernde Benennung, die ihre widersprüchliche Konkretisierung mit dem Fortgang der Informationsgesellschaft erfährt. Neben den rein technischen Verengungen in der Informatik, bei den ,wissensbasierten Systemen‘ oder dem ,Wissensmanagement‘ sind es zumindest drei Aspekte, in denen ,Wissen‘ als Teil der Informationsgesellschaft politisch sichtbar wird. Zum einen zeigt es sich in der wachsenden Rolle von Forschung und akademischer Ausbildung in Produktion und Verwaltung, dann in der Frage nach dem Warencharakter wissenschaftlicher Erfindungen und anderem ,geistigen Eigentum‘ und schließlich im Wissen des Staates und der Industrie über die Bürger. Alle drei Aspekte sind nationale und internationale Konfliktbereiche geworden. Die Informationsgesellschaft zeigt bereits reale Klauen und Zähne. Unter diesem Eindruck der wachsenden Bedeutung von Wissen wird gelegentlich der Name ,Wissensgesellschaft‘ verwendet, doch Informationsgesellschaft und Wissensgesellschaft sind zwei einander nicht ausschließende Beschreibungen der gleichen Verschiebungen der Industriegesellschaft zu einer postindustriellen Form. Es geht nicht um den Namen, es geht um die zugrunde liegenden Prozesse: a)

Wissen als unmittelbare Produktionskraft: Ein wesentliches Kennzeichen der postindustriellen Gesellschaft ist die Akademisierung der Produktion und anderer Bereiche sowie die wachsende Bedeutung der schnellen Umsetzung von Forschungsergebnissen in technische Produkte und Prozesse. Diese Vorstellung gilt für alle entwickelten Industriegesellschaften. Auch im ,realen Sozialismus‘ wurde von Wissen als unmittelbarer Produktivkraft gesprochen; dies gilt ebenso in den kapitalistischen Gesellschaften. Im Gefolge wird (Aus-)Bildung gleichfalls zur unmittelbaren Produktivkraft. Die hoffnungsvolle Idee dabei ist, dass bessere Ausbildung letztlich produktiv wirkt und die Fülle neuer Erfindungen und Entwicklungen mag diese Auffassung bestätigen. Auch die wachsende Selbstverantwortung, die mit besserer Ausbildung verbunden ist, deutet eine mögliche Verbesserung des Gesamtzustandes des Gemeinwesens an – wenn da nicht Max Webers mahnende Stimme durchklänge, die

WOLFGANG COY

36

uns auf die Bürokratisierung und das Mandarinwesen hinweist. Eine rein technische Ausbildung bleibt mangelhaft. Ausbildung braucht hinreichende Bildungsaspekte, um eine offenen Entwicklung zu unterstützen. b) Wissen als Ware: Nicholas Negroponte führt in seinem Buch Being Digital6 die Unterscheidung ,,Bits vs. Atoms“ als neues ökonomisches Merkmal ein. Während die bisherige Warenproduktion im wesentlichen Atome, also Güter stofflicher Art erzeugt, umwandelt und verkauft, treten in der Informationsgesellschaft Bits, also immaterielle Güter an ihre Seite: Literatur, Musik, Bilder, Filme, Computerprogramme, Daten, Informationen, Medienprodukte. Auch der Dienstleistungssektor handelt mehr und mehr mit Bits (nämlich Kenntnissen und Wissen). Für die Ökonomie ist dies ein gewaltiger Schritt, denn Bits sind einfacher als Atome zu speichern, zu kopieren und zu übertragen. Anders als materielle Güter lässt sich Wissen abgeben, ohne es zu verlieren, und eine Gesellschaft wird reicher, indem sie das Wissen breit verteilt. Die Wirtschaft wandelt sich in dieser Hinsicht von der Mangelverwaltung der stofflichen Güter zum Überfluss des digital gespeicherten Wissens – nicht ohne die vertraute Ökonomie radikal in Frage zu stellen.

Von Atomen zu Bits Wie kann also dieser Shift von Atomen zu Bits in unserer bestehenden Ökonomie und ihrem Rechtssystem aufgefangen werden? Möglicherweise gar nicht. Dennoch brauchen wir Übergänge. Das bisherige Vorgehen besteht in einer radikalen Unterordnung des Neuen unter das Alte – Vertragsrecht, Eigentumsbegriff, Strafrecht. Während das römische Recht kein Eigentum an geistigen Dingen kennt (wohl aber die Kategorie des Gemeineigentums – auch an der Kultur), sind Urheberrecht, Patentrecht, Markenrecht zu Schwerpunktfragen internationaler Verträge bei WTO, WIPO, G8 usw. geworden. Patente gewähren auf Antrag eine jährliche Schutzfrist, die bei steigenden Gebühren bis auf zwanzig Jahre erweitert werden kann. Damit sollte ein Kompromiss zwischen dem Schutz der Erfinder und ihrer Investitionen und dem Recht der Öffentlichkeit auf technischen Fortschritt gestaltet werden. Drei Eigenheiten des Patentrechts verhindern, dass es zum universellen Mittel der Steuerung geistigen Eigentums wird: Es gilt 6 Negroponte, Nicholas: Being Digital. New York 1995.

INTERNETGESELLSCHAFT – VERSION 0.9 BETA

37

nur für technische Artefakte und Prozesse, es setzt eine gewisse geistige Leistung voraus, und es muss explizit beansprucht werden. Doch dies sind keine ehernen Grundsätze. So wird der Geltungsbereich peu à peu ausgedehnt, etwa auf gentechnisch veränderte Pflanzen oder auf organisatorische Verfahren, Algorithmen und Software. Die EU erarbeitet derzeit im Nachgang zur US-amerikanischen Praxis an einer Richtlinie für Softwarepatente – einem sehr umstrittenen Bereich, dem bislang die Schutzwürdigkeit durch das Patentrecht abgesprochen wurde. Es fällt schwer, die Kompromissfunktion zu erkennen, wenn man etwa an das US-Patent für Amazons „OneClick-Funktion“ denkt oder an das gegen eBay durchgesetzte „Buy-it-now-Patent“, wo eine hinreichende Erfindungshöhe schwer erkennbar ist oder an das GIFFormat7, dessen Schutzfrist gerade ausläuft, wo nach der jahrelang durch CompuServe induzierten ubiquitären Verwendung plötzlich eine Lizenzierung verlangt wurde, die eher ein Fortschrittshemmnis darstellte. Die kürzlich erfolgte Patentierung einer ZIP-Variante durch PKZip deutet ähnliche Verwirrungen an – nämlich die Zerstörung eines eingeführten Austauschstandards, dessen Bedeutung eben nicht in seiner technischen Leistung liegt, sondern in seiner allgemeinen Akzeptanz. Für die OpenSource-Bewegung, die sich als ein Hauptziel die Schaffung frei verfügbarer, funktional äquivalenter Software wie z.B. Linux gesetzt hat, kann die Einführung von Softwarepatenten zum innovationszerstörenden Desaster werden.8 Tatsächlich haben sich Patente heute eher zu einem Zahlungsmittel zwischen Konzernen und einem Spielball von Juristen entwickelt, so dass die Frage nach der Wiederherstellung ihres ursprünglichen Zweckes gestellt werden muss. Am anderen Schutzwall für geistiges Eigentum, dem Urheberrecht, wird allerorten gebastelt. Zwar ist die Schutzbehauptung, hier würden Urheber geschützt, kaum noch haltbar9, aber die Verankerung seiner Umgehung im Strafrecht und die stete Erweiterung der Schutzdauer im letzten Jahrhundert demonstriert, dass es hier tatsächlich um das Eigentumsrecht des 21. Jahrhunderts geht. Auch hier sind die ursprünglichen Ideen, Anerkennung der Autorenschaft, Schutz der Drucker und Verleger, aber auch Hebel zur Zensur, längst durch andere Interessen überla7 Das Patent gehört Univac, aber CompuServe hat dieses Format zu einer Art ‚Industriestandard‘ werden lassen. Heute ist dieses 8-bit-Format eher bedeutungslos. 8 Grassmuck, Volker: Freie Software zwischen Privat- und Gemeineigentum. Bonn 2002. 9 ...und das verwandte Copyright hat dies konsequenterweise auch nie in den Vordergrund gestellt.

38

WOLFGANG COY

gert. Der aktuelle Prozess ,,SCO gegen IBM“ um bislang nicht näher benannte Codezeilen in der Multiprozessorversion von IBM-Linux belegt dies deutlich. SCO verlagert sein Geschäftsfeld mit Hilfe einer Microsoft-Beteiligung von 150 Mio. US-Dollar auf Prozesse und schüchtert alle Linux-Nutzer ein, wobei gleichzeitig die Gültigkeit der (vorher vom Kläger SCO selber beanspruchten) GNU Public Licence bestritten wird. Nun sind ,,Fear, uncertainty and doubt“10 Techniken, mit denen alle mittelbar und unmittelbar am Prozess Beteiligten bestens vertraut sind, doch lässt sich vom ursprünglich angelegten Kompromissgedanken des Urheberrechts und des Copyrights, nämlich dem Ausgleich zwischen der Innovationskraft der Autoren und dem Recht der Öffentlichkeit auf Teilhabe an der kulturellen Produktion nach Ablauf einer Schutzfrist, nichts mehr ahnen. Diese Konflikte um das ,geistige Eigentum‘ zeigen, dass sich Wissen nicht leicht in die privatwirtschaftliche Ordnung einfügen lässt. Es wird in erheblichem Umfang mit öffentlicher Finanzierung produziert und, zumindest soweit es wissenschaftliche Forschung oder Bildung betrifft, auch überwiegend frei verteilt.11 André Gorz sieht das sogar als inhärentes Merkmal der modernen Wissensproduktion: ,,[Wissen] verlangt, als Gemeingut behandelt und von vornherein als Resultat gesamtgesellschaftlicher Arbeit betrachtet zu werden. Denn seine Privatisierung beschränkt seinen gesellschaftlichen Nutzwert.“12

Wissen zur Überwachung und Kontrolle Der digitalen Überflussgesellschaft beliebig kopierbarer und verteilbarer Bits steht seit langem die düstere Kombination von Überwachungsfernsehen, Datensammeln und Bürokratie gegenüber. Apple führte 1984 den Macintosh mit einem Aufsehen erregenden Fernsehspot zum Superbowl ein: ,,And you‘ll see why 1984 will not be like ,1984‘!“ Spätestens seit dem 11. September 2001 sind Zweifel an solchem Optimismus angebracht. Offensichtlich wird dies bei der US-Regierung, die mit dem Department of Homeland Security in großer Offenheit ein ,Newspeak‘ Orwellschen Typs für ihre neue Behörde gewählt hat. Ähnliche Fantasien 10 Vgl. Pflüger, Jörg-M.; Purgathofer, Peter: „FAQ: Microsoft.“ In: Alexander Roesler/Bernd Stiegler (Hrsg): Microsoft – Medien, Macht, Monopol. Frankfurt a. M. 2003. 11 Vgl. Spinner, Helmut: Die Wissensordnung. Opladen 1993. 12 Interview mit André Gorz in der taz vom 16./17.8.2003 zu seinem Buch L‘immateriel, connaissance, valeur et capital. Paris 2003.

INTERNETGESELLSCHAFT – VERSION 0.9 BETA

39

sind ebenso in Deutschland feststellbar, und die Geschwindigkeit, mit der selbst liberale Politiker die Überwachungspotenziale der digitalen Technik umsetzen wollen, wird fast nur noch durch die Unzuverlässigkeit und Mängel einiger dieser Techniken gebremst. Diese Bremswirkung kann bei der Einführung biometrischer Merkmale zur Zugangskontrolle oder bei Ausweisen gut verfolgt werden, aber die technischen Mängel müssen nicht auf Dauer bleiben. Bürgerrechte, die persönlichen Freiheitsrechte, sind Kernbestand unserer Verfassung. Sie unterliegen dauernder Herausforderung durch die technischen und organisatorischen Entwicklungen. Während das Datenschutzrecht akzeptable Kompromisse im Umgang mit Großrechnern erreicht hat, erliegen seine Fortschreibungen den Problemen des Internets, der weltweiten Datenkommunikation, der enormen Zunahme des Datenverkehrs und einem veränderten Sicherheitsbewusstsein staatlicher Stellen. Das Recht auf informationelle Selbstbestimmung muss aber auch unter diesen Bedingungen der Informationsgesellschaft neu bestimmt werden. Die aktuelle Gesetzgebungspraxis, wie z.B. beim Polizeigesetz in Thüringen oder den entsprechenden Entwürfen in Niedersachsen und Rheinland-Pfalz, geht freilich in eine andere Richtung mit dem Ziel der ungehinderten Überwachung von Wohnung und Telekommunikation13 – wie weit das noch mit den Artikeln 10 GG und 13 GG vereinbar ist, wird man prüfen müssen. Auch das ist schon Praxis der Informationsgesellschaft. Neben der Notwendigkeit, diese Fragen immer wieder in die öffentliche Diskussion zu bringen, gibt es technische Ansatzpunkte wie anonyme Webproxies (z.B. Java Anon Proxy – JAP) oder Verschlüsselungen im Datenverkehr (z.B. GNU Privacy Guard – GnuPG). Kryptografie ist einer der wenigen Bereiche, wo mit technischen Mitteln Bürgerrechte und die Freiheit geschützt und gegenüber dem jetzigen Zustand sogar erweitert werden können. Es gibt keine technischen oder ökonomischen Hindernisse, um Telefon- und Datenverkehr zumindest auf den Leitungen sicher zu gestalten, nämlich zu verschlüsseln. Und es wäre ein riesiger Schritt in die richtige Richtung, wenn alle übertragenen Daten wenigstens durch einfache Kryptoverfahren geschützt würden.

13 Sendung „Monitor“ vom 7.8.2003 (WDR-Fernsehen).

40

WOLFGANG COY

Innovation mittels Masterplan und ,,by serendipity“ Wenn man die Interpretation der modernen Gesellschaften anhand ihrer Produktivkräfte nicht aufgeben will, so lohnt es, die Quellen der technischen Innovation näher zu betrachten. Die erste Phase der industriellen Revolution wird gerne mit dem mächtigen Prime Mover, der Wattschen Dampfmaschine, verbunden. Die Spinning Jenny, die die Textilindustrie revolutionierte, wäre wohl eine bessere Charakterisierung. Ihr trat der maschinengetriebene Webstuhl des Reverend Edmund Cartwright zur Seite – erfunden von einem optimistischen Bastler14: ,,Als ich im Sommer 1784 in Matlock war, traf ich zufällig einige Herren aus Manchester und bald drehte sich das Gespräch um Arkwrights Spinnmaschine. Einer der Anwesenden bemerkte, sobald Arkwrights Patent abliefe, würden so viele Spinnereien errichtet und so viel Baumwolle gesponnen, dass nicht genug Arbeitskräfte für das Weben gefunden werden könnten. Ich entgegnete, dass Arkwright dann seinen Geist anstrengen und eine Webfabrik erfinden müsse. Diese Antwort führte zu einer Diskussion über das Thema und die Herren aus Manchester waren einmütig der Meinung, dass eine solche Erfindung unmöglich sei. Zur Verteidigung ihrer Ansicht führten diese Argumente an, die ich nicht widerlegen oder auch nur verstehen konnte, da mir das ganze Thema gänzlich unbekannt war und ich niemals einen Weber bei der Arbeit gesehen hatte. Ich bezweifelte jedoch die angebliche Undurchführbarkeit der Sache, indem ich darauf hinwies, dass vor kurzem in London eine automatische Figur ausgestellt war, die Schach spielte.“15

Auch die nachfolgenden Agenten der Kondratieff-Zyklen waren eher kontingente Basisinnovationen. Dies änderte sich im Zweiten Weltkrieg radikal. Vom Manhattan-Projekt bis zur Halbleiterindustrie wurde Innovation zum industriell organisierten Prozess. ,,Erfinden erfinden“ geriet zum charakterisierenden Schlagwort. ‚Moore‘s Law‘, eine Prognose, die 1965 das Wachstum der Halbleiterindustrie als jährliche Verdoppelung der Schaltelementezahl pro Chip vorhersagte, hat sich über vier Jahrzehnte als sehr zuverlässig erwiesen – und sie wird wohl auch das fünfte Jahrzehnt durchstehen, ohne dass wir wirklich alle Schritte zu ihrer Umsetzung schon wissen.16 14 Coy, Wolfgang: Industrieroboter. Zur Archäologie der zweiten Schöpfung. Berlin 1985. 15 Dies bezieht sich auf Wolfgang v. Kempelens ‚Schachtürken‘ – kein Automat, sondern eine Trickmaschine. 16 Die Verdopplung hat die seit 1970 charakteristische Periode von 18 Monaten angenommen. Originalpapier: Moore, Gordon E.: „Cramming More Components onto Integrated Circuits“, in: Electronics, Jg. 38 (1965), Nr. 8.

INTERNETGESELLSCHAFT – VERSION 0.9 BETA

41

Das ist die eine Seite der technischen Entwicklung: Ein geplanter Prozess, der nur von der Qualität der Vision abhängt, welche die Mittel zur Innovation alloziert. Ihr zur Seite steht aber weiterhin die klassische Innovation by serendipity17, also ungeplante Innovationen, die unerwartete Auswirkungen zeigen, wenn sie erst einmal in die richtigen Hände geraten. Halbleiterelektronik als Prozessor- und Speichertechnik ist die geplante Innovation, Mikrorechner und Open-Source-Software sind Beispiele ihrer ungeplanten Begleitung. UMTS verläuft geplant (soweit die Mittel tragen), E-Mail, Wikis, WLAN-Aufbau und Voice-over-IPIntegration in Rechnerprogramme verlaufen eher chaotisch, gesteuert durch viele unabhängige Entwickler. Es ist die Kraft der großen Zahl, die billige Technik in die Hände zigtausender Entwickler und Erfinder legt. Die technische Entwicklung zur Informationsgesellschaft verläuft vorhersagbar geplant (z.B. Moore’s Law), aber sie wird uns noch beliebig oft durch unerwartete Entwicklungen überraschen (z.B. Open Source). Es ist diese Spannweite, die eine offene Entwicklung zur Informationsgesellschaft definiert. So wie es aussieht, müssen wir uns also auf lange Zeit in einer Folge von Beta-Versionen der Informationsgesellschaft einrichten. Wir können und wir wollen nicht zurück, und wir wissen doch nicht wirklich, wo es hingeht. Und wir wissen nicht einmal sicher, ob das Ganze die Mühe wert ist. Henry David Thoreau hat vor 150 Jahren in Walden eine ähnliche Situation beschrieben: ,,We are in great haste to construct a magnetic telegraph from Maine to Texas; but Maine and Texas, it may be, have nothing important to communicate.“ Aber damals bedeutete das Wort Kommunikation auch noch etwas anderes.

UWE WIRTH

DIE EPISTEMOLOGISCHE ROLLE VON LINKS IN WISSENSPROZESSEN EINE

MEDIENGESCHICHTLICHE

REKONSTRUKTION

Über die Struktur von Hypertexten lässt sich, so scheint es, nichts Neues sagen: Der Hypertext ist eine Form computergestützter, „nicht-lineare[r] Organisation von Informationseinheiten“1, dessen Nicht-Sequentialität dadurch zustande kommt, dass verschiedene Portionen von Wissen – sogenannte chunks2 – durch Hyper-Links miteinander verknüpft werden und das entstehende Netz von Verknüpfungen dem Leser bei der Rezeption gewisse Wahlmöglichkeiten lässt. Doch selbst dieser rudimentären Bestimmung der Strukturmerkmale von Hypertextualität lässt sich entgegen halten: Wenngleich Hyper-Links als spezifisches Strukturmerkmal digitaler Medien und des Internets gelten können, sind sie prinzipiell auch im Printmedium möglich – etwa in Form von Querverweisen.3 Vor dem Hintergrund dieser Ausgangskonstellation möchte ich die Frage nach der epistemologischen Rolle von Links in Wissensprozessen aufwerfen: eine Frage, die sich unabhängig von den medialen Rahmenbedingungen der Verkörperung stellen lässt. Im Folgenden möchte ich der Frage nach dem Link im Rahmen einer ideen- und philosophiegeschichtlichen Exkursion nachgehen, die das Ziel hat, die epistemologische Funktion von Links in Wissensprozessen zu bestimmen. Zuerst ist jedoch zu fragen: Was verstehen wir überhaupt unter ‚Wissensprozessen‘? Ich werde im Folgenden einen pragmatischen Vor-

1 Kuhlen, Rainer: Hypertext. Ein nicht-lineares Medium zwischen Buch und Wissensbank. Berlin/Heidelberg u.a. 1991, S. 27. 2 Nelson, T. H.: Literary Machines. Swarthmore, Pa. 1981, 0/2, zit. nach George Landow: Hypertext 2.0. The Convergence of Contemporary Critical Theory and Technology. Baltimore/London 1997, S. 3. 3 Vgl. auch Simanowski, Roberto (Hrsg.): Digitale Literatur. Text und Kritik 152 (2001), S. 131.

UWE WIRTH

44

schlag machen, der einen Blick in die Geschichte des Wissens und in die Geschichte der Verknüpfung des Wissens erlaubt.

1.

Ein pragmatisches Konzept von Wissensprozessen

Charles Sanders Peirce, der Vater des amerikanischen Pragmatismus und – neben Saussure – der modernen Semiotik, ging, genau wie Kant, davon aus, dass all unser Wissen das Resultat synthetischen Schlussfolgerns ist.4 Für Peirce haben Wissensprozesse daher prinzipiell den Charakter von Schlussfolgerungen. Sowohl die Wissensverarbeitung als auch die Gewinnung von neuem Wissen hat die Form deduktiven, induktiven oder abduktiven Schließens. Angenommen, wir kämen in einen Raum, in dem ein gefüllter Sack liegt, daneben ein Haufen weißer Bohnen. Wir könnten auf die Idee kommen, eine assoziative Verbindung zwischen den Bohnen und dem gefüllten Sack herzustellen, ja wir könnten sogar so weit gehen, zu mutmaßen, dass alle Bohnen in diesem Sack weiß sind. Ihre logische Gültigkeit muß diese Hypothese beweisen, sobald sie im Rahmen einer Deduktion dargestellt wird. Ihre empirische Richtigkeit dagegen, kann nur im Rahmen eines Experiments belegt werden, indem man in den Sack hineingreift, also induktiv tätig wird. Dieses Wechselspiel der drei Schlussmodi Abduktion, Deduktion und Induktion determiniert den Prozess des Erkenntnisfortschritts, den Peirce als „Semiose“ bezeichnet. Durch das Herstellen einer assoziativen Verknüpfung zwischen den verschiedenen Beobachtungen und durch die anschließende argumentative Rahmung dieser assoziativen Verknüpfung, entsteht Wissen: Wissen darüber, was sich im Sack befindet. Der Ausgangspunkt aller Wissensprozesse ist dabei die Abduktion, nämlich „[t]he operation of adopting an explanatory hypothesis“ (CP 5.189). Sie ist der erste Schritt auf dem Weg zu neuen Theorien über den möglichen Zusammenhang von Beobachtungen aller Art. Sie erschließt „neues Wissen“, indem sie – zunächst rein hypothetisch – assoziative Verknüpfungen herstellt, die in einen deduktiven, logischen Rahmen integriert und induktiv auf ihre Haltbarkeit im „primären Rahmen“ der Realität unter-

4 Vgl. Peirce, Charles S.: Collected Papers of Charles Sanders Peirce, Bd. IVI. Hrsg. von Charles Harsthorne und Paul Weiss. Cambridge, Mass. (1931-1958) abgekürzt CP, zitiert wird nach Band und Abschnitt im Text. Hier (CP 2.693).

DIE EPISTEMOLOGISCHE ROLLE VON LINKS IN WISSENSPROZESSEN

45

sucht werden. Mit anderen Worten: Die Abduktion leistet eine Transformation ‚assoziativer Verknüpfungen‘ in ‚argumentative Verknüpfungen‘. Auf die Relevanz dieses pragmatischen Konzepts von Wissensprozessen für netzbasierte Wissensprozesse werde ich weiter unten eingehen. Zunächst gilt es, vor dem Hintergrund dieses Konzepts eine kurze ‚Ideengeschichte des Links‘ zu skizzieren. Dabei werde ich von der These ausgehen, dass die Geschichte des Wissens eine Geschichte philosophischer und medialer Konzepte über die Verknüpfungsformen von Ideen ist. Jay Bolter hat die These aufgestellt, dass der elektronische Hypertext unserer Tage eine technisch-mediale Umsetzung zweier Konzepte ist, die für das 18. Jahrhundert bestimmend waren, nämlich erstens dem von d’Alembert und Diderot verfolgten philosophischen Konzept einer enzyklopädischen Zusammenführung von Wissen, zweitens der in Sternes Roman Tristram Shandy verkörperten poetologischen Konzept der digressiven Abschweifung.5 Der gemeinsame Nenner beider Konzepte ist das Prinzip der ‚assoziativen Verknüpfung‘.

2.

Empiristen und Enzyklopädisten

Im vierten Buch seines Essay concerning human understanding betont Locke, die Vernunft sei ein unentbehrliches Hilfsmittel dafür, dass wir unser Wissen erweitern können. Durch den Scharfsinn – „sagacity“ – ermöglicht sie uns, „vermittelnde Ideen“ aufzufinden.6 Durch das Folgerungsvermögen – „illation“ – hilft sie uns, die vermittelnden Ideen in einer Weise zu ordnen, „daß die zwischen jedem einzelnen Glied der Kette bestehende Verbindung zutage tritt“.7 Im Original heißt es: „[…] to discover what connexion there is in each link of the chain“.8 Die verschiedenen Möglichkeit der Ideenverknüpfung werden ebenfalls im Essay behandelt, nämlich im Kapitel „Principles of Association“. Die vier Prinzipien sind Kausalität, Kontiguität, Ähnlichkeit und Gewohnheit. Im weiteren Verlauf seines Assoziationskapitels unterscheidet Locke zwischen natürlichen Ideenverknüpfungen und „wrong connexion of 5 Vgl. Bolter, Jay: „Das Internet in der Geschichte der Technologien des Schreibens“, in: Stefan Münker/Alexander Roesler (Hrsg.): Mythos Internet. Frankfurt 1997, S. 45f. 6 Locke, John: Versuch über den menschlichen Verstand. Übers. von C. Winckler. München 1981, Bd. IV, S. 363. 7 Locke 1981. 8 Locke, John: An Essay Concerning Human Understanding. Hrsg. von John W. Yolton. London/New York 1974, Bd.IV, Kap. XVII: „Of Reason“.

46

UWE WIRTH

ideas“ – eine Unterscheidung, die in Sternes Roman Tristram Shandy aufgegriffen wird, der im Grunde von nichts anderem als den Abenteuern der Ideenverknüpfung handelt.9 Diese Abenteuer beginnen bereits beim Akt der Zeugung. Im Kopf von Tristrams Mutter ereignet sich während des Zeugungsaktes eine „unhappy association of ideas which have no connection in nature“ – ein assoziativer Kurzschluss, der für das gesamte Leben Tristrams bestimmend sein wird: „Pray, my dear“, fragt sie ihren Gatten, „have you not forgot to wind up the clock?“10 Fortan muß Tristrams Mutter damit leben, dass bei jedem Schlag der Uhr „the thoughts of some other things unavoidably popped into her head – & vice versa“.11 Die unglückliche Kontiguitätsassoziation verlinkt zwei Ereignisse, die zuvor nichts miteinander zu tun hatten, danach aber – zementiert durch die Macht der Gewohnheit – permanent aufeinander verweisen. Die Referentialität dieses Verweises entspricht jener Form der Indexikalität, die Peirce als „degenerierte Indexikalität“ bezeichnet (CP 5.75). Ein degenerierter Index ist ein „referentieller Zeiger“ – „a proper name without signification, a pointing finger“ (CP 5.75). Der Ausdruck „degenerierter Index“ bezieht sich darauf, dass der indexikalische Verweisungszusammenhang in diesem Fall umgekehrt funktioniert wie bei einem „genuinen Index“. „Genuine Indices“ sind Teil einer „existentiellen Relation“, die durch Kausalität oder „natürliche Kontiguität“ bestimmt ist (CP 2.306). Genuine Indices verweisen als Wirkung auf ihre Ursache zurück – so wie ein Fußabdruck oder ein Krankheitssymptom. Im Gegensatz dazu nehmen degenerierte Indices intentional auf einen Gegenstand Bezug und stellen dadurch allererst eine assoziative Verknüpfung her. Dieses degeneriert indexikalische Herstellen einer assoziativen Verknüpfung ist nicht nur für die „unhappy association“ von Mutter Shandy verantwortlich – es ist auch das Grundprinzip, dem das enzyklopädische Projekt d’Alemberts und Diderots folgt. Nur auf den ersten Blick erscheint die Abschweifungspoetik Sternes das Gegenmodell des von d’Alembert und Diderot vorangetriebenen enzyklopädischen Projekts der Zusammenführung von Wissen zu sein. Auf den zweiten Blick wird jedoch deutlich, dass auch die Encyclopédie auf einem Prinzip assoziativer Verknüpfung beruht, das durchaus digressiven Charakter hat. D’Alembert erklärt im „Discours Préliminaire“, die

9 Vgl. Lobsien, Eckhard: Kunst der Assoziation. Phänomenologie eines ästhetischen Begriffs vor und nach der Romantik. München 1999, S. 45. 10 Sterne, Laurence: The Life and Opinions of Tristram Shandy, Gentleman. London 1967, S. 35. 11 Sterne 1967, S. 39.

DIE EPISTEMOLOGISCHE ROLLE VON LINKS IN WISSENSPROZESSEN

47

Encyclopédie ziele darauf ab, die Ordnung und die Verknüpfung – „l’ordre et l’enchaînement“ – des menschlichen Wissens zu repräsentieren.12 Neben dem Begriff des enchaînements, der mit Lockes Rede vom „link of a chain“ korrespondiert, verwendet d’Alembert zur Bezeichnung von thematischen Zusammenhängen den Begriff der liaison. So, wenn er das Konzept seiner enzyklopädischen Disposition des Wissens beschreibt. Für d’Alembert sind drei Punkte ausschlaggebend: 1. „der Name der Wissenschaft, zu der der Artikel gehört“; 2. „der Zusammenhang – [liaison] des Artikels mit anderen Kapiteln innerhalb desselben oder eines anderen Wissenszweiges“, der durch Hinweise angezeigt wird. Im Original ist von „liaison indiquée par les renvois“ die Rede. 3. „die in alphabetischer Reihenfolge erklärten Fachausdrücke“.13 Die Querverweise, die die Verbindungen (liaison) zwischen den verschiedenen Zweigen der Wissenschaften anzeigen (indiquer),14 bezeichnen d’Alembert und Diderot als renvois. Neben ihrer systematischen Funktion haben die renvois auch eine pragmatische Funktion: Da das System der Wissenschaften „wie ein Labyrinth“ strukturiert ist, „wie ein Weg mit vielen Windungen, den der Verstand beschreitet, ohne zu wissen, in welche Richtung er sich halten muß“,15 sollen sie dem Leser als Wegweiser dienen. Das heißt, die renvois haben den semiotischen Status von degenerierten Indices, die auf Zusammenhänge und Verbindungen hinweisen. Zusammenhänge und Verbindungen, die oftmals erst durch die renvois hergestellt werden. Diderot unterscheidet in seinem Artikel „Encyclopédie“ insgesamt vier verschiedene Formen der renvois:16 Außer auf Sachen und auf Worte können die renvois auf Analogien aufmerksam machen: auf Abhängigkeiten bei den Wissenschaften, auf analoge Eigenschaften natürlicher Substanzen, auf ähnliche Arbeitsweisen in den Künsten.17 Die vierte 12 D’Alembert, Jean Le Rond: „Discours préliminaire de l’Encyclopédie“, in: ders. (Hrsg.): Encyclopédie, Bd.1. Paris 1750; Reprint: Stuttgart 1966, S. 1, deutsch: D’Alembert: Einleitung zur Enzyklopädie. Hamburg 1997, S. 8. 13 D’Alembert 1997, S. 51. 14 D’Alembert 1750, S. 18. 15 D’Alembert 1997, S. 40. 16 Diderot, Denis: Stichwort „Encyclopédie“, in: Encyclopédie, Bd. 5. Paris 1751; Faksimile-Ausgabe: Stuttgart 1966, S. 635-649. Deutsch: Denis Diderot: Artikel „Enzyklopädie“ in: Artikel aus der von Diderot und d’Alembert herausgegebenen Enzyklopädie. Auswahl und Einführung von Manfred Neumann. Übers. von Theodor Lücke und Roland Erb. Leipzig 1984, S. 314-416, S. 369ff. 17 Diderot 1984, S. 371.

48

UWE WIRTH

Form des renvois, die sowohl Sachen als auch Worte betrifft, ist der ironische Verweis: „Von dieser Art“, so Diderot, „ist der Hinweis, der in einem unserer Artikel zu finden ist, indem man nach einem pompösen Lob liest: ‚Siehe Kapuze‘. Das spaßige Wort ‚Kapuze‘ und das, was man in dem Artikel ‚Kapuze‘ findet, könnten die Ahnung hervorrufen, daß das pompöse Lob nur Ironie sei und daß man diesen Artikel mit Vorsicht lesen und alle seine 18 Ausdrücke genau erwägen müsse“.

Neben der systematischen und pragmatischen Funktion der renvois offenbart sich hier noch eine weitere, politische Dimension des Verweisens: Besonders deutlich wird diese Politik des renvois in dem berühmt berüchtigten Artikel über die Menschenfresser („Anthropophages“), in dem am Ende auf die Stichworte „Kommunion“, „Eucharisitie“ und „Altar“ verwiesen wird. Allein die Tatsache, dass diese renvois im Rahmen dieses Artikels plaziert wurden, eröffnet dem Leser die Möglichkeit, eine Verknüpfung zwischen Menschenfresserei und Eucharistie herzustellen. Eine Verknüpfung, die nicht mehr bloß assoziativ ist, sondern die Form einer Implikatur hat. Eine Implikatur, die den abduktiven Schluss nahelegt, dass die Eucharistie als eine Form der Menschenfresserei aufgefaßt werden kann. Renvois wie diese waren es, die 1759 zum vorläufigen Verbot der Enzyklopädie geführt haben: „[...] das ganze in diesem Wörterbuch verstreute Gift findet sich in den Verweisen“19, heißt es in der Begründung des Pariser Parlaments. Das ist fein beobachtet. Halten wir fest: Unser ideengeschichtlicher Exkurs hat zwei Arten von Verknüpfungen zu Tage gefördert: Associations, das heißt Ideenverknüpfungen, die im kognitiven Rahmen von Denkprozessen statt haben und Renvois, das heißt Hinweise auf Ideenverknüpfungen, die im diskursiven Rahmen, als typographische, degenerierte Indices realisiert werden. Dabei können die renvois entweder auf bereits bekannte thematische Zusammenhänge referieren, oder aber neue thematische Zusammenhänge suggerieren. Mit anderen Worten, die renvois können entweder die Resultate bereits vollzogener Wissensprozesse repräsentieren oder sie können Wissensprozesse implizieren, die erst noch zu vollziehen sind. Diese Unterscheidung ist meines Erachtens auch für die Darstellung von Wis18 Diderot 1984, S. 373. 19 Zit. nach Idensen, Heiko: „Kollaborative Schreibweisen – virtuelle Textund Theorie-Arbeit: Schnittstellen für Interaktion mit Texten im Netzwerk“, in: Peter Gendolla/Norbert M. Schmitz/Irmela Schneider/Peter M. Spangenberg (Hrsg.): Formen interaktiver Medienkunst. Frankfurt/M. 2001, S. 218-264, hier Fn. S. 233.

DIE EPISTEMOLOGISCHE ROLLE VON LINKS IN WISSENSPROZESSEN

49

sensprozessen in hypertextuell organisierten Netzwerken von entscheidender Bedeutung. Dies lässt sich an einem konzeptionellen Vorläufer heutiger Hyper-Links beobachten: an Vannevar Bushs Utopie eines ‚Memory Extenders‘, kurz Memex genannt.

Modell der Memex, entworfen von www.DynamicDiagrams.com

3.

Vom „Memory Extender“ zum Hyper-Link

In seinem mittlerweile berühmten Aufsatz „As We May Think“ aus dem Jahr 1945 entwirft Vannevar Bush das Konzept einer Archivmaschine, die die Form eines Schreibtischs hat und mit deren Hilfe sich verschiedene Medien – Texte, Bilder, Landkarten, Ton-Dokumente – im Microfiche-Format versammeln und verknüpfen lassen. Die konzeptionelle und mediale Pointe der Memex besteht darin, dass der „process of tying two items together“20 zentrale Bedeutung nicht nur für die Organisation, sondern auch für die Verarbeitung von Wissen erlangt. Bush bezeichnet die Memex als eine „völlig neue Form der Enzyklopädie“: „ready-made with a mesh of associative trails running through them“,21 wobei diese „associative trails“ im Rahmen der Memex ständig veränderbar bleiben. Das Prinzip der assoziativen Verknüpfung hat dabei in noch stärkerem Maße programmatischen Charakter als es in der Encyclopédie d’Alemberts und Diderots der Fall war, denn es soll die 20 Bush, Vannevar: „As We May Think“, in: Atlantic Monthly, Jg. 1945, Nr. 176, S. 101-108, hier S. 107. 21 Bush 1945, S. 108.

UWE WIRTH

50

alphabetischen Indexierungsverfahren ersetzten. „Associative Indexing“22 heißt die grundlegende Idee, von der Bush ausgeht. Was bedeutet das? Das „Associative Indixing“ ist ein Verfahren, das es ermöglichen soll, von jedem beliebigen item – sei es Buch, Artikel, Fotografie, Notiz – sofort und automatisch auf ein anderes item zu verweisen.23 Die von der Memex ausgeführten Verknüpfungsoperationen werden dabei explizit in Analogie zu der Funktionsweise des menschlichen Gehirns gesetzt. Das menschliche Gehirn „operates by association. With one item in its grasp, it snaps instantly to the next that is suggested by the association of thoughts, in accordance with some intricate web of trails carried by the cells of the brain“.24 Das Konzept der Memex besteht also offensichtlich darin, die „Principles of Association“, die für Bush wie für Locke das menschliche Denken beherrschen, als „intricate web of trails“ darzustellen. Das heißt, die Summe assoziativer Verknüpfungen wird als ein Netz gefaßt. Zugleich aber, und das ist meines Erachtens ein ganz entscheidender Punkt, betont Bush, dass die ‚assoziativen Pfade‘ zwischen den verschiedenen Daten durch die individuellen „trails of interest“ ihrer Benutzer hergestellt werden.25 Die Vernetzung des Wissens erfolgt bei der Memex nicht mehr, wie noch in der Encylcopédie, durch ‚vorgeschriebene‘ renvois seitens der Herausgeber, sondern durch den Benutzer. Jeder Benutzer soll zum Herausgeber seiner eigenen ‚assoziativen Pfade‘ werden. Die mediale Pointe der Memex, durch die sie überhaupt erst zu einer ‚Erweiterung des Gedächtnisses‘ wird, besteht darin, dass die vom Benutzer hergestellten, assoziativen Verknüpfungen gespeichert werden können: „his trails do not fade“.26 Die verschiedenen „trails of interest“ werden mit individuellen Nummerncodes versehen, die immer wieder abrufbar sind. Die Links zwischen zwei Informationseinheiten sind sozusagen Eigennamen von assoziativen Verknüpfungen. Dadurch hinterlässt jeder gespeicherte „associative trail“ eine doppelt indexikalische Spur: Er ist der genuine Index eines subjektiven Akts assoziativer Verknüpfung, auf den er als degenerierter Index referiert. Bleibt zu fragen, wodurch sich die Verknüpfungsfunktion der Memex von den Verknüpfungsfunktion der renvois unterscheidet. Anders als

22 23 24 25 26

Bush 1945, S. 107. Bush 1945, S. 107. Bush 1945, S. 106. Bush 1945, S. 108. Bush 1945, S. 107.

DIE EPISTEMOLOGISCHE ROLLE VON LINKS IN WISSENSPROZESSEN

51

die Encyclopédie dient der Memory Extender nicht mehr nur der Darstellung des „objektiven Zusammenhangs der Kenntnisse“, sondern sichert auch den subjektiven Zugang zu den Kenntnissen vermittelst einer Verknüpfungsform, die indexikalisch und subjektiv-assoziativ zugleich ist. Anders als die subjektiven „unhappy associations“ von Mutter Shandy können diese gespeicherten Verknüpfungen nachträglich überarbeitet und verändert werden. Die Memex zeichnet sich also nicht nur durch ihre assoziative Indexikalität aus, sondern auch durch die Möglichkeit zur permanenten Editierbarkeit der gespeicherten Verknüpfungen. Glaubt man den Ursprungs-Legenden vieler Hypertexttheoretiker, so sind die Hyper-Links unserer Tage die technisch-mediale Realisierung des Memex-Konzeptes. Genau wie die trails of interest der Memex zeichnen sich Hyper-Links durch ihre Speicherbarkeit, ihre assoziative Indexikalität, ihre subjektive Setzbarkeit und ihre Editierbarkeit aus. Allerdings – und dies markiert haargenau die Grenze zwischen den Netz-Utopien von einst und der heutigen Netz-Realität – allerdings steht im World Wide Web nicht jedem das Recht zu, Links zu setzen und zu edieren. Es handelt sich um ein Privileg, das die Welt des Internet in Vernetzende und Vernetzte scheidet: Dadurch nämlich, dass das Netz in Sphären verschiedener Editierbarkeit unterteilt ist. Eine zweite Differenz zwischen der Utopie der Memex und der Realität digitaler Netze betrifft die mediale Form der Verknüpfung von Informationseinheiten. Anders als im Rahmen des Computers werden im analogen Rahmen der Memex verschieden konfigurierte Medien miteinander verknüpft. Auch die Speicherung der trails erfolgt auf analoge Weise, nämlich als Nummerncode, der in ein Notizbuch eingetragen ist, das außerhalb des „process of tying two items together“ bleibt. Die Besonderheit von Verknüpfungsprozessen unter digitalen Vorzeichen besteht darin, dass sie die Verknüpfung performativ herstellen. Das Performative des Computerprogramms besteht darin, dass es auf der Grundlage explizit performativer Sprechakte funktioniert, nämlich mit Hilfe von Programmbefehlen, die man im Anschluss an Searle als digitale Direktiva bezeichnen könnte.27 Nach Searle zeichnen sich explizit performative Äußerungen dadurch aus, dass ihr „propositional content“ durch eine „illocutionary

27 Vgl. hierzu Wirth, Uwe: „Performative Rahmung, parergonale Indexikalität. Verknüpfendes Schreiben zwischen Herausgeberschaft und Hypertextualität“, in: ders. (Hrsg.): Performanz. Zwischen Sprachphilosophie und Kulturwissenschaften. Frankfurt/M. 2002, S. 403-433, hier S. 426ff.

52

UWE WIRTH

force“ gerahmt wird.28 Einen direktiven Sprechakt verstehen, heißt wissen, dass seine illokutionäre Pointe darin besteht, dass man etwas tun soll. Die illoktionäre Pointe der Direktive ‚Geh doch nach drüben!‘ ist, dass man dorthin geht, wo – abhängig vom jeweiligen Standpunkt – ‚drüben‘ ist, dass man also eine Handlung vollzieht. Der propositionale Gehalt der Direktive bestimmt, was zu tun ist, also in unserem Fall: wohin man gehen soll. Der Ausdruck ‚drüben‘ hat dabei die Funktion eines Zeigefingers, der eine Referenz herstellt. Es handelt sich um einen sprachlichen degenerierten Index. In ähnlicher Weise funktioniert ein Hyper-Link: Die illocutionary force eines Hyper-Links besteht darin, dass er – im Rahmen des verwendete Computerprogramms – einen Sprungbefehl von einem markierten, sichtbaren Link-Bereich zu einem definierten, aber nicht sichtbaren Zielbereich ausführt. Der Sprungbefehl hat die Form dichtung-digital.de Das ‚HREF =„www.dichtung-digital.de“‘ bestimmt die Zieladresse, wobei das „HREF“ der Ausdruck einer degeneriert indexikalischen Verweisfunktion ist, die eine referentielle Bezugnahme herstellt. Das www.dichtung-digital.de‚ bestimmt die räumlichen Koordinaten der referentiellen Bezugnahme. Dieser Ausdruck steht in funktionaler Analogie zu dem, was beim Sprechakt der propositionale Gehalt ist. Allerdings – und dies ist ein entscheidender Unterschied – hat die Zeichenfolge „dichtung-digital“ allein betrachtet überhaupt keine Semantik. Es handelt sich lediglich um eine im ASCII-Code definierte Zeichenfolge.29 Die illokuti28 Searle, John: „What is a Speech Act?“, in: Pragmatics. A Reader. Hrsg. von Steven Davies. New York/Oxford 1991, S. 254-264, hier S. 255. Deutsch in: Wirth (Hrsg.) 2002, S. 83-103. 29 In diesem Zusammenhang spielt auch der Umstand eine Rolle, dass das Medium, in dem der Befehl gegeben wird, ein Programm ist, das als ‚performativer Rahmen‘ selbstständig Prozesse ausführt. Der Computer führt – im Gegensatz zu den Wahrnehmungsprozessen, die der Leser beim Lesen ausführt, Rechenprozesse aus. Der analoge Prozess des Lesens vollzieht sich als Abgleich von Wort-Token und Wort-Types, wobei die Geschwindigkeit der Subsumption von Token unter Types von den Wahrnehmungsbedingungen abhängt. An die Stelle von Wahrnehmungsprozessen treten beim Computer Rechenprozesse, die, gemäß der jeweiligen digitalen Codierung, die Äquivalenz von Zeichenfolgen feststellt. Dabei wird die Differenz zwischen Types und Token insofern nivelliert, als die Definition eines Types – etwa mit Hilfe von ASCII- oder UNI-Codes – die Anweisung für die Erzeugung eines Tokens ist. Da dieses Token jedoch nicht materialisiert wird, sondern nur deshalb ein Token ist, weil es eine individuelle Zeichen-

DIE EPISTEMOLOGISCHE ROLLE VON LINKS IN WISSENSPROZESSEN

53

onäre Pointe des Hyper-Links besteht darin, dass eine Entsprechung zu jener Zeichenfolge gesucht wird, die durch den Befehls ... gerahmt wird. Dabei setzt die illocutionary force der digitalen Direktive ... die degeneriert indexikalische Verweisfunktion des HyperLinks in Kraft. Nun könnte man einwenden, dass auch die renvois der Encyclopédie bereits als implizite direktive Sprechakte zu werten sind. Ist nicht das voyez eine Direktive an den Leser, aktiv zu werden und zum Beispiel die Artikel über „Eucharistie“ und „Kommunion“ zu konsultieren? Wodurch unterscheidet sich der analoge Blätterbefehl voyez der Encyclopédie von der digitalen Direktive ... eines HTML-Editors? Möglicherweise nur darin, dass die Instanz, die den Befehl ausführt, im ersten Fall der Leser ist, und im zweiten Fall ein Computerprogramm, das vom Leser durch einen Klick mit dem Ausführen beauftragt wird. Die Entscheidung, ob einem Hinweis oder einem Link zu folgen ist, liegt in beiden Fällen beim Leser. Die ‚Arbeit‘ des Folgeleistens wird im Fall eines Hyper-Links jedoch vom Programm übernommen – sofern man unter ‚Arbeit‘ den rein technischen Akt des Herstellens einer Verbindung versteht. Doch wie steht es mit der Arbeit des Argumentierens? Jener Arbeit also, die, wie wir eingangs gesehen haben, für Wissensprozesse konstitutiv ist?

4.

Die epistemologische Funktion des Hyper-Links im Hinblick auf abduktives Schlussfolgern

Nachdem ich versucht habe, die mediale Differenz zwischen dem HyperLink und seinen historischen Vorläufern herauszuarbeiten, möchte ich abschließend noch einmal auf die Funktion der Verknüpfung von Wissen im Rahmen von Wissensprozessen zu sprechen kommen. Eingangs wurde im Anschluss an Peirce ein Modell von Wissensprozessen skizziert, bei dem der Abduktion eine zentrale Rolle zukommt, da sie der erste, entscheidende Schritt ist, um assoziative Verknüpfungen in argumentative Verknüpfungen zu transformieren. Daran schließt sich die Frage an, welche epistemologische Funktion die mediale Verkörperung von assoziativen Verknüpfungen – sei es in Form von renvois, sei es in Form von trails of interest, sei es in Form von Hyper-Links – haben kann.

folge bildet, reduziert sich die Differenz zwischen Type und Token darauf, dass der Type die Definition eines Zeichens ist und das Token die individuelle Folge von codierten Zeichendefinitionen.

54

UWE WIRTH

Hier eröffnen sich zwei Möglichkeiten: Entweder wir betrachten die Verknüpfungen, die durch Links hergestellt werden, als eine Darstellung von bereits vollzogenen Wissensprozessen, auf deren Resultate mit dem Hyper-Link verwiesen wird, oder aber wir betrachten die Verknüpfungen, die durch Hyper-Links hergestellt werden, als assoziative Verknüpfungen, die der erste Schritt von Wissensprozessen sind. Dann müssen die durch Links gestifteten assoziativen Verknüpfungen als argumentative Verknüpfungen interpretierbar sein. So verlockend es einerseits sein mag – gerade auch im Ausgang von Bushs Memex – dem Link als performativer Ausführung des associative indexing eine erkenntniserweiternde Rolle zuzusprechen, so sollte man andererseits seine epistemologische Funktion doch sehr nüchtern sehen. Während der Hyper-Link eine Verknüpfung zu einer festgeschriebenen Zieladresse herstellt, die von jemand anderem voraus-assoziiert wurde, besteht eine Abduktion gerade darin, selbst eine assoziative Beziehung in einen argumentativen Zusammenhang zu bringen. Im Rahmen von erkenntniserweiternden Wissensprozessen kann weder die Arbeit des Assoziierens, noch die Transformation in eine erkenntniserweiternde Argumentation an eine digitale Direktive delegiert werden. Das bedeutet, Aus der Perspektive des Rezipienten ist der Hyper-Link im besten Fall eine ‚gefrorene Abduktion‘, nämlich die gespeicherte Darstellung eines ‚heißen‘, erkenntniserweiternden Gedankensprungs, der bereits von jemand anderem vollzogen wurde. Zwar kann er diesen erkenntniserweiternden Sprung im Rahmen seines verstehenden Nachvollzugs wieder aufwärmen, jedoch wird die Abduktion erst dann ‚heiß‘, wenn der Rezipient die Möglichkeit erhält, als Produzent selbst neue Verknüpfungen herzustellen. Dies bedeuetet mit Blick auf die eingangs gestellte Frage nach der epistemologischen Rolle des Hyper-Links, dass er im Rahmen des digitalen Mediums immer nur der Darstellung von bereits vollzogenen Wissensprozessen dienen kann. Nur wenn der Rezipient im gleichen Rahmen auch zum Produzent eigener Hyper-Links werden kann, erhält der Link eine erkenntniserweiternde Funktion im eigentlichen Sinne, das heißt, er wird zum Medium eines Wissensprozesses, das nicht nur bereits vollzogene Wissensprozesse darstellt, sondern Wissensprozesse in actu vollzieht.

MANFRED FASSLER

NETZWERKE UND/ODER NEUE WISSENSREGIME? 1. Am Beginn des 21. Jahrhunderts stehen wir vor der Frage: Welche Arten von Wissen werden in den verschiedensten Arealen von Wirtschaft, Wissenschaft, Kunst, Kultur und Politik angefordert werden? Was verbindet die verschiedenen Wissenssorten miteinander? Welche Aufgaben kommen medialen Infrastrukturen zu? Lassen sich diese noch national, lokal, regional bestimmen, angesichts globaler Bedingungen der Wissensgenerierung und -verbreitung? Lässt sich ruhigen Gewissens (noch) von einer kulturstiftenden Ver-Bindung zwischen Speichern, Archiven und Wissen sprechen, oder ist das eine überlieferte, schwächer werdende Diskursfigur? Tritt an ihre Stelle eine neue: die des Netzes, der Vernetzungen, der globalen Entstehung von Wissen, das keine fixierbare Herkunft mehr hat? Wie sieht dann aber der Aufbau einer demokratischen und leistungsfähigen Wissensgesellschaft aus? Oder ist das auch ein überholter Diskurs? Unbestritten ist, dass die wissenschaftlich-technologischen Grundlagen unserer Gesellschaft im Verlauf des letzten Jahrhunderts neue Wissensgrundlagen und Wissenssorten erzeugt haben. Gegenwärtig erleben wir den informations- und medientechnologischen Umbau dieser Grundlagen. Zugleich werden regionale Wissenspotenziale immer enger in globale Kommunikations- und Wissensnetzwerke einbezogen, mit diesen verknüpft. Es entstehen Vernetzungen, in denen translokale, transkulturelle Wissensbereiche überlieferte national-politische Vorstellungen von Wissen ‚made in Germany‘ oder ‚USA‘ zurückdrängen. Obwohl die wirtschaftliche Macht einer Nation immer noch argumentiert wird, sind diejenigen wirtschaftlich ‚vorne‘, die als Unternehmen in der Lage sind, das weltweit erzeugte und vernetzte Wissen aufzukaufen oder konkurrenzfähiger Anbieter des Produktes Wissens zu sein.

56

MANFRED FASSLER

Die hiermit verbundenen Zeitökonomien wirtschaftlichen Handelns fusionieren mit den zeitintensiven Entstehungs- und Verbreitungsmustern jenes Wissens, das in das Netz (sprich: Internet, ob als Mail, Diskussionsgruppe, Chat oder WWW) ‚gestellt‘ und dort informationskritisch debattiert, bestätigt, weiter entwickelt, verworfen oder für wichtig angesehen wird. Netz, ein Zauberwort – weitreichender, als jede Bibliothek, ein Fusionsgesetz globaler Prozesse, ein Versprechen, individuell schneller an Informationen heranzukommen, als in allen Regelsystemen der Vergangenheit. Im Netz-Begriff wandelt sich Wissen (das an das erkennende Denken und an zertifizierte, institutionelle Anwendungsverläufe gebunden ist) in Information (als kulturelle Halbfertigware, gewonnen aus Daten). Wissen verliert seinen historischen und institutionellen Hermelin, wird auf Erkennen bezogen, nicht auf Erkenntnis. Wissensbezogene Netzwerke übernehmen quasi institutionelle Aufgaben in Form der Speicherung, Bereitstellung, geregelten Vermittlung. Gleichzeitig entziehen sie sich durch ihre ‚fuzzy logic‘, ihre transkulturellen Dynamiken den überlieferten Mustern der Wissensverwaltung und -verfügung. Ist das der Übergang von (Herkunfts-)Universalität zu (Entstehungs-) Globalität, der Übergang von Archiven zu Generierung? Manches erzeugt den Eindruck. Vielleicht ist dies auch noch zu binär gedacht. Jedenfalls steht die Netzsemantik, medientechnologisch und medienevolutionär vorangebracht, im Zentrum des Beobachtungsgeschehens. Die Netzsemantik, in der fast selbstverständlich über Wissen gesprochen wird, signalisiert aufkommende Unsicherheiten in den Wissensdiskursen: Wie stark sind multisensorische Medien als interaktive, determinierende Umwelten? Wie sind die Mensch-Computer/Medien-Inter-REAktionen einzuschätzen? • Entsteht eine mehrsensorische Interface-Kultur jenseits der dominierenden monomedialen, einkanaligen Gesellschaftsgebilde? • Wie sind Medien-Netzwerke an der Konstitution, der Konservierung, der Tradierung von informations- und wissensfähigen Daten beteiligt? • Welche Auswirkungen haben die globalen und kollektiven Neuvernetzungen auf individuelle Reflexion oder den traditionellen hoheitlichen Vermittlungsstatus von Institutionen wie Familie, Schule, Universität? • Beerben mediale digitale Netzwerke, also weltweit entstehende proprietäre oder dynamische Speicherstrukturen, die nationalen,

NETZWERKE UND/ODER NEUE WISSENSREGIME?

57

territorialen Strukturen? Und wenn ja, wie kann eine lokale, regionale und individuelle Wissensformierung erfolgen? Hätte diese noch irgend etwas mit tradierender Wissensvermittlung zu tun? • Oder ist die Verbindung von Netzwerken und Wissen keine konstituierende, sondern allenfalls eine infrastrukturelle, weil Wissen jene bemerkenswerte Fiktion voraussetzt, die wir als Erkennen/ Verstehen beschreiben, oder die als Ganzheit, Einheit des Universums, als systemische Geschlossenheit, als Vollständigkeit oder als Richtigkeit setzen? • Bilden Netzwerke und ihre vollintegrierte Kommunikationsstruktur die Basis einer impliziten „Überwachung des Wissens“, wie Nico Stehr im Untertitel seiner Wissenspolitik Anfang 2003 behauptet?1 • Oder sind dies nur Randphänomene von ko-evolutionären Prozessen, deren Kerngeschäft in der „zunehmenden Strukturiertheit des Informationsobjektes“ besteht, wie Bernard Favre-Bulle vermutet? In den Diskussionen um Netzwerke stehen demnach nicht die Artefakte und Prozesse der Medientechnologien im Zentrum, sondern das, was unbekannt ist: die Art und Dimensionen des zukünftig ökonomisch, ästhetisch, kulturell, wissenschaftlich, individuell (aus-)wahlfähigen fingierten Wissens. Mit gedacht ist, dass Fiktionen stets zusammengesetzte Phänomene kultureller Selbstvergewisserung und -beschreibung sind. Und: Sie speichern die gesetzten Hierarchien der Sinne, der Abstraktion, der Strukturen, der Wahrnehmung, der Phantasien. Solche Zusammensetzungen und Hierarchien sind, wie wir aus europäischer Tradition wissen, beharrlich, massiv, herrisch. Sie können, was sie auch immer wieder waren, Legitimationen für Kriege und Bürgerkriege sein, in denen Textund Wahrheitsverständnisse gegen Bildlichkeit, Visualisierungen ins Feld geführt wurden. Bilderverbote waren immer auch Wahrnehmungs- und Kommunikationsverbote. Diese Exkommunikations- und Kriegspraxen wurden spätestens mit der sich weitenden sensorischen Präsenz der Netzmedialität seit 1991/92, also dem World Wide Web, unterlaufen, ausgehöhlt. In dichter Generationsfolge wurden seitens der Anbieterfirmen weiter entwickelte Wissens-Kultur-Konsolen angeboten, deren Entstehungsbasis eine An1 Stehr, Nico: Wissenspolitik. Die Überwachung des Wissens. Frankfurt/M. 2003.

58

MANFRED FASSLER

gleichung von Nintendo- und Sega-Computerspielen sowie Wissensmanagement-Ideen waren. Hinzu kam, dass die faktische Ausweitung von Netzanschlüssen, von Local Area Networks (derzeit ca. 40.000 weltweit), von computergestützten Arbeitsplätzen derzeit ca. 850 Mio. das Gesetz der Großen Zahlen auf die Tagesordnung setzten: Immer mehr Menschen lernen im Netz mit dem Netz umzugehen und bringen ihre Ideen in die Netzwerke ein. Das Internet ist zum global lab für Netzentwicklung geworden. Dies erfordert, sich des Wissensmodells zu vergewissern, auf das man sich bezieht. Das Metzler-Philosophie-Lexikon Wissen als „Erkenntnisstand, eine Sicherheit bezüglich der Kenntnis von Gegenständen oder Vorgängen.“2 Rainer Kuhlen definierte 1995 für die Informatik: „Wir verstehen unter Wissen den Bestand an Modellen über Objekte bzw. Objektbereiche und Sachverhalte, über den Individuen zu einem bestimmten Zeitpunkt verfügen bzw. zu dem sie Zugang haben und der mit einem zu belegenden Anspruch für wahr genommen wird. Als Wahrheitskriterium kann die Begründbarkeit angenommen werden.“

Erreichter Wissensstand und seine Erhaltung ist bei diesen Definitionen der Hauptgedanke. Dies hat für sich, dass wir nur über Wissen reden können, das eine kommunikable Verfassung hat, worauf ja die Theorien des Sprachhandelns von John Austin über Quine und Mittelstraß bis Habermas hinweisen. Dass dies unter dynamischen Medienbedingungen nicht mehr so ohne weiteres zu halten ist, kann angemerkt werden. An die kognitive Position des Wissens, was bereits erkannt und konventionalisiert ist, tritt das Wissen darum, wie Wissen gemacht wird, wie es entsteht. Dieser Übergang von Kommunikation in actu (Handeln der Subjekte) zu Kommunikation in situ (struktureller/medialer Kopplung), von Interaktion zu dynamischer, heterarchischer Inter-RE-Aktion ist wissenschaftlich noch zu wenig bearbeitet. Die ist bedauerlich, da sich die Zeitformen eines solchen Bestands an Modellen/Objekten, die Lokalisationsparameter und materialen Medien-Bedingungen ändern. Modelle als Urteilseinheiten und Kernbereich von Wissen werden unter mehrsensorischen Medienbedingungen anders aufgebaut und wahrgenommen, als unter monomedialen Bedingungen (des Buches). Ich schlage deshalb vor, als Erweiterung des Sprachhandelns und des Kommunikativen Handelns (Sprechhandelns) den Terminus des in2 Prechtl, Peter/Burkhard, Franz-Peter (Hrsg.): Metzler Philosophie Lexikon. Stuttgart 1996.

NETZWERKE UND/ODER NEUE WISSENSREGIME?

59

ter-re-aktiven Medienhandelns ernst zu nehmen und ihn auf seine wissenschaftliche Belastbarkeit hin zu testen – oder hin zu entwickeln. InterRe-Aktion bezieht die medialen Speicher, Archive, Knowbots, Suchmaschinen als differenzierungs- und selektionsfähige Agenten mit ein.

2. Bleiben wir aber beim Wissen: Was uns die derzeit aufgebauschten Konzepte des Wissensmanagements beizubringen versuchen, ist eine Dualisierung des Wissens nach implizitem und explizitem Wissen. Ich kann dem nicht folgen. Zum einen, weil mir bislang niemand auf der Ebene der Consultants, der Manager, der Organisations- und Netzspezialisten hat sagen können, wie das explizit gemachte Wissen wieder implizit wird, was ja wohl für die Zeit-, Entscheidungs- und Wahrnehmungsrationalität wichtig ist. Darüber hinaus setzt dieses Managementkonzept ein Wissensmodell voraus, das auf Black-Box-Module orientiert ist, auf Finden und Anwenden: „Hey, da haben wir es ja gefunden, das Wissen!“ Zu unterscheiden und zusammenzuhalten wäre aber aus meiner Sicht: • zustandsorientiertes Wissen • deklaratives Wissen • prozedurales Wissen • Fakten- und Regelwissen • Orientierungswissen • Verfügungswissen implizit/explizit • Anwendungswissen (logisch, instrumentell, organisatorisch) • rechthaberisches Wissen • irritables Wissen • transformierendes Wissen • interpretierendes Wissen • stilles Wissen • abstraktes Wissen Jede hier betretene Stufe hat ein eigenes Referenzmodell und ein ihr typisches Referenzdilemma. Dieses besteht darin, nicht ohne die Bestätigung durch andere Stufen auszukommen. Dass dies im heutigen Wissenssystem durch Arbeitsteilung zu kompensieren versucht wird, löst die Frage nicht: wie im einzelnen Menschen, wie in kulturell relativ homogenen Gruppen, wie in kulturell heterogenen Gruppen usw. die Verbindungen

60

MANFRED FASSLER

zwischen den einzelnen Ebenen hergestellt und aufrechterhalten werden. Auf den ersten Blick scheinen dies kommunikationswissenschaftliche Probleme zu sein und auf eine optimale Verständigung zu zielen. Auf den zweiten Blick sind es grundlegende Fragen an die Architekturen von Wissen, an die gemischten Logiken von Erkennen. Es ist hilfreich, drei Wissensstrukturen zu unterscheiden: • das bestandsbezogene Wissen, das gesichert, verabredet, in Erziehungsformen und Lehrplänen aufbereitet, alltäglich in routinierter Weise eingesetzt wird • das regelhaft neukombinierte Wissen, das in Arbeits-Teams, in Projekten, in interdisziplinär arbeitenden Abteilungen entsteht, oder auch an manchen Nachmittagen in Marketings- oder Markenabteilungen • das neue entstehende Wissen, das in der zufälligen, freien, regelgerechten Assoziationen, Fiktion, im entwerfenden, experimentierenden Denken auftaucht. Für alle drei Unterscheidung gilt, dass Wissen einen konventionalisierten, variationsfähigen und prinzipiell revidierbaren Status von Informationen besitzt. Verändert sich die Informationsbasis, greift dies auf Wissen durch, früher oder später. Nun lassen sich die kargen Bestimmungen der drei Ebenen ausweiten: • Wissen ist immer eine (selektive aber reichlich komplexe) Verdichtung aus Daten, Information, Kognition, Reflexion, Erkennen, formalen Bestätigungsverfahren (Zertifizieren), Referenz, Konventionalisierung, Speicherung, Archiv, Daten. • Wissen wird von mir als ein zusammengesetztes, störanfälliges Produkt spezifischer Verständigungsverfahren verwendet. Dies bedeutet auch, dass Wissen eine Zeitform der Wahrnehmung, des Gedächtnisses und der Inter-Re-Aktivität ist. ‚Zusammengesetzt‘ werden Informationen, die grundsätzlich völlig verschiedenen Abstraktionsgraden, unterschiedlichen dinglich-gegenständlichen oder undinglichen Reichweiten oder Zusammenhangsbelegen oder -fiktionen entstammen können. Z.B.: Das Wissen über ein Buch kann das um den Säuregehalt des Papiers, um die Binde- oder Drucktechnik, die Autorschaft, den Markt, die Seitenzahl, den thematischen Inhalt, den Preis, die von anderen angenommene oder kritisierte Bedeutung usw. sein; oder auch alles zusammen.

NETZWERKE UND/ODER NEUE WISSENSREGIME?

61

In diesen Unterschieden ist erkennbar, dass der jeweilige informationelle Wissensstatus eine Abstraktion über einen denkbaren, handhabbaren Gegenstandsbereich ist, der im Status von dem beschreibenden, beobachtenden, bewertenden, selektierenden, deutenden Vorgang abgegrenzt ist. Beziehen wir uns in dieser Weise auf die Verfahrensebene ‚Wissen‘, so umfasst dieses handwerkliches, produktionsspezifisches, abstrahierendes, organisierendes, entwerfendes Wissen und eine Menge Unterscheidungen mehr. Wissen ist insofern ein mehr oder minder komplexer Präsenzgenerator. Die Kunst zu wissen, war an die Kompetenz gebunden, Daten als Informationen zu vergegenwärtigen und mit diesen in die vorgängigen Verhältnisse einzugreifen. Die Erzeugung von Gegenwart durch spezifisches Wissen erfolgte und erfolgt immer nach zugelassenen Eingriffsmustern und Veränderungskoordinaten. Unter diesen Aspekten wurde Wissen über etliche Jahrhunderte entweder eine außerweltliche Herkunft, eine fraglose Repräsentationsfunktion, eine hoheitliche Amtsfunktion nachgesagt und ein institutioneller Hermelin umgehangen, oder mit ihm wurde auch eine befreiende, aufklärerische, erleuchtende Zukunft versprochen. Manchmal auch kam zuerst die Revolution und dann das Wissen, na ja, zumindest im Denken der Berufsrevolutionäre. Diese These der Vergegenwärtigung/der Entstehung (Generierung, Emergenz), die mit Erkennen und Wissen verbunden wird, führt zu einer weiteren These: Wissen löst Informationsflüsse aus. Dieses Auslösen von Informationsflüssen nimmt den monologischen Wahrheits- oder Realitätsanspruch ganz zurück. Die ausgelösten Prozesse sind im Sinne der oben angesprochenen zirkulären Verdichtung (und Determination) weder linear, noch sind sie auf eine Dimension der Wahrnehmung, auf ein Berufsfeld oder ähnliches zu reduzieren. Anders gesagt: das, was wir als ‚zwischen den Zeilen lesen‘ kennen, wird wohl auch für Wissen angesetzt werden können: wir wissen (lesen) zwischen Wissenszeilen, -ebenen, -situationen. Möglich, dass die Karriere des digitalen Netzwerkes auch damit zu tun hat, dass rascher und spielerischer zwischen Wissen gewusst werden kann (und darf) als außerhalb des Netzes.

62

MANFRED FASSLER

3. Folgt man dieser Idee, dass Wissen Informationsflüsse auslöst, die in ihrer Breite nicht finalisiert sind, so wird es wichtig zu beobachten, wie die jeweiligen fachpolitischen, pragmatischen, ökonomischen Selektionen erfolgen. Die Modelle der semantischen Extraktion von Wissen, der syntaktisch-grammatikalischen Strukturierung, der Codierung und Übertragungsvorgänge sind dann zu verbinden mit dem, was syntaktische, semantische und pragmatische Interpretation genannt wird. Wie differenziert sich dies, wenn wir eine multisensorische Referenzebene, also ein digitales Interface für informationelles Wissen annehmen? Wie differenziert sich dies, wenn wir die hoheitlichen, normativen, institutionellen Verstetigungen nicht mehr haben, und auch nicht mehr die absichtliche, konsensuelle Speicherung kulturell bevorzugter Informationen und deren Begleitung durch festgelegte Lese- und Verwendungsarten? Damit sind wir wieder bei medialen, multisensorischen, different-kognitiven Prozessen. In einer weiteren These spreche ich die Grundüberlegungen des Zusammenhanges von Netz und Wissen an: Die neuen Wissensgenerationen kennen keine Verlässlichkeit in Zeit und Raum, sondern fordern Abwechslung, Variation und zeitnahe Neuverfassung/Neufassung von Wissens. Etwas volkstümlicher sprach Bill Gates dies aus: „Zum Bildungswesen sage ich nur soviel: Wer nicht lernt, dass Leben lernen bedeutet, hat keine Chance. Und ohne Medien ist dieses Leben undenkbar. Es ist unsere Aufgabe, dafür zu sorgen, dass sich der Bildungsstand der Nationen weiterhin kontinuierlich verbessert.“3

Würden Sie diesen Überlegungen widersprechen? Ich vermute, nicht sehr heftig. Wenige Jahre zuvor hatte der renommierte Musikwissenschaftler Klaus Peter Richter in seinem Buch Soviel Musik war nie geschrieben: „Ohne Medium ist das Leben ein Irrtum.“4 Leben: „Undenkbar“ oder „ein Irrtum“ ohne Medien? Beide Positionen lenken die Aufmerksamkeit auf die Frage, in welcher Weise gegenwärtig das kulturelle Vermögen Wissen und die

3 Das Gates 2002 Interview. Bill Gates im Gespräch mit Dirk de Pol, 1997. URL:http://www.heise.de/tp/deutsch/html/result.xhtml?url=/tp/deutsch/inha lt/te/1280/1.html&words=Bildungswesen %20Gates, 20.9.2004. 4 Richter, Klaus Peter: Soviel Musik war nie. Von Mozart zum Digitalen Sound. München 1997.

NETZWERKE UND/ODER NEUE WISSENSREGIME?

63

menschliche Fähigkeit zu wissen, medientechnologisch aufbereitet werden. Die Frage nach Regimen muss sich auf diese drei Felder einstellen: • das symbolische, semantische, medienkompetente Vermögen, etwas zu wissen, • die Infrastruktur und • die Regeln der Wissens-Kontinuität. Sowohl die Aussage von Gates als auch die von Richter rütteln nicht nur an den Ideen eines monomedialen, textlichen oder auch intertextuellen Wissens. Beide verbindet die Grundthese: „Ohne Medien zu wissen, ist ein Irrtum.“ Sicherlich gilt dies unter der Annahme, dass die Informationsobjekte, über die innerhalb eines Wissensfeldes kommuniziert wird, zunehmend strukturierter werden. Sicher bevorzugt man mit dieser These die digitale Produktionsund Erhaltungslogik von Daten und Informationen ebenso wie die gegenwärtige Medienkonvergenz (technologisch ausgedrückt) oder die kognitive Medienintegration (kulturwissenschaftlich formuliert). Aber nun ist's mal so: Die Strukturen des Wissens ändern sich durch technisches Sehen, technisches Hören, durch non-optical images, durch wearable technologies, durch third skin-archives. Wissen ist ein techno-genes Artefakt geworden, was das Gehirn nicht wirklich aufregt, nur die alten implantierten Phantasmen eines cartesianischen Geistes. Was wir Wissen nennen, hängt von der Inter-Re-Aktivität des kognitiven Agenten Mensch mit den Arten seiner Umwelt und Reflexion zusammen.

4. Wissen ist ein Durchgangsphänomen. Damit ist der Regimefrage die Transformationsthese vorangestellt. Längst ist eine Industrialisierung der Codes und Programme entstanden und in ihrer Folge ein informationeller Kapitalismus, in dessen Marktgeschehen nicht nur intelligente Geräte entstehen, sondern auch Wissen als ein zusammengesetztes, variationsreiches, techno-intelligentes Produkt. Wir stehen in einer kulturellen Revolution, die aus dem Netz kommt, notierte vor kurzem Pierre Lévy. Anders gesagt: Wir verwenden Wissen, das durch die Nutzung der netzbasierten Informationen entsteht und vergeht. Wissen ist Dimension eines informationellen Ökosystems geworden, eingefasst in die zirkulären Dynamiken der globalen Verbrei-

64

MANFRED FASSLER

tung von kybernetischen, nutzungsintensiven Räumen, von Cyberspaces. In ihnen hat kein Bedeutungsbezug, kein Dogma, keine Doxa, keine Gewissheit dauerhaften Bestand. Dennoch bleibt die Frage legitim und wichtig, wie denn diese dynamischen Ordnungen aufrechterhalten werden.

5. Nun bin ich mir unsicher, ob man durch das Internet schlauer werden kann. Mir ist dies auch zu passiv formuliert. Dass man in ihm sehr viel lernen kann, dessen bin ich sicher. Aber dies ist nicht direkt mein Thema. Die Frage, der ich zu folgen beabsichtige, ist aber so eindeutig nicht. Dies liegt nicht nur an dem schillernden Wort ´Wissensregime´, sondern auch an dem, was man inzwischen selbstverständlich als Internet bezeichnet. Das Fragezeichen eröffnet noch andere Ungewissheiten, nämlich ob es sich auf neue ‚Wissensregime‘ oder ‚das neue Wissensregime im Internet/durch das Internet‘ bezieht. Immerhin, so könnte man sagen, gibt es eine Beziehung zwischen Internet und Wissen. Diese ist nicht selbstverständlich. Ich erinnere mich noch gut an die enormen Widerstände von Gymnasiallehrerinnen und -lehrern, als Anfang der 1990er Jahre Ponton Medialab im Auftrag des Berliner Senats eine Vernetzung von Lehreinheiten, Lernräumen, individueller Kommunikation und Datenbanken entwickelte. Projektname war Comenius. Ich erinnere mich auch der Gegenbeispiele: Ebenfalls Anfang der 1990er wurde das erste Transatlantische Klassenzimmer zwischen Hamburg und Chicago eingerichtet. Erst seit wenigen Jahren ist anerkannt, dass das Internet auch das Format eines Wissensvermittlungsmediums annehmen kann. Wobei immer mit angesprochen wird, dass die dynamischen Vernetzungen des Mediums letztlich weder nationalkulturell noch medial reduziert werden kann. Die technologischen Reichweiten haben die Reichweiten jeglicher Information vergrößert. Die weltweite Verbreitung der Netzmedialität beinhaltet selbstverständlich lokale Nutzungsarrangements in Firmen, Nachbarschaften oder Schulklassen. Allerdings sind diese Arrangements nicht mehr im Sinne einer homogenen, nationalkulturell eindeutigen Wissenslandschaft zu verstehen. Es sind Regionen einer weltweit verstreuten netzbasierten Wissensallianz. Ihr Kapital ist die Fähigkeit aller Netzbewohner und -bewohnerinnen, diese Allianz für das offene Wissen immer wieder in

NETZWERKE UND/ODER NEUE WISSENSREGIME?

65

Projekte zu überführen, in denen über das zu speichernde und wieder zu verwendende Wissen neu entschieden wird. Keineswegs zufällig spricht man von evolutionären Netzwerken oder auch von völlig neuen Weitergaberegeln von Wissen innerhalb der Netze oder in Online/Offline-Wechselwirkungen. Empirisch drückt sich dies darin aus, dass innerhalb der letzten drei Jahre annähernd 50 % der Homepages verschwunden sind, aber sich deren Gesamtzahl vervielfacht hat. Es drückt sich auch darin aus, dass 86 % der Gruppen im Netz – ob Newsgroups, Mailinglists, geschlossene Chatgruppen u.ä. – nicht ‚älter‘ als zweieinhalb Jahre werden. Man kann sagen, dass sich innerhalb der Netzwerke eine Art experimenteller Gesellschaftlichkeit herausgebildet hat. Es ist keine ‚Utopie‘, sondern eher eine ‚beispiellose Pragmatik‘, mit medialen Strukturen wissenserzeugend umzugehen. Man macht es sich leicht, diese als Verfall oder Zerfall von Gesellschaft abzuwerten. Vielmehr sind diese Experimente die Folgen • von rasanten Lernprozessen in den Netzwerken, • von Ausdifferenzierungen, von Interessenverlagerungen, • von Optimierungsverhalten und • individuellen Entscheidungen, das knappe Gut der Aufmerksamkeit und das noch knappere Gut der Bedeutung innerhalb der Netze gezielt einzusetzen. Jene Menschen, die das Netz als einen offenen Raum der Wissensallianzen verstehen, bilden immer wieder neue Wissenskonsortien. Hat sich ihr Interesse, die Informationsbasis oder das Kommunikationsumfeld erschöpft (oder alles zusammen), sucht man einen neuen Zusammenhang, eine neue Umgebung. Ich sprach von einer beispiellosen Pragmatik, mit medialen Strukturen umzugehen. Es ist meine Überzeugung, dass sich auf dieser Basis ein tiefgreifend verändertes Verständnis von Wissen herausbildet. Es gewinnt seine Bedeutung nicht mehr durch irgendwelchen Vollständigkeits- oder Ontologiebezug. Es besteht in der Fähigkeit, Informationen immer wieder neu mit dem Ziel zu rekombinieren, Erkennen zu ermöglichen, und nicht vorrangig Erkenntnis. Dies kann als eine erste grundlegende Veränderung verstanden werden: Wissen wird zum Assistenten für Erkennen, und ist nicht Gralshüter von Erkenntnis. Die zweite besteht meines Erachtens darin, dass es darum geht, die der Möglichkeit nach vorhandenen Bedingungen für Wissen immer häufiger auf Projekte zu beziehen.

66

MANFRED FASSLER

Ich sprach dies mit dem Terminus Wissenskonsortium an: Wissen muss zum Projekt werden, um erhalten werden zu können. Beide Veränderungen haben Teil an den netzbasierten weltweiten Speichern und Knoten für mögliches Wissen. Indem nun Wissen als möglich beschrieben wird, und diese Möglichkeit wiederum an Experiment und Projekt gebunden werden, entsteht ein Sektor, in dem Wissen der Möglichkeit nach vorhanden ist, seine Realität allerdings in der Verwendung der Informationsbasis besteht. Dies wird gern als informationelle Reduktion des Wissens missverstanden. Dies verstehe ich als die dritte grundlegende Veränderung des Aufbaus und der Realität von Wissen: Die Frage ist nicht mehr: „Weiß ich?“, sondern lautet: „Kann ich Wissen?“ oder: „Weiß ich, was ich können muss, um unter netztechnologischen Bedingungen Wissen (als erreichtes Erkennen) und wissen (als Fähigkeit) zu können.“ Um durch das Internet ‚schlauer‘ werden zu können, muss man es also anwenden, auf seine eigene Wahrnehmung und informationelle Kompetenz. Diese drei etwas zugespitzt formulierten Veränderungen berühren den Kern der Frage nach den Wissensregimen. Denn akzeptiert man sie, kann sich die Frage nach dem Regime nicht an eine außenliegende Instanz richten, sondern betrifft die Regeln des Aufbaus von Wissen und die Art seiner inneren Stabilität. Dies zu beobachten, zu beschreiben und zu bewerten fällt unter Anwendung überlieferter Wissenskonzepte schon schwer. Noch schwieriger wird es, wenn man bedenkt, dass die computerbasierten Netzwerke global ausgelegt sind. Oft genug wird gerade diese ‚Globalität‘ als ein ‚Außenregime‘ verstanden, oder besser: missverstanden. Das Globalisierungs-Thema als These der Fremdherrschaften steht hier Pate. Aber es gibt noch einen Paten: Marshall McLuhan. Für ihn waren die sich abzeichnenden Netzwerke „extensions of man“ und diese Ausweitung bzw. Ausdehnung entwickelt ihre Eigengesetzlichkeit, in deren Folge die technologische Struktur des Mediums selbst die Botschaft wird. Das passende Zitat dazu ist in allen Köpfen („the medium is the message“). Das Marketing ist exzellent. Nur wird’s dadurch auch nicht wahr. Diese alte und pausenlos wiederholte massentheoretische Ideologie von der ‚Außenlenkung‘, die seit David Riesman in den Köpfen herum spukt, stellt Wissen gegen Medien. Und eben dies ist für die medialen Netzwerke und das durch sie ermöglichte Wissen keinerlei Beschreibungsebene mehr.

NETZWERKE UND/ODER NEUE WISSENSREGIME?

67

Es ist wichtig, die unübersehbaren Variations- und Selektionspotentiale von Informationen, die medial als Möglichkeit zu wissen bereitgestellt sind, verstehen zu lernen. Und dies heißt aus meiner Sicht, die offenen (anwendungsgebundenen) Reichweiten der medialen Zusammenhänge, die Wissen ermöglichen, ebenso beobachten zu lernen wie das, was ich vorhin den Übergang von Wissensallianz zu Wissenskonsortium nannte.

6. Einen dichten Zusammenhang von netzintegrierten Medien und Wissen zu denken, ist noch ungewohnt, aber unvermeidlich. Eine Hürde scheint darin zu bestehen, Medien und Wissen global zu denken, als eine transkulturelle oder metakulturelle Kulturtechnik der Vermittlung und Kommunikation. Mitte der 1990er Jahre sprach man von Babylonisierung der Kommunikations- und Wissenslandschaft. Softwareentwickler schrieben rasch ein Übersetzungsprogramm, das Debabelizer genannt wurde. Damit war die Kritik nicht wirklich beruhigt, was zu erwarten war, ging es ja um etwas anderes. Die Irritationen lagen (und für manche liegen sie noch) darin, dass für immer umfassendere informationsreiche und wissensbefähigende Kommunikation offensichtlich die hochgelobte angesichtige Kommunikation nicht erforderlich ist. Der wirkliche Schrecken aber bestand und besteht darin, dass erhebliche Areale unseres Wissens so formalisiert sind, dass sie immer wieder identisch wiederholt werden können. Dabei geht diese Formalisierung weit über das hinaus, was man als Routine beschreibt. Routine ist eine (handlungs-implizite) stille, stumme, unbedenkliche Wiederholung. Formalisierung ist eine explizite Vorlage. Dass eine solche Wiederholbarkeit ein wichtiger lebenspraktischer und pädagogischer Formalismus war und ist, sollte nicht darüber hinweg täuschen, dass Wiederholung die situationsunabhängige Formalisierung voraussetzt. Nichts anderes ist für Speicherungen vorauszusetzen, nichts anderes für die Programmierung. Sind die Bedingungen, wissen zu können/Wissen zu können in Formalismen gespeichert, die unabhängig von Ort und Zeit aktualisierbar sind, so ist es auch egal, wo der Speicher steht, wie verstreut er ist, und wo und wann seine Leistungen abgerufen werden. Und diese Situation ist mit den digitalen Netzwerken erreicht. Und wie sind diese zu beobachten? Sind sie in ihrem Verhältnis zu Wissen zu beschreiben? Handelt es sich beim Internet um eine neue phy-

68

MANFRED FASSLER

sikalische Struktur der Speicherung von Daten oder um einen neuen globalen Modus der Wissenserzeugung und des Wissenserhalts? Die Breite der Fragstellungen ist erheblich. Pierre Lévy ging in seinem Buch über „kollektive Intelligenz“ so weit, von der Entstehung eines virtuellen Wissensuniversums zu sprechen, von einer Intelligenz, „die überall verteilt ist, sich ununterbrochen ihren Wert erschafft, in Echtzeit koordiniert wird und Kompetenzen effektiv mobilisieren kann“.5 Andere, wie Stewart Brand, sehen in der derzeitigen Struktur des Internet nicht die fraglose Vergrößerung der Datenbasis für Wissen, sondern die größte Informationsvernichtungsmaschine, die die Menschheit hervorgebracht hat. Er und andere Autoren fordern andauernde kulturelle Diskussionen und Entscheidung über Auswahl- und Leitkriterien für Informationserhalt und Informationsweitergabe. Lévys Entwurf und Brands Kritik schließen sich keineswegs aus. Was sie verbindet ist der Gedanke an eine völlig andere Nutzung der Bandbreiten und Medienformate im Internet, um Wissen und Intelligenz zu erzeugen und zu erhalten. Francis Heylighen, Computerwissenschaftler an der Freien Universität Brüssel sprach im Verlauf des GlobalBrain-Workshops in Brüssel im September 2001 die Vermutung aus, dass die Zukunft der Netze eine Art instantan arbeitendes globales Gehirn seien. „Ich würde es aber nicht künstliche, sondern kollektive oder symbiotische Intelligenz nennen.“ Statt AI, Artificial Intelligence, also IA: intelligence amplification. Das dynamische Medium als Intelligenzverstärker für Menschen, Menschen als intelligente Umgebungen für die Netzwerke. Vieles deutet darauf hin, dass das Internet zu einem unüberschaubaren, aber enorm leistungsstarken assoziativen Netzwerk der Netzwerke wird. Es wird aber nur dann ein „lebendes Produkt des gesammelten Einfallsreichtums der Menschheit“, wie Johan Bollen vom Los Alamos National Laboratory auf demselben Workshop sagte, wenn es in der Weise brauchbar ist, wie Menschen Wissen erzeugen: nach Bedeutungs-, Zuordnungs-, Nachfrage- und Entscheidungs-Hierarchien. Für Bollen sind diese Hierarchien als Häufigkeiten darstellbar. Die von ihm entwickelte Suchmaschine Google, wohl eine der avanciertesten im Netzgefüge, arbeitet auf dieser Basis der positiven oder negativen Verstärkungen, von Wiederholungen usw. Wissensofferten entstehen so auf der Basis von Häufigkeits- und Wahrscheinlichkeitsrechnungen, die an den Nutzungsverläufen, an 5 Lévy, Pierre: Die kollektive Intelligenz. Eine Anthropologie des Cyberspace. Mannheim 1997, S. 29.

NETZWERKE UND/ODER NEUE WISSENSREGIME?

69

Suchgewohnheiten, an semantischen Fragefeldern entwickelt werden. Interessant an den gegenwärtigen Debatten ist, dass sie der oben angesprochenen These nachstehen, Wissen zum Projekt zu machen, es über seine Entstehungsbedingungen zu bestimmen. Die Forderung, gebrauchskulturelle Maßstäbe bei der Beobachtung von informationellen Prozessen vorrangig zu debattieren, ist in vielfacher Hinsicht von Bedeutung: • sie anerkennt erstens, dass das Internet durch dynamische und intensive Mensch-Computer-Mensch-Interaktivität geprägt ist; • sie anerkennt zweitens, dass das Internet beteiligungs- und änderungsintensive Wissensumgebungen zur Verfügung stellt; • sie anerkennt drittens, dass das Internet nicht Wissen anbietet, sondern spezifische Modi der Wissenserzeugung, Wissensverbreitung und des Wissenserhaltes; • und sie anerkennt viertens, dass Wissen zunehmend experimentellen Charakter bekommt, und dies nicht nur in den Naturwissenschaften, für die dies auch schon lange vor dem Netz galt; • und sie anerkennt fünftens, dass das informationelle Auswahlphänomen Wissen in der Inter-Re-Aktion von menschlichen und medialen/maschinellen Agenten entsteht . Wissen wird durch die Erweiterung des individuellen und kollektiven Einzugsbereiches von Patenten, neuer Software, neuen Entdeckungen und Erfindungen, durch die transkulturellen globalen Kontakte und Gruppenbildungen zu einer nach-kanonischen (transklassischen) Fähigkeit kultureller und individueller Selbstorganisation. Aus diesen fünf Gründen – also Mensch-Computer-MenschInteraktivität, beteiligungs- und änderungsintensive Wissensumgebungen, der Modalisierung von Wissen, experimenteller Charakter von Wissen, informationelles Auswahlphänomen – greife ich den Aspekt der Nutzung oder des Gebrauches auf und erweitere die Titel-Frage: Wie lassen sich Informationsregime entwickeln, die offene Plattformen für Wissensentwicklung bereitstellen? Sie werden an dieser Fragestellung unschwer erkennen, dass es mir dabei um Open Source versus geschlossene Netze geht, also um zwei fast antagonistisch behandelte Strukturen (alias Regime) der Wissenserzeugung, des Wissenserhalts und der Wissensweitergabe.

70

MANFRED FASSLER

7. Aber lassen Sie mich zunächst kurz neben ‚Wissen‘ auf das andere Großwort eingehen: ‚Internet‘. Das Internet stellt eine immer verzweigtere Dynamik von Medienensembles und Raumgefügen dar. Mit ihm wird der Arbeitsplatz ebenso neu geschaffen wie ein zielorientierter Wissensraum, der als collaborative workspace entwickelt wird; die im Internet möglichen Medienensembles aus Zeitungen, wissenschaftlichen Bibliotheken, Chatrooms, dreidimensionalen virtuellen Räumen, aus knowledge robots oder mailing lists schaffen global verteilte Zeitordnungen, sog. nettime, ebenso wie sie Beteiligungsverweigerung, firewalls, elektronische Wachhunde und public access als ihre Standardausstattung anbieten. Die Einzahl ‚das Internet‘ benennt also keineswegs einen einheitlichen universalen Medienraum, sondern allerhöchstens eine differenzierte Struktur für Verbindungen zwischen Backbone-Rechnern, Servern und PCs. Schaut man näher hin, so besteht das Internet als Netzwerk-Struktur für annähernd 40.000 Netzwerke weltweit. Es sind also ca. achtzig mal mehr Netze am Werk als es nationale Gesellschaften gibt. Das, was wir Internet oder in besonderer Angebotsstruktur das WWW nennen, macht, wenn es hochkommt, ein Viertel der Globalnetze aus. Beleben 80-100 Millionen Menschen täglich das Internet, so beleben 800 Millionen Menschen täglich die propriotären Netze der Fabriken, Verwaltungen, der Banken und Versicherungen, der Werbeagenturen und der Future Labs, der Gentechnologischen Labors und der Seminare über game design, knowledge design, knowledge management oder audiovisuelle, digitale Mediengestaltung. Kim Feldman stellte für das Jahr 2010 1,5 Milliarden Nutzerinnen und Nutzer als Durchschnittswert der Prognosen in Aussicht. Diesen Zahlen stehen andere gegenüber. Nach Berichten der UN haben in Afrika 0,3 % der Bevölkerung Zugang zum Internet, im mittleren Osten sind es 0,8 %, im pazifischen Raum 1,6 %.6 Auf dem G-8Gipfel in Kyushu-Okinawa vom 21.-23. Juli 2000 wurden Experten eingeladen, Prinzipien für die positive Veränderung des global digital divide zu global digital opportunities zu formulieren. Sie entwickelten „Nine Principles for the Global Digital Opportunity“. Punkt 1: „The G-8 should take a leadership role by advancing, together with developing countries, a positive vision of global digital opportunity and by organizing a coordinated effort, backed by high-level support, to assist developing coun6 URL: http://www.un.org, 20.9.2004.

NETZWERKE UND/ODER NEUE WISSENSREGIME?

71

tries in its realization“ Punkt 2: „universeller Zugang zur Bildung und technischer Schulung.“7 Beteiligt waren Microsoft, Yahoo, 3Com, Motorola, Novell, Hewlett Packard. Ähnliches findet sich in den Satzungen von W3-Consortium und Internet Society. Unter diesen wenigen Zahlen bekommt die Aussage von J. Yang, Mitbegründer des Internet-Portals Yahoo! eine nochmals veränderte Dimension: „The Internet is a social phenomenon as much as a technological phenomenon.“ Beide Bereiche – das Soziale und das Technologische – sind in den Großen Zahlen, wie ich sie gerade angesprochen habe, nicht entschlüsselbar. Aber auch nicht im Argument der Archive oder der Individualität. Jedenfalls verstehe ich die Leitfrage nicht als Suche nach den Einzelpersonen, die dann als Regimeeigner gegenüber Regimegegnern aufgelistet werden könnten. Mich interessieren heute weder Ian Sutherland als Erfinder der immer noch gültigen Interfacestruktur von CPU/Monitor/Tastatur oder Bill Gates als einer der Erfinder des Personal Computer, noch Jaron Lanier als Erfinder des Konzepts der virtuellen Realitäten, Ted Nelson als Erfinder von Hypertext oder Tim Berners-Lee als einer der Mitbegründer des WWW. Mir geht es um Strukturen, die durch diese Erfindungen entstanden sind, um deren Gebrauch und deren Bewertung, letztlich geht es um die medial ermöglichte Selbst-Organisation von Wissen. Übersetzt in eine etwas abstraktere Beobachtersprache heißt dies nicht allein Mikro- und Makroperspektiven zu suchen, sondern sich auf den Aufbau, die innere Verfassung der Wechselverhältnisse von audiovisuellen, taktilen, abstrahierenden Realitätsofferten einesteils und den Aufbau von Wissens-Kompetenzen anderenteils einzulassen. Diese Frage nach den konstitutiven und differenzierenden Bedingungen berücksichtigt auch, dass Wissen keine verfügbare Größe ist, sondern ein Prozess, ausgestattet mit Diskursen, Streite, historischen und ökonomischen Bedingungen der Selektion, der funktionalen Differenzierung, kontroversen Zeitformen und Entwurfsmodellen. Rückübersetzt heißt diese Betonung der Meso-Ebene gegenüber der Mikro- und Makrosicht: Weder das Internet noch die Schule machen schlauer, weder eine einzelne Lehrerin oder ein einzelner Lehrer noch eine audiovisuelle Plattform hypermedialer Informationsangebote machen schlau und schlauer. Der Gedanke, dass Wissen ein Prozess ist, führt kurz etwas weg vom Internet, von der Lehrerin, weg vom Erzieher hin zum Gehirn: Un7 URL: http://g8kyushu-okinawa.go.jp/e/index.html, 20.9.2004.

72

MANFRED FASSLER

ser Gehirn, um das es ja auch geht, repräsentiert Welt nicht, sondern erzeugt Welt. Dies ist für die Wissensdiskussion, um die wir uns hier bemühen, zentral. Denn dann müssen wir uns um zwei Dimensionen des Wissens bemühen: um seine Formalisierung, die die vorherige praktische Form des Wissens informalisiert (informatisiert), ihr also die Form nimmt; und um die Formung, also um die Erzeugung einer aktuellen Gestalt/einer Form von Wissen. Ich hatte dies weiter oben als ein Wechselverhältnis von Bedingungen, Wissen zu können und der pragmatischen Gestalt von Wissen angesprochen. Wichtig scheint mir dabei, dass die Bedingungen, Wissen zu können/wissen zu können dann am besten erfüllt sind, wenn die Gründe, weshalb man etwas kann, nicht ausdrücklich zum Thema gemacht werden müssen. Nun hab ich gut reden, denn ich mache sie ja selbst zum Thema. Aber ich tue dies als Beobachter der Nutzer (Beobachter Zweiter Ordnung) und stelle fest, je selbstverständlicher die Bedingungen angenommen werden, um so rascher ändern sich der Aufbau des Wissens und die Zielsetzungen der Wissensallianzen. Medienkompetenz ist also in einem exakten Sinne auch Medienroutine.

8. Man kann in den Forschungsergebnissen zu Netzkulturen sehr gut erkennen, dass in der Matrix der Knoten und Kanäle der Computer als Einzelobjekt verschwindet – obwohl er wieder auftaucht, wenn etwas nicht funktioniert, d.h. wenn die Routinen und das stille Wissen über den Umgang mit künstlichen Umgebungen gestört werden. Längst aber gibt es beides: • Routinen im Umgang mit der neuen audiovisuellen Kulturtechnik ‚Mediennetzwerk‘ und • das stille Wissen um die universell veränderten Beziehungen der Menschen zu Wissen und zu damit verbundenen Lebensformen ganzer Gesellschaften. Und es gibt die Tendenz, dass immer größere Bereiche der Informationsverarbeitung entstehen, die nicht mehr das menschliche Wissen durchlaufen müssen, um sehr komplexe Entscheidungsverläufe bearbeiten zu können. Da eben dieses menschliche Wissen Modelle entwickelt hat, die durch extreme Vereinfachung enorme Verschaltungen ermöglicht, führt sich menschliches Wissen durch seine Formalisierungen immer mehr an die Grenze seiner eigenen Begründung.

NETZWERKE UND/ODER NEUE WISSENSREGIME?

73

Vielleicht entsteht so etwas wie Netzschläue, der Bauernschläue nicht unähnlich, zu der ja auch ein umfangreiches Wissen über die Lebenszyklen von Tieren, Jahreszeiten, komplexen organischen Prozessen gehörte, um einen anderen Menschen in einer bestimmten Situation zu einer letztlich ihm schadenden Entscheidung zu führen. Susan Blackmore spitzt die Grenz(gänger)-Situation von Wissen zwischen Gehirn und Maschine noch zu. Den Prozess der ständig größer werdenden Reichweiten der Netzwerke führt sie in ihrem Buch über die kulturellen Imitations- und Vererbungsmuster, die sie in Anlehnung an Richard Dawkins ‚Meme‘ oder ‚Memplex‘ (im Gegenüber von Komplex) nennt, zu der Frage: „Braucht uns das Internet? Im Augenblick ja, wenn auch nicht unbedingt für immer. Wir haben die Hardware und die Software geschaffen, von denen es abhängig ist, und wir müssen es unterhalten, oder das Kopiersystem [also Netz als kulturell evolutionärer Algorithmus, M.F.] kollabiert. Wichtiger noch, unsere biologisch evoluierte Natur bestimmt noch immer in einem sehr großen Maße, welche Meme erfolgreich sind. […] Es liegen jedoch viele Veränderungen vor uns. Es gibt bereits frei driftende Programme, die sich im Cyberspace bewegen, sogenannte bots (Abkürzung für robotic programs). Der Weg nach vorn zur künstlichen Intelligenz scheint darin zu bestehen, kleine und dumme Einheiten zu bauen, die gemeinsam clevere Dinge tun.“8

Dies als technologische Determination zu verstehen, wäre allerdings falsch.

8 Blackmore, Susan: Die Macht der Meme oder: Die Evolution von Kultur und Geist. Heidelberg 1999, S. 343. Übrigens sei vermerkt, dass Dawkins keineswegs der erste war, der sich der Frage widmete, wie Menschen in immer komplexeren Wissens- und Informationszusammenhängen ihren kognitiven und intellektuellen Anschluss organisieren. Es war Vannevar Bush, der sich dieses Problems schon in den späten 1940ern annahm und den Bedingungen kommunikativer und medialer Organisation in stets verändert komplexen Umgebungen nachging. Er nannte den Formalismus, mit dessen Hilfe Menschen assoziativ Daten in Informationen transferieren und assoziative Gedanken bilden können „assoziatives Indexieren“ und sah ein beispielloses Informationsmanagement auf die Menschen des 21. Jahrhunderts zukommen. Das Maschinenprogramm, das dies realisieren sollte, nannte er MEMEX. Bush, Vannevar: „As We May Think“, in: Atlantic Monthly, Jg. 1945, Nr. 176, S. 101-108.

74

MANFRED FASSLER

9. Wissen ist immer zu lernendes Wissen. Es ist ein kulturelles Format, zu dessen Bestandteilen Medien, der einzelne Mensch, Institutionen, Verteilungs- und Erhaltungsmacht gehören. Durch dieses Format sind Erkenntnis, Vermutungen, Erwartungen, Thesen und Hypothesen organisiert. Wissen ist somit immer auch Wissenspolitik, strategische Option, Behauptung von Erkenntnis- oder Handlungsfortschritt, Setzung von Überlieferung oder ‚fröhliche Wissenschaft‘ (F. Nietzsche). Das heißt auch, dass Wissen nicht nur auf einer professionellen Ebene relativ ist, sondern in seiner soziokulturellen, medial-kommunikativen Zusammensetzung ebenso. Diese Relativität ist aber zugleich Quelle von Machtansprüchen über anderes Wissen. Diese Machtansprüche ergeben sich allerdings nicht aus einer inhaltlichen Qualifizierung des Wissens, sondern aus der Betonung der heroischen Ausmaße, der universalen Reichweiten und universalen Bedeutungen des im Grunde partikulären, relativen Wissens. Wissen ist also nicht per se Macht, und das Internet ist nicht per se globale Macht. Interessant wird es, verschiebt man die Frage von Wissen hin zu den Bedingungen der Möglichkeit, Wissen zu erzeugen, also Erfindungen, Diskurse, Patente, experimentelle Felder der Anwendung, oder auch zu den Bedingungen der Möglichkeit, sich bestimmten Wissens zu entledigen. Unter dieser Fragestellung wird das Internet in einer völlig anderen Weise wichtig: nämlich als instabile Weltregion der Wissenserzeugung, des Wissenserhaltes und der -verbreitung. In ihr finden zum Teil heftige Auseinandersetzungen darum statt, mit welchen Standardpolitiken die Wissenserzeugung und -anwendung gelenkt werden kann und soll. Befehls- und Entscheidungsmacht über Wissen ist nicht im Wissen selbst begründet.Wissen für sich ist eine eher flüchtige kulturelle oder individuelle Bemühung. Erst dann, wenn Erzeugungs- und Deutungsregeln, Verbreitungs- und Erhaltungsverfahren verabredet oder strukturell selbstverständlich sind, kann man von einer gewissen Kontinuität des Wissens und von Bewegungs-, also Gedanken- und Anwendungsfreiheit von Wissen ausgehen. Dies heißt z.B.: Organisiert sich eine bestimmte Gruppe von Wissensproduzenten als Wissenschaft, so bildet sie interne Hierarchien und regelt sie fortdauernd. Sie kann sich als Weihe- oder Priesterordnung organisieren oder als Konkurrenzfeld des ‚publish or perish/veröffentliche oder verschwinde‘. Organisiert sich eine bestimmte Gruppe von

NETZWERKE UND/ODER NEUE WISSENSREGIME?

75

Wissensproduzenten als Experimentierer, Anwender, Erfinder, so stehen diesen völlig andere Chancen und Anforderungen der Selbstorganisation gegenüber – wenn sie denn überhaupt gelingt. Die Cyberspaces geben hierfür den Raum. Die Art und Weise, wie eine Gesellschaft oder eine Kultur Wissenserzeugung, Wissenserhalt, Wissensprozessierung, Wissensweitergabe organisieren, entscheidet darüber, in welchen Zeitformen Wissen betrachtet und beobachtet wird: ob als überliefertes, kanonisierbares, herkunftsgebundenes oder herkunftsbegründendes Wissen; oder als handlungs-, produktions- oder reproduktionsgebundenes Wissen; oder auch als Expertenwissen, als stilles, stummes Wissen.

10. Und Regime? Selbstverständlich gab es und gibt es Regeln, nach denen Wissensfelder in Richtung ihrer Herrschaftsfunktion, ihrer zwingenden (philosophischen oder industriellen) Logik organisiert waren und immer noch sind. Zu diesen Ordnungen gehörte ein Formalismus, der zunehmend unter Druck gerät und der den eigentlichen Grund dafür liefert, von ‚neuen Wissensregimes‘ zu reden. Es ist der Formalismus der Institution. Institutionen bildeten das strukturelle Antlitz, während Bildung das personalisierte Antlitz der überlieferten Wissensmodelle in europäischen Kulturen umfasste. Es wurden • Institutionen der (Wissens-)Vermittlung geschaffen, • solche der Wissens-Produktion und • solche der Wissens-Speicherung. Institutionen, oder richtiger: bürgerliche Institutionen, bildeten die Basisarchitektur der ökonomisch, technologisch, kulturell, funktional differenzierten Wissensräume. Sie wurden als Modernegarantie aufgerichtet, zum Teil auch als Modernegeneratoren verstanden. Sie waren als ein Bollwerk gegen die feudalen Traditionalismen gedacht, dessen Verfahren und Normen sich zu legitimieren haben – im Idealfall. Ob in der Form der Familien, der Schulen, der Universitäten oder der Ausbildungssysteme: Wissen war an formell-institutionalisierte Vermittlungsprozesse gebunden. Nichts anderes war das Humboldtsche Bildungs-Ideal: es hielt den frisch auf der Weltbühne aufgetretenen Bürgerindividualismus des beginnenden 19. Jahrhunderts text-sprachlich in Ordnung. Die mit diesen Institutionalisierungen verbundenen Codierungen, Ablaufstandards und Zugriffshierarchien werden herausgefordert von

76

MANFRED FASSLER

medientechnologischen Standards, von Betriebssystemen, Vernetzungsstrukturen, Online-Prozessen, vor allem aber durch Vernetzungsprozesse und durch die Entstehung verstreuter und komplex vernetzter Wissensumgebungen. Überlieferte institutionelle Gefüge geraten unter den Druck der immer komplexer werdenden Netzmatrix. Dynamische mediale Netzwerke sind auf dem besten Wege, die institutionellen Gefüge zu beerben. Entwicklung, Verbreitung und intensive Nutzung von Informations- und Kommunikationstechnologien verändern nicht nur die Umgebungen, in denen gelernt wird, wie und wo man an Daten und Informationen kommen kann, und wie diese in Kenntnis, Erkennen und Wissen überführt werden können. Sie verändern die Kommunikations- und Wissensarrangements so stark, dass wir uns aufgefordert sehen, von globalen Ideenökonomien, von Informationsgesellschaften, von Wissensgesellschaften oder von dynamischen Wissenstransfers bzw. -transformationen zu reden. Dabei fällt auf, dass nicht nur sehr oberflächlich von Wissen gesprochen wird; oft wird die strikte Unterscheidung von Information und Wissen vergessen. Nun sind beide Konzepte ambivalent. Information bildet sich als Cluster von vorsortierten Daten, die einem was sagen können oder auch nicht. Tun sie es nicht, so ist's Datenmüll. Kann ich aus diesem Cluster verändernde Aspekte für Reflexion, Entscheidung, Handlungsstrukturierung, entwerfendes Denken gewinnen, so rücken Daten in den kommunikativen Status der Information ein. Verwende ich diese tatsächlich, werden sie zu Kenntnis oder Wissen. Diese hier nur kurz skizzierten Übergänge zwischen Daten, Informationen und Wissen sind deshalb wichtig, weil sie die einzelnen Ebenen des Themas berühren: • Daten, also die speichertechnischen, codierten und programmierten Speicherleistungen bilden die technologisch-abstrakten Bedingungen für Wissen. • Informationen sind die kulturell vorsortierten, bereits verdichteten Daten. Ihre Gruppierung folgt der Logik der Speichertechnologie und der Logik der kulturellen/individuellen Informationserwartung. • Wissen ist jenes Ergebnis, dass der reflektierenden und handelnden Übersetzung der Informationserwartung in Praxis jedweder Art folgt. Aus ihm kann selbst wieder eine • neue Codierung oder Information für andere entstehen.

NETZWERKE UND/ODER NEUE WISSENSREGIME?

77

Ich betone dies, um darauf hinzuweisen, dass für die Wissensdebatten nicht die technologischen Leistungsparameter von Hard- und Software entscheidend sind, wohl aber unverzichtbar. Durch die Informations- und Kommunikationstechniken sind erstmals alle Techniken der informationellen Wissensbefähigung in einem einzigen Instrument eingebunden.

11. Um die Diskussion um sog. ‚neue Wissensregime‘ auf der Basis von Medientechnologien und Nutzungsbedingungen führen zu können, ist es sinnvoll, zwischen zwei grundlegend verschiedenen medientechnologisch induzierten Informationswelten zu unterscheiden: zwischen geschlossenen Betriebsystemen und Open Source. Ich verbinde dies mit einer These: Die Logistik der Archivierung, die Fusionen von netzgestützten kooperativen Arbeiten, Geschwindigkeit des Datenzugangs, proprietäre oder nicht-proprietäre Netze, Flexibilität und freie Konfigurierbarkeit aller Komponenten sind entscheidend dafür, welcher Wissenstypus entsteht und welche kollektiven Dimensionen er entwickeln kann! In etlichen Gesprächen, die ich in der letzten Zeit führen konnte, fiel mir auf, dass die Idee, über Wissen sei weder technologisch noch informatisch vorentschieden, ungewohnt ist. Die einfachste Antwort ist technologischer Determinismus. Die zweiteinfachste ist die der Diktatur der Betriebssysteme, wobei nach wie vor das Spiel Microsoft gegen Apple, Unix und Linux gegen den Rest der Welt angeboten wird. Abgesehen davon, dass dies auch technologischer Determinismus ist, gehen diese Argumente kaum auf die Netzwerk-Umgebungen ein, auf die inzwischen erreichten Konnektivitäten, auf die programmierten Pipelines zwischen Microsoft und Apple Macintosh. Es wird so getan, als handle jeder Mensch im einzelnen aus, was die Maschine hergibt. Aber die wird ‚den Teufel tun‘, da sie zwar eine symbolverarbeitende Struktur besitzt, aber zum Wissens- oder Kommunikationsbedarf des Menschen in einer diabolischen Struktur steht. Sie hat mit ihm nichts zu tun, allerdings er mit ihr. Die Mensch-Netzwerk-Interaktivität muss vom Menschen also so ausgelegt sein, dass sie die diabolische Struktur zu seinen Gunsten nutzen kann. Akzeptieren wir, dass wesentliche Bereiche unserer gesellschaftlichen Wirklichkeit durch Software und medientechnologische Netzwerke restrukturiert sind, so haben wir eine prinzipielle SymbolDiabol-Barriere. Ob das, was jenseits dieser Barriere prozessiert wird,

78

MANFRED FASSLER

überhaupt im Sinne menschlichen Vermögens anwendbar ist, kann aber erst diesseits der Barriere, also im Nutzungs- und Handlungsverlauf entschieden werden. Dies macht die enorme Schwierigkeit der Debatten um Interfaces, Ergonomie und Beta-Testing aus. Nun hat diese Problemstellung seit den späten 1960er Jahren einen Namen: Softwarekrise. Im Grunde ist es eine Krise, die durch die ungleichzeitige Entwicklung zwei zentraler Wissenshemisphären entstanden ist: der raschen Entwicklung von mathematisch-formalisierten Abstraktionsmodellen und der eher lahmen Entwicklung von Modellen, wie diese Abstraktionen in Praxis auf ihre Plausibilität geprüft werden können. Diese Ungleichzeitigkeit wird als Hierarchisierung empfunden. Viele Softwareentwickler tun so, als gäbe es diese Krise nicht und bringen Programme auf den Markt, die nicht nur nicht ausgetestet sind, sondern den Beweis der Wissensbefähigung nicht angetreten haben. Um also die Frage nach veränderten Wissensumgebungen nicht auf technische Felder zurückzuführen, ist es wichtig, die Dimensionen der sog. ‚Softwarekrise‘ zu berücksichtigen. Hiermit wird eines der gravierendsten Probleme der Softwareentwicklung angesprochen. Ausgangspunkt sind die Formalisierungen, die durch Mathematik erfolgen. Auf dieser Basis werden Modelle für immer komplexer werdende Verschaltungen erstellt. Das damit verbundene mathematische Beweisverfahren müsste zusätzliche mathematische Modelle ansetzen, um die programmierten Entwürfe zu testen. Da es sich aber um ‚Wissen‘ handelt, dessen Status nicht durch Modelle, sondern durch Kommunikation (Diskurs) anerkannt oder abgelehnt werden kann, entsteht eine „Verifikationslücke“. Man versucht diese durch ständig neue Programmierungstechniken und Formalisierungstaktiken zu überspringen – und vermischt nur die alten Beweismängel mit neuen.9 Wie aber eine wissenstheoretische Beobachtungsebene gefunden werden kann, die die Verifikationslücke mit diskursivem Wissen zusammenbringt, ist noch weitgehend ungeklärt. Eine Möglichkeit könnte darin bestehen, dass sich innerhalb der medientechnologischen Netzwerke eine Wissenskultur herausbildet, in der neue Begründungs- und Beweisverfahren entwickelt werden. Dies wird Zeit brauchen. Gegenwärtig stellen sich die Lösungsmöglichkeiten als Gegensatz zwei einander entgegengesetzter Netzphilosophien dar, die für die Wis9 Sonvilla-Weiss, Stefan: Virtual School – kunstnetzwerk.at. Zielsetzungen und Perspektiven in der virtuellen Bildungslandschaft Österreichs. Inauguraldissertation, Wien 2001, S. 13

NETZWERKE UND/ODER NEUE WISSENSREGIME?

79

senskulturen-Debatten zentral sind. Sie sind verbunden mit den Konzepten eigentumsrechtlich geschützter Quellcodes einerseits und dem Konzept des Public Domain oder Open Source/Open Content andererseits. Pionier von Open Source ist Richard Stallmann. Er entwickelte 1983 am MIT AI Lab ein UNIX-kompatibles Softwaresystem, das freie Verwendung und Verarbeitung regelte. Er schrieb: „The basic idea behind open source is very simple. When programmers on the Internet can read, redistribute, and modify the source for a piece of software, it evolves. People improve it, people adapt it, people fix bugs. And this can happen at a speed that, if one is used to slow pace of conventional software development, seems astonishing.“10

Gedacht wird an eine General Public License (GPL); sie soll als bottomup-approach nicht nur eine breitere Assoziationsfläche für schlaue Lösungen bieten, sondern auch gegen Microsoft gerichtet sein. Bekannter ist Linus Torvalds’ Betriebssystem Linux. Eric Raymond, einer der Gründer der Open Source-Bewegung sprach von „the Cathedral and the Bazar“. Die Kathedralenmethode beinhaltet die vollständige, geschlossene Entwicklung eines Produktes, dass dann auf den Markt kommt (inklusive Software-Krise); die Bazarmethode geht von einer offenen Entwicklungsumgebung aus, die eine permanente Verbesserung lauffähiger Software ermöglicht. Ein „egoless programming“, wie es in Anlehnung an Gerhard Weinbergs Buch The Psychology of Computer Programming hieß (1971/1998), solle Kommunikation optimieren und vor allem auch der Softwarekrise den Stachel der Wissensvernichtung nehmen. Eine Art ‚Geschenkkultur‘ ist die Idee; jeder gibt seine Weiterentwicklungen ins Netz und hat Teil an den Erfindungen der anderen. So entstand eine netzinterne, global ausgerichtete Konfrontation zwischen closed content und open content.

12. Was hat das mit Lernen zu tun? Nun, eine ganze Menge. Versteht man Lernen in netzgestützten Umgebungen als eine Fülle intensiver, offener, interaktiver Nutzungssituationen, so ist eine Open-Content-Plattform als Ausgangsbasis für die Netznutzung überaus sinnvoll und für die Entwicklung kollektiver Intelligenz unverzichtbar. Dass sich Länderregierungen, Schulen und Univer10 URL: http://www.OpenSource.org/intro.html, 20.9.2004.

80

MANFRED FASSLER

sitäten auf das Angebot von Microsoft eingelassen haben, geschlossene Betriebsysteme zu installieren, ist in the long run eher als Wissensbehinderung zu verstehen. Die Softwarekrise könnte in spezifischen Bereichen eine Wissenskrise erzeugen. Geht man davon aus, dass Schulen und Universitäten einem (im Moment wohl) unumkehrbaren Prozess der Entstaatlichung, des Abbaus der öffentlichen Bindungen, der Überführung in Unternehmensformen folgen müssen, wird ihre Leistungsfähigkeit zunehmend an den Strukturen gemessen, in denen Informationen angeboten, in denen die Bearbeitung und Kombination von Informationen ermöglicht und die Entstehung von Wissensvermögen begünstigt werden. Die Strukturen der Wissensbefähigung rücken nahe an die Strukturen offener Gesellschaft und Demokratie heran. Entscheidend für den Erhalt der demokratischen Werte von Partizipation und Legitimation wird sein, ob es den zu Unternehmen gewordenen Institutionen gelingt, prinzipiell offene, aber gruppen- oder gemeinschafts-gebundene Lernprozesse, Prozesse des Debugging, des strukturellen Neuentwurfs von Wissensräumen usw. zu ermöglichen. Dies geht aber nur mit open content. Jean-Claude Guedon, leitendes Mitglied der Internet Society (ISOC) betonte auf der Inet 2000-Konferenz, dass Open-Source-Kultur die Mechanismen der individuell besitzergreifenden Wissensaneignung hin zu einer dynamischen community-driven Produktion von Wissen bewegen kann.11 Ob dies nun bedeutet, wie Stefan Sonvilla-Weiss schreibt, „dass die Menschen anfangen, gemeinsam Schulbücher zusammenzustellen, oder Musik zu komponieren“12, wird man abwarten müssen. Wichtiger erscheint mir der Gedanke, dass der Total-Kommerzialisierung von Wissen, die dem Rückzug der öffentlichen Schutzhand erkennbar folgt, nur dann mittelfristig Einhalt geboten werden kann, wenn Wissen und Wissenschaft als Open-Source-Prozess behandelt wird. Die Wissensproduzenten, und dies sind eben alle, die Informationen in die Zusammenhangs- und Bedeutungsebene heben, müssen Wissen selbst in Regie nehmen. Gesucht wird eine Universität ohne institutionelle Grenzen, eine universale Universität. Gesucht werden zu Wissen befähigende informationelle Räume, in denen Wissensangebote zirkulieren können, ohne dass durch Patente und Copyright Wissen an Prohibition verschachert wird. Schulen und Universitäten werden immer mehr zu Marktgeneratoren der globalen Ideenökonomien. Das ist bislang nicht verstanden. Als For11 URL: http://www.isoc.org/inet2000/pc, 20.9.2004. 12 Sonvilla-Weiss 2001, S. 50.

NETZWERKE UND/ODER NEUE WISSENSREGIME?

81

schende und Lehrende stehen wir vor den Anforderungen, uns als Produzenten und Vermarkter von Wissen in den alten verkrusteten Resträumen der Institutionen zu verhalten. Wir können verhindern, dass die Softwarekrise in eine Wissenskrise umschlägt, in dem wir nicht nur den Umgang mit Informations- und Kommunikationstechnologien befördern, sondern uns auf die gemeinsame Suche nach medienadäquaten Wissensstrukturen machen. Vielleicht bleibt den Lehrenden der Zukunft die ehrenvolle Aufgabe, Modelle des medienbasierten Wissensaufbaus zu erklären und Prozesse komplexer Wissenserzeugung zu begleiten. Lehre wäre Regie, nicht Regime. Und ‚schlau‘ würde man dadurch, dass man lernt, in komplexen Zusammenhängen überlegend zu bleiben, aber nicht überlegen.

GISELA HÜSER, MANFRED GRAUER

ZUR VERBREITUNG DES INTERNETS UND DES MOBILFUNKTELEFONS IN DER NETZWERKGESELLSCHAFT

1.

Einleitung

„Kein Bereich der Wirtschaft kann sich dem Sog der Vernetzung entziehen.“1 Mit dieser Aussage unterstreicht der European Communication Council (ECC), eine Gruppe renommierter Kommunikationswissenschaftler, die Bedeutung der elektronischen Vernetzung unserer Tage. Folgt man diesem Gedanken, stellt sich die Frage, ob ein Wirtschaften ohne Vernetzung überhaupt noch möglich ist. Neuere Entwicklungslinien sind der Übergang zur Netzwerkgesellschaft oder auch Wissensgesellschaft. Die zunehmende Verfügbarkeit und Integration leistungsfähiger elektronischer Netzwerkstrukturen bilden die technologische Grundlage für die Generierung neuartiger, insbesondere multimedialer Wissensprozesse. Wie weit die Vernetzung unserer Gesellschaft vorangeschritten ist, wird am Beispiel der Verbreitung elektronischer Kommunikationsnetzwerke analysiert. In diesem Zusammenhang sei erwähnt, dass die Begriffe Netzwerk und Internet nicht gleichzusetzen sind. Gemäß Castells gibt es unterschiedliche Varianten der Vernetzung, wobei das Internet eine konkrete Instanz eines Netzwerkes darstellt.2 Da von der These ausgegangen wird, dass insbesondere technologische Innovationen und deren Veränderungen das Entstehen computergestützter vernetzter Medien induzieren, werden einführend der technologische Wandel und seine Erklärungsansätze erläutert. Ziel dieser Erklä1 Zerdick, Axel: Die Internet-Ökonomie – Strategien für die digitale Wirtschaft. Berlin 2001, S. 13. 2 Castells, Manuell: Der Aufstieg der Netzwerkgesellschaft. Teil 1 der Trilogie: Das Informationszeitalter. Opladen 2004, S. 49-56.

84

GISELA HÜSER, MANFRED GRAUER

rungsansätze ist es, Beziehungen zwischen dem Auftreten technologischer Innovationen und deren ökonomischen Konsequenzen zu beschreiben. In diesem Sinne wird die Analyse der Verbreitung des Internets und des Mobilfunktelefons auf Basis der Diffusionstheorie durchgeführt. Am Ende dieses Beitrags wird ein Überblick über die Verbreitung weiterer ausgewählter Medien der beiden strukturell prägenden Medienumbrüche gegeben, die sich als Umbruch zu den analogen Medien zu Beginn des 20. Jahrhunderts und als Umbruch zu den digitalen Medien im Übergang zum 21. Jahrhundert näher bestimmen lassen. Dieser Vergleich soll die These belegen, dass die Verbreitung digitaler und vernetzter Medien schneller verläuft als die Verbreitung analoger Medien.

2.

Technologischer Wandel – Begriffsbestimmung und Erklärungsansätze

Die Veränderung von Technologien und der damit verbundene Übergang auf neue Technologien werden als technologischer Wandel bezeichnet. Alte Technologien fallen einer zunehmenden Marktdurchdringung neuer Technologien zum Opfer. Dieser Übergang erfolgt nicht ad hoc. Technologischer Wandel ist somit nicht nur zeitpunktbezogen, sondern vielmehr zeitraumbezogen zu analysieren. Insbesondere die Forschungsarbeiten in der zweiten Hälfte des 20. Jahrhunderts haben zu entscheidenden Fortschritten in den Theorien des technologischen Wandels geführt. Während sich die Forschungsarbeiten in den 60er und 70er Jahren auf die Bedeutung der Änderung der Nachfrage und der relativen Faktorpreise konzentrierten, hat sich der Schwerpunkt in den 70er und 80er Jahren auf den evolutionären Ansatz verlagert.3 Wesentliche Grundlagen hierfür finden sich in den früheren Arbeiten von Joseph A. Schumpeter wieder.4 Neuere Theorien stellen die Pfadabhängigkeit in den Vordergrund der Betrachtung.5 Gemäß den vorherrschenden Theorien kann technologischer Wandel wie folgt strukturiert werden6:

3 Ruttan, Vernon W.: Technology, Growth, and Development: An Induced Innovation Perspective. New York 2001, S. 100f. 4 Schumpeter, Joseph A.: Theorie der wirtschaftlichen Entwicklung – Eine Untersuchung über Unternehmergewinn, Kapital, Kredit, Zins und den Konjunkturzyklus. Leipzig 1911. 5 Ruttan 2001, S. 100f. 6 Garrouste, Pierre/Ioannides, Stavros: Evolution and Path Dependence in Economic Ideas: Past and Present. Cheltenham 2001, S. 15-22.

ZUR VERBREITUNG DES INTERNETS UND DES MOBILFUNKTELEFONS

85

• Induzierter technologischer Wandel. • Evolutionärer technologischer Wandel. • Pfadabhängiger technologischer Wandel. Im Gegensatz zur Induzierung stellt der zweite Ansatz den evolutionären Charakter des technologischen Wandels in den Vordergrund der Betrachtung. Joseph A. Schumpeter hat durch seine wissenschaftlichen Arbeiten zur Theorie des Entwicklungsprozesses von Technologien wesentliche Akzente gesetzt. In diesem Zusammenhang sei auf den Technologielebenszyklus verwiesen.7 Er dient der Beschreibung des ,Lebensweges‘ einer Technologie. Schumpeter unterteilt den Technologieentwicklungsprozess in drei Phasen8: • Inventionsphase, • Innovationsphase, • Diffusionsphase. Die Inventionsphase ist ein Prozess der Erfindung und Entwicklung einer neuen Technologie.9 Kennzeichnend für diese Phase ist die Suche nach neuen Ideen für eine Problemlösung. Das Ergebnis dieser Phase ist in materieller Hinsicht ein funktionsfähiger Prototyp.10 Die Erfindung kann patentrechtlich geschützt werden. Sie lässt aber noch keine Rückschlüsse auf ihre potenzielle oder tatsächliche Anwendbarkeit zu. Sie besitzt zu diesem Zeitpunkt weder wirtschaftliche noch soziale Bedeutung.11 Die Innovationsphase ist ein Prozess der Einführung einer neuen Technologie auf dem Markt.12 Die neu entwickelte Technologie wird zum ersten Mal in eine regelmäßige produktionstechnische Anwendung

7 Schumpeter 1911; Schumpeter, Joseph A.: The Theory of Economic Development: An Inquiry into Profits, Capital, Credit, Interest, and the Business Cycle. Cambridge 1934. 8 Schumpeter 1911; Schumpeter 1934; Grübler, Arnulf: Technology and Global Change. Cambridge 1998, S. 23f. 9 Bullinger, Hans-Jörg: Einführung in das Technologiemanagement: Modelle, Methoden, Praxisbeispiele. Stuttgart 1994, S. 35. 10 Warnecke, Hans-Jürgen: „Innovationen in der Produktionstechnik“, in: IfoInstitut für Wirtschaftsforschung (Hrsg.): Technischer Fortschritt – Ursache und Auswirkung wirtschaftlichen Handelns. München 1974, S. 112. 11 Bullinger 1994, S. 35. 12 Bullinger 1994, S. 35; Grübler 1998, S. 23.

86

GISELA HÜSER, MANFRED GRAUER

überführt. Der Innovation kommt wirtschaftliche und soziale Bedeutung zu.13 Die Diffusionsphase bildet die abschließende Phase des Technologieentwicklungsprozesses. Sie spezifiziert die zeitlich verteilte Übernahme und die damit verbundene Verbreitung einer Innovation in einem sozialen System.14 Da heute die Märkte weitgehend gesättigt sind, entscheidet oft die Kenntnis einer Marktnische über den Erfolg der Einführung eines Produktes.15 Neuere Theorien gehen davon aus, dass technologischer Wandel pfadabhängig ist. Einen wesentlichen Forschungsbeitrag zu diesem Ansatz liefert Brian Arthur. Während in der klassischen Ökonomie insbesondere von konstanten oder abnehmenden Skalenerträgen ausgegangen wird, geht Arthur bei seinen Überlegungen auch von steigenden Skalenerträgen aus. Unter einer solchen Voraussetzung kann ein einziges stabiles Gleichgewicht nicht mehr gewährleistet werden. Die Existenz multipler Gleichgewichte hat Einfluss auf die Diffusion einer Innovation. Der Diffusionspfad einer Innovation ist zumindest zu Beginn des Diffusionsprozesses ‚offen‘.16 Das Konzept der Pfadabhängigkeit ist nicht nur für den technologischen Wandel relevant. Es ist auch auf die Ökonomie anwendbar.17 Erwähnt sei, dass technologischer Wandel schon deswegen pfadabhängig sein muss, da er weitgehend auf bereits früheren technologischen Entwicklungen basiert.18 Das Konzept der Pfadabhängigkeit basiert zunächst auf der Annahme zufallsbedingter, irreversibler, dynamischer Prozesse. Diese können zusätzlich durch die Eigenschaft des evolutionären Charakters gekennzeichnet sein.19 Daher sind der evolutionäre und der pfadabhängige 13 Grübler 1998, S. 23. 14 Rogers, Everett M.: Diffusion of Innovations. New York 1995, S. 5. 15 Grübler, Arnulf /Gritsevskyi, Andrii: „A Model of Endogenous Technological Change Through Uncertain Returns on Innovation“, in: Arnulf Grübler/Nebojsa Nakicenovic/William D. Nordhaus (Hrsg.): Technological Change and the Environment. Washington 2002, S. 282. 16 Arthur, Brian: Competing Technologies and Lock-In by Historical Small Events, International Institute for Applied Systems Analysis Paper WP-8392, Laxenburg/Austria (Center for Economic Policy Research, paper 43, Stanford) 1983; ders.: Increasing Returns and Path Dependence in the Economy. Michigan 1994, S. 1-48. 17 Arthur 1983; Arthur 1994; Garrouste 2001, S. 2ff. 18 Ruttan 2001, S. 117; ders.: „Sources of Technological Change: Induced Innovation, Evolutionary Theory, and Path Dependence“, in: Grübler/Nakicenovic/Nordhaus 2002, S. 27. 19 Garrouste 2001, S. 15.

ZUR VERBREITUNG DES INTERNETS UND DES MOBILFUNKTELEFONS

87

Ansatz eng miteinander verbunden.20 Dies führt wiederum dazu, dass die beiden Ansätze oft verwechselt werden.21 Während der evolutionäre Ansatz den Entwicklungsprozess des technologischen Wandels selbst in den Vordergrund der Betrachtung stellt, ist dies beim pfadabhängigen Ansatz eher die Vielschichtigkeit unterschiedlichster, potenzieller Ereignisse, von denen der technologische Wandel begleitet wird. Insbesondere die Irreversibilität und die gegenseitige Abhängigkeit charakterisieren diese Ereignisse.22 Sie können betriebswirtschaftlicher, volkswirtschaftlicher, politischer, rechtlicher oder auch soziokultureller Art sein. Im Gegensatz zum evolutionären Ansatz ist der pfadabhängige Ansatz vorwiegend für stochastische Prozesse relevant.23 Daher dürften auch schon die kleinsten Änderungen der Ereignisse tiefgreifende Auswirkungen auf die Richtung des technologischen Wandels haben.24 Eine Definition für pfadabhängige Prozesse stammt von Garrouste: „A path dependent stochastic process is one whose asymptotic distribution evolves as a consequence function of the process’s own history.“ 25 Im Falle eines stochastischen Systems sind pfadabhängige Prozesse durch eine asymptotische Möglichkeitsverteilung gekennzeichnet, die über die gesamte Funktion stetig ist. Im Gegensatz dazu sind pfadunabhängige Prozesse dadurch gekennzeichnet, dass ihre Dynamik die Konvergenz zu einem stabilen Gleichgewicht unterstützt.26 Pfadabhängigkeit wird durch die folgenden Eigenschaften charakterisiert27: • • • •

Potenzielle Ineffizienz, Unvorhersagbarkeit, Inflexibilität und Nonergodizität.

Diese Eigenschaften können ebenfalls steigenden Skalenerträgen zugeordnet werden, wobei die Inflexibilität und die Nonergodizität Eigenschaften sind, die insbesondere die Dynamik kennzeichnen.28 20 21 22 23 24 25 26 27

Garrouste 2001, S. 15. Garrouste 2001, S. 20. Garrouste 2001, S. 15. Garrouste 2001, S. 6. Garrouste 2001, S. 8. Garrouste 2001, S. 19. Garrouste 2001, S. 18. Arthur 1994, S. 14; Ruttan 2001, S. 113.

88

GISELA HÜSER, MANFRED GRAUER

Oft ist es unmöglich, die Richtung bzw. den Pfad einer technologischen Entwicklung exakt zu bestimmen.29 Gründe dafür liegen in der Vielschichtigkeit der Ereignisse, ihrer Abhängigkeit zueinander und ihrer Stochastizität.30 So kann auch der Fall eintreten, dass Agenten sehr wohl genaue Kenntnis über das Wissen einer Technologie und ihrer Ertragsfunktion haben, nicht aber Kenntnis über die Ereignisse, die letztendlich die Wahl der Technologie und ihren Eintritt auf dem Markt durch weitere Agenten determinieren.31 In einem engen Bezug zur Pfadabhängigkeit steht der Begriff LockIn.32 Darunter versteht man die Überwindung eines kritischen Punktes, der für die Verbreitung einer Innovation wesentlich ist. Die Verbreitung einer Innovation ist in dieser Phase meist nicht mehr zurückführbar. Dieser Effekt lässt sich auf den im Zeitablauf für eine Innovation erzielten Marktanteil bzw. die Übernehmerzahl zurückführen. Es wird ein ausreichend großer Nutzen erzielt, der potenzielle Marktteilnehmer zur weiteren Übernahme der Innovation veranlasst. Für konkurrierende Innovationen besteht in dieser Situation kaum eine Möglichkeit, deren Marktanteil bzw. Übernehmerzahl auszuweiten. Der Pfad wird damit weitgehend vorgegeben. Inflexibilität ist damit eine Eigenschaft, die insbesondere dem Lock-In zuzuordnen ist.33 Mit dem Lock-In-Phänomen können auch ineffiziente Marktlösungen auftreten. Unter vielen konkurrierenden Alternativen muss diejenige Alternative, die sich am Markt durchsetzt, aus volkswirtschaftlicher Sicht nicht immer wohlfahrtsoptimal sein. Beispiele belegen, dass der Markt nicht immer die ‚optimale‘ Alternative selektiert.34 Das Zustandekommen einer ineffizienten Marktlösung wird auch durch die extreme Kostenstruktur einer Technologie begünstigt. Charakteristisch sind hohe fixe Kosten bedingt durch aufwendige Forschungsund Entwicklungsarbeiten und die durch Massenproduktion anfallenden geringen variablen Kosten. Zusätzlich seien mögliche Startvorteile bei der Einführung einer Technologie erwähnt. Günstige Zufälle, ein frühe-

28 29 30 31 32 33 34

Arthur 1994, S. 14, S. 23f. Arthur 1994, S. 45f. Garrouste 2001, S. 2, S. 15. Ruttan 2001, S. 113. Garrouste 2001, S. 114. Arthur 1994, S. 14. Arthur, Brian: „Competing Technologies: An Overview“, in: G. Dosi/C. Freeman/R. Nelson/G. Silverberg/L. Soete (Hrsg.): Technical Change End Economic Theory. London 1987, S. 122-129.

ZUR VERBREITUNG DES INTERNETS UND DES MOBILFUNKTELEFONS

89

rer Markteintritt oder auch ein erfolgreiches Marketingkonzept können die Ausbreitung einer ineffizienten Technologie begünstigen.35 Auch die Nonergodizität ist eine wichtige Eigenschaft des technologischen Wandels. Diese Eigenschaft erfordert, dass bei dynamischer Betrachtungsweise die kleinsten historischen Ereignisse nicht vernachlässigt werden dürfen. Das Eintreten früherer Ereignisse hat Einfluss auf das Eintreten späterer Ereignisse. Sie bestimmen den Pfad.36 Oft treten unterschiedlichste Kombinationen dieser Ansätze auf. Es ist durchaus vorstellbar, dass eine Änderung der relativen Faktorpreise gemäß einer Induzierung auch langfristig Einfluss auf den Pfad des technologischen Wandels haben kann. Diese Theorien sind daher nicht konkurrierend, sondern eher komplementär zu verstehen.37

3.

Technologischer Wandel und Medienumbrüche

In den Sozial- und Kulturwissenschaften hat sich der Begriff des Wandels zur Kennzeichnung einer langfristigen, umfassenden, mehrdimensionalen Veränderung durchgesetzt. Die Komplexität des Wandels, die vor allem durch die Vielschichtigkeit der Wechselbeziehungen zwischen Ursachen und Wirkungen bedingt wird, ist in einem gesamtgesellschaftlichen Kontext zu analysieren.38 In jüngerer Zeit wird auch der Begriff des Umbruchs in diesen Wissenschaften verwendet, wobei das Phänomen des Wandels nicht an Bedeutung verliert.39 Medienumbrüche können als umfassende, diskontinuierliche, strukturelle Veränderungen der Mediengeschichte verstanden werden. Sie beziehen sich nicht nur auf technologische Wandlungsprozesse. Sie umfassen auch Vorgänge historischen und kulturellen Wandels. Ebenso können neben quantitativen auch qualitative Veränderungen unter dem abzugrenzenden Begriff subsumiert werden. Darüber hinaus sind ökonomische, rechtliche und politische Veränderungen zu berücksichtigen.40 In diesem Zusammenhang ist besonders der Aspekt der Veränderungsdynamik von Relevanz. Durch Veränderungen – sei es in Form einer 35 Schoder, Detlef: Erfolg und Misserfolg telematischer Innovationen. Wiesbaden 1995. 36 Arthur 1994, S. 14. 37 Ruttan 2001, S. 118. 38 Schimany, Peter: Die Alterung der Gesellschaft – Ursachen und Folgen des demografischen Umbruchs. Frankfurt/M. 2003, S. 13-24. 39 Schimany 2003. 40 Dührkoop, Tim: Die Entstehung und Durchsetzung des Internet: Medienwandel aus betriebswirtschaftlicher Sicht. St. Gallen 1999, S. 21.

90

GISELA HÜSER, MANFRED GRAUER

sukzessiven Transformation oder eines radikalen Umbruchs – eröffnen sich unterschiedliche Perspektiven einer historischen Betrachtung. Ziel der Analyse von Medienumbrüchen ist eine genauere Bestimmung ihrer historischen Verlaufsform. Dabei stehen die zeitliche Abfolge von Medienumbrüchen und deren Ursachen im Vordergrund der Untersuchung. Die historische Struktur von Medienumbrüchen soll aufgedeckt werden. Darüber hinaus können multimediale Konvergenz und Koevolution von Medien sowie das komplexe Verhältnis von Konkurrenz bzw. Koexistenz älterer und neuer Medien in die Analyse eingeschlossen werden. In den Medienwissenschaften wird zwischen dem analogen und dem digitalen Medienumbruch unterschieden. Der analoge Medienumbruch umfasst dabei alle Veränderungen, die sich als Umbruch zu den analogen Medien wie Film, Rundfunk, Fernsehen oder Fotographie zu Beginn des 20. Jahrhunderts bestimmen lassen. Hingegen bezieht sich der digitale Medienumbruch auf Veränderungen, die insbesondere durch die Digitalisierung hervorgerufen wurden und werden. Der digitale Medienumbruch als ein umfassender Prozess der technologischen Medialisierung von Kultur und Gesellschaft wird in den Medienwissenschaften so weit gefasst, dass dieser zu einer neuen sozioökonomischen und kulturästhetischen Qualität führt. Um den digitalen Medienumbruch näher zu charakterisieren, werden die Entwicklung des Internets und des Mobilfunktelefons auf der Basis der Diffusionstheorie näher analysiert. Ohne die Vielschichtigkeit des Themenkomplexes außer Acht zu lassen, umfasst dieser Beitrag eine verstärkt quantitative Analyse der Verbreitung ausgewählter Medien des digitalen Medienumbruchs.

4.

Das Entstehen des Internets und sein Nutzungspotenzial

Das Entstehen des Internets geht auf Arbeiten im Rahmen eines militärischen Forschungsprojekts der US-Regierung – Advanced Research Projects Agency (ARPA) – zurück. Ziel war das interaktive Arbeiten mit Computern im Netzverbund ohne zentrale Steuerung. Auch bei Zerstörung oder Ausfall eines beliebigen Netzteils sollte ein Weiterarbeiten möglich sein. Dieses Forschungsprojekt führte 1969 zur Entwicklung des Arpanets, das verschiedene Computer-Zentren und Forschungsgruppen verband. Bis Anfang der 80er Jahre wurde das Internet hauptsächlich für militärische Zwecke genutzt. Erst durch den Aufbau eines Backbone-Netzes

ZUR VERBREITUNG DES INTERNETS UND DES MOBILFUNKTELEFONS

91

– National Science Foundation Network (NSFNET) – konnte auf Basis eines einheitlichen Vermittlungsprotokolls – Transmission Control Protocol/Internet Protocol (TCP/IP) – ein Großteil der nordamerikanischen Universitäten miteinander vernetzt werden. Der weltweite Rechnerbund diente anfänglich der Kommunikation zwischen akademischen Institutionen wie Universitäten und sonstigen Forschungseinrichtungen. Erst die Erstellung der grafischen Benutzeroberfläche des World Wide Web (WWW) und des Software-Browsers Mosaic ermöglichten den Durchbruch des Internets für kommerzielle Anwendungen.41 Als Folge dieses technologischen Fortschritts entwickelte sich das Internet zu einem Netz, das zunehmend Dienste integrierte. Die einfachen, grafisch anspruchslosen Internet-Dienste wie File Transfer Protocol (FTP), Gopher, Telnet und Usenet dominierten bis 1993. Diese verloren nach der Einführung des multimedialen WWW immer mehr an Bedeutung. Mittlerweile umfasst das WWW weit über die Hälfte des Nutzungsaufkommens. Im Vergleich dazu ist die elektronische Kommunikation – Electronic-Mail – unverändert einer der am häufigsten genutzten Dienste des Internets.42 Eine Ausweitung des Nutzungspotenzials konnte zusätzlich durch die Einführung des mobilen Internets und der Realisierung weiterer Dienste erzielt werden, so dass sich auch die Art der Kommunikation verändert hat. Die Entwicklungsstufen des Internets und das Nutzungspotenzial werden in der Abbildung 1 dargestellt.

41 Zerdick 2001, S. 152; Müller, Günter/Eymann, Torsten/Kreutzer, Michael: Telematik- und Kommunikationssysteme in der vernetzten Wirtschaft. Wien 2003, S. 16. 42 Zerdick 2001, S. 152.

GISELA HÜSER, MANFRED GRAUER

92 Nutzungspotential

Kommunikation von Maschine zu Maschine Kommunikation von Mensch zu Maschine Kommunikation von Mensch zu Mensch

Eingebettete Dienste

Mobiles Internet WWW

E-mail Forschungsnetz (ARPA) 1969

1975

1980

1990

1995

Zeit

Abb. 1: Entwicklungsstufen des Internets und sein Nutzungspotenzial, in Anlehnung an Müller43 Eine Ausweitung der Nutzerzahlen ist auch auf das höhere Nutzungspotenzial von Multimedia zurückzuführen.44 Da das Internet von privaten Nutzern primär für Informationszugriffe verwendet wurde, entwickelte es sich schnell zu einem Massenmedium. Als technologische Einflussfaktoren, die entscheidend den Entwicklungsverlauf des Internets bestimmen, können in Anlehnung an Zerdick vier wesentliche Faktoren genannt werden45: • Digitalisierung, • Verbesserung der Rechen-, Speicher- und Übertragungsleistungen, • Miniaturisierung und • Standardisierung. Die Digitalisierung von Informationen erlaubt deren Be- und Verarbeitung durch Prozessoren. Zusätzlich ermöglicht sie die Speicherung dieser Informationen und ihren Transfer über Netze. Neben diesen technologischen Faktoren sind enorme Leistungssteigerungen zu beobachten, die 43 Müller/Eymann/Kreutzer 2003, S. 8. 44 Grauer, Manfred/Merten, Udo: Multimedia: Entwurf, Entwicklung und Einsatz in betrieblichen Informationssystemen. Berlin 1997. 45 Zerdick 2001, S. 150.

ZUR VERBREITUNG DES INTERNETS UND DES MOBILFUNKTELEFONS

93

sich unter anderem im Gesetz von Moore und Metcalfe widerspiegeln.46 Die Verbesserungen der Rechen-, Speicher- und Übertragungsleistungen im Informations- und Kommunikationssektor haben bei gleichzeitigem Preisverfall zur fortlaufenden Verbesserung des Preis-LeistungsVerhältnisses geführt. Wie gravierend sich die Übertragungsgeschwindigkeit in der Kommunikation (gemessen in bits pro Sekunde, bps) von 1800 bis heute erhöht hat, ist in Abbildung 2 dargestellt. Sie ist in diesem Zeitraum von 1 bps auf 700.000 bps gestiegen.

Übertragungsgeschwindigkeit (Bits pro Sekunde) 1.000.000 100.000 10.000 1.000 100 10 1 1750

1800

1850

1900

1950

2000

2050

Abb. 2: Entwicklung der Übertragungsgeschwindigkeit von 1800 bis heute (Quelle: Nordhaus 200047) Bemerkenswert ist der Anstieg der Übertragungsgeschwindigkeit. Die Wachstumsrate bis Ende des 20. Jahrhunderts liegt bei 4 % pro Jahr. Im Vergleich dazu beträgt die Wachstumsrate heute 70 % pro Jahr.48 Verantwortlich für einen solchen Quantensprung ist laut Grübler das Auftre-

46 Grauer, Manfred: „Information Technology“, in: N.J. Smelser/P.B. Baltes (Hrsg.): International Encyclopedia of the Social & Behavioral Sciences. Oxford 2001, S. 7475; ders.: „Information Technology“, in: Malcolm Warner (Hrsg.): International Encyclopedia of Business & Management. London 1996, S. 3017f. 47 Nordhaus, William D: Technology, Economic Growth, and the New Economy, 2000. URL: http://www.econ.yale.edu/~nordhaus/homepage/ Sweden%200061300c.pdf, 7.8.2003, S. 5. 48 Nordhaus 2000, S. 5.

GISELA HÜSER, MANFRED GRAUER

94

ten radikaler Innovationen49 – in diesem Fall die Einführung digitaler Informationsübertragungstechnologien. In jüngerer Zeit ist diesbezüglich die Breitbandtechnologie zu nennen. So können z.B. mit der Übertragungstechnologie Digital Subscriber Line (DSL) die Daten bis zu zwölfmal schneller übertragen werden als mit Integrated Services Digital Network (ISDN). Ein weiterer Einflussfaktor ist die Miniaturisierung elektronischer Bausteine der Informations- und Kommunikationstechnologien. Die zunehmende Integrationsdichte von Mikroprozessoren gilt als wesentliche Einflussgröße für die Miniaturisierung.50 Eine zusätzliche Voraussetzung für die Ausschöpfung der Leistungspotenziale im Informations- und Kommunikationssektor ist die Standardisierung. Der Erfolg des Internets ist vor allem auf die rasche Akzeptanz der Standards im Bereich der Namensgebung, der Festlegung der zu versendenden Einheiten (TCP) und der Adressierung (IP) zurückzuführen.51 Diese Standards werden nicht von einzelnen Herstellern oder Netzbetreibern festgelegt. Sie sind ‚offen‘ für neue Entwicklungen. Neben den technologischen Entwicklungen, die entscheidend die Diffusion des Internets beeinflussen, ist zusätzlich der Nutzen auf der Konsumentenseite zu analysieren. Als Grund für den schnellen Diffusionsverlauf des Internets ist sein Zusatznutzen gegenüber herkömmlichen Angeboten anzusehen. Er umfasst52: • • • •

Interaktivität – Individualisierung, Unmittelbarkeit des Zugriffs, Senkung von Transaktionskosten und Multimediale Angebotsformen.

Das Internet dient als Medium, das die interaktive Kommunikation zwischen verschiedenen Partnern erlaubt.53 Die Interaktivität ermöglicht die Individualisierung von Inhalten, die einen großen Zusatznutzen für den Rezipienten bedeutet. Sie kann von der einfachen Nutzeraktion über Steuersignale bis hin zu einer Dialogkomponente der aktiven Kommunikation führen. Gerade bei inhaltlichen Angeboten entsteht durch die In-

49 50 51 52 53

Grübler 1998, S. 42. Grauer 2001, S. 7475; Grauer 1996, S. 3017. Müller/Eymann/Kreutzer 2003, S. 43. Zerdick 2001, S. 154. Castells, Manuel: The Internet Galaxy – Reflections on the Internet, Business, and Society. New York 2001, S. 2.

ZUR VERBREITUNG DES INTERNETS UND DES MOBILFUNKTELEFONS

95

teraktivität die Möglichkeit einer individualisierten Massenkommunikation. Ein weiterer entscheidender Vorteil ist der in Echtzeit unmittelbare Zugriff auf gewünschte Informationen unabhängig von Raum und Zeit. Damit besitzt die Information einen höheren Wert.54 Zusätzlich bietet die Digitalisierung eine einfache Bearbeitung und Speicherung von Informationen. Mit steigender Komplexität der Produktionsprozesse und einer ungleichen Verteilung von Informationen zwischen Marktteilnehmern erhöht sich der Koordinationsaufwand zur Durchführung von Transaktionen. Diese Aktivitäten umfassen z.B. die Vereinbarung, Anpassung und Kontrolle einer Transaktion. Sie verursachen Transaktionskosten.55 Das Internet bietet eine Möglichkeit, wesentliche Informationen, die in einem Produktionsprozess entstehen, an diejenigen Stellen zu transferieren, wo sie benötigt werden, um den Produktionsprozess fortzuführen. Abnehmende Transaktionskosten sind eine ökonomische Folge der zunehmenden Nutzung des Internets.56 Die Integration der Multimedialität stellt ebenfalls einen Zusatznutzen dar. Sie bezieht sich auf eine Vielzahl unterschiedlicher Präsentationsarten von Informationen wie Audio, Video, Text, Bild und Grafik.57 Bislang ist die Multimedialität von Internetangeboten insbesondere auf Grund der geringen Übertragungskapazitäten für eine fernsehähnliche Wiedergabe von Bewegtbildern nur begrenzt möglich. Dennoch wird die Ausstrahlung von Radio- oder Fernsehsendungen – als so genanntes Webcasting – schon heute realisiert. Das Internet ist mit hohem Zusatznutzen verbunden. Dieser Zusatznutzen und die Wirkung der technologischen Verbesserungen des Internets sowie die Erhöhung der Informationsübertragungsgeschwindigkeiten sind als Ursache für den ab 1980 überproportionalen Diffusionsverlauf anzusehen.58

54 55 56 57 58

Zerdick 2001, S. 154. Zerdick 2001, S. 148. Müller/Eymann/Kreutzer 2003, S. 296. Grauer 1997. Zerdick 2001, S. 156.

96

5.

GISELA HÜSER, MANFRED GRAUER

Analyse der Verbreitung des Internets auf Basis der Diffusionstheorie

Neben einer Analyse der weltweiten Verbreitung des Internets wird auch eine länderspezifische Analyse durchgeführt, die sich insbesondere auf Deutschland und die USA konzentriert. Damit wird auch die Bedeutung der räumlichen Dimension der Verbreitung des Internets herausgearbeitet.

5.1 Indikatoren zur Diffusionsanalyse des Internets Zur Analyse der Diffusion des Internets können unterschiedliche Indikatoren herangezogen werden. In einem ersten Schritt wird als direkter Indikator die Anzahl der Internet-Nutzer gewählt, wobei dieser Indikator auch für einen länderspezifischen Vergleich zwischen den USA und Deutschland verwendet wird. Die Anzahl der Internet-Nutzer kann aber für einen länderspezifischen Vergleich nicht ausreichend sein, da er demografische Einflussfaktoren wie die Bevölkerungszahl nicht berücksichtigt. Ein weiteres Ziel ist daher die Berechnung der InternetPenetration, des Verhältnisses der Internet-Nutzer zur Bevölkerungszahl des jeweiligen Landes.59

5.2 Die globale Diffusion des Internets Mit der Abbildung 3 wird ein Überblick zur Entwicklung der Anzahl der weltweiten Internet-Nutzer von 1995 bis 2002 gegeben. Die Diffusionskurve weist den aus der Diffusionstheorie bekannten s-förmigen Kurvenverlauf auf.60 Zunächst sind niedrige Zuwachsraten zu verzeichnen. Bis zu einem Wendepunkt verläuft die Kurve progressiv steigend. Ab diesem Wendepunkt sind die Zuwachsraten nur noch degressiv steigend. Die Anzahl der Internet-Nutzer ist im Zeitraum von 1995 bis 2002 von 26 Mio. auf ca. 600 Mio. gestiegen; das entspricht einer durchschnittlichen jährlichen Steigerungsrate von 48 %. Der Wendepunkt mit der höchsten Zuwachsrate ist ca. auf das Jahr 1999 zu datieren. In dem Zeitraum von 1999 bis 2000 erhöhte sich die Anzahl der Internet-Nutzer von 250 Mio. auf 451 Mio. – ein Zuwachs von 201 Mio.; das entspricht 59 European Information Technology Observatory (EITO): European Information Technology Observatory 2003. Frankfurt/M. 2003, S. 23. 60 Rogers 1995, S. 80f., S. 257-261.

ZUR VERBREITUNG DES INTERNETS UND DES MOBILFUNKTELEFONS

97

einer Wachstumsrate von 80 %. Heute nutzen ca. 10 % der Weltbevölkerung das Internet.61 Internet-Nutzer weltweit (Mio.) 700 600 500 400 300 200 100 0 1995

1996

1997

1998

1999

2000

2001

2002

Abb. 3: Entwicklung der Anzahl der Internet-Nutzer weltweit von 1995 bis 2002 (Quelle: NUA 200462)

5.3 Die länderspezifische Diffusion des Internets Um eine detailliertere Analyse der räumlichen Verbreitung des Internets durchzuführen, wird sie einer länderspezifischen Betrachtung unterzogen. Es bietet sich an, einen Indikator zur Internet-Penetration zu definieren, der einen einheitlichen Vergleichsmaßstab zugrunde legt. Dazu eignet sich die Anzahl der Internet-Nutzer bezogen auf 10.000 Einwohner des jeweiligen Landes. Ein Überblick zur länderspezifischen Diffusion des Internets wird mit der Abbildung 4 gegeben.

61 NUA 2004. URL: http://www.nua.ie/surveys/how_many_online/ index.html, 20.6.2004. 62 NUA 2004.

GISELA HÜSER, MANFRED GRAUER

98

Internet-Nutzer pro 10.000 Einwohner (2002) Mexiko Türkei Polen Tschechische Republik Ungarn Slowakei Griechenland Spanien Irland Italien Schweiz Belgien Portugal Großbritannien Österreich Deutschland Australien Japan Dänemark Kanada Neuseeland Norwegen Frankreich Finnland Niederlande USA Schweden Island

0

1.000

2.000

3.000

4.000

5.000

6.000

7.000

Abb. 4: Anzahl der Internet-Nutzer pro 10.000 Einwohner ausgewählter Länder für das Jahr 2002 (Quelle: Jahrbuch 2003, S. 272-27463) Auffallend ist, dass auf den vorderen Plätzen Island, die USA, die Niederlande, Frankreich, Neuseeland, Kanada sowie die nordeuropäischen Länder Schweden, Finnland, Norwegen und Dänemark zu finden sind. In diesen Ländern ist der Diffusionsprozess weiter vorangeschritten als in Deutschland, wo 42 % der Bevölkerung das Internet nutzen. Hingegen 63 Statistisches Bundesamt (Hrsg.): Statistisches Jahrbuch 2003 für das Ausland. Stuttgart 2003, S. 272ff.

ZUR VERBREITUNG DES INTERNETS UND DES MOBILFUNKTELEFONS

99

findet das Internet in den südeuropäischen Ländern wie z.B. Italien und Spanien weniger Akzeptanz. Ein wesentlicher Grund für die Unterschiede zwischen Nord- und Südeuropa dürfte im Ausbildungsniveau liegen. Außerdem dominieren Internet-Angebote in englischer Sprache, die in den romanischen Ländern weitaus weniger gut beherrscht wird als im Norden Europas.64 In vielen länderspezifischen Analysen wird die Anzahl der InternetNutzer als geeigneter Indikator für die Diffusion des Internets herangezogen. Unberücksichtigt bleiben jedoch qualitative Aspekte.65 Damit ist auch noch nicht geklärt, wie und für welchen Zweck das Internet genutzt wird. Empirische Untersuchungen zur Nutzung des Internets auf Basis der Linkstrukturen von 4.000 repräsentativ ausgewählten WWW-Seiten haben die internationale Bedeutung des Internets bestätigt. Trotzdem wird es inhaltlich aber überwiegend nach regionalen bzw. sprachräumlichen Verweismustern genutzt. Am deutlichsten ist dieses Ergebnis in den USA zu erkennen, wo sich die Internet-Nutzer mit mehr als 90 % USinterner Links am stärksten innerhalb des Angebotes nationaler WWWSeiten bewegen. Auch in den englischsprachigen Ländern haben USSeiten große Bedeutung. Allerdings werden in nicht-englischsprachigen Ländern eher heimische WWW-Seiten bevorzugt. Sprachbarrieren verhindern die Verbreitung neuer Informationsangebote. Das Angebot zur Nutzung global orientierter Wissensprozesse wird zurzeit nur unzureichend ausgeschöpft.66

5.4 Die Diffusion des Internets in Deutschland und in den USA In den weiteren Ausführungen wird eine detaillierte Analyse der Diffusion für Deutschland und die USA vorgestellt. Mit der Abbildung 5 wird zunächst ein Überblick zur Entwicklung der Anzahl der Internet-Nutzer in Deutschland gegeben, wobei als Betrachtungszeitraum die Jahre von 1997 bis 2002 festgelegt werden.

64 Zimmer, Jochen: „Die Entwicklung des Internets in globaler Perspektive“, in: Hans-Bredow-Institut (Hrsg.): Internationales Handbuch Medien 2002/2003. Baden-Baden 2002, S. 141. 65 Kirkmann, Geoffrey S./Cornelius, Peter K./Sachs, Jeffrey D./Schwab, Klaus: The Global Information Technology Report 2001-2002 – Readiness for the Networked World. New York 2002, S. 23f. 66 Zimmer 2002, S. 141f.

GISELA HÜSER, MANFRED GRAUER

100

Die Anzahl der Internet-Nutzer in Deutschland ist im vorgegebenen Betrachtungszeitraum von 4 Mio. auf 32,1 Mio. gestiegen. Das entspricht einer durchschnittlichen jährlichen Steigerungsrate von 52 %. Die Steigerungsrate weicht im Vergleich zur globalen Diffusion der Internet-Nutzer nicht wesentlich ab, obwohl die Nutzerdichte um das Vierfache höher liegt. Heute nutzen ca. 39 % Prozent der Bevölkerung in Deutschland das Internet.

Internet-Nutzer in Deutschland (Mio.) 35 30 25 20 15 10 5

Se p

97 Ja n 9 M 8 ai 9 Se 8 p 98 Ja n 9 M 9 ai 9 Se 9 p 99 Ja n 0 M 0 ai 0 Se 0 p 00 Ja n 0 M 1 ai 0 Se 1 p 01 Ja n 0 M 2 ai 02

0

Abb. 5: Entwicklung der Anzahl der Internet-Nutzer in Deutschland von 1997 bis 2002 (Quelle: NUA 200467) Demgegenüber weisen die in der Abbildung 6 für die USA dargestellten Nutzerzahlen eine signifikante Abweichung auf. Während hier bis Juni 2001 eine steigende Tendenz zu verzeichnen ist, ergibt sich erstaunlicherweise ab diesem Zeitpunkt mit einer Anzahl von ca. 165 Mio. Internet-Nutzern und einer Internet-Penetration von 60 % eine stagnierende Tendenz.

67 NUA 2004.

ZUR VERBREITUNG DES INTERNETS UND DES MOBILFUNKTELEFONS

101

Internet-Nutzer in USA (Mio.) 180 160 140 120 100 80 60 40

Ju n 9 O 7 kt 9 Fe 7 b 98 Ju n 9 O 8 kt 9 Fe 8 b 99 Ju n 9 O 9 kt 9 Fe 9 b 00 Ju n 0 O 0 kt 0 Fe 0 b 01 Ju n 0 O 1 kt 0 Fe 1 b 02

20 0

Abb. 6: Entwicklung der Anzahl der Internet-Nutzer in den USA von 1997 bis 2002 (Quelle: NUA 200468) Fraglich ist, ob in den USA bereits eine Marktsättigung erreicht wurde. Dazu erscheint ein Vergleich mit den skandinavischen Ländern Europas sinnvoll (vgl. Kapitel 5.3). Diese Länder weisen ähnlich wie die USA eine hohe Internet-Penetration auf. In Dänemark liegt sie bei 63 %, in Finnland beträgt sie 52 %, in Norwegen 59 % und in Schweden 68 %.69 Trotz dieser hohen Internet-Penetration steigt die Anzahl der InternetNutzer in diesen Ländern noch an. Dies kann als Indiz dafür herangezogen werden, dass trotz der erwähnten Stagnation die Sättigung in den USA noch nicht erreicht sein muss.

5.5 Die Nutzung ausgewählter Medien in Deutschland Eine Studie zur Analyse der zeitlichen Nutzung ausgewählter Medien (Radio, Fernsehen, Internet, Buch, Zeitung, Video/DVD, Zeitschriften, Kino und Teletext), die im Jahr 2003 von Sevenone Media und Forsa durchgeführt wurde, ergab, dass im Durchschnitt jeder Deutsche täglich 160 Minuten Radio hört, 156 Minuten das Fernsehen nutzt und 49 Minuten das Internet. Die prozentuale Aufteilung der zeitlichen Nutzung dieser Medien wird in der Abbildung 7 deutlich. Danach hat das Internet bereits einen Anteil von 10 % der zeitlichen Mediennutzung erreicht. 68 NUA 2004. 69 NUA 2004.

GISELA HÜSER, MANFRED GRAUER

102

Dieser Anteil ist im Vergleich zum Jahr 1999 um das Fünffache gestiegen.70

Mediennutzung in Deutschland Prozent 40

34

33

30 20 10

8

10

5

5

3

1

1

Te le te xt

in o K

Ze itu ng V id eo /D V D Ze its ch rif te n

ch Bu

en In ter ne t

ns eh

Fe r

Ra

di o

0 Medienart

Abb. 7: Mediennutzung in Deutschland für das Jahr 200371 Zusätzlich konnte festgestellt werden, dass die absolute Nutzungsdauer bei den genannten herkömmlichen Medien erstaunlicherweise weitgehend konstant geblieben ist. Gleichzeitig hat sich die Nutzungsdauer für das Internet erhöht. Das bedeutet wiederum, dass die Gesamtdauer der Mediennutzung gestiegen ist.72 Es wird deutlich, dass tradierte Formen der Wissensentwicklung noch keineswegs durch neue Formen vernetzter Medien ersetzt worden sind.

6.

Konzeption und Entwicklungsstufen der Mobilfunktechnik

Die Nutzung der Dienste im Internet ist auf die Idee der räumlichen Unabhängigkeit ausgerichtet. Dabei bleibt der Ort der Diensterbringung für den Internet-Nutzer verborgen. Mobile Kommunikation hingegen macht die Kenntnis der geografischen Lage eines Rechnernetzes erforderlich. In 70 N.N.: „10 Prozent der Medienzeit fließt ins Internet – Tägliche Nutzungsdauer auf 49 Minuten gestiegen – Netz verdrängt Zeitungen und Fernsehen nicht“, in: FAZ, 24.10.2003, Nr. 273, S. 21. 71 FAZ 2003, S. 21. 72 FAZ 2003, S. 21.

ZUR VERBREITUNG DES INTERNETS UND DES MOBILFUNKTELEFONS

103

einem mobilen Funknetz können Kommunikationsverbindungen zwischen beweglichen ebenso wie zwischen beweglichen und ortsfesten Stationen aufgebaut werden. Entscheidend dabei ist, dass die mobilen Sende- und Empfangsstationen auch bei Bewegung funktionsfähig betrieben werden können. Begrenzte Frequenzbandbreiten machen die effiziente Nutzung der knappen Ressource „Frequenz“ in der Mobilfunktechnik erforderlich. Das Konzept der zellularen Mobilfunktechnik basiert auf einer Unterteilung des abzudeckenden Versorgungsbereiches in hexagonale Funkzellen, die von einer stationären Funkstation, einer Basisstation, verwaltet werden.73 Die Funkstrecke zwischen der Basisstation und der mobilen Station wird Funkschnittstelle oder Luftschnittstelle genannt. Die Basisstationen sind über feste Leitungen mit den Funkvermittlungsstellen verbunden. Basisstationen können nur über einen durch Funkvermittlungsstellen hergestellten Verbindungsaufbau kommunizieren. Das zellulare Mobilfunknetz besteht demnach aus den drei wesentlichen Komponenten der mobilen Stationen, der Basisstationen und der Funkvermittlungsstellen.74 Die Basisstationen bilden die Schnittstelle zwischen dem funkgestützten Teil des Mobilfunknetzes und dem leitungsgebundenen Teil des Mobilfunknetzes. Die Funkvermittlungsstellen gewähren den Übergang in andere Kommunikationsnetze.75 Die Größe der Funkzelle hängt von einer Vielzahl technischer und topografischer Parameter wie Sendeleistungen einer Station, Frequenzreichweite und Signallaufzeiten ab. Bei GSM (Global System for Mobile Communications), dem derzeitigen Standard, kann die Entfernung zwischen der Basisstation und einer Mobilstation aufgrund der Signallaufzeiten maximal 35 km betragen. Bei anderen Technologien kann sich die Größe der Zelle auch ändern. Dieses Phänomen wird „atmende Zelle“ genannt.76 Als technologische Einflussfaktoren, die entscheidend den Entwicklungsverlauf der Mobilfunktechnik bestimmen, können vier wesentliche Faktoren genannt werden: • Digitalisierung, • Verbesserung der Rechen-, Speicher- und Übertragungsleistungen, 73 74 75 76

Müller/Eymann/Kreutzer 2003, S. 150. Müller/Eymann/Kreutzer 2003, S. 151. Müller/Eymann/Kreutzer 2003, S. 151f. Müller/Eymann/Kreutzer 2003, S. 151.

104

GISELA HÜSER, MANFRED GRAUER

• Miniaturisierung und • Standardisierung. Schon in den 40er Jahren entwickelte die Firma Bell ein Zellularkonzept, um das Problem der beschränkten Funkbandbreite zu lösen. Bis das erste analoge Zellularsystem auf dem Markt eingeführt wurde, vergingen weitere 20 Jahre. Seitdem hat die Mobilfunktelefontechnik mehrere technologische Entwicklungsstufen durchlaufen. Diese Entwicklungsstufen, im Wesentlichen werden vier Generationen unterschieden, sind Basis einer Wissensinfrastruktur, die entscheidend Einfluss auf die Diffusion des Mobilfunktelefons hat.77 Die Mobilfunktelefonnetze der ersten Generation wurden in den ersten Anfängen vornehmlich für Autotelefondienste konzipiert. Charakteristisch für diese Netze war die Anwendung der analogen Übertragungstechnik.78 Mobilfunktelefonnetze der zweiten Generation basieren auf der digitalen Übertragungstechnik.79 GSM (Global System for Mobile Communications) gilt als der derzeit weltweit wichtigste Standard. GSM nutzt überwiegend verbindungsorientierte Kommunikationsprotokolle, da es primär für die Sprachkommunikation entwickelt wurde. Zusätzlich bietet es Informationsdienste wie SMS (Short Message Service) an. Die technologische Weiterentwicklung für die leitungsgebundene Datenübertragung mittels HSCSD (High Speed Circuit Switched Data) sowie für die paketvermittelte Datenübertragung GPRS (General Packet Radio Service) erlaubt Datenraten bis zu 100 kbps.80 Wichtigster Vertreter der dritten Generation der Mobilfunktelefonnetze ist UMTS (Universal Mobile Telecommunications System). Es bietet sowohl paket- als auch verbindungsorientierte Dienste an.81 Zukünftig sollen integrierte Audio- und Datensignale in hoher Qualität übertragen werden können sowie neue Breitbanddienste und eine intelligente Netzintegration zur Verfügung stehen. Bei der vierten Generation handelt es sich momentan weniger um einen Standard als vielmehr um ein Konzept.82 Kennzeichen dieser Generation ist die Berücksichtigung neuer Dienste wie der Telepräsentation 77 Müller/Eymann/Kreutzer 2003, S. 4. 78 Reitbauer 2004. URL: http://www.reitbauer.at/lexikon/default.asp?qkeyword=4G, 14.7.2004. 79 Reitbauer 2004. 80 Müller/Eymann/Kreutzer 2003, S. 155. 81 Müller/Eymann/Kreutzer 2003, S. 160. 82 Thefeature (2004). URL: http://www.thefeature.com/article?articleid=15014, 14.7.2004.

ZUR VERBREITUNG DES INTERNETS UND DES MOBILFUNKTELEFONS

105

und des dynamischen Informationszugriffs. Neben der Erweiterung des Angebotes solcher Dienste gilt die weitgehend unabhängige Kommunikation von Raum und Zeit als ein entscheidendes Ziel der Entwicklung von Mobilfunktelefonnetzen. Das bedeutet, dass z.B. mit einem Laptop sehr große Datenmengen für unterschiedlichste Multimedia-Anwendungen über ein Mobilfunktelefon zu jeder Zeit und an jedem Ort empfangen werden können. Damit kommt es zu einer vollständigen Integration zwischen leitungsgebundenen und drahtlosen Diensten. Nur durch die Nutzung und Integration verschiedener Medien und Technologien kann die Effizienz der Informationsübermittlung und so schließlich die Entwicklung neuen Wissens gesteigert werden.83

7.

Analyse der Verbreitung des Mobilfunktelefons auf Basis der Diffusionstheorie

7.1 Indikatoren zur Diffusionsanalyse des Mobilfunktelefons Für die Diffusionsanalyse des Mobilfunktelefons werden folgende Indikatoren zugrunde gelegt: • Anzahl der Mobilfunktelefonteilnehmer, • Anzahl der Mobilfunktelefonteilnehmer pro 1.000 Einwohner. Die Festlegung dieser Indikatoren wird insbesondere durch die bei der Erhebung der amtlichen Statistik zugrunde gelegten Indikatoren determiniert. Zu den Mobilfunktelefonteilnehmern zählen alle Nutzer eines mobilen Telefons, die als Vertragsnehmer einen Mobilfunktelefon-Service auf Basis der Zellulartechnik nutzen. Sowohl das Statistische Bundesamt in Wiesbaden als auch die ITU (International Telecommunication Union) legen diese Definition für die statistische Datenerhebung zugrunde.84 Mit der Festlegung dieser Indikatoren können Abgrenzungsschwierigkeiten auftreten. Da es in den Anfängen auch analoge Mobilfunksysteme gegeben hat, ist die Verbreitung des Mobilfunktelefons und der damit verbundene Medienumbruch nicht uneingeschränkt dem digitalen Medienumbruch zuzuordnen. 83 Grauer 1997, S. 6-12. 84 International Telecommunication Union (Hrsg.): World Telecommunication Development Report 2002. Genf 2002, S. A-88.

GISELA HÜSER, MANFRED GRAUER

106

7.2

Die Diffusion des Mobilfunktelefons in Deutschland

Mit der Abbildung 8 wird ein Überblick zur Entwicklung der Anzahl der Mobilfunktelefonteilnehmer in Deutschland gegeben. Als Beobachtungszeitraum wird das Zeitintervall von 1985 bis 2003 festgelegt.

Mobilfunktelefonteilnehmer in Deutschland (Mio.) 70 60 50 40 30 20 10 0 1985

1987

1989

1991

1993

1995

1997

1999

2001

2003

Abb. 8: Entwicklung der Anzahl der Mobilfunktelefonteilnehmer in Deutschland von 1985 bis 2003 (Quelle: Jahrbuch 199385; Jahrbuch 199586; Jahrbuch 199787; Jahrbuch 199988; Jahrbuch 200089; Jahrbuch 200290; Jahrbuch 200391) Zu Beginn des Diffusionsprozesses sind sehr niedrige Wachstumsraten zu verzeichnen. Deutlich zu erkennen sind progressive Steigerungsraten

85 Statistisches Bundesamt (Hrsg.): Statistisches Jahrbuch desrepublik Deutschland. Stuttgart 1993, S. 373. 86 Statistisches Bundesamt (Hrsg.): Statistisches Jahrbuch land. Stuttgart 1995, S. 120. 87 Statistisches Bundesamt (Hrsg.): Statistisches Jahrbuch land. Stuttgart 1997, S. 107. 88 Statistisches Bundesamt (Hrsg.): Statistisches Jahrbuch land. Stuttgart 1999, S. 105. 89 Statistisches Bundesamt (Hrsg.): Statistisches Jahrbuch land. Stuttgart 2000, S. 105. 90 Statistisches Bundesamt (Hrsg.): Statistisches Jahrbuch land. Stuttgart 2002, S. 273ff. 91 Jahrbuch 2003, S. 272.

1993 für die Bun1995 für das Aus1997 für das Aus1999 für das Aus2000 für das Aus2002 für das Aus-

ZUR VERBREITUNG DES INTERNETS UND DES MOBILFUNKTELEFONS

107

bis zum Jahre 1999. Die höchsten Wachstumsraten werden im Jahr 2000 erzielt. Danach sind die Wachstumsraten weitgehend degressiv steigend. Der Rückgang der Wachstumsraten kann einerseits damit begründet werden, dass bereits ein fortgeschrittenes Stadium des Diffusionsprozesses erreicht wurde. Andererseits kann dieser auch auf einen Konjunkturrückgang zurückgeführt werden. Zurzeit nehmen 72 % der Bevölkerung in Deutschland die Dienstleistungen des Mobilfunktelefons vertraglich in Anspruch. Dieses lässt auf eine hohe Penetration des Mobilfunktelefons in Deutschland schließen. Heute gibt es in Deutschland ca. 65 Mio. Mobilfunktelefonteilnehmer.

7.3 Die globale Diffusion des Mobilfunktelefons Die Entwicklung des Telekommunikationsmarktes wird von einem gravierenden technologischen Wandel begleitet. Auch die Veränderungen des rechtlichen und wirtschaftlichen Handlungsrahmens führen zu einer verstärkten Dynamisierung eines umfassenden Wandels. An erster Stelle ist die Privatisierung dieses Marktes zu nennen. Heute ist der Privatisierungsprozess von Telekommunikationsunternehmen in mehr als 50 % aller Länder der Welt abgeschlossen.92 Neben der Privatisierung zeichnet sich der Telekommunikationsmarkt durch eine weitgehende Globalisierung aus.93 Drei wesentliche Tendenzen sind zu erkennen: Erstens dominiert die Internationalisierung wirtschaftlicher Aktivitäten; viele Telekommunikationsunternehmen haben im Ausland weitere Niederlassungen. Zweitens ist der steigende Einfluss multilateraler Organisationen zu nennen. Die World Trade Organization (WTO) hat sich im Bereich der Telekommunikation um Liberalisierungsvereinbarungen bemüht, die heute von ca. 70 Regierungen unterschiedlichster Länder akzeptiert werden. Als dritter Indikator ist die Ausweitung des Angebotes weltweiter Telekommunikationsdienstleistungen zu nennen.94 Die Privatisierung, die Liberalisierung und die Globalisierung haben einen massiven Einfluss auf den Handlungsrahmen des Telekommunikationsmarktes. Gleichzeitig werden wichtige Voraussetzungen für eine wettbewerbsorientierte Preispolitik geschaffen. Auch die globale Diffusion des Telefons wird im Wesentlichen durch zwei technologische Entwicklungslinien bestimmt:

92 93 94

ITU 2002, S. 2. ITU 2002, S. 4f. ITU 2002, S. 4f.

GISELA HÜSER, MANFRED GRAUER

108

• das Telefon im Festnetz, • das Mobilfunktelefon. Da zwischen diesen beiden Entwicklungslinien Interdependenzen existieren, erscheint eine isolierte Betrachtung der Diffusionsprozesse nicht sinnvoll. Eine gleichzeitige Untersuchung beider Diffusionsprozesse ermöglicht das Aufdecken von Substitutionseffekten.95 Ein Überblick zur weltweiten Anzahl der Telefonteilnehmer im Festnetz und der Mobilfunktelefonteilnehmer wird mit der Abbildung 9 gegeben. Telefonteilnehmer weltweit (Mio.) 3.000 2.500 Mobilfunk 2.000 1.500 1.000 500 Festnetz 0 1910

1920

1930 1940

1950 1960

1970

1980 1990

2000

Abb. 9: Entwicklung der weltweiten Anzahl der Telefonteilnehmer im Festnetz und der Mobilfunktelefonteilnehmer von 1910 bis 2005 (Quelle: ITU 200496) Die Kurven zur Verbreitung der weltweiten Anzahl der Telefonteilnehmer im Festnetz und der Mobilfunktelefonteilnehmer sind monoton steigend. Zusätzlich sei erwähnt, dass die Wachstumsraten deutlich bis zum Jahr 2000 progressiv steigend sind. Heute ist eine weltweite Verbreitung des Telefons im Festnetz mit 1.300 Mio. Telefonteilnehmern zu verzeichnen. Signifikant ist, dass die Wachstumsraten der Mobilfunktelefonteilnehmer wesentlich höher sind als die Wachstumsraten der Telefonteilnehmer im Festnetz. Im Jahr 2002 überschritt die Anzahl der weltweiten 95 96

ITU 2002, S. 13, S. 18ff. International Telecommunication Union (Hrsg.): World Telecommunication Indicators Database. Genf 2004.

ZUR VERBREITUNG DES INTERNETS UND DES MOBILFUNKTELEFONS

109

Mobilfunktelefonteilnehmer zum ersten Mal die Anzahl der weltweiten Telefonteilnehmer im Festnetz. Heute beträgt die Anzahl der weltweiten Mobilfunktelefonteilnehmer 1.500 Mio.; das entspricht einem Anteil von ca. 22 % der gesamten Weltbevölkerung.97 Zusätzlich erscheint eine weitere Analyse zur jährlichen Veränderung der weltweiten Mobilfunktelefonteilnehmer sinnvoll. Dazu ist anzumerken, dass im Jahr 2000 die höchsten Zuwachsraten erzielt wurden. Danach weisen die jährlichen Zuwachsraten eine rückläufige Tendenz auf. Eine Übersicht zur jährlichen Veränderung der weltweiten Mobilfunktelefonteilnehmer bietet die Abbildung 10. Jährliche Veränderung der Anzahl weltweiter Mobilfunktelefonteilnehmer 250

250

Mio.

215

200

200 174

172

150 103 100

73 52

50 5

7

11

21

35

0 1991

1993

1995

1997

1999

2001

2003

Abb. 10: Jährliche Veränderung der Anzahl weltweiter Mobilfunktelefonteilnehmer von 1991 bis 2003 (Quelle: ITU 200498) Als Ursache für diese degressiven Zuwachsraten kommen einerseits rückläufige Tendenzen des weltweiten Wirtschaftswachstums in Betracht. Andererseits ist bereits ein fortgeschrittenes Stadium des globalen Diffusionsprozesses erreicht. Für einige Industrieländer gilt der Diffusionsprozess als weitgehend abgeschlossen.99 Aufgrund der aktuellen globalen Penetration der Mobilfunktelefonteilnehmer von ca. 22 % der Gesamtbevölkerung und den hohen Wachstumsraten der Mobilfunktelefon-

97 98 99

ITU 2004. ITU 2004. ITU 2002, S. 6.

110

GISELA HÜSER, MANFRED GRAUER

teilnehmer in Asien und in den Entwicklungsländern kann der globale Diffusionsprozess zurzeit noch nicht als abgeschlossen gelten.100

7.4 Die länderspezifische Diffusion des Mobilfunktelefons Neben einer globalen Diffusionsanalyse kann eine Analyse auf Länderebene weitere Ergebnisse liefern, die deutlich erkennen lassen, wie weit der Diffusionsprozess in den einzelnen Ländern fortgeschritten ist. Eine solche Analyse kann zusätzlich der Validität der Aussage dienen, dass der Diffusionsprozess des Mobilfunktelefons auf Länderebene und damit auch auf globaler Ebene noch nicht abgeschlossen ist. In der Abbildung 11 werden die Zeitreihen der Mobilfunktelefonteilnehmer für die Länder Deutschland, USA, Schweden, Italien, Japan und China dargestellt. Erwähnt sei, dass die Stadt Hongkong, die seit dem 1.7.1997 als „Sonderverwaltungsregion“ in die Volksrepublik China eingegliedert wurde, sowie Taiwan bei dieser Analyse keine Berücksichtigung finden. Deren Daten werden unabhängig durch das Statistische Bundesamt und die ITU geführt. Die Diffusionskurven sind monoton steigend. Signifikant sind die hohen Wachstumsraten in China. Im Jahr 2003 konnten für dieses Land 269 Mio. Mobilfunktelefonteilnehmer registriert werden. Im Vergleich dazu gab es in den USA im selben Jahr 141 Mio. Mobilfunktelefonteilnehmer. Japan steht bei dieser Betrachtung mit 79 Mio. Teilnehmern an dritter Stelle, gefolgt von Deutschland mit einer Anzahl von 59 Mio. Teilnehmern, Italien mit 52 Mio. Teilnehmern und Schweden mit 8 Mio. Teilnehmern.

100 ITU 2002, S. 6.

ZUR VERBREITUNG DES INTERNETS UND DES MOBILFUNKTELEFONS

111

Mobilfunktelefonteilnehmer (Mio.) 300 250 China

200

Deutschland Italien

150

Schweden USA

100

Japan

50 0 1985 1987 1989 1991 1993 1995 1997 1999 2001 2003

Abb. 11: Entwicklung der Anzahl der Mobilfunktelefonteilnehmer ausgewählter Länder für die Jahre von 1985 bis 2003 (Quelle: Jahrbuch 2003101; Jahrbuch 2002102; Jahrbuch 2001103; Jahrbuch 2000104; Jahrbuch 1999105; Jahrbuch 1998106; Jahrbuch 1997107; Jahrbuch 1996108; ITU 2004109) Wird die Analyse länderspezifisch durchgeführt, kann die Anzahl der Mobilfunktelefonteilnehmer nur bedingt Aussagen über die Penetration zulassen. Ein länderspezifischer Vergleich erfordert die Definition eines zusätzlichen Indikators, der demografische Einflussfaktoren berücksichtigt. Ein geeigneter Indikator ist die Anzahl der Mobilfunktelefonteilnehmer pro 1.000 Einwohner des jeweiligen Landes. In der Abbildung 12 werden hierzu ausgewählte Länder miteinander verglichen, wobei das Jahr 2002 als das Bezugsjahr gilt.

101 Jahrbuch 2003, S. 272ff. 102 Statistisches Bundesamt (Hrsg.): Ausland. Stuttgart 2002, S. 273ff. 103 Statistisches Bundesamt (Hrsg.): Ausland. Stuttgart 2001, S. 299ff. 104 Jahrbuch 2000, S. 105. 105 Jahrbuch 1999, S. 105. 106 Statistisches Bundesamt (Hrsg.): Ausland. Stuttgart 1998, S. 111. 107 Jahrbuch 1997, S. 107. 108 Statistisches Bundesamt (Hrsg.): Ausland. Stuttgart 1996, S. 122. 109 ITU 2004.

Statistisches Jahrbuch 2002 für das Statistisches Jahrbuch 2001 für das

Statistisches Jahrbuch 1998 für das

Statistisches Jahrbuch 1996 für das

GISELA HÜSER, MANFRED GRAUER

112

Mobilfunktelefonteilnehmer pro 1.000 Einwohner (2002) China Mexiko Türkei Polen Kanada USA Slowakei Japan Neuseeland Australien Frankreich Ungarn Deutschland Niederlande Irland Belgien Schweiz Großbritannien Österreich Dänemark Tschechische Republik Spanien Finnland Portugal Norwegen Griechenland Schweden Italien

0

200

400

600

800

1000

Abb. 12: Anzahl der Mobilfunktelefonteilnehmer pro 1.000 Einwohner ausgewählter Länder für das Jahr 2002 (Quelle: Jahrbuch 2003110) Auffallend ist, dass China bei diesem Ländervergleich mit 162 Mobilfunktelefonteilnehmern pro 1.000 Einwohner an letzter Stelle steht. Dieser Indikator lässt eindeutig erkennen, dass der Diffusionsprozess für dieses Land bei weitem noch nicht abgeschlossen ist. Im Vergleich dazu beträgt dieser Indikator für die Stadt Hongkong 894111, was auf eine für diese Stadt hohe Penetration schließen lässt. Die USA bewegen sich mit 488 Mobilfunktelefonteilnehmern pro 1.000 Einwohner im unteren Mittelfeld. Dagegen liegen auf den vorderen Plätzen neben den nordischen 110 Jahrbuch 2003, S. 272. 111 Jahrbuch 2003, S. 272.

ZUR VERBREITUNG DES INTERNETS UND DES MOBILFUNKTELEFONS

113

Ländern Europas auch südliche Länder wie Spanien, Portugal und Griechenland. Mit 909 Teilnehmern pro 1.000 Einwohner weist Italien bei dieser Betrachtung die höchste Penetration auf. Unter der Annahme, dass die Bevölkerungszahl als Sättigungsgrenze festgelegt wird, kann der Diffusionsprozess für das Land Italien als weitgehend abgeschlossen gelten (vgl. Abbildung 11). Im Vergleich dazu beträgt der ausgewählte Indikator für Deutschland 718, womit der Diffusionsprozess für dieses Land als weit vorangeschritten gilt.

8.

Die Verbreitung ausgewählter Medien im Vergleich

Um die Frage beantworten zu können, ob die Digitalisierung und die computergestützte Vernetzung von Medien einen inkrementellen oder radikalen Wandlungsprozess in Gang gesetzt haben, ist eine isolierte Analyse der Verbreitung digitaler und vernetzter Medien unzureichend. Vielmehr muss eine umfassende Betrachtung zugrunde gelegt werden, die einen Vergleich dieses Transformationsprozesses zwischen analogen und digitalen Medien erlaubt. Dazu werden die Diffusionsprozesse ausgewählter Medien wie Telefon, Rundfunk, Fernsehen, Mobilfunktelefon und Internet verglichen und in der Abbildung 13 grafisch dargestellt. 60 Mio.

Anzahl Fernsprechanschlüsse

50

30

Anzahl der angemeldeten Rundfunkteilnehmer Zahl der angemeldeten Fernsehteilnehmer

20

Anzahl der Internet/Online-Teilnehmer

40

Mobilfunktelefonteilnehmer (Zellulartechnik)

10 0 1890

1910

1930

1950

1970

1990

2010

Abb. 13: Diffusion ausgewählter Medien in Deutschland (Quelle: Statistische Handbücher für das Deutsche Reich, Statistische Jahrbücher, Statistische Jahrbücher für das Ausland, Statistische Jahrbücher der ARD)

114

GISELA HÜSER, MANFRED GRAUER

Politische Einflüsse wie der Zweite Weltkrieg und die Wiedervereinigung spiegeln sich in den Diffusionsverläufen der herkömmlichen Medien wider. Deutlich zu erkennen ist, dass die Verbreitung dieser Medien wesentlich langsamer verlief als die Verbreitung des Internets und des Mobilfunktelefons. So dauerte es in Deutschland rund 110 Jahre, bis es 50 Mio. Fernsprechanschlüsse gab. Die gleiche Anzahl an Mobilfunktelefonteilnehmern konnte hier in ca. 15 Jahren erreicht werden. Auffallend ist auch, dass die Wachstumsraten der Mobilfunktelefonteilnehmer höher sind als die des Internets, womit auch die Diffusion des Mobilfunktelefons weiter vorangeschritten ist als die Diffusion des Internets. Hierzu sei angemerkt, dass das Mobilfunktelefon weniger komplex ist als das Internet.112 Das Mobilfunktelefon ist leichter verständlich und bedienbar, womit sich für die Verbreitung dieses Mediums weniger Widerstände ergeben. Zurzeit gibt es in Deutschland ca. 55 Mio. Mobilfunktelefonteilnehmer. Im Vergleich dazu hat das Internet in Deutschland eine Anzahl von 32 Mio. Teilnehmern überschritten.

9.

Diskussion der Ergebnisse und Ausblick

Die Analyse der Verbreitung des Internets und des Mobilfunktelefons auf Basis der Diffusionstheorie ermöglicht es, Aussagen darüber zu treffen, wie weit der Diffusionsprozess in den einzelnen Ländern vorangeschritten ist. Dabei zeigt sich, dass das Internet bislang nur ein potenziell genutztes Medium ist.113 Es wird weltweit von ca. 606 Mio. Menschen genutzt, was einer Internet-Penetration von ca. 10 % der gesamten Weltbevölkerung entspricht.114 Auch das Potenzial global orientierter Wissensprozesse wird zurzeit nur unzureichend ausgeschöpft. Dabei spielen Sprachbarrieren eine nicht unwesentliche Rolle.115 Dieser Diffusionsprozess wird in den nächsten Jahren fortschreiten. Steigerungsraten sind vor allem in den Entwicklungsländern zu erwarten, da allein – demografisch betrachtet – 80 % der Weltbevölkerung in diesen Ländern lebt.116 Schon jetzt hat die digitale Spaltung zwischen den Industrie- und Entwicklungsländern deutlich abgenommen.117 Ende 2002

112 Rogers 1995, S. 16. 113 Zimmer 2002, S. 141. 114 Die letzte verfügbare zuverlässige Datenquelle bezieht sich auf das Jahr 2002 (NUA 2004). 115 Zimmer 2002, S. 141f. 116 Castells 2001, S. 262. 117 ITU 2002, S. 27.

ZUR VERBREITUNG DES INTERNETS UND DES MOBILFUNKTELEFONS

115

konnte man bereits 32 % aller Internet-Nutzer den Entwicklungsländern zuordnen. Im Jahr 2005 sollen es 50 % sein.118 Die Vernetzung unserer Gesellschaft wurde weiterhin am Beispiel des Mobilfunktelefons analysiert. Es wird von ca. 1.500 Mio. Menschen benutzt.119 Das entspricht ca. 22 % der gesamten Weltbevölkerung. Erwähnenswert ist, dass die Anzahl der weltweiten Mobilfunktelefonteilnehmer bereits höher ist als die Anzahl der weltweiten Telefonteilnehmer im Festnetz. In diesem Zusammenhang konnten auch Substitutionseffekte nachgewiesen werden. Im Vergleich zur Verbreitung des Internets ist die Verbreitung des Mobilfunktelefons weiter vorangeschritten. Einige Industrieländer weisen bereits eine Penetration von annähernd 100 % auf.120 Da für die Entwicklungsländer noch enorme Wachstumsraten zu erwarten sind, gilt der globale Diffusionsprozess des Mobilfunktelefons als noch nicht abgeschlossen. Zum einen wird deutlich, dass die Verbreitung des Internets und des Mobilfunktelefons und damit auch der Prozess der Vernetzung unserer Gesellschaft in den verschiedenen Ländern unterschiedlich weit vorangeschritten sind. In diesem Zusammenhang sind die Veränderung von Wissensprozessen und auch die Generierung neuer Wissensprozesse sowie ihre Anwendung lokalspezifisch zu analysieren. Weiterhin konnte nachgewiesen werden, dass die Verbreitung analoger Medien wie des Telefons, des Fernsehens und des Rundfunks wesentlich langsamer verlief als die Verbreitung des Internets und des Mobilfunktelefons. Es wird deutlich, dass die Digitalisierung und die computergestützte Vernetzung ein zentrales Moment der Veränderungsdynamik von Medien und damit des zweiten Medienumbruchs bilden.

118 FAZ 2003, S. 21. 119 Die letzte verfügbare zuverlässige Datenquelle bezieht sich auf das Jahr 2002 (ITU 2004). 120 ITU 2002, S. 22.

WISSENSMANAGEMENT UND BILDUNGSPROZESSE

STEFAN PAAL, JASMINKO NOVAK, BERND FREISLEBEN

KOLLEKTIVES WISSENSMANAGEMENT IN VIRTUELLEN GEMEINSCHAFTEN 1. Einleitung Im Jahr 1973 veröffentlichte Daniel Bell seine Thesen vom Leben in einer „postindustriellen Gesellschaft“.1 Danach geht die Industriegesellschaft in eine Dienstleistungsgesellschaft über, die nicht mehr länger auf der Güterproduktion basiert, sondern auf der Informationsverarbeitung. Die dabei entstehenden gesellschaftlichen Veränderungen werden seit den 90er Jahren mit dem Begriff der Wissensgesellschaft gekennzeichnet, um die gewachsene Bedeutung von Wissen als einen weiteren Produktionsfaktor neben Grundbesitz, Arbeitskraft und Kapital zu erfassen. Wissen wird zur handelbaren Ware, und Eigentumsrechte an Waren verändern sich in Rechte, Wissen zu nutzen.2 Allerdings ist Wissen auch ein öffentliches Gut, das für alle frei zugänglich sein muss. Wissen wird dabei gewöhnlich als Bestand aufgefasst, der von einer Person und ihrer Erfahrung abgetrennt werden kann. Dieses bestandsmäßige Verständnis von Wissen geht davon aus, Wissen lasse sich besitzen, speichern und auf andere Personen übertragen.3 Diese bislang dominierende Ansicht wird allerdings zunehmend mit der kommunikativen Sichtweise auf das Wissensmanagement korrigiert. In dieser Sichtweise wird Wissen primär

1 Vgl. Bell, Daniel: The Coming of Post-Industrial Society. A Venture in Social Forecasting. New York 1973. 2 Vgl. Granstrand, Ove: „Intellectual Capitalism – An Overview“, in: Nordic Journal of Political Economy, Jg. 25 (1999), Nr. 2, S. 115-127. 3 Vgl. Lerche, Clemens: Spannungsfelder der Wissensgesellschaft. URL: http://www.politik-digital.de/edemocracy/wissensgesellschaft/spannung. shtml, 15.8.2004.

120

STEFAN PAAL, JASMINKO NOVAK, BERND FREISLEBEN

als ein soziales Konstrukt gesehen, das an Personen und Gruppen bzw. Gemeinschaften gebunden und daher schwierig zu externalisieren ist.4 In der Literatur wird zwischen explizitem und implizitem Wissen (Tacit Knowledge) unterschieden.5 Nach Nonaka und Takeuchi ist explizites Wissen kodifiziert oder formal artikulierbar, zum Beispiel in Form von grammatikalischen Aussagen, mathematischen Formeln, Spezifikationen, Handbüchern usw. Explizites Wissen kann daher leicht weitergegeben werden. Rollett definiert implizites Wissen wie folgt: „Tacit knowledge wird ins Deutsche neben implizitem Wissen oft als verborgenes Wissen oder stillschweigendes Wissen übersetzt. Damit ist persönliches, an das Individuum gebundenes Wissen gemeint, das nicht oder zumindest nur schwer systematisch zu verarbeiten oder zu übermitteln ist. Darunter fallen zum Beispiel ein subjektiver Einblick oder ein subjektives Verständnis eines Themas, eine Intuition oder ein inneres Gefühl im Sinne eines Verdachtes. Implizites Wissen basiert auf individueller Erfahrung, persönlichen Vorstellungen, Glauben, Perspektiven, Weltanschauung, Idealen, Werten und Emotionen. Es besteht aus Können, Handlungsroutinen, Überzeugungen, Glaubenssätzen und geistigen Schemata.“6

Neue Informationstechnologien (IT) strukturieren Unternehmen, das Privatleben, aber auch die Politik neu. Die technologischen Innovationen schaffen und vernetzen neue Informationsräume und haben die Informationsvielfalt und -verarbeitung sowie den Informationsaustausch in vielen Lebensbereichen verändert und die technische Grundlage für eine Netzwerkgesellschaft bereitet. Insbesondere das globale Internet hat dazu beigetragen, heterogene Informationen zusammenzuführen, zu vernetzen und abzufragen. Es ist ein virtueller, heterogener Informationsraum entstanden, der eine nie dagewesene Fülle an unterschiedlichen Informationen in sich vereinigt und zu einem bedeutenden Wirtschaftsfaktor wird, wenn es gelingt, das inhärente Wissenspotential zu erschließen. Somit wird der Zugang zur Ressource Wissen zu einer der zentralen gesellschaftlichen Fragen. Wie wird Wissen erzeugt, entdeckt, gespeichert, verteilt, genutzt und bewahrt? Welches Wissen wird wie nachgefragt und 4 Vgl. Brown, John Seely et al.: „Organizational Learning and Communities of Practice: Toward a Unified View of Working, Learning, and Innovation“, in: Organization Science, Jg. 2 (1991), Nr. 1, S. 40-57. 5 Vgl. Nonaka, Ikujiro/Takeuchi, Hirotaka: The Knowledge-Creating Company. London 1995. 6 Vgl. Rollett, Herwig: Aspekte des Wissensmanagements. Diplomarbeit, Technische Universität Graz 2000. URL: http://www.know-center. tugraz.at/de/divisions/publications/pdf/ hrollett2000-01.pdf, 15.8.2004

KOLLEKTIVES WISSENSMANAGEMENT

121

unter welchen Bedingungen angeboten? Wie kann das Problem des Überangebots an Wissen („Informationsflut“) gelöst werden? Antworten auf diese Fragen werden innerhalb des Gebietes des Wissenmanagements gesucht. Die oben angeführte Unterscheidung zwischen expliziten und impliziten Wissen führt zu zwei grundsätzlich verschiedenen Strategien: dem kodifizierten Ansatz und dem personalisierten Ansatz des Wisssensmanagements.7 Beim kodifizierten Ansatz geht es darum, explizites Lösungswissen in Form von „gelernten Lektionen“ oder „anerkannten Praktiken“ zur Wiederverwendung von Wissen in Wissensdatenbanken – dem Knowledge Warehouse – zur Verfügung zu stellen. Beim Knowledge Warehouse steht die Standardisierung und Nutzung strukturierten Wissens im Vordergrund. Der Fokus liegt demnach auf der Formalisierung von Wissen und seiner Darstellung in einem ITSystem. Der personalisierte Ansatz dagegen dient der Unterstützung schwer formalisierbarer, innovativer Aufgaben, wo bereits erarbeitetes, explizites Wissen im Allgemeinen keine neuen Impulse geben kann. Hier führt nur der Aufbau eines Netzwerkes zwischen Experten – dem sogenannten Wissensnetzwerk – weiter, der den interpersonalen Austausch impliziten Wissens unterstützt. Explizites, abrufbares Wissen wird also durch den kodifizierten Ansatz beschrieben, während implizites Wissen, das in der Kommunikation erarbeitet wird, durch den personalisierten Ansatz beschrieben wird. Das Knowledge Warehouse ist demnach durch eine „Person-Dokument-Beziehung“ definiert, während das Wissensnetz auf einer „Person-Person-Beziehung“ basiert.8 Diese kommunikative Sicht auf das Wissensmanagement korrigiert die bislang dominierende Stellung des Knowledge Warehouses und fügt ihm eine Netzwerkkomponente hinzu, die der Erhöhung der Kompetenz der beteiligten Personen dient. Formal lassen sich Wissensnetze als Träger von Interaktionen zwischen Personen definieren, die räumlich verteilt und ausgestattet mit passender Kommunikationstechnologie gemeinsam auf ein Ziel gerichtet arbeiten. Solche Netzwerke sind grundsätzlich offen und verändern durch ihre Funktion die Organisationsstruktur in Richtung einer kollaborativen Arbeitsweise. 7 Vgl. Paulzen, Oliver et.al: „Integration von Knowledge Warehouse und Knowledge Networks – Konzept und Methodik am Beispiel des Intelligent Supplier Management“, in: Josef Herget (Hrsg.): Competitive & Business Intelligence – Neue Konzepte, Methoden & Instrumente. Konstanz/Berlin 2002, S. 29-50. 8 Vgl. von Guretzky, Bernhard: Wissensnetzwerk. URL: http://www.c-o-k.de/cp_artikel_d.htm?artikel_id=157, 15.8.2004.

122

STEFAN PAAL, JASMINKO NOVAK, BERND FREISLEBEN

Die zentrale Herausforderung des kollektiven Wissensmanagements ist es, individuelles Wissen anderen Personen zur Verfügung zu stellen und gruppen-, bereichs- oder organisationsspezifisch als kollektives Wissen zu kommunizieren.9 Zu diesem Zweck müssen Konzepte und Werkzeuge zur kollektiven Wissensidentifikation, -extraktion, -entwicklung, -verteilung, -nutzung und -bewahrung bereitgestellt werden. Dabei ist das Modell der Wissensgemeinschaften als selbstorganisierende, soziotechnologische Netzwerke in den letzten Jahren zu einem der wichtigsten Modelle des Wissensmanagements geworden. Solche Netzwerke werden auch oft als „virtual communities“10, „communities of practice“11, „knowledge communities“12 oder „business communities“13 bezeichnet. Die Erforschung und Entwicklung technischer Systeme, Methoden und Strategien zur Unterstützung solcher kollektiver Wissensprozesse in verteilt agierenden Wissensgemeinschaften ist ein aktuelles Anliegen mehrerer Forschungsfelder der Informatik. Die technische Grundlage bildet eine adäquate Internet-basierte Softwareinfrastruktur zum Zugang zu und zur Kommunikation bzw. Kollaboration in virtuellen Wissensgemeinschaften. Darauf aufsetzend werden anwendungsbezogene Softwarewerkzeuge bereitgestellt, die die unterschiedlichen Aufgaben des kollektiven Wissensmanagements unterstützen. In diesem Beitrag werden zunächst die technischen Grundlagen zur Etablierung von Wissensnetzen in der heutigen Netzwerkgesellschaft diskutiert und die Bausteine des kollektiven Wissensmanagements in virtuellen Gemeinschaften erläutert. Im Anschluss werden Softwarewerkzeuge und Methoden zur kollektiven Kontextualisierung von Inhalten und Entdeckung neuer Zusammenhänge in heterogenen Dokumen-

9 Vgl. Beinhauer, Malte et al.: „Virtual Community – Kollektives Wissensmanagement im Internet“, in: A.-W. Scheer (Hrsg.): Electronic Business and Knowledge Management – Neue Dimensionen für den Unternehmenserfolg. 20. Saarbrücker Arbeitstagung 1999 für Industrie, Dienstleistung und Verwaltung. Heidelberg 1999, S. 403-431. 10 Vgl. Rheingold, Howard: The Virtual Community. Homesteading on the Electronic Frontier. Reading, Mass. 1993. 11 Vgl. Brown 1991, S. 40-57; Wenger, Etienne: Communities of Practice: Learning, Meaning and Identity. Cambridge 1998. 12 Vgl. Carotenuto, Linda et al.: „CommunitySpace: Towards flexible support for voluntary knowledge communities“, in: Proc. Workshop on Workspace Models for Collaboration. London 1999. 13 Vgl. Bullinger, Hans-Jörg et al.: Business Communities. Bonn 2002.

KOLLEKTIVES WISSENSMANAGEMENT

123

tenpools vorgestellt, wie sie im Projekt CAT14 entwickelt wurden. Daraufhin wird der innerhalb des Projektes AWAKE15 verfolgte Ansatz zur kollaborativen Entdeckung, Nutzbarmachung und dem Austausch von implizitem Expertenwissen in virtuellen Gemeinschaften präsentiert. Schließlich wird eine verteilte Softwareinfrastruktur zur Unterstützung von ‚nomadischem Wissensmanagement‘ beschrieben, die die Mobilität von Benutzern bei den verschiedenen Aufgaben des kollektiven Wissensmanagements erlaubt.

2.

Kollektives Wissensmanagement

In diesem Abschnitt werden zunächst die technischen Grundlagen zur Etablierung der Netzwerkgesellschaft erläutert, um die Möglichkeiten zu verdeutlichen, die sich daraus für die Unterstützung von virtuellen, verteilten Wissensgemeinschaften ergeben. Anschließend werden dazu in einem Überblick die Bausteine des kollektiven Wissensmanagements in Wissensnetzen vorgestellt.

2.1 Technische Grundlagen der Netzwerkgesellschaft Die rasante Entwicklung im Bereich der Computer-, Netzwerk- und Mobilfunktechnik hat die Gesellschaft mit einer signifikanten Veränderung vieler Lebensbereiche konfrontiert. Vor allem die zunehmende Verbreitung des Internets und die Einführung des World Wide Web (WWW) Anfang der 90er Jahre haben dazu beigetragen, eine breite Öffentlichkeit zu vernetzen und die Grundlage für den Weg in die Netzwerkgesellschaft zu legen. Mittlerweile ist das Internet zum universellen Kommunikationsmedium geworden, das nicht nur zum globalen Datenaustausch genutzt wird, sondern auch multimediale Inhalte in Echtzeit verbreitet und den Zugriff auf vielerlei Dienste ermöglicht. Damit hat das Internet Computing nicht nur die Freizeitgestaltung, sondern auch die Arbeitswelt nachhaltig verändert. Raum und Zeit spielen nur noch eine untergeordnete Rolle. Virtuelle Netzgemeinschaften mit sehr unterschiedlichen Interessen sind entstanden, deren Mitglieder meist nur noch über das Internet 14 Fleischmann, Monika et al.: „netzspannung.org – An Internet Media Lab for Knowledge Discovery in Mixed Realities“, in: Proc. of cast01 // living in mixed realities. Sankt Augustin 2001, S. 121-129. 15 AWAKE – Networked Awareness for Knowledge Discovery. Fraunhofer Institute for Media Communication. St. Augustin, Germany, 2003. URL: http://awake.imk.fraunhofer.de, 15.08.2004.

124

STEFAN PAAL, JASMINKO NOVAK, BERND FREISLEBEN

kommunizieren und zusammenarbeiten. Konventionelle Gesellschaftsstrukturen, die auf persönliche Begegnungen angewiesen sind, werden immer mehr aufgebrochen, verändert und durch virtuelle Bindungen und asynchrone Kommunikationsformen neu gestaltet. Der Weg in diese Ausprägung der Netzwerkgesellschaft ist allerdings nicht immer frei von Problemen, sondern führt mitunter auch zum Verlust von sozialen Kontakten. Neue Entwicklungen in der Mobilfunktechnik führen hingegen in eine andere Richtung. Immer kleinere und billigere Mobiltelefone und der flächendeckende Ausbau der Mobilfunknetze haben zu drahtlosen Kommunikationsnetzwerken geführt, denen man sich kaum entziehen kann. Die Nutzer sind inzwischen daran gewöhnt, stets erreichbar zu sein und jederzeit andere Personen zu erreichen. Dies führt sogar soweit, dass Mobiltelefone nicht nur dienstlich auf Reisen, sondern auch bei privaten Aktivitäten (z.B. Restaurant, Konzert etc.) auf Empfang gestellt werden – mit allen positiven und negativen Konsequenzen. Schließlich verwischen damit auch die Grenzen zwischen Arbeit und Freizeit. So werden bereits vermehrt PDAs (Personal Digital Assistants) oder Notebooks eingesetzt, die sich über drahtlose Verbindungen und den Umweg über das Internet von überall in ein Firmennetz einwählen können. Besonders durch den mobilen Einsatz portabler Geräte und drahtloser Netzwerke entstehen hier neue Anwendungsszenarien wie das der spontanen Vernetzung, in dem die Verbindungsstrukturen nicht von Anfang an feststehen, sondern sich dynamisch verändern können.16 Empfangsprobleme oder der Übertritt in ein anderes Funknetz führen zudem zu kurzzeitigen Wechseln zwischen Off- und Online-Betrieb und stellen damit weitere Herausforderungen an mobile Softwareanwendungen und die zugrunde liegende technische Infrastruktur. Für die Netzwerkgesellschaft hebt das Mobile Computing praktisch die statische, räumliche Bindung an einen Ort auf und ermöglicht dem Nutzer nicht nur jederzeit den Zugriff auf das Internet, sondern vor allem auch permanent an sich ständig wechselnden Orten erreichbar zu sein. Eine weitere Entwicklung zeichnet sich durch die fortschreitende Miniaturisierung der Computer und die damit einhergehende Durchdringung aller Lebensbereiche aus. Im Gegensatz zur expliziten Anwendung von Computern, die die volle Aufmerksamkeit des Benutzers erfordern, 16 Vgl. Siegemund, Frank: „Spontaneous Interaction in Ubiquitous Computing Settings using Mobile Phones and Short Text Messages“, in: Proc. of the Workshop on Supporting Spontaneous Interaction in Ubiquitous Computing Settings (Ubicomp 2002). Göteborg 2002.

KOLLEKTIVES WISSENSMANAGEMENT

125

wird hierbei die implizite Nutzung des Rechners im Hintergrund ermöglicht. Alltagsgegenstände, die nicht unbedingt einem klassischen Computeraufbau ähneln müssen, können für den Anwender unbewusst Rechenaufgaben übernehmen und ohne besondere Anweisungen agieren. Mark Weiser hat hierfür die Begriffe „Invisible Computing“ und „Disappearing Computing“ eingeführt.17 Er hat bereits Anfang der 90er Jahre prophezeit, dass Computer als Teil der Alltagswelt verschwinden und als solche nicht mehr wahrgenommen werden. Weiterhin vertritt er die These, die Computernutzung entwickle sich in mehreren Phasen, an deren Ende der allgegenwärtige Computer stehe; er hat dazu den Begriff „Ubiquitous Computing“ eingeführt.18 Demzufolge wird die Miniaturisierung zukünftig auch zu weltweit verfügbaren, global vernetzten und implizit benutzten Systemen führen und im Sinne des „Pervasive Computing“ einen noch nicht absehbaren Einfluss auf die Netzwerkgesellschaft haben. Vor allem muss noch abgewartet werden, inwieweit sich Anwender dieser Entwicklung öffnen wollen. So lassen beispielsweise die aktuellen Diskussionen um Radio Frequency Identification (RFID) nur erahnen, welche Brisanz solche allgegenwärtigen und implizit agierenden Systeme für die Privatsphäre und die damit verbundenen Persönlichkeitsrechte in sich bergen.19

17 Vgl. Weiser, Mark: „The Computer for the Twenty-First Century“, in: Scientific American, Jg. 1991, Nr. 3, S. 94-104. 18 Vgl. Weiser, Mark: „Some Computer Science Issues in Ubiquitous Computing“, in: Communications of the ACM, Jg. 3 (1999), Nr. 3, S. 74-84. 19 Vgl. Sarma, Sanjay: „RFID Systems and Security and Privacy Implications“, in: Proc. of the Workshop on Cryptographic Hardware and Embedded Systems. San Francisco Bay 2002, S. 454-470.

126

STEFAN PAAL, JASMINKO NOVAK, BERND FREISLEBEN

2.2 Bausteine des Wissensmanagements Nach Probst et al. besteht das kollektive Wissensmanagement in virtuellen Gemeinschaften aus den in Abb. 1 dargestellten Bausteinen.20

Abb. 1: Bausteine des Wissensmanagements Der erste Baustein im Wissensmanagementprozess ist die Wissensidentifikation, die zunächst innerhalb einer Organisation durchgeführt werden muss und nur bedingt kollaborativ in einer virtuellen Gemeinschaft erfolgen kann. Diese kann aber durch „den Vergleich mit Inhalten, Aussagen und Lösungsansätzen von Mitgliedern anderer Organisationen eigene Wissensdefizite und -vorsprünge aufzeigen, die bei einer rein intraorganisationalen Sichtweise nicht deutlich würden.“21 Der Wissenserwerb kann durch virtuelle Gemeinschaften wesentlich unterstützt werden, indem Mitglieder Daten, Dokumente, Software etc. der Gemeinschaft zur Verfügung stellen. Hinzu kommt die Möglichkeit, mittels Diskussionsforen, Chats oder Ankündigungen zu reagieren und so einzelne Inhalte zu kommentieren oder zu ergänzen. Aufgrund der interorganisationalen Struktur der Mitglieder einer virtuellen Gemeinschaft entsteht so eine integrierte, interdisziplinäre, organisationsübergreifende Wissensbasis, d.h.

20 Vgl. Probst, Gilbert et al.: Wissen managen. Wie Unternehmen ihre wertvollste Ressource optimal nutzen. 2. Aufl., Wiesbaden 1998, S. 271; Beinhauer et al. 1999, S. 403-431. 21 Vgl. Beinhauer et al. 1999, S. 416

KOLLEKTIVES WISSENSMANAGEMENT

127

Wissenerwerbsmöglichkeiten, die ein intraorganisationaler Wissenserwerb kaum bieten könnte.22 Bei der Wissensentwicklung geht es um die Nutzbarmachung von existierendem Wissen für spezifische Problemstellungen. Eine virtuelle Gemeinschaft bietet ihren Mitgliedern zum einen die technischen Voraussetzungen für kreative, kommunikative Prozesse, zum anderen finden Mitglieder durch die Fokussierung von Interessen gemeinschaftsinterne Kompetenzzentren, in denen sie sich mit ihren Gedanken und Problemen austauschen und so bestehendes Wissen weiterentwickeln können. Mithilfe von Werkzeugen wie etwa Foren und Chaträumen entstehen ‚gelernte Lektionen‘, die die während der Teamarbeit gewonnenen Erfahrungen dokumentieren und so von anderen Mitgliedern genutzt werden können.23 Die Wissensverteilung betrifft den Prozess der Verbreitung bereits vorhandenen Wissens innerhalb einer virtuellen Gemeinschaft. Aufgrund der Authentifikation beim Eintritt in eine virtuelle Gemeinschaft und den dadurch entstehenden Benutzerprofilen lassen sich Benutzergruppen beispielsweise nach Interessenschwerpunkten zusammenstellen und so Informationen selektiv zuteilen. Durch die mögliche Identifikation der Mitglieder können Informations-Subskriptionen erstellt werden, die ein Mitglied beim Eintreffen neuer Nachrichten oder Inhalte zu einem bestimmten Thema informieren.24 Der Prozess der Wissensnutzung kann mit Hilfe von virtuellen Gemeinschaften nur bedingt unterstützt werden. Wie das in der virtuellen Gemeinschaft erzeugte kollektive Wissen in der eigenen Organisation genutzt wird, muss individuell vom einzelnen Mitglied oder der partizipierenden Organisation geklärt werden. Die Unterstützung, die die virtuelle Gemeinschaft hier geben kann, ist die benutzerfreundliche Aufbereitung der Wissensbestände, um die Nutzungswahrscheinlichkeit zu erhöhen. Die Anforderungen in diesem Zusammenhang sind Einfachheit („easy to use“), Zeitgerechtheit („just in time“) und Anschlußfähigkeit („ready to connect“).25 Die Wissensbewahrung dient der institutionellen Absicherung des Wissens und beruht auf den Prozessen der Selektion des bewahrungswürdigen Wissens, seiner effizienten und effektiven Speicherung sowie seiner regelmäßigen Aktualisierung.26 Aufgrund der Zugriffszahlen auf einzelne 22 23 24 25 26

Vgl. Beinhauer et al. 1999, S. 416. Vgl. Beinhauer et al. 1999, S. 417. Vgl. Beinhauer et al. 1999, S. 417. Vgl. Beinhauer et al. 1999, S. 417-418. Vgl. Bullinger, Hans-Jörg et al.: „Wissensmanagement – Modelle und Strategien für die Praxis“, in: H.D. Bürgel: Wissensmanagement – Schritte zum intelligenten Unternehmen. Berlin 1998.

128

STEFAN PAAL, JASMINKO NOVAK, BERND FREISLEBEN

Seiten können Dokumente oder Beiträge genaue statistische Werte erhalten, um nicht mehr benötigtes Wissen zu entfernen und stark frequentierte Bereiche durch Zusatzmaßnahmen weiter zu forcieren.27

3.

Kollektiver Wissenserwerb innerhalb heterogener Informationspools

In diesem Abschnitt wird ein Ansatz vorgestellt, der es ermöglicht, Wissen in heterogenen Inhalten kollektiv und explizit zu erwerben und eventuell weiter zu entwickeln. Die diesbezüglichen Softwarewerkzeuge wurden als Bausteine der Internet-Plattform netzspannung.org und innerhalb des vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Projektes CAT realisiert, an dem die Autoren seit 1999 beteiligt waren bzw. sind. Ausgangspunkt bei dem im Folgenden beschriebenen Ansatz ist, dass unterschiedliche Nutzergruppen, die auf Informationspools einer virtuellen Gemeinschaft zugreifen, sehr unterschiedliche Bedürfnisse und Verständnisse über die Bedeutung der Informationen und deren Relevanz für ihre Arbeit haben. Dies ist besonders in Gemeinschaften von Experten ausgeprägt, die aus unterschiedlichen, aber potenziell für einander relevanten Themenbereichen stammen. Die Hauptanforderung an entsprechende informationstechnologische Wissensportale und -plattformen, die unterschiedliche Experten-Gemeinschaften verbinden wollen, ist es, eine Anzahl von unterschiedlichen inhaltlichen Sichtweisen auf einen ständig wachsenden und heterogenen Informationspool zu bilden und miteinander zu vernetzen. Sie müssen den kollaborativen Aufbau eines semantisch explorierbaren Wissenspools unterstützen, mit Zugangswegen, die es ermöglichen, Kontexte und Beziehungen zwischen unterschiedlichen Themen- und Wissensbereichen zu entdecken. Das Konzept der Wissenskarten (siehe Abb. 2) in CAT ermöglicht es, heterogene Inhalte auf Basis ihrer semantischen Bezüge zu strukturieren und zu visualisieren. Hierzu werden zwei Möglichkeiten des Wissenserwerbs angeboten: Das „Semantic Map Interface“ fasst Inhalte in Clustern zusammen und ermöglicht die Erstellung unterschiedlicher semantischer Karten, die für die explorative Navigation fachübergreifender Zusammenhänge genutzt werden können. Im Unterschied dazu platziert das „Timeline-Interface“ die Inhalte parallel in verschiedenen Kategorien auf einem Zeitstrahl, so dass zeitliche Zusammenhänge zwischen ver27 Vgl. Beinhauer 1999, S. 417-418.

KOLLEKTIVES WISSENSMANAGEMENT

129

schiedenen Inhaltsfeldern entdeckt werden können. Die Kombination dieser zwei Visualisierungsmodelle ermöglicht es, sowohl inhaltliche als auch zeitliche Beziehungen in einem komplexen Informationspool zu entdecken.

Abb. 2: Das Wissenskartensystem von netzspannung.org

3.1 Automatische Erstellung von Wissenskarten Das realisierte System kombiniert zur Erstellung von Wissenskarten Methoden zur Textanalyse mit einem selbst-organisierenden künstlichen neuronalen Netzwerk, um Cluster semantisch verwandter Inhalte eines heterogenen Informationspools autonom zu bilden. Im Unterschied zu anderen Clustering-Lösungen28 werden die Clustering-Ergebnisse in dem Semantic Map Interface so visualisiert, dass es möglich ist, gleichzeitig 28 Lin, Xia et al.: „A Self-Organizing Semantic Map for Information Retrieval“, in: Proc. of the 14th Intl. ACM/SIGIR Conference on Research and Development in Information Retrieval. Chicago 1991, S. 262-269; Kohonen, Teuvo et al.: „Self Organization of a Massive Document Collection“, in: IEEE Transactions on Neural Networks, Jg. 11 (2000), Nr. 3, S. 20032012; Sack, Warren: „Conversation Map: An Interface for Very LargeScale Conversations“, in: Journal of Management Information Systems, Jg. 17 (2001), Nr. 3, S. 73-92; Becks, Andreas et al.: „Modular Approach for Exploring the Semantic Structure of Technical Document Collections“, in: Proc. of the 5th Intl. ACM Conference on Advanced Visual Interfaces (AVI'2000). Palermo 2000, S. 298-301.

130

STEFAN PAAL, JASMINKO NOVAK, BERND FREISLEBEN

einen schnellen Überblick über die wichtigsten Themen zu bekommen, die möglichen Beziehungen zwischen einzelnen relevanten Dokumenten zu entdecken und die Clustering-Parameter interaktiv zu beeinflussen. Als Vorverarbeitung für das Clustering werden Methoden statistischer Textanalyse eingesetzt, um den Inhalt der Textinformationen (z.B. Projektbeschreibungen) in eine numerische Form zu kodieren. Dazu werden Methoden wie die Wortfrequenzanalyse und Inverse-DokumentWortfrequenzanalyse verwendet und mit der Wortstammanalyse und einer Stop-Wort-Liste für das Filtern nicht relevanter Wörter kombiniert. Als Resultat dieser Analyse wird jedem Text ein mehr-dimensionaler Vektor zugewiesen, der die Häufigkeit eines Wortes im Text im Vergleich zum gesamten Text-Pool beschreibt. Die resultierenden mehrdimensionalen Vektoren werden als Reizmuster an das selbst-organisierte neuronale Netzwerk von Kohonen29 weitergeleitet, das sie als Ergebnis auf einem zwei-dimensionalen Neuronen-Gitter verteilt. Auf dieser zweidimensionalen Karte sind verwandte Reize in benachbarten Gebieten des Gitters repräsentiert. Am Ende der Lernphase werden die Neuronen in Cluster gruppiert. Für das Clustering vergleicht man die Neuronenvektoren mit den Einheitsvektoren, von denen jeder für eine semantische Kategorie (ein Wort aus dem Wortsatz) steht. Der ähnlichste Einheitsvektor bestimmt dann die Markierung des Neurons. Aufgrund der Homogenität ergeben sich zusammenhängende Gebiete von Neuronen mit identischen Markierungen. Da die Reizmuster die semantischen Profile einzelner Texte (Dokumente) repräsentieren, ist das Ergebnis eine semantische Gruppierung der Dokumente in Cluster verwandter Inhalte, wobei die Cluster-Markierungen eine inhaltliche Kennzeichnung des Clusters darstellen. Die Ergebnisse dieses Verfahrens sind zum einem durch die Auswahl der Wortsätze für die Parametrisierung der Texte und zum anderen durch die Parameter der Kohonen Map (z.B. die Größe des Neuronengitters, die Lernrate, die Metrik der Abstandmaße usw.) bestimmt.

3.2 Interaktive Anpassung von Wissenskarten Ein weiterer wichtiger Entwicklungsaspekt war die Frage, wie die Kriterien des Clusterings für den Nutzer verständlich und von ihm direkt parametrisiert werden können. Dazu wurde das so genannte Map Trainer 29 Kohonen, Teuvo et al.: „Self Organization of a Massive Document Collection“, in: IEEE Transactions on Neural Networks, Jg. 11 (2000), Nr. 3, S. 2003-2012.

KOLLEKTIVES WISSENSMANAGEMENT

131

Interface (siehe Abb. 3) entwickelt, das es den Anwendern unterschiedlicher Experten-Gemeinschaften ermöglicht, die Kriterien des Clusterings interaktiv zu beeinflussen, um unterschiedliche Varianten von Wissenskarten zu erstellen. So können zum Beispiel nur bestimmte Wortsätze für die semantische Parametrisierung der Dokumente ausgewählt werden, oder auch nur bestimmte signifikante Begriffe als vorgegebene Cluster-Markierungen, die die gewünschte thematische Ausrichtung der Cluster und damit die Kriterien für die Gruppierung der Dokumente bestimmen. Somit kann das System sowohl im Vorfeld, als auch nachdem erste ClusteringErgebnisse visualisiert worden sind, interaktiv beeinflusst werden. Die Mitglieder einer virtuellen Gemeinschaft können damit Karten mit unterschiedlichen inhaltlichen Ausrichtungen erzeugen, um verschiedene Sichtweisen auf den Informationspool bereitzustellen. Über das online aufrufbare Semantic Map Interface können dann andere Nutzer den Informationspool von netzspannung.org mittels dieser bereitgestellten Wissenskarten in unterschiedlichen Kontexten erkunden.

Abb. 3: Das interaktive Map-Trainer-Interface für die Personalisierung von Wissenskarten

132

4.

STEFAN PAAL, JASMINKO NOVAK, BERND FREISLEBEN

Kollektive Erschließung und Austausch von Wissen in heterogenen Expertengemeinschaften

Der Ausgangspunkt des vom BMBF in den Jahren 2002 bis 2004 geförderten und unter Beteilung der Autoren durchgeführten Projekts AWAKE ist die These, dass implizite Wissensstrukturen (Tacit Knowledge), die von einer Nutzergruppe geteilt werden, maßgeblich für die Kommunikation und die gemeinschaftliche Nutzung von Wissen sind. Dieser Ansatz kann auf die Sichtweise von Polanyi bzw. von Nonaka & Takeuchi bezogen werden, welche argumentieren, dass Wissen vor allem aus persönlichen, schwer artikulierbaren und teilweise unbewussten Komponenten besteht.30 Demnach liegt der Schlüssel zur Kommunikation und Nutzung des bereits vorhandenen Wissens sowie zum Aufbau von neuem Wissen in der Externalisierung von implizitem Wissen in erkennbare und von anderen nutzbare Strukturen. Als entscheidendes Element für die Entwicklung eines Modells zum Aufbau einer Wissensgemeinschaft, die Experten aus unterschiedlichen Fachgebieten verbindet, ergibt sich daraus die folgende Fragestellung: Wie können bereits bestehende, aber nicht explizit formulierte Wissensstrukturen einer bestimmten Expertengemeinschaft entdeckt, visualisiert und für die kooperative Entdeckung und Konstruktion von Wissen in heterogenen und verteilten Informationspools nutzbar gemacht werden?

4.1 Ein Ansatz zur Erschließung und Visualisierung impliziten Wissens Der Kontext der Informationssuche und die Exploration eines Informationsraumes wurden innerhalb von AWAKE als ein konkreter Untersuchungsrahmen angenommen. Dieser kann als ein Prozess verstanden werden, in dem die Nutzer durch ihre Interaktion mit Informationen ihr vorhandenes Wissen widerspiegeln und neue Wissensstrukturen anlegen. Im entwickelten Lösungsmodell wird den Nutzern als Ausgangspunkt für ihren Umgang mit Informationen eine semantische Strukturierung des Informationsraumes angeboten, die autonom durch das System erstellt wird (z.B. durch die Verwendung der bereits beschriebenen Dokument30 Polanyi, Michael: The Tacit Dimension. New York 1966; Nonaka, Ikujiro et al.: The Knowledge-Creating Company. London 1995.

KOLLEKTIVES WISSENSMANAGEMENT

133

Clustering-Methoden). Diese stellt die systemgenerierte Wissenskarte von AWAKE dar. Die Nutzer können diese vorgeschlagene Struktur nutzen, um im Informationspool zu navigieren und einen Überblick über vorhandene Themen, Inhalte und deren Beziehungen zu gewinnen. Im Rahmen dieser Interaktionen entdecken die Nutzer bestimmte Informationen, die ihr Interesse erwecken, setzen diese in den Kontext ihres Informationsbedürfnisses und stellen damit bestimmte inhaltliche Verbindungen zwischen unterschiedlichen Informationen her. Sie entwickeln somit eine persönliche Interpretation der Bedeutung der Informationen und ihrer Zusammenhänge. Diese persönliche Perspektive können die Nutzer durch das Umordnen der systemgenerierten Struktur in Form einer persönlichen Karte ausdrücken (z.B. durch das Auswählen relevanter Informationsobjekte, durch das Bewegen von Objekten zwischen Objektgruppen, die Erstellung neuer Gruppen, das Hinzufügen von Beziehungen etc.). Da die Nutzeraktionen in Bezug auf eine bestehende semantische Struktur gesetzt sind, ist ihre Bedeutung kontextualisiert und kann vom System als solche aufgenommen werden. Dementsprechend können Nutzeraktionen als Ausgangspunkt für den Aufbau einer neuen Wissensstruktur herangezogen werden, welche die persönliche Perspektive der Nutzer widerspiegelt. Die nutzerdefinierte Struktur kann damit vom System erlernt und formalisiert werden (z.B. durch Anwendung überwachter Lernmethoden), so dass sie als nutzerspezifische Vorgabe für die semantische Strukturierung von beliebigen Informationsräumen angewandt werden kann. Auf diese Weise wird das implizite Wissen der Nutzer, das sich durch ihre Aktionen in der ursprünglichen semantischen Struktur spiegelt, erfasst und formalisiert. In dieser Form kann es dann visualisiert und auf neue Situationen angewandt werden. Die sich in AWAKE ergebende kollaborative Wissenskette zur Entdeckung impliziten Wissens ist in Abb. 4 dargestellt.

134

STEFAN PAAL, JASMINKO NOVAK, BERND FREISLEBEN

Abb. 4: Die kollaborative Wissensentdeckungskette in AWAKE

4.2

Realisierung und Nutzung des AWAKE-Systems

Zur Realisierung des konkreten Systems wurden – basierend auf dem beschriebenen Modell – Verfahren für maschinelles Clustering31, personalisierte Klassifikation und überwachtes Lernen32 integriert und mit dynamischer Generierung von Metadaten und kollaborativer Erstellung von Ontologien33 kombiniert. Diese Funktionen wurden mit Visualisierungs31 Lin et al. 1991; Kohonen et al. 2000; Sack 2000: Becks et al. 2000. 32 Resnick, Paul et al.: „GroupLens: An Open Architecture for Collaborative Filtering of Netnews“, in: Proc. of the Intl. ACM Conference on CSCW. Chapel Hill, North Carolina 1994, S. 175-186; Herlocker, Jonathan: „Explaining Collaborative Filtering Recommendations“, in: Proc. of the Intl. Conference on CSCW 2000. Philadelphia 2000, S. 241-250; Chalmers, Matthew: „Paths and Contextually Specific Recommendation“, in: DELOS Workshop: Personalisation and Recommender Systems in Digital Libraries. Dublin 2001; Joachims, Thorsten et al.: „Web Watcher: A Tour Guide for the World Wide Web“, in: Proc. of the Intl. Conference on Artificial Intelligence (IJCAI). Pittsburgh 1997, S. 770-777. 33 Heyer, Gerhard et al.: „Learning Relations Using Collocations“, in: Proc. of the IJCAI Workshop on Ontology Learning. Seattle 2001; Maedche, Alexander/Neumann, Günter/Staab, Steffen: „A Generic Architecture for Text Knowledge Acquisition“, in: Technical Report. University of Karlsruhe

KOLLEKTIVES WISSENSMANAGEMENT

135

modellen für große Datenmengen34 und intuitiven Nutzer-Interfaces in ein integriertes Werkzeug für das ‚Knowledge Mining‘ zusammengeführt (Abb. 5). Durch die Benutzung des AWAKE-Systems wird es für die heterogene Nutzergruppe von netzspannung.org möglich, einen Informationspool nicht nur kollektiv aufzubauen, sondern ihn auch interaktiv und kollaborativ zu strukturieren, mittels personalisierten Wissenskarten zu visualisieren und zu explorieren sowie eine gemeinsame Navigationsstruktur zu konstruieren, welche die unterschiedlichen persönliche Blickpunkte auf die Bedeutung der Informationen verbindet. Ein Szenario ist die Anwendung zur Exploration möglicher Beziehungen zwischen den Arbeiten zu verschiedenen Themen und in unterschiedlichen Berufsbereichen (z.B. zum Auffinden von Projekten aus unterschiedlichen Disziplinen, die für die eigene Arbeit relevant sind). Ein weiteres Szenario ist der Vergleich von Projekten mit der eigenen Perspektive und der Sichtweise von anderen Experten (z.B. zum Entdecken von Bezügen und verborgenen Annahmen). Schließlich wird die breite Öffentlichkeit das Wissen der Expertengemeinschaft nutzen können, indem Wissenskarten einzelner Experten angewandt und die gemeinschaftliche Begriffsstruktur als Mittel zur Navigation und Wissensentdeckung im Informationsraum von netzspannung.org genutzt wird. Der aktuelle Softwareprototyp des AWAKE-Projektes wurde bereits intern eingesetzt und wird derzeit evaluiert. Die öffentlich verfügbaren Ergebnisse können zurzeit in Form von „Guided Tours“ und teilweise in Form von im WWW verfügbaren interaktiven Demonstrationen erprobt werden.35 (2000). URL: http://www.dfki.de/%7Eneumann/publications/new-ps/kaw. ps.gz, 15.8.2004; Mikheev, Aandrei/Finch, Steven: „A Workbench for Finding Structure in Texts“, in: Proc. of the 5th Intl. Conference on Application Natural Language Processing. Washington 1997, S. 372-379; Ziegler, Jürgen et al.: „Visualizing and Exploring Large Networked Information Spaces with Matrix Browser“, in: Proc.of the Intl. Conf. on Information Visualisation (IV'02). London. 2002, S. 361-366. 34 Robertson, George: „The Document Lens“, in: Proc. of the ACM Symposium on User Interface Software and Technology (UIST). Atlanta 1993, S. 101-108; Sarkar, Manojit et al.: „Stretching the Rubber Sheet: A Metaphor for Viewing Large Layouts on Small Screens“, in: Prof. of the ACM Symposium on User Interface Software and Technology (UIST). Atlanta 1993, S. 81-91; Bederson, Benjamin et al.: „Pad++: A Zoomable Graphical Sketchpad for Exploring Alternate Interface Physics“, in: Proc. of the 7th Intl. ACM Symposium on User Interface Software and Technology (UIST'94). Marina del Rey, Calif. 1994, S. 17-26. 35 Guided Tour und interaktive Demos des AWAKE Systems: http://awake.imk.fraunhofer.de

136

STEFAN PAAL, JASMINKO NOVAK, BERND FREISLEBEN

Abb. 5: Das Knowledge Explorer Interface des AWAKE Systems

5.

Nomadisches Wissensmanagement

In diesem Abschnitt wird eine Internet-basierte verteilte Softwareinfrastruktur vorgestellt, die die Grundlage zur Nutzung aller Wissensmanagementwerkzeuge in virtuellen Gemeinschaften bildet. Sie wurde bzw. wird innerhalb der bereits genannten und vom BMBF geförderten Projekte CAT und AWAKE entwickelt. Der Fokus der folgenden Ausführungen36 liegt auf dem Trend zur wechselnden Nutzung von stationären und

36 Weitere Aspekte der entwickelten verteilten Softwareinfrastruktur sind in den folgenden Arbeiten von Stefan Paal/Reiner Kammüller/Bernd Freisleben dargestellt: „Customizable Deployment, Composition and Hosting of Distributed Java Applications“, in: Proc. of the 4th Intl. Symposium on Distributed Objects and Applications (DOA 2002). Irvine 2002, S. 845-865; „Separating the Concerns of Distributed Deployment and Dynamic Composition in Internet Application Systems“, in: Proc. of the 5th Intl. Symposium on Distributed Objects and Applications (DOA 2003). Catania 2003, S. 1292-1311; „A Cross-Platform Application Environment for Nomadic Desktop Computing“, in: Proc. of the 5th Intl. Conference for Objects, Components, Architectures, Services and Applications for a Networked World (NODE 2004). Erfurt 2004 (im Druck); „Supporting Nomadic Desktop Computing Using an Internet Application Workbench“, in: Proc. of the

KOLLEKTIVES WISSENSMANAGEMENT

137

mobilen Computern und dem sich daraus ergebenden Wunsch nach einem allgegenwärtigen, personalisierten Zugriff auf Softwaredienste, Datenbanken und Anwendungen („Nomadic Computing“37).

5.1 Nomadic Computing Jeweils einzeln betrachtet haben Internet Computing, Mobile Computing und Ubiquitous Computing sowohl die Nutzung als auch die Wahrnehmung von Computern, Computernetzen und die damit ausgetauschten Informationen bereits hinreichend verändert. Umso mehr ermöglichen aber auch die verschiedenen Entwicklungen zusammen eine grundsätzliche Umgestaltung unserer Alltagswelt. Viele Computernutzer verwenden bereits abwechselnd verschiedenartige Computer wie Notebooks oder PDAs und setzen für den Zugang zum Internet unterschiedliche Netzwerkprotokolle und -schnittstellen von Hochgeschwindigkeitsmodems bis zu Satellitenreceivern ein. Diese Kombination von portablen Computern einerseits und die Möglichkeit zur portablen Kommunikation andererseits haben die Informationsnutzung sowie auch das Wissensmanagement in der Netzwerkgesellschaft grundsätzlich verändert. Die meisten Nutzer sind es mittlerweile gewohnt, Informationen und Wissen von überall und jederzeit abzurufen und dabei die persönliche Arbeitsumgebung und die individuellen Zugriffsmöglichkeiten auf verschiedenen Geräten zur Verfügung zu haben („personal mobility“). Eine wesentliche Erkenntnis ist hierbei, dass Anwender damit zu „technischen Nomaden“ („nomadic users“) werden, die mobile Geräte ständig bei sich tragen und sich spontan mit der lokalen Umgebung vernetzen können („terminal mobility“)38 (siehe Abb. 6).

6th Intl. Symposium on Distributed Objects and Applications (DOA 2004). Larnaca 2004 (im Druck). 37 Vgl. Kleinrock, Leonard: „Nomadic Computing – An Opportunity“, in: ACM SIGCOMM Computer Communication Review, Jg. 25 (1995), Nr. 1, S. 36-40. 38 Vgl. Zhu, Jinsong: „Supporting Universal Personal Computing on Internet with Java and CORBA“, in: Proc. of Intl. ACM Workshop on Java for High-Performance Network Computing. Palo Alto 1998, S. 1007-1013.

138

STEFAN PAAL, JASMINKO NOVAK, BERND FREISLEBEN

Abb. 6: Nomadic Computing Bezeichnend für Nomadic Computing ist der abwechselnde Einsatz und die angepasste Integration sowie Vernetzung verschiedenartiger Geräte mit unterschiedlichen Merkmalen und Verbindungsmöglichkeiten. So sind mobile Geräte wie z.B. ein Mobilfunktelefon für bestimmte Verbindungsaufgaben gedacht, aber allein schon durch die Miniaturisierung nicht als universelles Eingabegerät geeignet. Anwender könnten stattdessen ihr Notebook verwenden, um die Daten einzugeben und mit dem PDA die Daten später wieder abfragen. Durch die Limitierung auf stationäre Geräte wie z.B. DesktopRechner, die in der Regel eine bessere Ausstattung besitzen, kann eine breitere Palette an Anwendungen unterstützt werden und Anwender müssen keine aufwendigen Geräte mit sich herumtragen. Gerade im Wissensmanagement benötigen die oftmals grafisch aufwendigen Visualisierungen wie z.B. im oben beschriebenen AWAKE Knowledge Explorer eine höhere Grafikauflösung und Rechenleistung. Eine besondere Form von Nomadic Computing ist das „Universal Personal Computing“ oder auch „Nomadic Desktop Computing“.39 Anstatt ein portables Gerät mit sich zu führen und sich spontan zu vernetzen, wechseln Anwender stattdessen zwischen stationären, bereits vernetzten Geräten, auf denen die notwendige Anwendungsumgebung jeweils heruntergeladen und in Ab39 Vgl. Zhu 1998, S. 1007-1013.

KOLLEKTIVES WISSENSMANAGEMENT

139

hängigkeit des Anwendungs-, Benutzer-, und Plattformprofils individuell angepasst wird (siehe Abb. 7)

Abb. 7: Nomadic Desktop Computing Das Ziel ist die Bereitstellung einer plattformübergreifenden, personalisierten Anwendungsumgebung, die sich bei jedem Rechnerwechsel synchronisiert und die konfigurierten Anwendungen und Daten auf dem neuen Rechner automatisch zur Verfügung stellt. Für die spontane Installation der Anwendungen („application mobility“) ist es notwendig, dass die Rechnerumgebung automatisch angepasst wird und die benötigten Ressourcen (z.B. Anwendungskomponenten) dynamisch bereitgestellt werden. Die Bereitstellung einer personalisierten Anwendungsumgebung erlaubt es schließlich, die den Anwendern vertrauten Softwarewerkzeuge für nahezu alle Bausteine des kollektiven Wissensmanagements (insbesondere zum Wissenserwerb, zur Wissensentwicklung, zur Wissensverteilung und zur Wissensnutzung) unabhängig vom Ort und dem Gerät des Zugriffs in benutzerfreundlicher Weise anzubieten.

5.2 Eine Softwareinfrastruktur zur Unterstützung nomadischer Internet-Anwendungen Im Folgenden wird eine Software-Infrastruktur für nomadische InternetAnwendungen vorgestellt, die für die Unterstützung des oben geschilderten nomadischen Wissensmanagements eingesetzt werden kann. Die hierfür entwickelte Integrationsmiddleware „Crossware“ stellt auf der Annahme von heterogenen Plattformen, so wie sie im Internet praktisch vorgefunden werden, ein homogenes, plattformübergreifendes Anwendungssystem bereit. Das Ziel ist die spontane und autonome Verteilung, Installation, Ausführung, Personalisierung sowie Vernetzung von nomadischen Anwendungen über Plattformgrenzen hinweg zu ermöglichen, ohne den manuellen Eingriff eines Benutzers zu erfordern. Der prinzi-

140

STEFAN PAAL, JASMINKO NOVAK, BERND FREISLEBEN

pielle Ansatz von Crossware besteht in der Trennung von plattformspezifischen und anwendungsbezogenen Konfigurationen sowie in der Integration und Kapselung existierender Funktionalitäten. In Abb. 8 ist die Softwarearchitektur des Systems dargestellt.

Abb. 8: Softwarearchitektur zur Unterstützun nomadischer Internet-Anwendungen Auf der untersten Ebene des „operating system layer“ findet sich das plattformspezifische Betriebssystem, z.B. MS Windows oder Linux. Die Ebene darüber ist das so genannte „feature layer“. Es enthält die plattformbezogenen Middleware-Installationen, die den spezifischen Zugriff auf die Systemressourcen und -dienste ermöglichen, z.B. CORBA oder Java RMI. Eine weitere Ebene darüber befindet sich im „integration layer“ die Implementierung der Integrationsmiddleware Crossware. Sie integriert die verschiedenen Middleware-Installationen aus der darunterliegenden Schicht und verdeckt die plattformspezifischen Details. In der Ebene „runtime layer“ darüber befindet sich das plattformübergreifende Anwendungssystem, das die Anwendungen in der Schicht „application layer“ verwaltet. Die Realisierung des Systems erfolgte unter Einsatz der Programmiersprache Java, die den Vorteil hat, nicht direkt plattformspezifischen Code zu erzeugen, sondern ein Zwischenformat, den so genannten Byte Code, der in einer virtuellen Laufzeitumgebung, der Java Virtual Machine (JVM) interpretiert und ausgeführt wird. Damit implementierte Anwendungen können prinzipiell auf jeder Plattform ausgeführt werden, auf der eine JVM installiert ist. Die Anwendungen selbst werden aus Komponenten und Modulen je nach aktueller Anwendungs- und Plattform-

KOLLEKTIVES WISSENSMANAGEMENT

141

konfiguration sowie des Benutzerprofils dynamisch zusammengestellt. Damit können nomadische Wissensmanagement-Tools einerseits individuell für den zu explorierenden Informationspool (z.B. Einbinden benötigter Datenadapter) sowie andererseits optimal nach den Möglichkeiten des benutzten Gerätes (z.B. Grafikanzeige) verteilt und konfiguriert werden. In Abb. 9 wird als Beispiel ein Internet-Anwendungssystem Internet Application Factory gezeigt, welches Anwendungen aus dynamisch geladenen Komponenten zusammenstellt und ausführt. Dazu werden zunächst die Anwendungsbeschreibung application description und die Plattform-Konfiguration platform configuration eingelesen und verarbeitet. Danach werden eine entsprechende Laufzeitumgebung aufgebaut und die passenden Komponenten mit der Modulbeschreibung module description lokalisiert und geladen.

Abb. 9: Internet-Anwendungssystem

Das vorgestellte System stellt damit eine Grundlage für nomadische Anwendungen dar, die spontan von einem Computer zu einem anderen Computer wandern und ohne besondere Administration ausgeführt werden können. Das entwickelte System wurde in mehreren Projekten eingesetzt und evaluiert, u.a. in den oben angeführten Projekten AWAKE und netzspannung.org.

142

STEFAN PAAL, JASMINKO NOVAK, BERND FREISLEBEN

5.3 Entwicklung einer nomadischen Benutzeroberfläche Neben der prinzipiellen Unterstützung von Anwendungmobilität erfordert die Interaktion mit nomadischen Wissensmanagementwerkzeugen auch die Bereitstellung einer grafischen Benutzerschnittstelle und die Unterstützung von Benutzermobilität. Das im Folgenden beschriebene System verfolgt das Ziel, eine nomadische Benutzeroberfläche bereitzustellen, die nicht auf einem einzelnen Rechner installiert und benutzt wird, sondern mit der Bewegung des Nutzers „mitreist“. In diesem Kontext stellt die sogenannte Internet Application Workbench selbst eine nomadische Anwendung dar und wurde basierend auf der im letzten Abschnitt beschriebenen Crossware-Architektur entwickelt.40 Im Gegensatz zur Anwendungsmobilität und einem fest installierten Anwendungsystem kann das der Internet Application Workbench zugrunde liegende Anwendungssystem nicht fest installiert werden, sondern muss durch die wechselnde Nutzung von verschiedenen Computern auch dynamisch initialisiert werden. Für diese Initialisierung wird einmalig über den Internet Browser das Werkzeug Sun Java Web Start41 eingesetzt, welches ein Kernsystem von Crossware lädt und startet (siehe Abb. 10).

Abb. 10: Dynamische Installation von Crossware

40 Paal, Stefan et al.: „Supporting Nomadic Desktop Computing Using an Internet Application Workbench“, in: Proc. of Distributed Objects and Applications (DOA 2004). Larnaca 2004 (im Druck). 41 Vgl. Marinilli, Mauro: Java Deployment with JNLP and Web Start. Indianapolis 2001.

KOLLEKTIVES WISSENSMANAGEMENT

143

Im Anschluss konfiguriert sich die Anwendungsumgebung, in dem sie eine eventuell vorhandene Plattformkonfiguration (platform configuration) einliest und die Internet Application Workbench startet. Das Anwendungsverzeichnis (application repository) enthält die Anwendungsbeschreibung mit den Werkzeugen, die dem Anwender zur Verfügung stehen. Das Modulverzeichnis verwaltet dazu eine Liste mit den Modulen, aus denen die Anwendungen dynamisch komponiert werden. Schließlich wird das Profilverzeichnis (profile repository) ausgelesen, um für jeden Anwender dieser Plattform eine personalisierte Benutzeroberfläche zur Verfügung zu stellen. Nach Beendigung der Anwendungsumgebung werden die persönlichen Profile in das profile repository zurückgespeichert, von wo sie wieder geladen und verarbeitet werden, sobald der Anwender eine neue Internet-Plattform verwendet. Die eigentliche grafische Benutzeroberfläche wurde in der Programmiersprache Java implementiert. Standardmäßig besteht sie aus einer Taskleiste, einem Message Pane, einem Workspace Pane und einem Content-Bereich, wie in Abb. 11 zu sehen ist.

Abb. 11: Nomadische Benutzeroberfläche Internet Application Workbench

144

STEFAN PAAL, JASMINKO NOVAK, BERND FREISLEBEN

Der Internet Application Workbench kommen als Benutzeroberfläche mehrere Bedeutungen zu. Zum einen stellt sie einen so genannten Application Launcher dar, um andere nomadische Anwendungen zu starten. Zum anderen präsentiert sie dem Anwender durch die Personalisierung auch immer die zuletzt von ihm konfigurierte Version. Sie vermittelt damit eine plattformübergreifende, grafische Anwendungsumgebung, in der die einzelne Plattform verschwindet und der nomadische Anwender die Illusion einer allgegenwärtigen Vernetzung und Verfügbarkeit von Internet-Anwendungen bekommt. Durch sie wird die ortsunabhängige Benutzung der für das kollektive Wissensmanagement eingesetzten Softwarewerkzeuge adäquat unterstützt.

6.

Zusammenfassung und Ausblick

In diesem Beitrag haben wir unterschiedliche Ansätze, Methoden und Softwarewerkzeuge zur Unterstützung einzelner Aufgaben des kollektiven Wissensmanagements diskutiert. Zunächst wurden die technischen Grundlagen zur Etablierung von Wissensnetzen in der heutigen Netzwerkgesellschaft rekapituliert und die Bausteine des kollektiven Wissensmanagements erläutert. Danach wurden Softwarewerkzeuge und Methoden zur kollektiven Kontextualisierung von Inhalten und Entdeckung neuer Zusammenhänge in heterogenen Dokumentenpools vorgestellt, wie sie im Projekt CAT entwickelt wurden. Im Anschluss wurde der innerhalb des Projektes AWAKE verfolgte Ansatz zur kollaborativen Entdeckung, Nutzbarmachung und zum Austausch von implizitem Wissen in heterogenen Expertengemeinschaften präsentiert. Der Beitrag endete mit der Beschreibung einer verteilten Softwareinfrastruktur zur Unterstützung von ‚nomadischem Wissensmanagement‘, die die Mobilität von Anwendungen als auch Benutzern bei den verschiedenen Aufgaben des kollektiven Wissensmanagements ermöglicht. Die vorgestellten Ansätze und Prototypen befinden sich noch in der Entwicklung und werden für die Nutzung auf der Internet-Plattform netzspannung.org weiterentwickelt. Ein Anliegen ist die Einbindung von individuellen Erweiterungen des Systems, so dass Anwender spezifische Module wie z.B. Datenadapter auf eigene Informationspools einbinden können. Des Weiteren geht das aktuelle Anwendungsmodell von zentralisierten Wissensportalen wie netzspannung.org aus, die die Wissensstrukturen zentral verwalten. Eine interessante Option, die sich durch die Unterstützung von nomadischen Anwendungen ergibt, ist die spontane

KOLLEKTIVES WISSENSMANAGEMENT

145

als auch dezentrale Vernetzung von Informationspools wie z.B. im Peerto-Peer-Ansatz. In diesem Kontext gibt es noch ein weites Forschungsfeld zur Entwicklung von verteilten, dynamischen Ontologien sowie nomadischen Anwendungen für kollektive Wissenserschließung in heterogenen Gemeinschaften und Peer-to-Peer-Netzwerken. Die dazu notwendige Infrastruktur wurde mit dem Crossware-System für nomadische InternetAnwendungen und den AWAKE-Tools für kollektive Wissenserschließung und -visualisierung bereits aufgebaut. Diese bieten eine Basis für nomadisches Wissensmanagement oder auch Nomadic Knowledge Computing.

Danksagung Die in diesem Beitrag beschriebenen Arbeiten wurden in den vom BMBF geförderten Projekten CAT am MARS Exploratory Media Lab und AWAKE – Networked Awareness for Knowledge Discovery durchgeführt. Unser besonderer Dank gilt Monika Fleischmann und Wolfgang Strauss, den Leitern des MARS Exploratory Media Lab und des Projekts netzspannung.org für ihre Unterstützung dieser Arbeit. Das AWAKEProjekt wird als ein Verbundprojekt des Fraunhofer IMK mit Fraunhofer IAO, der Universität Dortmund und der Universität Siegen unter der Leitung von Jasminko Novak durchgeführt. Folgenden Personen möchten wir für ihre Beiträge zu den beschriebenen Ansätzen danken: Martin Schneider und Kresimir Simunic für ihre Mitarbeit an der Entwicklung des Kohonen-Clustering-Moduls, Boris Müller für seine maßgebliche Mitarbeit am Interface-Design für das Semantic Map Interface, Gabriele Blome für Mitarbeit in der Durchführung von Benutzertests und Evaluierungsworkshops, Michael Wurst und Katharina Morik für die Entwicklung von Lösungen zum Lernen persönlicher Wissenskarten, Danijela Djokic und Hartmut Bohnacker für ihre Mitarbeit am Interface-Design für den Knowledge Explorer, Reni Banov für seine Software Engineering Aktivitäten, Christoph Seibert für die Arbeit am dynamischen Adapter für heterogene Archive und Datenquellen, Jens Wagner und Roger Sennert für die Realisierung der verteilten Metadaten-Verwaltung sowie Christoph Kunz und Jürgen Ziegler für ihre Arbeit an der Erzeugung und Visualisierung von komplexen ontologischen Strukturen.

BERNHARD NETT, VOLKER WULF

WISSENSPROZESSE IN DER SOFTWAREBRANCHE KLEINE

UND MITTELSTÄNDISCHE UNTERNEHMEN UNTER EMPIRISCHER PERSPEKTIVE

1.

Einleitung

Die letzten Jahrzehnte waren von einem starken Bedeutungszuwachs der Informations- und Kommunikations- (IuK) Technologie im sozialen und ökonomischen Leben insbesondere der Industrieländer geprägt. Software und Software-bezogene Dienstleistungen wurden dabei zu wesentlichen ökonomischen Faktoren. In Deutschland bildete sich in der Folge eine eigene Softwarebranche heraus, die inzwischen nicht unwesentliche Effekte auf Beschäftigung, Berufsbilder und Qualifizierungsbedarfe ausübt.1 Der auf den ersten Blick evident erscheinende Zusammenhang zwischen den entstehenden neuartigen Beschäftigungen und entsprechenden Qualifizierungsbedarfen erweist sich bei näherer Betrachtung als äußerst vertrackte, weil komplexe Angelegenheit. Dies hat unter anderem damit zu tun, dass vor dem Hintergrund globaler Konkurrenz nicht nur im Hinblick auf die Produkte, sondern auch auf die Produktion und deren Management versucht wird, die Entwicklungs- und möglichen Verwertungsperioden (time to market) zu verkürzen.2 Solch rasante Umbrüche verändern jedoch Wissen nicht nur expansiv, sondern auch im Sinne einer permanenten Revolution und Entwertung früherer Wissensbestände. Für das Lernen bedeutet dies, dass der 1 Friedewald, Michael/Rombach, H. Dieter/Stahl, Petra/Broy, Manfred/Hartkopf, Susanne/Kimpeler, Simone/Kohler, Kirstin/Wucher, Robert/Zoche, Peter: „Softwareentwicklung in Deutschland. Eine Bestandsaufnahme“, in: Informatik Spektrum, Jg. 24 (2001), Nr. 2, S. 81ff. 2 Lay, Gunter: „Time to market als strategische Größe: Verkürzung von Produktentwicklungszeiten mit Prozeßinnovationen eröffnet neue Marktchancen – Analyseergebnis aus über tausend Betrieben bringt den Beleg“, in: Wissenschaftsmanagement, Jg. 4 (1998), Nr. 3, S. 37ff.

148

BERNHARD NETT, VOLKER WULF

durch neue Erkenntnisse nur erweiterte, nicht aber restrukturierte Wissenskanon vom Normalfall zur Ausnahme in einem dynamischen Feld relationaler Wissensbezüge werden kann. Zugleich kann Partizipation am Wandel dabei Quell eigenständiger Selbstqualifizierung werden.3 Das Projekt ViSEK (Virtuelles Software Engineering Kompetenzzentrum), das den Rahmen für die hier dargestellte Forschung bildete, war in diesem problematischen Bereich berufsbegleitender Qualifizierung in der Softwarebranche angesiedelt. ViSEK diente dabei der Förderung des Software Engineering in Deutschland. Das zunächst in erster Linie auf die Bereitstellung einer Software Engineering-Wissensdatenbank abzielende Projektangebot wurde in der Folge durch begleitende Transfer- und Vernetzungsaktivitäten ergänzt.4 Im Rahmen dieses Aufsatzes sollen Ergebnisse einer empirischen Studie von Wissensprozessen in kleinen Unternehmen der Softwarebranche dargestellt werden. Zunächst wird dazu skizziert, warum instruktionistische Lösungsansätze die oben angerissenen Probleme fluider Wissensanforderungen nicht mehr problemlos zu lösen vermögen und warum deshalb soziotechnisch basierte Qualifizierungskonzepte von Bedeutung sind. Diese bedürfen empirischer Forschungen zu Wissensprozessen, wie sie mithilfe ethnographischer Verfahren umgesetzt werden können. Als solches wird die in der zu referierenden Studie zugrunde gelegte Methodik und Vorgehensweise dann näher beschrieben. Schließlich werden die Ergebnisse der Studie berichtet. Ausgehend von erhobenen Qualifizierungsnotwendigkeiten wird untersucht, wie diese von den Akteuren im Feld angegangen werden. Vor diesem Hintergrund wird dann gefragt, welche Bedeutung individuelle Strategien für nachhaltige Qualifikationen der Beschäftigten in kleinen Unternehmen und für entsprechende Möglichkeiten pro-aktiver Qualifizierungsstrategien haben.

3 Argyris, Chris/Putnam, Robert/Smith, Diana McLaine: Action Science. San Francisco/London 1985, S. 88ff. 4 Hofmann, Britta/Wulf, Volker: „Building Communities among Software Engineers: The ViSEK Approach to Intra- and Inter-Organizational Learning“, in: Scott Henninger/Frank Maurer (Hrsg.): Proceedings of the International Workshop on Learning Software Organizations (LSO 2002). Heidelberg 2002, S. 32.

WISSENSPROZESSE IN DER SOFTWAREBRANCHE

2.

Der Forschungskontext der Studie

2.1

Blindstellen instruktionistischer Wissensvermittlung

149

Wie einleitend kursorisch angemerkt, ist die Untersuchung der fluiden, dynamischen Qualifizierungsanforderungen in der Softwarebranche ein schwieriges Sujet, das viele traditionelle Ansätze in Frage stellt. Um zu verstehen, welche Herangehensweise in der hier skizzierten Studie gewählt wurde, soll kurz ihr konzeptioneller Bezugsrahmen dargestellt werden. Dieser ergibt sich aus Problemerfahrungen mit technizistisch verkürzten Lernkonzepten, wie sie kurz anhand der zunächst sehr unterschiedlich erscheinenden Theorien von F.W. Taylor und B.F. Skinner angerissen werden sollen. Das Beispiel Skinners zeigt, dass Lernen als ein mechanischer Prozess gedacht werden kann, der als Resultat geeigneten kanonischen Inputs gewissermaßen automatisiert vorgestellt wird und durch ergänzende Konditionierung weitgehend kontextunabhängig organisiert werden soll. Letzteres war von F.W. Taylor ähnlich konzipiert worden, obwohl dieser ja selten als Lerntheoretiker rezipiert wird: Er hatte Lernen (von Arbeitern) durch Modularisierung von Gesamtprozessen im Hinblick auf einen minimalen, arbeitsbegleitend organisierbaren Lernaufwand konzipiert.5 Skinner hatte sich bei seinen Effektivitäts-Überlegungen, die im Gegensatz zu Taylor nicht auf ‚Handarbeiter‘ fokussierten, auf messbaren Kognitionserfolg konzentriert statt auf Zeitminimierung. Trotz dieses Unterschieds gibt es zwischen beiden Autoren wesentliche Übereinstimmungen. Diese liegen darin, dass sie Lernen als Kognition mit ergänzendem Konditioniert-Werden, auf jeden Fall aber passiv fassten, um dann auf der Basis von Effektivitätsüberlegungen allgemeine Konzepte geeigneter technologischer Kontexte designen zu können. Von daher stellt sich bei allen Unterschieden zwischen Taylor und Skinner im Einzelnen ihr Technikkonzept als Kern der Ähnlichkeiten heraus. Beide suchten Designgrundlagen für lernrelevante Systeme durch Abstraktion von konkreten Gestaltungsaufgaben zu erreichen: Taylor durch seine allgemein konzipierte, technisch zu operationalisierende Methode zur Minimierung von Einarbeitungszeiten, Skinner durch sein Paradigma inputgesteuerter Outputgenerierung. In beiden Fällen war jeweils eine Designrationale unterstellt: bei Taylor die Optimalität einer durch minimierte Einarbeitungszeiten charakterisierten Betriebsorganisa5 Merkle, Judith A.: Management and Ideology: The Legacy of the International Scientific Management Movement. Berkeley 1980.

150

BERNHARD NETT, VOLKER WULF

tion, bei Skinner Lernen als repetitiven Prozess zu organisieren. In beiden Fällen werden die gewählten Designrationalen als natürlich gegeben betrachtet, erweisen sich jedoch gerade in einer Zeit fluider Wissensbestände und der Erfordernis flexibler, kompetenter Mitarbeiter als problematisch. Deshalb soll hier als Alternative die Konzeption soziotechnischer Analysen präsentiert werden, in deren Kontext die vorliegende Studie entstand.

2.2 Qualifizierung aus soziotechnischer Sicht Die Kritik am Taylorismus ist stark mit dem Konzept der soziotechnischen Analyse verbunden. Eine wesentliche Anregung dafür kam vom englischen Tavistock-Institut, wo eine fundierte Industriestudie6 über Änderungen im Management der englischen Kohlegewinnung überzeugend herausgearbeitet hatte, dass verstärkte Maschinisierung der Produktion nicht die erhoffte Produktivitätssteigerung, sondern im Gegenteil einen Rückgang der Produktivität hervorgebracht hatte, und dies nicht aufgrund mangelhafter Technologie, sondern aufgrund deren organisatorischer Konsequenzen und der aufgezwungenen, intransparenten Implementierung. Emery und Trist sahen Technik vermittelt in ihren Nutzungskontexten, von denen sie nicht zu trennen sei. Diese – bei Emery und Trist mit einem Plädoyer für Selbstorganisation verbundene – Argumentation fand in Skandinavien interessierte Aufnahme. Einar Thorsrud lud Every und Trist 1962 nach Oslo ein, als er an der Konzipierung des Programms zur ‚Norwegischen industriellen Demokratie‘ arbeitete, einer Kooperation zwischen Gewerkschaften und Arbeitgeberorganisationen, das in der Folge durch Nygaard, Bergo und andere in konkrete Projekte umgesetzt wurde.7 Im skandinavischen Zweig des soziotechnischen Diskurses wurde dabei immer wieder darauf hingewiesen, dass die im Feld vorfindlichen Interessenkonflikte und Arbeitsformen in Technikgestaltungsprozessen explizit adressiert werden

6 Emery, Fred E./Trist, Eric L.: „Socio-technical Systems“, in: C. West Churchman/M. Verhurst (Hrsg.): Management Science: Models and Techniques. 2. Aufl., London 1960, S. 83-97. 7 Vgl. Floyd, Christiane/Mehl, Wolf-Michael/Reisin, Fanny-Michaela/ Schmidt, Gerhard/Wolf, Gregor: „Out of Scandinavia: Alternative Software Design and Development in Scandinavia“, in: Journal for HumanComputer-Interaction, Jg. 4 (1989), Nr. 4, S. 276ff.

WISSENSPROZESSE IN DER SOFTWAREBRANCHE

151

müssten.8 Vor dem Hintergrund der Debatte über Wirtschaftsdemokratie hinterfragte der Collective Ressources Approach die Rolle des Designers und seiner gesellschaftlichen Verantwortung.9 Es entwickelte sich eine Debatte über Partizipatives Design. In vielen Ingenieursdisziplinenen etablierte sich seit Beginn der 80er Jahre Forschung zur Gestaltung von ‚Mensch-Maschine-Schnittstellen‘ heraus. Im Rahmen der entsprechenden Diskussionen in der Informatik wurde deutlich, dass die Benutzbarkeit von Computern eine Berücksichtung der Nutzer schon im Designprozess erforderte. Es bildete sich eine entsprechende wissenschaftliche Community mit jährlichen Konferenzen im nationalen (Tagungen zur Software-Ergonomie; später: Mensch & Computer) und internationalen (ACM Conferences on Computer Human Interaction) Rahmen heraus. Die Soziotechnik, die dort früh vertreten war, wollte sich jedoch nicht auf eine Ergonomie der Mensch-Maschine-Interaktion reduzieren lassen, sondern sah nicht erst die Steuerung von Maschinen, sondern jede Maschinisierung selbst mit Veränderungen in der Teilung der Arbeit, aber auch mit Erweiterung bzw. Entwertung von Qualifikationen und mit einer Veränderung von Kontrolle bzw. Empowerment verbunden.10 Bei der Entwicklung von Unterstützungstechnologien für kooperative Prozesse sind entsprechende Auswirkungen auf kooperative Arbeitskontexte unmittelbar sinnfällig und nur schwer zu übersehen. Von daher war es nahe liegend, dass sich in der Folge eine eigenständige Community unter dem Namen Computer-Supported Cooperative Work (CSCW) herausbildete, in der unter Bezug auf verschiedene theoretische Konzepte über die Gestaltungsprobleme von kooperativen Systemen diskutiert wurde (European and ACM Conferences on Computer-Supported Cooperative Work). Im Laufe der Zeit erfolgten weitere Spezialisierungen (z.B.: CSCL als Forschungsfeld zur Untersuchung 8 Bjerknes, Gro/Bratteteig, Tone: „User Participation and Democracy. A Discussion of Scandinavian Research on System Development“, in: Scandinavian Journal of Information Systems, Jg. 7 (1995), Nr. 1, S. 73-98. 9 Ehn, Pelle/Kyng, Morton: „The Collective Resource Approach to Systems Design“, in: Gro Bjerknes/Pelle Ehn/Morton Kyng (Hrsg.): Computers and Democracy: A Scandinavian Challenge. Brookfield 1987, S. 17-58. 10 Vgl. Wulf, V./Rohde, M.: „Towards an Integrated Organization and Technology Development“, in: Proceedings of the Symposium on Designing Interactive Systems, 23.-25.8.1995, Ann Arbor (Michigan). New York 1995, S. 55-64; Isenhardt, Ingrid/Hees, Franz/Henning, Klaus (Hrsg.): Partizipation & Empowerment – Schlussbericht zur vordringlichen Maßnahmen des Bundesministeriums für Bildung und Forschung. Aachener Reihe Mensch und Technik (ARMT), Bd. 43, Aachen 2003.

152

BERNHARD NETT, VOLKER WULF

computerunterstützten kooperativen Lernens11 oder Communities & Technologies als Forschungsfeld zur Untersuchung der (computer-) technischen Unterstützungsmöglichkeiten der Bildung von Communities12). Die Debatte über Participatory Design motivierte die Etablierung gleichnamiger internationaler Communites. Weitere kamen hinzu, und das nicht nur aus der angewandten Informatik. So entwickelte sich – begleitet von einer ‚Wiederentdeckung‘ des ‚Faktors Mensch‘ im Rahmen einer ‚Humankapital‘-orientierten ‚Lean Management‘-Rezeption13 – vor allem im Kontext von Anthropologie und Ethnologie in den angelsächsischen Ländern eine ‚workplace anthropology‘14. Die damit verbundene empirische Orientierung soziotechnischer Analysen wurde dabei auch von der Industrie verstärkt aufgegriffen. Von zentraler Bedeutung waren dabei die Arbeiten im Umfeld von Xerox PARC, z.B. Lucy Suchmans frühe Arbeit zum situierten Charakter menschlicher Arbeit.15 Xerox hatte in Palo Alto ein Forschungszentrum aufgebaut (PARC = Palo Alto Research Center), an dem neben Suchman eine Reihe weiterer namhafter Anthropologen wie z.B. Julian Orr beschäftigt waren. Der Vizepräsident der Firma, John Seely Brown, unterstützte diese Öffnung und schrieb u.a. einen Artikel für den Harvard Business Report darüber, welche Möglichkeiten ethnographische Studien für betriebliches Wissensmanagement bieten könnten. Andere wichtige Firmen zogen nach. In der Folge gab es auch in der Ethnographie Diskussionen über die sinnvolle theoretische Verortung entsprechender Forschung unter Bezug auf im Einzelnen so unterschiedliche Richtungen wie u.a. Activity Theory, Grounded Theory, Distributed Cognition und Ethnomethodologie.16 11 Koschmann, Timothy (Hrsg.): CSCL – Theory and Practice. Mahwah, NJ 1996. 12 Huysman, Marleen/Wenger, Etienne/Wulf, Volker (Hrsg.): Proceedings of the International Conference on Communities and Technologies (C&T 2003). Dordrecht 2003. 13 Heidenreich, Martin: „Gruppenarbeit zwischen Toyotismus und Humanisierung. Eine international vergleichende Perspektive“, in: Soziale Welt, Jg. 45 (1994), Nr. 1, S. 60-82. 14 Baba, Marietta L.: The Anthropology of work in the Fortune 1000: A Critical Retrospective. URL: http://www.practicalgatherings.com/workplace_anthro/history.html, 12.8.2004. 15 Suchman, Lucy A.: Plans and situated action. Cambridge/New York/Port Chester/Melbourne/Sydney 1987. 16 Sharrock, Wes/Hughes, John A.: Ethnography in the Workplace: Remarks on its theoretical bases. URL: http://www.teamethno-online.org/Issue1/WeS.html, 12.8.2004.

WISSENSPROZESSE IN DER SOFTWAREBRANCHE

153

Eine Abgrenzung der verschiedenen, zum Teil überlappenden Diskursstrukturen und Communities kann im Rahmen dieses Aufsatzes nicht gegeben werden. Es soll jedoch deutlich gemacht werden, dass zunehmend auch in der Industrie Verständnis dafür entsteht, dass „Funktionalität nicht als systemische Eigenschaft eines Systems verstanden werden kann, sondern als Relation zwischen System und Nutzung“17, wobei letztere u.a. durch Implementierungs-, Aneignungs-, Nutzungs- und Diffusionsformen geprägt sein kann. Antizipierende Berücksichtigung dieser Faktoren erfordert mithin deren jeweils empirisch fundiertes Verständnis. Von daher haben sich zentrale Elemente des Konzepts soziotechnischer Analysen und dessen Orientierung an ethnographisch informiertem Design in der Praxis der Technikentwicklung auch jenseits des akademischen Bereichs etabliert.18 Im Hinblick auf menschliche Arbeit, Kompetenz und Qualifizierung hat die dargestellte Position eine spezifische Bedeutung, da sie berücksichtigt, dass Wissen nicht nur beim Theoretisieren, sondern auch im praktischen Können von (kontextueller) Bedeutung sein kann.19 Wenn von daher Lernen als ein Teil von Arbeit und Arbeit als ein Teil von Lernen aufgefasst werden kann, dann kann nicht nur die Taylorsche Fragestellung nach dem idealen Lernsystem (welches bei ihm als Frage nach dem optimalen Lehrsystem konzipiert war) in die Fragestellung umgekehrt werden, wie die Organisation und Gestaltung von Arbeitsumgebungen für Beschäftigte, Teams und Unternehmen produktiv und nützlich organisiert werden kann20: Diese Fragestellung kann dann insbesondere empirisch zur Untersuchung von Arbeitskontexten im Hinblick darauf gewendet werden, was sie und die prekären traditionellen Bildungsangebote zur Lernförderung beizutragen in der Lage sind.

17 Randall, Dave: Chalk and Cheese: BPR and ethnomethodologically informed ethnography in CSCE. URL: http://www.comp.lancS. ac.uk/sociology/staff/rouncefield/Fieldwork/ BPR.html, 12.8.2004. 18 Scacchi, Walt: Socio-Technical Design. URL: http://www.icS. uci.edu/~wscacchi/Papers/SE-Encyc/SocioTechnical-Design.pdf, 12.8.2004. 19 Vgl. Ryle, Gilbert: The Concept of Mind. Chicago 1949. 20 Jordan, Brigitte: From Training to learning in the new economy. URL: http://www.lifescapes.org/Papers/0212_from_training_to_learning.htm, 12.8.2004. Im Sinne von Hacker (vgl. ders.: Allgemeine Arbeitspsychologie. Psychische Regulation von Arbeitstätigkeiten. Bern 1998) könnte man ergänzen: „zudem persönlichkeitsfördernd“.

BERNHARD NETT, VOLKER WULF

154

Das in diesem Abschnitt kurz skizzierte Feld soziotechnischer Analysen wurde nicht als einheitliche theoretisches Konzept dargestellt, sondern als eine Forschungsrichtung mit ganz unterschiedlichen theoretischen Ansätzen. Es sollte aber auch gar nicht zur theoretischen Fundierung der vorliegenden Studie dienen, sondern erläutern, warum das Verständnis der in der vorliegenden Studie untersuchten Fragestellungen eines soziotechnischen Hintergrundes bedarf, und was die Studie ihrerseits dazu beitragen kann. Ferner sollte deutlich werden, dass ethnographische Untersuchungen z.B. auch durch Experteninterviews im dargestellten Feld soziotechnischen Designs wichtige empirische Hilfsmittel darstellen. Von daher sollte unter Bezug auf den Forschungskontext erklärt werden, warum die ethnographische Erforschung von Wissensprozessen in kleinen Unternehmen der Softwarebranche von einer soziotechnischen Perspektive aus ein äußerst wichtiges Thema darstellen.

3.

Das Forschungsdesign der Studie

3.1 Das Untersuchungsfeld In der hier darzustellenden Studie wurden Wissensprozesse in kleinen Unternehmen der Softwarebranche auf der Basis von Experteninterviews studiert und so Einblicke in das Lernverhalten von Mitarbeitern in kleinen Unternehmen der Softwarebranche ermöglicht. Unter Wissensprozessen versteht das Wissensmanagement alle Arten von wissensbezogenen Aktivitäten, z.B. die Aneignung, Nutzung und Sicherung von Wissen, die in teilweise unterschiedlicher Weise von verschiedenen Autoren weiter in verschiedene Elemente differenziert werden können.21 In der vorliegenden Studie wurde geprüft, welche formellen und informellen Lernpraktiken22 in kleinen Unternehmen der Softwarebranche

21 Hasenkamp, Ulrich/Roßbach, Peter: „Wissensmanagement“, in: WISU, Jg. 1998, Nr. 8-9, S. 956-964; Probst, Gilbert J.A./Raub, Steffen/Romhardt, Kai: Wissen managen. Wie Unternehmen ihre wertvollste Ressource optimal nutzen. Frankfurt/M. 1998; Derboven, Wibke/Dick, Michael/Wehner, Theo: „Erfahrungsorientierte Partizipation und Wissensentwicklung. Die Anwendung von Zirkeln im Rahmen von Wissensmanagementkonzepten“, in: Harburger Beiträge zur Psychologie und Soziologie der Arbeit, Jg. 1999, Nr. 18. 22 Staudt, Erich/Kley, Thomas: „Formelles Lernen – informelles Lernen. Erfahrungslernen: wo liegt der Schlüssel zur Kompetenzentwicklung von Fach- und Führungskräften?“, in: Berufliche Kompetenzentwicklung in for-

WISSENSPROZESSE IN DER SOFTWAREBRANCHE

155

vorfindbar sind, auf welche Wissensressourcen sich diese stützen und wie Wissen von den Beschäftigten vor dem Hintergrund der betrieblichen Praxis bewertet, gesichert und ggf. an Kollegen weitergegeben wird. Zudem galt es zu untersuchen, welche Rolle Software Engineering im Rahmen der identifizierten Wissensprozesse spielte, und wie es ggf. Kompetenzentwicklung im Feld fördert oder fördern könnte. Dabei waren Softwareentwickler von besonderem Interesse, weil sie in den Unternehmen die Akteure sind, die die Praxis des Softwareentwickelns am unmittelbarsten prägen. Unter ‚Softwarebranche‘ wurden nicht nur Unternehmen verstanden, die Software erstellen und verkaufen. Vielmehr ging es neben der Produktion auch um dafür notwendige Bedarfserhebungen und Konzipierung, zudem auch um Implementierung, Wartung und Evaluation von Software. Auch Softwareberatung und insbesondere Anpassung von Software galten in diesem Sinne als Tätigkeiten der Softwarebranche. Unternehmen konnten dabei alle Entwicklungsarbeiten selbst erbringen oder sich auf eine oder mehrere Funktionen spezialisieren. Es war schließlich auch nicht erforderlich, dass Software von den Unternehmen als eigenständiges Produkt verkauft wird, denn diese kann z.B. auch zur Unterstützung interner Geschäftsprozesse oder zur Veredelung von anderen Produkten genutzt werden. Es zeigte sich, dass eine trennscharfe Bestimmung der Softwarebranche sehr schwierig ist. Derartige Abgrenzungsprobleme der Softwarebranche sind insbesondere für quantitativ orientierte Forschungen problematisch23 und können in Statistiken deshalb schnell falsche Eindrücke vermitteln. In der vorliegenden Studie war dieses Abgrenzungsproblem aber weniger gravierend, weil der Fokus auf Entwickler einen direkten Bezug zu Software-bezogenen Tätigkeiten garantierte, deren Bedeutung für die ausgewählten kleinen Unternehmen zudem von den Interviewten erfragt und bestätigt werden konnte. In einer früheren Studie des BMBF24 wurden Unternehmen so ausgewählt, dass die Beschäftigten festangestellte Mitarbeiter waren, deren mellen und informellen Strukturen, QUEM-Report, Heft 69, Berlin 2001, S. 227-275. 23 Rheinisch-Westfälisches Institut für Wirtschaftsforschung e.V. (RWI) (Hrsg.): Wachstum und Beschäftigungspotentiale der Informationsgesellschaft bis zum Jahr 2010. Abschlussbericht Forschungsauftrag Nr. 30/99 des Bundesministeriums für Wirtschaft und Technologie, Essen 2000. 24 BMBF (Hrsg.): Analyse und Evaluation der Softwareentwicklung in Deutschland. Endbericht an das Bundesministerium für Bildung und Forschung.

156

BERNHARD NETT, VOLKER WULF

Tätigkeitsschwerpunkt (d.h. mehr als 50 % der Arbeitszeit) im Bereich Softwareentwicklung lag. Freiberufler, selbständige Entwickler u.ä. wurden nicht berücksichtigt. Die Studie unterschied zudem zwischen Unternehmen der Primärbranche und der Sekundärbranche. Die Primärbranche umfasste Unternehmen, deren Kerngeschäft die Entwicklung von Software ist, die als eigenständiges Produkt vermarktet wird. Unternehmen der Sekundärbranche entwickeln demgegenüber Software, die in Produkten und Dienstleistungen eingebettet ist. Auf der Basis der erhobenen Unternehmensgrößen in der Softwarebranche wurden Unternehmen in der Primärbranche mit Softwareentwicklung mit bis zu 200 Beschäftigten als ‚klein‘ gewertet. Diese Kategorisierung umfasste mithin das deutliche Gros der Unternehmen in der Softwarebranche mit einem Anteil von 98 % im Jahre 2000 (davon 77 % mit 1 bis 9 Mitarbeitern und 21 % mit 10 bis 199 Mitarbeitern).25 In der vorliegenden Studie wurde die Mitarbeiterzahl von max. 200 und die Scheidung von Primär- und Sekundärbranche übernommen. Zudem wurde (auch vor dem Hintergrund der gegenwärtigen Diskussion über neue Unternehmensformen26) sondiert, welche Bedeutung nicht festangestellte Beschäftigte in kleinen Unternehmen haben.

URL: http://www.iese.fhg.de/pdf_files/evasoft_abschlussbericht.pdf, 12.8.2004. 25 Siehe Anmerkung 10. Der große Anteil an kleinen Unternehmen in der Primärbranche entsprach in keiner Weise deren Anteil an der Beschäftigung: Gerade mal 2 % der Unternehmen (mit über 200 Mitarbeiter) beschäftigten knapp 58 % der 295.000 fest angestellten Mitarbeiter der Primärbrache im Bereich Softwareentwicklung, wie Tabelle 2 zeigt: Tabelle 2: Anzahl der Mitarbeiter in Unternehmen der Primärbranche mit Softwareentwicklung Unternehmensgröße (Anzahl der Mitarbeiter) 1 bis 9 10 bis 49 50 bis 199 Über 200 Gesamt Quelle: BMBF (2000)

Anzahl der Mitarbeiter 44.000 39.000 42.000 170.000 295.000

Prozentualer Anteil an der Beschäftigung 14,9 13,2 14,3 57,6 100

26 Reiß, Michael (Hrsg.): Netzwerk-Unternehmer. Fallstudien netzwerkintegrierter Spin-offs, Ventures, Start-ups und KMU. München 2000.

WISSENSPROZESSE IN DER SOFTWAREBRANCHE

157

3.2 Die Durchführung der Studie Die Studie basiert auf Experteninterviews, weil diese gute Einblicke in Strukturzusammenhänge und Wandlungsprozesse von Handlungssystemen bieten können, etwa in Entscheidungsstrukturen und Problemlösungen von Organisationen und Institutionen. Sie können über die InsiderErfahrungen spezifischer Status- und Interessengruppen informieren und so einen indirekten Zugriff auf implizite Regeln in diesem Feld geben.27 Des Weiteren können sie als Sondierung für weitere Forschungen als Orientierung und Strukturierung dienen. In der Zeit von April bis August 2003 wurden insgesamt 17 Experteninterviews in kleinen Unternehmen der Softwarebranche durchgeführt. Die Interviewpartner konnten großenteils durch telefonische Kontaktaufnahme und Ansprechen auf der Cebit 2003 gewonnen werden. Zwei der interviewten Unternehmen waren im weiteren Berliner Umkreis angesiedelt, die übrigen im weiteren Kölner Raum. Die Interviews fanden vor Ort bei den Unternehmen statt und dauerten im Durchschnitt ca. 45 Minuten. Von allen Interviews wurden Audioaufnahmen gemacht, die anschließend transkribiert und anonymisiert wurden. Hinsichtlich der Mitarbeiterzahl waren die Unternehmen wie folgt verteilt: • 10 Unternehmen unter 10 Mitarbeitern • 5 Unternehmen zwischen 10 und 100 Mitarbeitern • 2 Unternehmen zwischen 100 und 200 Mitarbeitern Die Auswertung erfolgte in zwei Phasen: Zunächst wurden die transkribierten Inhalte auf Paraphrasen reduziert und jeweils auf einzelne Karten notiert. Diese wurden anschließend mit den in den Transkriptionen enthaltenen Aussagen in der Weise abgeglichen, dass alle Informationen stichwortartig auf den Karten auftauchten und umgekehrt alle Stichworte der Karten auf Aussagen der Interviewten bezogen werden konnten. Die Karten wurden dann entsprechend ihrer thematischen Nähe geclustert.

27 Meuser, Michael/Nagel, Ulrike: „Experteninterviews – vielfach erprobt, wenig bedacht. Ein Beitrag zur qualitativen Methodendiskussion“, in: Detlev Garz/Klaus Kraimer (Hrsg.): Qualitativ-empirische Sozialforschung. Konzepte, Methoden, Analysen. Opladen 1991, S. 441-471.

BERNHARD NETT, VOLKER WULF

158

4.

Ergebnisse der Studie

4.1

Beschäftigte in kleinen und mittleren Unternehmen (KMU) der Softwarebranche

Die Studie zeigte zunächst, dass Rollen zum Teil sehr unterschiedlich verstanden werden. Als ‚Entwickler‘ beispielsweise werden manchmal diejenigen bezeichnet, die mit der Produktion oder Bearbeitung von Softwarecodes befasst sind (‚Coder‘, die als Techniker gegenüber dem Management abgegrenzt werden), manchmal aber auch System- oder Produktdesigner, d.h. Rollen, die durch eine – wenn auch oft nur vage – Funktion im Projektmanagement gekennzeichnet sind. Diese RollenHeterogenität manifestierte sich in der Person der Interviewten, die von den Firmen als Entwickler vorgestellt worden waren und sich auch selbst so verstanden, obwohl sie ganz unterschiedlichen Tätigkeiten versahen. Auch die Erwerbsbiographien der Interviewten waren sehr heterogen: neben Personen, die einem eher traditionellen Qualifizierungsmuster folgten, gab es auf der anderen Seite eine ganze Reihe von Quereinsteigern, Autodidakten und Studienabbrechern. Ein Teil der Hochschulabsolventen hatte – z.T. aus Festeinstellungen bei Forschungseinrichtungen kommend – den Schritt zum Unternehmer vollzogen. Die traditionelle Sequenz Studium-Beruf wurde selten eingehalten, in einigen Fällen sogar umgekehrt durchlaufen. Von den Interviewten wurde oft herausgestellt, welche hohe Bedeutung frühe praktische Erfahrung und eigenständiges Lernen mit Computern hatte, meist zunächst in der Form des Spiels. Es machte den Eindruck, dass die Interviewten auch in ihrer Arbeitswelt Elemente des Spielerischen schätzten, z.B. persönliche Herausforderung und eine damit verbundene soziale Eingebundenheit in einen Wettbewerb von Gleichgesinnten. Auffällig ist, dass viele Interviewte offenbar Wert darauf legten, die Entfaltung der eigenen Persönlichkeit mit der beruflichen Arbeit verbinden zu können. Ein ähnlich heterogenes Bild wie bei den Rollen und Erwerbsbiographien zeigte sich bei den Beschäftigungsverhältnissen. Ein Teil der Firmen beschäftigte „nie“ freie Mitarbeiter. Zur Begründung wurde angeführt, dass die Sicherung der Marktposition eine Qualität der Produkte erfordere, die nur durch betriebliche Kompetenz gewährleistet werden könne. Diese könne man aber nur sichern, wenn man qualifizierte Beschäftigte im Unternehmen halte. Ein anderer Teil der Firmen, der sys-

WISSENSPROZESSE IN DER SOFTWAREBRANCHE

159

tematisch freie Mitarbeiter nutzte, stellt demgegenüber flexible Reaktionsmöglichkeit auf Marktveränderungen in den Vordergrund. Ein Interviewter konkludierte, dass Unternehmen ihren Kernbereich an Unternehmenskompetenzen nicht über freie Mitarbeiter ausfüllen ließen, aber bei peripheren Aktivitäten (Webdesign, Grafik u.ä.) gerne darauf zurückgriffen. Seit einiger Zeit nutzte seine Firma einen Pool entsprechender freier Mitarbeiter. Dieser Pool, entstanden aus der Kooperation mit anderen Unternehmen, sei eine Reaktion auf schlechte Erfahrungen mit offiziellen Jobbörsen (z.B. Gulp), deren Vermittlungsaktivitäten keine befriedigenden Qualifikationen garantierten. Die dadurch heranziehbaren Arbeitskräfte würden in der Regel nicht eingestellt; vielmehr würden sie als geringqualifizierte Hilfskräfte betrachtet und nur bei Bedarf herangezogen.

4.2 Kompetenzerfordernisse in KMU der Softwarebranche Die Studie fand in einer Krise der Softwarebranche statt. Die meisten Interviewten wiesen denn auch auf große Probleme hin. Aus Entwicklersicht waren insbesondere die Kundenerwartungen massiv gestiegen. So verlangten die Kunden zunehmend, Implementierung, Wartung und Erweiterung von Softwareprodukten selbst umsetzen zu können: Man konnte sie zunehmend schwieriger an sich binden. Gleichzeitig nahmen die Qualitätserwartungen und der Kostendruck zu, was hohe Anforderungen an die Beschäftigten mit sich brachte. Zum einen galten diese der Funktion der Software und ihrer Nutzbarkeit. Doch diese Qualitätsanforderungen wurden zunehmend spezifisch und ließen sich nur mit erheblichen Schwierigkeiten im Rahmen des Softwareentwicklungsprozesses umsetzen und standardisieren. Von daher wurde Verständnis für die Kundenwünsche zum immer zentraleren Element der Qualitätsorientierung. Die Interviewten stellten – von daher wenig überraschend – durchweg die Bedeutung intensiver Kontakte zu den Kunden heraus. Diese wurden als umso wichtiger gesehen, als die Produkte meist keine Standardsoftware darstellten, sondern Anpassungen oder Erweiterungen eines Softwareprodukts für die besonderen Gegebenheiten ihrer Kunden. Für Entwickler bedeutete dies zunächst, dass Kommunikationsfähigkeiten wichtiger wurden, mit deren Hilfe sie Vagheiten produktiv wenden und Arbeit iterativ oder inkrementell gestalten lernen mussten. Die Organisationsstrukturen waren entsprechend singulär und konnten bei großen Projekten und in Feedback-intensiven Phasen schnell an Grenzen stoßen. So

160

BERNHARD NETT, VOLKER WULF

ist wenig überraschend, dass häufiger der „Entwicklungsprozess mit Email-Chaos verbunden“ war. Entsprechend bedeutete dies für die Beteiligten, dass sie lernen mussten, im Verlauf von Prozessen deren Erfordernisse wahrzunehmen, um sich darauf einstellen zu können. Fortwährend gelte es zu verstehen und zu „sehen, was der Kollege tut“. In der Alltagspraxis wurde weitgehend selbstorganisiertes Arbeiten mit unvollständiger Dokumentation und Information daher als Normalsituation wahrgenommen. Da die Implementierung neuer Produkte nicht selten mit einer zumindest partiellen Restrukturierung von Arbeitsabläufen beim Kunden verbunden ist und technische Gestaltungsentscheidungen oft weit reichende, mitunter ungewollte Implikationen haben, lassen sich Produktplanung beim Entwickler und Nutzungsplanung beim Kunden nicht völlig trennen. Dies verstärkt entsprechende Abstimmungserfordernisse und die Notwendigkeit von Kundenkontakten. „Der Kunde weiß nicht, was er will“, kennzeichnet eine Seite der Wahrnehmung dieser „symmetry of ignorance“28 in der Kunden-Produzenten-Beziehung, die mangelnde Kenntnis des Produzenten über die Verhältnisse beim Kunden die andere. Es handelt sich dabei aber nicht allein um eine kognitive Differenz, sondern auch um ein Feld von Interessenkonflikten. Wenn aber Produktentwicklung und Unternehmensentwicklung so miteinander verbunden sind, bedeutet dies für Mitarbeiter in kleinen Unternehmen der Softwarebranche, dass sie im Projektgeschäft in der Lage sein müssen, ein hohes Maß an Selbständigkeit an den Tag zu legen und dabei komplexe transdisziplinäre Zusammenhänge schnell verstehen und sinnvoll berücksichtigen zu können. Darin kommt eine partielle Auflösung zwischen Management- und Ausführungsfunktionen zum Tragen, die durch den hohen Kommunikationsbedarf der Arbeiten gefördert wird. Damit wird zum einen die Funktion eines reinen ‚Cod(ier)ers‘ durch den iterativen Charakter der Anforderungserhebung und die technischen Substitutionsmöglichkeiten sowie durch mögliche Auslagerungen in Billiglohnländer29 in Frage gestellt. Zum anderen ergibt sich damit der Bedarf an immer selbständiger arbeitenden Projektmitarbeitern, sei es als Projektleiter für zuarbeitende ‚Cod(ier)er‘, sei es als die verschiedenen Rol28 Vgl. Rittel, Horst: „Second-Generation Design Methods“, in: Nigel Cross (Hrsg.): Developments in Design Methodology. New York 1984, S. 317327; Fischer, Gerhard: „Social Creativity, Symmetry of Ignorance and Meta-Design“, in: Proceedings of the third Creativity & Cognition Conference. New York 1999, S. 116-123. 29 Drei der 60 Unternehmen, die wir um ein Interview baten, hatten ihren Entwicklerstamm im Ausland (Tschechien, Russland, Vietnam).

WISSENSPROZESSE IN DER SOFTWAREBRANCHE

161

len integrierende Allrounder. Letztere waren vor allem in sehr kleinen Firmen oft gefragt. Im Hinblick auf die geforderten Kompetenzen bedeutet dies, dass Fähigkeiten zum selbständigen Arbeiten und Entscheiden in der Softwarebranche stark gefragt sind. Weiterhin ergibt sich jedoch gerade aus der geforderten Selbständigkeit die Erfordernis disziplinierter und loyaler Kooperation und von Teamfähigkeit. Die Aushandlungsabhängigkeit vieler Arbeitsumstände gerade in kleinen Unternehmen der Softwarebranche setzt entsprechende Fähigkeiten „sich verkaufen zu können“ voraus, scheint aber von den Beschäftigten durchaus im Sinne eines Arbeitsstolzes als Gestaltungsfreiraum geschätzt zu werden30: Viele Interviewte stellten ihre berufliche Existenz als Professionalisierung ihres Hobbys dar und grenzten sich unter Verweis auf ihren Spaß an der Arbeit explizit von traditionellen Karrieremustern ab. Zum Verständnis der Kundenwünsche wird zunehmend erforderlich, deren Kontexte verstehen zu können, so dass Domänenkenntnisse zunehmend von Bedeutung für Entwickler werden. Neben diesen allgemeinen Kenntnissen über das Feld treten schließlich die Fähigkeiten, die speziellen Kontexte beim jeweiligen Kunden zu erschließen. Die von der soziotechnischen Technikgestaltung entwickelten, oft beteiligungsbasierten Methoden der empirischen Forschung halten deshalb – wenn auch oft in reduzierter, mitunter gar unbewusster Form – Einzug in die Praxis von Entwicklern in der Softwarebranche und stellen entsprechend zunehmend wichtige Kompetenzen dar.

4.3 Kompetenzaufbau in KMU der Softwarebranche Bei der Informationssuche wurden Bücher meist nur als Referenz- und Nachschlagewerke genutzt; Fachzeitschriften aus Zeitgründen nur selten gelesen. Nur wenige Entwickler zogen sich zeitweilig mit Büchern zurück, um sich systematisch in neue Kontexte einzuarbeiten (die Möglichkeit dazu zu haben kann unter dem Zeitdruck, unter dem Entwickler stehen, bereits ein Privileg darstellen). Hingegen wurde das Gespräch mit den Kollegen am Arbeitsplatz von den meisten Interviewten als fruchtbarste Informationsquelle beschrieben („Multiplizierungseffekt durch die Kollegen“). Auch das Internet wurde als Informationsquelle intensiv genutzt und war aufgrund seiner Vielfältigkeit und Schnelligkeit erstes Re30 Vgl. Heidenreich, Martin/Töpsch, Karin: „Die Organisation der Arbeit in der Wissensgesellschaft“, in: Industrielle Beziehungen, Jg. 5 (1998), Nr. 1, S. 13-44.

162

BERNHARD NETT, VOLKER WULF

ferenzmedium. Die Suchmaschine Google war dabei ein zentraler Anlaufpunkt für die Informationsbeschaffung. Unübersichtlichkeit und Unzuverlässigkeit schränkten jedoch den Informationswert des Internets stark ein. Interessanterweise konnten Foren und Newsgroups diese Nachteile in der Regel nicht überwinden: Zwar galten sie als hilfreich zum schnellen Lösen von konkreten Entwicklungsproblemen, doch auch als unübersichtlich und unstrukturiert. Zudem setze ihre Nutzung eine kontinuierliche und z.T. aktive Teilnahme voraus, die für die meisten Interviewten aus Zeitgründen nicht möglich war. Interessanterweise lehnten manche Entwickler eine bloß passive Nutzung nicht nur aus Effektivitätsgründen ab, sondern auch, weil sie eine solche als Verstoß gegen die auf gegenseitiges Geben und Nehmen gestützte Ethik solcher Einrichtungen verstanden. Foren und Newsgroups wurden deshalb oft während Ausbildung oder Studium stark genutzt, gerieten in der Berufspraxis jedoch schnell in den Hintergrund, insbesondere im Hinblick auf die aktive Beteiligung (Einstellen von Beiträgen). Herstellerforen (z.B. die Seiten von SUN zu Java) waren eine Ausnahme, da sie auch nach Abschluss von Studium oder Ausbildung stark frequentiert werden. Eine Erklärung dafür könnte sein, dass es nach Angaben der Interviewten oft nicht bloß um Informationen, sondern um belegbare Entscheidungsgrundlagen geht. Diese Gewährleistungsfunktion kann bei der Informationssuche im Hinblick auf Fragen des persönlichen Expertenrenommees bis hin zu finanziellen Problemen im Rahmen zwischenbetrieblicher Gewährleistung von Belang sein. Wenn vor diesem Hintergrund ein Hersteller selbst ein Forum einrichtet, dann gibt er diesem eine gewisse Autorität, weil der Nutzer erwarten kann, dass der Betreiber das eigene Forum verfolgt und falsche Aussagen ggf. korrigiert. Zudem kann der eigene Nutzungskontext in Nutzerforen produktbezogen leicht differenziert und damit Probleme zielgerichtet (d.h. auf der Basis der Nutzungssemantik von Produkten) adressiert werden. Zwei Interviewte besuchten z.B. Hersteller-Workshops, weil sie diese in erster Linie zum Erfahrungsaustausch mit Entwicklern aus anderen Unternehmen nutzen konnten. In Einzelfällen wurden nicht-öffentliche Infotheken (BulletinBoards) zwischen Partnerunternehmen zum Erfahrungsaustausch von den Unternehmen selbst aufgebaut. Kooperationsverantwortliche stellten dabei Listen typischer Probleme sowie die zugehörigen Problemlösungsmuster in einen für die Partner zugänglichen Workspace ein. Andere Unternehmen boten ihren Kunden Supportforen nicht allein zur Entlastung der Support-Abteilung an, sondern auch zur Sammlung von

WISSENSPROZESSE IN DER SOFTWAREBRANCHE

163

lastung der Support-Abteilung an, sondern auch zur Sammlung von relevanten Informationen für die Wartung und Weiterentwicklung der Software. Eine einfache, aber für Marketingverantwortliche sicherlich hochwertige Quelle war die ‚Feature-Request‘-Datenbank: eine Sammelstelle, in die Mitarbeiter produktbezogene Kundenwünsche eintragen konnten. Solche Einrichtungen allein garantieren noch keine Nutzung, erhöhen jedoch die Wahrscheinlichkeit, dass bereits gemachte Erfahrungen nicht verloren gehen. Die Interviewten fanden solche soziotechnisch konzipierten Einrichtungen attraktiv und sehr sinnvoll, weil sie kaum Anschaffungskosten verursachen, leicht zu handhaben und vor allem nicht an formelle organisatorische Abläufe gebunden sind. Interessanterweise betrachteten sie diese soziotechnischen Lösungen jedoch nicht als Wissensmanagement, das für sie dieser Begriff offenbar mit Datenbanken und KI-Technologien verbunden war. Innerbetrieblich geschah das Einbringen von „Methoden über Köpfe“: das bedeutet, dass es gewisse Spezialisierungen innerhalb der kleinen Unternehmen gab, aber wenig formale Fixierungen von Rollen und Verantwortlichkeiten. Mitarbeiter stellen aus dieser Sicht „Portfolios an Kompetenzen“ dar. Oft wird dann erst auf den Projekttreffen deutlich, welche Kompetenzen für einen gegebenen Kontext erforderlich sind: entsprechend wird dann das Projektteam (re-)organisiert. Aus den Angaben der Interviewten wird nicht klar, ob die Ursache für die Unabschätzbarkeit von Kompetenzen vor Projektbeginn auf die völlige Unterschiedlichkeit der Entwicklungsprozesse oder das Unvermögen der Unternehmen zurückzuführen ist, Ähnlichkeiten im Prozess zu erkennen und ggf. zu nutzen. Kompetenzmanagement wird von daher vor allem relevant bei der Aufstellung geeigneter Projektteams.

4.4 Problem Nachhaltigkeit Von den Befragten wurden im Zweifelsfall etablierte Communities gegenüber anderen Informationsquellen präferiert, wenn es um gesicherte Informationen über Personal, Märkte, Trends oder Akquisitionsmöglichkeiten ging. Informelle Treffen und Kontakte wurden deshalb umso wichtiger eingeschätzt – auch im Kundenkontakt: Durchgängig wurde darauf hingewiesen, wie wichtig ein belastbares Vertrauensverhältnis zum Kunden einzuschätzen sei. Verstärkte Kommunikation wurde deshalb vom Gros der Entwickler als einzig langfristig erfolgversprechende Erfolgsstrategie aufgefasst.

BERNHARD NETT, VOLKER WULF

164

Doch obwohl gerade „firmeninterne Kommunikation immer wichtiger“ wurde, kamen die Interviewten zu dem Schluss: „Mehr Treffen wären gut“.31 Der wachsende Bedarf an Kommunikation koinzidierte so mit zunehmender Zeitknappheit: Wo es vormals noch interne Entwicklertreffs zum allgemeinen Erfahrungsaustausch jenseits des Projektgeschäfts gab, da waren aus Zeitmangel nur noch die aufgabenbezogenen Projektmeetings und die ‚Coffee Corners‘ als informelle Treffpunkte geblieben. Und während persönliche, vertrauensvolle Beziehungen als immer wichtigerer Wettbewerbsvorteil gesehen wurden, wurde nach Meinung der Interviewten der Aufbau solcher Beziehungen und Communities immer schwieriger. Kommunikation als ‚Lösung‘ konnte mithin selbst zum ‚Problem‘ werden und die Nachhaltigkeit des weitgehend individuell organisierten Kompetenzmanagements in den kleinen Firmen der Softwarebranche gefährden. Staudt und Kley32 betonten die zentrale Bedeutung von informellem und selbst gesteuertem Lernen im Arbeitsprozess für die betriebliche Weiterbildung und die Bildung von regionalen Netzwerken. Weiß gab in diesem Kontext den Zeitanteil entsprechender Weiterbildungsaktivitäten, den die Befragten als weiter steigend einschätzten, bereits 2000 mit 46 % an.33 Unsere Studie lässt heute gerade in den kleinen Unternehmen der Softwarebranche eine noch höhere Prozentzahl erwar31 Damit decken sich die Ergebnisse unserer Forschung weitgehend mit der Studie von Dehnbostel, Peter/Molzberger, Gabriele/Overwien, Bernd: Informelles Lernen in modernen Arbeitsprozessen – dargestellt am Beispiel von Klein- und Mittelbetrieben der IT-Branche, Berlin 2003. Das gleiche gilt für die dort dargestellten Lernformen, siehe Graphik 1: Graphik 1: Lernformen in der IT-Branche nach Dehnborstel, Molzberger, Overwien (2003): 100% 80% 60% 40% 20% 0%

organisiert informell anders

32 Staudt, Erich/Kley, Thomas: „Formelles Lernen – informelles Lernen. Erfahrungslernen: wo liegt der Schlüssel zur Kompetenzentwicklung von Fach- und Führungskräften?“, in: Berufliche Kompetenzentwicklung in formellen und informellen Strukturen, QUEM-Report, Heft 69, Berlin 2001, S. 227-275. 33 Weiß, Reinhold: Wettbewerbsfaktor Weiterbildung: Ergebnisse der Weiterbildungserhebung der Wirtschaft. Köln 2000, S. 22.

WISSENSPROZESSE IN DER SOFTWAREBRANCHE

165

ten. Damit drängt sich der Verdacht auf, dass dies weniger einer Zunahme entsprechender Aktivitäten als einer Abnahme alternativer Qualifizierungsbemühungen geschuldet ist. Nach Meinung der Interviewten ist der domänenspezifische Kompetenzerwerb von stark zunehmender Bedeutung; er könne aber nur im Geschäftsbetrieb selbst realisiert werden – in dem bei zunehmender Konkurrenz die Möglichkeit zur Qualifizierung jedoch prekär werden kann. Während die bereits skizzierte Studie des BMBF (s.o.) durchschnittliche Zeitaufwände von 3-10 Tagen je Beschäftigtem und Jahr für die institutionalisierte berufliche Weiterbildung benannte, dürften solche Werte in den kleinen Unternehmen, aus denen die Interviewten dieser Studie stammen, kaum erreicht werden, denn entsprechende Nachfragen nach betrieblichen Qualifizierungsmassnahmen wurden durchweg ausweichend beantwortet. Stattdessen wurde der Nutzen von Qualifizierung gerne pauschal in Frage gestellt. So wurde etwa verlangt, dass Qualifizierungsmaßnahmen als ‚Enabler‘ Zugang zu neuen Kunden oder Geschäftsfeldern eröffnen müssten: In dieser nur scheinbar dynamischen Perspektive wird jedoch nicht berücksichtigt, dass innovatives Qualitätsmanagement auch schon für die Sicherung des Kundenstammes von Bedeutung ist, denn bekanntlich „schläft die Konkurrenz nicht“. Als weitere pauschale Entschuldigung diente oft der Verweis auf den Ressourcenmangel in kleinen Unternehmen, der der Nachfrage- und Marktintransparenz auf der Anbieterseite gegenübergestellt wurde („zu viele zu teure Angebote mit unklarem Nutzen“). Ein anderer Teil der Aussagen zur Mitarbeiterqualifikation adressierte das Qualifizierungsproblem von einem aktuellen StrukturEntwicklungstrend her, den man als zunehmende Domänendifferenzierung der kleinen Unternehmen der Softwarebranche interpretieren kann: „Die Spezialisierung nimmt zu.“ Diese zunehmende Spezialisierung wird neben der Zunahme der Bedeutung der ‚soft skills‘ noch für einen anderen Effekt im Hinblick auf Mitarbeiterqualifikation verantwortlich gemacht: „Domänenspezifisches Wissen wird immer wichtiger“. Deshalb erfolgt die Einarbeitung neuer Mitarbeiter domänenspezifisch und situativ. Dabei gibt es oft keine andere Möglichkeit, als „von erfahrenen Kollegen zu lernen“. Was aber, wenn kein einschlägig erfahrener Kollege dafür zur Verfügung steht? Und wie sollen arbeitslos gewordene Entwickler sich qualifizieren, wenn Lernen nur im Kontext der Arbeit erlernbar ist? Obwohl ein Großteil der Interviewten von ähnlichen Proble-

BERNHARD NETT, VOLKER WULF

166

men selbst betroffen sein dürfte, werden solch allgemeine Fragen (wenn überhaupt) nur implizit angesprochen. Ähnliche Unsicherheit zeigte sich bei den Interviewten auch im Hinblick auf die Bewertung des Software Engineering und darauf bezogener Qualifizierungsangebote. Zwar seien ihre Kunden bereit, sich in die Entwicklung der Produkte einzubringen, verlangten dafür aber direkten Einfluss auf den Softwareprozess, angewandte Methoden, Art und den Umfang der Dokumentation etc. Die Kunden wollten also selbst systematisches Software Engineering – aber gemäß z.T. verschiedener, sich widersprechender Konzepte. Software Engineering wird deshalb von den betrieblichen Praktikern als Feld akademischen Streits um konfligierende Konzepte wahrgenommen: „Man ist noch weit von einem grundlegenden Formalismus des Software Engineering entfernt, obwohl man bereits seit 30 Jahren daran arbeitet.“ Deshalb müssten die betrieblichen Praktiker „jede Menge Detail-Regelungen“ z.T. noch unterhalb der Unternehmensebene (Abteilungen und Projektteams) beachten, was den Gestaltungsspielraum der Entwickler stark einenge. Die Softwarebranche zeigt sich als ein Feld, in dem statt einer allgemeinen Struktur eine Unüberschaubarkeit besonderer Strukturen vorherrsche.

5.

Schlussfolgerungen

Angesichts der Differenzierung der Softwarebranche kann von einer Einheitlichkeit von Strukturen und Problemstellungen nicht ausgegangen werden. In der sich dynamisch entwickelnden Softwarebranche wird Wissen nicht immer erst theoretisch erzeugt, und dann umgesetzt, sondern beide Wissensprozesse können in der betrieblichen Praxis verbunden sein, mitunter sogar invers ablaufen. Das bedeutet für die akademische Welt, dass sie in zunehmendem Maße nicht nur die Aufgabe des Lehrens, sondern auch die des Lernens bewältigen muss. Zugleich wird deutlich, dass insbesondere der Bereich der berufsbegleitenden Weiterbildung ein ebenso problematischer wie wichtiger Bildungsbereich für die Softwarebranche ist. Die Schwierigkeit, soziokulturelle und ökonomische Kontexte beim Kunden zu verstehen und in konkrete Aufträge umzusetzen, kann mithin als ein Grund gesehen werden für die zunehmende Notwendigkeit zu intensivem Kundenkontakt. Die traditionellen Methoden des Software Engineerings werden von den Interviewten nicht als ein Instrumentarium wahrgenommen, das dabei helfen könnte. Im Gegenteil wird die Anwendung von traditionellen Methoden des Software Engineerings nach Mei-

WISSENSPROZESSE IN DER SOFTWAREBRANCHE

167

nung der meisten Interviewten in KMU dadurch behindert, dass diese für die Realisierung großer Entwicklungsprojekte konzipiert wurden und nicht auf die Bedürfnisse kleiner Unternehmen zugeschnitten seien. Dies mag zwar nur teilweise zutreffend sein, zeigt aber den Bedarf an Forschung zur Arbeitspraxis in kleinen Unternehmen in der Softwarebranche. Demgegenüber fokussieren viele empirisch-orientierte Arbeiten im Software Engineering eher auf der Bewertung vorgegebener Lösungen als auf einer fundierten Analyse von Problemlagen in der betrieblichen Praxis. Von daher hat Software Engineering zum einen ein Imageproblem, zum andern herrscht in entsprechenden akademischen Communities möglicherweise ein Verständnisdefizit hinsichtlich der Verwertungsprobleme in kleinen Firmen der Softwarebranche. Zum Beispiel haben dort angesichts des individualisierten Charakters vieler Anpassungsprodukte viele Probleme weniger mit systematischem Design auf der Basis gegebener Anforderungen als mit initialer Produktfindung zu tun.34 Software Engineering in einem soziotechnischen Verständnis kann nicht einfach post festum (nach der Anforderungserhebung) beginnen, sondern muss sich mit Problemen des gesamten Produktentstehungsprozesses theoretisch und praktisch befassen (Studien, Organisation von Zukunftsworkshops etc.). Die Interviews zeigen, dass kleine Unternehmen dabei nicht als minder wichtige Randerscheinungen der Softwarebrache betrachtet werden wollen. Viele Beschäftigte suchen gerade diese kleinen Unternehmen, weil sie diese als innovativ und interessant betrachten. Ein weiteres wichtiges Ergebnis der Studie ist die Erkenntnis, dass Entscheidungen der Kunden oft durch Oberflächlichkeit gekennzeichnet sind. So wird Wiederverwendbarkeit, notwendiges Testen und ausführliche Dokumentation von Software nicht hinreichend wertgeschätzt: „Es ist wichtiger, das zu tun, was die Kunden haben wollen, als etwas Sinnvolles“. Das bedeutet umgekehrt, dass eine Förderung des Software Engineering nicht zuletzt eine Stärkung des Qualitätsbewusstseins bei den Kunden erfordert. Wenn diese bereit sind, für verbesserte Qualität auch mehr zu zahlen, wird sich Qualitätsorientierung für die Anbieter eher lohnen.

34 Nett, Bernhard/Durissini, Marco/Becks, Andreas: „Eine Fallstudie zur Praxis kooperativer Anlagenplanung“, in: Gunther Hirschfelder/Birgit Huber (Hrsg.): Die Virtualisierung der Arbeit. Translokale Arbeits- und Organisationsformen als Herausforderung für die ethnographische Praxis. Bonn/ Frankfurt am Main/New York 2004.

168

BERNHARD NETT, VOLKER WULF

Schließlich motiviert die vorliegende Studie, die positive Wertschätzung des individuellen Lernens cum grano salis zu nehmen, wenn sie Wasser auf die Mühlen derjenigen leitet, die ohnehin Weiterbildung gegenüber skeptisch sind. Faulstich35 argumentiert hier schlüssig, wenn er darstellt, dass selbstbestimmtes Lernen nicht mit institutionsfreiem Lernen identisch ist, dennoch mitunter so rezipiert wird. Im Hinblick auf Kompetenzmanagement hat die hier vorgestellte Studie – wie berichtet – ergeben, dass einzelne regionale Netzwerke von Unternehmen dazu übergegangen sind, gemeinsame Pools von erprobten Personen zu nutzen, die bei Bedarf zur Auftragsabwicklung herangezogen werden können. Das zeigt, dass zum Wissensmanagement in kleinen Unternehmen der Softwarebranche nicht alleine die Sicherung der Kernkompetenzen, sondern auch das Auslagern peripherer Aktivitäten gehören kann (solche Auslagerung erfordert keine großen Unternehmen, sondern kann auch schon in sehr kleinen stattfinden), und welche potenzielle Bedeutung Netzwerke dafür spielen können. Aber erst weitere Forschung (z.B. in der Form der Aktionsforschung) kann klären, ob institutionalisierte Kooperationsformen auch als Ansatzpunkt von an Nachhaltigkeit und Qualitätssteigerung orientierten Maßnahmen genutzt werden können. Die Veränderungen der Wissensprozesse in den kleinen Firmen der Softwarebranche machen zum einen Probleme etablierter Lerninstitutionen deutlich, zum andern zeigen sie die Problematik der Gestaltung und Förderung neuer institutioneller Arrangements, die den emergenten Formen des Lernens im Feld besser gerecht werden. So reicht Vernetzung alleine nicht aus, um neue Möglichkeiten interorganisationalen Lernens wie z.B. legitime periphere Partizipation in Communities of Practice36 zu schaffen. Von daher bedarf es von der hier vertretenen soziotechnischen Perspektive her Forschung zu diesbezüglichen Bedingungen in der Softwarebranche.37

35 Faulstich, Peter: „Lernen braucht Support-Aufgaben der Institutionen beim Selbstbestimmten Lernen“, in: S. Kraft (Hrsg.): Selbstgesteuertes Lernen. Bartmannsweiler 2002. 36 Lave, Jean/Wenger, Etienne: Situated learning: legitimate peripheral participation. Cambridge 1991. 37 Duguid, Paul: Incentivizing Practice. URL: http://www.theisociety.net/archives/Duguid%20final.pdf, 12.8.2004.

SIGRID SCHUBERT

DIDAKTISCHE EMPFEHLUNGEN FÜR DAS LERNEN MIT INFORMATIKSYSTEMEN 1.

Einführung

Das Lernen in der Wissensgesellschaft erfordert die Ausgestaltung neuer Lernarrangements. Idealvorstellungen von vernetzten Datenbeständen, die über Lernplattformen für Exploration, Kommunikation und Kooperation zeit- und ortsunabhängig eingesetzt werden, stoßen in der Realität auf ganz handfeste Probleme. Die multimediale1 Präsentation von Bildungsgegenständen über Rechnernetze wird oft schon als didaktischer Mehrwert beschrieben, obwohl deren Funktion und Akzeptanz im Lernprozess nicht geklärt wurde. Multimediale Lehre, E-Learning und Wissensmanagement setzen spezielle Informatiksysteme voraus, welche die Konstruktion, die Bewertung und den Transfer von Wissen durch Einzelpersonen und Personengruppen fördern. Da Informatiksysteme, Einheit von Hard- und Software, für jeden Lernenden immer leichter erreichbar sind, liegt es nahe zu untersuchen, welche Anwendungsmöglichkeiten den Lernprozess besonders gut unterstützen. Selbst die Entwickler von so genannten ‚Online-Kursen‘, Fernstudium über das Rechnernetz, verzichten nicht mehr auf Präsenzveranstaltungen: „Die Teilnehmer lernen sich kennen und finden sich eventuell bereits für Gruppenarbeiten zusammen. Es entstehen persönliche Bindungen, die in schwierigen Lernphasen die Motivation aufrecht erhalten helfen. Die Anonymität eines Fernlehrganges, die oft zum 2 Kursabbruch führt, wird abgebaut.“

1 Multimedia steht hier für eine Interaktionsmöglichkeit mit einer Verknüpfung verschiedener Medien (Video, Audio, Abbildungen, Texte), wird aber oft fälschlicherweise zur Bezeichnung für jedes digitale Dokument verwendet. 2 Bruns, Beate/Gajewski, Petra: Multimediales Lernen im Netz. 3. Aufl., Berlin 2002, S. 33.

SIGRID SCHUBERT

170

Solche Angebote sind für Zielgruppen, die keinen anderen Zugang zur Bildung finden können, notwendig. Man denke an Personen im Arbeitsprozess. Der Trend geht aber deutlich zum Verbinden der Vorzüge von Präsenzlehre und E-Learning, dem so genannten Blended Learning. Monologe, wie sie die traditionelle Vorlesung bietet, können per Lehrbuch mit DVD orts- und zeitunabhängig angeboten werden. Diskussionen bleiben in Präsenzveranstaltungen lebendig und attraktiv. Sie können aber mit Groupware (Informatiksystemen, die menschliche Kooperation unterstützen) deutlich besser vorbereitet werden, da transparent wird, wer, was, wann zum Gesamtergebnis beigetragen hat. Ein Umgehen der Bildungsanforderungen wird erkannt. Die Bereitstellung von Lernergebnissen für die Gruppe wirkt sehr motivierend. Der Lernende kann seine Ergebnisse unmittelbar mit denen der anderen Gruppenmitglieder vergleichen. Er sieht, wo er steht. Die Didaktik der Informatik besitzt eine ausgezeichnete Position unter allen Fachgebieten, da sie Informatiksysteme, zu denen auch die multimedialen Bausteine gehören, als Gegenstand und Mittel (Medium) der Bildung erforscht. Sie kann also wie keine andere Disziplin übertragbare Forschungsergebnisse für informatikbasierte Lehr-Lern-Prozesse entwickeln und bereitstellen. Zur Eingrenzung des Themas geht dieser Beitrag auf Lerngruppen ein, die einen zertifizierten Bildungsabschluss erwerben wollen und dazu Präsenzlehrveranstaltungen einer Bildungsinstitution besuchen.

2.

E-Learning-Projekt „Simba“

2.1 Verbund der Teilprojekte Ein Beispiel für Blended Learning ist das Verbundprojekt3 „Simba – Schlüsselkonzepte der Informatik in verteilten multimedialen Bausteinen unter besonderer Berücksichtigung der spezifischen Lerninteressen von Frauen“ mit folgenden Teilprojekten: • Profunde Algorithmen (Volker Claus, Stuttgart), • Computerbilder (Gitta Domik, Paderborn), • Kommunikationsergonomie (Reinhard Keil-Slawik, Paderborn), • Didaktik der Informatik (Johannes Magenheim, Paderborn),

3 URL: http://www.die.et-inf.uni-siegen.de/simba, 17.9.2004.

LERNEN MIT INFORMATIKSYSTEMEN

171

• Rechnerarchitektur – Visualisierung (Peter Marwedel, Dortmund), • Rechnernetze und verteilte Systeme (Sigrid Schubert, Siegen), • Künstliche Sprachen als universeller Zugang zu Schlüsselkonzepten der Informatik (Andreas Schwill, Potsdam). Dieses Projekt wird vom Bundesministerium für Bildung und Forschung im Rahmen des Förderprogramms „Neue Medien in der Bildung: Programmteil 3 – Neue Medien in der Hochschullehre“ gefördert. Die hier aufgeführten sieben Forschungsgruppen entwickeln im Projektzeitraum (Juni 2001 bis Dezember 2003) gemeinsam E-Learning-Materialien, um die Informatiklerninteressen von Frauen zu fördern, die bereits ein Präsenzstudium aufgenommen haben. Motivation für das Projekt ist es, die Präsenzlehre in den Informatikstudiengängen nachhaltig zu verbessern. Es ist bekannt, dass der Studienabbruch meist im Grundstudium erfolgt, wenn Zweifel am Bildungsfortschritt auftreten. Die Präsenzlehre wird deshalb mit zusätzlichen Lernmaterialien für die individuelle Übung und Vertiefung ergänzt, die über Rechnernetze bereitgestellt werden.

2.2 Auswahl der Schlüsselkonzepte Da der Aufwand für die Gestaltung netzbasierter, multimedialer Lernmaterialien, die anspruchsvolle Interaktionen des Lernenden mit dem Lerngegenstand ermöglichen, sehr hoch ist, muss eine Konzentration auf sehr wichtige und wertvolle Themen erfolgen. Der Projektverbund entschied sich für theoretisch begründete Auswahlkriterien aus der Didaktik der Informatik4, um zu präzisieren, was als Schlüsselkonzept der Informatik aus den Teilgebieten, die die Forschungsgruppen auswählten, multimedial bearbeitet wird: • Kriterium der Geschlechterspezifik: Auswählen motivierender Anwendungsfelder und deren informatische Modellierung unter Berücksichtigung der Lerninteressen von Frauen. • Horizontalkriterium: Ist das Konzept in unterschiedlichen Teilgebieten der Informatik relevant und ordnet es dort jeweils eine größere Zahl von Phänomenen?

4 Vgl. Schwill, Andreas: „Fundamentale Ideen der Informatik“, in: Zentralblatt für Didaktik der Mathematik, Jg. 25 (1993), Nr. 1, S. 20-31. URL: http://www.informatikdidaktik.de/Forschung/Schriften/ZDM.pdf, 1.9.2004.

SIGRID SCHUBERT

172

• Vertikalkriterium: Kann das Konzept als curriculare Leitlinie dienen, d.h. ist es auf unterschiedlichen Niveaus, unterschiedlich tief elaboriert, geeignet, Inhalte zu strukturieren? • Sinnkriterium: Ist das Konzept in der Lebenswelt aufzeigbar, d.h. besitzt es Anwendungsbezüge im jeweiligen Hintergrund des Lernenden? • Zeitkriterium: Ist das Konzept in der geschichtlichen Entwicklung der Informatik deutlich erkennbar? Nur von solchen Konzepten ist bei der dynamischen Entwicklung der Informatik eine gewisse dauerhafte zukünftige Relevanz zu erwarten. Für das Teilprojekt „Profunde Algorithmen“ führte das zu einer Konzentration auf die Themen: Überblick über die Datenstrukturen, Suchen, Teile und Herrsche, Dynamisches Programmieren, Backtracking, Evolutionäre Algorithmen. Animationen zeigen z.B., wie das Laufzeitverhalten eines Algorithmus ermittelt wird. Die Manipulation eines Algorithmus ermöglicht den Lernenden die Überprüfung, ob dieser prinzipiell verstanden wurde. „So werden unterschiedliche Zugänge zum Inhalt möglich, die dann ggf. von unterschiedlichen Lerntypen bevorzugt werden.“5

2.3 Ergebnisse der Genderforschung Ein einzelnes Projekt wie dieses kann kulturelle Entwicklungen kaum beeinflussen, z.B.: „The gendering of competence creates a symbolic gendering of subjects, and with this comes borderlines between, and social closures for, men and women.“6 Es liegen jedoch anwendbare Ergebnisse der Genderforschung vor7: • Gruppenarbeit wird von Frauen bevorzugt. • Interdisziplinäre Fragestellungen interessieren Frauen besonders. • Anwendungsorientierung erhöht die Akzeptanz eines Lerngegenstandes bei Frauen. 5 Vgl. Weicker, Karsten/Weicker, Nicole/Claus, Volker: „Zielgruppenorientierte E-Learning-Module für das Informatikstudium“, in: Sigrid Schubert/ Bernd Reusch/Norbert Jesse (Hrsg.): Informatik bewegt. Bonn 2002, S. 9099. 6 Schinzel, Britta: „Cultural differences of female enrolment“, in: Don Passey/Mike Kendall (Hrsg.): TelE-LEARNING. The Challenge for the Third Millennium. Boston 2002, S. 207. 7 Vgl. Schinzel, Britta/Kleinn, Karin/Wegerle, Andrea/Zimmer, Christine: „Das Studium der Informatik: Studiensituation von Studentinnen und Studenten“, in: Informatik-Spektrum, Jg. 22 (1999), Nr. 1, S. 13-23.

LERNEN MIT INFORMATIKSYSTEMEN

173

• Lernzielangaben in Verbindung mit Übungen und Tests steuern der Selbstunterschätzung von Frauen erfolgreich entgegen. Bei der Gestaltung der netzbasierten, multimedialen Lernmaterialien erwiesen sich aktuelle Veröffentlichungen zur gendersensitive Mediendidaktik8 als hilfreich. Sehr gute Erfahrungen wurden mit der Kombination von traditioneller Gruppenarbeit in Projektgruppen, Praktikumsgruppen, Selbststudiengruppen und anwendungsorientierten E-Learning-Bausteinen für die Vorbereitung und Vertiefung dieser Gruppenarbeit gesammelt. Dem Interesse der Frauen an fachübergreifenden Fragestellungen kommt Simba dadurch entgegen, dass die Rolle der Informatik in der Gesellschaft (insbesondere soziale, ethische und rechtliche Probleme im Fachkontext) dargestellt und diskutiert wird. Anwendungsorientierung ist ein Kriterium für erfolgreiche Bildungsprozesse in der Informatik. Deshalb wird jedes Thema mit einem komplexen Praxisbeispiel zur Förderung der Anwendungsorientierung eröffnet. Ein Beispiel ist das Anwendungsszenario „Klimamodell“ zur Datencharakteristik im Projekt Computerbilder. Um eine realistische fachliche Selbsteinschätzung zu ermöglichen, werden Lernziele sehr sorgfältig begründet und Übungen bzw. Tests zur Überprüfung des Lernfortschrittes angeboten. Ein Ergebnis der empirischen Studien ist die hohe Akzeptanz von Übungsangeboten (in Java und Flash programmiert). Lernende nutzen diese Interaktionsmöglichkeiten besonders vor traditionellen Praktika und Prüfungen.

2.4

Nachhaltigkeit durch Import-Export-Schnittstelle

Im Verbund entstand eine bemerkenswerte Vielfalt informatikdidaktischer Konzepte und medialer Qualitäten. Die projektinterne Kooperation erforderte Absprachen zur Strukturierung der Ergebnisse. Das OpenSource-Konzept der Software-Entwicklung wird vom Simba-Team auf E-Learning-Materialien übertragen mit dem Ziel, viele Anwender zu finden. Erfolgreiche Anwender müssen aber modifizieren können. Denn empirische Studien zeigten, dass umfangreiche und unstrukturierte Lernmaterialen für eine Nachnutzung (Anwendung in neuen Lernprozessen) schwer zugänglich sind. Der flexible, zielgruppenorientierte Einsatz erfordert ein hohes Maß an Integration und Modifikationen der Materialien. Kleine Einheiten lassen das sehr erfolgreich zu. Der Verbund sichert deshalb die Nachhaltigkeit seiner Ergebnisse, indem Medienobjekte (z.B. 8 Vgl. Schinzel, Britta: e-learning für alle: Gendersensitive Mediendidaktik, 2001. URL: http://mod.iig.uni-freiburg.de/publikationen/publ2001.html 17.9.2004; Schinzel 2002.

SIGRID SCHUBERT

174

eine Animation), Gruppenobjekte (z.B. ein Test), Themen und Kurse für den Austausch unter Lehrenden und für die Anwendung durch Lernende bereitgestellt werden. Auf umfangreiche Metadaten9 wurde dabei verzichtet. Für die webbasierte Import-Export-Schnittstelle werden folgende Daten publiziert: Bezeichnung

Kurzbeschreibung

URL

Format

Rahmenbedingungen

Klassifikation

Damit wird einerseits die interne Vernetzung der Teilprojekte weiter ausgebaut, und anderseits externe Anwender bei der gezielten Suche nach geeigneten Bausteinen unterstützt. Die Modularisierung förderte bereits die Mehrfachanwendung der Lernmaterialien z.B. in Schnupperunis für Frauen, Proseminaren und Projektgruppen. Lehrende betonen den Bildungswert durch alternative Beispiele und Zugänge zum Lerngegenstand. Ausgewählte Lernmaterialien wurden von verschiedenen Bundesländern in der Lehrerfortbildung angewandt und fanden so auch Einsatz im Informatikunterricht in Schulen.

3.

Empirische Studien

3.1 Realistische Ziele Es ist ein berechtigter Wunsch, dass jedes E-Learning-Projekt zeigen möge, wie erfolgreich es verläuft. Allerdings setzt das überprüfbare Erfolgskriterien voraus. Leicht messbar ist wirtschaftlicher Erfolg. Aus entsprechenden Studien weiß man jedoch auch, dass dieser selten eintritt: „Das vielfach angeführte Argument der möglichen Kostenreduktion durch die Virtualisierung ist heute noch nicht gültig.“10 Vielleicht findet man deshalb den Begriff „didaktischer Mehrwert“ in den Ausschreibungstexten der E-Learning-Förderprogramme. Die Frage nach dessen Messbarkeit ist schwerer zu beantworten. Lernprozesse werden prinzipiell mit sozialwissenschaftlichen Methoden untersucht. Häufig kommen zur Anwendung:

9 IEEE Standards Department (Hrsg.): Draft Standard for Learning Object Metadata, 2002. URL: http://ltsc.ieee.org/doc/wg12/LOM_1484_12_1_v1_Final_Draft.pdf, 17.9.2004. 10 Schulmeister, Rolf: Virtuelle Universität – Virtuelles Lernen. München 2001, S. 360.

LERNEN MIT INFORMATIKSYSTEMEN

175

• quantitative Studien, z.B. statistische Auswertung von Fragebögen, • qualitative Studien, z.B. narrative Interviews nach Gesprächsleitfaden. Empfohlen werden diese Verfahren für Akzeptanzstudien, die immer durchführbar sind. Zufriedenheit, Erwartungen und Erfahrungen der Lernenden können damit erkundet bzw. nachgewiesen werden. Die Entwicklerteams erhalten Rückschlüsse für neue Angebote. Im Simba-Projekt lieferten quantitative und qualitative Studien wertvolle Hinweise für die Gestaltung des Lernmaterials und die Verknüpfung von Präsenzlernen und E-Learning zu Blended Learning-Szenarios. Lernerfolgskontrollen finden täglich in Bildungseinrichtungen statt. Sie lassen aber in der Regel keine wissenschaftlich begründeten Rückschlüsse darauf zu, welche Maßnahmen den Lernprozess förderten oder hemmten. Gerade das möchte man aber für neue Bildungsmaßnahmen nachweisen. „The goals of the evaluation were to examine the process and progress that the learners were making, rather than just examining the end products.“11 In diesem Fall wird Evaluation im Sinne von Wirksamkeitsuntersuchung gefordert, die typischerweise eine Experimentalgruppe (zur Durchführung der neuen Maßnahmen) und eine Kontrollgruppe (ohne diese Maßnahmen) voraussetzt. Diese Gruppen müssen in allen anderen Eigenschaften tatsächlich vergleichbar sein.12 Ein solches Untersuchungsdesign ist keinesfalls immer realisierbar. Kritisiert werden müssen alle Erfolgsmeldungen zu Bildungsergebnissen, wenn das Untersuchungsdesign nicht offen gelegt wurde oder aus den erhobenen Daten ungerechtfertigte Verallgemeinerungen abgeleitet wurden. Solche Fälle nehmen mit der Verbreitung des E-Learnings natürlich auch zu. Ein solide ermittelte Aussage dazu, was man in Bildungsprozessen mit E-Learning nicht tun sollte, ist ein wichtiges wissenschaftliches Ergebnis. Es wird aber für entwicklungsorientierte Projekte fälschlicherweise häufig als Nachteil eingestuft. Im vorliegenden Beitrag wird für realistische Zielstellungen bei der Projektevaluation geworben.

11 Schrum, Lynne: „Dimensions of Student Success in Online Learning“, in: Deryn Watson/Jane Andersen (Hrsg.): Networking the Learner. Computers in Education. Boston 2002, S. 26. 12 Bortz, Jürgen/Döring, Nicola: Forschungsmethoden und Evaluation. 3. Aufl., Berlin 2002, S. 116ff.

SIGRID SCHUBERT

176

3.2 Quantitative Studien im Simba-Projekt Der Verbund entschied sich für entwicklungsprozessbegleitende Akzeptanzstudien, um die empirischen Ergebnisse für die Gestaltung des Lernmaterials zu nutzen. So fand z.B. eine anonyme, schriftliche Befragung im Wintersemester 2001/02 an der Universität Dortmund statt. Die Studierenden bewerteten eine webbasierte Simulations-Software zur Unterstützung des Grundstudiums der Rechnerarchitektur, deren Bereitstellung für das individuelle Üben vorbereitete wurde. Statistisch ausgewertet wurden folgende Daten: • allgemeine Angaben (Geschlecht, Alter, Tätigkeit vor Studienbeginn, Semesterzahl, Studiengründe, Erwartungen an das Studium), • Fragen zum Lernprozess: – Erwartungen an das Lernmaterial, – Bewertung des Schwierigkeitsgrades des Lerngegenstandes, – aufgetretene Probleme im Lernprozess (offene Antwort), – Sind Sie der Meinung, dass andere Lernmedien besser sind? (ja, nein, welche), – Würden Sie das Lernmaterial anwenden? (ja, nein). Schwierigkeitsgrad zu hoch richtig zu niedrig

17 Studentinnen 47,1 % 52,9 % -

19 Studenten 36,8 % 52,6 % 10,5 %

Tab.1 Bewertung des Schwierigkeitsgrades des Lerngegenstandes Die Erwartungen der Studierenden führten zu einer zielgruppenorientierten Erweiterung der Software und deren Integration in den Studienprozess (Blended Learning). Das Lernmaterial findet inzwischen internationale Anwendung.

3.3

Qualitative Studien im Simba-Projekt

Interviews mit ausländischen Studentinnen, die im zweiten Semester den Studiengang „Softwaretechnik“ absolvierten, fanden im Sommersemester 2002 an der Universität Stuttgart statt. E-Learning-Material des Projektes „Profunde Algorithmen“ war den Studentinnen bekannt. Das nar-

LERNEN MIT INFORMATIKSYSTEMEN

177

rative Interview nach Gesprächsleitfaden gliederte sich in drei Phasen: Einführung, Aufwärmphase, Haupterzählphase. In der Einführung wurden die Studentinnen über den Zweck des Interviews informiert und zum Aufwärmen um einige demographische Daten gebeten. In der Haupterzählphase beantworteten sie Fragen zu folgenden Erfahrungen bzw. Erwartungen im Studienprozess: • netzbasierte Kommunikation, • Webanwendungen und Webdokumente, • Anwendung von Audio und Video, • Animationen und Simulationen, • netzbasierte Gruppenarbeit, • E-Learning-Material. Ein Interview dauerte zwischen 30 und 45 Minuten. Die Interviews wurden auf Tonband aufgezeichnet und anschließend transkribiert, z.B.: • „In letzter Zeit haben wir Bäume durchgenommen, und da hat jemand eine Animation dafür geschrieben, und das war sehr hilfreich. Da konnte man doch gucken, ob so etwas aussieht, wie man es sich gedacht hatte. Es hat mir bei meinem Lernen was gebracht.“ • „Das ist schon sehr gut, aber allein aus der Simulation wäre es mir nicht klar geworden, wie es funktioniert. Da braucht man schon noch was anderes. Zum Beispiel die Beschriftung, was jetzt gerade passiert, oder der Vorgang, warum jetzt was passiert.“ • „Es dürfen auch nicht zu viele Informationen sein. Man darf nicht eine Definition nach der nächsten oder eine Satz nach dem nächsten bekommen, sondern immer schöne Stückchen oder Häppchen bekommen, aufeinander aufbauend.“ • „Ein Statistikteil wäre auch nicht schlecht. [...] Gesprochen müssen die Themen nicht sein, wie ein Skript, nur Skripte finde ich viel zu trocken. Einfache Sprache und anschaulich durch Beispiele, Bilder, nicht so viel Fachsprache.“ Neu war für das Simba-Team, dass bei Informatikstudentinnen kaum von Vorerfahrungen im Bereich E-Learning ausgegangen werden kann. Mittels Clustering der Antworten wurde die Interpretation der empirischen Ergebnisse vorbereitet. Das führte zur Entdeckung und Gestaltung von alternativen Zugangsmöglichkeiten zum Lernmaterial, mit denen eine Vielfalt unterschiedlicher Erkenntniswege, individueller Interessen und Neigungen der Lernenden angesprochen wird. Die Erwartungen der Stu-

SIGRID SCHUBERT

178

dentinnen an die multimediale Aufbereitung der Lerngegenstände beeinflusst also den Entwicklungsprozess des Lernmaterials im Simba-Projekt ganz wesentlich. Deshalb werden die empirischen Studien systematisch fortgesetzt.

4.

Didaktik der Informatik

4.1 Entwicklung von Informatiksystemen für Bildungsprozesse Die Bemühungen, gute Bildungssoftware zu entwickeln, zeigten: Kaum ein anderer Anwendungsbereich bereitet der Informatik solche Probleme wie der Bildungsbereich. Es existieren hochkomplexe Informatiksysteme für die Konstruktion, die Bewertung und den Transfer von Wissensbeständen durch Einzelpersonen und Personengruppen. Diese setzen aber ein hohes Niveau des menschlichen Wissens im jeweiligen Fach, z.B. der Medizin, bei den Anwendern voraus. Es sind typische Arbeitsmittel in der Wissensgesellschaft. Experten lernen indirekt damit, verbessern so ihr Wissen. Für Anfänger in einem Fach sind sie kaum geeignet. Die Qualität der Präsentation von digitalem Lernmaterial hat sich deutlich verbessert. Man denke an multimediale Lexika zur Geographie, Biologie und Geschichte. Dieses Material kann in vernetzten Datenbeständen verwaltet und über spezielle Informatiksysteme, so genannte Lernplattformen, verteilt werden. Damit wird aber noch kein Lernprozess initiiert. Eine gelungene Präsentation ist eine notwendige, aber keine hinreichende Bedingung für das Lernen. In der direkten Begegnung von Lehrenden und Lernenden gelingt das Lernen unter günstigen Bedingungen. Lernen ist ein komplizierter Prozess, in dem es auf die eigene Anstrengung des Lernenden, exzellente Lehrpersonen, Kommunikation und Kooperation mit anderen Menschen ankommt. Informatiksysteme können den Lernenden die eigene Anstrengung nicht abnehmen. Diese Erwartung wird häufig beim Käufer digitaler Lernmaterialien geweckt und natürlich enttäuscht. Wissensbasierte Informatiksysteme für den Bildungsbereich, auch „Intelligente Lernsysteme“ genannte, bieten Adaptivität an, d.h. ein solches System passt sich dem Lernenden an (z.B. Konfiguration der Oberfläche, Auswahl des Schwierigkeitsgrades, Auswahl des Lernweges, Modifikation des Lernmaterials). Es besteht die Gefahr der Fehleinschätzung des Lernenden. Da das System den Lernprozess steuert, tritt nicht

LERNEN MIT INFORMATIKSYSTEMEN

179

selten Frustration bei Lernenden auf. Einem hohen Entwicklungsaufwand steht Unsicherheit über den Bildungseffekt gegenüber. Missverständlich wird die konstruktivistische Lerntheorie so interpretiert, als wäre sie besonders leicht mit E-Learning zu realisieren: „Der Konstruktivismus begreift Lernen als aktiven, dynamischen Prozess, bei dem neue Inhalte in die vorhandenen Wissensstrukturen eingebaut werden, und entwickelt Lehrverfahren, die die Integration der neuen Inhalte unterstützen.“13 Betont wird dabei das aktive Handeln der Lernenden. Das ‚Klicken‘ von Bedienelementen einer Bildungssoftware ersetzt oder erleichtert das Denken jedoch nicht. Informatiksysteme ermöglichen sehr unterschiedliche Niveaustufen der Interaktion, z.B.: • Navigation im Lernmaterial, • Eingabe von digitalen Notizen des Lernenden zum Lernmaterial, • Eingabe von Aufgabenlösungen: Auswählen von Werten aus einer festen Menge oder Interpreter für freie Eingaben erforderlich, • Planen und Umsetzen von Explorationsstrategien, • Planen und Durchführen von Software-Experimenten. Softwaretechnische Konzepte für E-Learning sind nach wie vor ein komplizierter Forschungsgegenstand. Vorerst gilt: Schlechte Didaktik ist leicht zu programmieren, und anspruchsvolle Didaktik ist schwer oder überhaupt nicht programmierbar. Um die Wiederverwendbarkeit von Lernmaterialien zu erhöhen, geht der Trend zur Modularisierung von Lernangeboten. Die Anwendung dieser Elemente wird mit Metadaten (Deskriptoren) beschrieben. „Die Standardisierung solcher Deskriptoren, etwa für die Auszeichnung von XML14-Dokumenten, wird zur Zeit in verschiedenen Komitees verfolgt.“15

4.2

Forschungsgegenstand der Didaktik der Informatik

Dieses Teilgebiet der Informatik untersucht Informatiksysteme als Lerngegenstand und Lernmedium. Die Siegener Fachgruppe „DIE – Didaktik

13 Bruns/Gajewski 2002, S.17. 14 XML (extended markup language) ist eine Dokumentenbeschreibungssprache. 15 Kerres, Michael: Multimediale und telemediale Lernumgebungen. 2. Aufl., München 2002, S. 372.

SIGRID SCHUBERT

180

der Informatik und E-Learning“16 konzentriert sich auf folgende Forschungsschwerpunkte: • Konzepte für Informatikunterricht und Lehrerbildung (z.B. Konzept der Didaktischen Systeme)17, • Evaluation dieser Bildungskonzepte, • Konzepte zur Verknüpfung von Präsenzlehre und E-Learning zu Blended Learning18 – Fördern von Explorationsstrategien19: – Sichtenwechsel auf Lerngegenstand, – Konstruktion von Lösungen, – Verknüpfen von Lösungselementen, – Bewerten von Modellen, • Entwicklung von Software-Experimenten20. Diese Schwerpunkte sind im Zusammenhang zu sehen, d.h. sie ergänzen sich sehr gut. Ein Erfolg versprechender Ansatz zur Verbesserung der Bildung allgemein, auch der informatischen Bildung, ist Blended Learning, die Verbindung traditioneller Lernszenarios mit E-LearningPhasen. Solche E-Learning-Phasen setzen eine Selbstregulation von Lernaktivitäten voraus, die für Experiment und Exploration typisch sind. 16 URL: http://www.die.informatik.uni-siegen.de, 17.9.2004. 17 Vgl. Brinda, Torsten/Schubert, Sigrid: „Didactic System for Object-oriented Modelling“, in: Deryn Watson/Jane Andersen (Hrsg.): Networking the Learner. Computers in Education. Boston 2002a, S. 473-482. URL: http://www.die.informatik.uni-siegen.de/gruppe/schubert/2002.html, 1.9.2004; Humbert, Ludger: „Grundkonzepte der Informatik und ihre Umsetzung im Informatikunterricht“, in: informatica didactica, Jg. 1 (2000), Nr. 1. URL: http://www.informatica-didactica.de, 17.9.2004. 18 Vgl. Brinda, Torsten/Schubert, Sigrid: „Learning aids and learners’ activities in the field of object-oriented modelling“, in: Don Passey/Mike Kendall (Hrsg.): TelE-LEARNING. The Challenge for the Third Millennium. Boston 2002b. URL: http://www.die.informatik.uni-siegen.de/ gruppe/schubert/2002.html, 17.9.2004. 19 Vgl. Brinda, Torsten/Schubert, Sigrid: „Exploration of Object-Oriented Models in Informatics Education“, in: Tom van Weert/Bob Munro (Hrsg.): Informatics and the digital society. Boston 2003, S. 109-118. URL: http://www.die.informatik.uni-siegen.de/gruppe/schubert/2003.html, 1.9.2004; Schubert, Sigrid: „A new qualification and certification for specialist ICTteachers“, in: Carolyn Dowling/Kwok-Wing Lai (Hrsg.): ICT and the Teacher of the Future. Boston 2003, S. 85-95. 20 Vgl. Steinkamp, Dirk: Informatik-Experimente im Schullabor. Diplomarbeit, Fachbereich Informatik, Universität Dortmund, 1999.

LERNEN MIT INFORMATIKSYSTEMEN

181

Beide, Experiment und Exploration, erfordern besonderes Lernmaterial für die aktive Auseinandersetzung mit dem Lerngegenstand. Bevor dieses Lernmaterial entwickelt werden kann, sind die didaktischen Anforderungen zu erkunden: „Da Systeme der Informatik oft unüberschaubar sind, überprüft man gewisse Eigenschaften durch Experimente.“21 Der Experimentbegriff setzt sich in der Informatik erst allmählich durch. Deshalb konzentrierten wir uns im ersten Schritt auf die Exploration und fanden Ergebnisse (Standardfälle für Lernprozesse mit Informatiksystemen), die auf andere Fächer übertragbar sind.

Abb. 1: Sichtenwechsel zwischen Objektdiagramm und Klassendiagramm Ein solcher Standardfall ist der Sichtenwechsel auf den Lerngegenstand. Beispielsweise gelingt im Informatikunterricht die Entwicklung eines Klassendiagramms für den objektorientierten Entwurf einer Bibliotheksverwaltung vielen Lernenden leichter, wenn sie in diesem Abstraktionsprozess zur Sicht auf das anschaulichere Objektdiagramm wechseln können, das wesentlich näher am Anwendungsszenario ist (vgl. Abb. 1). Ein solches Objektdiagramm wird aber nicht automatisch von Entwicklungswerkzeugen angeboten. Analoge Anforderungen zur schrittweisen Entwicklung von abstrakten Zusammenhängen treten in vielen Fachgebieten auf. Hier liegt eine Stärke des Lernens mit Informatiksystemen.

21 Claus, Volker/Schwill, Andreas: Duden Informatik. 3. Aufl., Mannheim 2001, S. 233.

SIGRID SCHUBERT

182

Deshalb ist Bildungssoftware für den Sichtenwechsel prinzipiell empfehlenswert. Einen zweiten Standardfall bildet die Konstruktion von Lösungen. In der Informatik wird z.B. die Neustrukturierung eines objektorientierten Entwurfes erleichtert, wenn man das Klassendiagramm editieren, d.h. leicht modifizieren, kann. Im Konstruktionsprozess steht häufig das Verknüpfen von Lösungselementen im Mittelpunkt. Das Modellieren mit abstrakten Strukturen ist eine weitere Stärke beim Lernen mit Informatiksystemen. Viele Fachgebiete werden bereits bei solchen Prozessen in der Arbeitswelt unterstützt. Für den Lernprozess fehlen häufig Systeme mit zielgruppengerechter Funktionalität und Komplexität. Im Informatikunterricht sind fehlerhafte oder unvollständige Lösungsentwürfe (z.B. Klassendiagramme) vom Lernenden zu korrigieren. Im Sequenzdiagramm kann man die ‚Spur‘ (Trace) des Lösungsprozesses verfolgen (vgl. Abb. 2). Eine solche Anzeige erleichtert den Soll-IstVergleich und damit die Bewertung und eventuelle Korrektur des Entwurfes wesentlich. Solche Trace-Mechanismen, die die Konsequenzen von Lösungsplänen oder Teillösungen veranschaulichen, sind in vielen Fachgebieten sinnvoll und möglich. Damit wurde ein dritten Standardfall identifiziert, das Bewerten von Modellen durch den Lernenden, das nicht automatisierbar ist, aber ausgezeichnet mit Informatiksystemen unterstützt werden kann.

anzeigen()

Abb. 2: Vergleich von Sequenzdiagramm und Klassendiagramm

LERNEN MIT INFORMATIKSYSTEMEN

183

Informatiksysteme können auf diese Weise Lernerzentrierung, authentische und komplexe Anwendungssituationen, Perspektiven- und Rollenwechsel fördern. Sie bilden die Basis für E-Learning. Leider wird mit dem Begriff ‚Neue Medien‘ der Bedarf an informatischer Bildung bei Entwicklern und Anwendern von E-Learning verschleiert. Als Resultat „entsteht im Internet eine überwiegend textlastige Welt.“22

5.

Explorationsmodule

Ziel ist die Entwicklung von Bildungssoftware, die vollständig vom Lernenden gesteuert wird. Ohne seine Aktivität laufen auch keine Systemprozesse ab. Der Lernende kann nicht ziellos durch multimediale Präsentationen navigieren. Es bedarf zumindest einer fachlich fundierten Hypothese zum Lerngegenstand, um die Interaktion mit dem Lernmaterial zu starten. Die Arbeit mit einem Explorationsmodul wird motiviert aus dem Wunsch des Lernenden mit Elementen zu agieren, die auf Grund ihrer Abstraktion oder Komplexität mit anderen Lernmaterialien schwerer erfassbar oder schwerer darstellbar sind. „Exploratives Lernen (= entdeckendes, forschendes oder autonomes Lernen) weist eine hohe Selbstverbindlichkeit auf.“23 Um Verwechslungen mit der Versuch-Irrtum-Strategie zu vermeiden, wird der mögliche Gedankenverlauf eines Lernenden skizziert (vgl. Abb. 3). Keinesfalls ist daran gedacht, solche Handlungsszenarios zu programmieren. Allerdings benötigt der Lernende geeignete Software für seine Entdeckungsreisen im Sinne des explorativen Lernens. Wir bezeichnen diese spezielle Software für E-Learning als Explorationsmodule.24 Hypothese modifizieren nein neues Experiment

Hypothese aufstellen

Auswahl des Folgezustandes zi

Bewertung des Ergebnisses Ergebnis

Abb. 3: Lernen durch Exploration

22 Schulmeister 2001, S. 357. 23 Kerres 2002, S. 217. 24 Vgl. Brinda/Schubert 2002b.

Ziel erreicht?

ja

SIGRID SCHUBERT

184

Im Informatikunterricht eignen sich professionelle Software-Entwicklungswerkzeuge prinzipiell nicht zum Lernen aus Fehlern. Die Arbeitswelt erfordert Hilfsmittel für die zügige Produktentwicklung, die Fehler verhindern. Die Entwicklung geeigneter Unterrichtsmittel ist deshalb eine wichtige Aufgabe der Didaktik der Informatik. Das System „LeO – Lernumgebung für objektorientiertes Modellieren“ stellt eine Sammlung von Explorationsmodulen dar, mit denen objektorientiertes Modellieren (OOM) gefördert werden kann.25 Es ist keine Selbstlernsoftware. Sie muss in den Informatikunterricht integriert werden, erlaubt dort Blended Learning. Dieses Ergebnis der studentischen Projektgruppe LeO wurde im Studienjahr 2001/02 am Fachbereich Informatik der Universität Dortmund von Studierenden des Informatikhauptstudiums entwickelt. Das System wurde im Schuljahr 2002/03 im Informatikunterricht eingesetzt und bekam von den Lernenden eine gute Akzeptanzbewertung. Die Explorationsmodule zeigen die Wirkung der Lernhandlung und helfen dabei, Fehler als wertvollen Lernschritt anzuerkennen. Die Lernenden wählen Beispiele und verschiedene Sichten darauf aus: Anwendungsszenario, Objektdiagramm, Klassendiagramm, Sequenzdiagramm und Programmiersprache. Mit den Elementen dieser je nach Sichtwahl anschaulichen oder abstrakten Lernwelt können die Lernenden Aktionen ausführen, von denen sie erwarten, dass sie danach wünschenswerte Eigenschaften aufweisen.

6.

Schlussfolgerungen

6.1 Offenlegen des Lernprozesses Aus den vorgestellten Beispielen wird deutlich, dass die Offenlegung des Lernprozesses zu neuen Lernszenarios führen kann. Die Lehrperson wird entlastet von den immer wiederkehrenden Präsentationsaufgaben. Dafür wird deutlich mehr Einsatz gefordert, um die Lernziele so ausführlich zu begründen, dass die Lernenden erkennen: • Welche Wahlmöglichkeiten habe ich? – Was ist verpflichtendes Fundament? – Welche Vertiefungen kann ich wählen? • Welche Kompetenzen sind erforderlich 25 URL: http://die.et-inf.uni-siegen.de/pgleo/download/download.html, 17.9.2004.

LERNEN MIT INFORMATIKSYSTEMEN

185

– zur Bewältigung aktueller Anforderungen? z.B.: – für Aufgaben der Fächerverbindung (a1), – für Aufgaben mit Lebensweltbezug (a2), – zur Bewältigung künftiger Anforderungen? z.B.: – zur Erlangung von Zertifikaten (b1), – zum Verständnis von Berufsbildern (b2), – als Vorbereitung auf das lebensbegleitende Lernen (b3). Zur Begründungen von Lernzielen werden zu oft b1 und b2 verwendet. Die Möglichkeiten und Notwendigkeiten von a1, a2 und b3 werden noch zu wenig genutzt. Konsequenterweise führt das zu differenzierteren Lernprozessen, die aber nicht automatisch entstehen. Die Lehrperson muss den Lernenden Alternativen aufzeigen, diese zum Teil auch bewusst von den Lernenden organisieren lassen: • Welche verteilten Lernorte und Medien passen zu meinen Zielen? – Gemeinsam bereiten Lehrperson und Lerngruppe Präsenzphasen vor. – Lernende werden beim Einsatz von Informatiksystemen für ihren individuellen Lernprozess beraten. • Welche verteilte Lernorganisation habe ich vorzunehmen? – Dazu beherrschen die Lernenden adäquate Vorgehensweisen. – Sie können Schwerpunkte selbst setzen und verändern. – Sie unterscheiden verschiedene Sichten auf einen Lerngegenstand. – Sie wählen Beispiele aus und modifizieren diese bei Bedarf. – Sie präsentieren eigene Lösungen und reflektieren diese kritisch. Mit zunehmendem Alter der Lernenden sind die überlieferten Stundenpläne zu starr. Auf verbindliche Termine und Leistungen wird keineswegs verzichtet. Allerdings eignen sich Zeiteinheiten (z.B. Semesterwochenstunden) immer weniger als Maß für die geforderte Tätigkeit von Lehrenden und Lernenden. Es kann keiner Lehrperson zugemutet werden, für die Betreuung ihrer Lerngruppen eine 24stündige Telekommunikationshotline zu betreiben. Die Erwartungen an individuelle Betreuung müssen realistischer gestaltet werden. Es ist sorgfältig zu erkunden, wie viele Fachprobleme welcher Komplexität ein Tutor in welcher Zeit moderieren bzw. klären kann. Hier wird für eine besser strukturierte Betreuung plädiert:

SIGRID SCHUBERT

186

• Alle Anfragen, die auf mangelnde Vorbereitung des Lernenden zurückzuführen sind, sollten mit Verweis auf die einschlägige Literatur zurückgewiesen werden können. • Bei immer wiederkehrenden, typischen Lernschwierigkeiten, die in einem Fachgebiet hinreichend bekannt sind, können in einer Datenbank gesammelte Antworten zum Einsatz kommen. • Für wirklich anspruchvolle Diskussionen setzt der Tutor seine Leistung ein. Vorstellbar ist, dass jeder Lernende ein Betreuungskonto besitzt, das ihn motiviert, seine Betreuungseinheiten sinnvoll und verantwortungsbewusst einzusetzen bzw. andere Lernende zu unterstützen, um seine Ansprüche auf Betreuung kontinuierlich aufzufüllen. Damit kann ebenso jahrgangstufen- und kursübergreifendes Lernen gefördert werden. Es gibt bereits Spielgemeinschaften, in denen das Stellen und Beantworten besonders wertvoller Fragen zu Bonuspunkten führt. Der Ansatz lässt sich gut auf Lerngemeinschaften übertragen.

6.2

Aktivitäten fördern

Jeder Bildungsprozess weist die erwarteten Aktivitäten der Lernenden aus. Nicht alle Aktivitäten sind überprüfbar. Man denke z.B. an die Vorund Nachbereitungszeiten, die Studierende für Vorlesungen aufwenden sollen. Wir neigen dazu, traditionelle Lernprozesse zu idealisieren. Für Vorlesung und Frontalunterricht gilt: Wirklich aktiv war der Lehrende. Über mögliche Aktivitäten der Lernenden in Lehrveranstaltungen für große Gruppen können wir nur Vermutungen anstellen. Aus vielen E-Learning-Projekten wissen wir, dass es zu Engpässen in der Betreuung kam, da die Fragen und Aktivitäten der Lernenden das erwartete Maß überstiegen. Allerdings zeigt sich keine gleichmäßige Erhöhung der Aktivität bei allen Lernenden. Im Gegenteil, die Aktiven werden noch aktiver. Sie können jetzt fast grenzenlos Fragen stellen und agieren. Die Passiven fallen noch weniger auf, wenn nicht tatsächlich die Aktionen gemessen und analysiert werden. Dazu kommen natürlich auch viele Fragen, die auf die neue, noch ungewohnte Lernsituation bzw. die fehlende informatische Bildung26 der Lernenden zurückzuführen sind. Bei Blended Learning muss nicht jede Aktivität der Lernenden in der E-Learning-Phase stattfinden. Aus den aufgezeigten Beispielen leiten 26 Dies wird häufig mit Medienkompetenz verwechselt.

LERNEN MIT INFORMATIKSYSTEMEN

187

sich vier Schwerpunkte ab, bei denen Lerntätigkeiten mit E-Learning besonders gefördert werden können: • Übung: Der Übungsprozess kann vielfältiger und attraktiver werden, wenn: – der Beispielvorrat umfangreich genug ist (Datenbank). – die Lösungswege gut dokumentiert wurden. – die Klassifikation der Aufgaben den Transfer der Lösungen unterstützt. • Test: Der Lernende kann selbst seinen Lernfortschritt kontrollieren bzw. vor Prüfungen trainieren, vorausgesetzt die Testanforderungen sind anspruchsvoll genug dafür. • Exploration und Experiment: – Der Lernende kann Zugang zu entfernten Bereichen, z.B. Physikexperimenten an anderen Standorten erhalten. – Es sind Aktionen möglich, um Gedankenexperimente anschaulich durchzuführen. – Mit künstlichen Systemen kann experimentiert werden. • Projektarbeit: – Die Projektgruppe dokumentiert ihren Lernprozess über eine Versionsverwaltung der Zwischenergebnisse mit einem Informatiksystem, z.B. einer so genannten Groupware. – Für alle Gruppenmitglieder wird transparent, wer den Lernprozess wie gestaltet und wie die Komplexität verteilt wurde. – Die Teilnahme kann nicht die inhaltlichen Beiträge eines Lernenden ersetzen.

6.3 Abstraktion behutsam entwickeln E-Learning fördert die Bereitstellung von Anwendungsbeispielen mit Lebensweltbezug in Form von multimedialen Dokumenten oder durch netzbasierte Lerngemeinschaften mit Praxispartnern. Die Visualisierung von verborgenen Wirkprinzipien wird möglich mittels Grafik, Animation, Simulation. Der Lernende kann Interaktionen zum Kennen lernen von Faktoren im System durchführen, ohne Schaden anzurichten oder zu nehmen. Die schrittweise Formalisierung mit Rückbezug zur Veran-

188

SIGRID SCHUBERT

schaulichung erleichtert den Abstraktionsprozess. Die Anwendbarkeit der Abstraktion kann vorgeführt oder vom Lernenden selbst erprobt werden. Alles was das Lehrbuch so ausgezeichnet kann, darf nicht auf schlechterem Niveau unter der Bezeichnung E-Learning erscheinen.

ÖKONOMISCHE PROZESSE

WOLFGANG KÖNIG, TIM WEITZEL

ÖKONOMISCHE ANALYSE VON NETZEFFEKTEN1 1.

Einleitung „If the dominant symbol of the industrial economy is a factory, then the emblem of the 2 modern economy is a network.“

Das 20. Jahrhundert war gekennzeichnet durch eine steigende Bedeutung nachfrageseitiger Skaleneffekte, die in sehr unterschiedlichen Kontexten als positive Netzeffekte diskutiert werden. Die Bedeutung von Netzeffekten resultiert in vielen Fällen aus Kompatibilitätserfordernissen. Daher spielen Netzeffekte eine zentrale Rolle als Wertbeitrag im E-Business und werden großenteils in der Literatur über Standards untersucht.3 Nach einer allgemeinen Definition ist Electronic Business jede geschäftliche Transaktion, deren Teilnehmer elektronisch interagieren. Im Gegensatz zu Electronic Commerce, bei welchem der Endkundenkontakt (Businessto-Consumer, B2C) im Vordergrund steht, handelt es sich dabei um die digitale Abwicklung von Geschäftsprozessen (in und) zwischen Unternehmen.4 Eine grundlegende Fragestellung des E-Business liegt entspre-

1 Nachdruck des Beitrags „Netzeffekte im E-Business“, in: W. Uhr/W. Esswein/E. Schoop: Wirtschaftsinformatik 2003, Medien – Märkte – Mobilität, Bd. 1. Heidelberg u.a. 2003, S. 9-34. Mit freundlicher Genehmigung des Physica-Verlags. 2 Mauboussin, M.J./Schay, A./Kawaja, S.G.: „Network to Net Worth“, in: Credit Suisse First Boston, Equity Research, Frontiers of Finance, vol. 5 (2000). URL: http://www.capatcolumbia.com/Articles/FoStrategy/Ni1924.pdf. 3 Weitzel, T.: Economics of Standards in Information Networks. New York/ Heidelberg 2003. 4 Weitzel, T./Harder, T./Buxmann, P.: Electronic Business und EDI mit XML. Heidelberg 2001; Schinzer, H.: „Electronic Commerce“, in: P. Mertens u.a.. (Hrsg.): Lexikon der Wirtschaftsinformatik. 3. Aufl., Berlin 1997.

192

WOLFGANG KÖNIG, TIM WEITZEL

chend in der geeigneten Vernetzung verschiedener Akteure und Systeme mit dem Ziel, Netzeffekte zu realisieren. Während bis Mitte des letzten Jahrhunderts, getrieben durch den Ersten Weltkrieg, der Schwerpunkt der meisten Standardisierungsaktivitäten auf produktionsseitiger Vereinheitlichung lag (Reduktion von Produkt- und Prozessvielfalt), wandelte sich der Fokus später in Richtung Kompatibilitätsstandards. Brian Arthur nennt dies den Wechsel von „Alfred Marshall’s World“ zu einer „Increasing-Returns World“5. Da Standards Kompatibilität ermöglichen und damit die Grundlage zur Nutzung vieler Synergien sind6, spricht man davon, dass Standards Netzwerke von Nutzern konstituieren7. Prominente Beispiele aus der Standardisierungsliteratur sind Schienenbreite bei Eisenbahnen, Schraubendurchmesser, Kernkraftwerke, Tatstaturanordnungen, VCR-Systeme, Web-Browser, SSO-Software, EDI-Netze und Office-Software.8 Dabei entsteht ein Netzeffekt im Eisenbahnbeispiel durch die Normung von Schienenbreite als Grundlage der Verwendung fremder Schienennetze9 und das Schraubenbeispiel beschreibt in ähnlicher Weise das Zusammenpassen (Interoperabilität) von Schrauben und Schraubenziehern. Andere Netzeffekte finden sich zwischen elektrischen Geräten und Stromspannungen, Kraftfahrzeugen und Betriebsmitteln oder Videorekordern und Kassetten.10 5 Arthur, W.B.: „Increasing returns and the new World of business“, in: Harvard Business Review, Jg. 1996, Nr. 74, S. 100-109. 6 Gabel, H.L.: Product Standardization and Competitive Strategy. Amsterdam 1987; ders.: Competitive Strategies for Product Standards. London 1991; Farrell, J./Saloner, G.: „Competition, compatibility, and standards: The economics of horses, penguins, and lemmings“, in: H.L. Gabel (Hrsg.): Product standardization and competitive strategy. Amsterdam 1987, S. 121; Niggl, J.: Die Entstehung von Electronic Data Interchange Standards. Wiesbaden 1994; Kleinaltenkamp, M.: Standardisierung und Marktprozeß – Entwicklungen und Auswirkungen im CIM-Bereich. Wiesbaden 1993. 7 Besen, S.M./Farrell, J.: „Choosing How to Compete: Strategies and Tactics in Standardization“, in: Journal of Economic Perspectives, Jg. 8 (1994), Nr. 2, S. 117-131; David, P.A./Greenstein, S.: „The economics of compatibility standards: An introduction to recent research“, in: Economics of Innovation and New Technology, Jg. 1 (1990), S. 3-41. 8 Weitzel, T./Westarp, F.v.: „From QWERTY to nuclear power reactors: Historic battles for the standard“, in: K. Geihs/W. König/F. v. Westarp (Hrsg.): Networks – Standardization, Infrastructure, and Applications. Berlin/New York 2002, S. 33-61; Weitzel 2003. 9 Kindleberger, C.P.: „Standards as Public, Collective and Private Goods“, in: Kyklos – International Review for Social Sciences, Jg. 36 (1983), Nr. 3, S. 377-396. 10 Plummer, A.: New British Industries in the Twentieth Century. London 1937; Warren, M.E./ Warren, M.: Baltimore – when she was what she used

ÖKONOMISCHE ANALYSE VON NETZEFFEKTEN

193

Weitere bedeutende Beispiele wie EDI-Netze zum automatisierten Geschäftsdatenaustausch und Verzeichnisdienste fokussieren mehr auf den direkten Informationsaustausch, während die Beispiele aus dem Bereich von Kernreaktoren (Leichtwasser- vs. Schwerwasser- vs. Gas-Graphitreaktoren)11 stärker den Lernkurveneffekt der Technologieentwicklung als Grundlage haben. Habermeier unterscheidet zwischen Effekten auf Grund von Netzwerkteilnahme („joining a well-established network“), informationalen Skaleneffekten (z.B. Markenbekanntheit), Komplementäreffekten (Videorekorder und Kassette) und dynamischen Lerneffekten (je mehr eine Technologie genutzt wird, desto stärker wird sie optimiert und ihre Vorteile werden erkennbar).12 In diesem Beitrag sollen die als direkte Netzeffekte13 bekannt gewordenen Interoperabilitätsvorteile aus Netzwerkteilnahme untersucht werden, die insbesondere im E-Business-Kontext durch IuK-gestützte Vernetzung Kooperationsvorteile ermöglichen. Wie in EDI-Netzen und auch betrieblichen Intranets können so Partner „participate in networks that allow them to share databases, have access to large selections of compatible software, exchange documents […] or simply communicate directly“.14 Auch wenn die Metapher Netzwerk zur Beschreibung unterschiedlichster vorteilhafter Strukturen zwischen Akteuren in Theorie wie Praxis weit verbreitet ist, gibt es übergreifende, netzwerkspezifische Koordinationsprobleme, die aus der Existenz von Netzeffekten resultieren und möglicherweise neue Koordinationskonzepte im E-Business erfordern. Gegenstand diese Beitrages ist eine ökonomische Analyse der Existenz und Effizienz von Gleichgewichten in den beschriebenen Kooperationsnetzen bei unterschiedlichen grundsätzlichen Koordinationsrahmenbe-

11 12

13

14

to be, 1850-1930. Baltimore 1983; Hemenway, D.: Industry wide voluntary product standards. Cambridge, Mass. 1975; Gerwin, J./Höcherl, I.: „Video 2000: Strategische Produktpolitik bei internationalem Wettbewerb“, in: K. Brockhoff (Hrsg.): Management von Innovationen: Planung und Durchsetzung; Erfolge und Misserfolge. Wiesbaden 1995, S. 17-44, S. 217-244; Bundesumweltministerium/Bundesumweltamt (Hrsg.): So geht’s auch! Gasantrieb. Bonn 1998. Cowan, R.: „Nuclear Power Reactors: A study in technological lock-in“, in: The Journal of Economic History, Jg. 50 (1990), Nr. 3, S. 541-567. Habermeier, K.F.: „Competing technologies, the learning curve, and rational expectations“, in: European Economic Review, Jg. 33 (1989), S. 1293-1311. Katz, M. L./Shapiro, C.: „Network externalities, competition, and compatibility“, in: The American Economic Review, Jg. 75 (1985), Nr. 3, S. 424440. Besen/Farrell 1994, S. 117-131.

WOLFGANG KÖNIG, TIM WEITZEL

194

dingungen (zentrale versus dezentrale Steuerung). Hierzu wird in Kapitel 2 ein Überblick über die wichtigsten Erkenntnisse in der Netzeffektliteratur gegeben und diese in Kapitel 3 zu einem Forschungsrahmen für Kooperationsnetze, wie sie typischerweise in E-Business-Kontexten zu finden sind, weiterentwickelt. Hierauf aufbauend zeigt eine Computersimulation in Kapitel 4 vielversprechende Resultate bezüglich der prinzipiellen Lösbarkeit „klassischer“ Netzwerkprobleme wie insbesondere des Start-up-Problems. Ein zentrales Ergebnis besteht darin, dass häufig eine Vielzahl individueller Netzwerkakteure bei zentraler Koordination am besten gestellt ist und dass grundlegende Koordinationsprobleme im EBusiness durch vergleichsweise einfache Lösungsansätze adressiert werden können.

2.

Netzeffekte als theoretische Grundlage

2.1 Netzeffekte als Externalitäten Für viele Märkte gilt, dass Kaufentscheidungen eines Konsumenten die Entscheidungen anderer beeinflussen. In der klassischen ökonomischen Literatur werden derartige Interdependenzen wie Bandwagon-, Snobund Veblen-Effekte ausführlich diskutiert.15 Darüber hinaus unterliegen bestimmte Märkte sog. Netzeffekten oder nachfrageseitigen Skalenerträgen. Dies impliziert einen positiven Zusammenhang zwischen der Bereitschaft, Netzeffektgüter zu adoptieren, und der Anzahl sonstiger Nutzer dieses Gutes. Prominente Beispiele sind Märkte für IuK-Technologien oder auch das Telefon.16 Der Nutzen, ein Telefon zu besitzen, ist abhängig von der Anzahl der Personen, die hiermit erreicht werden können. Im 15 Leibenstein, H.: „Bandwagon, snob, and Veblen effects in the theory of consumers demand“, in: Quarterly Journal of Economics, Jg. 64 (1950), Nr. 2, S. 183-207; Ceci, S.J./Kain, E.L.: „Jumping on the bandwagon: The impact of attitude polls on polling behaviour“, in: Public Opinion Quarterly, Jg. 46 (1982), S. 228-242. 16 Die wettbewerbliche Bedeutung von Standards liegt darin, dass Standards konstituierendes Element von Netzen sind und somit notwendige Voraussetzung der Realisierung der hiermit verbundenen Nutzenpotentiale. Daher ist Kompatibilität auch eine Aktionsvariable der Hersteller von Netzeffekten unterliegenden Produkten, da sie Entscheidungen über das Ausmaß der Kompatibilität mit anderen Produkten womöglich konkurrierender Anbieter treffen müssen. Hohe Kompatibilität zu Konkurrenzprodukten bzw. zu gleichen Standards komplementäre Produkte erlauben das Nutzen fremder installed bases. Allgemein können Standards daher Wettbewerb von einem intertechnologischen zu einem intratechnologischen Kampf verlagern.

ÖKONOMISCHE ANALYSE VON NETZEFFEKTEN

195

Zuge der rasanten Entwicklung und wachsenden Bedeutung von IuKTechnologien in den letzten Jahren entstand eine eigene Forschungsrichtung mit dem Ziel, die mit positiven Netzeffekten einhergehenden Phänomene zu erklären und ihre Implikationen für (marktliche) Koordination und Effizienz zu untersuchen. Die ersten richtungsweisenden Beiträge zu diesem vergleichsweise jungen Forschungsgebiet, das nachfolgend als Theorie der positiven Netzeffekte bezeichnet wird, stammen aus der ersten Hälfte der achtziger Jahre und untersuchen Standards aus dem Blickwinkel der Diffusion technologischer Innovationen. Die zentrale Problematik besteht darin, dass Netzeffekte als positive, konsumseitige Externalitäten pareto-inferiore Marktergebnisse implizieren können. Katz und Shapiro17 führen eine Unterscheidung zwischen direkten und indirekten Netzeffekten ein. Direkte Netzeffekte beschreiben demnach einen direkten Zusammenhang zwischen Nutzerzahl und Wert eines Netzeffektgutes („direct physical effect“18), wie dies beim Telefon der Fall ist. Dagegen resultieren indirekte Netzeffekte aus Interdependenzen im Konsum komplementärer Güter, Beispiele sind das Beratungsangebot im Umfeld von Standardsoftware oder das Zusammenspiel von Betriebssystemen und Anwendungssoftware. Da Kompatibilität bzw. Standardisierung allgemein nur im Zusammenhang mit anderen gesehen werden kann, sind Märkte, auf denen Kompatibilität eine wichtige Produkteigenschaft ist, stets auch Märkte, auf denen starke Netzeffekte zu finden sind. Kindleberger19 beschreibt aus dem Öffentlichen-GutCharakter von Standards (Netzwerkexternalitäten) resultierende Freerider-Probleme, die sich z.B. aus der Schwierigkeit ergeben, wer die Kosten von Standardisierungsbemühungen tragen soll, wenn die Ergebnisse durch alle frei nutzbar sind. Arthur20 zeigt, dass Diffusionsprozesse von Produkten, die „increasing returns“, also Netzeffekten bzw. steigenden Skalenerträgen in der Nutzung unterliegen, mehrere Gleichgewichte aufweisen, die jeweils dadurch gekennzeichnet sind, dass eines der alternativen Produkte letztendlich monopolistisch den Markt beherrscht („Lock-in“). Da im Falle nichtproprietärer Standards der Diffusionspro17 18 19 20

Katz/Shapiro 1985. Katz/Shapiro 1985. Kindleberger 1983, S. 377-396. Arthur, W.B.: Competing technologies and lock-in by historical small events: the dynamics of allocation under increasing returns. International Institute for Applied Systems Analysis Paper WP-83-92, Laxenburg (Österreich) 1983; ders.: „Competing technologies, increasing returns, and lock-in by historical events“, in: The Economic Journal, Jg. 99 (1989), S. 116-131.

196

WOLFGANG KÖNIG, TIM WEITZEL

zess von kleinen, zufälligen Ereignissen sehr früher Diffusionsphasen bestimmt werden kann und damit nicht ergodisch (und damit „pfadabhängig“) ist, kann das letztendliche Marktergebnis nicht vorhergesagt werden. Als Beispiel wird häufig der Kampf um die Videorekorderformate VHS versus Beta oder auch zwischen verschiedenen Automotoren angeführt.21 Analog zu diesen Aussagen zeigen Besen und Farrell22, dass viele Netzwerke instabil sind. Hiernach können auf Netzwerkmärkten tendenziell nur selten mehrere inkompatible Technologien koexistieren (‚tippy networks‘), wie derzeit etwa der Internet Explorer den ehemaligen Marktführer Netscape Navigator verdrängen konnte. Die Argumentation in der traditionellen Netzeffektliteratur folgt durchweg einem ähnlichen Pfad: Die Diskrepanz zwischen privatem und kollektivem Nutzen bezüglich der Auswahl eines Standards führt bei Existenz von Netzeffekten möglicherweise zu pareto-dominierten Marktergebnissen, also Marktversagen in dem Sinne, dass Netzeffekte die Gefahr der falschen Technologieadoption (zu viele Technologien, zu wenige Technologien, falsche Technologien) bergen. Insgesamt kann es aus Sicht eines Gesamtnetzes sowohl zu einer Über- als auch zu einer Unterversorgung mit Standards kommen. Eine Unterversorgung (excess inertia) mag dadurch entstehen, dass keiner das überproportionale Risiko einer frühen Auswahl treffen möchte, um nicht der Gefahr ausgesetzt zu sein, in einem schließlich zu kleinen Netz zu ‚stranden‘ und Wechseloder Opportunitätskosten tragen zu müssen, sollte die Mehrzahl späterer Netzteilnehmer sich für eine andere Technologie entscheiden. Unter nicht vollständiger Information kann dieses Start-up-Problem die Einführung verhindern, selbst im Falle homogener Präferenzen der entscheidenden Akteure für eine Standardisierung. In der betrieblichen Praxis wird dieses Phänomen auch als „aggressives Abwarten“ beschrieben und zeigt sich beispielsweise im „Aussitzen“ von Versionswechseln in vielen Abteilungen eines um Standardisierung bemühten Konzerns.23 Im Gegensatz dazu zeigen Katz und Shapiro24, dass es in „sponsored networks“ (einzelne Akteure halten Rechte und können andere von der Nutzung 21 Weitzel 2003. 22 Besen/Farrell 1994, S. 117-131. 23 Weitzel, T./Son, S./König, W.: „Infrastrukturentscheidungen in vernetzten Unternehmen: Eine Wirtschaftlichkeitsanalyse am Beispiel von X.500 Directory Services“, in: WIRTSCHAFTSINFORMATIK, Jg. 2001, Nr. 4, S. 371-381. 24 Katz, M.L./Shapiro, C.: „Technology adoption in the presence of network externalities“, in: Journal of Political Economy, Jg. 94 (1986), Nr. 4, S. 822-841.

ÖKONOMISCHE ANALYSE VON NETZEFFEKTEN

197

ausschließen) auch zu einer Überversorgung (excess momentum) des Marktes durch Preissetzung für den Standard seitens des marktmächtigen Anbieters kommen kann, indem dieser frühe Käufer subventioniert und die Rente späterer Konsumenten der dann wertvolleren Technologie abschöpft. Im Falle vollständiger Information und symmetrischer Präferenzen bezüglich der Vorteilhaftigkeit von Standards löst ein BandwagonProzess das Koordinationsproblem, indem frühe Nutzer mit vergleichsweise hohem Stand-alone-Nutzen einen Lawinen- oder Dominoeffekt starten. Nichtsdestoweniger zeigen Farrel und Saloner25, dass auf Grund strategischen Verhaltens nicht einmal perfekte Kommunikation Excessinertia- oder -momentum-Probleme zuverlässig lösen kann. Im Falle proprietärer Netzwerke besteht zwar prinzipiell die Möglichkeit, die Netzeffekte zu internalisieren, also die Fernwirkungen explizit zu berücksichtigen. So existieren Anreize für die Besitzer der jeweiligen Technologien, z.B. durch intertemporale Preisstrategien Start-up-Probleme zu lösen. Problematisch bleibt hier jedoch die nicht zwingende Erreichung eines sozialen Optimums im Sinne eines auf neoklassischen Märkten zu erwartenden pareto-effizienten Optimums.26 Verschiedene methodische Ansätze stellen die Netzeffektdiskussion auf eine vergleichsweise breite, allerdings bislang keineswegs einheitliche oder abgeschlossene Basis. Kleinemeyer und Yang unterscheiden verschiedene Perspektiven der Betrachtung von Netzeffekten.27 Empirische Ansätze versuchen, die Existenz und Höhe von Netzeffekten durch Regressionsanalysen nachzuweisen und hedonische Preisfunktionen für Netzeffektgüter zu schätzen.28 Theoretische Arbeiten bestehen meist aus 25 Farrell, J./Saloner, G.: „Installed Base and Compatibility: Innovation, Product Preannouncements, and Predation“, in: The American Economic Review, Jg. 76 (1986), Nr. 5, S. 940-955. 26 Weitzel, T./Beimborn, D./König, W.: „Coordination In Networks: An Economic Equilibrium Analysis“, in: Information Systems and e-Business Management (ISeB), 2003, S. 189-211. 27 Kleinemeyer, J.: Standardisierung zwischen Kooperation und Wettbewerb, Frankfurt/M. 1998; Yang, Y.: Essays on network effects. Dissertation, Department of Economics, Utah State University, Logan, Utah 1997. 28 Hartmann, R.S./Teece, D.J.: „Product emulation strategies in the presence of reputation effects and network externalities: some evidence from the minicomputer industry“, in: Economics of Innovation and New Technology, Jg. 1 (1990), S. 157-182; Gandal, N.: „Hedonic price indexes for spreadsheets and empirical test for network-externalities“, in: Rand Journal of Economics, Jg. 25 (1994), Nr. 1, S. 160-170; Economides, N./Himmelberg, C.: Critical Mass and Network Size with Application to the US FAX Market. Discussion Paper EC-95-11, Stern School of Business, New York University 1995; Moch, D.: „Ein hedonischer Preisindex für PC-Datenbank-

198

WOLFGANG KÖNIG, TIM WEITZEL

Gleichgewichtsanalysen zur Untersuchung von Start-up-Phänomenen29, Marktversagen30, Instabilitäten in Netzeffektmärkten („tippy networks“)31 sowie Pfadabhängigkeiten und nicht-ergodischen Diffusionsprozessen32.

2.2 Zusammenfassung der wichtigsten Aussagen der traditionellen Netzeffekttheorie Eine ausführliche Übersicht sowie verwandte Literatur aus angrenzenden Bereichen (etwa Actor Network Theory, Infrastrukturtheorien, Herstellerstrategien oder wettbewerbliche Implikationen) bietet Weitzel33, reichhaltige Online-Bibliographieen bieten Agre und Economides34. Zu-

29

30

31

32

33

34

software: Eine empirische Untersuchung“, in: D. Harhoff/M. Müller (Hrsg.): Preismessung und technischer Fortschritt. Baden Baden 1995; Gröhn, A.: Netzeffekte und Wettbewerbspolitik. Eine ökonomische Analyse des Softwaremarktes. Tübingen 1999. Rohlfs, J.: „A theory of interdependent demand for a communications service“, in: Bell Journal of Economics, Jg. 5 (1974), Nr. 1, S. 16-37; Oren, S.S./Smith, S.A.: „Critical Mass and Tariff Structure in Electronic Communications Markets“, in: Bell Journal of Economics, Jg. 12 (1981), S. 467487; Katz/Shapiro 1985, S. 424-440; Katz/Shapiro 1994, S. 93-115; Wiese, H.: Netzeffekte und Kompatibilität. Stuttgart 1990; Besen/Farrell 1994, S. 117-131; Economides/Himmelberg 1995. Farrell, J./Saloner, G.: „Standardization, Compatibility, and Innovation“, in: Rand Journal of Economics, Jg. 16 (1985), S. 70-83; Farrell/Saloner 1986, S. 940-955; Katz/Shapiro 1986, S. 822-841; Katz, M.L./Shapiro, C.: „Product Introduction with Network Externalities“, in: Journal of Industrial Economics, Jg. 40 (1992), Nr. 1, S. 55-83; Katz, M.L./Shapiro, C.: „Systems Competition and Network Effects“, in: Journal of Economic Perspectives, Jg. 8 (Spring 1994), S. 93-115; Gröhn 1999. Arthur 1989, S. 116-131; Arthur 1996, S. 100-109; Besen/Farrell 1994, S. 117-131; Farrell/Saloner 1985, S. 70-83; Katz/Shapiro 1994, S. 93-115; Shapiro, C./Varian, H. R.: Information rules: A strategic guide to network economy. Boston 1998. David, P.A.: „Clio and the economics of QWERTY“, in: American Economic Review, Papers and Proceedings, Jg. 75 (1985), S. 332-337; Arthur 1989, S. 116-131; Besen/Farrell 1994, S. 117-131; Katz/Shapiro 1994, S. 93-115; Liebowitz, S.J./Margolis, S.E.: „Path Dependence, Lock-In, and History“, in: Journal of Law, Economics and Organization, Jg. 11 (1995), Nr. 1, S. 205-226. Weitzel 2003; Weitzel, T./Wendt, O./Westarp, F.v.: „Reconsidering Network Effect Theory“, in: Proceedings of the 8th European Conference on Information Systems (ECIS 2000). URL: http://www.wiwi.uni-frankfurt.de/ ~westarp/publ/recon/reconsidering.pdf, 1.9.2004. Economides, N. : An interactive bibliography on the economics of networks and related subjects. URL: http://www.stern.nyu.edu/networks/biblio.html,

ÖKONOMISCHE ANALYSE VON NETZEFFEKTEN

199

sammenfassend sind dies die wichtigsten Ergebnisse der traditionellen Netzeffekt- und Diffusionstheorie: • Netzeffekte implizieren multiple Gleichgewichte. Ein Lock-in des Marktes in eine (Monopol-)Technologie ist zu erwarten. Häufig sind diese Marktlösungen pareto-inferior (vulgo Marktversagen).35 • Netzmärkte (Softwaremärkte) sind typischerweise instabil, das heißt, dass rivalisierende Technologien selten längerfristig koexisitieren und dass der Umschwung zugunsten eines Gewinners sehr plötzlich erfolgen kann.36 • Ein Start-up-Problem verhindert den Wechsel auf überlegene Technologien; excess inertia (Unterstandardisierung) resultiert aus der Tatsache, dass keiner das überproportionale Risiko der ersten Technologieeinführung eingehen möchte.37 • Ebenso kann es zu Überstandardisierung (excess momentum) kommen, wenn beispielsweise durch intertemporale Preisstrategien (z.B. niedrige Einstiegspreise der anbietenden Firmen) rasch eine kritische Nutzermasse aufgebaut werden soll.38

2.3 Kritik an der traditionellen Netzeffekttheorie Zu den wichtigsten Kritikpunkten gehören die folgenden39: • Ungenaue Unterscheidung von direkten und indirekten Netzeffekten trotz unterschiedlicher ökonomischer Implikationen.40 • Empirische Defizite beim Nachweis von Marktversagen; allgemeiner: Schwierigkeiten einer sinnvollen Definition von „heilba-

35

36 37 38 39

40

30.9.2004; Agre, P.: A graduate seminar on the economic, legal, and strategic aspects of technical compatibility standards“, 1998. URL: http://dlis.gseis.ucla.edu/people/pagre/standards.html, 14.9.2004 Arthur 1989, S. 116-131; Katz/Shapiro 1985, S. 424-440; Katz/Shapiro 1986, S. 822-841; Thum, M.: Netzwerkeffekte, Standardisierung und staatlicher Regulierungsbedarf. Tübingen 1995. Besen/Farrell 1994, S. 117-131; Shapiro/Varian 1998. Farrell/Saloner 1985, S. 70-83; Farrell/Saloner 1986, S. 940-955. Farrell/Saloner 1986. Zu einer ausführlichen Kritik der traditionellen Netzeffekttheorie siehe Liebowitz, S.J./Margolis, S.E.: „Network Externality: An Uncommon Tragedy“, in: The Journal of Economic Perspectives, Jg. 8 (Spring 1994), S. 133-150; Weitzel/Wendt/Westarp, 2000; Weitzel, 2003. Katz/Shapiro 1994, S. 93-115; Liebowitz/Margolis 1994, S. 133-150.

WOLFGANG KÖNIG, TIM WEITZEL

200

rem Marktversagen“ bei unvollständiger Information und rationalen Akteuren (eine gängige Annahme in Netzeffektmodellen).41 • Unrealistische Annahme kontinuierlich steigender, homogener Netzeffekte und Vernachlässigung von steigenden Netzeintrittskosten.42 • Fehlende Unterscheidung zentral und dezentral koordinierter Netze bzw. der institutionellen Einbettung der Akteure; fehlende normative Kraft der Modelle, insbesondere keine dezentralen Lösungsansätze bzw. Entscheidungshilfen für Nutzer von Netzeffektgütern; Vernachlässigung des Einflusses der individuellen Netzwerkumgebung auf die Übernahmeentscheidung.43 Neben einer reduzierten Erklärungskraft traditioneller Ansätze machen diese offenen Probleme eine Übertragung der Ergebnisse auf realwirtschaftliche Entscheidungsprobleme individueller Akteure, etwa bei der Gestaltung elektronischer Märkte, dem Aufbau und der Koordination von Wertschöpfungsnetzwerken oder firmeneigenen Intranets, schwierig. Insbesondere interdisziplinäre Ansätze, die Erkenntnisse aus Disziplinen wie der Soziologie, Geographie oder Medizin in die Netzwerkforschung einzubringen und für E-Businessfragen zugänglich zu machen suchen, können vielversprechende Wege aufzeigen, die Erklär- und Gestaltungskraft einer zukünftigen, umfassenden Theorie der Netzwerke zu erhöhen.44

3.

Ein Forschungsrahmen für Koordinations-probleme in Netzwerken

Unsere Grundhypothese ist, dass die Asymmetrie zwischen individuellen und kollektiven Netzwerkteilnahmeanreizen die automatische effiziente Lösungsfindung, die man auf einem neoklassischen Markt erwartet, zer41 Liebowitz, S.J./Margolis, S.E.: „The fable of the keys“, in: Journal of Law and Economics, Jg. 33 (1990), S. 1-25. 42 Liebowitz, S.J./Margolis, S.E.: „Are Network Externalities A New Source of Market Failure? “, in: Research in Law and Economics, Jg. 17 (1995), S. 1-22. 43 Liebowitz/Margolis 1994, S. 133-150; Weitzel/Wendt/Westarp 2000; Weitzel 2003; Westarp 2003. 44 Weitzel, T./König, W.: „Standardisierungstheorie und Netzeffekte: Agentbased Computational Economics als wirtschaftsinformatischer Beitrag zu einer interdisziplinären Netzwerktheorie“, in: WIRTSCHAFTSINFORMATIK, Jg. 2003, Nr. 5, S. 497-502.

ÖKONOMISCHE ANALYSE VON NETZEFFEKTEN

201

stört. Aus theoretischer Sicht ist dies nicht überraschend, da Netzeffekte als Externalität die zwangsläufige Transmission von lokaler zu globaler Effizienz verhindern. In diesem Abschnitt werden wichtige Grundlagen der Netzeffekttheorie (Netzeffekte und ihre Auswirkungen) und der traditionellen Ökonomie (Externalitäten, Existenz und Effizienz von Gleichgewichten, neoklassische Wohlfahrtsmechanismen) auf die strategische Situation von Agenten vor der Entscheidung zur Netzwerkteilnahme angewendet. Dabei bezeichnet „Kooperationsnetzwerk“ ein System von Geschäftspartnern, die durch Dependenzen wie insbesondere Netzeffekte verbunden sind und die hiermit einhergehenden Synergiepotenziale nutzen (möchten). „Standards“ bezeichnen Technologien oder Produkte, die aufgrund technischer Spezifikationen Kompatibilität schaffen und hierdurch Nutzernetzwerke konstituieren. Nachfolgend werden zunächst die betrachteten Koordinationsprobleme systematisiert (3.1), am Beispiel Straight Through Processing im Wertpapierhandel diskutiert (3.2) und anschließend die für die weitere Untersuchung notwendigen Gleichgewichts- und Effizienzkonzepte für eine ökonomische Netzwerkanalyse entwickelt.

3.1 Koordinationsprobleme in Geschäftsnetzwerken Neben unvollständiger Information über das Entscheidungsverhalten der Netzwerkpartner resultiert ein Koordinationsproblem im Kontext der Entscheidung der Netzwerkteilnahme aus der Asymmetrie der hiermit verbundenen Netzkosten und Netznutzen. Dies wird, neben einer vielfach beobachtbaren Unterschätzung der Netzpotenziale, häufig als Ursache einer zögerlichen Vernetzung (excess inertia, Start-up-Problem) gesehen (siehe „aggressives Abwarten“ in Abschnitt 2.1). Abhängig von der institutionellen Einbettung der Netzakteure können Netzwerkteilnahmeentscheidungen prinzipiell zentral koordiniert sein oder dezentral, wie im Falle souveräner Geschäftseinheiten mit autonomen IT-Budgets.45 Während eine idealtypische Optimallösung für die Ermittlung der Netzwerkteilnehmer („zentrale Koordination“) theoretisch ermittelt werden kann (siehe Abschnitt 0), sind reale Netzwerke häufig weniger effizient („dezentrale Koordination“). Aus einer theoretischen Sicht implizieren Netzeffekte – im Gegensatz zu den vorab be45 Westarp, F.v./Weitzel, T./Buxmann, P./König, W.: „The Status Quo and the Future of EDI“, in: Proceedings of the 1999 European Conference on Information Systems (ECIS’99), 1999.

202

WOLFGANG KÖNIG, TIM WEITZEL

schriebenen „viktorianischen“ Gleichgewichten der Neoklassik – multiple Gleichgewichte.46 Daher ist Netzwerkverhalten schwierig vorherzusagen und Planung, Kontrolle und Betrieb von Kooperationsnetzen stellen eine komplexe Herausforderung dar. In der Praxis zeigt sich dies als das Problem, ein möglichst vorteilhaftes Netzwerk als optimale Art und Menge der Verbindung von individuellen Netzakteuren (Individuen, Geschäftseinheiten etc.) aufzubauen. Prominente Beispiele sind EDI-Netze oder elektronische Marktplätze. Der Trade-off besteht dabei zwischen Netznutzen in Form von Kosteneinsparungen durch tiefere Integration mit den Systemen der Partner und reduzierte Friktionskosten einerseits und Netzwerkteilnahmekosten, etwa durch Systemanpassungen zur Herstellung von Kompatibilität (also Standardisierung) andererseits. Aus individueller Sicht ist Netzwerkteilnahme vorteilhaft, wenn die Nutzen die Kosten übersteigen. Allerdings emergieren zwischen völlig autonomen Agenten nicht immer vorteilhafte Lösungen. Viele Akteure verharren in ineffizienten Suboptima und substantielles Netzwerkpotenzial bleiben ungenutzt.

3.2 Das Beispiel Straight Through Processing im Wertpapiergeschäft Ein aktuelles Beispiel für Koordinationsherausforderungen im EBusiness ist Straight Through Processing (STP) für eine grenzüberschreitende End-to-End-Integration im Wertpapierhandel47, vergleichbar mit anderen Integrationsproblemen in EDI-Netzwerken der Automobilindustrie.48 Insbesondere fehlende Kommunikationsstandards und mangelnde Kompatibilität zwischen der Vielzahl verwendeter Abwicklungssysteme (intern) sowie national unterschiedliche Anforderungen und Rahmenbedingungen (extern) stehen derzeit einer schnellen, automatisierten und grenzüberschreitenden Abwicklung von Wertpapiertransaktionen entge-

46 Arthur 1989, S. 116-131. 47 Weitzel/Martin/König 2003. 48 Fricke, M./Weitzel. T./König, W./Lampe, R.: „EDI and Business-toBusiness Systems: The Status Quo and the Future of Business Relations in the European Automotive Industry“, in: Proceedings of the Sixth Pacific Asia Conference on Information Systems (PACIS-2002). URL: http://muchmagic.wiwi.uni-frankfurt.de/~tweitzel/paper/EDI-auto-motive.pdf, 20.9.2004.

ÖKONOMISCHE ANALYSE VON NETZEFFEKTEN

203

gen.49 Durch die Automatisierung der System-zu-System-Kommunikation und die damit einhergehende Vermeidung von Medienbrüchen erhoffen sich die Netzwerkpartner die Beschleunigung gemeinsamer Prozesse sowie eine Reduktion von Fehlern und Prozesskosten.50 Medienbrüche innerhalb und zwis chen den Phasen

Heutige Situation Pre-Trade

Trade

Post-Trade

Medienbruchloser Informationsfluss

STP

innerhalb und zwischen den Phasen

Pre-Trade

Trade

Post-Trade Legende = Medienbruch

Abbildung 1: Konzept des Straight Through Processing Grundsätzlich sind analoge Integrationsprobleme aus der Literatur bekannt, es lässt sich indes eine besonders ausgeprägte Rolle der Banken feststellen durch • eine sehr starken Heterogenität der IT-Landschaften durch nationale und branchenspezifische Rahmenbedingungen und ITStrategien, • eine große Anzahl von 30 bis 40 unterschiedlichen Systemen innerhalb einer Bank, die einzelne Bankenprodukte unterstützen51 und • eine hinter dem Stand anderer Branchen zurückliegende Industrialisierung im Finanzsektor, mit einem hohen Anteil von 60 % an Eigenentwicklungen.52

49 Swift Solutions – July 2000, Nr.7, Informationsbroschüre. URL: www.swift.com/index.cfm?item_id=3488, 20.9.2004 50 Emmelhainz, M.A.: EDI: A Total Management Guide. 2. Aufl., New York 1993. 51 Ruh, W.A./Maginnis, F./Brown, W.: Enterprise Application Integration: a Wiley tech brief. New York 2001.

204

WOLFGANG KÖNIG, TIM WEITZEL

Entsprechend häufige Medienbrüche führen u. a. dazu, dass 15-20 % aller grenzüberschreitenden Transaktionen in Wertpapieren mit Fehlern behaftet sind. Die Fehlerrate von Geschäften mit Schwellenländern (Emerging Markets) liegt bei bis zu 33 %.53 Laut SWIFT macht allein der Kostenanteil für die Fehlerkorrektur etwa ein Drittel der gesamten Abwicklungskosten oder € 1 Mrd. pro Jahr aus.54 Reuters schätzt das Einsparvolumen durch effiziente Handels- und Abwicklungsprozesse auf jährlich rund $ 12 Mrd.55 Aber wie auch die EDI-Historie zeigt, ist die Gestaltung dieser Netzwerke eine schwierige Herausforderung. Gerade im STP-Kontext zeigen sich die berüchtigten Start-up-Probleme: Da die erwarteten (internen und externen) STP-Nutzen hohe (interne) STP-Raten bei den Partnern voraussetzen, besteht ein Anreiz, deren Investition in interne und externe Schnittstellen und Systemintegration abzuwarten und damit das Risiko der frühen – und möglicherweise alleinigen und damit unrentablen – Investition zu vermeiden. Neben diesem Start-up-Problem56 ist ein zweites Phänomen bedenkenswert. Da ein echtes STP die Partizipation aller Prozessbeteiligten verlangt und die zu Grunde liegenden Prozesse leicht Dutzende unabhängiger Partner in den unterschiedlichsten Regionen der Welt betreffen können57, kann die Situation entstehen, dass für einen bestimmten Akteur zwar aus individueller Sicht die Teilnahme nicht lohnenswert ist, dieser Akteur aber aus Sicht der gesamten Kette, oder einer Mehrheit der Partner, teilnehmen sollte. Genau diese Diskrepanz verdeutlicht ein grundlegendes E-Business-Problem, nämlich die Koordinationsherausforderung für Netzwerke als Synchronisation lokaler und globaler Effizienz. Die Bedeutung dieser beiden grundsätzlichen Probleme – Start-up-Problem und grundsätzliche Konflikte bezüglich der Teilnahmevorteilhaftigkeit – sind deren Implikation auf die Kosten möglicher Lösungsdesigns. Im ersten Fall kann das Start-up-Problem prinzi52 Shahrawat, D.: „EAI’s Impact on Financial Institutions – An Interview With Dushyant Shahrawat“, in: EAI Journal, Feb. 2002. URL: http://www.eaijournal.com/PDF/Shahrawat.pdf, 20.9.2004. 53 Gilks, D.: The GSTPA Is Primed For Pilot. The European Union Banking & Finance News Network (EUBFN), 2001. URL: http://www.eubfn.com/arts/gstpa2.htm, 20.9.2004. 54 Brown, J.: „Twists and turns on the straight-through route“, in: EuroMoney, Jg. 2001, Nr. 384, S. 112-118. 55 Reuters 2001, zit. nach Venture Financial Systems Group: Straight Through Processing – Just in Time, 2001. URL: www.venturefsg.com/article2.htm, 20.9.2004. 56 Katz/Shapiro 1985, S. 424-440; Rohlfs 1974; Oren/Smith 1981, S. 467-487. 57 Emmelhainz 1993, S. 6-8.

ÖKONOMISCHE ANALYSE VON NETZEFFEKTEN

205

piell recht einfach etwa durch Informationsintermediation gelöst werden. Dies ist möglich, da Netzwerkteilnahme sowohl aus individueller als auch aggregierter Netzwerkperspektive wünschenswert ist. Die ist der Standardfall in den meisten neoklassischen Modellen. Durch die Existenz von Netzeffekten ist das zweite Problem schwieriger, da es regelmäßig teure Ausgleichsmechanismen wie Querzahlungen erfordert. Als Beispiel dieser Problematik im STP-Umfeld kann die abwartende Haltung vieler Banken gesehen werden, die vor der Entscheidung stehen, den Transaction-Flow-Manager (TFM), eine Softwarelösung der GSTPA-Initiative für ein Straight Through Processing v.a. im Cross-Border-Geschäft mit Wertpapieren, zu verwenden. So gilt der TFM prinzipiell als hilfreich, wenn alle teilnehmen, allerdings wird die Kosten-Fairness auf Grund individuell unterschiedlich hoher Implementierungskosten sehr unterschiedlich gesehen.58

3.3 Ökonomische Netzwerkanalyse: Netzeffekte und Effizienz Die Effizienz von und in Netzwerken wird häufig in Form einer netzweit aggregierten Größe wie Prozessdurchlaufzeit über alle Elemente einer Wertkette oder netzweite Kosten operationalisiert („zentrale“ Lösung). Demgegenüber beschreibt eine derartige gemeinsame Größe, die eine kollektive Nutzenfunktion impliziert, nicht die strategische Investitionssituation der individuellen Netzwerkagenten, welche eher eine individuell als kollektiv optimale Strategie anstreben („dezentrale“ Lösung). Diese Diskrepanz ist (mit-)verantwortlich für die häufig weit hinter den Erwartungen und Möglichkeiten zurückbleibende Effizienz von Netzwerkinfrastrukturen (siehe Start-up-Problem). Im neoklassischen Modell gibt es keinen Unterschied zwischen diesen beiden Szenarien, wenn bestimmte Annahmen insbesondere bzgl. der individuellen Nutzenmaximierung sowie weiterer Eigenschaften des homo oeconomicus gelten und aufgezeigt wird, dass die Wohlfahrtstheoreme gelten und die Verfolgung der Individualziele der Agenten mit dem Kollektivziel der Ökonomie synchron läuft.59 Eine zentrale Annahme hierbei ist die Nicht-Existenz von Externalitäten. Leider zerstören, wie eingangs beschrieben, Netzeffekte 58 Weitzel, T./Martin, S./König, W.: „Straight Through Processing auf XMLBasis im Wertpapiergeschäft“, in: WIRTSCHAFTSINFORMATIK, Jg. 2003, Nr. 4, S. 409-420. 59 Hildenbrand, W./Kirman, A.P.: Introduction to equilibrium analysis, NorthHolland. Amsterdam 1976.

206

WOLFGANG KÖNIG, TIM WEITZEL

als Form von Externalitäten die automatischen Transmission von lokaler zu globaler Effizienz.60 Dabei liegt nach traditioneller Definition eine Externalität vor, wenn die Nutzenfunktion Ui(.) einiger Akteure i Variablen enthält, deren Wert durch einen anderen Agenten j bestimmt wird, der die Wohlfahrtseffekte seiner Handlungen für das Nutzenniveau des i nicht berücksichtigt. Eine jüngere Definition besagt, dass eine Externalität existiert, wenn es nicht ausreichend Anreize zur Entstehung eines (potenziellen) Marktes für bestimmte Güter gibt und die Nicht-Existenz des Marktes zu nicht-pareto-effizienten Gleichgewichten führt.61 Im Einklang mit der klassischen ökonomischen Literatur existiert eine Netzwerkexternalität, wenn die Marktteilnehmer den Einfluss ihrer Netzwerkteilnahme auf andere nicht zu internalisieren vermögen. Für den gängigen Fall positiver Netzeffekte bedeutet dies, dass die Akteure am Wertzuwachs des Gesamtnetzes, der durch ihre Teilnahme entsteht, nicht partizipieren können. Bei positiven Netzexternalitäten ist damit der private Anreiz zur Netzwerkteilnahme kleiner als der soziale und es kommt daher zu nicht ausreichend großen Netzen. Es stellt sich die Frage der optimalen Internalisierung dieser Netzeffekte: Mit welchen Koordinationsmechanismen können gute Netzwerke entstehen?

3.4 Gleichgewichtskonzepte in Netzwerken Bei Existenz mehrerer Gleichgewichte stellt sich die Frage, wie diese zu unterscheiden sind bezüglich Effizienz und Erreichbarkeit bzw. wie sie in eine Präferenzreihenfolge zu bringen sind. Welches Gleichgewicht kann, wird oder soll aus Sicht eines individuellen Netzteilnehmers, welches aus Sicht des Gesamtnetzes erreicht werden? Zu den in der Literatur diskutierten Kriterien zur Bewertung von Gleichgewichten62 sind im Kontext der Gleichgewichtsanalyse in Netzwerken insbesondere ParetoEffizienz und Kaldor-Hicks-Effizienz nützlich.63 Als zentrales mikroökonomische Konzept zur wohlfahrtstheoretischen Beurteilung von stabilen Gleichgewichten hat sich das ParetoEffizienz-Kriterium etabliert. Ein Zustand heißt pareto-effizient, wenn es nicht möglich ist, ein Wirtschaftssubjekt besser zu stellen, ohne mindes60 Weitzel/Wendt/Westarp 2000. 61 Weitzel 2003. 62 Neumann, J.v./Morgenstern, O.: Spieltheorie und wirtschaftliches Verhalten (Theory of Games and Economic Behavior). Dt. Übers. der 3. Aufl., Würzburg 1967, S. 49-52. 63 Feess, E.: Mikroökonomie – Eine spieltheoretisch- und anwendungsorientierte Einführung. 2. Aufl., Marburg 2000, S. 54-57.

ÖKONOMISCHE ANALYSE VON NETZEFFEKTEN

207

tens ein anderes Individuum schlechter zu stellen. Formal ist eine Allokation x pareto-effizient dann und nur dann, wenn keine Allokation y existiert, die von allen Individuen schwach und von mindestens einem stark präferiert wird. Das Konzept der Pareto-Effizienz bewahrt die Ordinalität der Nutzentheorie durch die Vermeidung interpersoneller Nutzenvergleiche, erkauft sich dies aber durch die Unmöglichkeit, verschiedene paretoeffiziente Gleichgewichte, die es in Netzen häufig gibt, vergleichen zu können. Das Kaldor-Hicks-Kriterium beschreibt eine Präferenzordnung für verschiedene Pareto-Gleichgewichte.64 Die Grundidee besteht in einer möglichen Kompensation zwischen allen Beteiligten, sodass letztlich alle besser gestellt sein könnten (oder zumindest nicht schlechter). Das Kriterium setzt nicht voraus, dass die Kompensation tatsächlich stattfindet (womit es identisch mit dem Pareto-Kriterium wäre). Ein Problem des Kaldor-Hicks-Konzeptes ist, dass es genau den intersubjektiven Nutzenvergleich voraussetzt, den das Pareto-Konzept zu vermeiden sucht.

Spieler 2 Spieler 1

s11

s21 P

(3,4)

s22 7 (∆1)

(2,3)

8

s12

(1,2)

(5,3)

PK

Tabelle 1: Auszahlungsmatrix für Netzwerkteilnahmespiel mit zwei pareto-effizienten (P) und einem kaldor-hicks-effizienten (K) Gleichgewicht Das Spiel in Tabelle 1 weist zwei pareto-effiziente Nash-Gleichgewichte auf ((s11,s21);(s12,s22)), wobei durch die Pareto-Effizienz keine Aussage über die Rangfolge der Gleichgewichte gemacht wird. Das KaldorHicks-Kriterium besagt nun, dass Zustand (s12,s22) eindeutig vorzuziehen ist, da durch eine Kompensationszahlung von einer Einheit Spieler 2 den erlitten Verlust durch den Wechsel von (s11,s21) auf (s12,s22) wieder sein altes Niveau erreichen kann (Pfeil in Tabelle 1). Spieler 1 hätte trotz Kompensationszahlung immer noch ein höheres Ergebnis als im Gleichgewicht (s11,s21).

64 Feess 2000; Böventer, E.v./Illing, G.: Einführung in die Mikroökonomie. 8. Aufl., München/Wien 1995, S. 259-260.

208

WOLFGANG KÖNIG, TIM WEITZEL

3.5 Bedeutung der Gleichgewichtskonzepte für die Netzwerkanalyse Welche Netzwerkstrukturen entstehen nun unter zentraler und dezentraler Koordination und wie effizient sind sie? Zur Untersuchung der Effizienz der Gleichgewichte werden die beiden Konzepte der Pareto- und Kaldor-Hicks-Effizienz verwendet. Positive Netzeffekte lassen sich in Auszahlungs-(Bi-)Matrizen an den höheren Werten der Hauptdiagonale gegenüber der Nebendiagonale ablesen. Das typische Vernetzungsspiel ist ein „Battle of the Sexes“65, das seinen Namen von der strategischen Situation bezieht, dass ein Paar gemeinsam den Abend verbringen möchte, er dies aber beim Boxkampf und sie im Theater, wobei die gemeinsame Abendgestaltung wichtiger ist als die Veranstaltung. Historische Beispiele sind u. a. Fernsehstandards (PAL, SECAM, NTSC)66 oder Radio (AM stereo)67. Existenz und Effizienz der resultierenden Gleichgewichte in Netzwerken sind stark abhängig von der Spezifikation der strategischen Situation der Spieler wie insbesondere bezüglich der verfügbaren Informationen sowie der Entscheidungsstruktur (statisch bzw. einmalig vs. sequenziell vs. wiederholt). Als ein wichtiges Ergebnis zeigt sich, dass es bei dezentraler Koordination kein eindeutiges Gleichgewicht (in reinen Strategien) gibt: Entweder es gibt ein Glerichgewicht, nämlich die Nichtteilnahme, oder es gibt zwei Gleichgewichte (beide/keiner nimmt teil). Diese Grundaussage findet sich auch bei komplexeren Spielen68: In dezentral koordinierten Netzen gibt es eine schwächere Teilnahmetendenz. Diese Abweichung von der zentralen Lösung wird nachfolgend Effizienzlücke (oder Netzwerklücke) genannt und findet sich in Abbildung 2 (siehe Abschnitt 4.3). Es wird auch deutlich, dass im Falle mehrerer Gleichgewichte die zentrale Lösung stets der Kaldor-Hicks-Lösung entspricht. Allgemein sind die meisten dezentralen Gleichgewichte pareto-effizient, die zentrale Lösungsgüte kann indes nicht immer erreicht werden. Insbesondere im Fall, dass ein Spieler Verluste aus Netzwerkteilnahme erleidet, insgesamt die Nutzen aber die Kosten übersteigen, sind die Ergebnisse

65 Farrell, J./Saloner, G.: „Coordination through committees and markets“, in: RAND Journal of Economics, Jg. 19 (1988), Nr. 2, S. 235-252, hier S. 238. 66 Crane, R.: The Politics of International Standards. Norwood, NJ 1979. 67 Besen, S.M./Johnson, L.L.: „Compatibility Standards, Competition, and Innovation in the Broadcasting Industry“, in: RAND Corporation R-3453NSF, November 1986. 68 Weitzel 2003.

ÖKONOMISCHE ANALYSE VON NETZEFFEKTEN

209

dezentraler Koordination verbesserungsfähig, etwa durch die Vereinbarung von Kompensationszahlungen. Damit ergeben sich zwei grundsätzliche Probleme: Entweder benötigen die Spieler in Situationen, in denen allseitige Vernetzung wünschenswert ist, in denen es aber multiple Gleichgewichte gibt, mehr Informationen, um den Teil der Netzwerklücke zu überwinden, der sich nur aus der Unsicherheit über das Verhalten der Partner ergibt. Oder es gibt Situationen, in denen eine Koordination der Vernetzungsentscheidungen mit Ausgleichszahlungen oder dergleichen einhergehen müsste. Diese Unterscheidungen werden sich beim Vergleich unterschiedlicher Entscheidungsszenarios im Rahmen der Simulationen des nächsten Kapitels als zweckmäßig erweisen.

4.

Ein Netzwerkmodell

Nach einer kurzen Erläuterung des verwendeten Simulationsmodells sowie der zu Grunde liegenden Parameter (4.1 und 4.2) wird die individuelle Effizienz zentraler und dezentraler Koordination untersucht und im anschließenden Kapitel 5 diskutiert.

4.1 Ein einfaches Simulationsmodell Das nachfolgend vorgestellte Simulationsmodell basiert auf dem Modell von Weitzel, Westarp und Buxmann.69 Zur Verwendung von Simulationsmodellen siehe Tesfatsion70, Vriend71, Weitzel und König72. Eine ausführlichere Modellierung des dezentralen Falls mit weiteren Ergebnissen zu Netzwerktopologien, Installed-Base-Effekten, multiplen Tech-

69 Weitzel 2003; Westarp/Weitzel/Buxmann/König 1999; Buxmann, P./Weitzel, T./König, W.: „Auswirkung alternativer Koordinationsmechanismen auf die Auswahl von Kommunikationsstandards“, in: ZfB (Zeitschrift für Betriebswirtschaft), Ergänzungsheft 2/1999: Innovation und Absatz, S. 133-151. 70 Tesfatsion, L.: „Agent- based computational economics“, 2002. URL: http://www.econ.iastate.edu/tesfatsi/ace.htm, 20.9.2004 71 Vriend, N.: „Rational Behavior and Economic Theory“, in: Journal of Economic Behavior and Organization, Jg. 29 (1996), Nr. 2, S. 263-285; ders.: „Was Hayek an ACE?“, in: Working Paper 403, Queen Mary and Westfield College, University of London, UK, May 1999. 72 Weitzel/König 2003.

WOLFGANG KÖNIG, TIM WEITZEL

210

nologien etc. bietet Weitzel73, eine ausführliche Herleitung des zentralen Modells Buxmann.74 Die Nutzen der Netzwerkteilnahme resultieren aus verbessertem Informationsaustausch zwischen Kommunikationspartnern75, schnellerer Kommunikation mit geringeren Friktionskosten76 und weiteren strategischen Vorteilen wie Just-in-Time-Produktion77. Die Kosten der Netzwerkteilnahme umfassen technische und organisatorische Integrationsaufwendungen (Hardware, Software, Training etc.). Die Knoten i (i={1, ... , n}) eines Kommunikationsnetzwerkes sind die Kommunikationspartner (menschliche wie maschinelle Akteure). Die Netzkanten bilden die mit einsparbaren Kommunikationskosten bewerteten Kommunikationsbeziehungen ab. Ki beschreiben die Kosten der Netzwerkteilnahme für Agent i und cij die Vorteile für Agent i aus der Netzteilnahme von Agent j (bzw. die hierdurch mögliche Vermeidung der (Friktions-)Kosten zu anderen Netzwerkpartnern j). Um individuelle und aggregierte Netznutzen vergleichen zu können, werden zwei grundsätzliche Koordinationsformen modelliert: In dezentral koordinierten Netzwerken wird individuelles Agentenverhalten im extremen Fall der Nichtexistenz von Ex-ante-Koordination oder externem Zwang beschrieben. Im Gegensatz hierzu beschreibt zentrale Koordination die idealtypische optimale Koordinationsgüte für das Gesamtnetz unter der Annahme, dass eine zentrale, allwissende Instanz eine netzweit optimale Lösung (etwa aus Sicht eines Netzbesitzers) bei Nichtexistenz von Agency- und Kontrollkosten ermitteln und auch durchsetzen kann. Damit sind die lokalen Auswirkungen aus zentraler Sicht irrelevant. Die (dezentrale) Netzwerkteilnahmebedingung für Agent i lautet: n

¦c j =1 j ≠i

ij

− Ki > (1)

73 Weitzel 2003. 74 Buxmann, P.: Standardisierung betrieblicher Informationssysteme. Wiesbaden 1996. 75 Kleinemeyer, J.: Standardisierung zwischen Kooperation und Wettbewerb. Frankfurt/M. 1998, S. 63. 76 Braunstein, Y.M./White, L.J.: „Setting technical compatibility standards: An economic analysis“, in: Antitrust Bulletin, Jg. 30 (1985), S. 337-355; Thum 1995, S. 14-15. 77 Picot, A./Neuburger, R./Niggl, J.: „Electronic Data Interchange (EDI) und Lean Management“, in: Zeitschrift für Führung und Organisation, Jg. 1993, Nr. 1, S. 20-25.

ÖKONOMISCHE ANALYSE VON NETZEFFEKTEN

211

In Entscheidungssituationen autonomer Agenten ist es indes zweifelhaft, ob alle Partner teilnehmen (Netzeffekt), sodass i die Partizipationsentscheidung der Partner j (j∈{1,...,n}; i≠j) antizipieren kann als (ex ante) n

n

c ji (n − 1) − K j

j =1

j =1

c ji (n − 1)

EXPECT [Ei ] = ¦ pij cij − K i = ¦ j ≠i

j ≠i

∀k ∈ {1,..., n}

s.t. c jk > 0

cij − K i

(2) pij beschreibt die Wahrscheinlichkeit, die Agent i der Teilnahme von j zumisst. Gilt EXPECT [Ei] > 0, wird i Teil des Netzes.78

4.2 Simulationsaufbau und Parameter Der individuelle Ex-post-Nutzen für Agent i aus Netzwerkteilnahme Ei bemisst sich entsprechend Gleichung 3 (die Binärvariable xi nimmt bei Netzteilnahme den Wert 1 an): n

E i = ¦ cij ⋅ x j − K i j =1 j ≠i

(3)

Gemäß Gleichung 4 beschreibt CE die aggregierten, netzweiten Auswirkungen der Teilnahmeentscheidungen („coordination efficiency“) als horizontale Aggregation der individuellen Nutzen.

CE =

n

¦E i =1

i

=

¦ ¦ c ⋅ (1 − y ) − ¦ K n

n

n

ij

i =1 j =1 j≠i

ij

i =1

i

⋅ xi =

n

n

¦¦c i =1 j =1 j≠i

ij

§ n ¨ − ¨ ¦ K i ⋅ xi + ¨ i =1 ©

n

n

¦¦c i =1 j =1 j≠i

ij

· ¸ ⋅ y ij ¸ ¸ ¹

(4) Die Formulierung in Gleichung 4 erlaubt die Herleitung von CE aus Exante- und Ex-post-Kosten. yij nimmt den Wert Null an, wenn i und j Netzmitglieder sind. Natürlich ist die Interpretation der aggregierten

78 Siehe Buxmann/Weitzel/König 1999, S. 133-151 für eine ausführliche Beschreibung.

WOLFGANG KÖNIG, TIM WEITZEL

212

Nutzen CE nicht unproblematisch in dezentralen Netzwerken, da dort der Fokus auf Individualentscheidungen liegt. Ziel ist die Konstruktion einer Vergleichsgröße möglicher Entscheidungsgüte bei der Entscheidung über die Vernetzung von Akteuren. Der Rest dieses Beitrages konzentriert sich daher auf die individuellen Auswirkungen im Sinne unterschiedlicher Vorteilhaftigkeit zentraler und dezentraler Koordination für individuelle Netzwerkakteure. Der verwendete Simulator wurde mit JAVA 1.3 entwickelt, die Datenauswertung erfolgte mit SPSS 10.0. Zunächst wurden zufällig erzeugte Netzwerke initialisiert und allen Agenten approximativ normalverteilte individuelle Kosten und Nutzenwerte zugeordnet (gemäß den unten angegebenen Verteilungsparametern).

n n n u.d.N.: x +x +y ≤ 2 CE = ¦ ¦ (c ij + ci ji ) j⋅ (1 ij− y ij ) − ¦ K i ⋅ x i i =1 j = i +1 i =1 i < j > 1 xi+yij i< j xj+yij ≥ 1 yij yij ≥ 0 ≤1 i< j xi xi ≥ 0 ≤1

∀ i,j ∈ n; → max! ∀ i,j ∈ n; (5) ∀ i,j ∈ n; ∀i∈n

Auf dieser Grundlage entscheiden die Agenten entsprechend den oben entwickelten Funktionen über ihre individuelle Netzteilnahme über T Perioden hinweg, wobei sie in jeder Periode auf ihre beobachtbare Umwelt reagieren, insbesondere also auf Teilnahmeentscheidungen anderer, die die eigene Unsicherheit reduzieren. Parallel wird für jedes Netz eine zentrale Vergleichslösung gemäß Gleichung 5 bestimmt (die Formulierung des zentralen Modells ist eine Adaption des Modells von Buxmann79), für die Lösung wurden die JAVA-Packages lp.solve 2.0 von M. Berkelaar verwendet (http://siesta.cs.wustl.edu/~javagrp/help/Linear Programming.html). Dieser Simulationsprozess wird 50 mal wiederholt, bevor die erwarteten Teilnahmekosten, beginnend bei µ(K)= 45.000, jeweils um 250 reduziert werden und der Prozess neu gestartet wird. Die nachfolgende Abbildung besteht somit aus 4.500 Simulationsläufen.

79 Buxmann 1996.

ÖKONOMISCHE ANALYSE VON NETZEFFEKTEN

213

4.3 Simulationsergebnisse In Abbildung 2 zeigen die Boxen die individuellen Nutzen (0,25-0,75Quantile, der Querstrich ist der Median, Antennen markieren alle Ei) aus Netzwerkteilnahme (Ei) bei unterschiedlichen Teilnahmekosten Ki (.cen beschreibt zentrale und .dec dezentrale Koordination). Es zeigt sich die intuitive Diskrepanz zwischen zentraler und dezentraler Koordination als vertikaler Abstand der beiden Lösungen E(cen) und E(dec) bei unterschiedlichen µ(K), der das Ausmaß der internalisierbaren Netzeffekte quantifiziert („Netzwerklücke“). Beispielsweise ist der Median die netzweite Verbesserung bei der zentralen Lösung (E(cen)) bei Teilnahmekosten von µ(K)= 24.000 ca. 10.000, während bei dezentraler Koordination das Netz noch inaktiv ist (E(dec)=0). Offensichtlich ist in dezentralen Netzen mit vergleichsweise weniger Partizipation zu rechnen. Um die Entwicklung von Ei im Zeitablauf zu verdeutlichen, sind für den Fall der dezentralen Koordination die Nutzen in t=1 sowie im Gleichgewicht (stationärer Zustand t=T) abgebildet. Interessanterweise ergeben sich vergleichsweise wenig negative Ei, vor allem im Falle zentraler Koordination. Dies bedeutet, dass der Fall der „schwierigen“ Gleichgewichte, in denen Agenten durch Netzwerkteilnahme individuell Verluste erleiden, aus zentraler Sicht aber nichtsdestoweniger teilnehmen sollten (oder die im dezentralen Kontext Subventionen verlangen würden), insgesamt eher selten ist. Es zeigt sich, dass nicht nur das Gesamtnetz, sondern auch eine substanzielle Mehrheit der Individuen durch zentrale Koordination besser gestellt wären. Der Anteil dieser Individuen ist natürlich stark abhängig von der Streuung der Kosten und Netzeffekte und wird, auch im Kontext der Wahl zwischen unterschiedlichen Netzwerken, von Weitzel ausführlich untersucht.80 Diese Erkenntnisse und Systematisierungen erweisen sich als nützlich bei der Überlegung nach geeigneten Koordinationswegen zur Schließung der Netzwerklücke: Wenn kein Ei(cen) < 0, dann ist die zentrale Lösung pareto-superior zur dezentralen. Dies bedeutet, dass alle Netzwerkteilnehmer hiervon profitieren und es im Nachhinein selbst dann nicht bereuen, wenn sie gezwungen worden wären. Diese strategische Situation, die gelegentlich auch als Win-Win-Situation bezeichnet wird, ist prinzipiell einfacher lösbar als beispielsweise Konstantsummenspiele oder Situationen mit Ei(cen) < 0.

80 Weitzel/Beimborn/König 2003.

WOLFGANG KÖNIG, TIM WEITZEL

214

Abbildung 2: Individuelle Entscheidungsqualität E i (zentrale und dezentrale Koordination, Ordinate) bei unterschiedlichen Teilnahmekosten µ ( K ) (Abszisse)

5.

Diskussion der Ergebnisse

5.1

Allgemeine Lösungsansätze

Was bedeuten die Simulationsergebnisse für die Frage nach möglichen Lösungsansätzen für Netzwerkprobleme und was sind die Implikationen für die Vernetzung von E-Business-Partnern? Es konnten zwei grundsätzliche Kosten-Nutzen-Konstellationen identifiziert werden. Entweder kann eine Ineffizienz durch falsche Antizipation der Partnerentscheidungen erklärt werden oder es gibt Agenten, die sich zwar aus zentraler Sicht vernetzen sollten, aus dezentraler (individueller) Perspektive allerdings hieraus Nachteile erleiden. Während der zweite Fall eine Redistribution von Teilen der „Netzgewinne“ verlangt, reicht im ersten Fall prinzipiell eine Unsicherheitsreduktion, also Verbesserung der Informationsqualität der Entscheider bezüglich der Partnerentscheidungen, aus. Hier bieten sich grundsätzlich Versicherungslösungen für die beschriebenen Netz-

ÖKONOMISCHE ANALYSE VON NETZEFFEKTEN

215

werkprobleme an, die den Agenten exogen durchsetzbar zusichern, alle nach Abzug der Netznutzen verbleibenden Kosten zu übernehmen. Sollte der Ausgeber dieser Option (etwa ein Netzbesitzer) zu recht davon überzeugt sein, dass ein Gleichgewicht des ersten Falls vorliegt, ist dies ein eleganter (und dann auch kostenloser) Weg zur Lösung des Start-upProblems. Dies setzt natürlich die Kenntnis der wünschenswerten Netzteilnehmer, also des Optimalnetzes, voraus. Weiterhin ergeben sich Probleme (und damit Kosten) der objektiven Ermittlung der zu Grunde liegenden Kosten und Nutzen. Bei den einfachen Gleichgewichten der ersten Art reicht also prinzipiell jede Art der Informationsintermediation, welche die Ex-ante- und die Ex-post-Entscheidungen aneinander koppelt, ohne dass Querzahlungsmöglichkeiten notwendig sind. So könnte z.B. ein schwarzes Brett mit verbindlichen Ankündigungen oder ein „runder Tisch“ einen Bandwagon-Prozess starten.81 Darüber hinaus erfordern Gleichgewichte der zweiten Art etwa einen Kompensationsplan, da die Option alleine hier nicht mehr ausreichen würde, die Lücke zu schließen. Weiterhin darf eine Vielzahl von Engpässen bei der Modellierung nicht übersehen werden. So berücksichtigt das Modell derzeit ausschließlich positive Netzeffekte. Auch wenn ein Großteil der Literatur auf die Modellierung negativer Netzeffekte verzichtet, dürften diese den Anteil der Win-Win-Gleichgewichte, also der netztypisch „einfachen“ Koordinationsprobleme, deutlich beeinflussen. Neben Snob-Effekten könnten zumal im E-Business-Kontext Individualitätsverluste und damit einhergehende Verschlechterungen der Wettbewerbsposition als negative Netzeffekte verstanden werden.82 Es wurde diskutiert, dass Agenten an einem Netzwerk partizipieren, wenn sie dadurch einen Vorteil erlangen. Aber aufgrund von Informationsasymmetrien in dezentralen Netzwerken können einige Agenten unerwartet Verluste erleiden, da sich ihr Umfeld „falsch“ entschieden hat. Ein generelles Allokationsmodell zur Lösung dieses Problems ist insofern vorstellbar, als jedem Agenten die Wahl zwischen seinem Status Quo Ante und der Konstellation im stationären Zustand (also nach der Netzwerkkonstitution) eröffnet wird. Die endgültige Allokation wird dann und nur dann implementiert, wenn alle Agenten sie (zumindest schwach) präferieren.83 Wenn einige Agenten nicht wechseln wollen,

81 Farrell/Saloner 1986, S. 940-955. 82 Varian, H.: „A Solution to the Problem of Externalities When Agents are Well-Informed“, in: American Economic Review, Jg. 84 (1994), Nr. 5, S. 1278-1293. 83 Varian 1994.

216

WOLFGANG KÖNIG, TIM WEITZEL

könnte eine nächste Entscheidungsrunde ohne diese vorgenommen werden.

5.2 Industriekonsortien als Lösungskonzept Ein Hauptergebnis vieler jüngerer Arbeiten zu Netzwerkeffizienz ist die Betonung der individuellen Netzwerknachbarschaft der Agenten (Netzwerktopologie). In diesem Kontext erscheinen Konsortialstrukturen als wichtige Koordinationskonzepte für Netzwerke, welche die beschriebenen Asymmetrien reduzieren helfen können. Entsprechend wird in vielen Beiträgen zu Standardisierungsstrategien und zwischenbetrieblichen Integrationsproblemen das Entwickeln gemeinsamer Strategien in Konsortien als Vorschlag zum Schließen der Netzwerklücke vorgebracht. In der Tat gibt es eine kaum überschaubare Fülle von Organisationen für Standards und Netzwerken. In letzter Zeit scheinen Industriekonsortien wie das W3C oder OASIS im Gegensatz zu staatlichen schnellere und bessere Ergebnisse zu entwickeln. Wenn tatsächlich bestimmte High-TechBranchen raschere (technologischer Entwicklungszyklus) und wegen der Netzeffekte mehr Koordination als traditionellere Branchen verlangen, stellt sich die Frage nach der geeigneten Koordinationsform. Die Simulationen im letzten Kapitel zeigen einen deutlichen Koordinationsbedarf z.B. zur Überwindung von Start-up-Problemen. Weiterhin konnte die Gleichgewichtsanalyse systematisieren, in welchen Fällen Koordination auf Grund informationeller Abmachungen anstelle von Querzahlungen möglich ist. Genau hier erscheinen Konsortien als attraktiver Lösungsansatz. Eine Hypothese, warum Industriekonsortien staatlichen Ansätzen vorzuziehen sind, liegt neben der Tatsache, dass sie für schneller gehalten werden, darin begründet, dass sie weniger verpflichtend sind: Farrell und Saloner zeigen in ihrem Modell von 1988 drei unterschiedliche Koordinationsprozesse, um sich auf einen gemeinsamen Standard zu einigen: • Staatliches Komitee mit Aktionspflichten für die Netzwerkteilnehmer: Wenn sich die Agenten fortwährend treffen, um gemeinsam vorteilhafte (bindende) Handlungen zu beschließen, befinden sie sich in jeder Periode in einer „Battle of the sexes“-Situation (siehe Abschnitt 3.5). • Markt („bandwagon“): Die (dezentrale) Marktlösung ist modelliert als „Grab-the-dollar“-Spiel (wer zuerst zugreift, gewinnt den Dollar, doch wenn beide gleichzeitig zugreifen, verlieren beide).

ÖKONOMISCHE ANALYSE VON NETZEFFEKTEN

217

• Hybridform: Agenten können trotz Komiteeteilnahme auch individuell entscheiden. • Farrell und Saloner zeigen, dass das Komitee den Markt dominiert, allerdings durch das Hybridmodell selbst dominiert wird. „In a committee…nothing is likely to happen for a long time“84, allerdings produziert rein dezentrale (Markt-) Koordination häufig ineffiziente Oligopole. Die Hybridlösung verbindet die Vorteile beider Ansätze.

6.

Zusammenfassung und Ausblick

Die für das E-Business grundlegende Entscheidungen von Agenten zur Vernetzung wurde im Rahmen einer Gleichgewichtsanalyse modelliert. Auf Grund der aus der Existenz von Netzeffekten resultierenden Komplexität ist eine computergestützte Simulation verwendet worden, um Einsichten in die strategische Entscheidungssituation der Agenten und die Existenz und Effizienz zu erwartender Gleichgewichte zu gewinnen. Insbesondere das berüchtigte Start-up-Problem ließ sich gut erklären. Ein Blick auf die individuellen Konsequenzen der Netzwerkteilnahmeentscheidung zeigte, dass die strategische Entscheidungsproblematik der Agenten in dezentral koordinierten Netzen vielversprechend bezüglich einfacher Lösungsstrategien ist, da in vielen Fällen die Netzeffizienz durch einfache Informationsintermediation und ohne aufwändige Kostenverteilungen geschehen kann. Letztlich lässt die Existenz von Externalitäten genau dies vermuten: Die Auswirkungen einer Entscheidung auf andere werden nicht vollständig berücksichtigt. Wie in einem neoklassischen Markt mit Externalitäten ist ein Preis zu niedrig dimensioniert, um alle notwendigen Informationen zu tragen. Die vorgestellten Ergebnisse können natürlich nur ein kleiner Beitrag zum besseren Verstehen der komplexen Dynamiken in Netzwerken sein. Wichtige Erweiterungen umfassen die Verwendung von Erkenntnissen aus anderen Disziplinen wie z.B. der Soziologie oder Geografie bezüglich Netzwerktopologie und Dichte.85 Im Kontext der Lösungsstrategien für Kooperationsnetzwerke und der vorgestellten Klassifikation von Kosten, Nutzen und der resultierenden strategischen Implikationen erscheint es lohnenswert, Internalisierungsstrategien für Netzwerke auf

84 Farrell/Saloner 1988, S. 239. 85 Zu Anforderungen an eine interdisziplinäre Netzwerktheorie siehe Weitzel/ Wendt/Westarp 2000.

218

WOLFGANG KÖNIG, TIM WEITZEL

der Grundlage wichtiger Ergebnisse der Spieltheorie unter Berücksichtigung von Netzeffekten zu entwickeln und zu evaluieren. Ein Ansatz könnte auf lokale Koalitionen aufbauen, in denen Agenten mit ihren besten (z.B. größten cij) ein, zwei oder mehreren Partnern verbindliche „Minimalkonsortien“ bilden, die intern quasi zentral koordiniert sind. Modellerweiterungen86 zeigen beispielsweise, dass eine „Konsortialtreppe“ in Form des Zusammenschlusses vergleichsweise wenig heterogener Partner (z.B. gleiche Supply-Chain-Ebene) mit nachfolgender, einfacherer Koordination dieser Cluster erfolgversprechend sein könnte. Bei diesem Ansatz wird die Anzahl notwendiger Kommunikationsakte drastisch reduziert87, während gleichzeitig die Koordination zwischen im Durchschnitt homogeneren Agenten stattfindet und damit einfacher ist. Wenn die realen Koordinationskosten positiv von der Anzahl der zu koordinierenden Partner abhängt, können so eine optimale Anzahl von Internalisierungspartnern je Netzwerk-Tier gefunden und möglicherweise Hinweise auf die optimale Netzwerkgröße abgeleitet werden. Empirische Daten zur Koordinationskostenentwicklung im Vergleich zu den lokalen Teilnahmekosten könnten hier wertvolle Hilfestellung leisten. Mögliche Anwendungsdomänen zur Erhebung derartiger Daten sind EDI-Netzwerke, betriebliche Intranets und auch die STP-Community.

86 Weitzel 2003. 87 Shapiro/Varian 1998, S. 184.

THOMAS KAMPHUSMANN

MODELLIERUNG, ANALYSE UND GESTALTUNG BETRIEBLICHER KOMMUNIKATION 1.

Motivation und Problemlage

Der effiziente Einsatz von Kommunikation ist nicht allein in den Dienstleistungsberufen in der letzten Zeit in zunehmendem Maße zu einem erfolgskritischen Faktor geworden. Die Gründe hierfür lassen sich in unterschiedlichen Bereichen finden, die an dieser Stelle nicht einmal vollständig betrachtet werden müssen, um einen Eindruck ihrer Tragweite zu vermitteln. Anhand weniger Hinweise lassen sich einige Tendenzen aufweisen, die zu einem gesteigerten Bedarf an qualifizierter Kommunikation zur Erreichung geschäftlicher Ziele führt. Die Ausdifferenzierung von Arbeitsprozessen, Projektstrukturen und betrieblichen Organisationsformen ist eine Tendenz, die sowohl in den verarbeitenden Gewerben als auch im Dienstleistungssektor seit langem zu beobachten ist. Dem entspricht ein Trend zur immer weitergehenden Personalisierung der Produkte und Dienstleistungen und damit zu einem komplexeren Anbieter-KundenVerhältnis. Kommunikation ist in diesen Prozessen der Ausdifferenzierung geschäftlichen Handelns sowohl innerbetrieblich wie im Verhältnis zwischen Kooperationspartnern und zu Kunden das wesentliche Bindeglied, um die steigenden Anforderungen an die Synchronisation aller Aktivitäten leisten zu können. Menschliche Kommunikation ist – auch in Szenarien, die durch ein hohes Maß an IT-Unterstützung gekennzeichnet sind – nicht durch die Integration unterschiedlicher technischer Systeme und entsprechender Datenübertragungsmechanismen zu ersetzen. Insofern ist gelingende Kommunikation in zunehmendem Maße als geschäftskritisch einzustufen.

220

THOMAS KAMPHUSMANN

Darüber hinaus ist Kommunikation eines der zentralen und im weiteren Sinne wohl das einzige Mittel der Weitergabe von Wissen. Die in der einschlägigen Literatur1 als ‚Wissensprozesse‘ bezeichneten betrieblichen Vorgänge sind ohne Kommunikation unvorstellbar. Sie lassen sich nicht durch eine Erweiterung der Geschäftsprozessmodelle abbilden, sondern stellen zentrale betriebliche Querschnittstätigkeiten dar. Entsprechend stellt der Aufbau und die auf die Wertschöpfungskette bezogene Pflege des intellektuellen Kapitals eine betriebliche Aufgabe dar, deren Gelingen in steigendem Maße in die Bewertung von Firmen einfließt und zunehmenden Einfluss beispielsweise auf die Verfügbarkeit von Kapital hat. Diesen hier geschilderten Tendenzen scheint auf den ersten Blick die zunehmende Verfügbarkeit und die sinkenden Kosten der Kommunikationsmedien zu entsprechen. Nach wie vor ist von einem rasanten Anstieg der verfügbaren Bandbreiten und einem entsprechenden Verfall der Leitungskosten auszugehen. Dabei scheint mit der in kommunikationsintensiven Branchen inzwischen üblichen Verfügbarkeit von (Mobil-) Telefon, Fax, E-Mail und Internet für jeden Mitarbeiter das sinnvolle technische Maximum auch Standard zu sein. Allerdings mehren sich die Zeichen, dass die allein technische Verfügbarkeit dieser Kommunikationskanäle keine hinreichende Bedingung für die effiziente Organisation von Kommunikation ist. Teilweise scheint das Gegenteil der erhofften Entwicklung einzutreten: Die permanente Erreichbarkeit insbesondere durch Mobilfunk und E-Mail führt zu einer Belastung durch Anrufe und die Kenntnisnahme eingehender Mails, die konzentriertes Arbeiten erschwert oder gar verhindert. Die Vielzahl an Mails führt zum Einsatz von Junk-Mail-Filtern, die oft derart ‚scharf‘ konfiguriert werden, dass selbst projektbezogene Nachrichten vom Projektleiter als ‚Junk‘ klassifiziert werden. Allein die Sortierung eingehender Mails nimmt immer mehr Zeit in Anspruch, und wenn man sich vor Augen hält, dass bei einem Posteingang von über hundert Briefen pro Tag eine Vorsortierung durch Sekretariate nichts Ungewöhnliches war, kann man ermessen, wie hoch der Sekretariatsanteil hochqualifizierter Berater inzwischen ist. Die einfache Erreichbarkeit auch großer Gruppen führt zu ‚internem Spam‘, der ergebnisorientierte 1 Probst, Gilbert/Raub, Steffen/Romhardt, Kai: Wissen managen: Wie Unternehmen ihre wertvollste Ressource optimal nutzen. Wiesbaden 1999. Auch wenn die hier verwendete Terminologie auf Probst et al. zurückgreift, ist das Argument ebenso auf den Wissensmanagement-Ansatz von Nonaka beziehbar. Vgl. Nonaka, Ikujiro/Takeuchi, Hirotaka: The Knowledge-Creating Company. Oxford 1995.

BETRIEBLICHE KOMMUNIKATION

221

Kommunikation eher verhindert als fördert. Dies sind Hinweise darauf, dass allein die technische Verfügbarkeit breitbandiger Kommunikationskanäle zwar Erreichbarkeitsprobleme gelöst hat, mit diesen Lösungen aber gleichzeitig Probleme auf Seiten der Empfänger und bezüglich der Gestaltung von Kommunikationsprozessen geschaffen hat. Die Gründe für die skizzierten Probleme sind auch beim ineffizienten und teilweise kontraproduktiven Einsatz von Kommunikation und Kommunikationsmedien ebenso wenig allein in der Technik wie in deren Anwendung oder in den gesellschaftlichen oder betrieblichen Rahmenbedingungen zu finden. Vielmehr stößt man (in diesem wie in vielen anderen technikbezogenen Bereichen auch) auf ein Konglomerat an unreifer Technik und deren unüberlegtem Einsatz, überzogenen und unbegründbaren Erwartungen sowie unpassenden organisatorischen Rahmenbedingungen. In dieser Situation liegt eine Beschäftigung mit Kommunikationssystemen nahe, die über die technischen Entwicklungen hinausgeht. Im Folgenden werden als Reaktion auf die angerissenen Probleme Überlegungen zur Gestaltung von technischen Kommunikationssystemen vorgestellt, die eine benutzerorientierte Unterstützung geschäftlicher Kommunikation zum Ziel hat. Diese Überlegungen fokussieren sich auf EMail als den Kommunikationskanal, der momentan die größte Diskrepanz zwischen Potenzial und Praxis zeigt. E-Mail stellt sich unter technischen Aspekten als ein Medium für Nachrichtenübertragung über unterschiedliche Computersystemgrenzen hinweg dar, das zunehmend auch ‚Kleincomputer‘ wie Mobiltelefone und PDAs adressiert. E-Mail orientierte sich dabei konzeptuell wesentlich am Geschäftsbrief: „Absender“ und „Adressat“, „Bezug“ und „Betreff“, „Unser und Ihr Zeichen“ finden sich in nahe liegenden Übersetzungen im „Header“, dem formellen Briefkopf, ebenso wie die „Signatur“ als Mimikry des teilweise gedruckten Fußes auf Briefbögen erscheint. 2 In zwei wesentlichen Punkten unterscheidet sich E-Mail jedoch vom traditionellen Brief: Übermittlungsgeschwindigkeit und -kosten, beide sind im Gegensatz zur ‚Snail Mail‘ geradezu vernachlässigbar geworden. Hinzu kommt, dass die Erstellung von E-Mails im Gegensatz zur traditionellen Briefpost um ein Vielfaches schneller zu bewerkstelligen ist. Dies alles zusammengenommen reduziert die senderseitigen Kos2 Vgl. hierzu den „Request for Comment 2822 SMTP email headers“, insbesondere die Felddefinitionen in Abschnitt 3.6. URL: http://www.rfc.net/rfc2822.html#s3.6, 17.9.2004.

222

THOMAS KAMPHUSMANN

ten auf ein Minimum: Eine E-Mail, deren Inhalt zudem noch als ‚VoiceAttachment‘ aufgenommen wird, ist mit wenigen Mausklicks und in der Zeit, die das gesprochene Wort benötigt, fertig gestellt und in beliebig vielen Kopien an ebenso viele Adressaten zu vernachlässigbaren Kosten versandt. Auf Seiten des Empfängers sieht die Rechnung anders aus: Aus seiner Sicht war die Übermittlungsgeschwindigkeit bei der Briefpost selten ein Problem, und die Portokosten waren i.d.R. dem Sender aufgebürdet. Die entstehenden Kosten bestanden, sieht man von der Sortierung und Verteilung in den Poststellen ab, im Wesentlichen aus den Aufwänden für die Bearbeitung des Inhalts, also zunächst der Lektüre und den dann ggf. folgenden Aktivitäten. Während also senderseitig der Übergang von Brief- auf elektronische Post eine wesentliche Kostenreduktion bedeutet, fällt die Rechnung empfängerseitig deutlich schlechter aus. Neben kaum reduzierten Kosten für die Bearbeitung einer einzelnen Mail sind die Empfänger zusätzlich mit einem nicht gebündelten Posteingang konfrontiert, der aufgrund der technischen Übermittlungsgeschwindigkeit die Erwartung entsprechend beschleunigter Reaktionszeiten nach sich gezogen hat. Diese Erwartung ist technisch nicht begründbar, sondern lässt sich auf Geschäftsgepflogenheiten zurückführen, bei denen Bearbeitungsfristen ungefähr mit den Laufzeiten korrelierten, seien es die von Briefen, Botensendungen oder Telegrammen. Eine entsprechende Erwartung auf E-Mail zu übertragen, ist aus offenkundigen Gründen widersinnig. Sie scheint aber unterschwellig auf Seiten der Sender vorhanden zu sein, teilweise rational begründet mit dem Wissen, dass die verzögernden Poststellen für E-Mail nicht existieren, und teilweise mit dem Bild eines Empfängers vor Augen, der nichts anderes zu tun hat, als auf das Blinken des „You have new Mail“ zu warten, um jede eingehende Mail unmittelbar zu beantworten. Dieser gravierenden Diskrepanz zwischen den sender- und empfängerseitigen Kosten der Kommunikation via E-Mail, die sowohl in der internen wie der externen Kommunikation zu beobachten ist, wird nur in den seltensten Fällen durch Kommunikationsregeln begegnet. Während bei der brieflichen Kommunikation allein durch die senderseitigen Aufwände eine hohe ‚Funkdisziplin‘ aufrecht erhalten wurde, ist bei der EMail-basierten Kommunikation eine offenkundig notwendige Zurückhaltung nicht entstanden. Eher scheint im Gegenteil der gesunkene Aufwand in einer entsprechend höheren Anzahl von elektronischen Briefen zu resultieren, wodurch das senderseitige Einsparpotenzial gegenüber der brieflichen Kommunikation wenigstens teilweise kompensiert wurde.

BETRIEBLICHE KOMMUNIKATION

223

Ansätze für kommunikative Regelungen gibt es auf unterschiedlichen Ebenen. Zu nennen sind einerseits die rechtlichen Regelungen zu ‚unsolicited mails‘, die jedoch innerhalb internationaler Netze nur schlecht wirksam durchzusetzen sind. 3 Andererseits sind eher ‚kulturelle‘ Bemühungen wie die Netiquette4 und firmeninterne Regelungen zu beobachten, die mit durchschnittlichem Erfolg versuchen, die schlimmsten Auswüchse zu bekämpfen.

2.

Zielsetzung

Was aussteht, sind also sowohl wirksame kulturelle Regelungen, die der verfügbaren Technik angemessen sind, als auch eine Weiterentwicklung der Techniken, um E-Mail von den Konzepten der Briefpost zu lösen. In beiden Bereichen müssen Möglichkeiten entwickelt werden, die der angesprochenen Diskrepanz zwischen Sendern und Empfängern gerecht werden. Dies bedeutet mit Blick auf die eingangs fokussierten betrieblichen Abläufe eine systematische Entwicklung betrieblicher Kommunikationsstrukturen, -medien und -prozesse. Hierbei scheint, wie im Folgenden noch deutlich herausgestellt wird, die Fokussierung auf die Kommunikationsprozesse im Sinne sekundärer Prozesse der Geschäftsprozessmodellierung eine unmittelbare Bezugnahme auf die oben angesprochenen Kerngeschäftsprozesse zu ermöglichen. Insofern sei schon hier darauf hingewiesen, dass das im Folgenden vorgestellte Kommunikationsmodell sich wesentlich von dem insbesondere in den Ingenieurwissenschaften gängigen ‚Kommunikationsmodell‘ Shannons unterscheidet, was im eigentlichen Sinne ein Modell der Datenübertragung ist und zum Zwecke

3 Die deutsche Rechtsprechung wird inzwischen als ‚gefestigt‘ angesehen. Vgl. z.B. Spahn, Tobias: Rechtliche Beurteilung von E-Mail-Spamming. URL: http://www.artaxo.com/ebizztalk/Spam.pdf, S. 1, 17.9.2004. Ausführlicher hierzu Schlaffge, Andrea: Wettbewerbsrechtliche Probleme des Direktmarketing im deutschen und europäischen Recht unter besonderer Berücksichtigung der E-mail-Werbung. Dissertation an der Juristischen Fakultät der Heinrich-Heine-Universität Düsseldorf, 2002. URL: http://diss.ub. uni-duesseldorf. de/ebib/diss/diss_files/518.pdf, 17.9.2004. 4 Vgl. hierzu die „guidelines for Network Etiquette (Netiquette)“ RFC 1855. URL: http://rfc.net/rfc1855.html, 17.9.2004, insbesondere die Abschnitte 2 („One to One Communication“) und 3 („One to Many Communication“). Diese Trennung ist seit Entstehen des RFC 1995 als obsolet anzusehen.

224

THOMAS KAMPHUSMANN

der Optimierung von Kodierungen bei gegebenen Bandbreiten und gegebenen Datenstrukturen entwickelt wurde. 5 Dieses Kommunikationsmodell stellt für sich genommen keinen eigenständigen Wert dar, sondern dient lediglich zur Systematisierung betrieblicher Kommunikation. Auf dieses Modell bezogen ist eine Erhebungsmethodik, die im Kern aus fragebogengestützten Interviews besteht und mit deren Hilfe eine Erhebung betrieblicher Kommunikation unterstützt wird. Zusätzlich dient das Modell der Lenkung der sich an die Erhebung anschließenden Analysen, die ihrerseits die Grundlage für Gestaltungsempfehlungen liefern. Angeschlossen ist eine visuelle Notation, mit deren Hilfe der Prozesscharakter verdeutlicht werden kann und die auf weit verbreiteten Industriestandards beruht. Die mit diesem Modell angestrebte Systematik der Entwicklung betrieblicher Kommunikationsstrukturen, -prozesse und -medien betrifft dabei alle Ebenen, die auch bei den ‚ganzheitlichen‘ Wissensmanagementprojekten immer wieder angesprochen werden. Bezüglich der ‚kulturellen‘ Ebene wird die Entwicklung von Kommunikationsstrukturen – also Formen von Kommunikationsprozessen – angestrebt, die sowohl organisatorisch verankert und kodifiziert als auch informelle Praxis sein können. Beispiele hierfür wären spezifische Formen der Besprechung, die spezifische Kommunikationsprozesse wie z.B. die Entscheidung bezüglich möglicher Varianten der Projektsteuerung in ihrer Spezifik durch z.B. die Einführung einer Moderatorenrolle unterstützt. Bezüglich der prozessualen Ebene wird eine an die Geschäftsprozessmodellierung angelehnte Optimierung von Kommunikation als sekundärem Geschäftsprozess angestrebt. In diesem Bereich wird von unterschiedlichen Typen von Kommunikationsprozessen zu sprechen sein, die jeweils unterschiedliche Aktivitäten in Geschäftsprozessen oder – unabhängig von einer Geschäftsprozessmodellierung – Ziele geschäftlichen Handelns ebenso unterstützt wie die Schaffung und Dissemination von Wissen. Auf dieser Ebene stehen damit Fragen nach notwendigen und optionalen Rollen in Kommunikationsprozessen, nach maximal tolerierbaren Zeiten und nach Regeln an, nach denen Kommunikationsprozesse abzulaufen haben. Die dritte Ebene der Gestaltung betrieblicher Kommunikation betrifft die technische Unterstützung, insbesondere durch rechnerbasierte Kommunikationsmedien. Da gerade hinsichtlich der Kommunikationsun5 Shannon, Claude Elwood: „Die mathematische Theorie der Kommunikation“, in: ders./Warren Weaver: Mathematische Grundlagen der Informationstheorie. München 1976, S. 41-130.

BETRIEBLICHE KOMMUNIKATION

225

terstützung der Einsatz von aktiven technischen Lösungen einen tiefen Eingriff in die betrieblichen Abläufe und gleichzeitig in den persönlichsten Teil der Arbeitswelt darstellt, muss deren Gestaltung aus einer konsensuellen Zielbeschreibung von Kommunikations-Sollprozessen abgeleitet werden. Alle drei Gestaltungsbereiche können weder methodisch noch praktisch in einer Schärfe voneinander getrennt werden, die eine unabhängige Behandlung zuließe. Diese zumindest zum jetzigen Zeitpunkt nicht voll zu überblickenden Abhängigkeiten müssen insbesondere im praktischen Einsatz des Kommunikationsmodells durch einen Pragmatismus abgefangen werden, dessen Reflexion zur Weiterentwicklung des Kommunikationsmodells und seiner Anwendung beizutragen hat. Erste bestätigende Ergebnisse werden derzeit (September 2004) in einer Pilotierung in einem großen Immobilienunternehmen gewonnen, weitere durch den Einsatz im Rahmen einer Studie zur „virtuellen Wissenschaft“ und im Zuge weiterer industrieller Projekte in 2005 erwartet.

3.

CommunicAID®:model

Die folgenden Abschnitte beschreiben detaillierter das für den hier vorgestellten Ansatz zentrale Kommunikationsmodell. Es hebt sich wesentlich von den prominenten Kommunikationsmodellen ab, die auf die Nachrichtentechnik und die frühe Kybernetik zurückgehen und die genauer als Modelle der Datenübertragung anzusprechen sind. Die Entwicklungen des Fraunhofer ISST nehmen diese Modelle als Grundlage auf, erweitern sie jedoch auf der Basis sowohl von zeichentheoretischen und linguistischen Forschungen6 wie auch im Hinblick auf wirtschaftswissenschaftliche Methoden, insbesondere aus dem Umfeld der Geschäftsprozessmodellierung.7 Die folgende Abbildung stellt das Ge-

6 Besonders zu nennen sind als Hintergrund der folgenden Überlegungen Saussure, Ferdinand de: Grundlagen der allgemeinen Sprachwissenschaft. 2. Aufl., Berlin 1967; Searle, John: Sprechakte. Frankfurt/M. 1971; Winograd, Terry/Flores, Fernando: Erkenntnis Maschinen Verstehen. Zur Neugestaltung von Computersystemen. 2. Aufl. Berlin 1992 sowie Foucault, Michel: Die Ordnung des Diskurses. Frankfurt/M. 1996. 7 Das Fraunhofer ISST beschäftigt sich seit seiner Gründung intensiv mit Fragen der Modellierung und technischen Unterstützung von Geschäftsprozessen. Beispielhaft seien hierzu zwei Dissertationen genannt: Lindert, Frank: Fraktales Prozessmanagement. Dissertation, TU Berlin, 1999; Goesmann, Thomas: Ein Ansatz zur Unterstützung wissensintensiver Prozesse durch Workflow-Management-Systeme. Dissertation, FU Berlin, 2002.

THOMAS KAMPHUSMANN

226

samtmodell überblicksartig dar und dient zur Orientierung für die folgenden Abschnitte. Primäre Prozessebene - Geschäftsprozesse

Sekundäre Prozessebene -Wissensprozesse - Kommunikation

Periodische Wdh. Definierte Inhalte Teilnehmerkreis Rollendefinition Kommunikationsregeln Zielsetzung

bildet aus wird beeinflusst von

eingehend

Aktivität

Organisatorische Regeln

Kommunikationsstruktur

Kommunikationsprozess

Ziel Rolle Dokumente (ein) Dokumente (aus) Werkzeuge

ausgehend

je nach definiertem Ziel werden in Aktivitäten adäquate Kommunikationsprozesse ausgelöst

Index [KP] Dauer [in Minuten] Häufigkeit [in #/Tag] Erfolgswahrscheinlichkeit [in%] Typ [ ] auslösende Aktivität [ ] verantwortliche Rolle [ ] beteiligte Komm.partner [ ]

Ergebnis

eingehend

Kommunikativer Akt Ergebnis

besteht aus ist Teil von

Sender (S) Empfänger (E) Inhalt [ ] Kommunikationskanal [ Inhalt: repr. durch [ ]

Aktivität Ziel Rolle Dokumente (ein) Dokumente (aus) Werkzeuge

]

besteht aus ist Teil von

Typ: 1 von 5 Klassen der SAT Stil [ ] Linguistische Parameter [ ] Typisierung [ ] ...

Technische Gestaltung

Äußerung ausgehend

Abb. 1: Übersicht über das Modell betrieblicher Kommunikation

3.1

Kommunikationsprozesse

Der zentrale Einstieg in das am Fraunhofer ISST entwickelte Kommunikationsmodell ist der kommunikative Prozess. Hierunter wird ein abgeschlossener kommunikativer Vorgang verstanden, der – ausgelöst in einer bestimmten Aktivität eines Geschäftsprozesses – zwischen einer Menge Kommunikationspartnern mit einem – teilweise auch nur implizit – festgelegten Ziel stattfindet. Hiermit sind die zwei zentralen, weil systematisierenden Kriterien genannt: einerseits der Bezug zu einer Aktivität in einem Geschäftsprozess, und andererseits eine Typisierung, die auf dem zu erreichenden Ziel der Kommunikation basiert. Ein niedrig komplexes Beispiel hierfür wäre „Terminfindung für die Endredaktion einer Pressemitteilung“, ein komplexeres Beispiel könnte „Strategieentwick-

BETRIEBLICHE KOMMUNIKATION

227

lung für den Aufbau einer neuen Abteilung des ISST“ lauten. In diesen Beispielen bezeichnen ‚Terminfindung‘ und ‚Strategieentwicklung‘ jeweils einen Typ von Kommunikationsprozess, während der Rest das mit einer Instanz dieses Typs – also das mit diesem konkreten Prozess – verbundene Ziel skizziert. Im Gegensatz zur Modellierung von Geschäftsprozessen sind Kommunikationsprozesse in diesem Verständnis nicht in einer Weise modellierbar, dass sie durch eine feste Schrittfolge von Aktivitäten mit entsprechenden Rollen und zugehörigen Dokumenten und Werkzeugen bestimmt werden könnten. Vielmehr ist schon bei dem Terminfindungsbeispiel deutlich zu machen, dass der konkrete Ablauf ebenso wie zugeordnete Rollen, Dokumente und Werkzeuge eine Vielzahl von Ausprägungen haben können: Angefangen von der telefonischen Abstimmung durch das Sekretariat über E-Mails an den potenziellen Teilnehmerkreis bis zum Automatismus auf der Basis eines Gruppenterminkalenders. Dies allein ist ein hinreichender Grund, warum Kommunikationsprozesse sinnvollerweise nicht als Geschäftsprozesse analysiert und modelliert werden sollten. Im Kern werden damit Kommunikationsprozesse durch ihre Verknüpfung mit Geschäfts- und im weiteren Sinne mit Wissensprozessen und durch ihre Typisierung gekennzeichnet. Beides, die Relation und das Attribut, können nur auf einem sehr hohen Abstraktionsniveau generalisiert werden. Diese Ebene scheint – noch bevor sich dieses Modell in konkreten Kundenprojekten bewährt hat – nicht hinreichend spezifisch, um Unternehmensprozesse in einer Weise zu beschreiben, dass sie einer Kommunikation mit dem Ziel der Erarbeitung von Verbesserungsvorschlägen zugänglich sind. Daher wird beim Einsatz dieses Kommunikationsmodells immer eine wenigstens rudimentäre Geschäftsprozesserhebung und -modellierung notwendig sein. Auf diese bezogen muss die Erhebung der Kommunikationsprozesse in einem ersten Schritt eine Typisierung der nachweislichen Kommunikationsprozesse leisten, die nicht durch die Nutzung eines generischen Katalogs von Kommunikationsprozesstypen ersetzt, sondern höchstens durch ihn unterstützt werden kann. Für diese Kommunikationsprozesstypen muss dann in einem zweiten Schritt eine Heuristik angesetzt werden, die möglichst belastbare Hinweise auf problematische Kommunikationsprozesse zu liefern in der Lage ist. Mit Blick auf die Einbindung von Kommunikationsprozessen in eine ökonomische Gesamtsicht sind hierbei insbesondere die Kostenfaktoren Dauer und Häufigkeit sowie die Erfolgswahrscheinlichkeit Kernelement der angesprochenen Heuristik.

228

THOMAS KAMPHUSMANN

3.2. Kommunikative Akte und nachgeordnete Einheiten Der geschilderte Ansatz der Modellierung vollständiger, durch ein benennbares Ziel im Rahmen eines Geschäftsprozess definierter Kommunikationsprozesse schließt zunächst die traditionell in Kommunikationsmodellen zentralen Beschreibungselemente Sender, Empfänger, Kanal und Nachricht aus. Auch wenn, ähnlich wie in der Geschäftsprozessmodellierung, ein weites Spektrum der Modellierungstiefe auch bei den Kommunikationsprozessen möglich ist und sie damit Teile anderer Kommunikationsprozesse sein können, muss unterhalb der Prozesse eine Einheit eingefügt werden, in der insbesondere die vier genannten Beschreibungselemente aus den ‚Kommunikationsmodellen‘ zentral sind. Diese Ebene wird im hier vorgestellten Kommunikationsmodell durch kommunikative Akte gebildet, die durch die Abgeschlossenheit einer Nachrichtenübermittlung und damit durch die Konstanz von Sender, Empfänger, Kanal und Nachricht zu beschreiben sind. Explizit eingeschlossen werden müssen hierbei sowohl maschinelle Instanzen von Sendern und Empfängern wie auch unterschiedliche Multicast- und ggf. sogar Broadcast-Szenarien. Dies ist aus Modellierungssicht nötig, um das gesamte Spektrum inzwischen verfügbarer ‚intelligenter‘ Kommunikationstechnik mit personalisierten Nachrichtendiensten, Agentensystemen oder Avataren in einer durchgehenden Systematisierung mit einbeziehen zu können. Kommunikationsprozesse stellen sich damit als zumindest prinzipiell geordnete Folge von kommunikativen Akten dar, wobei Nebenläufigkeiten grundsätzlich nicht ausgeschlossen werden können. Unterhalb der kommunikativen Akte lassen sich die in ihnen transportierten Nachrichten hinsichtlich der in ihnen enthaltenen Äußerungen weiter analysieren. Auf dieser Ebene berührt das Kommunikationsmodell die Linguistik und bedient sich ihrer Elemente. Insbesondere muss hier auf die Sprechakttheorie hingewiesen werden, die mit ihrer Grundannahme von Sprache als Handlung einen Bogen zu geschäftlichem Handeln zu ermöglichen verspricht. Darüber hinaus stellen auf dieser Ebene der Modellierung von Kommunikationsprozessen und ihrer Einheiten alle unter dem Dach des Text-Mining entwickelten Verfahren, insbesondere auch die inhaltsanalytischen, wertvolle Werkzeuge dar. Insgesamt sind diese nachgeordneten Ebenen von Kommunikationsprozessen von Relevanz, wenn die Gründe ihrer Ineffizienz detailliert nachgewiesen werden müssen.

BETRIEBLICHE KOMMUNIKATION

3.3

229

Kommunikationsstrukturen

Auf der anderen Seite der Granularität bilden kommunikative Prozesse durch Repetition Strukturen aus, die ihrerseits den in ihnen laufenden Prozessen einen Rahmen bilden. An dieser Stelle ist nicht – analog zu den kommunikativen Akten und weiteren nachgeordneten Einheiten in Bezug zu Kommunikationsprozessen – von einer Teil-Ganzes-Beziehung zu sprechen, sondern von einer Prägung gesellschaftlicher und organisatorischer Strukturen durch Muster kommunikativer Prozesse. Dieses Verhältnis muss als Wechselbeziehung aufgefasst werden, da kodifizierte organisatorische ebenso wie habituelle Strukturen ihrerseits maßgeblich Kommunikationsprozesse lenken und gestalten. Beispiele hierfür findet man in großer Anzahl in der täglichen Arbeitspraxis wie auch in Organisationshandbüchern. Zu nennen sind die unterschiedlichsten Besprechungsformen ebenso wie deren technisch unterstützte Pendants, also die Chats und Diskussionsforen sowie die sie bestimmenden Netiquetten. Aber auch die mehr oder weniger strukturierten Kommunikationsformen, die sich im Controlling und Reporting ausgebildet haben, zählen zu den hier anzusprechenden Strukturen. Auch wenn diese Vielfalt kaum auf einen kanonischen und vollständigen Satz an Beschreibungselementen reduziert werden kann, zeichnet sich doch ein hinsichtlich der Gesamtzielsetzung verwendbarer Kernbestand heraus. Insbesondere die Periodizität, die Teilnehmer und ihre Rollen sowie die expliziten und impliziten Kommunikationsregeln stellen ein Beschreibungsraster dar, das sowohl entsprechende Gestaltungsoptionen eröffnet wie auch in starkem Maße die Erfolgswahrscheinlichkeit der in diesen Strukturen stattfindenden Kommunikation bestimmt.

4.

Erhebungsinstrumentarium

Die Erhebung von kommunikativen Prozessen steht vor dem nicht unerheblichen Problem, hochgradig individuelle und in der eigenen Wahrnehmung oft als einzigartig empfundene Vorgänge in einer Weise beschreibbar zu machen, die sowohl unterschiedliche Einzelfälle vergleichbar und darüber hinaus in sinnvoller Weise aggregier- und verallgemeinerbar macht. Aus Erfahrungen der Geschäftsprozesserhebung abgeleitet werden für CommunicAID® vorstrukturierte Interviews eingesetzt, die überwiegend geschlossene Fragen enthalten. Diese Interviews gliedern sich in vier Blöcke.

230

THOMAS KAMPHUSMANN

In einem ersten Block werden unternehmensweite oder auf einzelne Organisationseinheiten bezogene Leitsätze und Regelungen für Kommunikation erfragt. Hierzu wird auch eine Einschätzung des Interviewten erhoben, wieweit diese Leitsätze im Unternehmen auch umgesetzt werden. Die personenbezogenen Daten bilden den zweiten Schwerpunkt. Mit diesen Fragen werden die Rolle der befragten Personen, die persönlich genutzten Kommunikationskanäle und die persönlichen Erfahrungen mit kommunikationsunterstützenden Werkzeugen abgefragt. Diese beiden ersten Blöcke skizzieren den Rahmen, innerhalb dessen die in den folgenden zwei Blöcken erfragten Kommunikationsprozesse stattfinden. Im dritten Abschnitt des Fragebogens wird versucht, die wichtigsten und häufigsten Kommunikationsprozesse zu erfragen, die vom Interviewten selber initiiert werden. Wenn der Interviewte die Kommunikationsprozesse nicht direkt benennen kann, wird ein Zugang über die Tätigkeiten versucht, indem entweder vorhandene Geschäftsprozessmodelle hinzugezogen oder eine rudimentäre Erhebung der relevanten Geschäftsprozesse durchgeführt wird. Insbesondere wird versucht, die Aktivitäten mit dem höchsten Kommunikationsanteilen zu bestimmen und für diese jeweils die Dauer, Häufigkeit und Erfolgswahrscheinlichkeit zu quantifizieren. Für die sich anschließenden Analysen essenziell ist zudem, eine Qualifizierung der einzelnen Kommunikationsprozesse zu erfragen, die eine Typisierung und Gruppierung erlaubt. Auf eine detailliertere Beschreibung, insbesondere auf eine Erhebung der konstitutiven kommunikativen Akte wird zunächst aus Aufwandsgründen verzichtet. In einem letzten Block werden, strukturell dem vorangegangenen ähnlich, die Kommunikationsprozesse erhoben, die an die interviewte Person herangetragen werden. Redundanz in der Gesamterhebung wird zur Absicherung der Ergebnisse bewusst in Kauf genommen, darüber hinaus wird jedoch auch eine zweite Bewertung erhoben, die nicht notwendigerweise mit der ersten übereinstimmt, insbesondere, wenn sich unabhängig von den Kerngeschäftsprozessen weitere sekundäre Prozesse wie z.B. Wissensprozesse mit persönlichem Expertenbezug etabliert haben. Allen Blöcken sind offene Fragen im Hinblick auf Verbesserungsvorschläge angehängt. Diese sind nicht allein mit Bezug auf ein auch für Kommunikationsprozesse sinnvolles innerbetriebliches Vorschlagswesen eingeführt, sondern sollen auch helfen, Schwachstellen in den Interviews aufzudecken.

BETRIEBLICHE KOMMUNIKATION

231

Diese Fragebögen stellen den Kern des Erhebungsinstrumentariums dar und strukturieren die persönlich geführten Interviews. Darüber hinaus stellen sie die Grundlage für Online-Fragebögen dar, die für breit angelegte Erhebungsprozesse eingesetzt werden können. Eingebettet sind diese Interviews in einen Erhebungsprozess, der in einer Weise, wie sie aus Wissensmanagementprojekten bekannt ist, hochgradig partizipativ gestaltet wird. Hierzu gehört der aktive Einbezug der Personalvertretung und des Managements ebenso wie die Möglichkeit der projektspezifischen Ausgestaltung der Fragebögen selbst.

5.

Notation

Um die strukturierte, intuitive und zielführende Kommunikation über die erhobenen Kommunikationsprozesse zu unterstützen, können zur Notation sowohl die Unified Modeling Language (UML) als auch erweiterte Ereignis-gesteuerte Prozessketten (eEPK) eingesetzt werden.8 Für beide Notationsformalismen werden Erweiterungen eingeführt, um den Spezifika von CommunicAID®:model gerecht zu werden. Eine formalere Modellierungssprache (wie z.B. Petrinetze) ist aktuell nicht vorgesehen, da nicht absehbar ist, dass Simulationen nachgefragt werden. Ziel beider Notationen ist die Ermöglichung einer integrierten Sicht von Geschäftsund Kommunikationsprozessen. Die folgenden Absätze skizzieren die Umsetzung lediglich grob. Innerhalb von UML 2.0 wird zur integrierten Modellierung von Geschäfts- und Kommunikationsprozessen das Beschreibungsmittel „Aktivität“ verwendet. Dieses Beschreibungsmittel basiert in der UMLVersion 2.0 auf einem eigenständigen Metamodell. Die einzelnen Schritte eines Vorgangs, Prozesses bzw. Ablaufs heißen dabei „Verhaltensaufrufe“ (activity invocation), so dass ein Ablaufschritt nicht mehr selbst ein Verhalten repräsentiert, sondern dieses nur aufruft. Aufrufbar sind dabei verschiedene Arten von Verhalten, entweder als elementare Operation oder als komplettes Untermodell, was einer ganzen Aktivität entspricht. Hierdurch besteht die Möglichkeit, strukturierte und ‚kanonisierte‘ Kommunikationsprozesse selber als eigenständige Geschäftsprozesse zu 8 UML stellt eine Reihe von Notationen bereit, mit deren Hilfe eine integrierte Modellierung von Geschäftsmodellen und -prozessen und Softwaresystemen möglich ist. Sie wird von der Object Management Group standardisiert und weiterentwickelt. Vgl. hierzu URL: http://www.uml.org, 23.9.2004. eEPK stellt eine weit verbreitete Notation zur Beschreibung von Geschäftsprozessen dar.

THOMAS KAMPHUSMANN

232

modellieren. Erwähnt sei an dieser Stelle, dass zur Steigerung der Ausdrucksfähigkeit im Beschreibungsmittel „Aktivität“ der UML 2.0 zudem die Semantik von Petrinetzen integriert wurde, so dass hierdurch prinzipiell auch eine Erweiterung von CommunicAID® hin zu einem simulierbaren Modell offen steht. Zur Annotation von Kommunikationsprozessen an Verhaltensaufrufe wird die Syntax von Aktivitäten verwendet, die um erweiterte Objektknoten ergänzt wurde. Innerhalb des eEPK-Universums wäre die Einführung einer zusätzlichen fünften Sicht (neben Daten-, Funktions-, Organisations- und Ressourcensicht) das probate Mittel zur Modellierung von kommunikativen Prozessen, Strukturen und Akten gewesen. Eine derartige Modellierung hätte dem Grundsatz einer engen Kopplung der Elemente innerhalb der jeweiligen Sicht und einer lediglich lockeren Kopplung zwischen den Sichten entsprochen. Allerdings ist die Einführung einer weiteren Sicht in das entsprechende ARIS-Toolset nicht vorgesehen, so dass – mit Blick auf die Anschlussfähigkeit des hier vorgestellten Modells – eine Umsetzung auf Ereignis-Prozess-Ketten vorgenommen wurde. Zur Umsetzung des Modells wird die Möglichkeit der Substitution einer Funktion durch eine EPK in einer generischen Weise genutzt, indem die Kommunikationsprozesse als Funktion der substituierten Funktion vor- oder nachgeschaltet werden. Auch hier besteht die Möglichkeit der spezifischen Modellierung „kanonisierter“ Kommunikationsprozesse. Die Erweiterung um die nötigen Attribute ist innerhalb des „Konfigurationsfilters“ problemlos möglich. In beiden Umsetzungen bleiben die starken Bezüge zwischen Kommunikationsprozessen und Geschäftsprozessen erhalten. Die Entscheidung für eine der beiden Notationen wird dabei vor allem durch das Umfeld und die weitere Zielrichtung der Projekte bestimmt, die auf diesem Modell fußen. Bei Schwerpunkten auf Organisationsentwicklung wird die Tendenz zur Nutzung von eEPK gehen, bei einer eher technisch orientierten Schwerpunktsetzung dürfte die Nutzung von UML nahe liegen.

6.

Analyse

Der primäre Nutzen des hier vorgestellten Modells besteht in der Möglichkeit, in einer strukturierten und nachvollziehbaren Art die betriebliche Kommunikation in Überlegungen der operativen und strategischen Prozesse einbeziehen zu können. Dies allein ist überall da ein notwendiger erster Schritt, wo die betriebliche Kommunikation als persönliche,

BETRIEBLICHE KOMMUNIKATION

233

beinahe intime Sphäre eines jeden Mitarbeiters angesehen und damit der Gestaltung entzogen wird. In einem weitergehenden Schritt stellt das Modell die Basis für Handlungsempfehlungen dar, die gleichermaßen organisatorische, prozessuale und technische Zielrichtungen verfolgen können. Eine methodisch abgesicherte Analysemethodik der erhobenen Kommunikationsprozesse ist nicht allein aufgrund der Komplexität des – gemessen an anderen Modellierungsansätzen9 noch übersichtlichen – Modells schwierig. Dabei kann, soviel zeichnet sich jetzt schon bei den Pilotprojekten ab, die Analyse sowohl im Hinblick auf prozessuale wie auf personenbezogene Kriterien angelegt werden. Für die Erarbeitung von übertragbaren, unternehmensweit einsetzbaren Lösungen auf der Basis selektiver Erhebungen erscheint jedoch ein prozessbezogener Einstieg, wie er im Folgenden skizziert wird, deutlich tragfähiger. Um einen systematisierenden Überblick zu erhalten, werden die in den Interviews erhobenen Kommunikationsprozesse in einem ersten Schritt typisiert und entsprechend gruppiert. Die hierfür eingesetzte Typologie basiert auf einer allgemein ausgerichteten Hierarchie von möglichen Zielen von Kommunikation. Es ist jedoch jetzt schon erkennbar, dass für die praktischen Erfordernisse innerhalb von Projekten eine fallweise Ausdifferenzierung und/oder Vergröberung notwendig sein wird, die sich sowohl an den organisatorischen Strukturen, den Geschäftsprozessen und nicht zuletzt an den Projektzielen orientieren muss. Als orientierendes Ordnungsmuster bieten sich dabei die fünf Klassen der Sprechakttheorie an. Dies mag zunächst widersinnig erscheinen, da die Sprechakttypologie traditionell auf einzelne Äußerungen bezogen wird, hier jedoch als Orientierung für wesentlich komplexere Einheiten herangezogen wird. Es scheint jedoch – was in Projekten zu überprüfen sein wird –, dass sich mit den fünf Typen ein ‚Grundtenor‘ auch auf der Ebene von Kommunikationsprozessen bezeichnen lässt. Die Ausdifferenzierung

9 Hervorzuheben sind in diesem Zusammenhang die „Kommunikationsstrukturanalyse“, die in den 80er Jahren im Rahmen eines DFG-Projektes an der TU Berlin entwickelt wurde und vor allem auf die Steuerung von Informationsflüssen ausgerichtet ist; die „Kommunikationsdiagnose“, die auf die Reduktion der Komplexität von Kommunikation zielt sowie die eine integrierte Geschäfts- und Kommunikationsprozessanalyse anstrebt sowie die „Integrierte Prozess- und Kommunikationsmodellierung zur Verbesserung von wissensintensiven Geschäftsprozessen“ auf der Basis des Konzepts von „Transactive Memory Systems“. Keines dieser Modelle scheint jedoch in betrieblichen Projekten mit Erfolg eingesetzt worden zu sein.

234

THOMAS KAMPHUSMANN

wird dabei auch zu berücksichtigen haben, innerhalb welcher Aktivitäten und Rollen die Kommunikationsprozesse stattfinden. Innerhalb dieser Gruppen wird auf der Basis der kostenbezogenen quantifizierbaren Attribute ein Index errechnet, der eine erste Reihenfolge begründet, nach der die einzelnen Kommunikationsprozesse einer intensiveren Begutachtung zugeführt werden. Dabei darf der Index nicht als Qualitätsmaßstab missinterpretiert werden, sondern er stellt eine erste Priorisierung der beobachteten Kommunikationsprozesse dar, die in einem Abstimmungs- und Bewertungsprozess mit dem Auftraggeber zu diskutieren sein wird. Erst ein derartiges Diskussionsergebnis, in das ebenso die nicht quantifizierbaren Kriterien wie auch die Kenntnisse des täglichen Betriebs und die Einschätzungen der Interviewten einzugehen haben, stellt die Grundlage für eine tiefer gehende Analyse der als verbesserungswürdig anzusehenden Kommunikationsprozesse dar. Dieser zweite Analyseschritt versucht die Binnenstruktur der Kommunikationsprozesse auf einer Detaillierungsebene zu beschreiben, aus der Hinweise für Verbesserungspotenzial und die einzusetzenden Mittel abzuleiten sind. Diese Ebene wird innerhalb des Modells als „kommunikative Akte“ bezeichnet. Auf dieser Ebene werden die für den Prozess eingesetzten Medien, Systeme, Personen und Strukturen identifizierbar. Im Vergleich unterschiedlicher Instanzen gleich typisierter Kommunikationsprozesse wird insbesondere auf die wiederkehrenden Muster hinsichtlich des Ablaufs, aber auch auf die Effizienz der eingesetzten Medien geachtet. Damit wird sowohl die Beschreibung der best practices als auch die Quantifizierung typischer Zeiten, Aufwände und damit Kosten möglich. Die hier skizzierte Methode der Analyse von Kommunikationsprozessen ist in Teilen noch spekulativ und skizziert ein projektbezogenes Vorgehen, dessen primäres Ziel nicht die wissenschaftliche Absicherung einer Analysemethodik, sondern die Erzielung konstruktiv verwendbarer Ergebnisse ist. Zusätzlich werden Visualisierungen von Kommunikationsstrukturen eingesetzt, die auf der Auswertung von E-Mail-Verkehr automatisch erhoben werden.10 Diese Situation begründet einen substanziellen Forschungsbedarf mit dem Ziel, ein nachvollziehbares Verfahren der Ableitung von Verbesserungsvorschlägen für die betriebliche Kommunikation auf der Basis strukturierter Interviews zu erlangen. 10 Vgl. hierzu Gassner, Katrin: „Using Patterns to Reveal E-Mail Communication Structures“, in: Proceedings of the 2nd International Workshop on Designing Computational Models of Collaborative Learning Interaction. URL. http://sra.itc.it/people/soller/ITS2004Workshop/proceedings.pdf, 22.9.2004.

BETRIEBLICHE KOMMUNIKATION

7.

235

Gestaltung technischer Kommunikationsmedien

Das hier vorgestellte Kommunikationsmodell, das darauf bezogene Erhebungsinstrumentarium und die auf diesen Erhebungen fußenden Analysen haben zum Ziel, systematisch entwickelte Verbesserungsvorschläge auf organisatorischer, prozessualer und insbesondere technischer Ebene machen zu können. Vor allem die gezielte Gestaltung aktiver technischer Kommunikationsmedien steht dabei am Fraunhofer ISST im Vordergrund. Aktive Kommunikationsmedien sind dabei in unserem Verständnis solche, die nicht allein einen Datentransport sicherstellen, sondern die in der Lage sind, Kommunikationsregeln zu unterstützen, zu überprüfen und ggf. zu erzwingen sowie darüber hinaus gehende Hilfestellungen zur effizienten Kommunikation zu geben. Dies kann – aus praktischen wie zeichentheoretischen Erwägungen – nur gelingen, wenn derartige Systeme die kommunizierten Informationen auf ein Modell der Arbeitsumgebung beziehen können, das für Sender und Empfänger den Hintergrund ihrer Kommunikation darstellt. Hinzu kommen müssen die Modifikationsregeln für Kommunikation selber. Ein derartiges Modell inklusive der angesprochenen Regeln wird in unseren Arbeiten als Business Communication Ontology bezeichnet und kann – je nach Einsatzzweck und Systemumfeld – in sehr unterschiedlicher Weise implementiert werden. Beispielsweise genügen in einfachen Unterstützungstools wie einem thematisch arbeitenden Mail-Routing im Kern Listen von Themen, Organisationseinheiten, Projekten und Personen sowie Zuordnungstabellen und einfache Ableitungsregeln, um eine Vielzahl von Mailinglisten zu ersetzen und mit einfachen textanalytischen Verfahren die ineffiziente Adressierung von alle@organisation abzuschaffen und durch eine gezieltere, wenn auch sicherlich nicht immer perfekte Adressierung von thema@organisation zu ersetzen. Zur effizienten Erarbeitung einer Vielzahl solcher Unterstützungstools wird derzeit das Informationslogistik-Framework, das im Fraunhofer ISST für die flexible und bedarfsgerechte Informationsverteilung entwickelt wurde, zu einem Framework erweitert, dass eine bedarfsgerechte und effiziente Kommunikation zu unterstützen in der Lage ist. Dieses Framework wird den Einbezug von Fachanwendungen unterstützen, um den oben angesprochenen Bezug auf ein Modell der Arbeitsumgebung durch die Anbindung von insbesondere ERP (Enterprise Resource Planning), Workflow-, Content- und Wissensmanagement-Systemen zu gewährleisten. Hinzu kommt die Implementierung von Kommunikati-

THOMAS KAMPHUSMANN

236

onsprozessmodellen, die auf der Basis des auch der Erhebung zugrunde liegenden Metamodells formuliert werden. Eine Vorstellung dieser Architektur aus Sicht des Nachrichtenflusses gibt die folgende Abbildung.11

n nitio Defi n> Rule conditio n> o IF