178 44 12MB
German Pages 296 Year 2006
Information und Sprache Festschrift für Harald H. Zimmermann
Information und Sprache Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern Festschrift für Harald H. Zimmermann
Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Glessen
K G · Saur München 2006
Bibliografische Information Der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.ddb.de abrufbar.
© Gedruckt auf säurefreiem Papier
© 2006 by K. G. Saur Verlag GmbH, München Printed in Germany Alle Rechte vorbehalten. Das Werk ist in allen seinen Teilen urheberrechtlich geschützt. Jede Verwertung ist ohne Zustimmung des Verlages unzulässig. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung in und Verarbeitung durch elektronische Systeme. Druck/Bindung: Strauss GmbH, Mörlenbach ISBN-13: 978-3-598-11754-1 ISBN-10: 3-598-11754-X
Inhalt Information und Sprache und mehr - eine Einleitung
1
Information und Kommunikation: WolfRauch Auch Information ist eine Tochter der Zeit
3
Winfried Lenders Information und kulturelles Gedächtnis
7
Rainer Hammwöhner Anmerkungen zur Grundlegung der Informationsethik
17
Hans W. dessen Ehrwürdig stille Informationen
29
Gernot Wersig Vereinheitlichte Medientheorie und ihre Sicht auf das Internet
35
Johann Haller, Anja Rütten Informationswissenschaft und Translationswissenschaft: Spielarten oder Schwestern?
47
Rainer Kuhlen In Richtung Summarizing für Diskurse in K3
55
Werner Schweibenz Sprache, Information und Bedeutung im Museum. Narrative Vermittlung durch Storytelling
75
Sprache und Computer, insbesondere Information Retrieval und Automatische Indesierung Manfred Thiel Bedingt wahrscheinliche Syntaxbäume
85
Jürgen Krause Shell Model, Semantic Web and Web Information Retrieval
95
Elisabeth Niggemann Wer suchet, der findet? Verbesserung der inhaltlichen Suchmöglichkeiten im Informationssystem Der Deutschen Bibliothek
107
Christa Womser-Hacker Zur Rolle von Eigennamen im Cross-Language Information Retrieval
119
Klaus-Dirk Schmitz Wörterbuch, Thesaurus, Terminologie, Ontologie. Was tragen Terminologiewissenschaft und Informationswissenschaft zur Wissensordnung bei?
129
V
Jiri Panyr Thesauri, Semantische Netze, Frames, Topic Maps, Taxonomien, Ontologien begriffliche Verwirrung oder konzeptionelle Vielfalt?
139
Heinz-Dieter Maas Indexieren mit AUTINDEX
153
Wilhelm Gaus, Rainer Kaluscha Maschinelle inhaltliche Erschließung von Arztbriefen und Auswertung von Reha-Entlassungsberichten
159
Klaus Lepsky Automatische Indexierung des Reallexikons zur Deutschen Kunstgeschichte
169
Analysen und Entwicklungen Ilse Harms Die computervermittelte Kommunikation als ein Instrument des Wissensmanagements in Organisationen
179
August-Wilhelm Scheer, Dirk Werth Geschäftsregel-basiertes Geschäftsprozessmanagement
189
Thomas Seeger Akkreditierung und Evaluierung von Hochschullehre und -forschung in Großbritannien. Hinweise für die Situation in Deutschland
205
Bernd Hagenau Gehabte Sorgen hab' ich gern? Ein Blick zurück auf die Deutschen Bibliothekartage 1975 bis 1980
219
Persönliches Jorgo Chatzimarkakis Sprache und Information in Europa
229
Alfred Gulden 7 Briefe und eine Anmerkung
235
Günter Schaidt Der Weg nach Europa im Spiegel von Mundartgedichten Alfred Guldens
243
Wolfgang Müller Prof. Dr. Harald H. Zimmermann - Seit 45 Jahren der Universität des Saarlandes verbunden
253
Heinz-Dirk Luckhardt Computerlinguistik und Informationswissenschaft: Facetten des wissenschaftlichen Wirkens von Harald H. Zimmermann
257
Schriftenverzeichnis Harald H. Zimmermanns 1967-2005
271
Projekte in Verantwortung von Harald H. Zimmermann
285
Adressen der Beiträgerinnen und Beiträger
287
vi
Information und Sprache und mehr - eine Einleitung Ilse M. Harms, Heinz-Dirk Luckhardt, Hans W. Glessen Harald H. Zimmermann war schon von jeher ein außergewöhnlicher Universitätsprofessor. In vielerlei Hinsicht kann man sagen, dass er seiner Zeit - teilweise deutlich - voraus war. Vielleicht kann man ihn als einen Hochschullehrer bezeichnen, der schon früh erkannt, umgesetzt und gelebt hat, was man später, mit einem nicht unproblematischen Begriff, als .postmodern' bezeichnet hat: Er hat Wissensgebiete miteinander verknüpft, die teilweise unverbindbar schienen; er hat die akademische Welt mit anderen Bereichen (etwa der Wirtschaft, aber auch der Politik oder, nicht zuletzt, der Literatur) verbunden, als dies noch gänzlich unüblich war. Harald Zimmermann hat dies geleistet, weil es sich so ergeben hat und er ganz einfach die Resultate seiner Forschungen sichern beziehungsweise anwenden wollte. Und weil er ein offener, neugieriger Mensch ist, sich immer wieder begeistert neuen Herausforderungen stellt. Schließlich: weil er ideenreich und denkerisch flexibel ist wie nur wenige. Konkret: Er hat Germanistik und Informatik studiert - die Kombination war noch ungewöhnlicher als heute; sie hat es ihm erlaubt, sich in einen neuen, damals revolutionären Forschungsbereich einzuarbeiten, die ,Sprachdatenverarbeitung', die damals bereits zu Forschungsergebnissen gelangte, auf die die heutige Computerlinguistik noch immer aufbauen kann. Dies führte schon in jungen Jahren zur ersten Professur in Regensburg, die ebenfalls im Schnittfeld von Germanistik und Informatik lag. An der Universität des Saarlandes baute Harald Zimmermann dann den Studiengang ,Informationswissenschaft' auf. Quasi .nebenbei' engagierte er sich unternehmerisch, um die Erkenntnisse und Daten der .Sprachdatenverarbeitung' nicht in der Schublade verkommen zu lassen. Zudem .nebenbei': sein politisches Engagement, das bis heute anhält. Auch hochschulpolitisches und -planerisches Engagement, etwa bei der Umstellung auf die Bologna-Kriterien. Harald Zimmermann war viele Jahre in der Selbstverwaltung aktiv und hat als Studiendekan Respekt und Bewunderung bei den Studirenden erworben. In den letzten Jahren dominierte das Interesse an Literatur und Heimat. Und wieder verbindet, verknüpft Harald Zimmermann auf überraschende, inspirierende Art und Weise scheinbar disparates: Ausdruck ist die informationswissenschaftliche Beschäftigung mit Regionalliteratur oder die informationswissenschaftliche Erschließung von Nietzsches Werk. Harald Zimmermanns Interessen und Forschungsfelder spiegeln sich auch in dieser Festschrift wider. Das Spektrum reicht vom Lob des Künstlers zum wirtschaftsinformatischen Aufsatz, von der philosophischen Betrachtung bis zur,harten' Informationswissenschaft. Es finden sich ebenso informationstheoretische und informationsethische Beiträge wie Artikel über Entwicklungen im Bereich der modernen Informationssysteme (Stichwort „Internet") zu Themen wie „Semantic Web", „Suchsysteme" und „Automatische Indexierung". Wir laden die Leser mit diesem Sammelband zu einer ungewöhnlichen wissenschaftlichen Reise ein, so ungewöhnlich
1
wie der Wissenschaftler Harald Zimmermann, dessen 65. Geburtstag Anlass für diese Veröffentlichung ist. Dass Harald H. Zimmermann auch als Mensch außergewöhnlich ist, sei an dieser Stelle obgleich es sich um ein akademisches Werk handelt - auch erwähnt; immerhin handelt es sich ja um eine Festschrift. Es ist jedoch keineswegs ,festschriftsübliche Lyrik', wenn wir darauf hinweisen, dass es wenige Universitätsprofessoren gibt, die sich ihre Integrität in dem Maße wahren konnten, wie dies Harald Zimmermann gelungen ist. Wir kennen auch nur wenige Menschen, die so offen und tolerant sind, ohne eigene Prinzipien aufzugeben, wie wir dies bei Harald Zimmermann erlebt haben. So ist dieser Sammelband als besondere Form der Danksagung zu verstehen. Wir wünschen Harald H. Zimmermann noch viele anregende und interessante Jahre.
2
Auch Information ist eine Tochter der Zeit Wolf Rauch Die meist Francis Bacon zugeschriebene Erkenntnis Veritas filia temporis - die Wahrheit ist eine Tochter der Zeit - gilt auch, sogar in noch viel höherem Maße, für Information. So trivial diese Erkenntnis auch sein mag, so wenig wird sie von Informationswissenschaft und -praxis derzeit beachtet. Das beginnt schon bei den Grundlagen unseres Faches: Der Prozess der Informationsvermittlung geht in der Regel von folgendem Modell aus: Ein Individuum (der Informationssuchende) benötigt zur Lösung einer Aufgabenstellung Information, über die dieser Informationssuchende in seinem ,erweiterten Gedächtnis' nicht verfugt (also im eigenen Gedächtnis und den zu seiner Unterstützung persönlich verfugbaren Wissenssammlungen, wie z.B. Verzeichnissen, Büchern, Ablagesystemen). Daher wendet sich der Informationssuchende an das Kollektive Gedächtnis der Menschheit', also an Bibliotheken, Datenbanken oder das Internet, um dort jene Information zu erhalten, die zur Problemlösung benötigt wird. In diesem .kollektiven Gedächtnis der Menschheit' gibt es Dokumente, die zur Lösung einer konkreten Problemstellung beitragen können (die sogenannten relevanten Dokumentationseinheiten), nennen wir diese Menge A. Eine konkrete Anfrage durch den Informationssuchenden liefert als Ergebnis relevante und nicht relevante Dokumente: die Menge B. Die Schnittmenge von Α und B, also die gefundenen relevanten Dokumente, sind schließlich das Ergebnis des Informationsvermittlungsprozesses. An der Brauchbarkeit dieser Schnittmenge zur Problemlösung werden Erfolg oder Misserfolg einer Informationssuche gemessen (z.B. mit den Maßzahlen Recall und Precision). Das Modell geht also von einer (Teil-)Menge von gespeichertem Weltwissen aus, dem .kollektiven Gedächtnis der Menschheit', das natürlich durchaus widersprüchlich und unvollständig sein kann und ständiger Erweiterung und Veränderung unterliegt. Während des Information-Retrieval-Vorganges ist dieses Weltwissen in Struktur und Inhalt allerdings unveränderlich und wird durch die Fragestellung des Informationssuchenden auch nicht beeinflusst. Diesem gespeicherten Weltwissen wird die konkrete ebenfalls während des Suchvorganges unveränderliche Fragestellung des Informationssuchenden gegenübergestellt. Wissenschaft, Kunst und Handwerk des Information Retrieval bestehen nun darin, in den richtigen Datensammlungen mit den besten Instrumenten und den sinnvollsten Fragestellungen zu suchen. Dieses Modell mag bei zahlreichen Retrieval-Aufgaben durchaus zutreffend sein: Bibliothekarische Anfragen, Flugplan-Informationen, Routine-Abfragen nach Lagerbeständen, Auskünfte aus einem Melderegister und ähnliche Fragestellungen werden von diesem Modell hinreichend beschrieben. Für die meisten wissenschaftlichen Aufgaben, fiir die Reduktion von Ungewissheit (Wersig 1971, 73ff.), für .Wissen in Aktion' (Kuhlen 1990, 14) ist dieses Modell hingegen zu starr. Es berücksichtigt nicht, dass jedes gefundene Dokument, sobald es 3
vom Informationssuchenden verarbeitet wird, eine Veränderung in dessen Problemsicht bewirken kann: Wenn die aufgefundene Dokumentationseinheit nicht nur redundantes Wissen enthält, wenn sie also Information bewirkt, dann muss sie ja per deflnitionem die Sichtweise des Fragestellers verändern. Damit ändert sich aber auch die Fragestellung selbst: Hypothesen werden erhärtet oder beginnen zu wanken, Vermutungen werden in eine bestimmte Richtung gelenkt, neue Probleme oder Lösungsmöglichkeiten tun sich auf. Die gesamte ursprüngliche Aufgabenstellung kann als richtig oder falsch erkannt werden. Damit werden neue Fragen aktuell, alte obsolet. Jedes einzelne gefundene Dokument kann also nach seiner Verarbeitung durch einen Informationssuchenden die Fragestellung ändern und damit die Menge der relevanten Dokumente A, ebenso wie die Formulierung der Suchanfrage und damit die Menge der gefundenen Dokumente B. Die Teilmengen Α und Β können sich während einer Suchanfrage damit ständig verändern. Information Retrieval wird damit zu einem dynamischen Vorgang (Rauch 1994, 15 ff.), ebenso wie der Informationsbegriff sich als zeitabhängig erweist (Rauch 2004, 109 ff.). Dieses Phänomen der ,Informationsdynamik' kennt jeder Studierende, der eine Diplomarbeit schreibt, ein Kunde, der ein Produkt sucht, jeder recherchierende Journalist, ein Urlauber, der eine Reise zusammenstellt, oder ein Unternehmer, der eine Geschäftsidee entwickelt. Der Informationsvorgang ist in diesen Anwendungsfallen eben kein neutraler Prozess, der Realität beschreibt, wie sie ist. Information Retrieval ist vielmehr selbst Teil der Realität, beeinflusst diese und verändert sie. Der Information-Retrieval-Vorgang verändert also zuerst die Weltsicht des Informationssuchenden (das ,interne Außenweltmodell') und damit dessen ,erweitertes Gedächtnis'. Es werden diesem Gedächtnis neue Inhalte hinzugefugt, alte möglicherweise verändert oder gar verworfen, neue Strukturen, Assoziationen, Verbindungen hergestellt. Wenn der Informationssuchende diese neuen Erkenntnisse anderen Menschen mitteilt, dann beginnt sich in einem zweiten Schritt möglicherweise langsam auch das kollektive Gedächtnis der Menschheit zu verändern: Eine Erkenntnis beginnt sich durchzusetzen, ein Gedanke verbreitet sich. Diese Rückkoppelung der eigenen Erkenntnis mit dem kollektiven Gedächtnis der Menschheit war in einer Sprechkultur noch leicht möglich. Das Wissen der Menschheit war in Sagen und Märchen, in Bauernweisheiten und Sinnsprüchen, in Gesängen und Epen, in Schulen und Akademien festgehalten. Das Wissen wurde mündlich weitergegeben und der Vermittler der Information war mit den Zuhörern unmittelbar konfrontiert: Zustimmung oder Ablehnung, Abweichung oder Übereinstimmung mit den Meinungen der Zuhörer wurden sofort wahrgenommen. Das kollektive Gedächtnis der Menschheit konnte daher auf Veränderungen der Welt reagieren, Fehler ausbessern und sich den geänderten Ansichten der Zuhörer anpassen, neue Erkenntnisse rasch übernehmen. Das System konnte damit Inhalte und Strukturen flexibel weiterentwickeln. Allerdings war es in seiner zeitlichen und örtlichen Verbreitung langsam, Änderungen wurden nicht dokumentiert, die Quellen des Wissens waren in der Regel nicht bekannt. Mit seiner Ausbreitung in Zeit und Raum konnte es sich unterschiedlich verändern. Das änderte sich mit der Verbreitung der Schriftkultur. Nun wurde das kollektive Gedächtnis der Menschheit auf dauerhaften Datenträgern festgeschrieben. Das Wissen konnte personenunabhängig gesammelt und verwaltet werden. Es konnte über große räumliche und zeitliche Distanzen unverändert verbreitet werden. Eine weltweite Diskussion und Weiterentwicklung 4
des Wissensschatzes konnte erfolgen. Ein eindrucksvolles System zur Pflege, Verwaltung und Weiterentwicklung dieses kollektiven Gedächtnisses der Menschheit entstand. Bibliotheken und Universitäten sind wichtige Elemente dieses Systems. Das neue System der Schriftkultur hatte aber gegenüber der Sprechkultur auch Nachteile. Vor allem wurde die Rückkoppelung mit dem Benutzer, dem Informationssuchenden, sehr erschwert. Reaktionen der Leser, Zustimmung oder Ablehnung, Fehler oder Ergänzungen können erst dann in das schriftliche Gedächtnis der Menschheit Eingang finden, wenn der Leser seine Rolle wechselt, zum Autor wird und selbst einen schriftlichen Beitrag publiziert. Das ist allerdings ein langwieriger und teurer Vorgang, dem sich nur ein kleiner Teil der Leser unterzieht. Der Vorteil der zeitlichen und örtlichen Flexibilität des kollektiven Gedächtnisses der Menschheit wurde also um den Preis seiner Schwerfälligkeit und Starrheit erkauft. Schon Sokrates, der große Kritiker der Schriftkultur, hat auf dieses Problem hingewiesen. Er sagt im Dialog Phaidros (274c - 278b): „Denn dieses Schlimme hat doch die Schrift, Phaidros, und ist darin ganz eigentlich der Malerei ähnlich; denn auch diese stellt ihre Ausgeburten hin als lebend, wenn man sie aber etwas fragt, dann schweigen sie gar ehrwürdig still. Ebenso auch die Schriften: Du könntest glauben, sie sprächen, als verstünden sie etwas, fragst Du sie aber lernbegierig über das Gesagte, so bezeichnen sie doch stets nur ein und dasselbe." Die Schriftkultur hat also ein Instrument geschaffen ,nicht fiir das Gedächtnis, sondern für das Wiedererinnern' - ein kollektives Gedächtnis der Menschheit, dem eine entscheidende Funktion fehlt: Die unmittelbare Reaktion auf den Benutzer. Die multimediale Informationsgesellschaft von heute bietet nun die Chance, dem schriftlich fixierten kollektiven Gedächtnis der Menschheit seine Flexibilität wiederzugeben, ohne auf die Zeit- und Ortsunabhängigkeit verzichten zu müssen. So wie ein Informationsvorgang das erweiterte Gedächtnis eines Individuums verändert (der Mensch also lernt), so kann der Benutzer mit neuer Informations- und Kommunikationstechnologie auch unmittelbar auf das kollektive Gedächtnis der Menschheit zurückwirken (das System lernt). Ein Beispiel dafür ist ein Informationssystem, das Benutzeranfragen bzw. das Antwortverhalten in die Struktur der Datenbasis einbaut. Das geschieht z.B. dadurch, dass in einem Literaturinformationssystem ein Benutzer, der die Dokumente a, b und c sucht, darauf hingewiesen wird, dass andere Benutzer vor ihm gemeinsam mit a, b und c auch die Dokumente d und e gesucht hätten. Auch wenn die Links, die ein Benutzer in einem Hypertextsystem setzt, für künftige Suchanfragen ausgenützt werden, entwickelt sich ein Information Retrieval System durch seine Benutzung dynamisch weiter. Voraussetzung dafür ist, dass die semantische Struktur der Datenbank durch den Retrievalvorgang verändert wird. Ein anderes Beispiel könnten Massenmedien sein, die auf die Wünsche ihrer Leser reagieren. Heute läuft das noch über den mühsamen Weg des Leserbriefes oder der Regionalausgaben. Im Internet könnte hingegen die Information, welche Seiten ein Leser wie lange abruft, direkt zu einer maßgeschneiderten Ausgabe für jeden einzelnen Leser führen. Das würde dann wohl rasch auch auf das Profil der Zeitung zurückwirken. So wie der Leser mit der Zeit eine immer besser an seine Bedürfnisse angepasste individuelle Zeitung erhielte, so würde sich die Zeitung allmählich immer mehr an die Interessen ihrer Leser anpassen können. In dieser Dynamisierung der Datenbestände durch die Benutzung wird die größte Herausforderung für künftige Informationssysteme bestehen: Die Anfragen und Reaktionen der Benut5
zer aktiv aufzugreifen, sie als lernende Systeme zur Veränderungen der eigenen Strukturen zu nützen und damit das Wissen jedes Nutzers an alle weiteren Benutzer weiterzugeben. Es könnte damit ein völlig neuer Typ von Informationssystem entstehen, das als .Gesprächspartner' der Benutzer sich mit diesen zusammen weiterentwickelt. Informationssystem und Benutzer stünden einander nicht mehr getrennt gegenüber, sondern wachsen zu einer Einheit zusammen. Das könnte bei klassischen Literatur-Informationssystemen ebenso eintreten wie bei Massenmedien, Verkehrsleitsystemen, Datenbanken oder politischen Entscheidungssystemen. Dabei sollte nicht außer Acht gelassen werden, welche (auch negativen) Konsequenzen eine zu rasche Reaktion von Datensammlungen auf die Benutzung haben könnte. Einerseits wird das Wachstum des Wissens, die Entwicklung der Wissenschaft, das Wissen über die Reaktionen von Bürgerinnen und Bürgern im politischen System, beschleunigt werden. Auch könnte die schnelle Anpassung an geänderte Märkte die Effizienz des Wirtschaftens erhöhen (bei Börse-Informationssystemen sind derartige Effekte ja bekannt). Andererseits war der Informationsaustausch über das gedruckte Buch auch ein stabilisierendes Verzögerungselement und ein wichtiger Beitrag zur Qualitätssicherung. Ohne qualitative Filter und effiziente Qualitätssicherung könnte ein dynamisches, rückgekoppeltes Informationssystem auch zur Destabilisierung der Informationsgesellschaft beitragen. Was passiert mit den Kulturseiten einer Zeitung, wenn nur noch diejenigen Inhalte gedruckt werden, die der Käufer auch liest? Was passiert mit der Politik, wenn jede Stimmung der Bevölkerung sofort berücksichtigt wird? Was passiert mit der Wissenschaft, wenn die Qualitätskontrolle durch Herausgebergremien und Review-Prozesse dem Zeitdruck zum Opfer fällt? Harald Zimmermann war sich dieser Problematik stets bewusst. Er setzt auf Qualität und Vertrauen (vgl. z.B. Zimmermann 2003, 127 ff.), um zu einer Verbesserung der RetrievalSysteme zu kommen, und hat mit vielen seiner wissenschaftlichen Arbeiten dazu beigetragen. Wir wünschen Harald Zimmermann noch zahlreiche Projekte zur Bereicherung der Informationswissenschaft, die ihm so viel verdankt.
Literatur: Rainer Kuhlen, Zum Stand pragmatischer Forschung in der Informationswissenschaft. In: Pragmatische Aspekte beim Entwurf und Betrieb von Informationssystemen. Universitätsverlag Konstanz: Konstanz 1990. Wolf Rauch, Informationsdynamik und Informationspragmatik. In: Mehrwert von Information Professionalisierung der Informationsarbeit (Hrsg. Wolf Rauch, Franz Strohmeier, Harald Hiller, Christian Schlögl). Universitätsverlag Konstanz: Konstanz 1994. Wolf Rauch, Die Dynamisierung des Informationsbegriffes. In: Wissen in Aktion - Der Primat der Pragmatik als Motto der Konstanzer Informationswissenschaft (Hrsg. Rainer Hammwöhner, Marc Rittberger, Wolfgang Semar). Universitätsverlag Konstanz: Konstanz 2004. Gernot Wersig: Information - Kommunikation - Dokumentation. Verlag Dokumentation: Pullach bei München 1971. Harald H. Zimmermann: Zur Gestaltung eines Internet-Portals als offenes Autor-zentriertes Kommunikationssystem. In: (Über-)Leben in der Informationsgesellschaft (Hrsg. Ralf-Dirk Hennings, Stefan Grudowski, Wolfgang Ratzek). Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis: Wiesbaden 2003.
6
Information und kulturelles Gedächtnis Zur Speicherbarkeit kommunikativen Handelns Winfried Lenders
1. Vorbemerkung Klarheit über die verwendete Begrifflichkeit zu gewinnen, gehört sei je her zu den Tugenden wissenschaftlichen Arbeitens. Dies gilt besonders, wenn man es mit Begriffen zu tun hat, die auch zu den häufigsten Begriffen der Alltagssprache gehören, wie es bei Information' der Fall ist. Für mehr als 40 Jahre hat dieser Begriff, zusammen mit dem Begriff .Sprache', die wissenschaftliche Arbeit von Harald Zimmermann geprägt, und Harald Zimmermann hat sich immer wieder mit der zugrunde liegenden Begrifflichkeit auseinandergesetzt. Wesentliches Element dieser Auseinandersetzung ist die Definition von Information als Prozess (Zimmermann 2004, im Anschluss an Kunz/Rittel), „der zum Zweck hat, das Wissen (den Wissenszustand) eines ,Akteurs' zu verändern" (Zimmermann 2004; ähnlich Zimmermann 1995). Der nachfolgende Beitrag greift diesen Begriff der Information auf und setzt ihn in Beziehung zum Begriff des Gedächtnisses, der in der modernen kulturwissenschaftlichen Diskussion eine zentrale Rolle spielt. Damit soll zweierlei erreicht werden: Zum einen soll der sachliche Zusammenhang zwischen Information und Gedächtnis verdeutlicht werden. Diesem Gesichtspunkt kommt deshalb Bedeutung zu, weil der heutige Sprachgebrauch eine statische Auffassung von Information im Sinne von .Gedächtnis' suggeriert, als ob damit ein manifestes Substrat bezeichnet werde, das - gleichsam wie in einem Gedächtnis - bewahrt oder aufbewahrt wird, das aufbewahrenswert ist und das man bei Bedarf abrufen kann. Es wird sich zeigen, dass .Gedächtnis' oder .kulturelles Gedächtnis' die Voraussetzung von Information ist, nicht aber mit ihr identifiziert werden darf. Zum anderen soll der Frage nachgegangen werden, ob Informationsprozesse, wie sie in Informationssystemen ablaufen, an eine bestimmte Form gebunden sind, die für unsere Kultur bestimmend ist, etwa an die Form des visuell oder auditiv wahrnehmbaren Dokuments und an die Möglichkeit, dieses analog oder digital zu speichern. Hintergrund dieser Frage ist die Annahme, dass Information als Prozess nicht an Schrift gebunden ist, sondern dass z.B. auch in Kulturen der Oralität, in denen keine Methoden der analogen oder digitalen Speicherung existieren, Informationsprozesse ein wesentliches Element gesellschaftlicher Kommunikation darstellen.
7
Um diese Fragen zu klären, werden zunächst erneut wesentliche Bestimmungsstücke des Informationsbegriffs umrissen. Sodann wird, stellvertretend für einen allgemeinen Gedächtnisbegriff, der Assmansche Begriff des ,kulturellen Gedächtnisses'1 erörtert, woraus sich schließlich einige Schlussfolgerungen fur den Umgang mit,Information' ergeben.
2. «Information' - Wissen - Sprache Mit dem Wort Information' und mit dem damit bezeichneten Begriff haben sich in den letzten Jahrzehnten viele Autoren befasst. Das Spektrum reicht von der Analyse der Wortgeschichte bis hin zur exakten begrifflichen Abgrenzung gegenüber anderen Begriffen wie Kommunikation und Nachricht. Seriöse wissenschaftliche Arbeiten bauen auf solchen differenzierten Begriffsbestimmungen auf (z.B. Steinmüller 1993; Kuhlen 1999), ohne dass man sagen könnte, dass der Begriff als vollständig geklärt gelten kann.2 Das Wort ,Information' hat, wie oftmals gezeigt wurde (z.B. Capurro (1978), Lyre (2002)), seinen Ursprung in der latinisierten Fassung des griechischen μορφή, von dem auch das Wortfeld ,Morphologie' abstammt. Lat. informare bedeutet soviel wie formen, gestalten, unterrichten, bilden, belehren, unterweisen. In der Linguistik bezeichnet .Morphologie' die Lehre von der Gestaltung der Wörter, der Formung (Flexion) und der Wortbildung (Derivation, Komposition), in der Biologie meinen wir damit die Lehre von den verschiedenen Formen und Gestalten, die Lebewesen, Tiere und Pflanzen im Laufe ihres Lebens annehmen können. Im Deutschen wurde das lateinische informatio während der Zeit des Humanismus, im Bestreben nach Verdeutschung der Fremdwörter, durch Bildung ersetzt (Lyre 2002, S.12). Mit Bildung bezeichnete man wohl zunächst den Vorgang, dann das Resultat der bildenden, unterweisenden und belehrenden Tätigkeit des Menschen. ,Bildung' wurde zum Teil der Persönlichkeit des Menschen, Bildung macht den Einzelmenschen in seiner Eigenart aus. Wer sich der Unterweisung und Belehrung ausgesetzt hat, ist gebildet, wer sich ihr entzogen hat, ist ungebildet. Man sträubt sich jedoch, .gebildet' durch .informiert' und ,ungebildet' durch ,uninformiert' zu ersetzen, weil sich ,Bildung' und .Information' begrifflich voneinander entfernt haben. Das Verb .informieren' und das daraus abgeleitete Verbalabstraktum Information' bezeichnet das Resultat einer formenden, gestaltenden Tätigkeit des Menschen, und zwar das Resultat der Formung eines von der Persönlichkeit losgelösten geistigen Produkts. Wenn man von .Information' oder Informationen' in diesem Sinne spricht, meint man manifestes Wissen als Resultat dieses Formungsprozesses. 1 Der Begriff des kulturellen Gedächtnisses wird hier in einem weiteren Sinn verwendet, als von Assmann, auf den der Begriff zurückgeht, ursprünglich intendiert. Während Assmann wohl ,nur' das gesellschaftliche Wissen im Umfeld des Geistes darunter begriffen hat, ist hier die Gesamtheit des überdauernden Wissens gemeint, das den Menschen in ihren tagtäglichen Kommunikationshandlungen zur Verfugung steht. 2 In der .gelehrten' Umgangssprache und in Fachsprachen herrscht nach wie vor eine unreflektierte Verwendung von .Information' vor (vgl. z.B. http://de.wikibooks.org/wiki/%C3%9Cber das Wesen der Information).
8
An diesem Sprachgebrauch kann man nicht vorbei, und folgerichtig differenziert das Duden-Universalwörterbuch (2001, 829) bezüglich des Sprachgebrauchs zwischen .Information' als Vorgang des Informierens und Information' als Mitteilung oder Hinweis, mit dem jemand über eine bestimmte Sache in Kenntnis gesetzt wird, die man einholen kann, die man jemandem wie eine Sache übergeben kann. Die meisten wissenschaftlichen Begriffsanalysen von .Information' heben - wie Zimmermann - den Prozess- oder Vorgangscharakter hervor. So bestimmt Kuhlen (1999, S.138f.) unter pragmatischer' Perspektive Information als referentielles Konzept: „Informationen referenzieren nicht nur das in Daten repräsentierte Wissen, sondern entfalten diese Bedeutung nur mit Referenz auf die aktuelle Benutzungssituation". Information findet nicht ohne Benutzungssituation statt, ist also in einen Prozess eingebaut und kann daher auch als prozessualer Begriff bezeichnet werden. Folgerichtig nennt Kuhlen (1999, S.139) Information auch „Wissen in Aktion". Hier wird allerdings ein weiterer Begriff eingeführt, der in der Regel Undefiniert bleibt, der Begriff des Wissens. Verwendet man statt .Information' das Verb informieren', so bezeichnet dieses eine sprachliche Handlung, mit der jemand mit Wissen ausgestattet wird, über das er nicht verfügt und das er begehrt. .Informieren' ist daher nach Habermas (1971, S.l 11)) wohl den Sprechakten der Kommunikativa zuzuordnen. Der Gebrauch von .Informieren' und .Information' im prozessualen Sinn unterliegt damit den pragmatischen Bedingungen und Regeln, unter denen ein Sprechakt realisiert wird: Vorhandensein einer Entität, die etwas nicht weiß, dieses aber wissen will, und einer Entität, die über das Wissen verfugt und die aufrichtig beabsichtigt, dieses Wissen mitzuteilen und sich dabei eines bestimmten für beide Entitäten zugänglichen kanonisierten Zeicheninventars bedient. Wissen muss also vorhanden sein, damit Information, Informieren, stattfinden kann. Der Informationsbegriff setzt den Wissensbegriff voraus. Anders als Information ist Wissen jedoch ein statisches Produkt, und zwar das Produkt von informationellen Prozessen, in denen Nichtwissen in Wissen verwandelt wird. Wissen ist also entweder vorhanden (nach dem Informationsprozess) oder nicht vorhanden (vor dem Informationsprozess). Zu unterscheiden sind zwei Weisen des ,Informierens', durch die Wissen entsteht oder verändert wird, Erfahrung und Kommunikation, doch dies ist ein weites Gebiet, auf das hier nicht eingegangen werden kann. Vorhandenes Wissen bedarf, damit es in Informationsprozessen genutzt werden kann, einer Repräsentation. Hier sind zwei Arten zu unterscheiden, die ,interne' neuronale Repräsentation, wenn es sich um internes Wissen im individuellen Gedächtnis des Menschen handelt, um deren Erforschung Neurowissenschaftler bemüht sind, und die ,externe' sprachliche Repräsentation, wenn es sich um externes, d.h. außerhalb der Individuen darzustellendes Wissen handelt. Bei der externen (.sprachlichen') Repräsentation werden zwei Formen unterschieden, die natürlichsprachliche und die konstruktsprachliche Repräsentation. Natürlichsprachliche Repräsentation von Wissen findet sich in jeder sprachlichen Äußerung, sei sie geschrieben oder gesprochen, und ist Voraussetzung für Prozesse des Informierens durch zwischenmenschliche Kommunikation, und konstruktsprachliche Repräsentation von Wissen findet sich in Datenbanken, Ontologien und sonstigen formalen
9
Wissensrepräsentationen, wie sie heute z.B. mit besonderen Wissensrepräsentationssprachen, etwa im Rahmen der Semantic Web Vision, darstellbar sind. Wissen in der Form geschriebener sprachlicher Äußerungen hat - seit Erfindung der Schrift und des Buchdrucks - in vielerlei Hinsicht eine dominante Rolle erfahren, mit der sich vor allem im 20. Jahrhundert viele Denker kritisch auseinandergesetzt haben.3 Zweifellos haben Schrift und Buchdruck für die Repräsentation von Wissen eine Dimension eröffnet, die inzwischen durch die technische Möglichkeit der Speicherung von Bild und Ton noch erheblich erweitert worden ist: Die dauerhafte Speicherung von Wissen in multimodaler Form steigert die Zuverlässigkeit und Authentizität des Gespeicherten und ermöglicht schnelles und effektives information retrieval. Lässt sich aber aus diesem Mehrwert, den die dauerhafte externe Speicherung von Wissen als Voraussetzung schneller und effektiver Informationsprozesse zweifellos erbringt, ableiten, dass alles gesellschaftlich relevante Wissen, das ,Gedächtnis der Menschheit' also, letztlich extern, also in Form von Texten und Dokumenten, repräsentiert werden sollte oder repräsentiert ist? Aus der Auseinandersetzung um diese Frage, um die Funktion von Wissen in geschriebener - oder allgemeiner: in dauerhaft gespeicherter - Form entwickelte sich von ca. 20 Jahren der Begriff des kulturellen Gedächtnisses, dem im Folgenden nachgegangen werden soll.
3. Das kulturelle Gedächtnis Der Begriff des kulturellen Gedächtnisses wurde von Jan und Aleida Assmann in den 80er Jahren im Anschluss an verschiedene Kulturhistoriker geprägt (vgl. J. Assmann 1992, S.22) und bildet einen Kernbegriff einer auf sprach- und kulturhistorischen Grundlagen aufgebauten Sprach- und Kommunikationstheorie. Er enthält den Gedächtnisbegriff, der, wie der Informationsbegriff, - auch aufgrund der bildlichen Verwendung von .Gedächtnis' - sehr griffig ist und sich in der wissenschaftlichen Literatur ebenso wie in der .gelehrten' Umgangssprache und im kulturpolitischen Umfeld findet. So findet sich der Gedächtnisbegriff, der an sich eher ein „hypothetisches Konstrukt" (Wettler 1980, S.12) bezeichnet, zum Beispiel als Synonym für die heute in Form von Dokumenten vorliegende Gesamtheit des menschlichen Wissens: „Bibliotheken und Archive bewahren das Gedächtnis der Menschheit", so hieß es zum Beispiel in einem kürzlich verteilten Flyer der Aktion Lesezeichen der Deutschen Bibliotheken zum Jahrestag des Brandes der Herzogin Anna Amalia Bibliothek in Weimar am 2.9. 2004, und die UNESCO hat 1999 ein Programm zur Rettung des ,Gedächtnisses der Menschheit' aufgelegt.4 Folgt man der Darstellung Assmanns, so führt das kommunikative Handeln der Menschen zu zwei allgemeinen Formen von Wissen, die Assmann als .kommunikatives Gedächtnis' 3 Zur Diskussion in der Linguistik über den Primat der gesprochenen vor der geschriebenen Sprache vgl. z.B. Lyons 1983, S. 19. Zur Frage des Primats der Mündlichkeit vor der Schriftlichkeit vgl. McLuhan 1962. 4 Das UNESCO-Programm zum Erhalt des dokumentarischen Erbes Memory of the World Gedächtnis der Menschheit. http://www.unesco.de/c arbeitsgebiete/mow.htm
10
und .kulturelles Gedächtnis' bezeichnet.5 Das kommunikative Gedächtnis der schriftlosen Kulturen (Kulturen vor .Erfindung' der Schrift) baut sich auf aus Erinnerungen, die sich auf die jüngste Vergangenheit, etwa 3 - 4 Generationen, beziehen. Sein Geltungsanspruch ist die „persönlich verbürgte und kommunizierte Erfahrung", die sich als biographische Erinnerung' und .fundierende Erinnerung' darstellt. Das ,kulturelle Gedächtnis' auf der anderen Seite beruht nach Assmann (1992, S.52) kulturgeschichtlich gesehen auf zwei ursprünglichen Organisationsformen, dem Fest und dem Ritus. Verkürzt gesagt bedarf es, damit es zur Ausprägung von dauerhaftem Wissen kommen kann, bestimmter .institutionalisierter Mnemotechniken' (a.a.O.), durch welche die Kohärenz des kulturellen Gedächtnisses gesichert wird. Je nach vorherrschender Mnemotechnik können zwei Spielarten von Kohärenz unterschieden werden, die rituelle, die auf Repetition und Wiederholung beruht, und die textuelle Kohärenz, die sich der Schrift und des Textes als Mnemotechnik bedient. In der Geschichte der Medien kam es durch die Erfindung der Schrift zu einem Umschlag von ritueller zu textueller Kohärenz, bei welchem das Element der Wiederholung in den Hintergrund trat. Zwar hat es den Anschein, als würde gerade durch die Schrift Bekanntes immer aufs neue wiederholt (vgl. auch die Vervielfachung durch das Abschreiben und den späteren Buchdruck), in Wirklichkeit aber zeichnet nach Assmann (1992, S.97) die Schrift das Element der Variation aus, das darin besteht, dass Texte aufeinander Bezug nehmen, Themen variieren, fortsetzen etc. Hier spielt neben der Variation ein zweites grundlegendes Element hinein, die Interpretation. Texte nehmen Bezug auf Texte und Texte reagieren auf Texte, ein Vorgang der Variation und Interpretation, den Assmann (1992, S.280 ff.) ,Hypolepse' nennt. ,Hypoleptische' Kommunikation ist gleichsam Kommunikation über Räume und Zeiten hinweg, ein beständiges Bezugnehmen geschriebener und dokumentarisch verfügbarer Texte aufeinander. Hypolepse, so kann man folgern, führte schließlich zu der Form des kulturellen Gedächtnisses, die heute die so genannte Informationsgesellschaft prägt.6 Die Ausprägung des textuellen kulturellen Gedächtnisses wäre ohne technische Hilfsmittel, ohne spezielle Mnemotechniken und deren Kanonisierung nicht möglich gewesen. So habe sich, wie Assmann S.171 beschreibt, im alten Ägypten zur Kanonisierung des kulturellen Gedächtnisses das visuelle Medium der Hieroglyphen herausgebildet, in anderen Kulturen waren es Keilschrift, ideographische und alphabetische Schriften. Über die Kenntnis dieser Hilfsmittel hinaus postuliert Assmann (1992, S.282 ff.) weitere kanonische Rahmenbedingungen, ohne die Geschichte, vor allem Geschichtsschreibung und andere Formen der hypoleptischen Kommunikation, etwa in der Philosophie, nicht möglich wä5
Auf Einzelheiten der sehr viel differenzierteren Darstellung von Assmann kann hier nicht eingegangen werden. Assmann bezieht sich wohl ausschließlich auf den kulturhistorischen Prozess; offen bleibt bei ihm die Frage des Nebeneinander von kommunikativem Gedächtnis und kulturellem Gedächtnis, von der wir wohl für die gegenwärtige Kommunikationsgesellschaft auszugehen haben. 6
Es muss hier darauf verzichtet werden, auf Einzelheiten dieses ,hypoleptischen' Prozesses, der, wie im Übrigen auch der Prozess der Repetition im Bereich der Oralität, zu einem unendlichen Prozess werden kann, näher einzugehen.
11
ren. Eine typische Rahmenbedingung ist die Bildung von Schulen, angefangen mit der Platonischen Akademie und dem Aristotelischen Peripatos, über diverse philosophische Schulen, Akademien und wissenschaftliche Institutionen bis zu den literarischen Richtungen. Hinzu kommen die Rahmenbedingungen des Bibliotheks-, Archiv- und Dokumentationswesens. In diesem Prozess erfahren die Themen die unterschiedlichsten Bearbeitungen und Variationen; sie verändern beständig ihre Form (μορφή) und gehen in diesen Formen und Gestalten in das kulturelle Gedächtnis ein. Es ist offensichtlich, dass diese Tradition als Folge einer im Wesentlichen durch die Schrift zustande kommenden textuellen Kohärenz darstellbar ist. Es ist offensichtlich, dass das kulturelle Gedächtnis „eine Affinität zur Schriftlichkeit" hat (Assmann 1992, S.59), die von ihrem Wesen her zur vermeintlichen Objektivierung des Individuellen und Einzelnen, zur Verallgemeinerung des Persönlichen, zur allgemein verfugbaren ,Information' tendiert. Die seit Piatons Phaidros oftmals geäußerten Vorbehalte gegenüber der Schrift haben in dieser Tendenz ihren Ursprung. Aus der Affinität des kulturellen Gedächtnisses zur Schriftlichkeit ergibt sich aber nicht, dass dieses an Schriftlichkeit gebunden ist. Denn auch Kulturen der Oralität, die sich ritueller Mnemotechniken bedienen, entwickeln ein kulturelles Gedächtnis. Riten beruhen auf Repetition und Wiederholung von Handlungen und mündlich Tradiertem. Repetition setzt dabei fortschreitendes Interesse an den Inhalten voraus. Was fortschreitendes Interesse verspricht, wird rituell wiederholt und manifestiert sich als Bestandteil des kulturellen Gedächtnisses. Es kann bei Bedarf abgerufen und in informationellen Prozessen verwendet werden. Technische Mittel der digitalen und analogen Speicherung und Verbreitung von Wissen im großem Stil (Informationssysteme), über die wir heute verfügen, rechtfertigen also nicht, von .Informationsgesellschaft' zu sprechen. Vielmehr findet in jeder Gesellschaft, in der Kommunikation das vorherrschende Moment der gesellschaftlichen Konstitution ist, Information statt, laufen beständig Prozesse des Informierens ab. Information ist, wie Luhmann (1998) in seiner großangelegten Begründung der Gesellschaft auf die Operation der Kommunikation ausgeführt hat, stets etwas Neues, Unwiederholbares und Überraschendes. Sie ist, wenn man sie überhaupt als ,Produkt' bezeichnen will, ein „Zerfallsprodukt" (Lumann 1998, S. 1095), also nicht an Schrift oder andere Formen der Speicherung gebunden. Dennoch hat die Kultur der Schriftlichkeit, ausgehend von der griechischen Schriftkultur (Assmann 1992, S.280) und fortgesetzt durch die von McLuhan (1962) als .GutenbergGalaxis' apostrophierte Kultur der Printmedien, einzigartige Möglichkeiten hervorgebracht. Unter anderem wurde sie von verschiedenen neueren Medientheoretikern für die Entstehung der abendländischen rationalistischen Strömungen und damit auch für das durch Alan Turing 1936 prägnant formulierte Modell universaler Berechenbarkeit verantwortlich gemacht, in das vielfach auch die Berechenbarkeit des menschlichen Handelns und Denkens (vgl. die Bezeichnung .Künstliche Intelligenz') einbezogen wurde. Es ist sicher nicht von der Hand zu weisen, dass auch das Streben nach Authentizität und Sicherheit, das die moderne Informationsgesellschaft prägt, mit diesem rationalistischen Grundzug von Text und Schrift zusammenhängt.
12
4. Schlussfolgerungen Kehren wir zu den anfänglich aufgeworfenen Fragen zurück, zum einen ob das, was man als .Gedächtnis' oder .kulturelles Gedächtnis' der Menschheit bezeichnet, mit dem identifiziert werden darf, was man mit .Information' und .Informationen' meint, und zum anderen, ob Informationsprozesse und damit auch das kulturelle Gedächtnis an eine bestimmte Form gebunden sind, die für unsere Kultur bestimmend ist, etwa an die Form des visuell oder auditiv wahrnehmbaren Dokuments und an die Möglichkeit, dieses analog oder digital zu speichern. Die erste Frage kann kurz und knapp mit Kuhlen und Zimmermann dahingehend beantwortet werden, dass Information ein Prozess ist und nicht ein Substrat. Information setzt vielmehr ein Substrat voraus, nämlich das verfügbare Wissen, das in Gedächtnissen, vor allem im kulturellen Gedächtnis, abgespeichert ist. Zur zweiten Frage ist zunächst festzustellen, dass nicht jeder Prozess, der in einer konkreten Benutzungssituation als .informieren' bezeichnet wird, zu einer Vermehrung des kulturellen Gedächtnisses führt. Das Kriterium der damit notwendigen Auswahl kann nicht der Umstand sein, dass etwas speicherbar ist. Die prinzipielle Möglichkeit der Speicherbarkeit birgt eine Gefahr in sich: Sie verführt dazu, alles und jedes zum Bestandteil des kulturellen Wissens zu machen. Um dieser Gefahr zu entgehen, bedarf es der Auswahlkriterien. Ein mögliches Auswahlkriterium wäre das Interesse der Öffentlichkeit: das einmalige, für den privaten Gebrauch Bestimmte kann nicht Eingang in das kulturelle Gedächtnis finden und zum Bestand des Verfügbaren gehören, sondern nur das, was allgemeines Interesse verdient. Was dies ist, muss letzten Endes in einer Gesellschaft durch öffentliche Kommunikation konsensual entschieden werden. So sind etwa Briefe und Tagebücher privater Personen in der Regel nur für deren unmittelbare Adressaten interessant; erst wenn ein größeres Interesse der Öffentlichkeit (einer Mehrzahl von Individuen) entsteht, werden sie zu gesellschaftlich relevantem Wissen und finden Eingang in das kulturelle Gedächtnis. Für den praktischen Gebrauch ergibt sich hieraus die Konsequenz, dass immer und überall zu entscheiden ist, welche in konkreten Situationen gefallenen Äußerungen dem kulturellen Gedächtnis zuzuführen sind. Vor diese Entscheidung ist z.B. jeder Protokollant einer Sitzung gestellt: Äußerungen, die protokolliert werden, werden Teil des kulturellen Gedächtnisses, sie werden aus ihrer konkreten Nutzungssituation herausgelöst und gehen als verfügbares Wissen in neue Nutzungssituationen ein. Wenn, wie Assmann (1992, S.59) für die Entwicklung des kulturellen Gedächtnisses feststellt, die „Methode der Oral History" es in schriftlosen Kulturen schwerer habe, weil sie erst lernen müsse, „aus der mündlichen Überlieferung das auszusondern, was auf die Seite der kulturellen und nicht der alltagsbezogenen Erinnerung gehört", so besteht andererseits in Schriftkulturen die Problematik darin, das, was erinnernswert ist, auszusondern und den Rest tatsächlich zu vernichten. Es muss im Umgang mit Information und Wissen Mechanismen geben, die der Beharrungstendenz der Schrift entgegenwirken, Mechanismen, die den Vergessensprozessen des neuronalen Gedächtnisses
13
ähneln und die es erlauben, zu eliminieren oder zumindest zu relativieren.7 In der Tat hat unsere Gesellschaft Mechanismen dieser Art ausgebildet, von den Aussonderungskriterien der Archivare über Zitationsindizes bis hin zu den Relevanzkriterien der Suchmaschinen und den Regularien und Korrektiven interaktiver und offener Internetforen. Dennoch ist die Chance gering, dass einmal Archiviertes wieder verschwindet - zumal dann, wenn es in zahlreichen Kopien existiert. Aus dem Gesagten ergibt sich, dass die authentische Speicherung von Wissen z.B. in Dokumenten und Datenbanken, wie sie mit Erfindung der Schrift, später des Buchdrucks und jüngst der digitalen Speicherung möglich wurde, als eine Spielart des kulturellen Gedächtnisses aufzufassen ist. Auch in Kulturen der Oralität wird gesellschaftlich Wichtiges aufbewahrt, so dass man generell der gesellschaftlichen Kommunikation das Moment des Bewahrens als immanentes Prinzip zusprechen muss. Dieses Prinzip artikuliert sich im Bedürfnis nach Repetition des Wichtigen, aber auch nach dessen Variation. Hier sei an die ungeschriebenen Regeln, Verhaltensmuster und Rituale erinnert, deren man sich in der Kommunikation bedient und ohne die Kommunikation nicht funktionieren würde (vgl. Goffman 1967; 1977). Übrigens findet sich dieses Prinzip der Unabhängigkeit der Sprache als Träger dauerhaften Wissens von den technischen Medien der Aufbewahrung und Konservierung wie Schrift und Druck auch in philosophischen Reflexionen über das Verhältnis von Sprache und Schrift. So hat sich etwa der französische Kulturphilosoph Jacques Derrida (1983) mit Ferdinand de Saussures Cours de linguistique generale auseinandergesetzt, und zwar insbesondere mit Saussures These von der Schrift als , Abbild' der Sprache. Nach Saussure, so interpretiert Derrida, habe das geschriebene Wort die Hauptrolle vor dem gesprochenen Wort .usurpiert'. Im Unterschied zu Saussure kommt Derrida zu dem Schluss, dass es zum Wesen der gesprochenen Sprache ebenso wie zu dem der Schrift gehöre, das zu leisten, was Saussure .Usurpation' genannt habe (1983, S.70). Was aber ist es, was gesprochene Sprache und Schrift gleichermaßen leisten, was gleichsam beiden zugrunde liegt? Derrida nennt dies, obwohl er zuvor den Schriftbegriff einer Dekonstruktion unterzogen hat, weiterhin .Schrift', aber auch .Urschrift' oder ,ursprüngliche Schrift', die gleichsam die (transzendentale) Bedingung für die Möglichkeit jeden sprachlichen Systems ist (1983, S.105). Im weiteren Verlauf seines Essays verwendet Derrida als Bezeichnung für diese Urschrift, diese „ursprüngliche Möglichkeit des gesprochenen Worts" (123), auch das Wort ,Spur', die beinahe im gleichen Atemzug auch als „Urphänomen des .Gedächtnisses', welches vor dem Gegensatz zwischen Natur und Kultur, Animalität und Humanität usw., gedacht werden" müsse. Versucht man, diese kaum referierbaren Gedankengänge auf das anzuwenden, was oben zum Informationsbegriff ausgeführt wurde, so wären es die Informationsprozesse, die in der Geschichte der Menschheit .Spuren' hinterlassen, die sich jedoch beileibe nicht ausschließlich in Archiven und Informationssystemen niederschlagen.
7 So gehört zur Ausbildung im Archivwesen von je her die Vermittlung von Entscheidungskriterien, was von bleibendem Interesse ist und was nicht (Relevanzkriterien).
14
5. Literatur Assmann, Jan (1992/ Das kulturelle Gedächtnis. Schrift, Erinnerung und politische Identität in frühen Hochkulturen. München: C.H. Beck. Broschierte Ausgabe 4. Aufl. 2002. Capurro, R. (1978). Information. Ein Beitrag zur etymologischen und ideengeschichtlichen Begründung des Informationsbegriff. München: Saur. Derrida, Jacques (1983). Grammatologie. Frz. Originalausgabe unter dem Titel De la grammatologie, Paris: Les Editions de Minuit,1967. Ins Deutsche übersetzt von Hans-Jörg Rheinberger und Hanns Zischler. Frankfurt: Suhrkamp. DUDEN - Deutsches Universalwörterbuch. 4. Aufl. Mannheim 2001: Dudenverlag. Goffman, Erving (1967). Interaction Ritual. Dt. Übersetzung Frankfurt: Suhrkamp, 1971. Goffrnan, Erving (1977). Rahmen-Analysen. Ein Versuch über die Organisation von Alltagserfahrungen. Frankfurt. Habermas, Jürgen (1971). Vorbereitende Bemerkungen zu einer Theorie der kommunikativen Kompetenz. In: J. Habermas/N. Luhmann. Theorie der Gesellschaft oder Sozialtechnologie. Frankfurt/M.: Suhrkamp. Kuhlen, Rainer (1999/ Die Konsequenzen von Informationsassistenten: Was bedeutet informationelle Autonomie oder wie kann Vertrauen in elektronische Dienste in offenen Informationsmärkten gesichert werden? Frankfurt: Suhrkamp. Luhmann, Niklas (1998). Die Gesellschaft der Gesellschaft. Frankfurt: Suhrkamp. Lyons, John (1983). Die Sprache. Dt. Übersetzung des engl. Orig. u.d.T. Language and Linguistics, Cambridge University Press, 1981. Lyre, Holger (2002). Informationstheorie. Eine philosophisch-naturwissenschaftliche Einführung. München: Fink, (UTB 2289). McLuhan, Marshall (1962). The Gutenberg Galaxy. New York: McGraw-Hill Pörksen, Uwe (1988). Plastikwörter. Die Sprache einer internationalen Diktatur. 2. Aufl. Stuttgart: Klett-Kotta. Steinmüller, Wilhelm (1993). Informationstechnologie und Gesellschaft. Einfuhrung in die Angewandte Informatik. Darmstadt: Wiss. Buchges. Turing, Allan M. (1936). On computable numbers, with an application to the Entscheidungsproblem. In: Proceedings of the London Mathematical Society, ser. 2, 42: 230-265. Wettler, Manfred (1980). Sprache, Gedächtnis, Verstehen. Berlin/New York: de Gruyter. Harald Η. Zimmermann (1995). Information als Wissenstransfer. Zur informationswissenschaftlichen Lehre und Forschung in Saarbrücken. In: Thomas Seeger (Hrsg., 1995): Aspekte der Professionalisierung des Berufsfeldes Information: Beiträge zu Ausbildung und Beruf in der Informationslandschaft anlässlich des 10jährigen Bestehens des Fachbereiches Information und Dokumentation der Fachhochschule Darmstadt. Schriften zur Informationswissenschafi Nr. 21. Konstanz: UVK, S. 349-360. Harald H. Zimmermann (2004). Information in der Sprachwissenschaft. In: Rainer Kuhlen, Thomas Seeger, Dietmar Strauch (Hrsg., 2004): Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefasste Ausgabe. München: K.G. Saur, S. 705-710.
15
Anmerkungen zur Grundlegung der Informationsethik Rainer Hammwöhner1 Zusammenfassung In diesem Beitrag werden verschiedene Aspekte einer Begründung einer Informationsethik betrachtet. Zunächst wird eine sinnvolle Abgrenzung zu konkurrierenden Ethiken - Netz- und Medienethik - gesucht. Aus Sicht der Generierung, Distribution und Bewahrung von Information wird die Informationsethik als umfassender und allgemeiner als die anderen angesehen. Weiterhin wird die Option einer diskursethischen und damit absoluten Begründung der Informationsethik diskutiert und zugunsten einer pragmatistischen Sichtweise zurückgewie-
1. Einführung Ethische Fragestellungen haben derzeit wieder Konjunktur. Das zeigt sich einerseits an der Verlagerung politischer Entscheidungen in mit Experten besetzte „Ethikräte" und andererseits in der Vielzahl von Publikationen zu spezialisierten Bereichsethiken - etwa Bioethik, Technikethik oder Informationsethik. Zumeist werden Bereichsethiken als angewandte Ethiken begriffen, die von einer allgemeinen Ethik2 zu unterscheiden sind. Während die allgemeine Ethik Moralprinzipien oder allgemeine Kriterien zur Bewertung von Handlungen zur Verfugung stellt, bringt die Bereichsethik das Experten wissen ein, um die komplexen Zusammenhänge des Anwendungsbereichs hinsichtlich allgemeiner Moralprinzipien und bestehender weltanschaulicher Festlegungen - etwa hinsichtlich der Natur des Fortschritts - zu interpretieGegen dieses Modell lassen sich mehrere Einwände geltend machen. Der verschiedentlich erhobene Vorwurf 3 , ethische Debatten würden missbraucht, um Entscheidungen, die längst aus politischen oder ökonomischen Gründen gefallt seien, dem zögernden Publikum schmackhafter zu machen, betrifft die Praxis aber nicht den Kern der ethischen Argumentation. Wenn in einem Gebiet wie dem Informationssektor gleich eine Vielzahl überlappender Ethiken postuliert werden - Computer-Ethik, Medienethik, Informationsethik, Netzethik, Cyberethik - so entsteht doch der Eindruck einer gewissen Beliebigkeit, die zum selektiven Gebrauch der jeweils „passenden" Ethik einlädt.
' BBBffll Dieser Text ist unter der folgenden Creative Commons Lizenz lizenziert: AttributionNonCommercial-NoDerivs 2.0 Germany (http://creativecommons.Org/licenses/bv-nc-nd/2.0/de/). 2
Fischer 04, S. 179.
3
Etwa Kuhlen 04, S. 16, oder Fischer 04, S. 182.
17
Angreifbar ist auch die Annahme, dass die Bereichsethik die quasi unwandelbaren Prinzipien der allgemeinen Ethik nur dem konkreten Anwendungsproblem adaptiere. Die Forschung im Bereich etwa der Biologie - Genetik und Neurobiologie - hat einen Stand erreicht, der denkt man z.B. an naturalistische Modelle des Geistigen - grundlegende Annahmen über den Menschen in Frage stellt und damit auch die Grundlagen der Ethik tangiert. An anderer Stelle4 haben wir erste Hinweise dafür aufgezeigt, dass auch informationsethische Fragestellungen eng mit Grundfragen der Ethik verbunden sind. Diese Gedanken sollen hier weiter ausgearbeitet werden. 2. Informationsethik, Medienethik, Netzethik, Computerethik - ein Abgrenzungsproblem? Stellt man die in den letzten Jahren zum Informationssektor in Publikationen vorgestellten Spezialethiken zusammen, so scheint dieser wie kein anderer unter einer gewissen Überversorgung zu leiden. Im Folgenden sollen die jeweiligen Ethikansätze kurz vorgestellt werden, so dass Unterschiede in der Methodik aber auch im Gegenstandsbereich hervorgehoben werden. 2.1 Medienethik Als etablierteste unter den hier vorzustellenden Ethiken kann die Medienethik angesehen werden. Greis5 etwa weist auf zwei große Wellen medienethischer Publikationen gegen Ende des 19. Jahrhunderts und in den zwanziger Jahren hin, die mit der Institutionalisierung der Presse und mit dem Ausbau der journalistischen Ausbildung zusammen hingen. Medienethik ist somit, wie auch Koziol6 pointiert feststellt, an das Prinzip der Öffentlichkeit und damit an die Massenmedien gebunden. Eine Herausforderung an die Medienethik stellt das Internet dar, das Aspekte von Öffentlichkeit und Privatheit, von Nah- und Fernkommunikation in völlig neuer Weise konfiguriert7. Hinsichtlich der Methodik sind sehr unterschiedliche Ansprüche an eine Medienethik anzutreffen. Während Wiegerling8 - durchaus in Einklang mit der Durchführung medienethischer Studien - Medienethik primär als deskriptive Ethik versteht, kritisiert Leschke eine theoriearme und philosophieferne Medienethik9, die zur Rechtfertigung des Bestehenden herhalten müsse 10 . In einem Durchgang durch ethiktheoretische Ansätze kommt er allerdings zu dem Schluss, dass der Versuch, Normen aus Ethiktheorien zu begründen, zwangsläufig zu Aporien führe". Eine Medienethik sei deshalb unter Verzicht eines normensetzenden Anspruchs als Metaethik zu begreifen, welche den Zusammenhang von historischen Situationen - Machtkonstellationen, soziale Gegebenheiten etc. - und Normensystemen zu rekonstruieren vermag. 4
Hammwöhner 2004.
5
Greis 2003a, S. 3.
6
Koziol 2003, S. 19.
'Vgl. Greis 2003b, S. 157.
18
8
Wiegerling 1998, S. 1.
9
Leschke 2001
10
ebenda, S. 110 f.
11
ebenda. S. 27 ff.
Die Themenbereiche der Medienethik lassen sich in einer Matrix gliedern, die jeweils die Zuordnung zu den Einzelmedien - Zeitung, Film, Fernsehen, Internet - die Einordnung in Phasen des Produktions- und Rezeptionsprozesses - Produktion, Distribution und Rezeption sowie die Einflussgrößen gesellschaftlicher Prozesse - Markt, Politik - erfasst. Konkrete Fragestellungen der Medienethik etwa betreffen die Rolle und Wirkung von Gewalt im Fernsehen, die politische und wirtschaftliche Unabhängigkeit des Berichterstatters oder die Sorgfaltspflichten des Rechercheurs. In dem Maße, wie auf derartige Fragen, entweder aus konkreten Problemlösungen heraus oder aufgrund theoretischer Erwägungen, Lösungen gefunden werden, schlagen sie sich in Form von Regeln einer Berufsethik nieder, die in einem „Code of Ethics"12 kodifiziert werden können. Solche Regelsammlungen, die häufig von Berufsverbänden oder Interessengruppen zusammengestellt und verwaltet werden, existieren im Gegenstandsbereich aller hier zu diskutierenden Bereichsethiken. In den Medienberufen, deren professionelles Wirken in den letzten Jahren wiederholt Gegenstand kritischer Auseinandersetzungen war, sind sie allerdings sehr detailliert ausgearbeitet. Als Leitfaden fur ein angemessenes Verhalten im Beruf kann ihnen eine verhaltensobjektivierende Funktion nicht abgesprochen werden. Ersetzt der Hinweis auf die Regeln des „Code of Ethics" aber die Debatte über angemessenes moralisches Verhalten, so nehmen diese genau die viel kritisierte oben schon angesprochene Alibifunktion ein, welche die Bereichsethik insgesamt zu diskreditieren droht. 2.2 Computerethik Als ein Gründungstext der Computerethik kann Joseph Weizenbaums 13 „Die Macht der Computer und die Ohnmacht der Vernunft" angesehen werden. Weizenbaums Kritik richtet sich gegen eine instrumenteile Vernunft, die den Computer, das neue Universalwerkzeug, in Anwendungszusammenhänge stellt, die der Verfasser als inhuman ansieht, die somit zu einer entmenschlichten Gesellschaft fuhren müssten. Hervorzuheben sind hier alle Anwendungen, die einen empathischen, menschlichen Zugang durch einen instrumentellen ersetzen sollen, etwa in der Therapie von psychischen Problemen14. Nach Weizenbaum kann eine Computerethik also als eine spezifische Technikethik15 begriffen werden. Diese Einordnung wird auch durch die von Moor16 vorgeschlagene Definition des Begriffs Computerethik gestützt. Während aber Weizenbaum die Frage der Chancen und Risiken von Computertechnik generell aufwirft und primär an den Möglichkeiten der damals neuen Technologie orientiert ist, nehmen spätere Autoren17 eine Systematisierung vor, die auch für andere Bereichsethiken von Bedeutung ist. Sie unterscheiden Fragen der Privatheit von Daten, der Computerkriminalität (Datendiebstahl etc.), der Verbindlichkeit von Handlungen in anonymen Datennetzen etc. An derartigen Systematiken sind z.T. auch fur die Informatik entwickelte „Codes of Ethics"18 orientiert, die jedoch häufig eher allgemeine Fragen des Wohlverhaltens im Vordergrund stel-
12
IPC 2005
13
Weizenbaum 1978 ebenda, S. 351
15
vgl. Fischer 2004, S. 179 ff.
16
Moor 1985
17
etwa Johnson 2004
18
vgl. COE 2005
19
len. Winograd und Flores19 greifen Weizenbaums Kritik an der Substitution menschlicher Leistungen durch Computer auf, wie sie Ziel des performanzorientierten Zweiges der Erforschung „künstlicher Intelligenz" ist. Computer sind für sie nicht Kommunikationspartner sondern Kommunikationsmedien. Dieser Aspekt der Nutzung von Computern erhält eine zunehmende Bedeutung mit dem Aufkommen der neuen digitalen Medien, insbesondere des Internet, so dass es hier unter der Bezeichnung „Netzethik" zur Entwicklung einer eigenen Bereichsethik gekommen ist (s.u.). 2.3 Netzethik / Cyberethik Die Kommunikationsformen, die durch die neuen Kommunikationsprotokolle des Internet ermöglichet wurden, brachten zwangsläufig ein verändertes Verhalten ihrer Teilnehmer hervor. Als Ergebnis selbstregulierender Prozesse entstanden Verhaltensregeln (Netiquette, Chatiquette usw.20) durch die sich die meisten Nutzer gebunden fühlen. Diese befinden sich aber zumeist auf der Ebene einfacher, nach den Anforderungen des jeweiligen Internetdienstes (email, chat usw.) ausgeformter Benimmregeln, die noch weitgehend ohne moralischen Gehalt sind. Der neue Stil der Interaktion kann aber auch dazu führen, dass die Nutzer traditionelle Werte neu gewichten. Diese Veränderungen zu erheben, war ein erster, deskriptiver Schritt auf dem Weg zu einer Ethik des Netzes. Dabei kann sich die Aufmerksamkeit zunächst auf Prozesse des Informationsaustauschs konzentrieren21 und untersuchen, ob die Einschätzung hinsichtlich Wahrhaftigkeit oder Sorgfaltspflicht Änderungen unterworfen sind, wie sich der Zugang zur Information für die Nutzer verändert und ob hier Gerechtigkeitsprinzipien außer Kraft gesetzt sind (digital divide). Darüber hinaus sind aber auch weitergehende Möglichkeiten der neuen Kommunikationsformen zu berücksichtigen, wie etwa das Spiel mit virtuellen und künstlichen Persönlichkeiten etc.22 2.4 Informationsethik Die vorangestellten Kurzdarstellungen der Medien-, Computer-, und Netzethik zeigte jeweils eine Kombination von spezifischen Fragestellungen und gemeinsamen übergreifenden Problematiken. Erstere betreffen spezifische Eigenschaften der eingesetzten Medien sowie den an der Kommunikation beteiligten Adressatenkreis. Es überwiegen aber die Gemeinsamkeiten, die Fragen nach Privatheit, gerechtem Zugang zu Wissen, Rechten am geistigen Eigentum oder die Frage nach den sozialen Implikationen eines Eingriffs in die Struktur des etablierten Mediensystems23. Informationsethik lässt sich nunmehr als eine weitere derartige angewandte Ethik begreifen, die ihren Schwerpunkt im professionellen Informationssektor, etwa der Fachinformation24, hätte. Wir wollen an dieser Stelle jedoch einen anderen Ansatz verfolgen. Die schon erwähnten Überschneidungen der hier relevanten Bereichsethiken fuhren bereits verschiedentlich zu Versuchen, diese zu hierarchisieren. Sowohl Schwenk als auch Greis25 sehen 19
Winograd / Flores 1986
20
http://de.wikipedia.org/wiki/Netiquette. http://de.wikipedia.org/wiki/Chatiquette
21
vgl. Schwenk 2002
22
vgl. Turkle 1999
23
z.B. Zimmermann 1998
24
COE 2005 verweist u.a. auch auf einen Code of Ethics für Information Professionals, vgl. auch Wiegerling 1998, S. 2 f. 25
20
Schwenk 2002, S. 19 ff; Greis 2003b
die Netzethik als einen speziellen Anwendungsbereich der Medienethik. Wiegerling26 wiederum sieht die Medienethik als ein Teilgebiet einer allgemeineren Informationsethik. Eine ähnliche Position nimmt auch Capurro27 ein. Beiden Vorschlägen ist gemeinsam, dass sie den Aspekt der Informationsvermittlung als zentraler gegenüber den jeweiligen Medien annehmen. Mag derartigen Hierarchien auch immer etwas Subjektives anhaften, wir werden im Weiteren sehen, dass die informationsethische Perspektive geeignet ist, um gewisse Aporien und Möglichkeiten ethischer Begründungen deutlicher aufzuzeigen, als dies aus anderem Blickwinkel möglich wäre. Dennoch bleibt eine genauere Bestimmung des Gegenstandsbereichs der Informationsethik zu leisten. Konsens besteht wohl darin, dass Informationsethik sich auf Handlungen im Zusammenhang mit der Produktion, Distribution und Rezeption von Information28 bezieht. Nichtinformativer Gebrauch von Medien - etwa zur Unterhaltung - wäre somit von einer Informationsethik nicht zu behandeln. Strittig dürfte jedoch eine Einschränkung der Informationsethik auf bestimmte Medien sein. Zwar wird der aktuell zu verzeichnende Diskussionsbedarf primär durch die globalen, digitalen Medien hervorgerufen 29 , dennoch ist Informationsethik nicht nur als „Ethik in elektronischen durch Umgang mit Wissen und Information bestimmten Räumen" 30 zu definieren. Die Frage nach den Informationsfreiheiten etwa erhält durch die neuen technischen Möglichkeiten einen neuen Impuls, zieht ihre Kraft aber aus älteren Quellen, die nicht durch eine Einschränkung auf ein technisches Medium verschüttet werden sollten. Informationsethik sollte sich also ungeachtet des Mediums mit den oben umrissenen Handlungen befassen. 3. Begründungsmöglichkeiten einer Informationsethik Die Informationsethik kann - analog zur Politikethik oder Bioethik - als eine angewandte oder Bereichsethik angesehen werden. Derartige Ethiken richten ihr Augenmerk auf einen spezifischen Kontext, in dem angemessene Handlungsweisen bestimmt werden sollen. Darin unterscheidet sie sich von der auf allgemeine Prinzipien ausgerichteten normativen Ethik oder der Metaethik. Die handlungsorientierende Funktion kann sich dabei aus einer Anwendung allgemeiner normativer Prinzipien ergeben - der Begriff der angewandten Ethik legt diese Sichtweise nahe. Aus den Bereichsethiken - so die andere Sichtweise - und den an sie gestellten Anforderungen können sich aber auch Impulse für die philosophische Ethik im Allgemeinen ergeben. In der Informationsethik wurden bisher beide Wege beschritten. Zunächst wollen wir uns mit den Versuchen der diskursethischen Begründung der Informationsethik auseinandersetzen, wie sie etwa von Kuhlen und Hamelink31 gewählt wurden.
26
Wiegerling 1998, S. 1
27
http://www.caDurro.de/ethikskript/kap4.htm#Par4.1. zitiert am 14.5.2005
28
Dass Schicksal, dass jeweils definierende Begriff kontrovers diskutiert wird, teilt die Informationsethik mit der Medienethik. Ropohl 1991 etwa vereint Überlegungen zum Informationsbegriff und erste informationsethische Implikationen. 29
vgl. etwa Capurro 2003a,
30
Kuhlen 2004, S. 9.
31
vgl. Kuhlen 2004 und Hamelink 2000
21
3.1 Probleme einer diskursethischen Begründung der Informationsethik Die Diskursethik stellt den derzeit letzten einflussreichen Versuch dar, eine Ethik in der Tradition Kants auf absolute Vernunftsgründe aufzubauen. Das Instrument der ethischen Entscheidung ist das Verfahren der moralischen Argumentation 32 . Es gilt grundsätzlich, dass alle moralischen Fragen durch Konsensfindung in einem realen Diskurs so zu lösen sind, dass die Folgen des Konsenses für alle Beteiligten akzeptabel sind. An den moralischen Diskurs sind hinsichtlich der Form Bedingungen zu knüpfen. Etwa sollten alle die gleichen Chancen haben, ihre Intentionen zu artikulieren. Auch sollten keine asymmetrischen Machtkonstellationen vorliegen. Diese Forderungen können aber nur erfüllt werden, wenn alle am Diskurs Beteiligten ihre Argumentation gleichermaßen durch Information zur Sache untermauern können, bzw. wenn jede zur Sache beitragende Information von den Teilnehmern des Diskurses erfragt werden kann. Dies würde zweifelsohne auf sehr weitgehende Informationsfreiheitsrechte hinauslaufen. Dieses Ergebnis ist insofern nicht weiter verwunderlich, als der Diskursethik zahlreiche moralische Postulate implizit mit in die Verfahrensregeln des moralischen Diskurses eingeschrieben sind. Man könnte fast sagen, dass die Diskursethik eine bestimmte Informationsethik voraussetzt, so dass unweigerlich zirkuläre Begründungsstrukturen entstehen 33 . Wir sehen, informationsethische Positionen ergeben sich zum Teil schon allein aus der Akzeptanz einer ethischen Grundhaltung überhaupt. Es ist nicht ohne performativen Widerspruch möglich, sein Handeln ethischen Maximen unterordnen zu wollen, ohne bestimmte informationsethische Prämissen zu akzeptieren. Das ethische Urteil bedarf einer informationell abgesicherter Sachkenntnis. Der Pflicht, diese Information einzuholen, korrespondiert das Recht, über sie verfügen zu dürfen. Die der Diskursethik impliziten Gleichheits- und Gerechtigkeitsannahmen schließen weiterhin aus, dass der geforderte Informationszugang nur auf einer rein formalen Ebene - „im Prinzip ist jedem diese Information zugänglich, manchen aber leichter" - gewährleistet wird. Damit ist die Problematik der „Digital Divides" angesprochen, der Trennung zwischen informationsreichen Industrie- und informationsarmen Entwicklungsländer auf der globalen Ebene, aber auch zwischen Bevölkerungsgruppen unterschiedlicher Informationsversorgung, reich - arm, jung - alt usw., auf lokaler Ebene. Schon aus den Grundpositionen der Diskursethik sind also starke Verpflichtungen ableitbar, hier Abhilfe zu schaffen. Auch hinsichtlich einiger Kemannahmen hinsichtlich des Schutzes privater Information lassen sich ähnliche Überlegungen anstellen. Die Teilnahme an einem ethischen Diskurs ist nur handelnden Subjekten möglich, Personen, die für ihr Handeln verantwortlich sind. Schon die Herkunft des Begriffs - die Persona bezeichnete die Maske des antiken Schauspielers - zeigt die Existenz von Grenzen auf, hinter die nach den Regeln des Spiels nicht geschaut werden darf. Personale Integrität bedarf der Abgrenzung gegenüber der sozialen Umwelt. Ein Überschreiten dieser Grenzen zerstört die Grundlagen der Ethik. Dieser Grundsatz wird auch nicht dadurch zu relativieren sein, dass fur die genaue Verortung der Grenzen des Privaten kulturspezifische Kriterien zum Tragen kommen.
22
32
Habermas 91, S. 11.
33
Dieser Einwand wurde schon von Tugendhat 93 gegen die Diskursethik erhoben.
Welche spezifischen informationsethischen Grundsätze allein daraus folgen, dass eine allgemeine ethische Haltung eingenommen wird, hängt allerdings von der Ausprägung der jeweiligen ethischen Position ab. Eine normenorientierte Ethik erlaubt hier weniger weit reichende Schlussfolgerungen als sie bei einer diskursethischen Position gegeben sind. Wir können und wollen an dieser Stelle nicht alle möglichen Ausrichtungen der Ethik auf ihre informationsethischen Implikationen abklopfen. Wir müssen uns mit diesen exemplarischen Überlegungen begnügen. Klar sollte jedoch geworden sein, dass normative Begründungsversuche der Informationsethik zwar nicht zu Widersprüchen führen, dieser aber keinen unabhängigen Halt zu verleihen vermögen. 3.2 Das Internet als Ethos „Das Ethos der Schweine ist der Stall"34 - mit diesem, auf Joachim Ritter zurückgehenden Aper?u führt Rainer Kuhlen Informationsethik auf eine frühe Bedeutung des Begriffs Ethos zurück, der sich, zunächst örtlich verstanden, auf die Behausung oder das unmittelbar zugängliche Weideland bezog. In der Tat bezeichnet „Ethos" im XIV. Gesang der Odyssee ein Schweinegehege, nämlich den Schweinepferch des Eumaios35, des „trefflichen Hirten, welcher am treuesten haushielt unter den Knechten des göttergleichen Odysseus". Die Umgebung bestimmt mit ihren Gesetzmäßigkeiten über Möglichkeiten und Beschränkungen von Verhaltensweisen und damit auch über sinnvolle Gewohnheiten, Sitten und Normen. Ändert sich die Umgebung, müssen auch die Normen angepasst werden. So entwickelt sich die moderne Bedeutung des Begriffs, der ein „Gesamt von normativen Handlungsmustern" bezeichnet"36. Das Ethos der Informationsgesellschaft, der virtuelle Ort, der die Gesetzmäßigkeiten des Handelns bestimmt, sei nunmehr - so Kuhlen37 - das Internet. Diese auf die ursprüngliche Bedeutung des Wortes zurückverweisende Perspektive hat einige heuristische Kraft. Viele der als Netiquette zusammengefassten Benimmregeln für das Internet sind ja nichts anderes als Versuche, sich in dem neuen Hause der Information einzurichten und dieses wohnlich zu halten. Regeln über den Versand von großen Bildern etwa sind nur so lange von Bedeutung, wie der Zuwachs an Bandbreite mit der Pixelmanie nicht Schritt halten kann. Wessen Mailbox je von Spam verstopft war, der kann das zugehörige Verdikt unmittelbar verstehen. Die Regeln der Netiquette ergeben sich so zu einem erheblichen Teil aus der Struktur des Ortes. Sie sind deshalb auch keiner weiteren moralischen oder ethischen Begründung bedürftig. Auch die professionellen Ethiken bewegen sich vielfach auf diesem Niveau. Allerdings ist hier das Internet als „Ortsangabe" zu eng gefasst. Die Auffassung des Internet als Ethos ist auch noch in anderer Hinsicht problematisch. Immerhin hat das Netz in seiner Entwicklung die Rollen eines geschlossenen militärischen und eines offenen wissenschaftlichen Kommunikationsnetzes eingenommen, die einer anarchischen Selbstdarstellungsbühne und die des globalen Warenhauses des e-commerce. Das Netz ist heute nicht ein Ort, es umfasst viele virtuelle Orte, die alle ihr eigenes Ethos bedingen.
34
Kuhlen 2004, S. 27
35
Den Hinweis auf diesen Zusammenhang verdanke ich [Draser 2005].
36
Burkard 1999, S. 164
37
Kuhlen 2004, S. 24.
23
3.3. Informationsethik als konkrete Ethik Im Eingangsabschnitt dieses Kapitels haben wir gesehen, dass eine diskursethische Begründung der Informationsethik scheitern muss. Dieses Scheitern liegt aber nicht in spezifischen Defiziten der Diskursethik begründet, sondern im Misslingen jeglicher Versuche, ethische Theorien absolut zu begründen38. Machen wir uns einen pragmatistischen Standpunkt zu eigen, so liegt die Aufgabe der Ethik ohnehin nicht darin, unsere Intuitionen über richtiges Handeln zu fundieren, sondern darin, sie zu resümieren und in abstrakterer Form zusammenzufassen 39 . Die Unmöglichkeit einer absoluten Fundierung der so entstehenden Theorien hindert nicht daran, Minimalanforderungen hinsichtlich der internen Kohärenz an sie zu stellen, oder sie auf ihre Tauglichkeit zur Lebensbewältigung zu befragen. Insofern lassen sich die unter 3.1 angeführten Überlegungen durchaus als ein Fragment einer Informationsethik auffassen. Lässt man den Anspruch der Fundierung fallen, kann die Diskursethik als eine Idealisierung eines praktikablen Wegs zur Konsensfindung begriffen werden. Zu prüfen wäre nur, ob nach Wegfall der Absolutheitsansprüche nicht auch auf ein weniger idealisiertes Modell des Diskurses zurückgegriffen werden sollte. Informationsethik hat nun also die Analyse und Systematisierung der im Zusammenhang der digitalen Kommunikation etablierten normativen Handlungsmuster zu leisten. Dabei kann sie nicht von einem festen Standort (Ethos) ausgehen, sondern muss ihren Horizont weiter stecken. Hier kommt ihr nicht nur eine sammelnde und systematisierende sondern auch eine auslegende und kritische Rolle40 zu. In dieser Situation sich ändernder Lebensverhältnisse und ungewisser ethischer Begründungen gewinnt die alte, der antiken Moralphilosophie zentrale Frage nach dem guten oder gelingenden Leben wieder an Bedeutung, nachdem sie lange aus der philosophischen Debatte ausgeschlossen war41. Zwar sind diese Überlegungen häufig auf einem sehr theoretischen, metaethischen Niveau angesiedelt und damit weit von der Frage nach einer konkreten Lebensgestaltung entfernt. Die hier erbrachten und noch zu leistenden Vorarbeiten werden jedoch von hoher Bedeutung für eine Ethik des Internet und - noch mehr - des Cyberspace sein. Nur vor dem Hintergrund einer Auffassung dessen, was ein gelungenes Leben ausmachen oder scheitern lassen kann - nicht etwa muss ist die Surrogatwirkung der zunehmend immersiven Medien angemessen zu beurteilen. Gibt es so etwas wie illusionäres Glück und wie ist es zu bewerten42. Eine objektive Theorie des menschlichen Wohls43 erlaubt schließlich eine Verbindung zwischen gelingendem Leben und Werten wie Autonomie oder Privatheit, die in der Informationsethik eine so zentrale Rolle einnehmen. Die Berücksichtigung von Pflichten von Menschen gegenüber Menschen oder auch die Auffassung vom Guten, wie sie im Streben nach einem guten Leben deutlich wird, bieten noch kein zulängliches Instrumentarium für einige Fragen, die auch für die Informationsethik von zentraler Bedeutung sind. Fragen der Nachhaltigkeit, die insbesondere die Angehörigen späte-
24
38
Vgl. Tugendhat 1993, S. 65 ff.
39
Rorty 2003a, S. 246 f.
40
vgl. Capurro 2003b
41
vgl. Steinfath 1998a.
42
Seel 1998
43
Schaber 1998
rer Generationen betreffen, sind nur mühsam in diese Kategorien zu bringen. Welche Verpflichtungen bestehen gegenüber Generationen, deren Angehörige noch nicht geboren sind. Siep44 versucht dieses Problem zu lösen, indem er ein Konzept des Guten in Bezug auf das Ganze der Welt formuliert. Arten-, aber auch Kulturdiversität, unverbrauchte Landschaften etc. können in diesem Zusammenhang als eigenständige Werte erfasst werden, die nicht nur abhängig von ihrem Nutzen für Menschen zu sehen sind. Für die Informationsethik ist hier vor allem der Kulturbezug von Interesse. Gemeint sein kann hier die Bewahrung des kulturellen Erbes für spätere Generationen im Sinne der Konservierung und Archivierung. Ziel kann aber auch der Erhalt der kulturellen Mannigfaltigkeit sein, die derzeit von Globalisierungstendenzen starker Gefährdung ausgesetzt ist. Entsprechende Forderungen sind z.B. in eine Resolution der UNESO eingeflossen 45 . Während das erstere Ziel weitgehend unproblematisch zu sein scheint, entsteht hinsichtlich des Erhalts kultureller Mannigfaltigkeit vermutlich Diskussionsbedarf. Es ist zu vermuten bzw. zum Teil schon zu verzeichnen, dass die Verbreitung der vernetzten digitalen Medien und der damit verbundene erleichterte Zugang zu Information in vielen Bereichen der Welt einen Kulturwandel hervorrufen wird. Manche dieser Änderungen - etwa der vermehrte Gebrauch einer lingua franca sind unmittelbar mit dem Erfolg des Mediums verbunden. Wer soll nun entscheiden, welche Aspekte einer Kultur schutzbedürftig und schützenswert sind. Welches Wertesystem soll diesen Entscheidungen zugrunde liegen? Offensichtlich ist jedoch, dass derartige Entscheidungen weder in Form paternalistischer Eingriffe in die Autonomie der Angehörigen eines Kulturkreises noch aus der Perspektive einer kulturrelativistischen Beliebigkeit geschehen dürfen. Die oben genannten Gründe für Informationsfreiheit etwa können nicht mit dem Hinweis auf etablierte gesellschaftliche Rollen oder kulturspezifische Regierungstraditionen beiseite gestellt werden. Ohnehin darf dieses Prinzip der kulturellen Nachhaltigkeit nicht zum Schutz einzelner Kulturinhalte oder auch ganzer Kulturen ins Feld geführt werden. Ziel ist nicht der Schutz individueller Kulturen, sondern der Erhalt der kulturellen Mannigfaltigkeit46. Unvermeidlich werden durch die weltweite Standardisierung der Kommunikationswege Aspekte kultureller Diversität entfallen. Dies ist solange unproblematisch, als durch die neuen Medien mehr neue Kulturformen entstehen als vergehen. 4. Abschließende Bemerkungen Die Notwendigkeit einer informationsethischen Debatte kann aus den aktuellen gesellschaftlichen Fragestellungen unschwer abgeleitet werden. Eine höhere Sicherheit als gemeinhin mit guten Gründen erzielbar ist, kann aber auch in diesem Diskurs nicht erreicht werden. Diese Absage an alte Ideale der philosophischen Ethik wird jedoch kompensiert durch zahlreiche neuere Theorieansätze, die auch für eine Informationsethik fruchtbar werden können.
44
vgl. Siep 2004
45
vgl. Kuhlen 2004, S. 302 ff.
46
s.a. Rorty 2003b
25
Literaturangaben Burkard, Franz-Peter (1999) Metzeler Philosophie Lexikon. Metzeler. COE (2005): http://www.southernct.edu/organizations/rccs/resources/research/comp_and_priv/appendixII/tablel.html, zitiert am 2.5.2005 Capurro, Rafael (2003) Ethik im Netz. Franz Steiner Verlag. Capurro, Rafael (2003a) Das Internet und die Grenzen der Ethik, In Capurro 2003, S. 75-89. Capurro, Rafael (2003b) Ansätze zur Begründung einer Netzethik, In Capurro 2003, S. 123-132. Draser, Bernd (2004) Neues vom Verkünder. http://www.titel-forum.de/modules.php ?op=modload&name=News&file=article&sid=3064. zitiert am 9.5.2005 Fischer, Peter: Philosophie der Technik. W. Fink, UTB, 2004. Greis, Andreas; Hunold, Gerfried; Koziol, Klaus (Hrsg, 2003) Medienethik. A. Francke, UTB. Greis, Andreas (2003a) Die immanenten Strukturen medialer Kommunikation als Fokus medienethischer Anstrengungen. In: Greis et. al. 2003, S. 3-18. Greis, Andreas (2003b) Internet. Ein Medienbereich zwischen vielfältigen kommunikativen Ausdrucksmöglichkeiten: zwischen Mündlichkeit und Schriftlichkeite, zwischen Nahkommunikation und Fernkommunikation. In: Greis 2003a, S. 157-174. Habermas, Jürgen: Erläuterungen zur Diskursethik. Suhrkamp, 1991. Hamelink, Cees J. (2000) The Ethics of Cyberspace. Sage Publications. Hammwöhner, Rainer (2004) Wessen Ethos ist das Internet? Fragen an Rainer Kuhlens Informationsethik. TR-1-04, Informationswissenschaft, Universität Regensburg. IPC (2005) Codes of Ethics. http://www.presscouncils.org/html/frameset.php?page=library2. zitiert am 2.5.2005 Johnson, Deborah (2004) Computer Ethics. In The Blackwell Guide to the Philosophy of Computingandinformation. Blackwell Publishing. S. 65-75. Koziol, Klaus (2003) Öffentlichkeit als hermeneutisches Prinzip medienethischer Reflexion. In Greis et. al. 2003, S. 19-36. Kuhlen, Rainer: Informationsethik, UVK, UTB, 2004. Leschke, Rainer (2001) Einfuhrung in die Medienethik, W. Fink, UTB. Moor, James H. (1985) Terrell Ward Bynum, ed., Computers & Ethics, Blackwell, S.266 - 275 (verfügbar unter: http://www.southernct.edu/organizations/rccs/resources/teaching/ teaching mono/moor/moor definition.html). Ropohl, Günter (1991) Technologische Aufklärung. Beiträge zur Technikphilosophie. Suhrkamp. S. 144-167. Rorty, Richart (2003a) Menschenrechte, Vernunft und Empfindsamkeit. In: Rorty, Richard, Wahrheit und Fortschritt, S. 241-268. Rorty, Richard (2003b) Rationalität und kulturelle Verschiedenheit. In Rorty, Richard, Wahrheit und Fortschritt, S. 269-290. Schaber, Peter (1998) Gründe für eine objective Theorie des menschlichen Wohls. In Steinfath 1998, S. 149-166. Schwenk, Johanna (2002) Cyberethik. Reinhard Fischer. Seel, Martin (1998) Freie Weltbegegnung. In Steinfath 1998, S. 275-296. Siep, Ludwig (2004) Konkrete Ethik. Suhrkamp. 26
Steinfath, Holmer (1998) Was ist ein gutes Leben!. Suhrkamp. Steinfath, Homer (1998a) Die Thematik des guten Leben in der gegenwärtigen Diskussion. In Steinfath 1998, S. 7-31.
philosophischen
Tugendhat, Ernst (1993): Vorlesungen über Ethik. Suhrkamp. Turkle, Sherry (1999) Leben im Netz. Identität in Zeiten des Internet. Reinbek 1999. Weizenbaum, Joseph (1978): Die Macht der Computer und die Ohnmacht der Vernunft, Suhrkamp. Wiegerling, Klaus (1998): Medienethik. J.B: Metzler. Winograd, Terry / Flores, Fernando (1986): Understanding Computers and Cognition. A New Foundation for Design. Addison-Wesley. Zimmermann, Harald (1998): Theses on the Impact of New Forms of Telecommunication on Social Structures. In: Glessen, Hans W. (Hrsg.) Long-Term Consequences on Social Structures through Mass Media Impact. Berlin: Vistas-Verlag, S. 121-130.
27
Ehrwürdig stille Informationen Eine Interpretation der Phaidros-Passage unter besonderer Berücksichtigung der McLuhan'schen Unterscheidung in ,kühle' und ,heiße' Medien Hans W. Glessen I. Der folgende Beitrag bezieht sich auf Kommunikationsprozesse. Das klassische Kommunikationsmodell, das schon auf die antike Rhetorik zurückgeht, beschreibt eine Person, von der die Kommunikation ausgeht - das theoretische Modell, auf das heutzutage in der Regel zurückgegriffen wird, Claude Elwood Shannons und Warren Weavers „mathematische Theorie der Kommunikation" (1964), nennt diesen Ausgangspunkt der Kommunikation den ,Sender' - , und die Person, die das Ziel der kommunikativen Bemühungen ist, den .Empfanger'. Für die Darstellung des Kommunikationsprozesses in historischer Zeit genügen diese beiden Elemente; der Kommunikationsprozess erfolgte in der Regel direkt, da (nahezu ausschließlich) mündlich. (Probleme der Kodierung von Informationen durch Sprache seien an dieser Stelle nicht berücksichtigt.) Unter Umständen benötigen Sender und Empfänger aber auch ein Medium, eine ,Mittelinstanz' (vom lateinischen medium, das Mittlere), damit die kommunikativen Signale gut vom Sender zum Empfanger kommen können. Der Begriff .Medium' - ,Mittelinstanz' macht deutlich, dass damit das .Sender'-,Empfanger'-Modell nicht aufgegeben wird. Es handelt sich vielmehr um eine Metapher, die den Ort und die Funktion dieser Instanz im Kommunikationsfluss lokalisiert und bewertet. Ein historisch frühes Beispiel für ein solches .Medium' sind bildhafte Darstellungen in steinzeitlichen Höhlen. Es war jedoch stets (selbst den steinzeitlichen Menschen zumindest unbewusst) klar, dass diese mediale Form des Informationstransfers nicht nur untersucht werden muss, weil sie möglicherweise störanfällig ist oder den Umfang, die Sende- und die Empfangsmöglichkeiten der zu übermittelnden Informationen begrenzt. Schon früh hat sich gezeigt, dass die Metapher problematisch sein kann, weil ein .Medium' nicht nur .Mittelinstanz' ist, sondern auch selbst die Art und den Inhalt der zu übermittelnden Informationen (mit) beeinflussen kann. Ein einfaches Beispiel soll dies verdeutlichen: Wenn der Aufwand, Informationen medial darzustellen, so hoch wie beim Beispiel der steinzeitlichen Höhlenbilder ist, können aktuelle Diskussionen nicht medial gefuhrt werden, denn die entsprechenden Darstellungen benötigen bereits bei der Produktion viel Zeit. Sie lassen sich auch nicht transportieren und sind mithin in ihrer Wirksamkeit auch räumlich beschränkt. Die Inhalte, die zu diesem .Medium' passen, sind deshalb kultischer Natur; sie sind auf Dauerhaftigkeit und in der Folge vor allem auf Traditionserhalt ausgerichtet. Eine Veränderung (etwa als Folge eines gesellschaftlichen Dis29
kurses) ist ja nur schwer möglich. Kunst und generell Inhalte, die medial vermittelt wurden, waren deshalb seit der Steinzeit hauptsächlich sakral. Inzwischen hat der Anteil des medial vermittelten Informationstransfers dramatisch zugenommen, weil sich die Medien selbst verändert haben. Eine mediale Präsentation ist heutzutage wesentlich leichter möglich; zudem erlaubt sie einen Informationstransfer über weite Distanzen, was traditionell unmöglich war. Erneut kann vermutet werden, dass der veränderte - j e t z t also: der immer häufigere und selbstverständlichere - Umgang mit medial aufbereiteten Informationen auch Auswirkungen auf die entsprechenden Inhalte, ihre Aufnahme und den Umgang mit ihnen hat. Um das Beispiel fortzufuhren: Walter Benjamin hat aus genau diesem Grund darauf hingewiesen, dass traditionellen medialen Darstellungen ein Element immanent war, das er als die ,Aura eines Kunstwerkes' bezeichnet hat (1936). Diese ,Aura' verflüchtige sich nun; aus diesem Grund werden mediale Informationen seiner Meinung nach zunehmend banal. Benjamin kann als Beispiel für eine Forschungs- und Diskurstradition gelten, die ihren Fokus weniger auf die Funktion des Mediums als Verstärker oder Problem beim Übermitteln von Informationen zwischen ,Sender' und ,Empfanger' richtet, sondern die sich auf die von ihm bestimmten inhaltlichen Determinierungen bezieht. Diese Tradition hat ihrerseits eine lange Geschichte; einer der wichtigsten antiken Vertreter dieser Tradition ist beispielsweise Piaton (insbesondere in seinem Dialog Phaidros). II. Im Folgenden soll der Phaidros-Dialog auf seine Relevanz angesichts immer weiterer, auch umfassender wirkender Medien analysiert werden. Probleme, die mit diesem Dialog existieren, sollen im Licht der theoretischen Aussagen anderer Autoren, die ebenfalls die eigenständige Bedeutung des Mediums als (mit) entscheidend für die inhaltliche Qualität einer Aussage thematisieren, erklärt werden. Piaton selbst konnte sich nur auf wenige Medien beziehen, die zu seiner Lebenszeit existierten; dies waren im Wesentlichen das Bild und die Schrift. Dennoch sah er bereits das Problem, dass es einen Widerspruch zwischen direkter (mündlicher) und medial aufbereiteter Kommunikation gibt. In seinem berühmten Phaidros-Dialog lässt er den Protagonisten, seinen Lehrer Sokrates, auf den ägyptischen Gott Theuth verweisen, der neben Arithmetik, Geometrie, Astronomie und Würfelbrettspiel auch die Schrift erfunden haben soll. Natürlich habe Theuth versucht, den Pharao zur Anwendung seiner Erfindungen zu überreden. Die Schrift habe er mit dem Argument angepriesen, sie werde die Ägypter klug machen, denn sie sei eine ideale Unterstützung für den Verstand und das Gedächtnis. Dagegen entwickelt der Pharao Gegenargumente. Zunächst verweist er darauf, dass die Schrift vermutlich eher das Vergessen fördere, denn man werde sich wohl zu sehr auf die fixierten Zeichen verlassen und deshalb das Gedächtnis möglicherweise vernachlässigen. Ein weiteres Argument von Thamus, dem Pharao, lautet, dass die Menschen sicherlich aus der Schrift eine Fülle von Informationen erhalten werden; ohne sachgerechte Belehrung werde dies aber weitgehend nutzlos bleiben, so dass sie zwar klug erscheinen, in Wahrheit aber unwissend bleiben. Mehr noch: Die Schrift könne bei der Klärung von Sachverhalten, der .Wahrheitsfindung', explizit nicht helfen, da sie nicht zwischen geeignetem und ungeeignetem Leser unterscheide, zudem schlecht behandelt und geradezu missbraucht werden und sich dagegen nicht zur Wehr setzen könne. Im Rahmen eines Dialogs dagegen sei es möglich, all dies zu erkennen und gegebenenfalls zu korrigieren; 30
im Gespräch können die Wahrheit verteidigt werden - deshalb sei das gesprochene Wort dem geschriebenen überlegen! Im Kern sagt Piaton, der Hauptunterschied zwischen direktem und mediatisiertem Informationsaustausch liege darin, dass bei ersterem feedback-Prozesse möglich sind, bei einem mediatisierten Informationsaustausch dagegen nur begrenzt oder gar nicht. Erst diese feedback-Prozesse ermöglichten, so kann Piaton verstanden werden, tatsächliche Kommunikation. Ohne solche Prozesse sei die Kommunikation unvollständig, nicht .lebendig', möglicherweise unergiebig oder gar kontraproduktiv, in jedem Fall ehrwürdig still: „...dieses Schlimme hat doch die Schrift, Phaidros, und ist darin ganz eigentlich der Malerei ähnlich; denn auch diese stellt ihre Ausgeburten hin als lebend, wenn man sie aber etwas fragt, so schweigen sie gar ehrwürdig still. Ebenso auch die Schriften: Du könntest glauben, sie sprächen, als verständen sie etwas, fragst du sie aber lernbegierig über das Gesagte, so bezeichnen sie doch nur stets ein und dasselbe." (275) Moderne Medien haben die Grenzen dessen, was Piaton postuliert, weit hinausgeschoben; aber es ist eindeutig, dass sie noch immer existieren. Wer fühlt sich bei Piatons Sätzen nicht an die mehr oder weniger intelligenten Dialogfunktionen moderner Software-Umgebungen erinnert? In der Regel folgen die ,Nutzer' der Suggestion und haben mitunter gar den subjektiven Eindruck, sie befanden sich in verständiger Betreuung. Joseph Weizenbaum hat als einer der ersten die Wirksamkeit einer solchen Simulation vorgeführt (1966); er konnte zeigen, dass Nutzer sich Rat bei einem Computerprogramm einholten und dessen Anweisungen folgten. Weizenbaum hat aber auch die Grenzen solcher Programme aufzeigen können: Sobald die Nutzer tatsächlich lernbegierig nachfragen möchten, weil etwas nicht plausibel wurde oder ein Aufruf in einer unverständlichen Meldung endet, schwieg das Programm (erneut) gar ehrwürdig still. Dennoch haben offenbar die meisten Nutzer Weizenbaums "Eliza"-Programm als Partner in ihrem Kommunikationsprozess' akzeptiert. Obgleich sie ja wussten, dass sie mit einer .Maschine' ,kommunizierten', hat die theoretische Erkenntnis (also: das Diktum Piatons) nicht zu entsprechenden Konsequenzen geführt. Es sei vermutet, dass dies bereits zu Piatons Lebenszeiten galt; ansonsten müsste er ja nicht auf etwas Offensichtliches hinweisen. In der Tat haben Maler und,Bildende Künstler' (auf sie bezieht sich Piaton ja in seinem Beispiel) jahrhundertelang versucht, (soweit es der handwerkliche State-of-the-Art jeweils zuließ) die Wirklichkeit so realistisch wie möglich zu zeigen; dies konnte auch bedeuten, die dargestellten Personen oder Ereignisse in deren Bezug zur herrschenden Weltsicht widerzuspiegeln (sei es aus der Erkenntnis heraus, dass allenfalls eine intersubjektive Annäherung an die .Wirklichkeit' möglich sei; sei es, traditionell, weil das herrschende subjektive Bewusstsein keine individuelle, von ihr losgelöste Darstellung ermöglichte). In jedem Fall hat die bildende Kunst bis in die zweite Hälfte des neunzehnten Jahrhunderts hinein angestrebt, zumindest .lebensähnliche' Portraits zu schaffen: Portraits, die dem Betrachter zu .antworten' schienen, bis hin zur Nutzung bildhafter Darstellungen im Ritus oder zur Erinnerung (etwa an Verstorbene). Die Bewertung Piatons hatte also selbst dann, wenn sie theoretisch akzeptiert worden sein sollte, bis mindestens zur Mitte des neunzehnten Jahrhunderts keinerlei Konsequenzen für Maler und ,Bildende Künstler'. Der Umbruch ist hier, so eine immer wieder zu hörende These, der Fotografie geschuldet: Es scheint, dass es erst die - erneut: als .lebensähnlich' empfundenen - fotografischen Darstellungen den .Bildenden Künstlern' ermöglichten, sich dem Anspruch zu entziehen, lebensechte' Darstellungen erstellen zu müssen - inzwischen lässt sich allgemein ein „Ausstieg aus dem Bild" beobachten (Glozer 1981). Natürlich ist fraglich, 31
ob die zeitliche Koinzidenz durch eine solche kausale Koinzidenz erklärt werden kann - es könnte auch übergeordnete Phänomene als Grund beider Entwicklungen geben (wie die Koinzidenz des Geburtenrückgangs und des Rückgangs brütender Storchenpaare in Mitteleuropa ja auch nicht miteinander, sondern mit Hilfe übergeordneter Phänomene wie Industrialisierung und Urbanisierung und der daraus resultierenden, veränderten Lebensbedingungen einerseits, sowie der daraus resultierenden, veränderten Lebensformen andererseits zu erklären sind). Bezogen auf die Koinzidenz des Durchbruchs der Fotografie und des Aufkommens zweidimensionaler und letztlich gegenstandsloser Malerei lässt sich aber immerhin sagen, dass zumindest erst zu diesem Zeitpunkt und erst aufgrund der Umwälzungen, die die Erfindung der Fotografie mit sich brachte, die theoretische Aussage Piatons in konkrete Kulturäußerungen umgesetzt werden konnte. Und in der Tat war es jetzt (unter anderem, aber doch in besonderem Maße) dieses Argument Piatons, das beispielsweise Picasso dazu gebracht hat, nicht mehr dreidimensionale Objekte als solche darstellen zu wollen, sondern die entsprechenden Gegenstände und auch Personen bewusst zweidimensional darzustellen - letztlich hat dieses Argument zum Kubismus und zur ungegenständlichen Malerei gefuhrt. Weil offenbar viele Maler empfanden, dass Piaton Recht hatte (ohne natürlich notwendigerweise auf ihn Bezug zu nehmen), kam es zu neuen Kunstströmungen (mit denen viele Menschen, die im Übrigen ja auch ihre Schwierigkeiten haben - möglicherweise, weil sie die Implikationen der Äußerungen Piatons nicht nachvollziehbar fanden). Im Bereich der .Bildenden Kunst' gibt es heute nur noch wenige Werke, die, in Piatons Worten, vorgeben, zu leben und zu sprechen; solche Werke sind häufig auch - und inzwischen gar oft mit einem gewissen Automatismus - dem ,Kitschverdacht' ausgesetzt. Die Dominanz ,nicht-lebensähnlicher' Darstellungen im Bereich der Kunst war offenbar erst möglich, weil ein anderes Medium noch lebensähnlichere Darstellungen ermöglichte und so der entsprechende Anspruch an die Bildende Kunst verschwand. Die Umsetzung der theoretischen Erkenntnis Piatons ist also offenbar von verschiedenen Faktoren abhängig. Zum einen kann diskutiert werden, ob zwischen .Autoren' (Künstler) und .Nutzern' (Betrachter, Leser) differenziert werden muss. Selbst wenn aber die Differenzierung realistisch sein sollte und .Autoren' nur deswegen keine Konsequenzen aus dem Diktum Piatons ziehen können, weil der .öffentliche Druck' beziehungsweise die Erwartungshaltung oder die Nutzungsabsicht zu groß sind, ist in jedem Fall die,Nutzerperspektive' entscheidend. Die zweite Differenzierung bezieht sich auf das jeweilige ,Medium', wobei die Mehrzahl der ,Nutzer' einem .Medium' offenbar eine .lebensähnliche' Qualität zubilligen wollen. Dies kann sich aber offenbar in historischen Prozessen verändern, wie das Beispiel der Fotografie und ihrer Auswirkungen auf die ,Bildende Kunst' dargelegt hat. Demnach bezöge sich Piatons Aussage auf alle Medien; die ,Nutzer' erlebten sie aber nur auf manche Medien bezogen. Der Wandel der Einschätzung vollziehe sich (zumindest auch) unter dem Eindruck anderer, historisch neuerer Medien. Es sei an dieser Stelle offen, ob Künstler beziehungsweise Autoren die Einsicht Piatons immer teilen oder parallel zu den Bewertungen der,Nutzer' reagieren. III. Wenn diese Beschreibung korrekt sein sollte, kann sich die Art und Weise, wie ein Medium Informationen wiederzugeben erlaubt, historisch und in Abhängigkeit von anderen Medien und der Art und Weise, wie sie Informationen wiedergeben, verändern. Auch wenn Piaton mit 32
guten Gründen der Ansicht ist, dass das Medium in keinem Fall zur magischen Verdoppelu n g des Autors fuhren kann, wird dies offenbar und zumindest bei manchen Medien und zu manchen Zeiten stärker, bei anderen Medien zu anderen Zeiten (allenfalls) schwächer empfunden. Es muss demnach eine weitere Variable geben, die der allgemeinen Erkenntnis Piatons im Alltag Widerstand bietet; auch diese Variable scheint mit der Art und Weise, wie Informationen übermittelt und genutzt werden, zusammenzuhängen. Wenn diese Variable tatsächlich (auch) medial begründet sein sollte, kann sie (auch und vermutlich nur) medientheoretisch erklärt werden. Offensichtlich existiert für die ,Nutzer' eine Dichotomie: Es gibt demnach Medien, die nicht ,lebensähnlich' sind (wie die moderne ,Bildende Kunst'), und andere Medien, die, obgleich sie dies gar nicht sein können, dennoch als,lebensähnlich' eingeschätzt werden. Ein Medientheoretiker, der mit einer ähnlichen Dichotomie arbeitet, ist Herbert Marshall McLuhan (1964). Die Dichotomie McLuhans unterscheidet zwischen .heißen' und ,kühlen' Medien. Als ,kühl' bezeichnet er Medien, die nur eine ,schwache Detailgenauigkeit' aufweisen und keinen einzelnen der menschlichen Sinne ganz erfüllen. In diesem Sinn seien das Fernsehen oder die Zeitung ,kühle' Medien. Umgekehrt absorbierten ,heiße' Medien den,Nutzer' als ganze Person, sie seien ,datenreich' und von ,hoher Detailpräzision'. ,Heiße' Medien seien etwa das Kino oder beispielsweise Romane. In einen Spielfilm oder einen spannenden Text taucht man ein. Dagegen impliziert das übliche Verhalten beim Fernsehen, dass man miteinander plaudert oder gegebenenfalls zu Abend isst; das Zeitungslesen ist Begleittätigkeit beim Frühstück oder im Bus auf dem Weg zur Arbeit - die entsprechenden Medien erfordern, aufgrund ihrer medialen Spezifika oder aufgrund der Art und Weise, wie sie genutzt werden, ein hohes Maß an Beteiligung und Vervollständigung seitens der Nutzer. Es ist auffallend, dass ein Medium - etwa: ein Film - in einem Kontext (im Kino auf der großen Leinwand) völlig anders wirkt als in einem anderen Kontext (auf dem Fernsehapparat, Glessen 2004). Die Erfahrung etwa mit enttäuschten Zuschauerreaktionen aus Anlass der Fernsehausstrahlung von visuell bombastischen und im Kino eben eindrücklich wirkenden Filmen wie Stanley Kubricks „2001" scheinen dies zu belegen. Ähnlich wirkt ein Text in einem gebundenen Buch anders als die identischen Worte auf Zeitungspapier; dies hängt offenbar sowohl vom Kanal (Zeitung vs. Buch), als auch erneut von der jeweils medienabhängigen Nutzersituation ab. Kanal wie Nutzersituation sind demnach entscheidend, ob ein Medium (nur!) einem menschlichen Sinn detailreiche Informationen zufuhrt und ihn so zu einer intensiven Konzentrations- und Definitionsleistung zwingt; ob es also ,heiß' ist - oder ob es keinen einzelnen der menschlichen Sinne ganz erfülle, so dass der Nutzer auf verschiedene Art und Weise, mit verschiedenen anderen Sinnen und Fähigkeiten die Lücken ausfüllen muss; ob es also ,kühl' wirkt. Von daher ist nachvollziehbar, wenn ein Medium - in unserem Beispiel: das Bild - in einem bestimmten, historisch ftüheren Kontext (ohne die Seh-Erfahrungen der Fotografie; oder: mit einer ,Aura' versehen, weil seltener, wie Walter Benjamin herausgearbeitet hat) anders wirkt, als in einem anderen (hier: dem heutigen) Erfahrungs-Kontext. Die Bedeutung der Alltagserfahrung reicht aber weiter: Offensichtlich fallt es zumindest leichter, die Differenzierung Piatons nachzuvollziehen, wenn man nicht von einem spannenden Buch gefesselt ist, oder begeistert einem Spielfilm auf der großen Kinoleinwand folgt. ,Heiße' Medien wirken offenbar so stark, dass ihre Nutzer das Diktum Piatons nicht nachvollziehen können oder wollen. - Dagegen akzeptieren viele Nutzer ,kühler' Medien die Aussage
33
Piatons als treffend. Wenn diese Beobachtung stimmt, konnte Picasso die Fiktion einer Verdoppellung des gemalten Gegenstands nur deshalb so radikal aufgeben, weil die Malerei zum ,kühlen' Medium mutiert ist, die nicht mehr dem Ritual dient, sondern in einem Museum oder an einem öffentlichen Platz zu sehen ist. IV. Die Zusammenfuhrung der theoretischen Konzepte Piatons und McLuhans hat gezeigt, dass damit in der Tat eine Präzisierung (in diesem Fall: bezüglich der Wirksamkeit der theoretischen Analyse Piatons) möglich ist. Zumindest kann damit erklärt werden, warum Piatons Diktum zwar immer wieder aufgegriffen und als korrekt erlebt wurde, ansonsten aber jahrhundertelang folgenlos blieb. Literatur Walter Benjamin (1936), Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit. In: Zeitschriftflir Sozialforschung Vol. 1, 1936. Zitiert nach: Walter Benjamin (1963), Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit. In: Walter Benjamin, Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit. Drei Studien zur Kunstsoziologie. Frankfurt am Main: Suhrkamp, S. 7 - 64 Hans W. Glessen (2004), Medienadäquates Publizieren. Heidelberg; Berlin: Spektrum Akademischer Verlag / Elsevier Laszlo Glozer (1981), Westkunst. Köln: DuMont Herbert Marshall McLuhan (1964), Understanding Media. New York: McGraw-Hill. Zitiert nach: Herbert Marshall McLuhan (1996): Die magischen Kanäle. Dresden: Verlag der Kunst Piaton (Phaidros) = Πλάτων (Φαίδρος). Zitiert nach: Piaton, Phaidros oder vom Schönen. In: Piaton (1957), Sämtliche Werke. Reinbek bei Hamburg: Rowohlt. Übersetzung von Friedrich Schleiermacher und Hieronymus Müller, Band 4. Claude E. Shannon, Warren Weaver (1964), The Mathematical Theory of Communication. Urbana, The University of Illinois Press Joseph Weizenbaum (1966), ELIZA - A Computer Program For the Study of Natural Language Communication Between Man and Machine. In: Communications of the ACM, Volume 9, Number 1 (January 1966), pp. 36 - 35
34
Vereinheitlichte Medientheorie und ihre Sicht auf das Internet Gernot Wersig
1. „Medien" als neues Schnittstellenkonzept Ein noch wenig systematisch erforschtes Feld ist die Beziehung zwischen Wissenschaft und Öffentlichkeit, die langdauernder und intensiver zu wirken scheint, als man gemeinhin glaubt. Deutlich macht das z.B. derzeit das Einstein-Jahr, das daran erinnert, wie sehr Einstein und seine Arbeiten in der Öffentlichkeit standen und wie sehr die Öffentlichkeit sich auch auf seine Wissenschaft einließ. Vermutlich war es vor allem das Konzept der „Relativität", das an der Schnittstelle zur Öffentlichkeit besondere Aufmerksamkeit fand, weil es auch zum Zeitgeist der Zwanziger Jahre passte - weswegen eben Einstein ein Star und Planck nur Namensgeber der wichtigen Forschungsgemeinschaft wurde. Wahrscheinlich war es dann das Konzept des „Atom", das als Schnittstellenkonzept fungierte, und zwar schon vor der Atombombe als Konzept, das wegen seiner Bedeutung für den Aufbau der Welt faszinierend wirkte1. In den Sechziger Jahren spielte als Schnittstellenkonzept ohne Zweifel das Konzept „Information" eine zentrale Rolle, ausgehend von Shannon/Weaver2 und dann mit der Kybernetik sich verbreitend. Das klang gleichzeitig nach Rationalität und Überwindung alter Grenzen, schließlich wurde die Kybernetik auch nicht ganz zu Unrecht als „transklassische Wissenschaft"3 bezeichnet. In den Sechziger und z.T. auch den Siebziger Jahren wurde viel und innovativ mit dem Informationskonzept experimentiert, entstanden interessante Ansätze zur Informationstheorie4. Der Siegeszug der elektronischen Datenverarbeitung und später die rein kommerzielle Interpretation von „Information" im Kontext der Diskussionen zur „Informationsgesellschaft" trugen zur vollständigen semantischen Entleerung des Informationskonzeptes5 bei.
' Zu Einstein und dem Konzept „Atom" vermittelte die Ausstellung „Albert Einstein Ingenieur des Universums", 16.5.-30.9.2005 Kronprinzenpalais Berlin viele Assoziationen. 2
Claude E. Shannon, Warren Weaver: The mathematical theory of communication. Urbana, 111.
1949 3 S. Maser: Wissenschaftstheoretische Nr. 188, 1 0 1 - 1 1 1
Grundlagen der Kybernetik.
IBM-Nachr. Jg. 18, 1968,
4
Gernot Wersig: information theory. In: John Feather, Paul Sturges (eds.): International Encyclopedia of Information and Library Science. London - New York 1997, 220 - 227 5
Gemot Wersig: Postmoderne, Informationsgesellschft, Wissensgesellschaft/Wege zu einer Theorie der Wissensgesellschaft. Skript einer Vorlesung im Hauptstudium Publizistik- und Kommunikationswissenschaft. Berlin Oktober 2004
35
Die Linie der Schnittstellenkonzepte setzte sich dann vermutlich fort mit „System" in den Siebziger Jahren, „Künstliche Intelligenz" und „Multimedia" in den Achtziger Jahren, „Netze" in den Neunziger Jahren. Das Konzept, das derzeit eine tragende Rolle einzunehmen scheint, ist das der „Medien", das damit in einer ziemlich direkten Nachfolge des Informationskonzeptes stände. Die Karriere des Medienkonzepts hat sich über 50 Jahre hinweg entwickelt.
2. Medientheoretische Ansätze In den vierziger Jahren des 20. Jahrhunderts treten die Medien in das wissenschaftlichöffentliche Interesse in mindestens dreierlei Hinsicht: a. Als Reflektion der Massenmedien, d.h. der Einrichtungen, die in der Folge des Buchdrucks (Zeitungen, Zeitschriften), der Nutzbarmachung der elektromagnetischen Funkwellen (Rundfunk, Fernsehen) und der Aufzeichnung und Vervielfältigung von Bild- und Schallträgern (AV-Medien, Kinofilm) Inhalte kontinuierlich verfugbar machen. Hier werden die Medien überwiegend als Organisationen gesehen, die eine bestimmte Technologie nutzen, um kontinuierlich relativ aktuelle Inhalte öffentlich zu verbreiten. Sie sind „Massenmedien", weil die Inhalte fur viele die gleichen sind, es sich hier also um „semantische Massenprodukte" handelt. Dies ist die Basissicht der Publizistikwissenschaft. b. Als Kritik der Medienorganisationen, die in offenen Gesellschaften weitgehend privatwirtschaftlich organisiert sind. Das hat ein breites Band von kritischer Medientheorie hervorgerufen, die in vielerlei Varianten angeboten werden: •
Die Betrachtung von technischen Veränderungen und der dadurch veranlassten kommunikativen Konsequenzen (z.B. sehr früh Walter Benjamin 6 )
•
Die Kritik an der industriell-affirmativen Gestaltung des Medienangebots (etwa Theodor W. Adorno 7 )
•
Die Betrachtung der kapitalistisch-manipulativen Gestaltung des Mediensystems und -angebots (in der Regel aus marxistischer Sicht, z.B. Horst Holzer8)
•
die kulturkritisch-elitären Ablehnungen der Massenmedien, insbesondere des Fernsehens von Günter Anders bis Neil Postman9
•
die semiotisch unterlegten Artikulationen von Interpretationsspielräumen der den Medien Ausgesetzten, die vor allem die an Popkultur orientierten „cultural studies" vorlegen10
6
Walter Benjamin: Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit. 1935/6. in: Walter Benjamin: Ein Lesebuch. Frankfurt a.M. 1996 7
Theodor W. Adorno: Resümee über Kulturindustrie. In: Ohne Leitbild. Parra Aesthetica. Frankfurt a.M. 1967 8
Horst Holzer: Kommunikationssoziologie. Hamburg 1973
9
Günther Anders: Die Welt als Phantom und Matrize. In: Die Antiquiertheit des Menschen. Bd. 1: Über die Seele im Zeitalter der zweiten industriellen Revolution. München 1956, S. 97-213; Neil Postman: Wir amüsieren uns zu Tode. Frankfurt a.M. 1992 10
vgl. Karl H. Hörning, Rainer Winter (Hrsg.): Widerspenstige ausforderung. Frankfurt a.M: 1999
36
Kulturen. Cultural Studies als Her-
•
die Hoffnungen auf aufklärerisch-emanzipatorische Gegenentwürfe von Hans Magnus Enzensberger bis Oskar Negt und Alexander Kluge1
c. als der Zusammenhang, der einen kontinuierlichen Kommunikationskanal organisiert und bereitstellt. Das wird einerseits höchst abstrakt von Weaver im Rahmen der mathematischen Kommunikationstheorie Shannons artikuliert, andererseits im Zusammenhang der Kommunikationswissenschaften von Lasswell und vielen anderen, in Deutschland besonders wirkungsvoll von Maletzke, 12 formuliert. Gegen die Beschränkung der Mediensicht auf die Massenmedien, die auch das ShannonModell häufig nur in diese Richtung verengte, etablieren sich nur zögernd allgemeinere Medienkonzepte, als deren „Vater" die Theorierandfigur Marshall McLuhan gelten kann. Dieser bringt vor allem den Technikgesichtspunkt ins Spiel13 - Technik ist eine Erweiterung der menschlichen Fähigkeiten. Im Kommunikationsbereich ermöglicht es McLuhan, alles im weitesten Sinne Technisierte als Medium zu begreifen. Bei aller Bizarrerie des McLuhan'schen Gedankenguts, ist er doch Ausgangspunkt von mindestens zwei Traditionen der Medientheorien: •
der technikorientierten Medientheorien, wie sie dann später von Kittler, Coy und Versuchen zu Theorien der „Neuen Medien" weitergeführt werden14
•
der aus der Technologieorientierung stammenden evolutionären Betrachtungsweise (Technik ist kumulativ und daher evolutionär), wie sie in der „Gutenberg-Galaxis" zum Ausdruck kommt und dann etwa von Bolz15, ansatzweise auch von Luhmann aufgegriffen wird 16
Die Bestimmung des Charakters von Medien aus bestimmten kommunikativen Funktionen hatte zwar implizit mit Weaver beginnen, wird aber von McLuhan demonstrativ gewendet mit „the medium is the message". Verstanden hat dies möglicherweise niemand so richtig, aber an dieser Mediensicht setzen viele der neueren kulturwissenschaftlichen Medientheorien an, die Medien als Vermittlungs-, Speicherungs-, Bearbeitungs- oder Übertragungszusammenhänge behaupten und damit das Medienspektrum über die von McLuhan noch betonte technische Basis hinaus erweitern etwa zu den „Menschenmedien", die übermittelnde Funktionen vor allem in vortechnischen Zeiten übernehmen. 17
" Hans Magnus Enzensberger: Baukasten zu einer Theorie der Medien. Kursbuch 20, 1970, S. 159-186; Oskar Negt, Alexander Kluge: Öffentlichkeit und Erfahrung. Frankfurt a.M. 1972 12 Harold D. Lasswell: The structure and function of communication in society. In: L. Bryson (Hrsg.): The communication of ideas. New York 1948; S. 37-51; Gerhard Maletzke: Psychologie der Massenkommunikation. Hamburg 1963 13
Marshall McLuhan: Die magischen Kanäle. „ Understanding media". Düsseldorf - Wien 1968
14
z.B. Norbert Bolz, Friedrich Kittler, Christoph Tholen (Hrsg.): Computer als Medium. München 1994; Friedrich A. Kittler: Aufschreibsysteme 1800-1900. 3. Aufl. München 1995; M. Warnke; W. Coy; F.Ch. Tholen (Hrsg.): Hyperkult. Basel 1997, Norbert Bolz: Theorie der neuen Medien. München 1990 15
Marshall McLuhan: Die Gutenberg-Galaxis. tenberg-Galaxis. München 1994
Düsseldorf 1968,Norbert Bolz: Am Ende der Gu-
16
Niklas Luhmann: Die Gesellschaft der Gesellschaft. 2 Bde. Frankfurt a.M. 1997
17
etwa Werner Faulstich: Medienwissenschaft. Paderborn 2004
37
Neben den im Kern an den Massenmedien orientierten Ansätzen gibt es eine eigenwillige Tradition einer daneben stehenden Medientheorie, die aus ganz anderen Kontexten stammt: die Theorie der „symbolisch generalisierenden Medien", die vielleicht - auch wenn der Medienbegriff dort nur einmal verwendet wird - begründet wurde von Georg Simmel18, dann aufgegriffen wurde von Talcott Parsons und Jürgen Habermas19 und dann von Niklas Luhmann erweitert wird. Es handelt sich um Einrichtungen, die Kommunikation ersetzen (Geld, Macht) oder erfolgreicher machen, so dass Luhmann sie auch als „Erfolgsmedien" bezeichnet (z.B. Liebe, Ritus, Recht).
3. Luhmann als Vorreiter einer vereinheitlichten Medientheorie Einen Versuch, diese vielen unterschiedlichen Stränge miteinander zu verbinden, unternimmt Niklas Luhmann, der durch sein Werk verdeutlicht, dass eine „vereinheitlichte Medientheorie" von folgenden Voraussetzungen ausgehen muss: • Einbettung in ein Kommunikationsmodell • Anschlussfahigkeit an eine Gesellschaftstheorie • Differenzierung von Typologien unterschiedlichen Kommunikationsbezugs • Differenzierung von Typologien unterschiedlicher struktureller Leistungen • Stimmige Begleitung durch eine evolutionäre Medientheorie. Sie ist allerdings in der „Gesellschaft der Gesellschaft" nur ansatzweise ausgearbeitet, eine Weiterentwicklung ist auf dieser Basis nicht mehr erwartbar und das Hauptproblem liegt natürlich daran, dass die Luhmann'sehe Theorie keine Menschen kennt und insofern eine dazu passende Medientheorie für zu viele Fragestellungen unbrauchbar ist. Im Folgenden sollen einige Umrisse einer Medientheorie dargestellt werden, die zumindest einige der nebeneinanderlaufenden Ansätze miteinander zu verflechten sucht.
4. Akteure und Gesellschaft Ausgangspunkt ist die Alternative zu Luhmann: Gesellschaft und Kommunikation werden von Akteuren her gedacht, die in ihrer stärksten Abstraktion auf die Kybiak-Modellierung von Stachowiak zurückgreifen, die kommunikativ etwas erweitert wurde von Wersig.20 Auch wenn der Regelfall des Akteurs der Mensch ist21, ist davon auszugehen, dass kommunikativ auch Akteure geringeren Komplexitätsgrades (Tiere, Maschinen), aber auch höheren Aggregationsgrades (Gruppen, Organisationen, „Formationen" wie Städte, Regierungen, Staaten) mit gleichartigen Strukturmerkmalen betrachtet werden können (Fraktalität der Akteure). 18
Georg Simmel: Philosophie des Geldes. 1900
19
Talcott Parsons: Zur Theorie der sozialen Interaktionsmedien. Opladen 1980; Jürgen Habermas: Theorie des kommunikativen Handelns. 2 Bde. Frankfurt a.M. 1981 20 Herbert Stachowiak: Denken und Erkennen im kybernetischen Modell. Wien - New York 1965, übernommen dann von Gernot Wersig: Information - Kommunikation - Dokumentation. München 1971 21
Gemot Wersig: Fokus Mensch. Bezugspunkte postmoderner tion, Kultur. Frankfurt a.M. etc. 1993
38
Wissenschaft: Wissen, Kommunika-
Ausgehend 22 von der materiellen Reproduktion im Rahmen von in Reproduktionszellen zusammenwirkender Akteure kann Gesellschaft modelliert werden als zellenübergreifende Reproduktion, wie sie sich spätestens seit der Sesshaftwerdung der Menschheit etabliert hat. Über Inklusionsregelung nimmt man an Gesellschaft teil, indem man Nonnen und Regeln befolgt. Empirische Gesellschaft ist mit Territorien, auf denen die Akteure, die inkludiert sind, versammelt sind, verbunden. Daher gehören zu Gesellschaft zwangsläufig die Mechanismen, die Territorien schützen, andererseits Inklusionsbedingungen setzen und sanktionieren: Staat als Kombination von Herrschaft, Gewaltmonopol und Bürokratie. Unterhalb dieser Ebene muss die Reproduktion tatsächlich stattfinden und organisiert werden - hier können mit Gewinn gesellschaftstheoretische Ansätze eingespielt werden: Reproduktion findet statt in funktionalen Teilsystemen (Luhmann), die vor allem die Rationalisierung des reproduktiven Handelns (Habermas) betreiben. Da der Mensch nur teilweise Gesellschaftsakteur ist, formiert er neben der gesellschaftlichen Reproduktion Gemeinschaften, in denen die lebensweltlichen, nur bedingt rationalen Aktivitäten betrieben werden. Da sich Gesellschaft und alles, was damit zusammenhängt, in der Zeit reproduziert, tritt die „Kultur" als Zeitäquivalent zum Staat in der Raumordnung als Zeitordnung hinzu: Gedächtnis und Erinnerung, aber auch als der Bereich, der die Belastungen durch Gesellschaft ausgleicht: Rationalitätsentlastung, kreative Reproduktion, symbolische Reproduktion gehören unverzichtbar zum Gesamtbild.
5. Kommunikation Damit ist man schon in erster Näherung bei „Medien": Alles funktioniert nur durch Kommunikation - Staat/Gesellschaft muss sich den Akteuren, Systemen, Organisationen, Gemeinschaften vermitteln und umgekehrt, in allen Akteursaggregationen muss kommuniziert werden, Kultur ist Kommunikation. Luhmann hat vielleicht ein wenig übertrieben, aber die Lektion ist zumindest wichtig - ohne Kommunikation ist dies alles nicht zu machen und zu beschreiben. Geht man von der - menschlich bestimmten - Akteursebene aus, kann Kommunikation verstanden werden als der Versuch, bei mindestens einem anderen Akteur interne kognitive Zustände zu stimulieren, die bestimmten internen kognitiven Zuständen des aktiven Akteurs entsprechen. Das geschieht mittels physikalischer Signalübertragung, Zeichenverwendung, (werthaltiger) Symbolnutzung und sinnlich-emotionaler Stimulationen. Das ist nicht einfach zu erreichen: Übertragungstheoretisch gibt es viel Rauschen, zeichentheoretisch gibt es Missverständnisse, Luhmann hält gelingende Kommunikation fur sehr unwahrscheinlich, schließlich ist jede Kommunikation eines Akteurs eine Zumutung für einen anderen - Akteure passen einfach nicht zueinander23. Wenn ein Akteur versucht zu kommunizieren, ist keinesfalls gesichert oder sogar sehr wahrscheinlich, dass Kommunikation auch stattfindet. Wenn Kommunikation stattfindet, ist sie zunächst - bei menschlichen Akteuren - basiert auf den biologisch formatierten Mitteln - den Möglichkeiten, Signale zu produzieren und zu emp22
Die folgenden Skizzen zur Gesellschafts- und Medientheorie sind - ebenfalls in eher skizzenhafter Form - etwas ausführlicher enthalten in dem Skript Anm. 5 23
vgl. Paul Watzlawick: Anleitung zum Unglücklichsein. München - Zürich 1983
39
fangen, den Möglichkeiten, Signale zu modifizieren und diese Modifikationen mit unterschiedlichen Bedeutungen zu versehen, die bei En- und Decodierung verwendet werden.
6. Medien Von „Medien" könnte man anfangen zu sprechen, wenn Vorkehrungen getroffen werden, Kommunikation unabhängig von den beteiligten Akteuren, den stattfindenden Situationen, den zu treffenden Verabredungen wahrscheinlicher, erfolgversprechender zu machen. Das setzt auf der einen Seite soziale Beziehungen voraus, die über die Lebensdauer von Individuen hinausreichen, auf der anderen Seite brauchen aber derartige soziale Beziehungen ihrerseits auch wieder Kommunikationsdispositive, die Kommunikation unabhängig von Individuen und Situationen einschätzbar und effizient machen. „Dispositive" deshalb, weil an Kommunikation immer unterschiedliche Ebenen beteiligt sind, die als Basismittel der Kommunikation immer zusammenwirken müssen •
Zur Überwindung raumzeitlicher Distanzen, in der Regel durch Technik
•
Zur Überwindung semantischer Distanzen zwischen den Beteiligten, etwa durch Konventionalisierung von Zeichenbeziehungen
•
Zur Überwindung pragmatischer Distanzen durch unterschiedliche Ritualisierungen.
Medien sind dann gesellschaftliche Verdichtungen von zusammengeschlossenen Basismitteln, die Kommunikation unabhängig von jeweils aktuellen Umständen ermöglichen sollen. Um ihre Aufgabenstellungen zu erfüllen, werden sie im Rahmen der gesellschaftlichen Komplexität, in der sie entstehen, realisiert •
Durch Bildung entsprechender Organisationsformen, die materielle und zeitliche Konstanz sichern
•
Durch Beachtung geltender Regeln, Normen
•
Durch Übernahme gesellschaftlicher Aufgaben.
Sie müssen aber auch von der jeweiligen gesellschaftlichen Struktur abgesichert werden: finanziell, rechtlich, kulturell, infrastrukturell. Andererseits können sie nur so lange wirkungsvoll existieren, als sie von den Gesellschaftsmitgliedern in ihrer Aufgabenstellung akzeptiert werden.
7. Medienplattformen und Typologien Wichtig ist, dass die Aufgabe der Ermöglichung und Effizienzsteigerung von Kommunikation am besten im Rahmen relativ enger Dispositivbildungen erfüllt werden kann. Es ist daher zu beobachten, dass es in der Medienentwicklung immer wieder zu Medienplattformen kam, auf denen sich eine Reihe unterschiedlicher Einzelmedien herausbildete. Das allgemein nachvollziehbare Beispiel ist die Plattform „Drucken", auf der sich dann Medien wie Buch, Zeitung, Zeitschrift, aber auch Plakat entwickelten. Andere Plattformen sind „Schreiben", „Zeichnen/Malen" „Weben", „Tanzen", „Vorspielen". Eine auf Pross 24 zurückgehende Differenzierung von Medien stellt auf ihre Technizität ab: 24
40
Hanno Beth, Harry Pross: Einfiihrung in die Kommunikationswissenschaft. Stuttgart etc. 1976
•
Primäre Medien: biologische Funktionen
•
Sekundäre Medien: Einsatz von Technik auf der Produktionsseite
•
Tertiäre Medien: Einsatz von Technik auf beiden Seiten
•
Quartäre Medien: flächendeckende Netzwerke. Diese werden nicht von Pross eingeführt, können aber kongenial vervollständigt werden.
Vom kommunikationstheoretischen Ansatz der hier skizzierten Medientheorie her ist Grad und Ausmaß der Kommunikationssicherung ein zentraler Typologisierungsgesichtspunkt, den man in erster Näherung etwa folgendermaßen bestimmen kann: •
Basismedien, die Kommunikation überhaupt erst ermöglichen (Primär: Sprache, Tanzen, Singen; Sekundär: Schrift, Bilder, Musik, visuelle Gestaltung, Messen, Rechnen)
•
Erweiterungsmedien, die die Basismedien über die Wirkreichweite eines Menschen erweitern (Telemedien im Raum; Speicher/Speichermedien in der Zeit)
•
Vervielfaltigungs/Verteilmedien, die Kommunikationen vervielfältigen
•
Erfolgsmedien 25 , die die Annahme der Kommunikation wahrscheinlicher machen und damit Kommunikation intensivieren sollen (z.B. Wertenutzung: Propaganda, Werbung, Konsummedien; Wahrheitsnormierung: wissenschaftliche Standards; Emotionale Bündelung: Stars; Recht)
•
Komfortmedien entstehen durch Verbesserung der Leistungen der Basis- und Erweiterungsmedien, beispielsweise vom Stumm- zum Tonfilm, vom Schwarz-WeißFernsehen zum Farbfernsehen
•
Substitutionsmedien.· Medien, deren Verwendung Kommunikation ersetzt, dies sind klassischerweise die symbolisch generalisierten Medien Eigentum/Geld, Macht. Hier müsste aber die Aufmerksamkeit noch breiter gestreut werden, so ist z.B. Automation zweifellos auch ein Substitutionsmedium, ebenso die Transaktionsmedien.
Für Zwecke der Kommunikationswissenschaften ist die Typologisierung, die auf das Ausmaß der an den Kommunikationsprozessen beteiligten Akteure abstellt, also den Wirkungsbereich abdeckt, häufig verwendet 26 •
Intimkommunikation: der Akteur mit sich selbst oder einem von ihm definierten Intimbereich
•
Individualkommunikation zwischen zwei Individuen
•
Gruppenkommunikation
•
Wahlkommunikation als Abrufe von zentral vorgehaltenen Kommunikationsinhalten
•
Massenkommunikation
Vom gesellschaftstheoretischen Ansatz der hier skizzierten Medientheorie sind die Funktionen, die Medien übernehmen (sollen), ein besonders wichtiger Punkt. Hierüber ist noch nicht viel nachgedacht worden, eine erste Näherung könnte sein
25
hier werden die bei Luhmann als Erfolgsmedien (symbolisch generalisierte Medien) zusammengefassten Medien differenziert in Erfolgsmedien und Substitutionsmedien 26
Gemot Wersig: Die kommunikative Revolution. Opladen 1985 41
•
Multifunktionale gesellschaftliche Steuerungsmedien, die vor allem in der Neuzeit als „Massenmedien" entstanden
•
Kommunikationsmedien der Individual- und Gruppenkommunikation. Hierzu könnten neben den Netzdiensten wie Telefon und Chat auch die „Treffmedien" gehören, die Gelegenheiten schaffen, viele aufeinander bezogene Kommunikationsprozesse durchzufuhren: Empfange, Messen, Konferenzen.
•
Unterhaltungsmedien, d.h. Medien, die überwiegend Unterhaltungszwecken dienen, also die rationalitätskompensatorische Seite der Kultur unterstützen: Ton- und AVTräger, Kinofilm, Life-Konzerte, Musical, „Events", populäre Sportveranstaltungen.
•
Kultur- und Erinnerungsmedien, die der Zeitdimension von Kultur verpflichtet sind: Szenische Medien, Museen/Ausstellungen, Gärten, Festspiele, Denkmäler/Gedenkstätten.
•
Konsummedien als eine neueste funktionale Entwicklung, die sichern sollen, dass Konsum, von dem Gesellschaft immer mehr abhängt27, auch kommunikativ abgesichert wird: Verpackungen, Werbemedien, Einkaufszentren, Freizeitzentren.
•
Transzendentalmedien, die der Kommunikation Einzelner/von Gemeinden mit dem Transzendentalen ermöglichen: sakrale Orte und Zeiten, Gottesdienste, Gebete, Mantras, Opferrituale.
8. Medienevolution Die Versuche zur systematischen Medientheorie lassen - als natürliche Konsequenz eines Medienbegriffs, der Medien an Gesellschaft bindet - erkennen, dass Medientheorie vordringlich der Medien- und Gesellschaftsevolution Rechnung tragen muss, die grundsätzlich aufgrund des gegenseitigen Bezugs als Koevolution aufzufassen ist: •
Medien begleiten die Gesellschaftsentwicklung und stellen die kommunikativen Leistungen bereit, die Gesellschaft braucht.
•
In den Dienst dieser Evolution werden Technik, Organisation und Typologie (Dispositivbildungen) gestellt, die die Leistungsfähigkeit der Medienlandschaft bestimmen.
•
Medien hängen untereinander zusammen, für diese Zusammenhänge sind als Phänomene besonders bedeutsam: „Mediensystem" (Funktionsdifferenzierungen und zusammenhänge); „Leitmedien" (Attraktoren im Mediengesamt), „Kon- und Divergenzen" (Zusammenhänge in der Zeit), „Emergenzsprünge"28 (neue Komplexitätsgrade), „Intermedialität" (Medien enthalten Medien), „Selbstreferentialität" (Medien nehmen Bezug auf Medien).
Ganz kurz gefasst29 lässt sich die Medien/Gesellschaftsevaluation etwa folgendermaßen darstellen:
27 vgl. die Bedeutung, die Bauman ihm zuweist. Zygmunt Bauman: Ansichten der Hamburg - Berlin 1995
Postmoderne.
28
Gernot Wersig: Emergenz-Konstellationen". In: Markus Behmer et al. (Hrsg.): Medienentwicklung und gesellschaftlicher Wandel. Wiesbaden 2003, S. 53-64 29
ausführlicher, aber immer noch skizzenhaft in Skript Anm. 5; auch Gernot Wersig: From Types and Copies to Digits and Transfers - A Media Revolution. In: Media History Civilization. Proceedings
42
•
Vorgesellschaftlich dürften bereits die Urzellen über einen ziemlichen Reichtum an Basismedien verfügt haben, aber auch schon über komplexere Medien wie Hautfarbungen, Textilmedien verfügt haben, später bei zellübergreifenden Treffen sind im Kontext mit den Treffen entsprechende Medien (z.B. Höhlenmalerei) entstanden.
•
In der Sesshaftwerdung und Territorialbildung wurden mindestens drei Medientypen benötigt: Transzendentalmedien, Medien zur Gesellschaftsbildung (Mythen, Rechtsprechung, öffentliche Orte und Zeiten), Militärmedien.
•
In den Territorialgesellschaften entwickelt sich nach einiger Zeit die Schriftkultur oder genauer das Neben/Miteinander der zwei Typen sekundärer Basismedien: Schreiben und Malen/Zeichnen. Damit kann sich Gesellschaft adäquate Formen der Reproduktion, des Erinnerns, der Kommunikation von Wissen, der Schichtung verschaffen.
•
Erst mit dem Aufkommen eines neuen gesellschaftlichen Standes, des Bürgertums, artikuliert sich das Bedürfnis nach weniger privilegierter Vervielfältigung, das eine ganz neue Medienplattform hervorbringt: die Vervielfältigung, der Buchdruck, die „Gutenberg-Galaxis". Sie vollbringt eine halbe Demokratisierung gesellschaftlicher Kommunikation: Grundsätzlich jeder kann vieles lesen, nach wie vor kann nur eine Elite die eigene Meinung vielen verkünden.
•
Die Massengesellschaft als Konsequenz der industriellen Revolution erfordert neue Medien und Medienplattformen und beseitigt eigentlich schon in der zweiten Hälfte des 19. Jahrhunderts die Gutenberg-Galaxis. Für die gesellschaftliche Steuerung der Massen wird die Massenpresse entwickelt (Rotationsdruck, Maschinenpapier, Setzmaschine); in der privatwirtschaftlichen Tätigkeit werden benötigt: Eisenbahn, Telegraf, Telefon, Mechanisierung des Schreibens, Kleinauflagenvervielfaltigung; in der privaten Kommunikation kommt insbesondere die Verfugung über Bilder in Form der Fotografie hinzu; die Kompensation durch Unterhaltungsmedien tritt in ein neues Zeitalter (Tonträger, Kinofilm, populäre szenische Medien, Plakat, Illustrierte).
•
Massenpresse ist aber ein auf Dauer wenig effizientes Instrument der Steuerung der Massengesellschaft. Dies übernimmt effizienter die analoge elektronische Medienplattform des Rundfunks. Sie kann Inhalte sofort flächendeckend für alle gemeinsam bereitstellen, wenn sie als quartäres, territorialdeckendes Medium organisiert wird.
•
Etwa von den sechziger Jahren des 20. Jahrhunderts an beginnt eine Übergangsphase, die man als „Digitalisierung" kennzeichnen kann, obwohl in ihr auch Komfortentwicklungen der analogen Medien stattfinden. Wichtige Übergangskomponenten sind: Mobilität (Auto/Batterieradio), elektrostatische Kopierer, Videorecorder, neue Netzdienste (Telefax). Verbunden damit sind aber auch zwei neue Substitutionsmedien: Automatisierung und Selbstbedienung. Alle diese Entwicklungen wurden zu dem Zeitpunkt eigentlich gesellschaftlich noch nicht zwingend gebraucht, aber sie dienen der Gewöhnung an die kommende digitale Revolution.
9. Die digitale Revolution Diese besteht eigentlich aus zwei verschiedenen Entwicklungssträngen:
2003 International Symposium Sept. 4-5, 2003, HUNO Project, Institute of Media Art, Yonsei University, Seoul, Korea. 43
•
Digitalisierung der bisherigen analogen Medien: Desk Top Publishing, Audio-CD, CD-ROM, DVD, Digitalisierung des Rundfunks, Digitalisierung des Kinofilms, ISDN, digitalere Mobiltelefonie.
•
Das Entstehen einer völlig neuen multifunktionalen Medienplattform, die aus der Kombination von Netz (Internet) und Endgerät (Browser) besteht.
Das Internet ist einerseits eine Medienplattform eigener Provenienz - das Protokollpaar TCP/IP und die Dienste, die darin integriert wären (zunächst RJE, FTP, e-mail, IRC; Newsgroups; WWW). Andererseits wäre das Internet nicht möglich gewesen ohne die materielle Basis von Netzen, Kabeln, Providern, die im Kontext anderer Medien entstanden sind. Insofern ist das Internet in mehrfacher Hinsicht ein Emergenzsprung: 1. Das Internet ist zunächst eine Komfortplattform, die für eine Reihe von Medien/Diensten, die es vor ihm schon gegeben hat, eine Komfortbasis bietet, die es bisher noch nicht gegeben hat, wie unter der gleichen Oberfläche/im gleichen Endgerät Zugriff auf eine Fülle unterschiedlicher Medien, globale Verbreitung, Angebot von Netzwerkeffekten 30 . Das derzeit noch erfolgreichste Komfortmedium ist e-mail, aber auch bei anderen Medien muss die Entwicklung verfolgt werden (z.Zt. insbesondere Voice-over-IP). 2. Das Internet ist die erste technische Realisierung von Gruppenkommunikation, die diesen Namen verdient und dies gleich mit einer Reihe von unterschiedlichen Medien: e-mail, Mailing-Listen, IRC, Muds, Newsgroups. 3. Mit dem WWW ist ein bisher in dieser Form nicht bekanntes Medium des Publizierens für jedermann und des universellen Zugangs zu allem Möglichen bereitgestellt worden 4. Mit der Koppelung von e-mail und FTP (als Attachments) einerseits und Download-Angeboten sind Teile des Austauschs materieller Güter (insbesondere Dokumente) kommunikativ entmaterialisiert worden. 5. Das quartäre Medium Internet arbeitet nicht mit Adressen, die zwangsläufig einen festen Ort haben, sodass das Medium auch - zwar nicht grenzenlose - aber stetig wachsende Mobilitätsräume anbietet. Das Internet basiert auf vorhandener Hardware, etabliert eine eigene neue Medienwelt und beginnt, die anderen Medien in dem Maße, in dem sie digitalisiert werden, aufzusaugen - das gilt insbesondere für die beiden bedeutenden Medienplattformen der Neuzeit: elektrische Zweiweg-Kommunikation und Rundfunk (die Digitalisierung kannibalisiert sich selber): Online-Zeitungen, Voice-over-IP, TV-over-IP, Radio-over-IP. Dieser Sog wird auch gerne als Konvergenz thematisiert. Damit entwickelt sich eine neue Medienkonstellation: Die bisherigen Medien beruhten auf unterschiedlichen physikalischen Phänomenen und waren von daher getrennt - technisch, funktional, rezeptiv. Zusammen kamen sie - wenn überhaupt - im Sinnes- und Kognitionsapparat der Rezipienten. Mit PC, Digitalisierung, Internet und dem zunehmenden Anschluss an die Netze mobiler Medien entwickelt sich eine Konstellation, in der in einem ubiquitären Netz alle Datentypen und fast alle Medientypen digital und damit ineinander integrierbar abgedeckt werden. Den Zugang zum Netz bilden individuelle, multifunktionale Medienfokusstationen (Computer plus Peripherie), die ihrerseits wieder - privaten - Netzwerkcharakter annehmen. 30
44
Axel Zerdick et al.: Die Internet-Ökonomie. Berlin etc. 1999
Der Nutzer kann in einer Unzahl anderer Medien sich bewegen, sich bedienen, diese miteinander mischen, Teile von ihnen in seine privaten Medien integrieren, sich damit selber zum Medium machen. Mit diesen Veränderungen geraten aber auch andere Phänomene ins Blickfeld, die bisher medientheoretisch nicht thematisiert wurden: • „Transaktionsmedien": Transaktionen werden schleichend medialisiert in Form von Kreditkarten, Euroschecks, Geldautomaten, Kontoauszugsdrucker. Zwar sind dies entweder nur „Geld-", „Informations-" oder „Dokumenten-Transaktionen", denen häufig in der physischen Welt noch materielle Transaktionen folgen müssen, aber die Netze (und unter ihnen immer mehr das Internet) übernehmen damit doch einen zunehmenden Anteil am Transaktionsmarkt: B2C, Auktionen, Wetten, Online-Buchungen, Reisen, Eintrittskarten, Dokumenten/Dateienvertrieb. • „Lebensmedien" verweisen auf einen ganz anderen Medienbereich, der nicht Internetbezogen ist. Das Leben wird von Kommunikation begleitet und aus solchen das Leben begleitenden Kommunikationsvorgängen haben sich Medien entwickelt, die zu den Vorgängen korrespondierende Kommunikation ermöglichen, ohne dass dies der primäre Zweck dieser Medien ist. Für die postmodernen Entwicklungen sind hier besonders zu erwähnen ο
Design zur Verzauberung des Alltags
ο
Eventisierung zur Schaffung von Gemeinschaftserlebnissen
ο
Inszenierung zur Verzauberung von Orten und Ereignissen
ο
Museen und Ausstellungen als Orte, an denen ganzheitliche oder auch perspektivische Herangehensweisen realisiert werden können.
Das Medienspektrum erweitert sich damit nicht nur, sondern es verändert sich auch grundlegend. Die neue Welt hat die Tendenz, sowohl die Grenzen zu und zwischen den Steuerungsmedien als auch zu und zwischen den Substitutionsmedien zu reduzieren. Alte Kontrollmechanismen verlieren mit dem Netz ihre Flächendeckung, neue Kontrollvermeidungsmechanismen etablieren sich. Die Transaktionsmöglichkeiten in den neuen Netzen übernehmen Funktionen von Substitutionsmedien. Die neue Medienwelt schwächt Kontrollmedien und eröffnet den Rationalitäts-Kompensationsmedien (wie Spielen) neue Räume. Dies weist auf eine weitere sich anbahnende gesellschaftliche Veränderung hin: Die sich jetzt herausbildende Gesellschaft braucht weniger externe Kontrolle, so dass die Rolle der Kontrollmedien heruntergefahren werden kann. Was Gesellschaft zu brauchen scheint, ist eine neue Stufe von Selbstkontrolle, die die flexiblen, multiplen, facettierten Identitäten von vernetzten Individuen ausüben müssen. Die neue Medienwelt gibt ihnen viele neue Möglichkeiten, Identitäten zu studieren, zu entwickeln, zu testen, zu validieren. Das Internet ist eine Medienplattform, deren Wirkmächtigkeit mindestens der des Buchdrucks im 15. Jahrhundert entspricht, d.h. die das Potential hat, eine ganze Epoche zu gestalten. Ihre Wirkmächtigkeit erhöht sich noch dadurch, dass es seinerseits nur Bestandteil eines übergreifenden alle Kommunikationsbereiche umfassenden Veränderungsprozesses, der Digitalisierung, ist. Die Digitalisierung ist nun ihrerseits wieder Bestandteil der Entwicklungen, die man als „Postmoderne", „Informations-" oder „Wissensgesellschaft" thematisiert, womit man zum Ausdruck bringen will, dass das lange Zeit, die Moderne, bestimmende Chrakteristikum der Industriegesellschaft mit ihren nationalstaatlichen Akteuren nunmehr abgelöst wird von einer
45
nicht mehr industriell-materiell sondern eher global-immateriell geprägten Welt31. Dieser Prozess der Transformation braucht andere Medien und die Medienevolution hat mit Digitalisierung und dem Internet begonnen, diese Medien bereitzustellen. Vielleicht kann man daher tatsächlich beginnen, von einer „Internet-Galaxie" zu sprechen.32
31 32
Manuel Castells: Das Informationszeitalter.
3 Bände. Opladen 2001-3
Manuel Castells: The Internet-Galaxy. Oxford 2001, dt. Die Internet-Galaxie. Verlag für Sozialwissenschaften 2005
46
Informationswissenschaft und Translationswissenschaft: Spielarten oder Schwestern? Johann Haller, Anja Rütten 1. Einleitung 1.1 Persönliche Vorbemerkung und Fragestellung Der erste Autor dieses Beitrags (der seinem hier geehrten akademischen Lehrer seit langem in tiefer Freundschaft verbunden ist), hat Harald Zimmermann einmal sagen hören, Übersetzungswissenschaft sei für ihn eigentlich 'nur' eine Spielart der Informationswissenschaft. Dieser These soll hier nachgegangen werden, indem Einzelelemente der beiden Wissenschaften miteinander verglichen und auf Parallelen und Abweichungen untersucht werden sollen. Translationswissenschaft (dies als .modernere' Bezeichnung von Übersetzungs- und Dolmetschwissenschaft) im weitesten Sinne umfasst jede Art von Umkodierung sprachlich kodierter Information, also Übersetzen, Dolmetschen, Paraphrasieren - im Endeffekt auch Zusammenfassung, Schlagwortvergabe, grafische Darstellung von Begriffssystemen, Terminologiearbeit, Vorbereitung von Übersetzungen und Dolmetschaufträgen usw. Sie ist sozusagen ein Oberbegriff zu Übersetzungs- und Dolmetschwissenschaft. Kann man nun nicht (in Umkehrung des Zimmermann-Satzes) auch sagen, Informationswissenschaft sei eigentlich ,nur' eine Spielart der Translationswissenschaft? 1.2 Entstehung Durch Kontakt zwischen Menschen allgemein bzw. Menschen unterschiedlicher Sprachgemeinschaften ist das Bedürfnis nach Informationsaustausch bzw. sprachgemitteltem Informationsaustausch entstanden, großenteils motiviert durch Selbsterhalt (Bewältigung und Verbesserung der Lebenssituation) im weitesten Sinne (Handel, Eroberung, Friedenssicherung, Zusammenarbeit, Weiterentwicklung). Der Modernisierungsprozess mit der damit einhergehenden Arbeitsteilung und Spezialisierung hat dann Fachkommunikation immer komplexer und die Verfügbarkeit von Informationen zum Wettbewerbsvorteil werden lassen. Verkürzte Distanzen zunächst im 19. Jahrhundert durch die Entwicklung der Verkehrstechnik, dann im 20. Jahrhundert durch die Telekommunikation ließen diese Fachkommunikation auch zunehmend sprachgemeinschaftsübergreifend geschehen. Aus diesem tatsächlichen, praktischen Bedarf heraus verschärften sich die Berufsbilder von Sprachmittlern/Dolmetschern (Professionalisierung) und Informationsfachkräften. Hieraus resultierte eine Institutionalisierung bzw. Akademisierung der Ausbildung und ebenso die Beschäftigung mit dem Bereich auf wissenschaftlicher Ebene. 47
Sowohl die Arbeit des Übersetzers/Dolmetschers als auch die des Informationsspezialisten ist seit der zweiten Hälfte des 20. Jahrhunderts durch die technischen Möglichkeiten (Simultantechnik, Teledolmetschen einerseits, Digitalisierung und Internet andererseits) drastisch komplexer geworden in dem Sinne, dass die zu verarbeitende Informationsmenge pro Zeiteinheit zunimmt und gleichzeitig die Überschaubarkeit der Situation abnimmt. Der Einsatz der mittlerweile verfügbaren Technik in der Informationsarbeit sowie in der Sprachmittlung soll diese Prozesse vereinfachen und effizienter gestalten, eine Entwicklung, der in Wissenschaft und Forschung zunehmend Rechnung getragen wird. 2. Verschiedene Sichtweisen 2.1 Sichtweise der Translationswissenschaft Die Translationswissenschaft ist zunächst einmal eine Geisteswissenschaft, wenn auch mit Berührungspunkten zu anderen geisteswissenschaftlichen (Sprachwissenschaft, Terminologielehre) sowie zu naturwissenschaftlich-medizinischen (Neurophysiologie, Physik, Physiologie) und sozialwissenschaftlichen (Psychologie, Psycholinguistik, Kultur- und Verhaltenswissenschaften) Bereichen. Der eigentliche Informationsprozess lässt sich als spezieller Translationsprozess im Sinne einer manuellen bis (halb)automatischen Umkodierung oder ,Umformulierung' (meist) sprachlicher Information betrachten, um sie systematisch abzulegen und unter vielen anderen von bestimmten Adressaten besser auffindbar zu machen. Umkodierung kann hierbei zwischen unterschiedlichen Repräsentationen stattfinden: Sie kann zum Beispiel von einer mündlichen zur schriftlichen Repräsentation stattfinden, ganz modern in der Spracherkennung zur Automatisierung von Dialogen oder zur Aufarbeitung von Historie wie in einem US-Projekt zur Sichtung und Ordnung von 20.000 Interviews von Überlebenden der Holocaust-Zeit. Die Umkodierung kann auch zwischen zwei Sprachebenen derselben Sprache geschehen, z.B. von der Fachsprache in die Allgemeinsprache oder umgekehrt, wie bei der allgemein verständlichen Publikation von Forschungsergebnissen; ganz ähnlich ist die Wiedergabe eines schriftlichen Textes in einer Zusammenfassung oder in einer Schlagwortkette bzw. Klassifizierung. Hier gibt es bereits den Sonderfall, dass der Text z.B. in deutscher Sprache ist, die Zusammenfassung oder Schlagwortkette in englischer Sprache, damit der Text international leichter verfugbar wird. Von hier aus ist schließlich der Weg zu einer klassischen ,Übersetzung' sehr kurz geworden. Der Informationswissenschaft kommt andererseits in der Translationswissenschaft die Funktion einer Hilfswissenschaft zu: Bei Information und Dokumentation dient sie zum Erschließen, Ordnen, Bewahren und Verfugbarmachen von Wissen mit Hilfe terminologischer Grundlagen (Klassifikationssystemen und Thesauri), ist auch nützlich für die Informationssuche für terminologische Zwecke, etwa bei der Suche nach Dokumentationsmaterial (Arntz 2002:7). 2.2 Sichtweise der Informationswissenschaft Die Informationswissenschaft kann je nach Blickwinkel als Geistes- oder Sozialwissenschaft betrachtet werden, die über zahlreiche Berührungspunkte mit anderen sozial- (Kognitionspsychologie, Soziologie), geistes- (Rhetorik, Semantik, Epistemologie, Linguistik, Philosophie, Publizistik) und naturwissenschaftlich-technischen (Informatik, Informationstheorie) Berei48
chen verfugt. Sie grenzt sich allerdings klar zum naturwissenschaftlich-technischen Bereich der Informationsverarbeitung ab; es geht um Wissensvermittlung zwischen Menschen, der Computer dient hier als Instrument (Harms/Luckhardt 2004). Ihr gemeinsamer Gegenstand sind Informationsprozesse und -systeme (Luckhardt 2001). Eine Translation kann als Informationsprozess betrachtet werden. Einrichtungen, welche solche Prozesse ermöglichen, auslösen und unterstützen sollen (Übersetzungsabteilungen, Büros, Einzelpersonen), sind mit Informationssystemen zu vergleichen. Die theoretische Basis der Translation als Informationsprozess ist das jeweilige Modell vom Wissen und seinen Veränderungen. Es werden Fragen gestellt, was jemand weiß, ob sich jemandes Wissen verändert hat, d.h. ob Information stattgefunden hat, ob eine Nachricht beim Empfänger die beabsichtigte Information (also Wissensänderung) hervorgerufen hat, was fur einen Empfanger relevant ist, d.h. zu ihrer Problemlösung beiträgt. Ein Modell des Wissens, wie es als Grundlage für die Translation benutzt werden kann, beschreibt das Wissen eines Akteurs (in diesem Fall des Adressaten) als Menge von Wissenselementen, die je als Aussagen faktischer, deontischer, instrumenteller oder erklärender Natur dargestellt werden können. Das jeweilige Situationsverständnis des Akteurs ist eine Teilmenge hiervon. Translationen als Informationsprozesse fuhren zur Veränderung dieser Menge von Wissenselementen und können als spezielle Informationsprozesse unter besonderen Umständen betrachtet werden: „Auffällig" gemittelt (wenn auch im Idealfall nicht als solche erkennbar), mehrsprachig, mündlich oder schriftlich. Die Informationswissenschaften beschränken sich nach ihrer eigenen Aussage auf Informationsprozesse in problematischen Situationen (Luckhardt 2001); es geht um die Bedeutung, Handlungsrelevanz, den Nutzen von Information (Kuhlen 2004:3). Eine technische Übersetzung oder ein Dolmetschvorgang beispielsweise sind wohl als solche .problematischen' Situationen zu betrachten, in denen relevante Informationen vermittelt werden sollen und das Problemlösen von Akteuren unterstützen. Bei einer literarischen Übersetzung sind die Grenzen eher fließend. Der Empfänger verändert ebenfalls sein Wissen, ist emotionell berührt etc. - allerdings wird auch literarische Übersetzung zum Gelderwerb betrieben, wenn etwa berühmte Werke in anderen (auflagenstarken) Sprachen verkauft werden sollen. Zusammenfassend könnte man sagen, dass die Informationswissenschaft die Zielgerichtetheit aufweist und in den Vordergrund stellt. 3. Berührungspunkte und Unterschiede 3.1 Berührungspunkte der beiden Wissenschaftsbereiche Beide Wissenschaftsbereiche sind stark interdisziplinär und haben über den Gegenstand „Fachinformationen" einen engen Bezug zu den Sachwissenschaften. Beide sind aus einer praktischen Notwendigkeit heraus entstanden und leisten Ausbildung und Forschung für den zukünftigen Mittler der jeweiligen Prozesse. Ferner kommt beiden durch ihre relativ "neutrale" Betrachtungsweise des Wissenstransfers eine Brückenfunktion zu. Sowohl ein Translations- also auch ein Informationsprozess ist ein Vorgang, welcher das Wissen eines Akteurs verändert (Wissensvermittlung zwischen Menschen). Entsprechend kann die weithin populäre Theorie der Information von Kunz und Rittel auf der Grundlage des Modells von Shannon und Weaver kann für beide Wissenschaften herangezogen werden:
49
Die Botschaft (Information) wird über einen Übertragungskanal kodiert (Sprache), dann von einem Sender an einen Empfanger gesendet (Zimmermann 2004: 750). Kunz und Rittel gehen vom Zweck aus: „Information dient der Wissensänderung". Dies gilt, wie oben bereits dargestellt, auch für die Translationswissenschaft: Information kann nur über eine repräsentierte/kodierte Form von Wissen aufgenommen werden - in der Translation geht es speziell um sprachlich kodierte Formen (dabei ist Sprache weiterhin sehr ökonomisch und unverzichtbar, trotz Versuchen wie Ί Bild ersetzt 1000 Worte', interaktiven Videos etc.). Gegenstand der Informationswissenschaft ist die Wissensvermittlung zwischen Menschen unter Zuhilfenahme des Computers (Zimmermann 2004b:7). Gleiches lässt sich heute auch für die Translationswissenschaft sagen (obwohl die Kluft zwischen Befürwortern und Gegnern beispielsweise der Maschinellen Übersetzung weiterhin gross ist). Sowohl im Translations- als auch im Informationsbereich soll die Technik lediglich den Prozess rationalisieren und unterstützen, so etwa im Fall der automatischen Indexierung, grafischen Darstellung von Begriffssystemen, Navigations- und Suchhilfen in der Informationswissenschaft und ähnlich bei Terminologiesystemen und Übersetzungsspeichern in der Translationswissenschaft, die mit ihrem verwaltenden und suchunterstützenden Funktionen informationswissenschaftliche Züge aufweisen - wenn auch bisher die Computerunterstützung in der Translation eher in einer nebengeordneten Unterstützungsfunktion zu sehen ist als in der Informationswissenschaft. In gewissem Maße zeichnen sich auch in beiden Bereichen Bestrebungen und Entwicklungen ab, die menschliche Informations- bzw. Translationsarbeit durch künstliche Intelligenz teilweise abzulösen. Sowohl mit Blick auf die Entstehung und Motivation der beiden Wissenschaftsbereiche Translations- und Informationswissenschaft - beide sind relativ jung, aus den kommunikativen Bedürfnissen der modernen Gesellschaft hervorgegangen und interdisziplinär - als auch auf den Kerngegenstand (der Informationsprozess zwischen Menschen) sind offenkundig wesentliche Berührungspunkte vorhanden. 3.2 Unterschiede zwischen den beiden Wissenschaftsbereichen Ein Unterschied beider Bereiche liegt in der Betrachtungsweise bzw. Fokussierung: Die Informationswissenschaft konzentriert sich auf den Informationsprozess selbst, Schnittsteilen- und Integrationsprobleme und damit zusammenhängende Barrieren etwa technischer und sozialer Art (Zimmermann 2004b:7) sowie den Rezipienten und sein Informationsbedürfnis bzw. die Relevanz, die Informationen für ihn haben. Der Mittler wird, wenn er nicht als Fachrechercheur für eine bestimmte Gemeinde arbeitet, sozusagen 'nur' ausgebildet und trainiert. Die Translationswissenschaft sieht neben dem Adressaten vor allem den 'Mittler' und seine eigene geistige Tätigkeit, der beim (zweisprachig oder innerhalb einer Sprache auf zwei Niveaus codierten) Translationsprozess die beiden Codes beherrschen muss. Es werden beispielsweise Wissens- und Codesysteme von Ausgangs- und Zielprodukt (Sprachen/Kulturen) sowie Zwischenschritte (Lautes Denken, stratifizierte maschinelle Übersetzung) betrachtet. Allerdings wird auch der Adressat in der Translationswissenschaft zunehmend zum zentralen Betrachtungsgegenstand, etwa im Rahmen der funktionsorientierten Skopos-Theorie (Reiß/Vermeer 1984:112 in www.uebersetzungswissenschaft.de).
50
Während in der Informationsarbeit die Auffindbarkeit von Informationen von zentraler Bedeutung ist, geht es bei der Translation darum, dass eine konkret vorhandene Information (ein Text) verstanden wird - wenn auch in der Informationsarbeit in besonderen Fällen die Verständniserleichterung etwa durch Verschlagwortung von Texten angestrebt wird. Auf der Zeitachse ist dementsprechend das Finden vor dem Verstehen, die Arbeit des Informationsexperten vor der des Übersetzers oder Dolmetschers anzusiedeln. Entsprechend ändert der Informationsexperte Strukturen, um die Verwaltung, das Suchen und das Auffindbarmachen von Informationen zu optimieren. Bei der Translation hingegen bleibt die Struktur im Sinne der Originaltreue bzw. Äquivalenz in der Regel erhalten, gleich, ob sie optimal ist oder nicht. Je weiter diese Originaltreue durch äußere Zwänge verlassen werden muss (zusammenfassende Übersetzung - ,sinngemäße' bzw. auswählende Wiedergabe beim Dolmetschen), desto mehr nähert sich der Vorgang einem informationswissenschaftlichen Prozess an. Unterschiede zwischen der Translations- und der Informationswissenschaften sind zusammenfassend hauptsächlich in der Fokussierung bzw. den verfolgten Zwecken zu sehen. 4. Verbindung von Äquivalenz und Optimierung Die Bedeutung von Informationsarbeit in der Translation nimmt im Zuge der Globalisierung, Digitalisierung und beschleunigten Entwicklung der (Fach-)Wissensgesellschaft ebenso zu wie die Bedeutung von Translation in der Informationsarbeit. Chancen in Form einer schieren Unmenge von Informationen, oft in vielen Sprachen und in Echtzeit verfugbar, stehen dem Risiko der Orientierungslosigkeit bzw. der Unverständlichkeit und dem damit verbundenen Zeitverlust angesichts einer ungefilterten und unübersetzten Informationsmenge gegenüber. Wenn die Information in Sprachen vorliegt, die der Mensch nicht beherrscht, ist sie ohne Übersetzung gar nicht zugänglich, wenn sie in einem anderen Sprachniveau kodiert ist als das des jeweiligen Menschen (beispielsweise: viel zu wissenschaftlich, inkonsistent, unverständlich, umständlich), so ist der Zugang zumindest erschwert. Das Gleiche gilt dann, wenn das Wissen nur linear angehäuft existiert, d.h. in Regalen einer Bibliothek, in ,Dokument-Management-Systemen', die nur ungenügend intelligente Suchwerkzeuge haben etc. Viele Organisationen habe sich jedoch auf die Fahne geschrieben, sich an der Suche nach solchen Problemlösungen zu beteiligen. Stellvertretend dafür seien hier nur die Förderprogramme des BMBF fürs Internet 2006 und die Programme IST und eContentPlus der EUKommission genannt. Bei den Programmen der EU sind auch immer die Multilingualität und damit das Übersetzen als Schwerpunkt aufgeführt. Vor dem Hintergrund dieser Entwicklungen greifen Informations- und Translationsprozesse bzw. Äquivalenz und Optimierung ineinander: Informationen sollen optimal strukturiert und äquivalent in verschiedenen Sprachen verfügbar gemacht werden. Beispielhaft sind Tätigkeiten wie das zusammenfassende Übersetzen oder der sprachübergreifenden Informationsverwaltung. Das komplexe Wechselspiel zwischen Informations- und Translationsprozess bzw. der spezifischen Ansätze der beiden Wissenschaftsbereiche sind nachfolgend in Abbildung 1 dargestellt: 51
Translation ÄquivalenzProzess
Sender
Empfänger
Empfänger
Information Optimierungsprozess Sender
Empfänger
Translation
Abbildung 1: Wechselspiel zwischen Translation und Information
Während die äquivalenzwahrende Translation sich aus mehreren optimal zu gestaltenden Informationsprozessen (mindestens zwischen Sender und Übersetzer/Dolmetscher als Empfänger und nachfolgend zwischen Übersetzer/Dolmetscher als Sender und Empfanger) zusammensetzt, findet innerhalb eines solchen Informationsprozesses eine Reihe von Translationsim Sinne von Umkodierungsschritten statt. Im zeitlichen Verlauf - siehe Abbildung zwei - ist der Informationsprozess im Sinne von strukturoptimierter Auffindbar- und Zugänglichmachung vor der Translation als Umkodierung anzusiedeln.
52
Translationsprozesse I I I I I I I I
Infonrationsprozesse
Abbildung 2: Translation und Information auf der Zeitachse
Zur einleitenden Frage, ob denn nun die Informationswissenschaft als eine Art Translationswissenschaft zu betrachten sei oder umgekehrt, lässt sich folglich nur antworten: Es ist sowohl das eine als auch das andere und dann wiederum auch weder das eine noch das andere. Um nicht zu sagen, es ist viel mehr als das: Es handelt sich um zwei ineinander greifende, einander ergänzende Ansätze, die füreinander von hoher Relevanz sind. 5. Wissensmanagement Die beiden Ansätze der Translations- und Informationswissenschaft sind allerdings nicht nur in der gegenseitigen Wechselwirkung füreinander von Bedeutung, sondern auch in der Erschließung neuer Arbeitsweisen, in denen äquivalenzwahrende Umkodierung und optimierende Umstrukturierung zu wertvollen neuen Prozessen zusammenwachsen. Neben den bereits genannte Beispielen der zusammenfassenden Übersetzung und der mehrsprachigen Verschlagwortung oder auch Klassifizierung sei hier auch das Dolmetschen erwähnt. Äußere Zwänge wie etwa hohes Redetempo beim Simultandolmetschen fuhren dazu, dass die Äquivalenz mitunter nicht so konsequent gewahrt werden kann wie im Übersetzen. Hier sind entsprechende Strategien der problemlösenden Umstrukturierung - sozusagen im Sinne der situationsadäquaten Optimierung - bereits bekannt (Kaiina 1998:115ff), der Text wird etwa segmentiert, syntaktisch umstrukturiert oder auch unter Wahrung der Kernbotschaft und etwa 53
Raffung von Wiederholungen gekürzt. Man könnte hier von einer den situativen Bedingungen entsprechenden optimalen, funktionsorientierten Äquivalenz sprechen. Ein weiterer Weg, Äquivalenz im Dolmetschen unter Nutzung informationswissenschaftlicher Ansätze zu optimieren, liegt nicht in der Bewältigung bzw. Optimierung des eigentlichen Translationsprozesses, sondern des Translations- bzw. Informationsprozesses, der das eigentliche Dolmetschen stützt. Dazu gehört die Vorbereitungsarbeit in Form von mehrsprachiger Erfassung von Hintergrundinformationen und Terminologie und deren Aneignung im Vorhinein, die schnelle Verfugbarmachung während des Dolmetschens und Aufbereitung im Nachgang. Informations- und Wissensmanagement und Translation unter besonderen Bedingungen könnten hier sicherlich schwesterlich Hand in Hand gehen. Literatur Arntz, Reiner; Picht, Heribert; Mayer, Felix (2002): Einführung in die Terminologiearbeit. Hildesheim: Olms-Verlag Harms, Ilse und Luckhardt, Heinz-Dirk: Virtuelles Handbuch lnformationsmssenschaft - Einführung in die Informationsiwssenschafi. http: //www.is.uni-sb.de/studium/handbuch/handbuch.pdf. Zugriff 10.09.2004 Kaiina, Sylvia (1998). "Strategische Prozesse beim Dolmetschen. Theoretische Grundlagen, empirische Untersuchungen, didaktische Konsequenzen". Language in Performance Bd. 18. Tübingen: Gunter Narr. Kuhlen, Rainer (2004): Information. In: Kuhlen/Seeger/Strauch (Hrsg.) (2004): Grundlagen der Praktischen Information und Dokumentation, begründet von Klaus Laisiepen, Ernst Lutterbeck und Karl-Heinrich Meyer-Uhlenried. 5., völlig neu gefasste Ausgabe. Band 1: Handbuch zur Einfuhrung in die Informationswissenschaft und -praxis. Κ. G. Saur München. S. 3-20 Luckhardt, Heinz-Dirk (2001): Kunz/Rittel: Die Informationswissenschaften - die Vision von 1972 ist 30 Jahre später noch aktuell, http://is.uni-sb.de/studium/kunzrittel/index.php· Zugriff 09. Oktober 2004, letzte Änderung: Freitag 13 Februar 2004 09:29 durch Rouven Diener, © 2001 Universität des Saarlandes - Fachrichtung 5.6 Informationswissenschaft Reiss, Katharina/Vermeer, Hans J. (1984): Die Grundlegung einer allgemeinen Translationstheorie. Tübingen: Niemeyer, zitiert in www.uebersetzuneswissenschafit.de: Zugriff 25. Juli 2005 Zimmermann, Harald H. (2004): Information in der Sprachwissenschaft. In: In: Kuhlen/Seeger/Strauch (Hrsg.) (2004): Grundlagen der Praktischen Information und Dokumentation, begründet von Klaus Laisiepen, Ernst Lutterbeck und Karl-Heinrich Meyer-Uhlenried. 5., völlig neu gefasste Ausgabe. Band 1: Handbuch zur Einführung in die Infoimationswissenschaft und -praxis. Κ. G. Saur München. S. 704-709 Zimmermann, Prof. Dr. Harald H. (Hrsg.) (2004b): Studienfiihrer Informationswissenschaft. http://is.uni-sb.de/studium/studienfuehrer/studienfuehrer.pdf. Zugriff 19. September 2004
54
In Richtung Summarizing für Diskurse in K3 Rainer Kuhlen
Zusammenfassung Der Bedarf nach Summarizing-Leistungen, in Situationen der Fachinformation, aber auch in kommunikativen Umgebungen (Diskursen) wird aufgezeigt. Summarizing wird dazu in den Kontext des bisherigen (auch automatischen) Abstracting/Extracting gestellt. Der aktuelle Forschungsstand, vor allem mit Blick auf Multi-Document-Summarizing, wird dargestellt. Summarizing ist eine wichtige Funktion in komplex und umfänglich werdenden Diskussionen in elektronischen Foren. Dies wird am Beispiel des e-Learning-Systems K3 aufgezeigt. Rudimentäre Summarizing-Funklionen von K3 und des zugeordneten K3VIS-Systems werden dargestellt. Der Rahmen für ein elaborierteres, Template-orientiertes Summarizing unter Verwendung der vielfältigen Auszeichnungsfunktionen von K3 (Rollen, Diskurstypen, Inhaltstypen etc.) wird aufgespannt.
1
Einleitung
Summarizing ist eine grundlegende Informationsleistung und beruht auf methodisch geschulter Informationskompetenz. Zweck des Summarizing ist es, komplexe Wissensobjekte so zusammenzufassen, dass andere Menschen, die keine Zeit haben, alle möglicherweise einschlägigen Wissensobjekte vollständig durchzusehen, doch den Überblick über ein Wissensgebiet oder über die Produktion eines aktuellen Projektes behalten können. Der Bedarf nach solchen Zusammenfassungen entstand Anfang des 19. Jahrhunderts angesichts der steigenden Publikationszahlen in den wissenschaftlichen Disziplinen, und er ist heute größer denn je. Die Zahlen der „großen drei" naturwissenschaftlichen Fächer sprechen für sich. Pro Jahr entstehen in der Chemie fast 750.000 Artikel (fast 85% auf Englisch), in der Physik ca. 300.000 und in der Biologie 550.000 - so gut wie alle werden mit Zusammenfassungen (im Fachinformationsgebiet Abstracts genannt) versehen - oft genug als Leistung der Autoren selber, auch wenn Einiges dafür spricht, dass die Qualität von Autorenreferaten geringer ist als die der von Informationsspezialisten erzeugten. Aber nicht nur auf dem Gebiet der traditionellen Fachinformation besteht SummarizingBedarf. Die Verwendung von Textverarbeitungssoftware in allen (privaten und professionellen) Lebensbereichen, die Ausweitung der vielfaltigen Formen elektronischer Kommunikation und die flächendeckende Darstellung von Wissen jeder Art in unzähligen Websites hat eine Explosion von Wissensobjekten jedweder medialen Form bewirkt. Einher geht dies fast zwangsläufig mit einem Orientierungsproblem. Suchmaschinen sind mit ihrer Referenzfunktion eine umfassende Antwort auf die Schwierigkeit, aus der Fülle des produzierten Wissens 55
diejenigen relevanten Objekte nachgewiesen zu bekommen, die aktuell benötigt werden. Summarizing ist ebenfalls eine (zuweilen substituierende, in der Regel aber referenzierende) Orientierungsleistung. Ein besonderes Orientierungsproblem ist gegenwärtig bei Formen elektronischer Kommunikation auszumachen. Wir meinen damit vor allem die Unübersichtlichkeit in elektronischen Kommunikationsforen, in denen bei interessanten Themen sehr schnell sehr umfängliche und durch die Vernetzung sehr komplexe Diskurse entstehen, fur die erst ansatzweise Orientierungsformen existieren. Dazu gehört vor allem die Darstellung von Diskursen als Threads, also die in der Regel hierarchisch geordnete Auflistung der die Beiträge charakterisierenden Themen (vgl. Abschnitt 3.1 und Abb. 7). Ansatzweise werden auch Mittel der Visualisierung zur Darstellung von Kommunikationsstrukturen verwendet (vgl. Abschnitt 4.1 und Abb. 9). Bislang ist aber kaum versucht worden, Summaries von Diskursen in elektronischer Kommunikation automatisch zu erstellen. Als Vorarbeit für ein geplantes OisküTs-Summarizing in den Systemen K3 und eAgora (vgl. Abschnitt 4) wollen wir zunächst das DiskursSummarizing in den Kontext des bisherigen Abstracting/Summarizing stellen und anschließend ein Anwendungsszenario für ein mögliches Diskurs-Summarizing entwickeln, wie es für die Orientierung in virtuellen Kommunikationsforen in der Hochschulausbildung zum Einsatz kommen soll (K3), aber auch im Bereich von eScience (kollaboratives Wissensmanagement in virtuell und verteilt arbeitenden Forschungsgruppen - eAgora) (vgl. Abschnitt 3).
2 2.1
Informationsmethodisches Summarizing
Formen des Abstracting
Im informationswissenschaftlichen Zusammenhang wird Summarizing in erster Linie als Abstracting verstanden (Kuhlen 2004a). Gemeint ist damit die Zusammenfassung von in der Regel wissenschaftlichen Texten, die als indikative Abstracts (hier synonym mit Referate verwendet) der Orientierung dienen, und als informative Abstracts auch zusammenfassend direkt über die wesentlichen Inhalte, Methoden und Ergebnisse informieren sollen, und zwar in der Regel in textueller Form. Abstracts sollen nach herrschender Meinung keine Wertungen enthalten, sondern das wiedergeben, was im Originaltext vorzufinden ist, nach Möglichkeit unter Berücksichtigung der Formulierungen in den Ausgangstexten. Letztere Anforderung dient auch als Rechtfertigung für das (automatisch betriebene) Extracting. Es findet sich jedoch auch die Form des kritischen Referats, das in seinem normativen Charakter, wenn auch wohl kaum im Umfang, schon der Textform des Reviews nahe kommt. Eine attraktive Ausprägung ist das sogenannte Slanted abstract, das auch als adaptives Abstract bezeichnet werden kann, weil es mit Blick auf eine eng definierte Zielgruppe oder sogar auf eine einzige Person hin angefertigt wird. Neben den textuellen Ausprägungen von Abstracts sind auch Abstracts als grafische Visualisierung und als strukturierte Positionsreferate entwickelt worden, die, mit vorgegebenen Templates arbeitend, als semantisch typisierte Wissensobjekte aufgefasst werden können [Hammwöhner et al. 1989], Die Zusammenfassung von mehreren Texten (oder Wissensobjekten allgemein) wurde in der Dokumentationspraxis bislang nicht Gegenstand des Abstracting. Diese Leistung - meistens auch in kritischer, nicht nur synthetischer Absicht - wird als Fortschrittsbericht (im Englischen treffender als State-of-the-art-report) bezeichnet. Dies ist eine in der Wissenschaft außerordentlich geschätzte Leistung, die als selbständige Arbeit pub56
liziert werden kann, meistens aber auch als unverzichtbarer Bestandteil einer jeden wissenschaftlichen Qualifikationsarbeit (Dissertation, Habilitationsschrift) angesehen wird. 2.2
Automatisierung des Abstracting
Angesichts der eingangs angedeuteten quantitativen Herausforderung, die immer umfänglicher werdende Produktion von Wissensobjekten überschaubar zu halten, ist es verständlich, dass die Automatisierung des Abstracting bzw. des Summarizing als Lösung des Problems angesehen wird. Abstracting gehört als Extracting zu den ersten Anwendungsgegenständen automatischer Sprach Verarbeitung. Vorbild bis heute ist, wenn auch ständig modifiziert, der Luhn-Algorithmus [Luhn 1958], der Sätze mit signifikant hohem Vorkommen signifikanter Wörter extrahierte 1 . Die in den 80er und 90er Jahren entwickelten wissensbasierten und textlinguistischen Verfahren, z.B. automatische Diskursanalyse mittels der Rhetorical Structure Theory, waren fur die Künstliche-Intelligenz-Forschung ein attraktives Forschungsfeld zur Simulation menschlicher intelligenter Performanz. Auch in der Informationswissenschaft wurde damit experimentiert [Endres-Niggemeyer 1999]. Exemplarisch für ein wissensbasiertes und linguistisch fundiertes System sei hier nur das in Konstanz entwickelte Topic/Topographic-System genannt [Hahn 1990; Reimer 1990; Sonnenberger 1988; Hammwöhner et al. 1989; später: Hahn/Reimer 1999]. Allerdings ist nicht zu übersehen, dass Interesse und Zuversicht in die Leitungsfahigkeit bzw. Generalisierbarkeit des wissensbasierten und textlinguistischen Paradigmas in den letzten Jahren stark abgenommen haben (nicht zuletzt wegen der weiterhin kaum zu überwindenden semantischen Komplexitäts-, aber auch der schlichten Quantitätsprobleme in realistischen Anwendungssituationen). 2.3
Abstracting/Extracting
im praktischen Einsatz
Gegenwärtig finden praktische Zusammenfassungsleistungen, meistens auf einfacher statistischer Grundlage, aber zuweilen auch mit elaborierteren Verfahren, immer mehr Eingang in die Textverarbeitung, z.B. bei Word/Office, aber auch als Leistung eines allgemeinen Textmanagements 2 . Zum Teil elaborierter in den Verfahren und häufig auch fur mehrere Sprachen werden Summarizer mit Blick auf Web-Dienste angeboten 3 . Summarizer werden im Medienbereich auch als adaptive Harvester eingesetzt, indem nach einem vorgebenen Interessenprofil neue Inhalte aus Webseiten zusammengefasst und fortlaufend als „Zeitung" präsentiert werden.
1
In [Kuhlen 1989; 2004b] werden diese frühen Ansätzen dargestellt, die u.a. durch einfache linguistische Verfahren weiterentwickelt wurden, wie Extrahieren von Topic-Sätzen (Sätze zu Beginn oder Ende eines Absatzes) oder textsyntaktisches Verknüpfen zum Bilden von Kohäsion von ansonsten isolierten extrahierten Sätzen. 2 Z.B. Brevity Document Summarizer von Lextek - http://www.lextek.com/brevity/), Automatic Text Summarizer - http://search.iiit.net/~iags/summarizer/index.cgi: Extractor von DBI (http://www. extractor.com/) oder Metafer Summarizer (http://www.metafer.de /de/test/onlinetest.html). 3
z.B. der X-Summarizer von Arexera (http://www.arexera.de). der Copernic Summarizer (http://www.copernic.com). die DIGEST-Software (http://www.digestsoftware.de/info.htm). der Inxight Summarizer (http://www.inxight.com/products/sdks/sum/)· der NetOwl-Summarizer mit adaptiven Eigenschaften, Pertinence Summarizer (http://www.perti-nence.netf). der DBI Text Summarizer (Version 7.1) (http://www.download.com/3000-2070-l 0361551 .html) oder Sinope Summarizer, integriert in den Internet Explorer (http://www.sinope.info/en/index.php)
57
2.4
Multidocument Summarizing (MDS)
Erst in der letzten Zeit ist textübergreifendes Abstracting, als Multidocument Summarizing (MDS) Gegenstand der computerlinguistischen Forschung geworden, wobei allerdings nur noch selten textgrammatische Verfahren zum Einsatz kommen, sondern eher elaboriertere statistische Verfahren oder auch neuronale Netzwerke, die aber natürlich auch zu den computerlinguistischen Textverarbeitungsverfahren zu rechnen sind. Hier hat die Document Understanding Conference (DUC) von 2001 ein brauchbares Testbett für MDS-Anwendungen entwickelt. Mit MDS wird derzeit intensiv experimentiert, z.B. über die Verwendung von Clustertechniken relevanter Sätze aus verschiedenen Texten [Siddharthan et al. 2004], von „lead sentences" und Häufigkeiten informationsintensiver Konzepte anstelle von Textwörtern [Schiffman/Nenkova/McKeown 2002], einer Kombination von Zufallssuchtreffern und der Extraktion benachbarter Sätzen [White/Cardie 2002]. MDS-Grundlage können aber auch Retrievalergebnisse [Mori 2002], thematisch aufeinander bezogene Web-Sites [Amitay/Paris 2000; Zhang et al. 2002] bzw. allgemeine Textcorpora unterschiedlichster Art sein. Der Erfolg von MDS hängt stark von der Kohärenz der zusammenzufassenden Dokumente ab (vgl. die Referenzen in [Schiffman/Nenkova/McKeown 2002]), aber auch, wie eine SummarizingKohäsion und -Kohärenz aus den aus verschiedenen Texten extrahierten und somit isolierten Sätzen erstellt werden kann [Barzilay/Elhadad/McKeown 2002]. Auch das Cross-Lingual Summarizing!Extracting gewinnt in zunehmend internationaler und damit mehrsprachiger Wissenschaft an Bedeutung [Sudo et al. 2004] oder das Summarizing von elektronischer Kommunikation, z.B. eMail-Threads [Lam et al. 2002; Wan/McKeown 2004] oder Chat Logs [Zhou/Hovy 2005], und von Interaktions-/Gesprächssituationen [Zechner 2001], Methodisch vielversprechend, auch mit Blick auf das hier speziell interessierende Diskurs-Summarizing, sind Ansätze des Summarizing auf der Grundlage von Hypertexttechnologie (z.B. das HyperGen Summarization Tool), wobei einzelne Summaries hypertextuell über ausgezeichnete / typisierte Links vernetzt werden4. Insgesamt ist also weltweit und nicht nur in der Informationswissenschaft angesichts fortschreitender internationaler Kommunikation ein verstärktes Interesse an SummarizingVerfahren auszumachen (vgl. den Sammelband [Mani/Maybury 1999], [Endres-Niggemeyer 1999; 2004] und [Endres-Niggemeyer et al. 1993]), die sich zudem keineswegs mehr auf das klassische Eintext-Abstracting beschränken. Dem trägt z.B. auch die aktuelle Informationspolitik in Deutschland Rechnung: In der Bekanntmachung des BMBF zur Förderung von „eScience und vernetztes Wissensmanagement" wird angesprochen, dass Verfahren der Integration, Extraktion, Komprimierung und Abstrahierung für die „medial unterstützte Nutzernavigation in komplexen, auch mehrdimensionalen Informationsbeständen" fur den Erfolg des vernetzten Wissensmanagements wichtig sind5.
3
Summarizing im Kontext des kollaborativen Wissensmanagement in der Lehre
Zusammenfassungen bereitzustellen und somit Produktion und Nutzung von Wissen zu begünstigen, kann auch als Leistung des Wissensmanagement angesehen werden. Wissensma4 Vgl. die Folien von Kavi Mahesh in: http://crl.nmsu.edu/Research/Proiects/minds/core summarizer/talk/ 5
58
http://www.bmbf.de/foerderungen/3179.php
nagement, bislang überwiegend verstanden als Koordination des z.B. in einer Forschergruppe oder einer Organisation(seinheit) vorhandenen Wissens zur Unterstützung der Produktion neuen Wissens, bezieht sich zunehmend auf den Prozess der Erzeugung von Wissen selber, vor allem in kollaborativ arbeitenden Gruppen [Kuhlen 2004b]. Dieser Paradigmenwechsel trägt dem Rechnung, dass die Produktion neuen Wissens immer mehr auf dem Diskurs, auf der Kommunikation mit heterogenen, oft genug in getrennten Räumen arbeitenden Partnern beruht - begünstigt durch die Entwicklung der elektronischen Kommunikationsnetze. Dieses neue Paradigma hat ebenfalls Konsequenzen für das traditionelle Gebiet der Fachinformation, das sich bislang dem dokumentarischen Auftrag verpflichtet fiihlt(e). Dessen Aufgabe, Wissenschaftlern die Information über weltweit publiziertes Wissen zu jeder Zeit und an jedem Ort bereitzustellen, bleibt gewiss erhalten. Die neue Herausforderung besteht allerdings darin, dass sich Informationsarbeit (also alle Vorgänge des Sammeins, Aufbereitens, Ordnens, Bereitstellens, Bewertens, Austauschens und Nutzens) in die kollaborativen Prozesse des Wissensaustauschs und der Wissensproduktion direkt einbindet. Informationelle Absicherung und kommunikativer Austausch werden stärker denn je integrale Bestandteile der kreativen wissenschaftlichen Arbeit. In diesem Zusammenhang bekommt auch das Summarizing eine neue Funktion. Zum einen sollen sich Summaries ganz im Sinne des angesprochenen MDS (Abschnitt 2.4) auf vielfältige, durchaus auch multimodale Wissensobjekte beziehen, die in diesen kollaborativen Umgebungen entstehen. Zum andern besteht ein steigender Bedarf nach Orientierung in den zunehmend elektronisch ablaufenden Diskursen wissenschaftlicher Kommunikation. DiskursSummaries sollen hier diese Orientierungsleistung erbringen. Beides ist Gegenstand des Forschungsprojektes eAgora [Kuhlen et al. 2005b], wobei sich das MDS bei eAgora vor allem auf die Metadaten der verschiedenen Wissensobjekte beziehen wird. Gemeint sind damit Titel, vorhandene Abstracts und term-orientierte Indexate, einschließlich der formalen Beschreibungselemente, die in erster Linie auf die Verfasser, deren Institutionen und die verwendeten Publikationsmedien referenzieren und damit wichtige Orientierungshilfe leisten. Wir beziehen Diskurs-Swmman'ei hier auf Situationen des kollaborativen Wissensmanagements in der Hochschulausbildung, inwieweit also Summaries dazu beitragen können, sehr schnell komplex werdende Diskurse, z.B. in elektronischen Kommunikationsforen, fur die Studierenden und für die die Diskurse bewertenden Dozenten übersichtlich und nachvollziehbar zu halten. 3.1
Information und Kommunikation im K3-System
Kollaboratives Wissensmanagement wird in Konstanz in der Lehre seit einigen Semestern über das im Rahmen eines BMBF-gefÖrderten Projektes entwickelte K3-System organisiert. Abb. 1 stellt die bislang mit K3 durchgeführten Kurse zusammen:
59
Kontakt
Kurs«
Suche
»««•m
p]
Έ
Inform«tion«n
Softv»«r«
Impressum Tuten»! Logout (KuKUn)
K3-Proj*kt
MyK3 n r ~
Aktuelle Kuraübersicht
Kam: SS»*>-ll»fom»»M«n««thrti
Κ a n : WS04/ttS K»Hin»Him I i . h » r e w t i « w r i w » h « f t (LS Kahlen) IC«r»i w s a 4 85 S.Mln»r F.J.lMffMt^r.fp.iMtn WS»4/0S- S«M*n»r
fafwiaaMaaHxtHfll
K a m WS»4/«S Dokto>wii»foCT»xtl