Der Computer als Medium: Eine transdisziplinäre Theorie [1. Aufl.] 9783839404294

Der Computer ist zum allgemeinen Medium des Wissens geworden. Durch sein Erscheinen wandeln sich Text und Bild grundlege

254 49 1MB

German Pages 316 Year 2015

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
INHALT
EINLEITUNG: ÜBER-SETZUNGEN
DIFFERÄNZ: NOTATION PROZESSIERENDER ÜBERSETZUNGEN
Computer: Medium der Übersetzung
Notation: Zeichen und Wahrnehmung
Übersetzung: Schrift wird Notation
Medium: Mittler und Mittleres
Interaktion mit dem Technisch-Unbewussten
GESCHICHTE DES MEDIALEN RAUMES
Schrift
Bild
Technische Medien als Griffel der Natur
Film
Telegrafie
BILDWENDEN
Was ist ein Bild?
Vom perspektivischen Sehen zum Aspekt-Sehen
Die neue Bildlichkeit des Computers als Medium
Denken mit dem Auge
FORMUNGEN DES COMPUTERS ALS MEDIUM
Internet
Hypertext und Hypermedia
Programmiersprachen
Simulation
Komposition von Realitäten
FAZIT: DAS RAUM-ZEIT DISPOSITIV VON ÜBERSETZUNGEN
LITERATUR
Recommend Papers

Der Computer als Medium: Eine transdisziplinäre Theorie [1. Aufl.]
 9783839404294

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Bernard Robben Der Computer als Medium

Bernard Robben (Dr. ing.) arbeitet am Laboratory for Art, Work and Technology (artecLab) der Universität Bremen (www.arteclab.unibremen.de). Seine Forschungsschwerpunkte sind Medientheorie und Mensch-Computer-Interaktion.

Bernard Robben Der Computer als Medium. Eine transdisziplinäre Theorie

Der hier vorgelegte Text wurde als Promotion angenommen im Fachbereich 3 – Mathematik und Informatik – der Universität Bremen. Gutachter: Prof. Dr. F. W. Bruns, Universität Bremen Prof. Dr. F. Nake, Universität Bremen

Bibliografische Information der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.ddb.de abrufbar.

© 2006 transcript Verlag, Bielefeld Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen. Umschlaggestaltung und Innenlayout: Kordula Röckenhaus, Bielefeld Umschlagabbildung: © Bernard Robben, 2005 Lektorat & Satz: Bernard Robben Druck: Majuskel Medienproduktion GmbH, Wetzlar ISBN 3-89942-429-8 Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff. Besuchen Sie uns im Internet: http://www.transcript-verlag.de Bitte fordern Sie unser Gesamtverzeichnis und andere Broschüren an unter: [email protected]

INHALT

EINLEITUNG: ÜBER-SETZUNGEN 11

DIFFERÄNZ: NOTATION PROZESSIERENDER ÜBERSETZUNGEN 25 Computer: Medium der Übersetzung 29

Notation: Zeichen und Wahrnehmung 46 Übersetzung: Schrift wird Notation 58 Medium: Mittler und Mittleres 92 Interaktion mit dem Technisch-Unbewussten 102

GESCHICHTE DES MEDIALEN RAUMES 119 Schrift 119 Bild 140 Technische Medien als Griffel der Natur 160 Film 171 Telegrafie 184

5

BILDWENDEN 191 Was ist ein Bild? 193 Vom perspektivischen Sehen zum Aspekt-Sehen 204 Die neue Bildlichkeit des Computers als Medium 217 Denken mit dem Auge 230

FORMUNGEN DES COMPUTERS ALS MEDIUM 241 Internet 243 Hypertext und Hypermedia 251 Programmiersprachen 257 Simulation 266 Komposition von Realitäten 274

FAZIT: DAS RAUM-ZEIT DISPOSITIV VON ÜBERSETZUNGEN 289

LITERATUR 297

6

DANKSAGUNG An der Entstehung dieser Arbeit waren viele Menschen beteiligt. Ihnen allen bin ich zu Dank verpflichtet. Ausdrücklich möchte ich hier nur einige wenige nennen. Besonderer Dank gilt Professor Dr. F. Wilhelm Bruns, der die Arbeit geduldig und offen mit Kritik und Anregungen betreut hat. Professor Dr. Frieder Nake danke ich für die Gelegenheit zur Diskussion in vielen Arbeitskreisen zum Thema der Medien und der Zeichen. Für manche inzwischen lange zurückliegende Diskussion zur These des Computers als Medium danke ich Professor Dr. Wolfgang Coy. Professor Dr. Jörg Pflüger bin ich dankbar für manchmal nächtelange Diskussionen und hartnäckiges Nachfragen. Ein herzlicher Dank gilt auch meinen Arbeitskollegen Daniel Cermak-Sassenrath, Martin Faust, Hermann Gathmann, Professor Dr. HansDieter Hellige, Dr. Eva Hornecker, Dr. Dieter Müller, Rainer Pundt, Hartmut Rosch und Yong-ho Yoo. Bei Dagmar Eder, Mijal Gandelsman-Trier und Jutta Thielemann möchte ich mich für die Hilfe bei der Korrektur der schriftlichen Fassung der Arbeit bedanken.

7

„Das komplizierte Zusammenwirken zwischen den verschiedenen Teilen der Maschinerie hätte auch das beharrlichste Gedächtnis verwirrt. Ich überwand diese Schwierigkeit, indem ich eine Zeichensprache verbesserte und erweiterte, die Mechanische Notation, welche ich 1826 in einer wissenschaftlichen Arbeit erläutert hatte, die in der Monatsschrift der Royal Society abgedruckt wurde. Durch solche Mittel gelang es mir, eine Reihe umfangreicher Untersuchungen zu meistern, die ich andernfalls nicht in Jahren hätte bewältigen können. Mit Hilfe der Sprache der Zeichen wurde die Maschine Realität.“ Lord Charles Babbage Ereignisse im Leben eines Philosophen, 1864

9

EINLEITUNG: ÜBER-SETZUNGEN Der Computer bildet ein radikal neues Medium. Oft ist die Rede von den Neuen Medien. Was aber sind Neue Medien? Längst gehen wir mit ihnen um, ohne zu verstehen, was an ihnen neu ist. Und was sind überhaupt Medien? Selbst das ist unklar. Von einer wissenschaftlichen Arbeit, insbesondere von einer, die sich auch in der Informatik verorten will, würde man jetzt eine Definition des Begriffes Medium erwarten. Daraus wären weitere Begriffe abzuleiten, die die Eingangsthese, der Computer bilde ein radikal neues Medium, belegen. Ein solches Vorgehen verbietet sich aber. Jeder Anfang einer Definition des Begriffes Medium hätte Termini zu benutzen, die ihrerseits gerade ein Verständnis des zu erklärenden Begriffs Medium schon voraussetzten. Und die Definition, wollte sie vollständig sein, käme nie an ihr Ende. Das Medium entzieht sich der Definition. Der Begriff Medium ist ein so grundsätzlicher, dass er nicht auf anderen einfacheren aufbauen kann. Ich verwende ihn deshalb, ohne ihn zu definieren. Sicherlich hat der Leser ein gewisses Vorverständnis des Wortes Medium, an das ich hier appellieren muss. Aber ich fürchte gleichzeitig, dass damit das Wesen des Begriffs Medium verfehlt wird. An den Anfang setze ich einen leeren Begriff, und das ist auch das Erste, was ich über das Medium aussage. Es ist ein leerer Begriff ohne eigenen Inhalt, der gerade aus der Leere seine Kraft schöpft. Solche Bestimmung wird den Leser unbefriedigt lassen. Aber das ist Absicht. Die Arbeit wird nur mit Gewinn lesen können, wer bereit ist, solche Unsicherheit auszuhalten. Der Computer tritt zu den vorhandenen technischen Medien nicht bloß als ein weiteres Medium hinzu, er formt etwas Neues, das es erfordert, Medialität noch einmal zu überdenken. Medialität kann nicht als etwas in der Welt immer schon Vorgegebenes angesehen werden, sondern hat eine eigene Geschichte. Ein leerer Begriff soll als ein historisch sich ändernder gedacht werden. Mit dieser Auslegung entgleitet das Medium noch weiter einer exakten, ein für alle Mal festgelegten Definition. Jedoch sind mit diesen Bestimmungen im Rahmen meiner Arbeit dem Medienbegriff Grenzen gezogen. Beansprucht wird keine allgemeine philosophische Klärung des Begriffs Medium,1 sondern die Untersuchung bewegt sich ausschließlich im Feld der technischen Medien. Aber auch das ist ein weites Feld „mit Bedeutungsbüscheln, Dickichten aus Eigensinn und übertragenem Sinn“2. Dieses Feld lässt sich nur unter1 2

Zur Geschichte des Medienbegriffs vgl. Hoffmann 2002 Merleau-Ponty 1994, S. 172

11

EINLEITUNG: ÜBER-SETZUNGEN

suchen in einer unsicheren Forschungsexpedition. Dabei gilt es, die Augen offen zu halten und selbst die entferntesten Winkel zu entdecken, aber auch – und das mag paradox erscheinen – den Augen zu misstrauen. Zu reflektieren ist die Geprägtheit des Blickes, welcher das Auge, das vermeintlich die Welt direkt sieht, durch kontingent wachsende Strukturen verdeckt, aber erst dadurch etwas sehen lässt. In solchem Herangehen verschieben sich in zunächst verwirrender Weise ständig die Ebenen. Technische Medien werden beschrieben in ihren Funktions- und Wirkungsweisen, aber darüber hinaus steht ihre Medialität „an sich“ im Fokus – als schwer zu ermittelnder (leerer) Platz, der erst Medialität ermöglicht. Nicht das, was das Medium vermittelt, sondern sein Dazwischen-Kommen wird zum Thema. Dieses Dazwischen-Kommen entgeht der normalen Wahrnehmung. Um Inhalte vermitteln zu können, muss das Medium selbst verschwinden. Solch erstes Stochern im Ungewissen kommt, will es vorankommen, nicht umhin, von Setzungen auszugehen, die die Eingangsthese bereits andeutet. Als Ausgangspunkt setze ich: Der Computer ist das Medium der Übersetzungen. Ich verändere diese Setzung noch einmal durch ein Satzzeichen: Der Computer ist das Medium der Über-Setzungen. Deutlich wird, dass ich den leeren Begriff Medium durch ein weiteres undefiniertes und unbestimmtes Wort, nämlich Über-Setzungen, beschrieben habe. Die Schreibweise teilt dem Leser mit, dass das Wort „Übersetzungen“ im Deutschen viele Bedeutungen hat, welche ihn über-setzen zum Feld des Mediums Computer, darauf vertrauend, dass der Leser von Anfang an die Über-Setzungen selbst leistet, die es doch erst zu untersuchen und zu (er-)klären gilt. Nach der Einleitung werde ich den Gedankenstrich innerhalb des Wortes „über-setzen“ nicht mehr schreiben, sondern es dem Leser überlassen, ihn für den leeren Platz des Mediums zu setzen. Den Computer als Medium von Über-Setzungen deute ich als ein Mittleres und einen Mittler, wodurch ein leerer Platz markiert ist. Es geht um ein Zwischen, das einem beim Gebrauch des Mediums notwendig entgeht, dessen man aber durch Reflexion gewahr werden kann. Der Computer verkörpert das Medium, das Mediale „an sich“ durch ÜberSetzungen. Über-Setzungen überspringen ein Zwischen, das imaginär bleibt. Das Zwischen des Computers setzt die imaginäre, aber doch stets vorhandene Trennung zwischen dem prozessierenden Kode und damit verbundenen Darstellungen. Während der Kode, die Übersetzung des Programms in die Maschinensprache, den menschlichen Sinnen entzogen in der Maschine verschwindet, bedarf die Mensch-Computer-Interaktion der wahrnehmbaren Darstellung. Dieses Verhältnis nenne ich Notation. Mit Notation bezeichne ich also die Form der Über-Setzungen des Medi-

12

EINLEITUNG: ÜBER-SETZUNGEN

ums Computer, eine prozessierende Relation zwischen Kode und Darstellung. Aus der Setzung dieser Begrifflichkeit folgt der im fachlichen Diskurs der Informatik merkwürdige Titel der Arbeit: „Der Computer als Medium – Notation für Übersetzungen“. Er zeigt mit seinen Begriffen auf eine transdisziplinäre Schreibweise, in der eine Theorie des Computers als Medium sich entfaltet. Die Arbeit nähert sich auf kreisende Weise der These vom Computer als Medium und hat den Anspruch, einen Beitrag zur Theorie der Informatik3 zu leisten. Insoweit ist sie in der Informatik verankert. Sie benutzt deren Fachsprache. Aber gleichzeitig und gleichwertig arbeitet sie mit Konzepten aus Sozial- und Kulturwissenschaften, aus Philosophie, Semiotik und Kunstwissenschaften, ist also den Begriffsbildungen vieler Wissenschaften verpflichtet. Sie fordert, über enge Fachgrenzen hinauszudenken und sich in fremde Begriffswelten einzufinden. Dies wird der Leser an manchen Stellen als Zumutung empfinden, insbesondere wenn selbst der Schreibstil manchmal von Kapitel zu Kapitel wechselt. Am meisten mag den Leser stören, auf eine Expedition in unbekannte Disziplinen gelockt zu werden, ohne nötige Hilfestellungen für die Erklärung der verwendeten (Fach-)Begriffe zu erhalten. Da andererseits eine ständige Erklärung der Begrifflichkeiten für die jeweils andere Disziplin den Umfang der Arbeit in unmäßiger Weise aufgebläht hätte, habe ich mich entschlossen, diesen Mangel in Kauf zu nehmen.4 Hierfür bitte ich die Leser um Entschuldigung. Jedoch hoffe ich, dass ich denen, die bereit sind, sich an den Fäden der Arbeit entlang auf eine unsichere Expedition in das Feld der Medien zu begeben, ungewohnte Über-Setzungen von Verhältnissen, Beziehungen und Prozessen biete, die Kritik ermöglichen und herausfordern. Erst daraus kann eine neue Medientheorie erwachsen, zu der ich Bausteine liefere und kein geschlossenes Gebäude. Allerdings möchte ich nicht irgendwelche beliebigen Bausteine aufsammeln, sondern solche, die zum Fundament einer Theorie des Computers als Medium dienen. Dem aufmerksamen und kritischen Leser, den ich mir wünsche, wird nicht entgangen sein, dass die Metapher des Gebäudes, welche ich gerade verwandt habe, unangemessen ist. Es geht mir ja gerade nicht um ein festes Fundament von starren Begriffsdefinitionen, auf denen die 3

4

Die Theorie der Informatik ist nicht zu verwechseln mit der theoretischen Informatik, welche sich den mathematischen und logischen Grundlagen der Disziplin widmet. Gemeint ist eine theoretische Fundierung der Informatik, welche „Begriffe, Methoden und Anwendungspotenziale der Informatik beschreibt und ihren wissenschaftlichen Standort bestimmen helfen soll“. Vgl. Coy 1992, S. 17 Natürlich gebe ich Belege und Literaturhinweise, die den Zugang zur jeweiligen Disziplin offen legen.

13

EINLEITUNG: ÜBER-SETZUNGEN

ganze Theorie aufbauen kann, sondern um das Aufspüren entscheidender Verhältnisse und Beziehungen, also um (Über-)Setzungen. Die Theorie ist auf Metaphern angewiesen, kommt nie ohne sie aus, obwohl diese auch, wie eben gezeigt, in die Irre führen können. Aber andererseits geht es nicht um beliebige Verhältnisse und Beziehungen, sondern – da bleibe ich doch bei der Metapher des Bauwesens – um die Entfaltung von soliden Begrifflichkeiten, die es nicht nur zu setzen, sondern auch zu (er-)klären gilt. Meine Schreibweise – mit undefinierten Begriffen operierend und in Kreisbewegungen fortschreitend – wird zumindest für Informatiker ungewohnt sein. Sie folgt weder einer induktiven noch einer deduktiven Logik, sondern hat eine chiastische Struktur.5 Begriffe werden durch Verflechtungen interpretiert, wie sie der griechische Buchstabe Ȥ (chi) grafisch darstellt. Im zu erforschenden Feld spüre ich Kreuzungen auf, welche die Untersuchung so durchlaufen, dass sie immer wieder auf den Ausgangspunkt zurückführen, wobei sich die Fragestellung langsam entfaltet. Intendiert ist ein Sprachspiel im Sinne Wittgensteins6 mit den Wörtern Medium, Übersetzung, Notation, dessen Regeln sich erst im Verlauf des Spiels ergeben, das den Wörtern Bedeutung und Sinn durch ihren Gebrauch einflößt. Wenn ich den Anspruch erhebe, auf diese Weise einen theoretischen Beitrag zu der Frage zu leisten, wie sich der Computer als Medium begreifen lässt, will ich damit nicht ausdrücken, dass der Computer nur als Medium betrachtet werden kann. Andere Sichtweisen sind nicht nur legitim, sondern notwendig. Computer, die einen Produktionsprozess, eine Bank oder ein Flugzeug steuern, funktionieren nicht medial oder vermittelt, sondern wirken direkt auf Wirklichkeit. Mit den Konzepten Medium und (Steuerungs-)Automat sind die beiden entscheidenden Möglichkeiten benannt, wie Computer in der Welt wirken. Weitere Sichtweisen und Konzeptionen, Leitbilder und Metaphern lassen sich davon ableiten. Einschlägige theoretische Arbeiten zum Computer als Medium bringen die These vor, dass er „zum potentiellen Integrator aller vorherigen Medien“7 werde. Zugespitzter ist auch die Rede von einem universellen Medium.8 Klar an einer solchen Bestimmung ist, dass es sich beim Computer nicht um ein beliebiges weiteres Medium, sondern um etwas derartig Neues handelt, dass sich ein wirkliches Verständnis erst im Laufe der Zeit ergibt, wenn sich der Charakter des Neuen verliert. Um die These 5 6 7 8

Vgl. Merleau-Ponty 1994, S. 172 Wittgenstein 1984b Coy 1994a, S. 30 Tholen 1998, S. 19

14

EINLEITUNG: ÜBER-SETZUNGEN

vom Computer als Medium einer wissenschaftlichen Bearbeitung zugänglich zu machen, gilt es daher, sie fassbarer zu machen, sie in einem historischen Kontext zu situieren und mit schon Bekanntem zu kontrastieren. Ein solcher Bezug auf schon Bekanntes begibt sich aber in die Gefahr, durch den Vergleich mit Vertrautem gerade das Neue, das es doch zu erklären gilt, zu verfehlen. In welchem Sinne wird der Computer zum Integrator? In welchem Sinne ist er ein universelles Medium? Zunächst lässt sich eine negative Bestimmung geben. Er wird kein abgesondertes Universal-Gerät, das gleichzeitig Buch, Zeitung, Fernsehfilm, Oper, Fernseher usw. wäre. Überhaupt sind Medien nicht als Geräte oder Dinge, sondern als kulturelle Beziehungen zu verstehen. Metaphorisch lässt sich die These des Computers als Integrator in erster Annäherung so begreifen, dass das Medium Computer zu den bisherigen technischen Medien in einem ähnlichen Verhältnis steht, wie die Schrift zu den Medien Notiz-Blätter, Zeitung, Buch, Papyrusrolle, etc. Im gewissen Sinne verwirklicht das Medium Computer eine Universal-Funktionaliät, nämlich die Potenzialität jedes bisherige technische Einzelmedium darzustellen und als solches zu agieren. Da das Medium Computer in der Lage ist, eine Vielfalt von Einzelmedien zu repräsentieren, ergibt sich daraus eine Multimedialität, die mehr ist als die Addition von Einzelmedien, nämlich ein ins Verhältnis- und in Beziehung-Setzen von Einzelmedien, was zu neuartigen Verflechtungen führt. Aus der Potenzialität des Computers, Mediales darzustellen, ergeben sich völlig neuartige Medien, welche erst durch den Computer möglich werden. Sie werden oft Hypermedia genannt. Multimedia und Hypermedia verweisen auf Erscheinungsweisen des Computers in Form von Hardware und Software. Aber damit ist immer noch wenig darüber ausgesagt, in welchem Sinne der Computer zum universellen Medium wird. Diese Frage versuche ich einer Klärung zuzuführen durch die Bestimmung des Computer als Medium der Über-Setzungen, indem ich ver- und entflechte, was Über-Setzungen sind: Metaphorisch gesprochen eine neue Art von Schriftlichkeit. Die im gewissen Sinne universelle Potenzialität des Computers konstituiert ein besonderes Verhältnis zur Wirklichkeit. Zwei Konzepte des Wirklichkeitsbezugs des Computers hatte ich angeführt: den Computer als (Steuerungs-)Automaten, der direkt Wirklichkeit verändert, und den Computer als Medium, der eine mediale Wirklichkeit vermittelt. Solche Sprechweise vom Computer offenbart, dass ich in der Beschreibung der Wirkungsweise von Computern eine Unterscheidung treffe zwischen der Wirklichkeit und der medialen Wirklichkeit. Wirklichkeit lässt sich erst denken, wahrnehmen, fühlen, empfinden, wenn wir von ihr zurücktreten, uns in Differenz zu ihr setzen, sie ist nur

15

EINLEITUNG: ÜBER-SETZUNGEN

vermittelt durch Zeichen erfahrbar und nie direkt zu haben. Wann immer wir Welt wahrnehmen oder über sie reflektieren, begeben wir uns in die Welt der Zeichen und können ihr nicht entrinnen. Trotzdem spreche ich auch von einem direkten Einwirken auf die Wirklichkeit. Damit verbundene äußerst schwierige philosophische Fragestellungen schiebe ich hier auf und beiseite. Mit der Unterscheidung Wirklichkeit und mediale Wirklichkeit möchte ich keineswegs die Existenz einer zeichenlosen objektiven Wirklichkeit postulieren, sondern die offensichtliche Tatsache ausdrücken, dass wir mehr Zugänge zur Welt haben als den semiotischen, auch wenn jeder Zugang durch Zeichen gefärbt und unentwirrbar mit der medialen Wirklichkeit verknüpft ist. Mediale Wirklichkeit der Zeichen und die Wirklichkeit darf man sich nicht als voneinander unabhängige getrennte Welten vorstellen. Die Welt der Zeichen, die mediale Wirklichkeit, ist Bestandteil der Wirklichkeit, also selbst wirklich. Begrifflich die mediale Wirklichkeit der Zeichen von der Wirklichkeit zu trennen, meint also keine Unterscheidung im Sinne von disjunkten Mengen, hier die Welt der Zeichen, da die zeichenlose Welt der Wirklichkeit, sondern einen unterschiedlichen Zugang zur Welt. Die Unterscheidung zwischen Wirklichkeit und medialer Wirklichkeit unterstellt dennoch, dass es eine scharfe Grenze gibt zwischen einem wirklichen Akt, wie zum Beispiel der Zerstörung eines Gegenstandes und der medialen Darstellung der Zerstörung eines Gegenstandes. Zwischen einem Akt und seiner medialen Darstellung gibt es mannigfache Beziehungen und Verflechtungen, welche die Über-Setzungen des Computers neu setzen, trotzdem trennt sie im Weltzugang eine harte, nie aufhebbare Grenze. Solch strikte Unterscheidung zwischen Wirklichkeit und medialer Wirklichkeit wirft jedoch die verzwickte Frage auf: Was ist die Wirklichkeit der Medien? Sie bilden die Sphäre der medialen Wirklichkeit, sind unauflöslich an diese gebunden, sie vermitteln Wirklichkeit, ermöglichen deren Wahrnehmung und Reflexion. Diese Aufgaben erfüllen sie umso perfekter, je mehr sie selbst der Wahrnehmung und Reflexion entschwinden. Das Zwischen des Mediums darf beim Mediengebrauch nicht dazwischen kommen. Wer einen wirklichen Gegenstand mit seinen Sinnen erkennen und mit seinem Verstand begreifen will, deutet nicht das Medium, sondern nimmt den in Frage stehenden Gegenstand wahr und reflektiert über ihn. So wird das Medium zum blinden Fleck der Wahrnehmung, der entgeht, dass das Medium nicht nur eine Botschaft transportiert, sondern auch eine Botschaft ist. Es ist das Verdienst Marshall McLuhans, diesen Zusammenhang in den Fokus der Aufmerksamkeit gebracht zu haben mit seinen Thesen, dass das Medium selbst die Bot-

16

EINLEITUNG: ÜBER-SETZUNGEN

schaft sei und Medien Prothesen der Sinne bilden.9 Danach erlebt das Individuum durch jedes neue als Prothese dienende Medium einen Schock. In der prothesenartigen Ausweitung seiner Persönlichkeit erfährt es die Wirklichkeit auf eine derart veränderte Weise, dass sein vorheriges Weltbild implodiert, während sich demgegenüber verwirrende und Angst erregende neue Erfahrungsmöglichkeiten eröffnen. Ohne solche Metaphorik und vielleicht präziser beschreibt Walter Benjamin diese Medienvermittelten Zusammenhänge in einem berühmten Diktum: „Innerhalb großer geschichtlicher Zeiträume verändert sich mit der gesamten Daseinsweise der menschlichen Kollektiva auch die Art und Weise ihrer Sinneswahrnehmung. Die Art und Weise, in der die menschliche Sinneswahrnehmung sich organisiert – das Medium, in dem sie erfolgt – ist nicht nur natürlich, sondern auch geschichtlich bedingt.“10

Grundlage des so gedachten geschichtlich geprägten und prägenden Mediums, in dem die menschliche Sinneswahrnehmung sich organisiert, ist die Figur der Übersetzbarkeit und nicht das immer schon in die Welt gesetzte Individuum, welches jedes neue Medium wie ein Schock trifft. Das historisch sich verändernde Medium konfiguriert die Art und Weise, wie Wirklichkeit wahrzunehmen und zu denken ist, für jede Epoche neu. Auch wenn es in diesen Konfigurationen keine unveränderliche Größe gibt, wird doch eine Möglichkeit der Übersetzung zwischen ihnen unterstellt, ginge sonst doch die Geschichte oder das Gemeinsame der Daseinsweise menschlicher Kollektiva verloren. Konfigurationen der Sinne und des Sinns, welcher die Gegenstände der Wirklichkeit ständig als veränderliche konstituiert, erfordern Über-Setzungen, sollen sie nicht in Aporie und Agonie erstarren. Konfigurationen der Sinne und des Sinns setzen das Individuum nicht voraus, sondern konstituieren und konstruieren es, sind aber selbst auch nicht voraussetzungslos, sondern abhängig von Über-Setzungen. Meine kreisenden Überlegungen sind also zu dieser merkwürdigen Differenz, diesem leeren Platz zurückgekehrt, um die Unterscheidung zwischen der Wirklichkeit und der medialen Wirklichkeit zu verstehen. Ich werde noch einmal neu an-setzen: †aC´C9`«ID¾0D±H>@6½IC?$DGVC:k0I6yI6@6IVIq 8G:°C 9>9nC6>CAA AD>0Id09>@¼60@6IVICIDy 8GnCDJIUL>C “

Diesen Spruch des Anaximander – nach Heidegger der älteste des abendländischen Denkens – übersetzt der junge Nietzsche mit den Worten: 9 Vgl. McLuhan und Fiore 1984 und McLuhan 1992 10 Benjamin 1991b, S. 478

17

EINLEITUNG: ÜBER-SETZUNGEN „Woher die Dinge ihre Entstehung haben, dahin müssen sie auch zu Grunde gehen, nach der Notwendigkeit; denn sie müssen Buße zahlen und für ihre Ungerechtigkeit gerichtet werden, gemäß der Ordnung der Zeit.“11

Beim Lesen des Spruchs des Anaximanders wird den Leser eine Ahnung überfallen, dass es hier um tiefe philosophische Probleme geht, die ich wieder einmal auf- und beiseite schiebe. Mir ging es um die Unterscheidung zwischen Wirklichkeit und medialer Wirklichkeit und die dabei aufgekommene Frage, was die Wirklichkeit der Medien sei. Mir geht es nicht um die Frage nach der Entstehung der Dinge, sondern darum, wie wir Heutigen verstehen können, was Anaximander darüber dachte. Es bleibt nichts anderes, als die überlieferten und übrig gebliebenen Zeichen der Vergangenheit aus einer Perspektive der Zukunft zu deuten, in der sie einen (neuen) Sinn erhalten; notwendig ist eine Über-Setzung. Dazu macht sich Martin Heidegger in dem zitierten Aufsatz grundlegende Gedanken: „Wir versuchen, den Spruch des Anaximander zu übersetzen. Dies verlangt, daß wir das griechisch Gesagte in unsere deutsche Sprache herübersetzen. Dazu ist nötig, daß unser Denken vor dem Übersetzen erst zu dem übersetzt, was griechisch gesagt ist. Das denkende Übersetzen zu dem, was in dem Spruch zu seiner Sprache kommt, ist der Sprung über einen Graben. Dieser besteht keineswegs nur als der chronologisch-historische Abstand von zwei und einhalb Jahrtausenden. Der Graben ist weiter und tiefer. Er ist vor allem deshalb so schwer zu überspringen, weil wir hart an seinem Rande stehen. Wir sind dem Graben so nahe, daß wir für den Absprung und die Weite keinen genügenden Anlauf nehmen können und darum leicht zu kurz springen, falls der Mangel an einer hinreichend festen Basis überhaupt einen Absprung erlaubt.“12

Für die Über-Setzung des Spruchs des Anaximanders muss das griechisch Gesagte in die deutsche Sprache herübergesetzt werden. Der Sinn verbleibt in der medialen Wirklichkeit, kann ihr nicht entrinnen, ist nur zugänglich in dem, was zur Sprache gekommen ist und in der Über-Setzung neu zur Sprache kommt. Was ich bisher den leeren Platz genannt habe, benennt Heidegger hier mit dem Wort Graben, der weit und tief ist und dem wir (zu) nahe stehen, um genügend Anlauf nehmen zu können, um ihn zu überspringen. Zur Wieder-Holung des Sinns muss immer wieder ein Punkt gefunden werden, von dem aus wir Anlauf nehmen, um den Graben (zu kurz) zu überspringen. Um zum Sinn zu kommen, muss ein Graben in Raum und Zeit überwunden werden. Sinn ist nie einfach gegenwärtig, sondern in dem, was „zu seiner Sprache kommt“, dem sich das „denkende Übersetzen“ im Sprung über einen Graben annähert. All11 Zitiert nach Heidegger 1994, S. 321 12 Heidegger 1994, S. 329

18

EINLEITUNG: ÜBER-SETZUNGEN

gemeiner ausgedrückt: Nur als mediale Wirklichkeit ist Wirklichkeit durch die mediale Unter-Scheidung verstehbar. Den tiefen und weiten Graben, den leeren Platz, diesen Riss im Sein, der als Unterscheidung mediale Wirklichkeit ermöglicht, werde ich mit einer Anleihe beim Philosophen Jacques Derrida Differänz nennen.13 Ich übernehme den Begriff nicht exakt von Derrida mit all seinen tiefen philosophischen Konsequenzen, sondern nur einige Konnotationen, was ich schon durch die Schreibweise, Differänz statt Différance, deutlich mache. Diesen Begriff führe ich in das begonnene Sprachspiel der ÜberSetzungen ein, um den paradoxen merkwürdigen leeren Platz, diesen Riss im Sein14 zu bezeichnen, der das Medium der Über-Setzungen bildet. Gemeint ist der Ursprung des Medialen als leerer Aufschub des Sinns, der sich erst nach der Über-Setzung bildet, aber doch Voraussetzung der Übersetzung ist. Ohne Differenz gibt es keine Über-Setzung. Aber für das Zustandekommen von Über-Setzungen reicht Differenz in einem sonst homogenen Raum nicht aus, sondern es bedarf einer merkwürdigen zeitlichen Struktur, einer aufschiebenden Differenz, die ihren Ursprung der Zukunft der Über-Setzung verdankt. Differänz entsteht erst durch die Über-Setzung; gleichzeitig setzt die Über-Setzung die Differänz voraus. Die Argumentationsfigur ist in einem Kreis gefangen. In einem ähnlichen Dilemma steckt der Begründer der modernen Sprachtheorie, wenn er sagt: „Die Sprache ist erforderlich, damit das Sprechen verständlich sei und alle seine Effekte produziere. Das Sprechen aber ist erforderlich, damit die Sprache sich bilde; historisch betrachtet, ist das Sprechen das zuerst gegebene Faktum.“15

Differänz meint allgemeiner jene Bewegung, durch die sich jeder Kode, jeder Verweisungszusammenhang als Gewebe von Differenzen konstituiert, produziert und selbst schafft. Sie steht am Ende und am Anfang der Über-Setzung. Würde ich von der Unterscheidung zwischen Differenz und Differänz sprechen, ließe sich der Unterschied nicht hören, den ich hier durch den abgewandelten ersten Buchstabe des Alphabets geschrieben habe. Verwiesen ist damit auf eine Bedeutungsausweitung: von der Übersetzung zwischen Sprachen zur Über-Setzung der gesprochenen Sprache in die geschriebene. Schrift gilt als nachträgliche Aufzeichnung des Gesprochenen, aber aus einer allgemeinen semiologischen Sicht geht sie der Sprache voraus.16 Sinn ist nicht einfach gegenwärtig in der erfüllten 13 14 15 16

Vgl. Derrida 1999a Vgl. Tholen 1998 Saussure 1967, S. 22 Vgl. Derrida 1983

19

EINLEITUNG: ÜBER-SETZUNGEN

Rede, sondern ergibt sich erst in seinem Aufschub durch Differänz und Über-Setzung. Die Über-Setzung von der Zeit der gesprochenen Rede in den Raum der Schrift ermöglicht Konfigurationen medialer Wirklichkeit. Über-Setzung von Sprache in Schrift gilt mir als eine Art Prototyp von Über-Setzungen. Auf die Sinne bezogen handelt es sich um eine Übersetzung des Auditiven ins Visuelle. Der Computer als Medium der ÜberSetzungen bildet weitere Transformationen der Sinne. Die unzähligen, in kaum noch überschaubarer Vielfalt vorliegenden Medientheorien leisten relativ wenig für die Ausarbeitung einer derartig angelegten Theorie des Computers als im gewissen Sinne universellen Mediums der Über-Setzungen. Ein Buch mit dem Titel Grundwissen Medien17, das auf dem Cover verspricht, erstmals das Grundwissen zum Problemfeld Medien aus unterschiedlichen Disziplinen zusammenzutragen, zeigt die Situation der Reflexion auf diesem Feld. Als Einzelmedien werden aufgezählt: Blatt/Flugschrift, Brief, Computer, Fernsehen, Film, Foto, Heft/Heftchen, Hörfunk, Neue Medien, Plakat, Schallplatte/CD, Telefon, Theater, Video, Zeitschrift, Zeitung. Der Computer erscheint als eines der Einzelmedien, unter denen als besonders merkwürdige Exemplare die Neuen Medien auffallen. Unter der Beschreibung des zum Einzelmedium erhobenen Computers heißt es hier: „Eine Theorie des Computers im Sinne einer Einzelmedientheorie liegt nicht vor und ist angesichts seines universalen Charakters wohl auch kaum erwartbar.“18 Und unter den Neuen Medien werden nur Medien aufgezählt, die erst durch den Computer möglich geworden sind. Der Auffassung des Computers als Medium liegt eine paradoxe Denkfigur zugrunde: Der Computer konfiguriert den Begriff des Mediums, das Medium vermittelt eine Kennzeichnung oder Sichtweise des Computers. Was ist das Gemeinsame an den hier aufgezählten Einzelmedien? Es fällt auf, dass es sich – mit Ausnahme des Theaters – ausschließlich um Wort- oder/und Bildmedien handelt. Audiovisuelle Zeichenträger scheinen sich besonders als technische Medien zu eignen, vielleicht weil sie sich leichter als andere materielle Träger von einer wirklichen Situation ablösen und in eine Zeichenwelt transformieren lassen, was noch genauer zu untersuchen ist. Worte und Bilder stehen jeweils für einen sehr unterschiedlichen Zeichentyp, Worte gelten als diskrete, Bilder als analoge Zeichen. Worte formen das Diskursive, Bilder ein Gedächtnis der Imagination; die zeitliche Rede ist flüchtig, das räumliche Bild gefrorenes künstliches Gedächtnis. Dass der Computer Wort und Bild in einem Medium integriert, ist nichts aufregend Neues. Das leisten auch Illustrierte und Filme – auf unterschiedliche Weise. Aufregend und neu ist 17 Faulstich 1994 18 Faulstich 1994, S. 147

20

EINLEITUNG: ÜBER-SETZUNGEN

das Wie der Integration, bei der die einfache Zuordnung des Wortes zum diskursiv Zeitlichen und des Bildes zum imaginär Räumlichen verloren geht. Computerbilder werden programmiert, das heißt Bilder und Wörter werden nicht nur in Beziehung gesetzt, sondern Bilder werden durch Wörter erzeugt. Solches Potenzial haben allerdings nicht die Wörter der gesprochenen Sprache. Programmierte, (vor-)geschriebene Bilder werden möglich durch eine Reihe von Über-Setzungen. Die Erfindung der Schrift hatte offenbart, dass die Sprache sich zusammensetzt aus bedeutungslosen Phonemen, deren Artikulation sprachlichen Sinn erzeugt. Erst die „Reinigung“ von diesem Sinn konnte Schriftzeichen für die Phoneme setzen, die phonetische Schrift in der Form des Alphabets hervorbringen. Die „Reinigung“ der Wörter vom Sinn, den ihnen die gesprochene Sprache verleiht, offenbart die Möglichkeit einer Artikulation von bedeutungslosen Wörtern, die sich nach beliebig gesetzten syntaktischen Regeln produzieren lassen. Leere Wörter lassen sich gemäß neu gesetzter Regeln generieren. Sie prozessieren nichts anderes als Platzverweise gemäß den Konstruktionen des Computers. Die Artikulation sinn-loser Platzverweise lässt sich in Beliebiges über-setzen, zum Beispiel zum imaginären Bild. Damit ist die wichtigste Differenz zwischen analogem und digitalem Bild benannt. Letzteres verdankt sich immer einer expliziten Über-Setzung mit Hilfe einer generativen Grammatik sinn-loser Symbole. Weil Platzverweise im Computer zeitlich prozessiert werden, haben digitale Bilder außer ihrer räumlichen Darstellung immer eine zeitliche Dimension. Dies gilt zwar auch schon für analogen Bilder. Aber deren Bildliches lässt sich nur direkt durch Montage (beim Film) oder etwa durch das Ändern von Frequenzen (beim elektronischen Bildschirm), nicht aber in der Weise symbolisch manipulieren wie beim digitalen Bild. Nur das digitale Bild realisiert eine reine Zeitlichkeit des „als ob“. Das Medium Computer generiert bildliche Wahrnehmungswelten aus der Artikulation des Symbolischen. Das Potenzial des digitalen Bildes liegt in der programmierbaren Über-Setzung zwischen dem Symbolischen und dem bildlich Wahrnehmbaren. Damit überschreitet das Medium Computer die Jahrhunderte sicher erscheinende Grenzziehung zwischen der sich als ikonoklastisch verstehenden diskursiven Tradition der (Geistes-)Wissenschaft und der darstellenden Kunst, welche durch Bilder neue Sichtbarkeiten erzeugt. Diese Tatsache spiegelt sich in der Selbstverständnisdiskussion der Informatik, die ständig schwankt in der Frage, ob sie eine Wissenschaft oder eine (Ingenieurs-)Kunst sei. Design wird allmählich zum festen Bestandteil der Disziplin der Informatik, die sich traditionell allein mit dem Studium

21

EINLEITUNG: ÜBER-SETZUNGEN

und der Konstruktion berechenbarer Funktionen befasst hatte, also mit Symbolen in einer formalen Sprache. Der Ertrag des Computers als Medium ist nicht die Be-, sondern die Über-Setzung eines leeren Platzes. Geleistet wird eine Überschreitung zwischen dem nicht-wahrnehmbar Symbolischen des Kodes und einer induzierten den Sinnen zugänglichen Darstellung als maschinenhafte Semiose. Diese Überschreitung wird möglich durch die neuartige Art von Schrift: der Notation des Computers als Medium. Diese Theorie der Notation prozessierender Übersetzungen entwickle ich als die Genese des Mediums Computer: Nach der Darstellung, wie aus dem Rechner erst langsam das Medium herauswächst, gebe ich eine vorläufige Bestimmung des Computers als Medium der Übersetzungen. Die Polysemie des Wortes Übersetzung liefert einen Hinweis auf die Vielfalt der zu analysierenden Relationen. Im Weiteren wird das Medium Computer als verallgemeinerte Schrift bestimmt, die ich in erster Näherung als Notation beschreibe. Dabei stütze ich mich zunächst auf Nelson Goodman, übernehme dessen Begriff der Notation aber nicht, sondern wandle ihn entscheidend um. Aufbauend auf Walter Benjamins Sprachund Übersetzungstheorie wird ein Chiasmus zwischen Übersetzung, Schrift, Sprache und Medium entfaltet. Im sorgfältigen Durchgang dieses Chiasmus wird erst präziser klar, in welchem Sinne die gegebene Bestimmung der Notation als prozessierende Relation zwischen Kode und Notat als verallgemeinerte Schrift des Mediums Computer anzusehen ist. Unter der Überschrift „Medium: Mittler und Mittleres“ analysiere ich allgemeiner, welche Sinne in Medien besonders angesprochen sind und ob sich bestimmte Stoffe auszeichnen lassen, die sich besonders als Träger für die Übertragung medialer Bedeutung eignen. Zunächst erscheint solches Fragen zu weit auszuholen und nicht mit der bis dahin dargestellten Theorie des Computers als Medium verbunden zu sein. Die hier entwickelten Überlegungen geben aber hilfreiche Kriterien an die Hand, um die besonderen Formen des Computers als Medium im weiteren Verlauf der Arbeit zu analysieren. Den Abschluss dieses Kapitels bildet eine Analyse der Mensch-Computer-Interaktion: Wie lässt sich mit einer verallgemeinerten Schrift interagieren? Zur Beantwortung dieser Frage ist die besondere Bedeutung der Trennung von Kode und Darstellung im Medium Computer zu reflektierten. Mit dem zunächst merkwürdig erscheinenden Begriff eines Technisch-Unbewussten, der in Analogie nach Walter Benjamins Terminus des Optisch-Unbewussten gebildet ist, wird die anthropomorphisierende Sprechweise der Interaktion mit dem Computer verständlich.

22

EINLEITUNG: ÜBER-SETZUNGEN

Aus der Einsicht, dass sich nicht definieren lässt, was ein Medium ist, sondern nur im Nachvollzug seines Werdens zu verstehen ist, beleuchtet das folgende Kapitel die Genese der wichtigsten Medien, in denen wir uns ausdrücken. Dargestellt wird das geschichtliche Werden von Sprache, Schrift und Bild und die fortschreitende Technisierung der Sprachund Bildmedien. Ich untersuche die geschichtlichen Voraussetzungen und Umbrüche, die den Computer als Medium erst möglich machen. Das darf man nicht mit Technikhistorie verwechseln. Anschließend widmet ich mich der Analyse der neuen Verknüpfung von Sprachlichem und Bildlichkeit in der Notation des Mediums Computer. Dafür ist die Frage nach dem Bild noch einmal schärfer zu stellen. Die in letzter Zeit viel diskutierten Bildwenden – pictorial turn, iconic turn, imagic turn – behandle ich im Licht einer tiefergehenden Bildwende. Ich folge Benjamins Diktum, dass sich in geschichtlichen Zeiträumen die Art unserer Sinneswahrnehmung mit den Medien, in denen wir wahrnehmen, ändert.19 Eine solche Veränderung versuche ich für das 19. und 20. Jahrhundert mit dem Übergang vom perspektivischen Sehen zum Aspekt-Sehen zu beschreiben. Dabei leiten mich Erwin Panofskys Theorie der Perspektive als symbolische Form20 und Ludwig Wittgensteins kategorische Unterscheidung von „Sehen“ und „Sehen als“21. Dem Aspekt-Sehen korrespondiert die neue Bildlichkeit der Notation des Mediums Computer. Diese wird in Beziehung gesetzt zu Untersuchungen über das Verhältnis von Wahrnehmung und Denken, Sprache und Bild in avancierten zeitgenössischen Forschungen. Zu erklären ist die Aussage, dass und wie mit dem Auge gedacht wird. Schließlich arbeite ich die Auffassung von der Notation für Übersetzungen als Theorie des Computer als Medium auf ausgewählten Feldern exemplarisch aus: Internet, Hypertext und Hypermedia, Programmiersprachen, Simulation, Mixed Reality und Ubiquitous Computing. Im Fazit der Arbeit gilt es, die Transformationen noch einmal zu benennen, die der Computer als Medium hervorbringt: Bibliotheken wandeln sich in ein interaktives, in Echtzeit zugängliches weltweites Archiv. Lesen wird zum „Sehen als“. Die Bildlichkeit des Mediums Computer schreibt die Sicht der Natur vor. Das Leitmedium der Schrift, das unsere Kultur geprägt hat, wird abgelöst durch eine verallgemeinerte Schrift, das Medium Computer als Notation für Übersetzungen.

19 Benjamin 1991b, S. 478 20 Panofsky 1992 21 Wittgenstein 1984b, S. 518ff

23

DIFFERÄNZ: NOTATION PROZESSIERENDER ÜBERSETZUNGEN „Verstehen heißt übersetzen, etwas (Strukturiertes) als etwas (Strukturiertes) erfassen.“1 Etwas zu verstehen, setzt zweierlei voraus: Erstens dieses Etwas ist in einer Struktur – das heißt in geordneten Differenzen – gegeben. Zweitens dieses Etwas ist als etwas (Anderes) schon gesetzt. Erst das Medium, der leere Platz des Mittleren und der Mittler, ermöglicht die Reflexion der Wirklichkeit. Direkt ist diese unseren Sinnen und unserem Intellekt nicht zugänglich. Jegliche bewusste Wahrnehmung von Welt erfordert ihr gegenüber eine Setzung von Differenz. Erst als mediale Wirklichkeit kann Wirklichkeit ins Bewusstsein treten. Differenz meint hier nicht die Unterscheidung zwischen zwei Dingen, sondern die Differenz als Unterscheidung, die den Unterschied zwischen Wirklichkeit und medialer Wirklichkeit setzt. Einen solchen Unterschied setzen Medien, die Wirklichkeit vermitteln und mediale Wirklichkeit darstellen. In einem weiten Sinne geht es um das Verhältnis der (Re-)Präsentation. Seit der Moderne wird dieses in der Logik von PortRoyal so formuliert: „Wenn man aber einen gewissen Gegenstand nur als Stellvertreter eines anderen ansieht, so ist die Idee, die man von ihm hat, die Idee eines Zeichens, und der erste Gegenstand wird ‚Zeichen‘ genannt. In dieser Weise betrachtet man gewöhnlich die Landkarten und die Bildwerke. Das Zeichen enthält genaugenommen in sich zwei Ideen, die des Dinges das darstellt (représente), und die des dargestellten Dinges; seine Natur besteht darin, die zweite durch die erste anzuregen.“2

Eine solche Sicht setzt voraus, dass „das Zeichen eine gespaltene und reduplizierte Repräsentation ist“3. Damit sich zwischen den Vorstellungen die Verbindung der Repräsentation ergeben kann, muss sich medial das Repräsentationsverhältnis selbst mitrepräsentieren. Genau dies ist ein hervorragendes Merkmal des Zeichenbegriffs von Charles Sanders Peirce: Ein Zeichen, Relation von Repräsentamen, Objekt und Interpretant, wird zum Zeichen im Prozess der „Semiose als ‚Folge sukzessiver Interpretanten‘ ad infinitum“4. Der Interpretant als Bestandteil des

1 2 3

4

Jakobson 1988, S. 481 Arnauld 1972, S. 41 Foucault 1974, S. 99 sieht darin die Episteme der Moderne (der Klassik in seiner Terminologie) begründet in Absetzung von der „Ähnlichkeit“, die bis dahin „im Denken (savoir) der abendländischen eine tragende Rolle gespielt“ (S. 46) habe. Nöth 2000, S. 64

25

DIFFERÄNZ: NOTATION PROZESSIERENDER ÜBERSETZUNGEN

Zeichens ist keine Person, sondern selbst wieder ein Zeichen. Die genetische Verwurzelung des Zeichens verweist wieder auf Zeichen. „Symbols grow. They come into being by development out of other signs, particularly from icons, or from mixed signs partaking of the nature of icons and symbols. We think only in signs. These mental signs are of mixed nature; the symbol parts of them are called concepts. If a man makes a new symbol, it is by thoughts involving concepts. So ist is only out of symbols that a new symbol can grow. Omne symbolum de symbolo.”5

Wenn das Zeichen immer schon Zeichen eines Zeichens ist, dann ist das Zeichen ursprünglich nicht als Sprache, sondern als Schrift zu begreifen.6 In Auseinandersetzung mit dem Begründer der allgemeinen Sprachtheorie Ferdinand Saussure argumentiert Jacques Derrida: „Die Repräsentation verflicht sich mit dem, was sie repräsentiert; dies geht so weit, daß man spricht wie man schreibt. […] In diesem Spiel der Repräsentation wird der Ursprungspunkt ungreifbar.“7

Das Medium Schrift als Zeichen eines Zeichens, oder in Saussure’scher Terminologie Signifikant des Signifikanten (der Sprache), beschreibt die Bewegung der Sprache in ihrem Ursprung.8 Wenn das Zeichen aber immer in der Zeichenwelt verbleibt, ist solcher Ursprung paradox, quasi ursprungslos. Solches Fragen nach der Urschrift, der „archi-écriture“9 führt Derrida zur Konstruktion eines Kunstwortes, différance, indem er das französische Wort für Differenz, différence, mit dem ersten Buchstaben des Alphabets verändert.10 Derrida spielt hier mit mystischen Bedeutung des Aleph im hebräischen Alphabet und den abgeleiteten kabbalistischen Spekulationen. Habermas bemerkt dazu: „Das Aleph des Rabbi Mendel ist dem tonlosen, nur schriftlich diskriminierten ‚a‘ der Différance darin verwandt, daß in der Unbestimmtheit dieses gebrechlichen und vieldeutigen Zeichens die ganze Fülle der Verheißung konzentriert ist.“11

Derrida selbst verweist seinen „graphischen Eingriff“ in weite Theoriezusammenhänge.12 Das A ist ein „schweigendes Denkmal“ von der Gestalt einer Pyramide, spielt an auf Hegels Vergleich der vorbewussten Aufb(ew)ahrung der Bedeutung mit einer ägyptischen Pyramide. Hegel 5

Charles Sanders Peirce, Logic as Semiotics: The Theory of Signs, zitiert nach Derrida 1983, S. 83f 6 Derrida 1983, S. 17ff und S. 78 7 Derrida 1983, S. 65 8 Vgl. Derrida 1983, S. 17 9 Zu diesem Begriff von Derrida vgl. Thiel 1997 10 Der Unterschied ist nur in der Schrift visuell wahrzunehmen, in der Aussprache dagegen nicht zu hören. Vgl. Derrida 1999a, S. 31 11 Habermas 1985, S. 216 12 Vgl. Derrida 1999bS. 32ff und dazu Kimmerle 1988, S. 73ff

26

DIFFERÄNZ: NOTATION PROZESSIERENDER ÜBERSETZUNGEN

gebraucht die Metapher für das Geschehen der Sprachwerdung. Im „nächtlichen Schacht“ werden die Bilder und Vorstellungen aufbewahrt, sowie in der Pyramide, in welcher die Anschauung als Zeichen leblos geworden ist. Das Kunstwort différance bezieht sich vor allem auf den Doppelsinn von différer (aufschieben, verzeitlichen und nicht identisch sein, anders sein), umschließt aber auch weitere Polysemien, wie differend (Krieg, Widerstreit).13 Die französische Endung ‚ance‘ drückt keine direkte Wirkung oder eine gerichtete Aktivität aus, sondern eher Resonanz, die zwischen Aktiv und Passiv unentschieden ist und eine „mediale Form ankündigt oder in Erinnerung ruft, die keine Operation ist, die weder als Erleiden noch als Tätigkeit eines Subjektes, bezogen auf ein Objekt, weder von einem Handelnden aus noch von einem Leidenden aus […] sich denken lässt“14. Différance ist der Ursprung, der kein Ursprung sein kann, denn das Differieren geht nicht den Differenzen voraus. Différance meint sowohl Verzeitlichung als auch Verräumlichung.15 Einen derartig weiten philosophischen Begriff kann diese Arbeit nicht tragen.16 Ich lasse mich von ihm inspirieren, soweit er sich auf das Problem der Zeichen, der Sprache und der Schrift bezieht; ich übernehme von ihm, dass er der Differenz den Doppelsinn von différer (aufschieben, verzeitlichen und nicht identisch sein, anders sein) hinzufügt; ich füge ihn in mein Sprachspiel der Übersetzungen ein, indem ich ihn meinerseits im Deutschen „falsch“ schreibe, als Differänz, ihn auf diese Weise von différance, aber auch von Differenz absetzend. Im Übersetzen ist ein Übersetzungszusammenhang vorausgesetzt und (mit-)konstituiert. Raum ist als Verweisungs- und Übersetzungszusammenhang nicht statisch gefüllt, sondern ein dynamisches Geschehen des Verweisens und Übersetzens, in dem ein Medium als leerer Platz des Zwischen wirkt. Das Sich-von-sich-Unterscheiden verweist auf eine Verschiebung als ständigen Aufschub. Die Bedeutung des Mediums ist niemals präsent, sondern stets in einem Anderen. Anwesend ist es abwesend. Als Beispiel einer solchen Übersetzung kann die Schrift gelten. Die (phonetische) Schrift ist sicherlich bis in die jüngere Vergangenheit das paradigmatische technische Medium für die Kommunikations- und Wissenskultur westlicher Gesellschaften. Auch die neuen Medien des 13 Vgl. auch Derrida 1995a 14 Derrida 1999b, S. 37 15 Vgl. Derrida 1999b, S. 37f und Derrida 1983. Die Beziehungen zur ontischontologischen Differenz von Heidegger und zu Hegels Systementwurf zur Logik, Metaphysik, Naturphilosophie, die Derrida auch diskutiert würden hier zu weit führen. Außerdem wären diese frühen Schriften auch im Lichte der Entwicklung des Denkens von Derrida neu zu reflektieren. Vgl. Gondek und Waldendfels 1997 16 Ob er überhaupt erträglich ist, soll hier nicht gefragt werden.

27

DIFFERÄNZ: NOTATION PROZESSIERENDER ÜBERSETZUNGEN

19. Jahrhunderts benennen sich nach ihr als Photographie, Phonographie, Kinomatographie oder Telegraphie. Schrift übersetzt auditive Zeichen in visuelle Notationen: von der flüchtigen Zeit der gesprochenen in den beständigen Raum der geschriebenen Sprache. Der Aufschub der Kommunikation bringt das künstliche Gedächtnis eines technischen Archivs sichtbarer Texte hervor. Um wieder in bedeutungsvolle Zeichen übersetzt zu werden, müssen Menschen die übersetzten Notationen lesen. Aus sich heraus sind sie völlig passiv. Das Medium Computer erzeugt dagegen dynamisch prozessierende Notationen. Ein Spiel von Differenzen offenbart sich im Medium selbst, in Gang gesetzt durch dynamische Notationen. Die Trennung von Speicher- und Darstellungsfunktion ermöglicht solche Dynamik. Auf dem Computer prozessieren Notationen in einer raum-zeitlichen Relation. Die Maschine prozessiert selbsttätig formal berechenbare Übersetzungen zwischen Kode und Darstellung. Solche Notationen werden nicht wie ein Buch gelesen, sondern Menschen interagieren mit ihnen. Die Metaphorik einer derartigen Mensch-Maschine-Interaktion ist zu erklären.

28

Computer: Medium der Übersetzung

„Auch das Wort ‚Medium‘ ist ein interessantes Wort und ist nicht ganz so einfach zu verstehen, wie man im ersten Augenblick glaubt.“1

Der Computer kommt als programmierbarer Rechenautomat zur Welt. Ohne dass es seinen Erfindern bewusst ist, wird damit eine Struktur gebildet, welche die informatio2 in eine Mensch-Maschine-Kommunikation transformiert. In ihr drückt sich eine neue Beziehung der Menschen untereinander und zur Welt aus, die als soziales Band des An0(hypotyposis) für die rhetorische Figur:, gebildet aus uED, unten, unterhalb unter, und IsEDH>0 der geformten, geprägten und gestalteten Figur, bedeutet ursprünglich Entwurf oder Umriss. Aristoteles bezeichnet mit dem Verb tEDIsEDJC in seiner Metaphysik6 das, was das Wesen formt, gestaltet oder prägt. Es bestimmt die Gestaltetheit des Wesens, das Wesensgepräge des Wesens selbst, was etwas anderes ist, als das jeweils besondere Wesen. Kant verwendet diesen Begriff in seinem berühmten § 59 der Kritik der Urteilskraft. Die Hypotypose, als rhetorische Figur mit sinnlich wahrnehmbarem Charakter, hat bei ihm alle Merkmale einer bildlichen Darstellung. Sie verwandelt eine Erzählung oder Beschreibung in ein Bild, gruppiert das Mannigfaltige zu einem zusammenhängenden strukturierten Ganzen. „Alle Hypotypose (Darstellung, subiectio sub adspectum) als Versinnlichung ist zwiefach: entweder schematisch, da einem Begriffe, den der Verstand faßt, die korrespondierende Anschauung gegeben wird; oder symbolisch, da einem Begriffe, den nur die Vernunft denken und dem keine sinnliche Anschauung angemessen sein kann, eine solche unterlegt wird, mit welcher das Verfahren der Urteilskraft demjenigen, was sie im Schematisieren beobachtet, bloß analogisch ist, d.i. mit ihm bloß der Regel dieses Verfahrens, nicht der Anschauung selbst, mithin bloß der Form der Reflexion, nicht dem Inhalte nach übereinkommt.“7

Kant unterscheidet also zwei Arten von Hypotypose. Die eine verfährt schematisch und liefert durch a priori korrespondierende Anschauungen die Schemata, direkte oder demonstrative Darstellungen vom Verstand gefassten Begriffen. Die zweite liefert Symbole, bei denen die Anschauung selbst zwar für die Darstellung nicht ins Gewicht fällt, die aber auch gemäß den beim Schematisieren angewandten Regeln erzeugt werden. Sie ist analogisch. Eine Erkenntnis per Analogie bedeutet nach Kant nicht die unvollkommene Ähnlichkeit zweier Dinge, sondern eine voll5 6 7

Husserl 1992, S. 12 Aristoteles 1995, Metaphysik 1028b Kant 1990, S. 211

47

DIFFERÄNZ: NOTATION PROZESSIERENDER ÜBERSETZUNGEN

kommene Ähnlichkeit zweier Verhältnisse zwischen ganz unähnlichen Dingen: Eine Handmühle kann einen despotischen Staat darstellen, obwohl zwischen beiden nicht die geringste Ähnlichkeit besteht. Die analogische Darstellung bezieht den Begriff (despotischer Staat) auf den Gegenstand einer sinnlichen Anschauung (die Handmühle), und dann wendet sie die Regel der Reflexion über jene Anschauung (die bei der Handmühle implizierte Art von Kausalität) auf einen ganz anderen Gegenstand an, von dem der erstere nur das Symbol ist. „Schemata sind direkte Darstellungen der Kategorien des Verstandes in den (reinen) Anschauungsformen Raum und Zeit; sie sind gewissermaßen reine Bilder, welche die Vermittlung von Sinnesempfindungen (Bildern) und Begriffen ermöglichen. Symbole sind, da ihr Inhalt keine Rolle spielt, indirekte Darstellungen von Vernunftbegriffen; sie sind Gestalten oder Figuren, die aus der Übertragung einer Reflexionsform von einer Anschauung auf einen Begriff resultieren, der infolge dieser Übertragung seine Leere verliert und bedeutungsvoll wird.“8

Bei Kant wird der rhetorische Begriff der Hypotypose zu einem philosophischen. Die Hypotypose ist dann im eigentlichen Sinne keine rhetorische Figur mehr. Während sie die elementare Beziehung zwischen Anschauung und Begriffen als eine Struktur der Realität, des Lebens und der Selbstaffektion des Gemüts ausdrückt, bleibt sie selbst nicht unverändert. Kant nennt ausschließlich die Darstellung reiner Begriffe des Verstandes und der Vernunft durch apriorische Anschauungen Hypotypose, was nach Gasché am besten als eine transzendentale Darstellung zu bezeichnen ist.9 Unumstößlich gilt Kant das a priori der Kategorien der Vernunft und der reinen Anschauung, des Raums und der Zeit.10 Es geht um transzendentale Schemata und Symbole, um die Unterscheidung von Gestalten und ihrer Gestalthaftigkeit, von Formen und ihrer Geformtheit. Es ist die Einbildungskraft, der sich die lebhafte Darstellung verdankt, die auf der transzendentalen Ebene von Schema und Symbol die disparaten geistigen Bereiche von Sinnlichkeit, Verstand und Vernunft synthetisiert. „‚Hypotypose‘ bezeichnet das Gestaltetsein jeder besonderen und bestimmten Darstellung, die Dargestelltheit aller Darstellungen.“11

Die Notation als prozessierende Relation zwischen dem ProgrammKode und einer durch ihn induzierten Darstellung bildet ein technisches

8 Gasché 1994, S. 167 9 Gasché 1994, S. 163 10 Vgl. auch Sohn-Rethel 1989, der eine materialistische Neuinterpretation der Kantschen Kategorien a priori unternimmt. 11 Gasché 1994, S. 168

48

NOTATION: ZEICHEN UND WAHRNEHMUNG

Analogon12 zum transzendentalen Schema bei Kant als Vorstellung, die zwischen dem reinen Verstandesbegriff (Kategorien) auf der einen Seite und dem sinnlich Gegebenen auf der anderen Seite vermittelt, indem sie die Anwendung des Verstandesbegriffes auf die Erscheinungen ermöglicht. Bei der Notation finden sich die reinen Verstandesbegriffe sehr reduziert als mathematische Logik des Programm-Kodes. Dieser ist wie die reinen Verstandesbegriffe den menschlichen Sinnen nicht zugänglich, jedoch in einem völlig anderen Sinne. Während die reinen Verstandesbegriffe, die a priori Kategorien der Vernunft oder reinen Anschauung von Raum und Zeit prinzipiell unsinnlich sind, ist der Programm-Kode ein Zeichen. Als solches hat er einen stofflichen Anteil und schwebt nicht frei in einer immateriellen Welt des Intelligiblen. Seine Artikulation im Prozessieren des numerischen Kodes produziert Sinn. Im Werden des Computers als Medium artikuliert sich ein zweiter Ausdruck in einer Art technischer Hypotypose: das sinnlich wahrnehmbare Interface. Auf diese Weise präsentieren computergenerierte Übersetzungen einen wahrnehmbaren Zugang sowohl zu sich selbst13 als auch zur Sache, um die es im Medium gerade geht14. Anders als in der rhetorischen Figur der Hypotypose, welche innere geistige Bilder hervorbringt, muss die technische Hypotypose äußere technische Bilder produzieren. Technische tEDIsEDH>0(hypotyposis) wird6lH$=H>0(aisthesis), Rhetorik wird Ästhetik.15 Solch technische Hypotypose bedeutet mehr als die Veranschaulichung von Sachverhalten, wie sie ein Bild in einem Text bietet. Sie macht auch das Verhältnis zwischen Entitäten der Wirklichkeit prozessierend wahrnehmbar. Die Notation des Mediums bestimmt mit, was und wie gedacht wird. Pointiert ausgedrückt: „Notationen (re-)konstruieren Welten.“16 Sie können Einsicht und Verständnis befördern oder verschleiern.17 Zum Beispiel ist die Multiplikation im dezimalen Stellensystem leicht auf eine Folge von Verschiebungen und Additionen zurückzuführen, während es außerordentlich schwierig ist, mit römischen Ziffern zu multiplizieren.18 Schrift notiert gesprochene Sprache. Erst diese externalisierte Kunstsprache ist leicht im Raum transportierbar, erzeugt Texte, die unverändert immer wieder lesbar und objektiv überprüfbar sind. 12 Wie weit die Ähnlichkeit der beiden Verhältnisse reicht, soll hier nicht problematisiert werden, sondern wird sich hoffentlich im Gang der weiteren Argumentation klären. 13 Meist in Form der Graphischen Benutzungsoberflächen. 14 Zum Beispiel in Form der graphischen Oberfläche eines Anwendungsprogramms. 15 Ästhetik als aisthesis geht es mehr um Wahrnehmung als um Schönheit. 16 Coy 1994b, S. 69 17 Vgl. Iverson 1980, Bertin 1974 18 Vgl. Bauer 2004

49

DIFFERÄNZ: NOTATION PROZESSIERENDER ÜBERSETZUNGEN

Informatik rückt Notationen ins Zentrum. Sie kodiert Information. Um irgendeine Nachricht zu kodieren, reicht die Unterscheidung zweier Zustände aus. So lautet ein Ergebnis der Informationstheorie. Die Unterscheidung generiert Strukturen. Künstliche formale Sprachen erzeugen Kode. Der Computer prozessiert diesen ausschließlich gemäß internen syntaktischen Strukturen. Auf die Bedeutung im geisteswissenschaftlichen Sinne kommt es nicht an. Deshalb kann die Maschine formale Sprache ausführen. Der Versuch Chomskys eine generative Grammatik für natürliche Sprache zu entwickeln, ist grandios gescheitert.19 Denn auch wenn dieser Versuch sein Ziel verfehlt, bereichert er die Linguistik doch wesentlich im Verständnis grammatischer Strukturen. Chomskys Untersuchungen bilden eine Grundlage der Theorie formaler Sprachen. Bestimmte Notationen und ihre syntaktische Struktur sind die Domäne der theoretischen Informatik. Sie hat formale Sprachen, algebraische Spezifikationen, Graphtransformationsgrammatiken, Kalkülund Komplexitätstheorien als spezielle Theorien weit entwickelt. Ihr Feld ist die Erforschung formaler Übersetzungen, die Transformation des Kodes einer formalen Notation in eine andere formale Notation. Diese Arbeit hat nicht den Anspruch, zu diesem Forschungsprogramm einen Beitrag zu leisten. Gesucht ist ein Begriff der Notation, in dem sich Probleme der Mensch-Computer-Interaktion ausdrücken lassen. Mensch-Computer-Interaktionen finden immer in einem weltlichen Kontext statt. In der Informatik wird üblicherweise von Umgebungen gesprochen. Der dafür nötige erweiterte Notationsbegriff muss zwar in einer engen Relation zu formalen berechenbaren Notationen stehen, kann aber in ihnen nicht aufgehen. Notationen in einem solch verallgemeinerten Sinne überschreiten die Ebene des Formalen und Berechenbaren. Sie formen eine Mensch-Computer-Beziehung des spielerischen Umgangs mit wahrnehmbaren Repräsentationen: auf der Maschine prozessierte Notationen. Dieses Spiel verknüpft die Sinne und den Sinn mit Kalkülen, verbleibt jedoch nicht in ihnen. Gebräuchlich ist der Begriff der Notation in der Musik. Noten und vormals Neumen20 sind Notationen, welche die Art und Weise der Aufführung abendländischer Musik (re-)konstruieren. Musikstücke sind vielstimmige Werke. Ihre Notation muss Melodien, Rhythmus, Orchestrierung und weitere musikalische Charakteristika festlegen. Es ist eine schwierige Frage, in welcher Relation die Notation und die Aufführung 19 Chomsky 1973,Chomsky 1981. Mit Chomsky scheitert in gleicher Weise das Programm der Künstlichen Intelligenz, das sich trotz des Scheiterns am hybriden Gesamtziel als fruchtbare Disziplin in der Informatik verankert. 20 vgl. Jaschinski 2001

50

NOTATION: ZEICHEN UND WAHRNEHMUNG

eines Werkes stehen. Nelson Goodman beansprucht eine allgemeine Theorie der Notationen vorzulegen, die er in einer der Musiktheorie entnommenen Sprache ausdrückt.21 Als theoretische Anforderungen formuliert er: „Erstens muss eine Partitur ein Werk definieren, indem sie die Aufführungen, die zu dem Werk gehören, von denen abgrenzt, die nicht dazu gehören.“22

Zweitens muss „die Partitur selbst (als eine Klasse von Kopien oder Inskriptionen, die so das Werk definieren) […] eindeutig festgelegt sein, wenn eine Aufführung und das notationelle System gegeben sind.“23

Diese zweifache Anforderung an Partituren und notationelle Systeme, in denen Partituren geschrieben sind, lassen sich nur in bestimmten syntaktischen Strukturen erfüllen. Jedes Symbolschema, das einem notationellen System zugrunde liegt, besteht nach Goodman aus Charakteren und deren Kombinationsweisen. Was unsere Sinne an Bildern, Äußerungen, Gesten und Tönen wahrnehmen, nennt er Marken, denen ein Charakter entspricht. Um als Notationssystem zu gelten, müssen sie folgenden Bedingungen genügen: Syntaktische Disjunktheit oder Charakter-Indifferenz: „Zwei Marken sind charakter-indifferent, wenn jede eine Inskription ist (d.h. zu irgendeinem Charakter gehört) und keine von beiden zu einem Charakter gehört, zu dem die andere nicht gehört.“24 Charaktere sind also Äquivalenzklassen von Marken und müssen daher gegenseitig disjunkt sein. Endliche syntaktische Differenziertheit: „Für je zwei Charaktere K und K’ und jede Marke m, die nicht tatsächlich zu beiden gehört, ist die Bestimmung, dass entweder m nicht zu K gehört oder m nicht zu K’ gehört, theoretisch möglich.“25 Marken sollen also eine derartige Gestalt haben, dass zumindest theoretisch immer feststellbar ist, zu welcher Äquivalenzklasse sie gehören. Semantische Eindeutigkeit: „Das erste semantische Erfordernis für Notationssysteme besteht darin, dass sie eindeutig sein müssen; denn offensichtlich kann der grundlegenden Zielsetzung eines Notationssystems nur dann entsprochen werden, wenn die Erfüllungsbeziehung invariant ist.“26 Diese schwer erfüllbare semantische Beziehung ist nötig, wenn die Identität des Werkes in jeder Folge von Schritten von der Auf21 22 23 24 25 26

Goodman 1995, S. 125ff Goodman 1995, S. 126 Goodman 1995, S. 127 Goodman 1995, S. 129 Goodman 1995, S. 132 Goodman 1995, S. 144

51

DIFFERÄNZ: NOTATION PROZESSIERENDER ÜBERSETZUNGEN

führung zur sie enthaltenden Partitur und von der Partitur zur diese erfüllenden Aufführung bewahrt werden soll. Semantische Disjunktheit: „In einem Notationssystem müssen die Erfüllungsklassen disjunkt sein.“27 Das erfordert, „daß keine zwei Charaktere irgendeinen Erfüllungsgegenstand gemeinsam haben dürfen.“28 In der Linguistik bedeutet diese Forderung das Verbot der Homophonie. Endliche semantische Differenziertheit: „Für jeweils zwei Charaktere K und K’, deren Erfüllungsklassen nicht identisch sein dürfen, und jedes Objekt h, das nicht beide erfüllt, muss die Festlegung, entweder dass h K nicht erfüllt oder dass h K’ nicht erfüllt, theoretisch möglich sein.“29 Diese fünf Bedingungen sind unabhängig voneinander, keine lässt sich aus irgendeiner Kombination der anderen ableiten. Jedes Notationsschema, das alle fünf Bedingungen erfüllt, nennt Goodman ein Notationssystem. Ziel ist, die Eindeutigkeit des notierten Werks sicherzustellen. Wie hilfreich diese Definition bei der Erstellung von speziellen Notationen im Einzelfall ist, sei dahingestellt. Viele Musiker oder Musiktheoretiker werden sicher bestreiten, dass eine Partitur eine Aufführung festlegen kann. Aber andererseits ist es wesentlich eine Leistung der Notation von Partituren30, die uns musikalische Werke der Vergangenheit überliefert. Notationen prägen die Sinne und den Sinn, die Sinne prägen Marken. Wir nehmen Marken wahr und lesen Charaktere. Marken bestimmen die Konnotationen eines Werks, Charaktere abstrahieren davon. Goodmans Unterscheidung von Partitur und Aufführung, die sich eindeutig gegenseitig bedingen, entspricht beim von mir intendierten Begriff der Notation die Trennung von Kode und Darstellung im Medium Computer. Sie legen sich gegenseitig eindeutig fest. Der Kode entspricht der Notation als Partitur bei Goodman, die Darstellung der Aufführung. Anders als die Partitur leistet der auf der Maschine prozessierende Kode auch die „Aufführung“ weitgehend selbsttätig. Sie ist technisch exakt und berechenbar festgelegt worden. Im Wesentlichen erfüllt der Kode mit seiner Syntaktik und operationalen Semantik alle fünf Bedingungen, die Goodman für Notationen fordert.31 27 28 29 30

Goodman 1995, S. 146 Goodman 1995, S. 147 Goodman 1995, S. 148 Neben der Tradition des Baus von Musikinstrumenten und der Tradition musikalischer Ausbildung, etc. 31 Eine detaillierte Ausführung und die zuhauf zu diskutierenden Einzelfälle seien hier nicht erörtert, sondern in die theoretische Informatik verwiesen, vgl. auch Gramelsberger 2000, die für numerische Simulationen eine detaillierte Analyse unternimmt; Gramelsbergers Erweiterung der von Goodmans Notationstheorie hält sich eng an deren Unterscheidungen und Termini.

52

NOTATION: ZEICHEN UND WAHRNEHMUNG

Die Definition der Notation des Mediums Computer muss dergestalt sein, dass sie Partitur und Aufführung umfasst. Die Analogie, das vom Medium Computer Dargestellte als Aufführung anzusehen, entspricht in etwa Brenda Laurels Metapher vom Computer als Theater. Jedoch lässt sich die Mensch-Computer-Interaktion schwerlich als Werk auffassen, um dessen Identität es Goodman geht. Das Prozessieren des technischen Mediums der Übersetzung lässt sich nicht abschließen. Einmal in Gang gesetzt, realisiert der kalkulierte und kalkulierende Mechanismus immerfort neue Übersetzungen, transformiert das Mediale in ein Netz von multimodalen Strukturen. Notation wird prozessierende Übersetzung. Ich definiere deshalb die Notation als eine prozessierende Relation. Diese verwirklicht eine technische Übersetzung zwischen dem Kode, dem Programm, und dem, was die Maschine durch den Kode für die Sinne wahrnehmbar darstellt. Für das, was die Maschine für die Sinne wahrnehmbar darstellt, setze ich den Begriff Notat32. Das lateinische Verb notare bedeutet kennzeichnen und kenntlich machen, heißt sowohl bezeichnen, aufzeichnen und schreiben, als auch wahrnehmen, beobachten. Notatio heißt zugleich Bezeichnung und Beobachtung. Notat meint also das, was der Kode operativ beschreibt und sinnlich darstellt. Die Definition der Notation des Computers lautet: Eine Notation ist eine prozessierende Relation zwischen Kode und Notat. Bei genauem Hinsehen erweist sich diese Definition als rekursiv. Meine Definition des Notats ist die einer Notation. Mit dem Terminus Notat habe ich wie im Begriff der Notation eine mediale Darstellung bezeichnet, sofern sie durch den Computer darstellbar ist. Erst eine derartige rekursive Definition drückt zum einen die konstitutive Trennung der Darstellungs- und Speicherfunktion des Mediums Computer aus, zeigt zum anderen das Verhältnis ihres Funktionierens. Sie macht klar, dass die Notation keine zeitlose Partitur, sondern ein in eigener Zeitlichkeit prozessierendes Archiv hervorbringt. Die Notation ist eine Schrift in einem allgemeineren Sinne. Sie entspricht dem Computer als Medium. Wenn ich von Notationen im Plural spreche, dann geschieht das in der Art und Weise, wie man auch von Schrift im Plural 32 Laut dem Duden 1974 Fremdwörterbuch heißt Notat niedergeschriebene Bemerkung, Aufzeichnung, Notiz. Wie Notate der Notation – über die Festlegung hinaus, das zu sein, was durch den Kode der Computer für die menschlichen Sinne wahrnehmbar darstellt – zu charakterisieren sind, wird noch zu entfalten sein.

53

DIFFERÄNZ: NOTATION PROZESSIERENDER ÜBERSETZUNGEN

als Schriften spricht. Exakter müsste man von Schriftstücken und etwa entsprechend von Notationsstücken sprechen. Um eine derartig gekünstelte Ausdrucksweise zu vermeiden, verzichte ich auf diese Unterscheidung. Es ist jeweils aus dem Kontext des Gebrauchs des Terminus zu entnehmen, was gemeint ist. Notationen werden gebildet in Übersetzungen und bilden selbst eine raumzeitliche Relation der Übersetzung. Sie bleiben immer Prozess: eine kalkulierte und kalkulierende Beziehung zwischen Partitur und Aufführung.33 Im Prozessieren des Programms vollzieht der Computer Übersetzungen zwischen Notationen. Dies ist eine allgemeine Beschreibung des Wirkens des Computers. Sie trifft auch zu für den Computer als Steuerungsautomat, der direkt in die Wirklichkeit eingreift, bei der Schaltung von Maschinen, der Steuerung von Fabrikanlagen oder bürokratischen Verwaltungen. Darin drückt sich die Mediatisierung der vormals nur energetisch mechanistisch angetriebenen Maschinen aus. Der Computer hat eine Doppelnatur: Medium und Steuerungsautomat. Als Medium verändert er die Wirklichkeit vermittelt, als Steuerungsautomat direkt. Als Steuerungsautomat enthält er seine Steuerung medial und als Medium enthält er eine wirkliche Steuerung. Im Fokus der hier vorliegenden Arbeit liegt das Notat der Notation als Medium, als Differenz zur Wirklichkeit, als Aufschub, als Riss, wodurch Erkenntnis und Wahrnehmung erst ermöglicht werden: das Notat als sinnlich erfahrbare Möglichkeit. Durch prozessierenden Kode lässt sich ein Notat für alle Sinnesmodalitäten generieren. Bei weitem am entwickeltsten sind graphische Notate. Graphische Benutzungsoberflächen machen aus elektronischen Datenverarbeitungsanlagen den Personal Computer. Der Nutzer interagiert mit visuell präsentierten Menüs, Icons und Fenstern. Computergrafik erzeugt – animierte – Bilder durch das Schreiben von Programmen. Aber auch Klangwelten lassen sich als Übersetzungen von Kode erzeugen. Mit Hilfe von Sensorik und Aktorik werden zudem der Haptik und dem Bewegungssinn zugängliche Notate produziert. Wie der Programm-Kode letztendlich zu einer realen Maschine übersetzt werden muss, die ihn ausführt, muss das Notat in eine reale Szene projiziert werden, auf einem physikalischen Screen erscheinen. Der Terminus Screen hat überwiegend visuelle Konnotationen. Graphische Realisierungen sind der Standardfall. Aber der Screen, zu deutsch Trennwand oder Schirm, kann auch auditiv, haptisch oder irgendwie sonst für die Sinne wahrnehmbar realisiert sein. Da das Notat als prozessierendes Übersetzen des Kodes hergestellt wird, wird es rechnend bestimmt und 33 Derartige Übersetzungen sind noch zu entfalten. Dabei sind auch die auf Frieder Nake zurückgehenden Begriffsbildungen „kalkuliert“ und „kalkulierend“ zu belegen.

54

NOTATION: ZEICHEN UND WAHRNEHMUNG

strukturiert. Als Ganzes zeigt es sich in immer anderen Differenzen in einer räumlichen und zeitlichen Struktur des Aufschubs, einer reichen medialen Wahrnehmung, nicht in einem räumlichen Bild, sondern als Differenzen der Bildlichkeit nicht nur im Visuellen, sondern zwischen allen Sinnen. Kalkulierte Logik führt nicht zu einem Verschwinden der Sinne, wie in der Anfangsphase der Geschichte des Computers vielfach vermutet, sondern produziert eine vorher nicht mögliche mediale Wahrnehmungsschicht des Notats. Wie die technisch produzierte mediale Sinnlichkeit insgesamt die menschliche Wahrnehmung verändert, bleibt dabei eine offene Frage und ein weites Forschungsfeld. Eine Überflutung mit medialen Wahrnehmungsbildern mag eine Gefahr für die Sinne darstellen. Das Notat ist als Produkt des prozessierenden Kodes vielfach strukturiert als ein Netz von einzelnen Notaten, die zueinander in Beziehung gesetzt sind. Jedes Notat realisiert technisch vermittelt eine Aufführung. Der Sinn stellt sich erst in der Reflexion ihrer Differenz ein, erst in der Übersetzung von einem Notat in ein anderes. Derartige Übersetzungen müssen nicht immer durch die Maschine vermittelt sein. Menschliche Kognition kann auch durch die Differenz zweier Notate reflektieren, zwischen denen es keine berechenbare Übersetzung gibt. Das ist nicht der Ausnahme-, sondern der Regelfall. Die Maschine reflektiert nicht, sondern prozessiert. Der Computer ist kein Subjekt der Reflexion, sondern ihr Medium. Andererseits ist der Mensch als Subjekt nicht der Herr seiner Reflexion und Wahrnehmung, sondern dem Wirken medialer Differenzen unterworfen. Der Computer als Medium der Übersetzung befördert die Dekonstruktion der Dualismen Körper-Geist, Leib-Seele, Sensibles-Intelligibles zu einer konstruktiven Differänz. Übersetzungen zwischen Notationen strukturieren die Sphäre des Medialen neu. Notationen sind keine einfachen Instrumente, um Wahrheitsurteile zu treffen. Sie treten ein in die Welt, die das natürliche Feld und Milieu allen Denkens und aller ausdrücklichen Wahrnehmung ist.34 Da ihre Notate sich in unterschiedlichen Sinnesmodalitäten ausdrücken können, werden alle Sinne erfasst. Als prozessierende Relation des Kodes sind sie keine einfachen Spuren des Wirklichen, sondern Übersetzungen, die vielfache Stufen der Formalisierung und Berechnung durchlaufen. Syntaktisch und semantisch disjunkt und endlich differenziert, sowie semantisch eindeutig ist das Notat durch den Kode bestimmt und realisiert eine kalkulierte und kalkulierenden Aufführung. Dabei wirft es alle formalen Schalen ab. Programmierer verrichten ihre Arbeit 34 Vgl. grundsätzlich zu Veränderung der Wahrnehmungsform(en) im medialen Zeitalter die Aufsatzsammlung Barck, Gente, Paris und Richter 1990

55

DIFFERÄNZ: NOTATION PROZESSIERENDER ÜBERSETZUNGEN

des Schreibens von Notaten in konnotationell aufgeladenen Programmiersprachen35 und Programmierumgebungen. Sie weben neue Notate durch Wiederverwendung, Kombination und Erweiterung schon programmierter Notationen. Notationen realisieren Aufführung als ein Design möglicher Welten, die nicht nur passiv erfahrbar, sondern interaktiv erlebbar werden. Aufführungen stellen kein Abbild, sondern ein Vorbild der Welt dar.36 Vilém Flusser fasst das in der These vom Subjekt zum Projekt zusammen. „Ein Irgendetwas ist unnötig zum Fotografieren: Man kann Beliebiges projizieren. Bei synthetischen Computerbildern, die von Fotos kaum noch unterscheidbar sind, wird etwas Beliebiges aus Kalkulation, etwa aus fraktalen Gleichungen, projiziert, um dann von beliebig vielen Standpunkten aus in Bilder gesetzt zu werden. In einer derartigen Praxis zeigt sich die projektive Gewalt des von sich selbst zurücktretenden kalkulierenden Denkens – die „Einbildungskraft“ – besonders deutlich.“37

Es geht nicht darum, „die buchstäblichen Gottesgesetze oder die numerischen Naturgesetze zu entziffern,“38 denn wir sind nicht „Subjekt der Gesetze, sondern deren Projekte.“39 Darin sieht Flusser „nicht etwa nur eine neue theoretische philosophische Sicht […], sondern vor allem eine Praxis.“40 Notationen lassen sich in der Tat als Praxis medialer Wahrnehmung verstehen. In der Informatik entfaltet sie sich in Disziplinen, die in ihrem Namen eine bestimmte Art der Wirklichkeitsproduktion beanspruchen: Virtual Reality, Augmented Reality, Mixed Reality. Die mediale Wahrnehmungsstruktur dieser Notate wird im Einzelnen zu analysieren sein. Dem Wahrgenommenen ist wesentlich, „Zweideutigkeiten, Schwankungen, Einflüsse des Zusammenhangs einzuschließen.“41 Wie weit gilt dies auch für Notate, die programmierten Aufführungen möglicher Welten? Darauf wird noch im Einzelnen einzugehen sein. An dieser Stelle sei nur noch einmal betont, dass der in logischer Sprache prozessierende Kode nicht etwa in der Sphäre der (formalen) Sprache und des naturwissenschaftlich abstrakten Kalküls verbleibt, sondern eine neue mediale Wahrnehmungssphäre projiziert. Der Computer kann nicht nur analoge Medien in digitale Notationen überführen, sondern bildet durch kombinierte Übersetzungen neue Konfigurationen. In der Kunst und Medientheorie hat dies zu einer Dis35 36 37 38 39 40 41

Diese bleiben dabei natürlich formale Sprachen. Vgl. Flusser 1994 Flusser 1998b Flusser 1998b, S. 9 Flusser 1998b, S. 10 Flusser 1998b, S. 18 Merleau-Ponty 1966, S. 30

56

NOTATION: ZEICHEN UND WAHRNEHMUNG

kussion der Intermedialität geführt.42 Der Filmemacher und Theoretiker Peter Greenaway fordert eine mediale Selbstreflexion ein. Bildformen, die sich in einem Medium entwickelt haben, werden in den Formen eines anderen Mediums reflektiert, wodurch die Strukturmerkmale beider Medien hervortreten. Zum Beispiel versucht er, der Sprache mimetische Fähigkeiten zu verleihen, dadurch dass er Metaphern wörtlich nimmt und sie durch die Kamera visualisiert. Wort und Bild werden so komponiert, dass es unmöglich wird, den Film nur in einer Lesart zu verstehen. Er erschließt sich nur aus einer intermedialen Vielfalt.43 Avantgardistische Film- und Videoproduktionen verbinden Theater, Malerei, Musik, Radio, Fotografie intermedial durch elektronische Verarbeitung. Im Anfangsstadium befindet sich dagegen erst die interaktive Computer- und Netzkunst selbst. Der Computer hat seine technischen Schalen noch zu wenig abgeworfen, als dass er schon allgemein zu einem Medium der Kunst geworden wäre. Die vielfältigen avantgardistischen Produktionen stellen aber ein weites Forschungsfeld für Einzeluntersuchungen dar. Das computergenerierte Spiel rekursiver Übersetzungen führt zu einer netzartig strukturierten medialen Sphäre. Diese wird durch das Formale und Berechenbare verwoben, reicht aber weit darüber hinaus. Geleistet wird die „Texturierung“ durch rekursiv aufgebaute Übersetzungen. Um das zu verstehen, ist der Gebrauch des Begriffs der Übersetzung noch weiter zu klären.

42 Vgl. Spielmann 1998, Helbig 1998, Rajewsky 2002, Schade und Tholen 1999 43 Vgl. Spielmann 1998

57

Übersetzung: Schrift wird Notation

„Die Tänzerin ist nicht eine Frau, sondern eine Metapher, die aus den elementaren Formen unseres Daseins einen Aspekt zum Ausdruck bringen kann.“1

Der Computer als Medium produziert Übersetzungen. Deren Form lässt sich beschreiben als Notation: Programm-Kode prozessiert sein Notat – eine Art technischer Hypotypose. Hat zum Sinngefüge eines so gefassten Übersetzungsbegriffs dessen üblicher Gebrauch als Übertragung eines Textes einer natürlichen Sprache in eine Fremdsprache etwas beizutragen? Das ist nach den bisherigen Ausführungen schwer einzusehen. Im weiten Feld der Erforschung des Mediums möchte ich den Leser auf einen Umweg locken. Ich möchte ihm in einiger Ausführlichkeit eine merkwürdige Übersetzungstheorie vorstellen, eine Mimesistheorie der „unsinnlichen Ähnlichkeit“. Es handelt sich um ein Vorwort. Walter Benjamin hat es als Einführung seiner Übersetzung von Baudelaires Tableaux Parisiens geschrieben. Sein Titel lautet:

Die Aufgabe des Übersetzers Der Autor beginnt mit einer Fanfare apodiktischer Negationen: „Nirgends erweist sich einem Kunstwerk oder einer Kunstform gegenüber die Rücksicht auf den Aufnehmenden für deren Erkenntnis fruchtbar. Nicht genug, daß jede Beziehung auf ein bestimmtes Publikum oder dessen Repräsentanten vom Wege abführt, ist sogar der Begriff eines ‚idealen‘ Aufnehmenden in allen kunsttheoretischen Erörterungen vom Übel, weil diese lediglich gehalten sind, Dasein und Wesen des Menschen überhaupt vorauszusetzen. So setzt auch die Kunst selbst dessen leibliches und geistiges Wesen voraus - seine Aufmerksamkeit aber in keinem ihrer Werke. Denn kein Gedicht gilt dem Leser, kein Bild dem Beschauer, keine Symphonie der Hörerschaft.“

Denn, so führt er die Reihe der Negationen fort: „Was ‚sagt‘ eine Dichtung? Was teilt sie mit? Sehr wenig dem, der sie versteht. Ihr Wesentliches ist nicht Mitteilung, nicht Aussage. Dennoch könnte diejenige Übersetzung, welche vermitteln will, nichts vermitteln als die Mitteilung, also Unwesentliches.“

Um dann abrupt und genauso apodiktisch zu einer positiven Bestimmung zu kommen: „Übersetzung ist eine Form. Sie als solche zu erfassen, gilt es zurückzugehen auf das Original. Denn in ihm liegt deren Gesetz als in dessen Übersetzbarkeit beschlossen.“2 1

Mallarmé zitiert nach Benjamin 1991f, S. 478

58

ÜBERSETZUNG: SCHRIFT WIRD NOTATION

Mit zunächst rätselhaft erscheinenden Sätzen zeigt Benjamin auf einen sich komplizierenden Kern des Übersetzungsproblems als ein Paradox. Naiv könnte man sich als Aufgabe des Übersetzers denken, den Inhalt eines Textes in eine Fremdsprache zu übertragen für einen der Originalsprache des Textes unkundigen Leser.3 Jedoch ist die Sprache weder ein Kleid der Gedanken – das der Übersetzer zu wechseln hat – noch ein Instrument, um Bedeutungen auszudrücken – welche der Übersetzer in der anderen Sprache mitteilt. Das Übersetzen kann nur gelingen, wenn es zwischen zwei sich fremden Sprachen linguistische Äquivalenzen und Bedeutungssymmetrien und nicht nur Trennendes gibt. Jedoch ist es die paradoxe Aufgabe des Übersetzers, mit ihnen zugleich die „Idiomazität und Asymmetrie der anderen Sprache freizusetzen“4. Oder mit den Worten von Benjamin gesagt: Es geht nicht so sehr um das Gemeinte, sondern um die Art des Meinens. Das gilt auch für Benjamins Aufsatz selbst. Man wird nicht nur nach seiner Aussage suchen, sondern sich auf die Art des Benjaminschen mimetischen Schreibens einlassen müssen, um aus ihm Gewinn zu ziehen. Über die vielen Negationen hinweglesend halte ich mich zunächst an die positive Bestimmung, dass die Übersetzung eine Form ist. Aber was ist eine Form? Benjamin wird es an keiner anderen Stelle des Aufsatzes außer der zitierten definieren. Dort wird die Form mit dem Original verbunden, das heißt, sie kann nicht allein bestehen, sondern nur in einer Relation, jedoch nicht in einer einfachen Relation zwischen Übersetzung und Original: Das Original enthält eine Gesetzmäßigkeit, seine Übersetzbarkeit. Für Benjamin stellt sich die Frage nach Übersetzbarkeit in zwei völlig verschiedenen Arten, nämlich in der Frage, ob ein Original „unter der Gesamtheit seiner Leser je seinen zulänglichen Übersetzer finden werde“ (9), und der wichtigeren „eigentlichen“ Frage, „ob es seinem Wesen nach Übersetzung zulasse und demnach – der Bedeutung dieser Form gemäß – auch verlange“ (10). Die erste Frage ist eine empirische und als solche nur „problematisch“ zu entscheiden. Die zweite Frage ist die Frage nach 2

3

4

Benjamin 1991d; S. 9. Zitate aus diesem Text werde ich in diesem Kapitel nicht weiter ausweisen. Mit einer Zahl in Klammern vermerke ich die korrespondierende Seitenangabe. Ganz so naiv ist wohl keine Übersetzungstheorie. Insgesamt bleibt das Problem der Übersetzung in den Geisteswissenschaften ein Randthema. Ein fragmentarischer Einblick in die weit divergierenden Stimmen zum Thema findet sich im Sammelband Störig 1969. Allerdings hat sich die Übersetzungswissenschaft zu einer respektablen eigenen Disziplin entwickelt. Vgl. beispielhaft als Einführung Koller 1992, Stolze 1997und Macheiner 1995. Walter Benjamins kurzer Aufsatz wird bis heute in vielen Zusammenhängen rezipiert, zum Beispiel in dem relativ aktuellen Sammelband Hart Nibbrig 2001b. Hirsch 1997, S. 419

59

DIFFERÄNZ: NOTATION PROZESSIERENDER ÜBERSETZUNGEN

der Übersetzbarkeit überhaupt, die Frage nach dem Wesen der Form und ihrer Kraft der Formierung, die entweder rätselhaft und geheimnisvoll bleibt oder nur „apodiktisch zu entscheiden“ (10) ist. Übersetzbarkeit hängt gesetzmäßig vom Original ab, von der strukturellen, notwendigen Möglichkeit, übersetzt zu werden, gleichgültig, ob es tatsächlich übersetzt wird. Übersetzbarkeit ist ein typisch Benjaminscher Begriffsgebrauch, „als Substantivierung von Möglichkeiten, die ihrem Subjekt eher zufallen, als daß sie von ihm ausgehen“.5 Form und Übersetzbarkeit sind „Relationenbegriffe“, die „nicht von vornherein ausschließlich auf den Menschen bezogen werden“ (10) können. Übersetzbarkeit ist nicht zu verwirklichen in Hinblick auf die Erwartung von Lesern. Nicht ihnen gegenüber hat der Übersetzer eine Aufgabe, sondern der Sprache selbst gegenüber. Aber welcher Sprache eigentlich? Das ist noch unklar, aber klar geworden ist: Übersetzbarkeit hat eine transzendente Dimension, muss eine transzendente Bewegung verwirklichen.6 Was heißt bei Benjamin Transzendenz? Nie denkt und artikuliert er sie einfach als Gegensatz zur Immanenz, sondern als Bewegung, bei der die Immanenz aus den Angeln gehoben wird, so dass – wie bei Shakespeares Hamlet – die Zeit aus den Fugen gerät.7 Solche Bewegung führt nicht zum Ortswechsel, sondern zur Auflösung der Einheit des Ortes; solche Bewegung ist in sich selbst inhomogen. Übersetzbarkeit kommt einem Original nur strukturell zu, indem es sich vom Originalzustand entfernt. „Daß eine Übersetzung niemals, so gut sie auch sei, etwas für das Original zu bedeuten vermag, leuchtet ein. Dennoch steht sie mit diesem kraft seiner Übersetzbarkeit im nächsten Zusammenhang. Ja, dieser Zusammenhang ist um so inniger, als er für das Original selbst nichts mehr bedeutet. Er darf ein natürlicher genannt werden, genauer ein Zusammenhang des Lebens.“ (10)

Man muss sich vergegenwärtigen, dass das Original ein Text ist, also Schrift, also eine im Raum gefrorene Sprache, dem die Zeit scheinbar nichts mehr anhaben kann. In diesem Sinne ist er schon eine Übersetzung. Das Original lebt fort und überlebt. Was heißt hier Leben? Worin besteht der Zusammenhang des Lebens, der die Übersetzbarkeit des Originals bestimmt? Benjamin stellt keine Identität, sondern eher Differenzen fest, einen Zusammenhang des Auseinandergehens der Äußerungen des Lebens und des Lebendigen. „In völlig unmetaphorischer Sachlichkeit ist der Gedanke vom Leben und Fortleben des Kunstwerks zu erfassen. Daß man nicht der organischen Leiblichkeit allein Leben zusprechen dürfe, ist selbst in Zeiten des befangensten 5 6 7

Weber 1997, S. 124. Weber weist auf die ähnlich konstruierten Begriffe Kritisierbarkeit im Trauerspielbuch und Reproduzierbarkeit im Kunstaufsatz hin. Vgl. Weber 1997, S. 125ff Vgl. Derrida 1995b

60

ÜBERSETZUNG: SCHRIFT WIRD NOTATION Denkens vermutet worden. […] Nur wenn allem demjenigen, wovon es Geschichte gibt und was nicht allein ihr Schauplatz ist, Leben zuerkannt wird, kommt dessen Begriff zu seinem Recht.“ (11)

Alles natürliche Leben ist aus dem umfassenderen der Geschichte zu verstehen. Das Original wird anders, weil es einem sich geschichtlich verändernden Medium angehört: der Sprache. „Es gibt eine Nachreife auch der festgelegten Worte.“ (12) Zur Geschichtlichkeit der Sprache tragen Übersetzung und Dichtung auf sehr unterschiedliche Weise bei. Das „Dichtwerk“ zielt „unmittelbar auf bestimmte sprachliche Gehaltszusammenhänge“. Dagegen dient die Übersetzung letztendlich dem „Ausdruck des innersten Verhältnisses der Sprachen zueinander“ (11). Zwar kann sie das verborgene Verhältnis der Sprachen zueinander weder offenbaren noch herstellen, aber darstellen, „indem sie es keimhaft oder intensiv verwirklicht“ (12). „Jenes gedachte, innerste Verhältnis der Sprachen ist aber das einer eigentümlichen Konvergenz. Es besteht darin, daß die Sprachen einander nicht fremd, sondern a priori und von allen historischen Bezügen abgesehen einander in dem verwandt sind, was sie sagen wollen.“ (12)

Die Art des Verwandtschaftsverhältnisses, das nach Benjamin zwischen allen Sprachen besteht, erklärt die Möglichkeit der Übersetzung, die Übersetzbarkeit. Hier liegt ein erster Hinweis auf die unsinnliche Ähnlichkeit. Bei Verwandtschaft geht es nicht notwendig um Ähnlichkeit. Auch zwischen Nachbildung und Original bekundet die Verwandtschaft der Sprachen keine „vage Ähnlichkeit“. In der Übersetzung hat sich die Verwandtschaft der Sprachen zu bewähren. In ihnen zeigt sich diese Verwandtschaft tiefer und bestimmter als „in der oberflächlichen und undefinierbaren Ähnlichkeit zweier Dichtungen“ (12). Dies begründet die Unmöglichkeit einer Abbildtheorie. Wie in der Erkenntnistheorie Objektivität von Erkenntnis nicht als Abbildung des Wirklichen beansprucht wird, ist Übersetzung nicht dadurch möglich, dass sie Ähnlichkeit mit dem Original erstrebt. In seinem Fortleben ändert sich durch Wandlung und Erneuerung des Lebendigen auch das Original. Im Laufe der Jahrhunderte wandeln sich nicht nur Ton und Bedeutung großer Dichtungen, sondern auch die Muttersprache des Übersetzers. Das einmal geschriebene Dichterwort, der Text des Originals, muss in seiner Sprache überleben. Die Übersetzung aber ist bestimmt durch das „Wachstum ihrer Sprache“ (13). Worin aber besteht die Verwandtschaft zweier Sprachen? Gemeint ist nicht die historische Abstammung, auch wenn der Abstammungsbegriff hineinspielt, gemeint ist erst recht nicht eine Ähnlichkeit von Dichtungen oder von Worten.

61

DIFFERÄNZ: NOTATION PROZESSIERENDER ÜBERSETZUNGEN „Vielmehr beruht alle überhistorische Verwandtschaft der Sprachen darin, daß in ihrer jeder als ganzer jeweils eines und zwar dasselbe gemeint ist, das dennoch keiner einzelnen von ihnen, sondern nur der Allheit ihrer einander ergänzenden Intentionen erreichbar ist: die reine Sprache. Während nämlich alle einzelnen Elemente, die Wörter, Sätze, Zusammenhänge von fremden Sprachen sich ausschließen, ergänzen diese Sprachen sich in ihren Intentionen selbst. Dieses Gesetz, eines der grundlegenden der Sprachphilosophie, genau zu fassen, ist in der Intention vom Gemeinten, die Art des Meinens zu unterscheiden.“ (13) [Hervorhebungen B.R.]

Benjamin, der die Existenz von a priori Kategorien reiner Verstandesbegriffe (Kant) leugnet,8 führt mit dem Terminus „reine Sprache“ einen ähnlich metaphysisch anmutenden Begriff ein. Sein Vorgehen erinnert an die Praktiken der Kabbala. Die „reine Sprache“ – so wird sich herausstellen – ist die verlorene Sprache Gottes. In dieser ist der Unterschied zwischen den Namen und den Dingen ausgelöscht. Ihr Begriff hat einen religiösen Ursprung. Nach Benjamin drückt sich die Art des Meinens in jeder Sprache verschieden aus, das Gemeinte dagegen drängt zum Identischen. Die Art des Meinens strebt auseinander in den Wörtern zweier Sprachen, aber in einer guten Übersetzung ergänzt sich die Art des Meinens zum Gemeinten. Das Gemeinte ist in keiner lebenden Sprache in relativer Selbständigkeit anzutreffen, sondern „in stetem Wandel begriffen, bis es aus der Harmonie jener Arten des Meinens als die reine Sprache herauszutreten vermag“ (14). Bis sich die reine Sprache am messianischen Ende der Geschichte offenbart, bleibt das letztendlich identisch Gemeinte in den Sprachen verborgen. Die Übersetzung hat deshalb mit der Fremdheit der Sprachen zu rechnen, sich mit dem Anderen auseinander zu setzen. In der Übersetzung wächst das Original „in einen höheren und reineren Luftkreis der Sprache hinauf, in welchem es freilich auf Dauer nicht zu überleben vermag“ (14). Denn die Übersetzung sichert zwar das Fortleben des Gemeinten, ist dabei aber dem Wirken der geschichtlichen Zeit ausgesetzt, die sie verändert und eine neue Übersetzung verlangt, einen wiederholenden Rückgang auf das Original, das als Text unverändert bleibt. Der wesenhafte Kern der Übersetzung liegt genau in dem, „was an ihr selbst wiederum nicht übersetzbar ist“ (15), was an ihr mehr als Mitteilung ist. Es muss sich zeigen als Wirken einer Differenz zwischen Original und Übersetzung im Verhältnis ihres Gehalts zur Sprache. Im Dichterwort des Originals bilden Gehalt und Sprache „eine gewisse Einheit wie Frucht und Schale“, während „die Sprache der Übersetzung ihren Gehalt wie ein Königsmantel in weiten Falten“ (15) umspielt. Die Übersetzung gibt nicht einfach den Gehalt, den Sinn des Originals wie8

Vgl. Benjamin 1991h

62

ÜBERSETZUNG: SCHRIFT WIRD NOTATION

der, sondern muss eine „Wiederherstellung“9 sein als Spannung der Fremdheit der Sprachen. Übersetzen heißt nicht dichten. Um ihre Technik zu beherrschen, bedarf es anderer spezifisch für die Übersetzung wichtiger Fähigkeiten, die nicht mit denen der Dichtkunst übereinstimmen. Übersetzung ist eine eigene nur ihr zukommende Form. Deshalb „läßt sich auch die Aufgabe des Übersetzers als eine eigene fassen und genau von der des Dichters unterscheiden“ (16).

Und dann setzt Benjamin an, diese spezifische Aufgabe zu beschreiben in einer bemerkenswerten Sprache, die ihre eigene Aussage mimetisch in Form einer vertrackten Syntax moduliert: „Sie besteht darin, diejenige Intention auf die Sprache, in die übersetzt wird, zu finden, von der aus in ihr das Echo des Originals erweckt wird. Hierin liegt ein vom Dichtwerk durchaus unterscheidender Zug der Übersetzung, weil dessen Intention niemals auf die Sprache als solche, ihre Totalität, geht, sondern allein unmittelbar auf bestimmte sprachliche Gehaltszusammenhänge. Die Übersetzung aber sieht sich nicht wie die Dichtung gleichsam im innern Bergwald der Sprache selbst, sondern außerhalb desselben, ihm gegenüber und ohne ihn zu betreten ruft sie das Original hinein, an demjenigen einzigen Orte hinein, wo jeweils das Echo in der eigenen den Widerhall eines Werkes der fremden Sprache zu geben vermag.“ (16)

Das sind kunstvoll konstruierte Sätze voll komplizierter Metaphorik „in der präzisen Unschärfe hier der Genitive zumal (subjectivus?, objektivus?)“10. Wie das beschriebene Echo von Gipfel zu Gipfel des Bergwalds läuft in der Syntax dieser Sprache das Gemeinte von Satzteil zu Satzteil hin und her – in einer Bewegung der Verschiebung, Übertragung und Übersetzung des Sinns. Die eigene Sprache ruft das Original (in welcher Sprache?) in den Bergwald der Sprache, wird zur Echowand für das Echo, das in der Sprache (welcher?) zurückkommt.11 Weil die Intention der Übersetzung auf die Totalität der Sprache geht, muss das Echo in einer ‚reinen Sprache‘ gehört werden, die weder die des Übersetzers, noch die des Originals ist, die sich erst als Form der Übersetzung ergibt. Metaphorisch muss der Übersetzer also den Ort finden, wo der Ruf in der Sprache des Originals als Echo in der eigenen Sprache zurückkommt. Das kann kein realer Ort, sondern nur der virtuelle Ort der Verwandtschaft der Sprachen sein. Benjamin treibt die mimetische Schreibweise noch weiter. Er flicht in den Text über die Aufgabe des Übersetzers, dem Vorwort eigener Baudelaire-Übersetzungen einen fremdsprachigen (französischen) Text ein, der in der Form seiner Syntax und in seiner 9 Derrida 1997, S. 146ff 10 Hart Nibbrig 2001a, 14 11 Zum Thema des Echos der Sprache bei Benjamin vgl. Nägele 2001

63

DIFFERÄNZ: NOTATION PROZESSIERENDER ÜBERSETZUNGEN

Aussage, sowie im Verhältnis von Syntax und Aussage zueinander Benjamins Aufsatz in gedrängter Form noch einmal enthält. Benjamin übersetzt diesen Text von Mallarmé nicht. Wenn nicht das Gemeinte, sondern die Art des Meinens wesentlich ist, sollte die Übersetzung überflüssig sein. Auch ein des Französischen nicht mächtiger Leser müsste die Art des Meinens ja bis zu einem gewissen Grade erschließen können, jedoch ist es nicht wirklich so. Ich persönlich musste mir den Mallarmé-Text übersetzen lassen. Erst die Übersetzung erschloss mir die raffinierte Konstruktion. Es gibt nicht (mehr) die „reine Sprache“, welche die Art des Meinens jedes Textes in einer anderen Sprache aufschließt. Das Fehlen der Übersetzung (von Mallarmés Text) zeigt, dass etwas fehlt: die ‚reine Sprache‘. In solchen Sätzen und Setzungen versucht Benjamin spürbar zu machen, worin die spezifische Aufgabe der Übersetzer besteht: in der Arbeit an der Art des Meinens der Sprache. „Ihre Intention geht nicht allein auf etwas anderes als die der Dichtung, nämlich auf eine Sprache im ganzen von einem einzelnen Kunstwerk in einer fremden aus, sondern sie ist auch selbst eine andere: die des Dichters ist naive, erste, anschauliche, die des Übersetzers abgeleitete, letzte, ideenhafte Intention. Denn das große Motiv einer Integration der vielen Sprachen zur einen wahren erfüllt seine Arbeit.“ (16)

Es geht nicht um die Wiedergabe des Sinns, sondern um seine Setzung. Statt dem Sinn sich ähnlich zu machen, muss die Übersetzung die „Art des Meinens in der eigenen Sprache sich anbilden“ (18). So werden Original und Übersetzung als Bruchstück einer größeren Sprache erkennbar gemacht. „Eben darum muß sie von der Absicht, etwas mitzuteilen, vom Sinn in sehr hohem Maße absehen und das Original ist ihr in diesem nur insofern wesentlich, als es der Mühe und Ordnung des Mitzuteilenden dem Übersetzer und sein Werk enthoben hat. Auch im Bereich der Übersetzung gilt: aCG8‹ šCoAn9:¼6. Diagramme erscheinen dabei genauso als unmoralische vereinfachte Visualisierung komplexer Zusammenhängen, wie die show technisch produzierter Bilder. Auch in einem nicht so konservativen Weltbild, das keine göttliche vorgegebene Ordnung der Welt kennt, könnte die Forderung nach einer Ethik des Blick und einer Schulung des Sehens ihren Platz finden. Statt über die Wahrheit einer vorgegebenen Welt zu reflektieren, müsste sie allerdings aus dem Spiel mit den Differenzen von unterschiedlichen medial ausgedrückten Wahrheiten ihr Weltbild immer wieder historisch konstruieren. Das ist nur möglich, wenn die Videosphäre als die Potentialität der Übersetzungen zwischen Notationen begriffen wird und nicht als die Produktion einer technisch produzierten Virtual Reality als Weltshow.

58 Illich argumentiert hier aus einer ähnlich ikonoklastischen Position heraus, wie die kritische Theorie: Vgl. Horkheimer und Adorno 1989.

159

Technische Medien als Griffel der Natur Statt in lateinischen Buchstaben schreibt der im 19. Jahrhundert erfundene „technische Griffel“ Licht oder Schallwellen auf eine fotografische oder phonographische Fläche. Damit ereignet sich eine revolutionäre Transformation, die den Logozentrismus der phonetischen Schrift nachhaltig untergräbt. Das Wesentliche dieser Medientransformation liegt in der technischen Herstellung des Indexes. In der Erfindung des Griffels der Natur1 wird das Objekt als Spur des Wirklichen technisch reproduziert. Als ein Standardbeispiel für die indexikalische Beziehung eines Zeichens zum Objekt gilt Peirce der Rauch als Anzeichen des Feuers. Der technische Griffel der Natur schiebt dazwischen eine komplizierte technische Apparatur, mit deren Hilfe das Feuer des Lichts das Objekt anzeigt. In dieser Apparatur liegt ein mehrfaches Potential. Außer der Aufzeichnung der Spur des bekannten Wirklichen ermöglicht sie zum einen die Fälschung, zum anderen die Aufzeichnung bisher unsichtbarer Spuren des Wirklichen. Technische Medientransformation übersetzt zu einer Neu-Konstruktion der Wirklichkeit. Fotografieren, mit Licht schreiben, ist semiotisch also etwas völlig anderes als phonetische Schrift. Während die Herausbildung der phonetischen Schrift zu einer (Über-)Betonung der Sprache im Visuellen führt, so das Symbolische ins Visuelle einführend, überbelichtet die technische Beherrschung des Griffels das Visuelle. Das Licht bringt Klarheit, nicht die der Sprache, sondern die des fotografischen Dispositivs. Ein Foto hat nichts zu sagen, sondern zeigt, was einmal gewesen ist.2 Die Differenz zum Gemälde ist offensichtlich. Der Maler mag noch so sehr um Realismus bemüht sein, ein derart perfektes Abbild der Wirklichkeit wie der technische Griffel wird er niemals schaffen. Technische Griffel der Natur sind in ihrem Unbeteiligtsein vollkommen. Sie interpretieren keinen Sinn. Obwohl das Dispositiv der Camera obscura notwendige Voraussetzung des fotografischen Dispositivs ist, liegt dessen eigentliche Revolution darin, chemisch wahrnehmbar zu machen, was das Licht selbst hervorbringt, wenn es auf einer Oberfläche eingefroren und fixiert wird. „Zunächst fand ich folgendes: was die Fotografie endlos reproduziert, hat nur einmal stattgefunden.“3

Dieser Befund von Roland Barthes erschließt die wesentlichen Kennzeichen der Fotografie. Das, was Fotografie reproduziert, beruht immer auf einer Begegnung mit dem Realen. Jedes Foto fußt auf einem Ereignis, 1 2 3

Vgl. Amelunxen 1988 Vgl. Barthes 1989, S. 86ff Barthes 1989, S. 12

160

TECHNISCHE MEDIEN ALS GRIFFEL DER NATUR

das stattgefunden hat. „Licht und Tod fallen in der Fotografie zusammen.“4 Fotografien schaffen technische Objektivität. Der Referent des Fotografischen ist nicht eine möglicherweise, sondern eine notwendigerweise reale Sache, „die vor dem Objektiv platziert war“5. Bei der Fotografie muss die Sache da gewesen sein, das Foto beweist das „Interfuit“, das „Es-ist-so-gewesen“ – wie Roland Barthes es ausdrückt. Das Grundprinzip des Fotos ist nicht Kommunikation, sondern Referenz. Ein Foto von einem Sklavenmarkt beweist, dass es den Sklavenmarkt mit Bestimmtheit gegeben hat. Das Foto zeichnet indexikalisch mit technischer Detailgenauigkeit auf. Diese Detailgenauigkeit erreicht der Lichtschreiber, ohne dass er selbst auf das Detail achten muss. Der Übergang des Wirklichen zu dessen Ablichtung erfordert keine Zerlegung in Einheiten, die als Zeichen zu konstruieren wären. „Gewiss ist das Bild nicht das Wirkliche: Aber es ist zumindest das perfekte Analogon davon, und für den gesunden Menschenverstand wird die Fotografie gerade durch diese analogische Perfektion definiert.“6

Natürlich verändern Linsen, Spiegel und andere Bestandteile der Apparatur das wirklich Vorgegebene. Jedoch vor jeder Möglichkeit von Manipulation der Wirklichkeit durch die Fotografie ist auf deren Fähigkeit detailgenaue technischer Aufzeichnung der Spur des Realen im Zusammenspiel von Optik und Chemie zu bestehen. Bei den Pionieren des Genres war immer klar, dass in dieser Fähigkeit die Faszination von Fotos liegt: „Ein wahrer Wald von Schornsteinen säumt den Horizont: Denn das Instrument registriert alles, was es wahrnimmt, und einen Schornsteinaufsatz oder einen Schornsteinfeger würde es mit der gleichen Unparteilichkeit festhalten wie den Apoll von Belvedere.“7

Bei Fotos geht es statt um Sinneinheiten, um die Registrierung empirischer Gegebenheiten. Das Kameraauge trifft keine ästhetischen Entscheidungen, genauso wenig wie es Sinn selektiert. Die Leistungen des technischen Apparates liegen auf anderem Gebiet, etwa „daß der ganze Schrank eines Kenners und Sammlers von altem Porzellan sich schneller auf Papier abbilden läßt, als es dauern würde, eines der üblichen beschreibenden Inventare anzufertigen“8.

4 5

6 7 8

Amelunxen 1988, S. 298 Barthes 1989, S. 86. Dass diese Sache selbst schon ein Foto sein kann, kompliziert die Behauptung, schränkt sie aber nicht ein, und die Möglichkeit der Fälschung ergibt sich erst aus der Objektivität des Fotos. Barthes 1990, S. 12f Talbot, Der Zeichenstift der Natur, zitiert nach Wetzel 1991, S. 169 Wetzel 1991, S.169

161

GESCHICHTE DES MEDIALEN RAUMES

Die Kamera stellt die Dinge selbst vor die Augen – in einer entstellenden Perspektive. Erst durch diese Entstellung gelingt die Vergegenwärtigung. Die Dinge werden aus ihrem raum-zeitlichen Zusammenhang gerissen. In der Brechung der Linse erzwingt ein Riss im Realen die Referenz. Was die Kamera durch die Produktion des fotografischen Bildes leistet, ist die Gerinnung des Schattens, der nie stillsteht und dem wirklichen Objekt folgt. Der Kamera gelingt die Fiktion – im doppelten Sinne des Wortes. In der Peirce’schen Terminologie könnte man von reinen Zweithei9 ten sprechen, von Zeichen, die in allen drei Zeichenbezügen Zweitheiten darstellen. Damit schließen sie immer die Erstheit ein. Als Zweitheiten realisieren sie eine perfekte Ikonizität, weil sie ohne jede konventionelle Interpretation ausschließlich durch die Apparatur produziert werden. Allerdings lässt die Apparatur als rein technischer Interpretant auch die Einschreibung konventioneller symbolischer Relationen zu. Von Anfang an war die Fotografie nicht die nur die wirklichkeitsgetreue Abbildung der Spur, sondern auch ein (falsches) Spiel mit ihrer Fälschung. Fotos verwirklichen keine einfache Mimesis, sondern eine Aufzeichnung der Spur. Folgenreicher als die damit immer gegebene Möglichkeit der Fälschung ist das somit gegebene Potential, natürlich nicht wahrnehmbare Wirklichkeit sichtbar zu machen. Am bekanntesten ist vielleicht die Röntgenaufnahme, die das dem natürlichen Auge verborgene Innere von Körpern visualisiert. Ein anderes interessantes Beispiel ist die „Photographische Fixierung der durch Projectile in der Luft eingeleiteten Vorgänge“.10 Hier deutet sich die Vision einer neuen Übersetzung zwischen dem Symbolischen und dem Imaginären an, die sich erst im Zeitalter digitaler Notationen voll entfaltet.11 Wie die Fotografie das Spiegelbild bannt, mit dem Griffel der Natur aufschreibt, bannt die Phonographie das Echo.12 Im übertragenen Sinne handelt es sich um die Imagination des Auditiven. „Die Tonspeicherung ermöglicht einem jeden, daß er ‚seine eigene Stimme oder seinen eigenen Vortrag in der Platte wie in einem Spiegel beobachten kann und dadurch in die Lage kommt, seiner Produktion kritisch gegenüberzustehen‘.“13

Um sie zu ermöglichen, bedarf es keiner symbolischen, sondern einer wirklichen Übertragung. Die vom Griffel ins Wachs geritzten Wellen 9 10 11 12

Zur Peirce’schen Kategorienlehre vgl. Walther 1974, Nagl 1992 Vgl. Hoffmann und Berz 2001 Vgl. Heintz und Huber 2001b Zur Erfindung des Grammophons vgl. Kittler 1986, eine sehr vielschichtige Beschreibung der Erfindung Edisons von 1887. 13 Kittler 1986, S. 45. Kittler zitiert hier zustimmend eine Quelle aus den 20er Jahren.

162

TECHNISCHE MEDIEN ALS GRIFFEL DER NATUR

müssen von einer Apparatur erst wieder in Schallwellen rückübersetzt werden, damit die indexikalische Aufzeichnung der Spur hörbar wird. Der Apparat zeichnet die Schallwellen auf und spielt sie wieder ab mit der Deutlichkeit des Echos. Eine „auditive Gestalt“ lässt sich mit dem Phonographen technisch schreiben. Kittler beschreibt die Schrift des Phonographen der Lacanschen Kategorie des Realen zu. Dafür gibt er zwei wesentliche Argumente: Erstens „Die Philosophen dürfen einfach Blabla sagen.“14 Dagegen zeichnet der Phonograph die Stimme, aber auch alle anderen beliebigen Geräusche auf, die keiner Zeichenordnung genügen. Zweitens gibt der Phonograph die Töne in ihrer Zeitlichkeit wieder.15 Hier liegt in der Tat ein wesentlicher Unterschied zur Fotografie. Es kommt darauf an, welchen Kode man betrachtet. Auf der fotografischen wie der phonographischen Platte findet sich ein schriftlicher Kode, der in der Zeit gefroren ist. Während jedoch das Foto auch nach seiner Entwicklung ein räumlich fixiertes Artefakt liefert, das erst ein Betrachter als Bild sieht,16 liest die phonographische Platte wiederum eine Apparatur und produziert wirkliche Schallwellen, die durch den Kode der Platte bestimmt sind. Technisch produzierte Schallwellen werden wie die natürlichen vernommen, müssen nicht erst gelesen werden. In die phonographischen Platte ist eine Spur graviert, die automatisch gelesen wird. Phonographie wie Fotografie läuten das Zeitalter der technischen Reproduzierbarkeit ein. Durch den Holzschnitt und später die Lithografie ist schon die Graphik, durch den Buchdruck die phonetische Schrift technisch reproduzierbar, aber erst durch die Fotografie wird „die Hand im Prozess bildlicher Reproduktion zum ersten Mal von den wichtigsten künstlerischen Obliegenheiten entlastet“17. Das ins Objektiv blickende Auge trifft die künstlerische Auswahl, die restliche Reproduktion ist ein technischer Akt. Die Reproduktion vervielfältigt, setzt die massenhafte Produktion an die Stelle des einzigartigen Kunstwerks. Das gemalte Bild versucht etwas auf Dauer darzustellen, Kennzeichnung der illustrierten Zeitung und der Wochenschau sind Flüchtigkeit und Wiederholbarkeit.18 Die Fotografie 14 Kittler 1986, S. 29 15 Genaugenommen tut das auch die Fotografie. Als noch Belichtungszeiten von Stunden nötig sind, ist ganz klar, dass der Griffel der Natur auch die Zeit aufzeichnet. Auch der Augen-Blick, durch das Objektiv als Foto geschossen, bannt die Zeit. 16 Ein nicht mit dem Dispositiv der Fotografie Vertrauter erkennt sich nicht auf einem Foto. Vgl. McLuhan 1968, S. 53ff. Das Trompe-l’œil der Fotografie erfordert die Fähigkeit der Übersetzung des perspektivisch abgebildeten Objekts in die (Schein-)Wirklichkeit des Bildes. 17 Benjamin 1991b, S. 474 18 Benjamin 1991b, S. 479

163

GESCHICHTE DES MEDIALEN RAUMES

verändert auch schon bestehende Gemälde. Dadurch, dass sie auch diese massenhaft reproduzieren kann, macht sie Meisterwerke zunächst denen zugänglich, die sich teure Stiche nicht kaufen können. Durch die Möglichkeit der technischen Reproduktion setzt ein Intellektualisierungsprozess in der Kunst ein,19 das Zeitalter der Videosphäre kündigt sich an. Meisterwerke lassen sich fragmentieren in Ausschnitten und Ausschnittsvergrößerungen und so ästhetisch analysieren. Werke aller Meister werden aus den unterschiedlichsten Museen der ganzen Welt als Abbild „zugreifbar“ und nebeneinander betrachtbar, die Reproduktion schafft „imaginäre Überkünstler“20. In der Alltagskultur setzt die massenhafte Verbreitung von Schnappschüssen und Fotos ein. Noch Mitte des 19. Jahrhunderts hat die Hälfte der Bevölkerung, außer frommen Kirchenbildern oder Liedertafeln auf Jahrmärkten, noch nie ein Gemälde gesehen.21 In den 40er Jahren des 19. Jahrhunderts wird die Fotografie von vier Personen – teilweise unabhängig voneinander erfunden, den Franzosen Niépce und Daguerre, dem Engländer Talbot und dem Franzosen Bayard.22 Bereits in den 60er Jahren sind in Paris 23 000 Personen mit der Herstellung von Fotografien beschäftigt.23 Erfinder der Fotografie, wie auch die ersten Fotografen, sind wie viele Erfinder technischer Neuerungen um diese Zeit auch Geschäftsleute, die ihre Produkte vermarkten. Zunächst erlauben die notwendigen langen Belichtungszeiten – bis zu acht Stunden – nur die Fotografie von unbewegten Objekten, Personenaufnahmen erfordern starr wie tot dasitzende Personen.24 Ein großes Geschäft ist die Vermarktung des Portraitfotos, die dem Durchschnittsmenschen ermöglicht, was vorher nur hochgestellten Personen erlaubt ist: das eigene Konterfei zu fixieren und für spätere Zeiten betrachtbar zu machen.25 Im letzten Viertel des Jahrhunderts kommt es dann zu einer Reihe von Erfindungen, welche die endgültige Kommerzialisierung des Mediums Fotografie ermöglichen. Die Belichtungszeiten können heruntergedrückt werden bei immer kleineren Filmformaten, statt fotografischer Platten wird der Rollfilm eingesetzt. Der Durchbruch, der alle zu potenziellen Fotografen macht, gelingt dem amerikanischen Geschäftsmann George Eastman mit der Kodak-Box: „You press the button, we do 19 20 21 22

Zu dieser Argumentation vgl. Malraux 1987, S. 13ff Malraux 1987, S. 30 Diese Zahl nennt Scheurer 1987, S. 20 Einen Kurzüberblick über die Geschichte der Erfindung der Fotografie gibt Lieb 1994 23 Scheurer 1987, S. 99 24 In den Anfangszeiten müssen sie buchstäblich in einer Stellung festgebunden werden. 25 Vgl. Freund 1979, S. 13ff

164

TECHNISCHE MEDIEN ALS GRIFFEL DER NATUR

the rest.“26 lautet sein erfolgreiches Marketingkonzept. Das Angebot – für relativ wenig Geld – besteht aus einem Apparat, der einen beschichteten Papierfilm für etwa 100 Aufnahmen enthält. Die Box, ohne Sucher, aber mit fester Blende und einer festen Verschlusszeit von 0,25 Sekunden ermöglicht den Amateurfotografen Schnappschüsse. Wenn der gesamte Film belichtet ist, muss die ganze Box eingeschickt werden, man erhält Abzüge und die wieder mit einem neuen Film bestückte Kamera zurück. 1923 wird dieses System durch die von Oskar Barnack konstruierte Kleinfilmkamera, die Leica ersetzt. Ermöglicht diese Erfindungsreihe den Weg vom Sich-Fotografieren-lassen zum Selbst-Fotografieren, so wird die Industrialisierung der Berufsfotografie bestimmt durch die seit 1890 gegebene Möglichkeit Fotos zu drucken. Es entsteht der Bildjournalismus. Mit der Industrialisierung der Abbildung erfolgt eine Industrialisierung des Blickes.27 Die Ab-Bilder werden Fenster zur Welt. Aber die massenhafte Produktion der Abbilder hat Folgen. Bald geht es nicht mehr nur darum, Ereignisse im Foto festzuhalten, zu fixieren, sondern umgekehrt: Die Schönheit einer Landschaft wird daran gemessen, ob sie mit dem Prospekt konkurrieren kann. Nachdem die Alltäglichkeit der Portrait-Fotografie allen beigebracht hat, sich in Pose zu setzen, wird schließlich die Pose, die uns auf veröffentlichten Bildern der Illustrierten anstarrt, zum Vor-Bild für die Körperhaltung. „‚Bild‘ ist Hauptkategorie deshalb, weil heute Bilder nicht mehr als Ausnahmen auch in unserer Welt vorkommen, weil wir von Bildern vielmehr umstellt, weil wir einem Dauerregen von Bildern ausgesetzt sind. Früher hatte es Bilder in der Welt gegeben, heute gibt es ‚die Welt im Bild‘, richtiger die Welt als Bild, als Bilderwand, die den Blick pausenlos fängt, pausenlos besetzt, die Welt pausenlos abdeckt.“28

Ab-Bilder werden immer mehr zum Bestandteil von Wirklichkeit, Fotos werden Fenster zur Welt, übersehend, „daß sie nicht Fenster sind, sondern Bilder, also Flächen, die alles in Sachverhalte übersetzen“29. Wir sehen nicht auf ein Foto wie auf ein vergangenes Ereignis, sondern sehen Fotos fast immer im Plural, ob in privaten Fotoalben oder in Zeitschriften, das heißt, die Fotografien bringen eine Montage von Sachverhalten hervor, Fotos stellen immer Fotomontagen dar. Sie bilden eine eigene neue Bildsemiotik aus, eine Sprache der Fotografie30, eine Lichtschrift, die eingebunden ist in andere Zeichensysteme, zum Beispiel in einen 26 27 28 29 30

Zitiert nach Scheurer 1987, S. 101 Vgl. Scheurer 1987 Anders 1987, S. 250 Flusser 1992, S. 15 Vgl. Prokop 1978

165

GESCHICHTE DES MEDIALEN RAUMES

Text als Illustration oder in den Film als Grundbestandteil der Kinematographie.

Das fotografische Gedächtnis Der Fotoapparat funktioniert als Gedächtnis. Er fixiert Objekte als LichtBilder, als Fiktionen.31 Dieses Gedächtnis ist unerbittlich, kann nichts vergessen. Wie wichtig die Imagination von Bildern für das Gedächtnis ist, darüber ist sich die antike und mittelalterliche Gedächtniskunst sehr klar gewesen. Sich Bilder vorzustellen, gilt ihr als Grundprinzip der Mnemotechnik. Die Erfindung technisch reproduzierbarer Bilder konstituiert ein neues, ganz andersartiges Gedächtnis. Es handelt sich um keine Verbesserung der Ars Memoria, der Gedächtniskunst, denn der Apparat zur Erzeugung technischer Bilder, die Kamera, ist keine Stütze der Vorstellungskraft, sondern deren Bedrängung durch die technische Reproduktion. Mnemonik von Aristoteles bis Shakespeare heißt, die Phantasie zu trainieren, sie nicht wild wuchern zu lassen, sondern sie zu zähmen, nur solche Bilder zu erzeugen, die als Speicher für Gedanken geeignet sind. Als Gedächtnisapparat bringt die Kamera „materialisierte Gedächtnisbilder“ hervor, alles andere als Speicher für Gedanken. Für die aus der Tradition der Rhetorik erwachsene Ars Memoria, von Ad Herennium bis zum Gedächtnistheater der Renaissance, wären solche Bilder völlig unbrauchbar. Anhand von Fotos lässt sich keine Rede memorieren, sondern höchstens ein Dia-Vortrag, bei dem Bilder keine Gedächtnisstütze sind, sondern sich selbst in den Vordergrund drängen. Kameras produzieren Bilderfluten, Bilder von allem und jedem. Das fotografische Gedächtnis ist vollgestellt mit Bildern, in Fotoalben oder gar Filmarchiven gesammelt. Ein solches Gedächtnis lässt sich nicht trainieren. Was wird durch das fotografische Gedächtnis eigentlich der Erinnerung zugänglich gemacht? Auf jeden Fall handelt es sich beim Foto um eine Fiktion, aber um keine ausgedachte oder logische wie bei der Literatur, dem Gedächtnis der (phonetischen) Schrift, welches menschliche Reden in Bücher verwandelt. Die Fiktion ist auch von einer ganz anderen Art als bei den Werken der Malerei, bei denen der Künstler seine Vorstellungen auf die Leinwand bannt. Im Gegensatz zu Vorstellungen sind auf Fotografien Lichtspuren von etwas, das einmal gewesen ist, gebannt. Damit solche Lichtspuren Erinnerung wecken, damit sie uns affizieren, bedarf es keiner Gedächtniskunst, sondern „fast könnte man sagen, einer Dressur“32. Roland Barthes findet noch einen besseren Begriff: studium. Gemeint ist der lateinische Begriff, der nicht in erster 31 Vgl. Beilenhoff 1991, S. 444 32 Barthes 1989, S. 35

166

TECHNISCHE MEDIEN ALS GRIFFEL DER NATUR

Linie „Studium“ bedeutet, sondern Eifer, Hingabe an eine Sache, eine Art allgemeine Beteiligung. Aber es kommt noch ein zweites Element hinzu, das gar nicht dem souveränen Bewusstsein zugänglich ist und das studium aus dem Gleichgewicht bringt. Das Element kommt quasi aus dem Foto herausgeschossen, wie ein Wundmal, das sticht. „Dies zweite Element, welches das studium aus dem Gleichgewicht bringt, möchte ich daher punctum nennen; denn punctum das meint auch: Stich, kleines Loch, kleiner Fleck, kleiner Schnitt – und: Wurf oder Würfel. Das punctum einer Fotografie, das ist jenes Zufällige an ihr, das mich besticht.33

Das punctum offenbart sich nicht durch eine Analyse, sondern erscheint meist in einem Detail, in einer Einzelheit, die erst durch das Foto sichtbar wird. Roland Barthes beschreibt das punctum am Beispiel eines Fotos von Gassenjungen in einem New Yorker Italienerviertel. Es ist eigentlich ein lustiges, bewegendes Bild, doch was Roland Barthes sieht, „ohne den Blick abwenden zu können, sind die schlechten Zähne des kleinen Jungen“34. Punctum meint also etwas Zu-Fälliges, das nur durch ein Objektiv von einer Kamera als Foto geschossen, niemals von einem Maler mit einem Pinselstrich dargestellt werden kann. Denn eine gemalte Einzelheit – sei sie nun liebevoll detailversessen oder absichtslos nebenbei auf die Leinwand gebannt – ist niemals ein punctum. Mit punctum ist der Unterschied benannt zwischen einer technischen Spur des Realen und einem auf die Leinwand gebannten Motiv. Mit einer etwas anderen Gewichtung beschreibt Susan Sontag diesen Unterschied folgendermaßen: „Hätte Holbein der Jüngere lange genug gelebt, um Shakespeare malen zu können und hätte man andererseits bereits damals ein Foto von Shakespeare machen können, so würden sich die meisten Shakespeare-Fans für das Foto entscheiden. Sie täten es nicht nur, weil das Foto vermutlich zeigen würde, wie Shakespeare wirklich ausgesehen hat; denn selbst wenn die hypothetische Aufnahme verblichen wäre, undeutlich, vergilbt, würden wir sie wahrscheinlich einem prachtvollen Holbein vorziehen. Ein Foto von Shakespeare besitzen wäre, als besäße man einen Nagel vom Kreuz Christi.“35

Fotografieren ist also ähnlich, wie die Realität einzufangen und zu konservieren, aber nur ähnlich. Zu glauben eine Fotografie würde die Realität selbst konservieren, das wäre ein naiver Realismus. Bei Fotos handelt es sich um mit Apparaten erzeugte Bilder, um gespeicherte Spuren. Einschreibung einer Spur des Realen durch den Griffel der Natur besteht in einer Art Einbrennen durch den Lichtblitz. Durch ihn wird selbst das Unvorstellbare dem Vergessen entrissen, allerdings ohne dadurch vorstellbar zu werden. Es bleibt imaginär. 33 Barthes 1989, S. 36 34 Barthes 1989, S. 53 35 Sontag 1993, S. 147

167

GESCHICHTE DES MEDIALEN RAUMES

In der Moderne stehen die Namen von zwei Städten für das Unvorstellbare schlechthin: Auschwitz und Hiroshima. Erinnerung und Gedenken des Grauens mögen auch wachgehalten werden durch Trauerakte und Gedenkstätten, aber wirksamer scheinen inszenierte Lichtbilder, Verfilmungen, zu sein.36 Solche Lichtbilder sind aber viel mehr als Dokumente des Gedenkens, sie werden zu Dokumenten des Geschehenen. Sie liefern die Bilder für die Erinnerung unvorstellbaren Grauens. In Hiroshima lässt sich davon nichts mehr sehen, aber es lässt sich ein Film machen über die Unmöglichkeit zu sehen. „Die Fotografien und Filmaufnahmen der dem Erdboden gleichgemachten Stadt, der verbrannten Körper, der stehengebliebenen Uhr, der erblindeten Augen und der vor lauter Tod nicht sterben könnenden Überlebenden, all das samt den beigegebenen Erklärungen bringt das Grauen zwar näher, macht es aber sogleich wieder in seiner Unvorstellbarkeit irreal. Den Schrecken reproduzierend, ist es vielmehr dessen Simulation, die an dem, was sie darstellt, genau wiederholt, was der Atomblitz mit den Körpern gemacht hat, nämlich sie als Aschenspur einzubrennen. Mit jeder Geste des Zeigens nimmt das Gezeigte schon wieder einen anderen Sinn an, wird es wie Marguerite Duras spezifiziert, wie von der Aureole eines Lichthofes umstrahlt, die es mit supplementärem Sinn auflädt.“37

Ob nun Fotografien von Hiroshima in einem Dokumentarfilm oder einem Spielfilm inszeniert werden, nie handelt es sich um ein unentstelltes Dokument des Realen oder um die Abbildung von etwas immer schon Erblickbarem, sondern um die Erzeugung einer Erinnerung, die erst im Medium technischer Inventionen möglich wird. „Die Inventionen des Blicks führen etwas Neues herbei, das weder fingiert noch ausgedacht ist, sondern das in eine Tiefenstruktur des Seins hineinführt, deren uneingebildete und ungedachte Gesetzmäßigkeit sich erst im Medium technischer Inventionen erschließt.“38

Fotografien zeigen die Dinge in einer entstellenden Perspektive, reißen sie aus ihrem raum-zeitlichen Kontext. Das Licht verbindet das fotografierte Objekt und unseren Blick. Im Foto gespeichertes vergangenes Licht „ver-rückt“ die Zeit, macht das Vergangene sichtbar.39 Fotos bilden nichts Fingiertes oder Ausgedachtes, sondern konstituieren imaginäre Museen. Diese imaginären Museen können zwar das Gewesene nicht

36 „In einem Bergwerk nahe Freiburg lagert die Bundesrepublik auf Microfilm ein Doppel ihrer kulturellen und administrativen Dokumente, die im Falle einer atomaren Verwüstung den Platz der Originale einnehmen sollen.“ Ernst 1988, S. 510 37 Wetzel 1991, S. 164 38 Wetzel 1991, S. 164 39 Vgl. Beilenhoff 1991, S. 447

168

TECHNISCHE MEDIEN ALS GRIFFEL DER NATUR

vor-stellbar machen, aber sie beruhen auf einer technischen Spurensicherung, auf in Bildern eingebrannten Spuren. Technisch reproduzierte Bilder von Spuren können kaum verbrannt werden, da sie massenhaft existieren, was bei Schriftstücken erst seit dem Buchdruck der Fall ist. Vielleicht noch entscheidender für die Unmöglichkeit der Löschung, des Vergessens beim fotografischen Gedächtnis ist die Art und Weise ihrer Produktion der Gedächtnisbilder. Durch einen Knopfdruck erzeugbar, produzieren sie eine Bilderflut, gegen die eine Bildzerstörung ein vereinzelter Akt bleibt. Ikonoklasmus wird unmöglich.40 „So saugen die technischen Bilder alle Geschichte in sich auf und bilden ein ewig sich drehendes Gedächtnis der Gesellschaft.“41

Wenn jede Alltagshandlung fotografiert, gefilmt oder auf Video gebannt, jede öffentliche Handlung zum Fernseh- oder Illustrierten-Dokument gemacht wird, beschreiben Menschen schließlich Ereignisse, die ihnen zustoßen, mit den Worten, es sei wie im Film gewesen. Das Universum der technisch erzeugten Bilder wird zu einem materiellen Speicher, der jede Imagination determiniert. Das haben Bibliotheken von geschriebenen Büchern nie vermocht. Denn in Bibliotheken wird nur aufbewahrt, was andere Menschen über die Wirklichkeit gesagt haben. Die Worte der abwesenden Menschen müssen immer mit eigenen Imaginationen gefüllt und verstehbar gemacht werden. Fotografien dagegen haben schon den Status des – technisch hergestellten – Imaginären. Auf Fotos können keine Details vergessen oder assoziativ verändert, sondern nur gefälscht werden. So können wir heute genau wissen, wie wir selbst, unsere Eltern und Großeltern als Kinder ausgesehen haben. Fotoalben – und zunehmend Videofilme – bilden eine Dokumentation des Lebens, ein imaginäres Archiv der eigenen Identität,42 das sich mit einem geschriebenen Tagebuch kaum vergleichen lässt. Auch nicht fotografisch erzeugte Bilder, die Gemälde, verschwinden schließlich im fotografischen Gedächtnis: „Heute stehen dem Studierenden eine Fülle farbiger Reproduktionen nach den meisten Hauptwerken zur Verfügung.“43 Der Vergleich eines Bildes aus dem Louvre mit einem anderen in Madrid oder Rom kann prinzipiell über das Medium des Gedächtnisses erfolgen. Aber nur das fotografische Gedächtnis kann Bilder, die eigentlich an verschiedenen Orten liegen, als technisch perfekt reproduzierte Kopien nebeneinander legen. Das imaginäre Museum der Foto40 41 42 43

Vgl. Lachmannn 1991, insbes. S. 131ff Flusser 1992, S. 18 Zum Verhältnis von Imaginärem und Identität vgl. Apostolidès 1993 Malraux 1987, S. 11. Malraux leitet daraus eine Intellektualisierungstendenz in der Kunst ab.

169

GESCHICHTE DES MEDIALEN RAUMES

grafie braucht keinen festen Ort, sondern befindet sich in einem fotografischen Gedächtnis-Archiv, das Bild-Kopien genauso an jedem beliebigen Ort zugänglich macht, wie die Druckerpresse Buch-Kopien in die Hände von jedermann gegeben hat.

170

Film

„Der Film ist nicht nur großartiger Ausdruck des Mechanischen, sondern bietet paradoxerweise als Erzeugnis das zauberkräftigste aller Konsumgüter, nämlich Träume an.“1

Die Kinematographie markiert die Übersetzung von der Grafosphäre zur Videosphäre, von der Ära der Kunst zur Ära des Audiovisuellen. Sie etabliert eine audiovisuelle Diskursform, welche vielfältige Felder der Kunst, wie den Roman, die Malerei, das Drama und die Musik nach einem neuen Dispositiv formt. „Anstatt sich also irgendwo bequem im bestehenden Spektrum einzuordnen, umfasst die ‚Filmkunst‘ eher alle alten Künste.“2 Der Film ist als Integrator „alter“ Medien in vielfacher Hinsicht ein Vorläufer des Computers als Medium der Übersetzung. Durch vielfältige Übersetzungen von Raum und Zeit konstituiert er eine neue audio-visuelle Wahrnehmungssphäre konstruierter Wirklichkeiten. Während die Schrift die gerichtete Zeitachse der Sprache in einen linearen Schriftraum übersetzt, transformiert die Kinematographie den technischen Bildraum der Fotografie in zeitliche Aufführungen. Tonfilm schreibt diesen zunächst stummen visuellen Inszenierungen die phonographische Stimme ein. Film stellt ein Zeitmedium dar, dass mittels einer technischen Apparatur den linearen Fluss der auf einer Rolle aufgewickelten fixierten Töne und Bilder projiziert. Die funktionale Trennung der Fixierung auf Zelluloid und der Darstellung als Projektion auf der leeren Leinwand erzeugt das Dispositiv der synthetischen Filmzeit. Der Anfang der Kinematographie ist etwas willkürlich auf den 28.12.1895 gelegt worden, als die Gebrüder Lumière gegen Eintrittsgeld öffentlich das erste Mal bewegte Bilder vorführen.3 In Sekundenbruchteilen wechselnde Bilder werden auf die Leinwand projiziert und den Zuschaueraugen dargeboten. Kameras, die Apparate des Licht-Griffels, arbeiten inzwischen mit Verschlusszeiten von noch kleineren Sekundenbruchteilen, um Spuren des Realen auf Zelluloid zu bannen. Uhren gehen inzwischen genau genug, und das Wirkungsprinzip ihrer Mechanik ist genügend verstanden, um mit Hilfe von Geschwindigkeit und Malteserkreuz eine Wirklichkeitsillusion auf die Leinwand zu zaubern. Kinematographie ist kein einfaches Medium, sondern „von Anfang 1 2 3

McLuhan 1992, S. 333 Monaco 2000, S. 27 Bereits 1891 melden Thomas Alva Edison und W.K. Laurie Dickson ein Patent auf ihren „Kinetographen“ an. Insgesamt entsteht das Medium Film aus einer Vielzahl von Einzelerfindungen, so dass sich ein genaues Anfangsdatum nicht angeben lässt. Vgl. Dorn 1994, S. 189ff

171

GESCHICHTE DES MEDIALEN RAUMS

an Manipulation der Sehnerven und ihrer Zeit“4, eine merkwürdige Kombination von medialen Formen, ein Medium, bei dessen Produktion unterschiedliche Personen für die Farben, die Beleuchtung, den Ton, die Darstellung und das Sprechen zuständig sind. „Nun ist eine andere Maschine an der Arbeit, der Kultur eine neue Wendung zum Visuellen und dem Menschen ein neues Gesicht zu geben. Sie heißt Kinematograph. Sie ist eine Technik zur Vervielfältigung und Verbreitung geistiger Produktion, genau wie die Buchpresse, und ihre Wirkung auf die menschliche Kultur wird nicht geringer sein.“5

Das neue Medium arbeitet mit der Vortäuschung einer fiktiven Wirklichkeit. Es projiziert Bilder, die den Zuschauer in den Bann optischer Illusionen ziehen. Das Prinzip beruht auf der sehr alten Idee der Bewegung von Einzelbildern und deren Wiederzusammensetzung.6 Schon in den 50er Jahren des letzten Jahrhunderts lassen sich Fotos mit sehr kurzen Verschlusszeiten machen, die eine Chronofotografie erlauben, das heißt, Aufnahmen auch von schnellen Bewegungen zu machen, so dass auf den Einzelbildern Phasen der Bewegung sichtbar werden.7 Jedoch nur wenn man sie zusammen ansieht, lässt sich auf ihnen noch Bewegung wahrnehmen, besser gesagt, die Zusammenschau der Einzelbilder kann als eine Zerlegung von Bewegung gedeutet werden. Denn jedes Einzelbild, in dem die Bewegung etwa eines Läufers erstarrt für einen Augenblick, wirkt nicht als Teil einer Bewegung, sondern als künstlich und eben starr. Ein Bildhauer, der die Bewegung eines Läufers darstellen will, kann sich keine Chronofotografien zum Vorbild nehmen, sondern muss die Form einer Gestalt erfinden, die bewegt erscheint, obwohl eine so geformte Gestalt niemals mit einer Fotografie einer Person in Bewegung übereinstimmt. „Nein, es ist der Künstler, der wahrheitsgetreu ist, und die Fotografie, die lügt, denn in der Realität steht die Zeit nicht still, und wenn es dem Künstler gelingt, den Eindruck einer Geste zu vermitteln, die in mehreren Augenblicken ausgeführt wird, dann ist sein Werk sicher sehr viel weniger konventionell als das wissenschaftliche Bild, bei dem die Zeit jäh unterbrochen wird.“8

4 5 6

7 8

Kittler 1986, S. 177 Balázs 2001, S. 16 Paul Virilio zieht eine Verbindungslinie vom Maschinengewehr, zu dem Oberst Gatling die Idee erhält, als er die Schaufelräder eines Raddampfers betrachtet, zur Erfindung der fotografischen Flinte von Etienne-Jules Marey und gibt ansonsten einige erhellende Hinweise auf den Zusammenhang von Krieg und Kino. Virilio 1989b, S. 19ff Vgl. Oeder 1990 Auguste Rodin im Gespräch mit Paul Gsell, zitiert nach Virilio 1992, S. 104

172

FILM

Wenn die Chronofotografie auch keine Bewegung darzustellen vermag, legt sie doch die Grundlage für eine Bildertechnik, die Bewegung vortäuscht, indem die Bilder selbst bewegt werden. Um dies technisch zu bewerkstelligen, bedarf es einiger Erfindungen, nämlich des Rollfilms, der in genügender Geschwindigkeit9 wieder abgerollt werden kann, sowie der schon von der mechanischen Uhr bekannten Hemmung, damit die Bilder für einen Augenblick stillstehen und nicht nur vorbeirauschen in einem Lichtbogen. Um diese Techniken beherrschen und einsetzen zu können, bedarf es als Voraussetzung der Experimente mit der Laterna magica und dem Stroboskop, den technischen Vorläufern des Filmprojektors, sowie der wissenschaftlichen Einsicht in den Effekt der Nachbildwirkung. Notwendig ist eine Psychophysik, wie es Fechner formuliert, der – um den Stroboskopeffekt zu studieren – so lange in die Sonne starrt, bis er für drei Jahre erblindet.10 Solche Erblindung müssen Kinobesucher bei sich dadurch herstellen, dass sie sich in einen völlig abgedunkelten Raum setzen, damit das Auge nur noch vom künstlichen Licht der Glühbirne projizierte Bilder wahrnimmt. Zuschauer „reagieren auf die Leinwand wie auf eine mit dem Gehirn fernverbundene, nach außen gestülpte Netzhaut“11, meint Edgar Morin, nach Worten dafür ringend, dass technisch erzeugte Bilder das Auge derart täuschen, dass sie die Wahrnehmung einer fiktiven Wirklichkeit erzwingen. Allerdings wird die Fähigkeit der Wahrnehmung fiktiver Wirklichkeit nicht allein durch das Vorhandensein einer Technik erzwungen, worauf Marshall McLuhan aufmerksam macht. „Wenn jemand von der Bildfläche verschwindet, will der Afrikaner wissen, was mit ihm geschehen ist. Ein alphabetisches Publikum jedoch, das gewohnt ist, gedruckten Vorstellungsbildern Zeile um Zeile zu folgen, ohne die Logik der linearen Folge in Frage zu stellen, nimmt die Filmsequenzen wortlos hin. […] Eingeborene jedoch, die mit der phonetischen Schrift und dem linearen Buchdruck wenig in Berührung gekommen sind, müssen Fotos oder Filme ‚sehen‘ lernen, genauso wie wir unsere Buchstaben lernen müssen.“12

Leser haben es sich angewöhnt, eine Welt zu erblicken, wenn sie auf eine (Buch-)Fläche schauen. Aber dieser Blick unterscheidet sich vom filmischen. Mehr noch als das Augentraining durch alphabetisches Lesen ist die jahrhundertelange Einübung in den perspektivischen Blick die Voraussetzung, die das „Sehen“ von Filmen ermöglicht. Welche Wirklichkeit der Film eigentlich zu sehen gibt, dem wird noch weiter nach zu 9

Zunächst werden 17 Bilder pro Sekunde erreicht, dann verkürzt man auf 24, wodurch der Eindruck eines „natürlichen“ Bewegungsablaufs erzeugt wird. 10 Vgl. Kittler 1986, S. 184 11 Zitiert nach Kittler 1986, S. 186 12 McLuhan 1992, S. 327f

173

GESCHICHTE DES MEDIALEN RAUMS

gehen sein. Zunächst einmal muss noch ein Element hinzugefügt werden. Denn die Kinematographie, so wie wir sie heute kennen, umfasst mehr als die optische Täuschung mittels bewegter Lichtbilder.13 Bereits Edison schwebt eine Kombination seiner beiden Erfindungen Phonograph und Kinetograph vor. Schon 1918 wird in Deutschland das Lichttonverfahren entwickelt. Aber erst 1927 wird offiziell der erste Tonfilm gezeigt, der im Nadeltonverfahren produziert ist. Parallel zum Bild wird der Ton auf Schallplatte aufgezeichnet. Bei diesem Verfahren ergeben sich eine Menge Synchronisationsprobleme: Filmschnitte sind schwierig, bei einem Filmriss müssen Bild und Ton wieder neu einjustiert werden. Deshalb setzt sich schließlich der Lichtton trotz schlechterer Tonqualität durch, bei dem die Toninformationen als Lichtspur neben den Filmbildern auf dem Zelluloidstreifen angebracht werden. Sehr rasch verdrängt der Tonfilm den Stummfilm. Um die Übersetzungen der Kinematographie zu ermöglichen, müssen Techniker also eine Reihe von Synchronisationsproblemen überwinden. Kinematographie bildet eine Schrift mit völlig neuen synästhetischen Qualitäten. Ist phonetische Schrift die Übersetzung vom Auditiven ins Visuelle durch die Verräumlichung von Zeit, so potenzieren sich bei der Kinematographie die Übersetzungen durch das erforderliche Zeitregiment der Synchronisation. Schrift lässt sich schnell und langsam lesen, je nach dem Gustus des Lesers. Geschwindigkeitssteigerung im Film wird zum Delirium, da nicht der Filmbetrachter die Geschwindigkeit ändern kann, sondern die Produzenten des Films und der Projektor schreiben die Synästhesie vor. Seltsamerweise wird dieser erhöhte Zwang als Authentizitätssteigerung erlebt. In der Tat bietet das große Kino des Tonfilms eine perfekte Wirklichkeitsillusion.14 Den gegenüber dem Stummfilm höheren Authentizitätsanspruch begründet Bela Balázs folgendermaßen: „Der Ton bildet nicht ab. […] Denn das Bild des Schauspielers erscheint zwar auf der Leinwand, nicht aber das Bild seiner Stimme, sondern seine Stimme selbst. Diese wird nicht abgebildet, sondern wiederhergestellt. Sie kann im Ton leicht differieren, besitzt aber die gleiche Wirklichkeit wie sie.“15

Wie aufgezeigt, schreiben das jeweilige Dispositiv von Phonographie und Fotografie unterschiedlich in die Wirklichkeit ein. Grammophone produzieren Schallwellen, die Fixierung der Belichtung erzeugt Bilder. 13 Es wäre eigentlich auch noch der Veränderung vom Schwarz-Weiß– zum Farbfilm nachzugehen. Erstaunlicherweise reichen für unseren Blick Graustufen für das Trompe-l’œil weitgehend. 14 Die Filmtechnik, mit stereophoner (oder gar polyphoner) Tonwiedergabe und Breitleinwand, bietet dabei von der „Auflösung“ her ein Niveau, das bisher von keinem anderen Medium erreicht ist. 15 Zitiert nach Dirscherl 1988, S. 377

174

FILM

Aber dass der Ton im Film das Wirkliche selbst sein soll, lässt sich daraus nicht herleiten. Wenn etwa in die Szene eines Gesprächs auf der Straße auch der „Originalton“ des Verkehrslärms eingeblendet wird, handelt es sich um eine Verweisung auf das Rauschen des Verkehrs. Wenn diese Verweisung nicht bezweckt ist, muss solches Rauschen im Film unterdrückt oder gefiltert werden, weil – anders als in einer wirklichen Begegnung auf der Straße – das Verkehrsrauschen nicht vom Wahrnehmenden weitgehend ausgeblendet wird, falls es ihm als Fiktion, als eine Art Tonbild, in einer Filmszene präsentiert wird. Perfekte Wirklichkeitsillusion im Tonfilm leistet also nicht der Ton für sich, sondern sie ergibt sich aus der Synästhesie. Durch ein Zusammenspiel von verschiedenen technischen Medien wird eine höhere Flexibilität in der Übersetzung erreicht, nicht nur in eine Richtung vom Auditiven zum Visuellen, sondern auch vom Visuellen zum Auditiven. Deutlich wird dies in der Technik der Musikuntermalung von Filmszenen, also der Zufügung einer Musik, welche die Bilder untermalt, und ihnen damit die gewollte Stimmung verleiht, die Bela Balázs die „Stimme der Dinge“16 nennt. Der Ton wird damit zu einem Objekt des Films, das mit anderen Filmobjekten zusammenspielt für die Konstruktion des Filmereignisses. Seit der Erfindung des Tonfilms müssen Schauspieler nicht nur fotogen sein, sondern auch eine markante Stimme haben; markant heißt nicht kräftig oder laut, sondern markierend. Ihre Stimme muss als wiedererkennbares Zeichen fungieren können. Filmidole werden zu Ikonen. Wirklichkeitsillusion im Film heißt nicht, Abbildung einer vorgegebenen Wirklichkeit, sondern die Konstruktion von Wirklichkeiten, von glaubhaften Welten. Die Projektion fotografischer Abbilder in Bewegung auf der Kinoleinwand zeigt weder die durch einen Apparat objektiv wiedergegebene Wirklichkeit, welche der Griffel der Natur geschrieben hätte, noch die von einer losgelösten Fantasie produzierten Traumbilder. Vielmehr arbeitet die Kinematographie mit der Montage von Fotografie und – seit dem Tonfilm – von Phonographie. Solche Montage ist nicht die Arbeit eines Ingenieurs, sondern eines künstlerischen Regisseurs, der sich einerseits der Techniken, die der Ingenieur bereitgestellt hat, bedient, andererseits ein auch schon vorliegendes Drehbuch in ständig neu zu erfindende ideographische Elemente umzusetzen hat, die verständlich sind. Als figurative Spuren im Bild- und Klang-Raum bleiben sie bis zu einem gewissen Grade kontingent, aber eben nur bis zu einem gewissen Grade. Eingeschränkt wird die Kontingenz durch zwei völlig unterschiedliche Faktoren: erstens durch die Aufgehobenheit der äußeren Wirklichkeit im Film, so dass – wie Kracauer es ausdrückt17 – das Wesen 16 Dirscherl 1988, S. 381 17 Kracauer 1999, S. 53

175

GESCHICHTE DES MEDIALEN RAUMS

der Fotografie im Film fortlebt, und zweitens dadurch, dass ein Film sich in einem anderen fortschreibt, also schon auf der Konfiguration eines anderen Films beruht, der die Wahrnehmung des Zuschauers geprägt hat. Die Zusammenfügung einzelner Filmaufnahmen ist seit Eisenstein in den zwanziger Jahren als Prozess der Synthese charakterisiert: die Montage.18 Während in Frankreich für diesen Teil des Filmschaffens der Begriff ‚montage‘ sich durchsetzt, wird dies heute im Englischen eher mit ‚cutting‘ und ‚editing‘ übersetzt. Im Deutschen spricht man vom Filmschnitt. Technisch ist die Montage überraschend einfach: Man kann Filmbilder erstens übereinander legen (Doppel-Belichtung, Überblendung, Mehrfach-Bilder) oder zweitens aneinander reihen, was die vorherrschende Technik beim Bildschnitt ist, während die Tonmontage fast immer mit der ersten Technik arbeitet. Tontechniker sprechen von Mischung. Bei Montagen ist der Rhythmus der aufeinanderfolgenden Aufnahmen zu beachten. Diachronische Aufnahmen verlangen, dass die Bewegungen in der Aufnahme bei der Montage berücksichtigt werden. Techniken des „unsichtbaren Schnitts“ (im Hollywood-Film der übliche) schaffen die Illusion einer kontinuierlichen fiktiven Wirklichkeit, während der „jump cut“, bei dem die Bewegung unterbrochen wird, neue künstlerische Gestaltungsmöglichkeiten für Fiktionen eröffnet. Wichtig ist die Bestimmung der richtigen Länge der Einzelaufnahmen in der Montage, sowohl in Hinblick auf die vorhergehenden als auch auf die folgenden Szenen. Montage stellt kein Kontinuum zwischen den Einstellungen einer Szene her, sondern krümmt die Zeitlinien des Films durch parallele, erzählende, beschleunigte Rückblenden- oder SchachtelMontagen. Zu jeder Technik entwickeln sich spezielle Montagetheorien, die der Filmtheoretiker Christian Metz zu einer semiotischen Montagetheorie zu verschmelzen suchte.19 Filmkomposition wird aber nicht allein von den Techniken der Montage bestimmt, welche die zeitlichen Achsen des Films definieren. Genauso wichtig sind die Techniken der Raumkomposition, die Mise en scène. Wörtlich heißt das „In Szene Setzen“. Eine Szene zu schaffen, erfordert eine fiktive Zeit- und Raumorganisation. Für die mise en scène müssen das Bildformat festgelegt und die räumliche Komposition des Bildes figuriert werden.20 Mise en scène und Montage greifen ineinander. Kinematographie als Schrift des Figurativen21 arbeitet anfangs nur mit stummen Bildern von bewegten Szenen. Da das Schattenspiel auf der 18 Vgl. Monaco 2000, S. 218ff und Schnell 2000, S. 51-102 19 Vgl. Metz 1972. Metz Anliegen ist die Formulierung einer abstrakten Filmtheorie, für das Anliegen des praktischen Filmschaffens vgl. Arijon 2003. 20 Monaco 2000, S. 176ff 21 Paech 1994, S. 218

176

FILM

Leinwand nur einen engen Raum zur Verfügung hat, müssen immer neue Bilder die Weite des Raumes im Virtuellen darbieten. „Aber je mehr Bilder der Film verwendet, um auch das Unsichtbare sichtbar zu machen, desto mehr Lücken, offene Fragen und dunkle Löcher produziert er, in deren Abgründe die Oberfläche der Sichtbarkeit abzustürzen droht.“22

Deshalb benötigen kompliziertere Filmerzählungen im Stummfilm einen Erzähler, der wie der Moritatensänger die Bilder kommentiert. Dieser kann auch durch eine eingeblendete phonographische Schrift ersetzt werden,23 die Themen der Szenen mit anderen als bildlichen Mitteln entschlüsselt. Ein Teil der Stummfilmmacher jedoch hat diese Hilfsmittel abgelehnt, wollte Film „als reinen Ausdruck einer visuellen Idee verwirklicht“24 wissen. Besonders nachdrücklich vertritt Sergej Eisenstein die eigenständige Möglichkeit visueller Artikulation in einer Filmtheorie der Montage ideographischer Elemente, die er an der japanischen Schrift entwickelt und mit Hieroglyphen vergleicht.25 Konsequent steht er deshalb auch dem Tonfilm skeptisch gegenüber, akzeptabel ist er ihm nur, wenn der Ton in Kontrast zur visuellen Form ebenfalls montiert wird. Die Kinematographie differenziert sich im Laufe der Zeit in verschiedene Filmsparten aus – welche sich natürlich überschneiden können –, wie Spielfilm, Lehrfilm, Werbefilm, Dokumentarfilm etc., wobei sich etwa Spielfilme wieder untereinander nach verschiedenen Genres wie Horror, Science-Fiction, Musical, Western, Melodram, Katastrophenfilm, Kriegsfilm etc. typisieren lassen. Bei den Genres handelt es sich nicht um nachträgliche Kategorien, um Filme ordnend zu beschreiben, sondern Filme werden schon als bestimmte Typen produziert. Filmproduzenten wissen, dass sie nicht die Welt und eine ihr innewohnende Logik oder Wahrheit auf die Leinwand bannen, sondern dass sie Welten zum Aussuchen konstruieren, die – wie fiktiv auch immer – Wirklichkeit zeigen. Jean-Luc Godard hat das in einem Fersehnfilm über die Geschichte des Kinos so ausgedrückt: „Das Kino projizierte, und die Menschen haben gesehen, daß es die Welt gibt.“26

Von ihm stammt auch der berühmte Satz, Film sei 24-mal Wahrheit in der Sekunde. Die Wahrheit Godards ist nicht die Wahrheit einer vorge22 Paech 1994, S. 213 23 Schrift kann aber auch filmisch als eigenes filmisches Bildelement, nicht als notwendiger Kommentar zu stummen Bildern eingesetzt werden, was das Hauptthema des Aufsatzes von Paech 1994 ist. Im Tonfilm ist Schrift nur noch in den Vor- und Abspännen üblich, in denen die Namen der an der Filmproduktion Beteiligten mitgeteilt werden. 24 Paech 1994, S. 214 25 Vgl. Paech 1994, S. 219 26 Zitiert nach Zielinski 1990, S. 70

177

GESCHICHTE DES MEDIALEN RAUMS

gebenen Welt, sondern die Wahrheit einer Wirklichkeit der Projektionen. Gesucht sind hinter den Lichtbildern keine ewigen Ideen wie Plato sie hinter den Schattenbildern seiner Höhle postiert. Stattdessen machen die mit dem Griffel der Natur geschriebenen Fotos – zum Film montiert – eine illusionäre Wirklichkeit sichtbar, und zwar im Lichtspieltheater. Theater scheint zunächst eine geeignete Bezeichnung, weil hier wie im Kino ein Wirklichkeitsspiel unter Ansprechung aller Sinne mit synästhetischen Mitteln gegeben wird. Kino konstituiert in der gesellschaftlichen Videosphäre ein Lichtspiel, dem ein Kollektiv von Menschen zuschaut. Jedoch im Unterschied zum Theaterbesucher sitzt der Kinobesucher in einer völlig abgedunkelten Höhle.27 Das beste Kino ist das dunkelste in der ganzen Stadt.28 „Der Filmsaal war keine neue Agora, kein urbanes Forum, wo die Einwanderer aus aller Welt sich hätten treffen können, sondern eher ein Zenotaph. Was der Film in diesen Tempeln im wesentlichen leistete, indem er Ordnung ins Chaos des Sehens brachte, war eine gesellschaftliche Formierung.“29

Schausteller zeigen dem Zuschauer nicht in der eigenen Person ein Spiel, es wird „die Kunstleistung des Filmdarstellers dem Publikum durch eine Apparatur präsentiert“30. Ein Kinoerlebnis kann zwar tiefgreifende Folgen für den Besucher haben, es kann sein Leben verändern, ist aber selbst kein lebendiges Erleben, sondern eine Bannung der Sinne durch die beleuchtete Leinwand, die nur dann den Zuschauer vollkommen fixieren kann, wenn er selbst starr und im Dunkel bleibt. Nicht nur die Schauspieler auf der Leinwand sind keine lebendigen Wesen, auch der Körper des Zuschauers ist während der Vorführung wie tot für seine Umgebung, in der er meist still auf einem Stuhl sitzt, völlig zugewandt dem imaginären Geschehen auf der Leinwand. Er erwacht erst, wenn das Licht wieder angeht. Um aus dem Grab des Kinosaals zu steigen, braucht es keiner religiösen Erleuchtung, sondern nach der Vorführung zerstört das angehende elektrische Licht den Bann. Die Lichtbilder verschwinden, und die Leinwand ist wieder weiß. Aber der Zauber der bewegten Lichtbilder ist längst nicht gebrochen, wenn der Bann der Vorführung zu Ende ist. Das Kino konstituiert eine neue Sinnlichkeit, die Wahrnehmung einer Welt der fiktiven Wirklichkeit, eine gesellschaftliche Formierung des Sehens, die vorher unvorstellbar gewesen ist. Nicht zufällig heißen die großen Produktionsstätten

27 Wagner ist der erste, der auch ein Schauspiel, den Ring der Nibelungen in völliger Dunkelheit beginnen lässt. Vgl. Kittler 1986, S. 185ff. 28 Vgl. Kittler 1986, S. 186 29 Virilio 1989b, S. 69f 30 Benjamin 1991b, S. 487

178

FILM

des Films in Hollywood auch Traumfabriken.31 Geträumt haben Menschen schon immer, und in fast allen Kulturen wird Träumen irgendeine Art von Wirklichkeit bescheinigt, die sich nur durch Deutung erschließt. Zeitlich relativ parallel zur Erfindung des Films nimmt der Gedanke der exakten Analyse der Psyche Gestalt an. In solchen Analysetechniken verknüpft sich die Traumdeutung eng mit den Techniken des Films. „Freud hat […] in der Traumdeutung das Schichtenschema aufgestellt, in das sich Wahrnehmungen und Erinnerungen einschreiben, wobei die einen das Bewußte und die anderen das Unbewußte bilden, das sich mit dem Bewußtsein projiziert und eventuell den Kreis von stimulus und response geschlossen hat, mit dem man seinerzeit versuchte, sich den Kreislauf des Lebendigen verständlich zu machen. Wir können es als eine Überlagerung photographischer Filme ansehen.“32

Bei Freuds Traumdeutungen geht es nicht um letzte Gewissheiten und Sinnstiftungen. Der Traum erschließt sich ihm nicht durch Logik, sondern aus Bildern. „Das Gesicht, das ich im Traum sehe, ist gleichzeitig das meines Freundes R. und das meines Onkels. Es ist wie eine Mischfotografie von Galton, der, um die Familienähnlichkeiten zu eruieren, mehrere Gesichter auf die nämliche Platte photographieren ließ.“33

Erst mit den präzisen Bildertechniken reift der Gedanke, eine Technik der Deutung von Traumbildern zu entwerfen. Die Beziehung zwischen Kinematographie und Psychoanalyse sind nicht eindimensional, sondern vielfältig verschlungen. Drehbücher – besonders in frühen Filmen – lesen sich oft wie angewandte Psychonanalyse, Filme gleichen Träumen auf der Leinwand. Das wiederum verführt den Psychoanalytiker Slavoj Zizek, immer wieder Filme, insbesondere die von Alfred Hitchcock, als Material zu nehmen, durch das sich mit den Kategorien der Lacanschen Psychoanalyse weite Bereiche der Gesellschaft erklären lassen.34 In dieser für einen Geisteswissenschaftler vielleicht immer noch ungewöhnlichen Vorgehensweise ist konsequent vollzogen, was schon lange gilt: Die Architektur des Wissens in der Videosphäre beruht nicht mehr auf dem Buchdruck, sondern auf audivisuellen Medien. Literatur, besonders der klassische Roman, malt mit Worten Bilder aus. Landschaftsbeschreibungen etwa füllen Seite um Seite. Aber welche Mühe um Genauigkeit 31 Träume als Film zu produzieren, wird ein großes Geschäft. Eine knappe Wirtschaftsgeschichte des Films findet sich in Dorn 1994, S. 192ff. 32 Lacan 1991d, S. 187 33 Freud 1992, S. 155. Der Hinweis auf die Fototechniken von Francis Galton, der übrigens in die Kriminalistik den Fingerabdruck als Beweisverfahren einführt, taucht in der Traumdeutung nicht nur isoliert an dieser Stelle, sondern mehrfach auf. 34 Vgl. z.B. Zizek 1991 und Zizek 1993

179

GESCHICHTE DES MEDIALEN RAUMS

der Autor sich auch geben mag, Leser müssen aus den Worten ihre eigenen Landschaften in der Fantasie formen, um im Imaginären eine Gegend entstehen lassen zu können. Filme erzeugen fiktive StadtLandschaften technisch maschinell, oft zum Schrecken der Zuschauer. „Denn was anderes ist das Kino als eine aus der Kontrolle der Literatur geratene Maschine? Nicht zufällig zeigte man in der ersten öffentlichen Vorführung der Kinogeschichte, im Pariser Grand Café im Jahre 1895, den Film der Gebrüder Lumière Ankunft eines Zuges in La Ciotat. Die Zuschauer reagierten auf den ihren Sitzen entgegenrasenden Zug mit Schrecken. Am Anfang des Kinos steht das technische Delirium der Geschwindigkeit und der Angst.“35

Der Zug ist eine der häufigsten Metaphern36 für die Geschwindigkeit in der Fiktion, den rasenden Stillstand, wie Paul Virilio es nennt. Dadurch, dass die Bilder sich selbst bewegen, gelingt die technische Imagination der Bewegung. Als Delirium der Bewegung erscheint Menschen des 19. Jahrhunderts die Eisenbahn. Was Wunder, dass diese dann auch in Motiven des Films auftaucht! Und da Angst immer imaginär ist, versetzt auch die Imagination des mechanisch bewegten Zuges in Schrecken, zumal der imaginäre Zug auf den still im Stuhl sitzenden Zuschauer zufährt. Die (Alb-)Traumbilder bewegen sich weiter bis zum Überfahren werden. Aber natürlich wird niemand vom Zug auf der Leinwand verletzt, so wenig wie jemand auf die Idee kommen würde, eine gemalte Pfeife von René Magritte zu rauchen, auch wenn da nicht die Warnung wäre, dass da keine Pfeife ist. Das Spiel einer Realitätsillusion lässt sich im Praktischen immer zerstören. Wirklichkeit lässt sich nur imaginär verdoppeln, nicht praktisch wirklich, aber eben doch imaginär wirklich. Genau darin liegt die merkwürdige Spannung der scheinbar realistischen Malerei Magrittes, die einer Fotomontage ähnlich wirkt. Die Grenzen werden fließend: Auch im Traum kann man aus dem Traum erwachen, und der Film im Film ist ein beliebter Kunstgriff cineastischen Spiels mit der Realität. Ein Meister wie René Magritte stellt dieses Verwirrspiel mit den Mitteln der Malerei her. Beim Gemälde im Gemälde verschwimmen die Grenzen zwischen Abbildung und Abgebildetem und werden gerade dadurch noch einmal neu gezogen.37 Jedes Medium behält seine speziellen Eigentümlichkeiten. Auf der gemalten mit Farbpigmenten strukturierten Oberfläche kann ein Betrachter zwar unterschiedliche Motive finden, deren Zustand und Statik ein Film in die zeitliche Dimension auflöst. Aber Bilder, wie die von Magritte lassen sich erst malen, seit es 35 Schneider 1990, S. 283f 36 Es gibt unzählige Eisenbahnfilme. Vgl. Schneider 1990, S. 283 Fußnote 9 37 Vgl. Köppen 1993, S. 115. Magritte selbst intendiert auch nichts Verschwommenes, sondern will „dem Mysterium, das im Realen ist“ auf die Spur kommen. Er ist „weder auf ‚Imaginäres‘ noch auf ‚Irreales‘ besonders neugierig“ (zitiert nach Köppen 1993, S. 137).

180

FILM

technisch reproduzierte Bilder gibt, wie sich ein Gedicht wie „A rose, is a rose, is a rose, is a rose […]“ erst schreiben lässt, wenn es den Rhythmus eines technisch reproduzierten Tons gibt. Kinematographie verändert die Übersetzungen der Schrift. Der Film konstituiert ein eigenes komplex organisiertes Dispositiv von Zeit, Raum und Bewegung, das Sprache, Bild und performative Aufführung in ein neues Schema der Wirklichkeitsfiktion bringt. Die Theorie des Dispositivs der Zeitstrukturen des Kinos findet sich in der Philosophie des Kinos von Gilles Deleuze.38 Deleuze intendiert eine Taxonomie der Bilder und Zeichen des Films zu leisten. Dabei bezieht er sich explizit auf Charles S. Peirce als „den Linné der Klassifizierung von Bildern und Zeichen“ und benutzt dessen Kategorien für seine Kennzeichnung von Bildtypen. Außerdem bezieht Deleuze sich auf Henri Bergson, den Philosophen der Intuition, also einen Philosophen fast entgegengesetzter Provenienz.39 Von Bergsons Philosophie der Zeit als Dauer40 übernimmt Deleuze seine beiden Zentralbegriffe: das Bewegungsbild und das Zeitbild.41 Nach Bergson geht Bewegung mit dem Raum, den sie durchläuft, keine Verbindung ein. Raum gilt ihm als homogen und unendlich teilbar, während die Bewegung heterogen und unteilbar ist. Es gibt keine Bewegung in einem Punkt, sondern nur zwischen Punkten. Jede Bewegung hat ihre eigene qualitative Dauer. Für die Kinematographie folgt daraus, dass Bilder als Momentschnitte, als Bewegung eine unpersönliche, einheitliche, abstrakte und unsichtbare nicht wahrnehmbare Zeit haben. Diese birgt die Apparatur, um Bilder in einer falschen Bewegung vorbeiziehen zu lassen. Zwischen kinematographischer und natürlicher Wahrnehmung gibt es eine Differenz. Jedes Bild fängt einen Augenblick ein, ist Momentbild. Deshalb liefert uns der Film kein Bild, dass er dann zusätzlich in Bewegung brächte, sondern ein Bewegungsbild. Momentaufnahmen werden auf einen Träger übertragen, das perforierte Filmband, und mit einem Antriebsmechanismus für den Filmtransport in Bewegung gesetzt. Film fügt technisch Bewegung zusammen, aber nicht mehr die herausgehobenen Momente von intelligiblen Posen oder transzendenten Formelementen, sondern Bewegung im Film bezieht sich auf jeden beliebigen Moment. Film als System reproduziert die Bewegung als Funktion eines beliebigen Momentes, eines Augenblicks, und nicht als Linie von infinitesimalen Zeitpunkten. Das Wesen des 38 Sein zweibändiges Werk zum Kino liegt in Deleuze 1998 und Deleuze 1999 auf deutsch vor. 39 Peirce bestreitet, dass es philosophisch betrachtet Intuition überhaupt gibt. 40 Vgl. Bergson 1991 und Bergson 1914 41 Vgl. Deleuze 1998, S. 11

181

GESCHICHTE DES MEDIALEN RAUMS

Bewegungsbildes kann am Anfang, als der Aufnahmestandpunkt noch starr festgelegt ist, nicht erscheinen. Unbewegte Schnitte der Bewegung erzeugen Momentbilder. Mit der Montage, der beweglichen Kamera, der Trennung von Aufnahme und Projektion verliert die Einstellung ihre räumliche homogene Qualität und bekommt Zeitcharakter. Auf beliebige Momente bezogene Bewegung hat das Potenzial der Hervorbringung von Neuem, der Komposition des Hervorgehobenen und Singulären, in welchem Moment auch immer. Film ist kein perfektioniertes Werkzeug des Trompe l’œil der alten Bildillusion, sondern perfektionierendes Werkzeug der neuen Wirklichkeit. Bewegliche Schnitte erzeugen Bewegungs-Bilder, Bewegung wird zum Bewegungsschnitt der Dauer.42 „Die Einstellung ist das Bewegungs-Bild. Insofern sie die Bewegung auf ein sich veränderndes Ganzes bezieht, ist sie der bewegliche Schnitt einer Dauer. Bei der Beschreibung des Bildes einer Demonstration erklärt Pudovkin: Das ist, als stiege man aufs Dach, um sie sich anzusehen, stiege dann hinab aufs Fenster im ersten Stock, um die Losungen auf den Tragetafeln zu lesen und mischte sich dann unter die Menge. […] Was zählt, ist […] die bewegliche Kamera als allgemeines Äquivalent aller Fortbewegungsmittel, die sie zeigt und deren sie sich bedient.“43

Apparatur löst Transportmittel oder Bewegungsträger aus ihrem angestammten Ort und synthetisiert Bewegung als Bewegung von Bewegungen. Es handelt sich „nicht um eine Abstraktion, sondern um das Freisetzen von Bewegung“44. Die jeweiligen Positionen wechseln und damit variieren Körper, Teile, Aspekte, Distanzen und Dimensionen. Film realisiert eine „plastische Tiefenwirkung in der Zeit, eine Perspektive in der Zeit; die Zeit wird selbst als Perspektive oder im Relief wiedergegeben.“45

Deleuze differenziert das Bewegungs-Bild in eine Taxonomie von Wahrnehmungsbild, Aktionsbild und Affektbild. Die drei Arten entsprechen räumlich festgelegten Einstellungen, der Totale das Wahrnehmungsbild, der Halbaufnahme das Aktionsbild, der Großaufnahme (des Gesichts) das Affektbild.46 Das Bewegungs-Bild entspricht strukturell dem Filmdispositiv der Bewegung der Bewegung. Ein weitere Differenz, die einen Unterschied macht, wird durch Reflexivität eingeführt.

42 43 44 45 46

Vgl. Deleuze 1998, S. 21f Deleuze 1998, S. 40f Deleuze 1998, S. 42 Deleuze 1998, S. 42 Vgl. Deleuze 1998, S. 102

182

FILM „Hitchcock führt das mentale Bild in den Film ein. Das heißt: er macht die Relation zum Gegenstand des Bildes.“47

Das reflexive Bild wird dem Bewegungs-Bild nicht einfach hinzugestellt, sondern umrahmt und transformiert es. Dafür muss es sich vom Band lossagen, welches das Kino zwischen Bewegung und Bild geknüpft hat. Die Mächte der Projektion und Rückprojektion entfalten sich, um „das Bewegungs-Bild durch das Zeitbild zu ersetzen.“48 Das Zeit-Bild markiert den Einsatz der Reflexion im Bild und übersetzt zur bloßen zeitlichen Differenz im Spiel von Rückprojektionen, Überblendungen und Doppelbelichtungen.49 Das Medium Film als System vorsprachlicher Bilder und Zeichen realisiert das Zeit-Bild nicht als abstrakte Repräsentation der Reflexion, sondern durch die Komposition von Projektionen, in der sich keine „Bewegung fortsetzt, sondern mit einem virtuellen Bild verkettet und mit ihm einen Kreislauf bildet.“50 Das Zeit-Bild komponiert wie ein Kristall die Zeit quasi an sich, „lässt die Gegenwart vorübergehen und bewahrt zugleich die Vergangenheit in sich.“51 So markiert es eine Übersetzung zwischen Anschauung und Begriff durch Zuordnung und wechselseitige Erhellung von projizierten mentalen Bildern und liefert eine Bestimmungs- und Anschauungsmöglichkeit der Zeit. Kino wird wegen seiner automatischen und psychomechanischen Eigenschaften zu einem System vorsprachlicher Bilder, das Aussagen wieder in Bilder und Zeichen eingehen lässt. Mit der Loslösung vom Band entsteht aus dem Bewegungs-Bild das Zeit-Bild, dessen medialer Raum aus der Zeit entsteht. Deleuze skizziert am Ende seines Werkes Schlussfolgerungen und fragt, ob damit eine neue Ordnung des Bildes sich konstituiert, welche die Ordnung des Automatismus ist.52 Er spekuliert, ob das elektronische und das im Entstehen begriffene digitale Bild zu einer Veränderung oder Ersetzung des Kinos führen werde.53 Im digitalen Bild werde die Raumorganisation ihre privilegierte Richtung verlieren. Die Dominanz der Vertikalen, die bei der Projektion einer fiktiven Wirklichkeit beim Film vorherrscht, löse sich zugunsten eines ungerichteten Raumes der Information, welcher die Natur ersetze.

47 48 49 50 51 52 53

Deleuze 1998, S. 272 Deleuze 1999, S. 338 Vgl. Deleuze 1999, S. 79 Deleuze 1999, S. 68 Deleuze 1999, S. 132 Deleuze 1999, S. 338 Deleuze 1999, S. 339

183

Telegrafie Schrift und Bild überwinden die Grenzen von Raum und Zeit, eine Transzendenz des Todes. Die Erfindung der Telegrafie überschreitet den Raum, verbindet wirkliche Orte in einem globalen Netz. Telegrafie ist mehr als die Beschleunigung der Post.1 Mit der Erfindung des Telefons hängen wir am Draht, der die Ferne zum Verschwinden bringt. Die Stimme, zwischendurch zum Kode verwandelt und wieder in Schallwellen zurückverwandelt, präsentiert sich im Ferngespräch. Wir können den Anderen verstehen, auch wenn er gar nicht da ist. Damit das funktioniert, reicht nicht mehr das Netz eines Verlagswesens, auch nicht die verzweigte Organisation der Briefpost, sondern es ist ein simultan funktionierendes technisch-maschinelles Netz notwendig, das Signale mit einer ungeheuren Geschwindigkeitssteigerung in einem Moment von einem Ort zum anderen transportiert. Statt von Telegrafie sprechen die Zeitgenossen deshalb auch häufig von Tachygraphie, Schnellschreiben. Der Versuch, telegrafische Netze aufzubauen, ist sehr alt. Sie setzen nicht unbedingt die Elektrizität voraus, eine technische Basis heutiger Telekommunikationsnetze. Feuerdepeschen (am Tage mit Rauch, in der Nacht mit Fackellicht) gehörten bei vielen Völkern des Altertums, wie Griechen und Persern, zu den bekannten Mitteln insbesondere militärischer Nachrichtenübertragung.2 Obwohl von weit größerer Effizienz, als wir uns das oft in unserer Ignoranz der Fähigkeiten früherer technischer Systeme ausmalen, stellen diese doch kein Telekommunikationsnetz im technischen Sinne dar. Auch wenn die meisten Bestandteile vorhanden sind, so fehlen doch zwei wesentliche Faktoren: Die verschiedenen Anlagen der Antike zur Telekommunikation bilden noch kein stabiles über einen längeren Zeitraum in der ganzen Gemeinschaft funktionsfähiges Netz, und auch der Kode der Signale ist instabil. Der Feind hört oder sieht mit und kann die Signale leicht verfälschen,3 die Verständigung ist unsicher. Ein funktionsfähiges Telegrafie-Netz auf optischer Basis schafft sich das revolutionäre Frankreich. Der Physiker Claude Chappe, der zunächst auch mit elektrischen und akustischen Variationen experimentiert, entwickelt ein optisches System mit schwenkbaren Signallampen und optischen Gläsern. Mit seinem Argument,

1 2 3

Frank Haase spricht gar von der Inauguration eines neuen historischen Apriori, vgl. Haase 1990, S. 43 Vgl. Oberliesen 1987, S. 24ff Vgl. Oberliesen 1987, S. 30ff

184

TELEGRAFIE „es sei ein sicheres Mittel zur Nachrichtenübermittlung, das die Gesetzgebende Körperschaft in den Stand setzt, ihre Befehle bis an unsere Grenzen zu schicken und noch in derselben Sitzung eine Antwort zu erhalten“,4

überzeugt er die Nationalversammlung von der Nützlichkeit seiner Erfindung. Meldereiter werden durch das technische Telegrafie-System ersetzt, das folgendermaßen funktioniert: In Entfernungen von einigen Kilometern werden hohe Signalmasten aufgestellt, an deren Spitzen sich deutlich sichtbar vier Meter lange Regulatoren befinden, an deren Spitzen wiederum schwenkbare Indikatoren, mit denen die Signale gegeben werden. Durch verschiedene Stellungen des Regulators und der Indikatoren können prinzipiell 196 verschiedene Zeichen übertragen werden, von denen zur Vermeidung von Verwechslungen jedoch nur 98 benutzt werden. Diese Signale müssen von Signalmast zu Signalmast zuverlässig weitergegeben werden, wozu es einer ausgezeichneten Organisation bedarf.5 Die einzelnen Verbesserungen von Chappe gegenüber den vielen Vorbildern der optischen Telegrafie sind nur graduell: technisch aufwendigere Linien von hohen Signalmasten und vielfältigere und durchdachtere Signale. Qualitativ neu dagegen ist, alle Komponenten zu einem stabilen Netz zu verbinden. Ausschlaggebend bei der Entscheidung für die Telegrafie sind militärische Überlegungen. Napoleon nutzt das neue System für eine neue Militärstrategie, deren Grundlage darin besteht, zu jedem Zeitpunkt Informationen auch über militärische Fronten zu erhalten, an denen er sich nicht befindet. Sie werden so rasch übermittelt, dass er Befehle geben kann, die direkt in das Geschehen des Krieges in der Ferne eingreifen. Außer diesem eminent wichtigen militärischen Faktor gibt es auch einen zivilen: „Die Einrichtung des Telegrafen ist in der Tat die beste Antwort auf jene Publizisten, die Frankreich für zu großflächig halten, um eine Republik zu bilden. Mit dem Telegrafen schrumpfen die Entfernungen, und riesige Bevölkerungsmassen werden gewissermaßen an einem einzigen Punkt versammelt.“6

Die Französische Revolution bringt eine völlige Neuordnung des nationalen Raumes, in der Chappes Erfindung eine wichtige Rolle spielt. Das revolutionäre Frankreich transformiert sich zur modernen Nation. Damals bilden sich die Departementgrenzen heraus, wie sie in etwa noch heute bestehen. Aber anders als erträumt, erreicht dieses Telegrafie-Netz nie eine entscheidend wichtige nicht-militärische Nutzanwendung. Noch 4 5 6

Zitiert nach Flichy, 1994, S. 23 Für weitere technische Einzelheiten vgl. Oberliesen 1987, S. 49ff So argumentiert Chappe vor den versammelten Konventsmitgliedern, zitiert nach Flichy 1994, S. 26

185

GESCHICHTE DES MEDIALEN RAUMS

ist die Nachfrage nach schnellen Übermittlungsmöglichkeiten für Industrie- und Handelsnachrichten begrenzt. Eine solche Nachfrage kommt nur vom Staat mit seinen militärischen und polizeilichen Anforderungen. Annähernd ein halbes Jahrhundert sind die optischen Telegrafen in Betrieb. Dann werden sie durch den elektrischen Telegrafen ersetzt. Während das technische Funktionssystem des optischen Telegrafen auch für den Laien durchsichtig ist, ist das beim elektrischen Telegrafen völlig anders. Elektrizität und Elektromagnetismus sind weitaus komplizierter.7 Ihre technische Wirkungsweise ist selbst heute für den nicht extra dafür Ausgebildeten kaum verständlich, auch wenn der elektrische Strom alltäglicher Begleiter des Menschen geworden ist, bei dessen Ausfall nichts mehr funktioniert. Wenn von Telegrafie die Rede ist, denken wir heute wenig an die frühen Techniker und Wissenschaftler, die mit Elektrizität und Elektromagnetismus experimentierten und die auch die ersten elektrischen und später elektromagnetischen Telegrafen erfanden, sondern an den ehemaligen Historienmaler Samuel F.B. Morse.8 Er erfand einen Code, der mit den einfach zu übertragenden Signalen langer Impuls, kurzer Impuls (und Pause) auskommt, um das Alphabet, Buchstabe für Buchstabe, zu kodieren. Dadurch kann jegliches Schriftstück leicht übertragen werden. Außer diesem verbesserten Code ergibt sich durch den elektrischen Telegrafen eine ungeheure Verbesserung und Ausweitung des telegrafischen Netzes. Meist parallel zur Eisenbahn9 verlegen alle Industrienationen ein Netz von Kabeln, und zwar international. 1858 wird das erste transatlantische Seekabel verlegt, das allerdings nur einen Monat lang funktioniert. Acht Jahre später steht eine dauerhafte Verbindung über den Atlantik zwischen den Kontinenten. Peter Weibel kennzeichnet dies als zweite Phase des Verschwindens der Ferne, der maschinellen Überwindung von Raum und Zeit. Eisenbahn und Schiff bezwingen in einer ersten Phase die Ferne in materieller Weise, der Körper kann schneller reisen. Die zweite Phase charakterisiert er so: „Hier begann der menschliche Körper, sich von den Bewegungs- und Kommunikationsmaschinen zu lösen. Körper und Signal trennten sich. Die Separation von Körper und Geist, Bote und Botschaft ist die eigentliche Errungenschaft

7 8

9

Für technische Einzelheiten vgl. Oberliesen 1987, S. 84ff Über Morse und seine Umgebung vergleiche die Biographie von Carleton Mabee, die von Christian Brauner neu herausgegeben, überarbeitet und neu übersetzt wurde, Brauner 1991 Wie die Eisenbahn Raum und Zeit im 19. Jahrhundert veränderte, beschreibt sehr anschaulich die Studie von Schivelbusch 1989

186

TELEGRAFIE der Telekultur: Der Körper ist da und die Stimme dort, der Körper bleibt hier, aber das Bild reist. Körperlose Botschaften – reisende Zeichen.“10

Damit ist benannt, worin die neue Qualität der telegrafischen Netze liegt: Menschen können Signale für Zeichen auf Reisen schicken, ohne sich selbst zu bewegen oder einem Boten eine Nachricht zur Überbringung zu übergeben. Und im telegrafischen Netz reisen die Signale schneller, als es ein Bote mit dem schnellsten Gefährt vermöchte. Augenblicklich ist die Nachricht überbracht und kann verstanden und beantwortet werden. Allerdings ist Weibel ungenau; denn das Neue liegt nicht darin, dass sich Zeichen und Körper trennen. Das ist die Normalität des Zeichens. Jede Schrift kommt von außen zum Körper. Nur weil Zeichen äußere Vereinbarungen sind, lassen sie sich technisch versenden. So kann neben dem geographischen Raum der Raum des telegrafischen Netzes entstehen, in dem Menschen kommunizieren, die geografische Ferne bezwingend. Die Ferne wird entfernt. Morsetelegrafen stellen technische Tele-Kommunikation über den Ticker her. Mit der Erfindung des Telefons wird die Stimme quasi selbst auf Reisen geschickt.11 Es beginnt die Ära des Fernsprechens. Das Fernsprechen lebt durch die Täuschung, wir könnten den anderen direkt hören, während von der Maschine erzeugten Schallwellen über die Muschel an das Ohr dringen. Ähnlich wie beim Phonographen sind diese Schallwellen das Echo einer Stimme, jedoch anders als beim Phonographen das Echo einer Stimme, die in diesem Augenblick wirklich spricht. Wenn ich den Hörer abnehme, dann stellt sich sofort ein gemeinsamer medialer Raum mit dem Gesprächspartner am anderen Ort her. Das mediale Gemeinschaftserlebnis kommt ohne Bild aus; die Stimme präsentiert den anderen, den ich verstehe und an der Stimme erkenne. Da es sich um keine Schallplatte, sondern um einen (fast) zeitgleich sprechenden anderen Menschen handelt, kommt es zu dem Paradox einer technisch vermittelten direkten Kommunikation. Mit dem Telefon entsteht ein dialogisches Massenmedium. In ihm ist kein Programm vorgegeben, sondern die Nutzer haben das Sagen.12 Es entsteht ein gigantisch sich vergrößerndes Netz – wenn man so will, die bis dahin größte zusammenhängende Maschine der Welt. Wenn sie reibungslos funktioniert, entzieht sie sich der Wahrnehmung der Benutzer. 10 Weibel 1990S. 20 11 Zur Erfindung des Telefons vgl. den Sonderdruck des Heftes 1/1977 des Archivs für deutsche Postgeschichte 100 Jahre Fernsprecher in Deutschland, sowie Oberliesen 1987, S. 129ff 12 Das war zu Anfang nicht ganz so. Zum einen waren die ersten Hauptnutzer wieder die Militärs (vgl. Genth und Hoppe 1986, S. 56ff), zum anderen dachte niemand, dass sich Menschen an verschiedenen Orten sehr viel zu sagen hätten. Deshalb wurde zunächst Opern über das Telefon übertragen (vgl. Genth und Hoppe 1986, S. 28ff).

187

GESCHICHTE DES MEDIALEN RAUMS

Nur bei der Vermittlung braucht es noch lange des „Fräuleins vom Amt“, bis sich das Telefonnetz in einen riesigen Automaten verwandelt, von dem wir nur die immer kleiner werdenden klingelnden Apparate mit Hörmuschel, Mikrofon und Wählvorrichtung sehen. Die ferne Stimme dringt (nicht mehr nur) in die Privatsphäre der Wohnung, schafft sich Gehör und Gehorsam in jeder Situation. Alles andere wird unterbrochen, wenn sich jemand durch ein schrilles Klingeln ankündigt, der Hörer wird abgehoben, und das (Fern-)Gespräch beginnt. Über die sozialen Auswirkungen des Telefons ist die ersten 100 Jahre nach seiner Erfindung so gut wie überhaupt nicht geforscht worden, anders als bei den Massenmedien Radio, Film und Fernsehen.13 Auswirkungen des Telefons sind oft in der Unterscheidung vom Briefschreiben zu erklären versucht worden. Dabei wird beklagt, dass das Telefon die wertvolle Kultur des Briefschreibens verdrängt. Darin liegt ein Kennzeichen jedes neuen Mediums: Es bedrängt alte, macht ihnen Konkurrenz, ersetzt sie aber meist nicht. Nach wie vor werden Briefe geschrieben. Aber Telekommunikation führt zur Beschleunigung. Briefe sind ein Medium der Distanz, ein sichtbares Medium, das keine Unmittelbarkeit vortäuscht wie das Ferngespräch. Bemerkenswerterweise reicht für die Vortäuschung der Unmittelbarkeit im wesentlichen die Beteiligung nur eines Sinnes, des Hörsinns. Die Unsichtbarkeit des anderen Sprechers verhindert nicht den Schein der direkten Kommunikation, und der Schein ist wirklich und wirksam. Das (Fern-)Gespräch erfordert eine ähnliche Aufmerksamkeit wie das Gespräch von Angesicht zu Angesicht, das Gegenüber wird imaginiert, selbst wenn es unbekannt ist, das heißt, dass nicht das „reale“ Bild des anderen im geistigen Auge erscheinen kann. Das Gewebe der Wahrnehmung der verschiedenen Sinne wird neu geflochten. Die Unsichtbarkeit des anderen Sprechers ermöglicht neue Formen der Täuschung, weil dem Gesprächspartner nicht ins Angesicht gesehen werden muss. Telefonseelsorge oder Telefonsex sind keine Randerscheinungen, sondern Hinweise auf die Veränderung der Sozialbeziehungen durch das Telefon. Der Besuch des Nachbarn in einer meist offenen Wohnung nach dem höflichen Anklopfen wird abgelöst durch den auditiven Einbruch in die den Blicken nun entzogene Intimsphäre. Ab jetzt darf der Nachbar nicht mehr anklopfen und mal vorbeikommen, sondern er ruft vorher an. Und damit werden die Nachbarn nicht mehr (oder immer weniger) in der örtlichen Nähe gesucht, sondern in der vom telegrafischen Raum bereitgestellten Nähe gemäß gemeinsamer Interessen. 13 Das hat sich allerdings seit einiger Zeit geändert, zunächst in den USA: vgl. Sola Pool 1981, aber auch in Deutschland: vgl. Forschungsgruppe Telekommunikation (Hg.) 1989

188

TELEGRAFIE

Außer dem Telefon und der Telegrafie entstehen der Rundfunk und das Fernsehen als Techniken der Entfernung der Ferne. Waren anfangs mit dem Radio noch demokratische Erwartungen verbunden auf ein symmetrisches Medium, in dem jeder sowohl Sender als auch Empfänger sein kann, etabliert das Fernsehen das Massenmedium der Konsumgesellschaft. Mit ihm ist die Videosphäre zur Welt gekommen. Das Bild der Welt kommt ins Wohnzimmer als mediale Erfahrung, die jeder wirklichen Erfahrung der Welt vorausgeht und ihr das Schema vorgibt. Die Wirkung des Massenmediums Fernsehen ist in unzähligen kultur- und sozialwissenschaftlichen Studien untersucht worden. Hier soll dem keine weitere hinzugefügt werden.

189

BILDWENDEN

„ Ein Bild hielt uns gefangen. Und heraus konnten wir nicht, denn es lag in unserer Sprache, und sie schien es uns nur unerbittlich zu wiederholen.“1

„Wovon man nicht sprechen kann, darüber muss man schweigen.“2 Dieser apodiktischen Aufforderung zur Selbstbeschränkung der Wissenschaft, weil angeblich die Grenzen der Sprache auch die Grenzen der Welt bestimmen, ist die (analytische) Philosophie im 20. Jahrhundert weitgehend gefolgt. Der lingustic turn3 verbannt ontologische metaphysische Fragen aus dem Kanon der Wissenschaftslehre und verlegt sich logozentristisch auf die Erklärung des Sprachverstehens. Seit einiger Zeit sind dagegen Bilder en vogue.4 Immer lauter erklingt die These, dass eine Wende zum Bild den linguistic turn ablöse oder modifiziere. Sie artikuliert sich unter verschiedenen Namen, am prononciertesten bei W.J.T. Mitchell unter dem Terminus pictorial turn.5 Gottfried Boehm spricht vom iconic turn,6 Ferdinand Fellmann vom imagic turn.7 Der pictorial turn stellt keine Rückkehr zu naiven Mimesis-, Abbild- oder Korrespondenztheorien der Repräsentation dar. Eher geht es um die Entdeckung des Ausdrucksvermögens des Bildes gleichwertig zu dem der Sprache. Darin offenbart sich ein „komplexes Wechselspiel von Visualität, Apparat, Institution, Diskurs, Körpern und Figurativität“.8 Unterstellt wird, dass sich mit neuen Medien auch eine neue Form von Bildlichkeit entwickelt, deren Beschreibung aber häufig konkretistisch am Einzelfall klebend oder diffus bleibt. Zunächst ist zu fragen, worüber jemand, der den Terminus Bild gebraucht, überhaupt spricht. Auch wenn die allgemeine Frage, was ein Bild ist, sich kaum beantworten lässt, wird in ihrer Reflexion der

1 2 3 4

5 6 7 8

Wittgenstein 1984b §115, S. 300 Schluss-Satz des Tractatus logico-philosophicus: Wittgenstein 1984c, S. 85 Rorty 1967 Zu den jährlichen Treffen der SigGraph, der Computergrafik-Konferenz des US-amerikanischen Informatiker-Berufsverbandes, pilgern Tausende. Unzählige Symposien von Wissenschaftlern, Künstlern, Journalisten beschäftigen sich mit dem Bild, vgl. Maar, Obrist und Pöppel 2000 als Überblick über das weite Spektrum der dabei diskutierten Themen und Faßler 2002 als eine dem entsprechende allgemeine Theorie der Bildlichkeit, sowie Latour und Weibel 2002 über Bilderkriege. Mitchell 1994 Boehm 1995 Fellmann 1997 Mitchell 1997, Original: Mitchell 1994

191

BILDWENDEN

Gebrauch des Wortes Bild in einem solchem Diskurs über Bilder zumindest erläutert. Der These des pictorial turn und damit einhergehenden neuen Formen der Bildlichkeit stelle ich eine grundsätzlichere und allgemeinere These voran: Seit Ende des 19. und im Verlauf des 20. Jahrhunderts ändert sich die Form unseres Sehens. Um diese These zu begründen, ist Walter Benjamins Behauptung, dass sich innerhalb von geschichtlichen Zeiträumen die Art und Weise unserer Sinneswahrnehmung ändert, für die Form des Sehens konkret nachvollziehbar zu machen. Ich behaupte, dass sich dies beschreiben lässt als ein Übergang vom perspektivischen Sehen zum Aspekt-Sehen. Das wird im Einzelnen zu entfalten sein. Eine solche Bildwende ist notwendig von einer anderen Gestalt als der pictorial turn, muss weiter zurückreichen. Die Art und Weise unserer Sinneswahrnehmung kann sich nicht im Rhythmus von hektisch formulierten Behauptungen über ständige Bilderneuerungen vollziehen, sondern nur in einem langen geschichtlichen Zeitraum. Die Behauptung einer derartigen mit dem Übergang vom perspektivischen Sehen zum Aspekt-Sehen verbundenen Bildwende ist nicht spekulativ als Zukunftsprognose gemeint, sondern als Analyse einer stattgefundenen Veränderung im kulturell geprägten Sehen. Die Entfaltung dieser These wird neue Formen der Bildlichkeit, welche der Computer als Medium produziert, verständlicher machen. Seitdem die Notation des Computers als Medium sich als allgemeine neue Form der Schrift in allen Sektoren der Gesellschaft verbreitet hat, kann sich niemand der Macht dieser Bilder entziehen: Die Notation hat Sprachliches und Bildliches derart in einem unauflösbaren Band verflochten, dass die Bilder überall auftauchen. Sie sind nicht perspektivisch zu durchschauen, sondern in ihrer Bedeutung wahrnehmend zu durchdenken und – was merkwürdig klingt – ikonoklastisch zu gebrauchen. Der Schirm der Computerbilder eröffnet keinen objektiven Blick auf die Welt, sondern zeigt prozessierende Bilder als visualisierte Information.

192

Was ist ein Bild?

„Du sollst dir kein Bildnis noch irgendein Gleichnis machen, weder des das oben im Himmel, noch des das unten auf Erden oder des, das im Wasser unter der Erde ist.“ 2. Mose, 20.4

Die Frage „Was ist ein Bild?“ ist von einem ähnlichen Typ wie die Frage „Was ist ein Medium?“ Wissenschaftlich lässt sie sich nicht klar beantworten, sondern nur als metaphysisch zurückweisen. Dennoch lässt sie sich auch nicht einfach abweisen. Schließlich sind Bilder alltäglich und scheinen gar nicht problematisch. Wir stellen uns die Welt in Bildern vor und stellen von Kind an Bilder her. Aber stellen diese Bilder auch dar, was wir uns vorgestellt haben? Angenommen jemand antwortet mit „Ja“ und behauptet: Er oder sie habe, genau wie vorgestellt, etwa eine bei strahlendem Sonnenschein im Teich schwimmende Ente gemalt oder gezeichnet. Dann ließe sich weiterfragen: Wieso soll man Farbkleckse und Striche auf Papier für eine Ente, eine Sonne und einen Teich halten? Die Frage ist schwer mit Worten zu beantworten, obwohl wir bei der Betrachtung des Bildes wohl auch geneigt wären, Enten im Teich zu sehen und keine Farbkleckse. Aber wie kommt eine Vorstellung von Enten im Teich bei Sonnenschein zustande, wenn wir etwa an einem düsteren Novemberabend uns bei Kerzenlicht im Zimmer eingeschlossen haben? Was ist eine Vorstellung von etwas, was offensichtlich nicht da ist? Jedenfalls lässt sich ohne solche Vorstellung im dargestellten Bild nichts sehen. Denn dann sind da partout nur Farbkleckse und Striche auf Papier. Naturforscher hören bei solchen Aussagen nicht auf zu fragen: Wie kommen wir dazu, auf dem Papier überhaupt Farben zu sehen. Denn Papier ist an sich nicht farbig. Gegenstände in der Welt erscheinen erst farbig, wenn Licht sie anstrahlt. Danach zu fragen, was ein Bild ist, führt also zu vielen neuen, nie endenden Fragen. So wird die ontologisch gestellte Frage, was ein Bild ist, nie beantwortet. Aber wenn man stattdessen zwei einfachere Fragen stellt: „Wozu sagen wir Bilder?“ und „Was tun wir mit Bildern?“, ist die Aufgabe zu antworten, zwar noch schwer genug, aber ein Anfang ist gegeben.

Arten von Bildern Die Frage, was ein Bild ist, löst sich auf in eine Reihe von Übersetzungen zwischen Sprachlichem und Bildlichem, zwischen Geistigem und Materiellem, die unterschiedliche Zugänge verschiedener Disziplinen manifestieren.

193

BILDWENDEN „Wir sprechen von Gemälden, Statuen, optischen Illusionen, Karten, Diagrammen, Träumen, Halluzinationen, Schauspielen, Gedichten, Mustern, Erinnerungen und sogar von Ideen als Bildern, und allein schon die Buntheit dieser Liste lässt jedes systematische, einheitliche Verständnis unmöglich erscheinen.“1

Mitchell eröffnet ein Sprachspiel über Bilder im Sinne von Wittgenstein, in dem er eine Genealogie von Bildern aufzustellen versucht, welche die Familienähnlichkeit reflektiert, die dem Gebrauch des Wortes ‚Bild‘ in den jeweiligen Kontexten zugrunde liegt. So konstituiert er eine Ordnung durch die Unterscheidung von graphischen, optischen, perzeptuellen, geistigen und sprachlichen Bildern2:

Graphische Bilder sind Gegenstand der Kunst im weiten Sinne von I^8C= (techne). Neben Künstlern beschäftigen sich Designer, Grafiker, Architekten, Ingenieure beruflich mit ihnen. Optische Bilder analysiert die Physik. Perzeptuelle Bilder gehören zu einem Grenzgebiet, auf dem Physiologen, Neurologen, Psychologen, Kunsthistoriker, Optiker mit Philosophen und Literaturwissenschaftlern gemeinsam arbeiten. Geistige Bilder fallen in die Domäne der Psychologie und der Erkenntnistheorie. Sprachliche Bilder analysiert die Literaturwissenschaft. Auf den ersten Blick erscheinen als Bilder im „eigentlichen“ Sinne graphische Bilder, auch optische Bilder haben einen „objektiven“ Bildstatus, während von perzeptuellen, geistigen und sprachlichen Bildern nur in einem metaphorischen Sinne gesprochen werden kann. Dieser Unterscheidung in „eigentliche“ und „uneigentliche“ Bilder entsprechen zwei grundsätzlich verschiedene Bildauffassungen: die erste stellt sich Bilder als besondere, sichtbare Gegenstände in der Welt vor, die zweite stellt sich Bilder wie 1 2

Mitchell 1990, S. 19 Diagramm nach Mitchell 1990, S. 20

194

WAS IST EIN BILD?

eine in besonderer Form geschriebene Sprache vor. Vertreter der zweiten Auffassung glauben, dass sich das Bild-Sehen besser als Bild-Lesen verstehen lässt.

Sehen oder lesen wir Bilder? Wir stellen uns die Wirklichkeit in Bildern vor und stellen Wirklichkeit in Bildern dar, und wir reflektieren Wirklichkeit in Begriffen. Vorstellungen, Darstellungen und Begriffe bilden unseren Zugang zur Wirklichkeit. „Die Realität unserer Begriffe darzutun, werden immer Anschauungen erfordert.“3

Wenn wir reflektieren, setzen wir Unvereinbares in Beziehung: Anschauung mit Begriffen, geistige Vorstellungen mit materiellen Darstellungen, Begriffe mit Bildern. Denn in der Reflexion haben wir die Welt nie direkt, sondern immer nur vermittelt. Das Bild wird zum Zeichen. Zum Beispiel nach Peirce lässt sich dann das Bild als ikonisches Zeichen verstehen. Diese semiotisch geprägte Auffassung ist auch die vorherrschende Sicht der (post-)modernen Bildtheorien von Panofsky4 bis Nelson Goodman.5 Neuere Bildtheorien6 folgen mehrheitlich dieser semiotischen Wissenschaftstradition. Sie setzen sprachliche („uneigentliche“) Bilder ins Zentrum jeglicher Erklärung des Bildes, eliminieren die Wahrnehmung als zentrale Kategorie aus der Bildbetrachtung, indem sie diese selbst semiotisch deuten. Diesem Paradigma wird in jüngster Zeit zunehmend widersprochen, am prominentesten durch James Elkins7, im deutschen Sprachraum besonders durch Lambert Wiesing.8 Eine Theorie des Bildes – so ihre Kritik – sei angewiesen auf eine nicht in Zeichentheorie aufgehende Theorie des Sehens. Zu finden ist diese in der phänomenologisch orientierten Wissenschaftstradition. Phänomenologische Bildtheorien – wie sehr sich auch ihre wichtigsten Vertreter Husserl, Ingarden, Sartre, Merleau-Ponty und Waldenfels unterscheiden – erforschen stets das im Bild Sichtbare, allerdings nicht im positivistischen Sinne von objektiven, unabhängig vom Beobachter nachweisbaren Fakten, sondern als sichtbares Phänomen. Die Fragen, was man auf dem Bild sieht und wie man auf das Bild sieht, sind in einem unauflösbaren Knoten miteinander verschlungen. Husserl und auch Sartre fragen nach der „normalen“ Betrachtungsweise 3 4 5 6 7 8

Kant 1990, §59, S. 211 Panofsky 1978 Goodman 1995, Goodman 1988 und Goodman 1998 Vgl. vor allem Bryson 2001, Goodman 1995, im Anschluss auch Scholz 1991 Elkins 1998 und Elkins 1999 Wiesing 1997, vgl. auch die Aufsatzsammlung Recki und Wiesing 1997

195

BILDWENDEN

des Bildes. Bei Husserl bildet das Bild die Sichtbarkeit von Objekten durch einen Widerstreit von sinnlichen Wahrnehmungen. Weil die einzelnen Wahrnehmungsakte im Widerspruch zueinander stehen, kann das Dargestellte auch nur irreal auf der Bildoberfläche erscheinen. Sartre erklärt das Irreale im Bild aus einem Imaginationsakt. Dagegen steht Merleau-Ponty für unterschiedliche Betrachtungsweisen des Bildes. Er verarbeitet in seiner Theorie die moderne Kunst des 20. Jahrhunderts, die zum ersten Mal in der Geschichte der Kunst Darstellungsweisen des Bildes bildlich darstellt. Vorher hatte Kunst auf sehr unterschiedliche Weise sehr Unterschiedliches dargestellt, aber nicht in einem Chiasmus von Auge und Geist ihre eigene Darstellungsweise ins Bild gebracht. Statt einer Entscheidung zwischen semiotischen und phänomenologischen Positionen und damit zwischen der Auffassung des Lesens und des Sehens von Bildern, soll hier der ihnen innewohnende Chiasmus, die Überschreitung zwischen medialer Wirklichkeit und Wirklichkeit verdeutlicht werden. Dafür sei noch mal an den Ausgangspunkt erinnert. Unter den vielen Arten gelten einige als „eigentlich“ und „real“, während andere als „uneigentlich“ und „metaphorisch“ erscheinen. Im Gegensatz zu „realen“ Bildern wirken sie (a) „nicht gleichermaßen stabil und dauerhaft“, (b) „variieren […] von einer Person zur anderen“ und (c) scheinen sie „nicht ausschließlich visuell zu sein, sondern alle Sinne einzubeziehen“.9 Um solche Mystik zu klären, sei ein Theoretiker herangezogen, den die Frage nach dem Status von Bildern sein ganzes Leben lang gefangen genommen hat: Ludwig Wittgenstein.10 In seiner ersten veröffentlichten Schrift, einer Logisch Philosophischen Abhandlung11 vertrat er eine Abbildtheorie der Bedeutung des sprachlichen Bildes, die er später heftig bekämpfte.

Eine Bildkritik nach Wittgenstein Eine kategorischen Entgegensetzung „zwischen ‚eigentlichen‘ Bildern und ihren illegitimen Abkömmlingen“ erweist sich bei näherem Hinsehen als fragwürdig. „Reale, eigentliche Bilder haben mit ihren Bastarden mehr gemein, als ihnen vielleicht lieb ist.“12 Denn real an ihnen ist nur ihr Material, während das Bildhafte immer abwesend ist. Der Frage nach den Bildern der Vorstellung ist also nicht zu entkommen. Aristoteles hat so geantwortet: 9 Mitchell 1990, S. 23 10 Vgl. Mitchell 1990, S. 24ff 11 Besser bekannt ist diese Schrift unter dem ihr erst später zugeschriebenen Namen Tractatus logico-philosophicus: Wittgenstein 1984c 12 Mitchell 1990, S. 24

196

WAS IST EIN BILD? „Der denkenden Seele sind die Vorstellungsbilder wie Wahrnehmungseindrücke gegeben. Wenn sie sie als gut oder schlecht bejaht oder verneint, so flieht oder erstrebt sie. Darum denkt die Seele nie ohne Vorstellungsbilder.“

Und: „Nun müssen wir über die gesamte Sinneswahrnehmung im allgemeinen sagen, dass die Sinneswahrnehmung ein Aufnehmen der wahrnehmbaren Formen ist ohne die Materie, so wie das Wachs das Zeichen des Siegelrings aufnimmt, ohne das Eisen und das Gold.“13

Bei Aristoteles gibt es also eine isomorphe Entsprechung von „Wahrnehmungseindrücken“ und „Vorstellungsbildern“. Zugrunde liegt eine einfache Mimesis-Theorie der Nachahmung von Natur. Wer jedoch „Vorstellungsbilder“ betrachten will, kann sie in der Wirklichkeit nicht finden, denn sie liegen nur im Geist. Es sind geistige „uneigentliche“ Bilder, die rätselhaft sind. Auch das Bild des Abdrucks der wahrnehmbaren Formen hilft nicht viel weiter, solange der „Siegelring“ nicht gefunden ist. Anders als Aristoteles, aber auch in einer Abbildtheorie, hatte Wittgenstein im Tractatus logico-philosophicus formuliert: „Der Satz ist ein Bild der Wirklichkeit, so wie wir sie uns denken.“14 Das Abbild der Wirklichkeit liegt bei ihm nicht in der Seele, sondern in der Bedeutung der Sprache. Dort bleibt es jedoch als „geistiges Bild“ genauso rätselhaft und irgendwie „uneigentlich“. Um das „geistige Bild“ zu entmystifizieren, schlägt Wittgenstein ein klärendes Verfahren vor, nämlich „sich das Vorstellen von Farben, Gestalten, Tönen, etc. etc., das im Gebrauche der Sprache eine Rolle spielt, ersetzt zu denken durch das Anschauen wirklicher Farbmuster, das Hören wirklicher Töne, etc., also zum Beispiel das Aufrufen eines Erinnerungsbildes einer Farbe durch das Ansehen eines wirklichen Farbmusters, das wir bei uns tragen; viele der Vorgänge beim Gebrauch der Sprache verlieren, wenn man an die Möglichkeit dieser Ersetzung denkt, den Schein des Ungreifbaren, Okkulten.“15

Wie aber können geistige Bilder durch materielle ersetzt werden? Die geistigen Bilder befinden sich nicht derart im Kopf, dass sie sich daraus ausschneiden ließen, um sie mit materiellen, etwa an einer Wand hängenden Bildern zu vergleichen. Wie kommen überhaupt Bilder in unseren Kopf?

13 Aristoteles, De anima, 431 a und 424 a 14 Wittgenstein 1984c, S. 26 15 Wittgenstein 1984a, S. 130

197

BILDWENDEN

Dafür sind drei Beziehungen zu analysieren:16 1. Zwischen einem realen Gegenstand, zum Beispiel einer Kerze, und einem reflektierten, projizierten oder abgezeichneten Bild, 2. zwischen dem realen Gegenstand und dem geistigen Bild, 3. zwischen einem materiellen und einem geistigen Bild. Bild-Bewusstsein wird so als Bilder produzierende Tätigkeit begriffen, das durch die Mechanismen von Linsen und Werkzeugen geprägt ist. Bilder werden zu Bildern durch ihren Gebrauch. Es bedarf zum einen der menschlichen Hände, um ein Gemälde oder einen Spiegel herzustellen, zum anderen der paradoxen Tätigkeit des Bewusstseins, etwas zur gleichen Zeit als „da“ und „nicht da“ zu sehen. Wenn Vögel nach den Trauben auf den legendären Bildern des Zeuxis picken, sehen sie dann ein Bild oder sehen sie wirkliche Trauben? Wer auf dem Bild des Zeuxis eine bunte Oberfläche oder Trauben sieht, weiß nicht, wie das Bild zu sehen ist, nämlich auf einer Oberfläche etwas zu erblicken, was nicht zu sehen ist. „Es bedarf dazu der Fähigkeit, etwas zur gleichen Zeit als ‚da‘ und als ‚nicht da‘ zu sehen.“17 Materielle Bilder sind also nicht weniger mysteriös als geistige. Ein leeres Blatt Papier ist ein leeres Blatt Papier, bis der Geist die weiße Oberfläche dazu verwendet, sich die Welt oder sich selbst vorzustellen. Materielle und geistige Bilder liegen in derselben medialen Sphäre, strukturieren diese durch ihre im Tätigsein hergestellten Beziehungen. „Es ist irreführend, vom Denken als einer ‚geistigen Tätigkeit‘ zu sprechen. Wir können sagen, dass Denken im wesentlichen eine Tätigkeit des Operierens mit Zeichen ist. Diese Tätigkeit wird mit der Hand ausgeführt, wenn wir schreibend denken; mit dem Mund und dem Kehlkopf, wenn wir sprechend denken; und wenn wir denken, indem wir uns Zeichen oder Bilder vorstellen, kann ich dir kein Agens, das denkt angeben. Wenn du dann sagst, dass in solchen Fällen der Geist denkt, dann würde ich deine Aufmerksamkeit 16 Grafik nach Mitchell 1990, S. 25 17 Mitchell 1990, S. 27

198

WAS IST EIN BILD? lediglich auf die Tatsache lenken, dass du eine Metapher gebrauchst, dass der Geist hier in einem anderen Sinne ein Agens ist als dem, in dem man von der Hand sagen kann, dass sie ein Agens beim Schreiben ist.“18

Wittgensteins Bemühen galt dem Auflösen der Metaphern in Gebrauchsanweisungen. Schon im Tractatus war sich Wittgenstein im klaren, dass es mehr gibt, als sich mit der Sprache klar sagen lässt. „Es gibt allerdings Unaussprechliches. Dies zeigt sich, es ist das Mystische.“19 Ein genaues Studium Wittgensteinscher Gebrauchsanweisungen offenbart, dass er der Metapher nicht entkommt. Jedoch führt Wittgensteins Nachdenken über Bilder zur Auflösung der Frage „Was ist ein Bild?“ in zwei entscheidende andere, nämlich „Wie funktioniert das Bild-Sehen?“ und „Wie bilden sich Bilder?“. Die zweite Frage ist nur verständlich in einer Klarstellung, auf Walter Benjamins Sprechweise rekurrierend. Von bedeutenden Bildern lässt sich sagen, dass wir uns in ihnen ausdrücken und nicht mit ihnen etwas ausdrücken. Wenn wir Bilder bilden, bilden uns die Bilder. Das Bild lässt sich nur in seinem Werden verstehen.20 Darin verwickelt es aber die Frage, wie Bild-Sehen funktioniert. Das ist ganz technisch gemeint und nur einem sich der Technik nicht verschließenden Denken erklärbar zu machen. Angesprochen ist hier das komplizierte Verhältnis zwischen Innen und Außen. Das Gehirn gilt der heutigen Neurobiologie nicht mehr als Wachstafel, worin die Sinne das Bild der Welt einritzen. Unsere Wirklichkeit der Welt wird in ihrem Modell erst durch die prozessierenden Übersetzungen des Gehirns erzeugt, von Übersetzungen ohne Original. Grundschema ist das neuronale Netz, das einen Ereignisraum konstituiert. Dessen Topologie ist der Ort der Repräsentation des Außen, welche nicht durch eine einfache Wachsspur der Welt geprägt ist, sondern umgekehrt gemäß der inneren Disponiertheit des Gehirns erfolgt. „Der Ort der Vorstellungen ist also bestimmt durch die internen Vorgaben des Systems, die Bewertungsfunktion ermittelt sich aus den Eigenheiten des Systems und fasst sich als eine Bestimmung der Ereignistopologie des Systems. […] Zuordnungen von einem zn zu einem zm bestimmen sich aus dem Gesamtgefüge ihrer Relationen. Es ist nicht möglich, die zwei Ereignisse isoliert zueinander zu setzen. Ihre Distinktion erhalten sie aus ihrer Wechselwirkung zueinander, mediiert über den gesamten Ereignisraum.“21

Dies bedeutet, dass die Ordnung des Denkens als Ortung der Bezüge nicht allein durch Logik, sondern durch eine Topik gegeben ist. Bild und Denken, Gestalt und Formalismus finden in der Topik eine Erweiterung 18 19 20 21

Wittgenstein 1984a, 23 Wittgenstein 1984c, § 6.522, S. 85 Vgl. Kapitel 3.2 Breidbach 1999, S. 58. Vgl. hierzu auch: Roth 1992

199

BILDWENDEN

ihres diskursiven Begründungszusammenhangs. Solche Topik erklärt geistige Bilder aus einer Übersetzung von Außenreizen, prozessiert durch die inneren Übersetzungen des Gehirns. Eine derartige kognitionswissenschaftlich geprägte Bildauffassung rehabilitiert mentale Bilder, deren Existenz der Rationalismus und die analytische Philosophie negiert hatten.22 Die Frage nach dem Funktionieren des Bild-Sehens lässt sich zu einem gewissen Grade mit Methoden der Informatik: Bildverarbeitung, Bilderkennung und Maschinen-Sehen beantworten.23 In einem solchen Verständnis wird Bild-Sehen zur Mustererkennung. Natürlich ist mit diesen Sätzen nicht erklärt, was ein Bild ist. Klar ist nur, dass sowohl materielle, als auch geistige Bilder nicht als etwas „Privates“ oder ausschließlich „Subjektives“ aufgefasst werden dürfen. Erst durch das Erbe einer langen Tradition können Bilder als solche gesehen werden. So wenig wie eine Privatsprache, gibt es ein Privatbild.

Wie unterscheiden sich Sprache und Bild? Bilder geben etwas zu sehen, Sprachen etwas zu hören. Gefragt werden soll hier nicht, was sie zu sehen oder zu hören geben, sondern wie sie das jeweils tun. Was die Bilder angeht, gibt Gottfried Boehm die Antwort: „Was wir in den Bildern sehen sind Fügungen von Farbe, Form und Linien, die weder Gegenstände umschreiben noch Zeichen setzen, sondern etwas zu sehen geben.“ 24

Bilder geben also nicht die inneren Vorstellungen dessen wieder, der sie geschaffen hat, sondern zeigen sich in einer Struktur von wahrnehmbaren Einheiten. „Was uns im Bild begegnet, beruht auf einem einzigen Grundkontrast, dem zwischen einer überschaubaren Gesamtfläche und allem was sie an Binnenereignissen einschließt.“25

Diesen Grundkontrast nennt Boehm die „ikonische Differenz“.26 Dass Boehm diesen Begriff nach dem Vorbild des Heideggerschen Begriffs der „Ontologischen Differenz“ formt, lässt erkennen, dass er die Bilder nicht liest, sondern sie begegnen ihm, zeigen sich. Mit der ikonischen Differenz bestimmt Boehm, wie sich bildliche Artikulation von sprach22 Sachs-Hombach 1995 In diesem Sammelband finden sich auch die Belege für die relevantere vorhergegangene angelsächsische Diskussion in den Kognitionswissenschaften. 23 Als Einführung vgl. zum Beispiel Sonka, Hlavac und Boyle 1996 24 Boehm 1995, S. 21 25 Boehm 1995, S. 30f 26 Boehm 1995, S. 29 ff. Zum Begriff der ikonischen Differenz vgl. auch Müller 1997

200

WAS IST EIN BILD?

licher unterscheidet, die einen solchen Grundkontrast nicht kennt. Deshalb kann sich sprachliche Artikulation, gestützt auf ihre Syntax und Semantik, weiter von jeglicher Materialität lösen. Die Eigenart des Bildes kennzeichnet dagegen, dass es „auf völlig unverzichtbare Weise in Materie eingeschrieben ist“.27 Ein Stück mit Farbe beschmierte Fläche oder allgemeiner eine visuelle Ausgestaltung einer Oberfläche eröffnet einen Zugang zu sinnlichen und geistigen Einsichten, die zugleich alles Faktische überbietet. Das scheint eine Besonderheit des Visuellen zu sein, die etwa im Haptischen keine Entsprechung hat. „Der Tastsinn liefert uns Empfindungen und Wahrnehmungen, er verfügt aber über keinerlei Mittel, durch die in einem Produkt ein Seiendes als ein Tastbares gestaltet, eine Tastvorstellung als solche realisiert werden könnte. Wenn wir von Widerstand, Härte, Weichheit, Glätte, Rauheit usw. sprechen, wenn wir den Tastorganen die Wahrnehmung von Formen verdanken, die wir mit eben, gebogen, kugelförmig usw. bezeichnen, so meinen wir unzweifelhaft den Ausdruck von Vorstellungen zu besitzen, die sich aus den Daten gebildet haben, die vom Tastsinn geliefert werden. Was wir aber tatsächlich in diesen Bezeichnungen besitzen, sind eben keine Tastvorstellungen, sondern Sprachvorstellungen.“28

Dagegen liefert der Gesichtssinn die Möglichkeit, „zu einer in dem sinnlichen Stoff selbst sich darstellenden Ausdrucksform zu gelangen“.29 Solche Möglichkeit realisiert sich aber nur, wenn Auge und Hand in der Produktion sichtbarer Medialität zusammen wirken. 30

Wie bildet sich das Bild? „Indem wir auch nur einen unbeholfenen Umriss zeichnen, tun wir etwas für den Gesichtssinn, was wir für den Tastsinn nie zu tun vermögen; wir schaffen etwas, was uns die Sichtbarkeit des Gegenstandes darstellt, und indem wir dies tun, bringen wir etwas Neues, etwas anderes hervor, als was vorher den Besitz unserer Gesichtswahrnehmung ausmacht.“31

Die Hand vollbringt die wunderbare Leistung der bildlichen Darstellung, schafft eine mediale Wahrnehmungssphäre für den Gesichtssinn. Sehen spielt keine passive Rolle im Erkenntnisprozess, sondern mit der Tätigkeit der Hand kooperierend, wird es zur Ausdrucksbewegung, schafft „Sichtbarkeitsgebilde“. Dem Auge wird Selbständigkeit und ein eigener Geist zugesprochen.32 Der Sehende baut sich nicht gegenüber der Welt auf, sondern vollzieht sein Tun in ihr. Der Sehende kann das Sichtbare 27 28 29 30 31 32

Boehm 1995, S. 30 Fiedler 1991, S. 158 Fiedler 1991, S. 158 Majetschak 1997 und Fiedler 1991 Fiedler 1991, S. 162 Vgl. Merleau-Ponty 1984

201

BILDWENDEN

nicht besitzen, „außer er ist von ihm und ist – gemäß den Vorschriften der Artikulation des Blickes und der Dinge – grundsätzlich eines der sichtbaren Dinge, das diese – als eines von ihnen – durch eine eigenartige Umkehr zu sehen vermag.“33 Menschen haben die Fähigkeit zu sehen und sich selbst dabei zuzuschauen. Indem Merleau-Ponty diesen Akt des indirekten Sehens nicht auf das Sehen, sondern auf den Leib richtet, kennzeichnet er solches Sehen als leibhafte Reflexivität, in der sich Blick und Anblick überkreuzen. Diesen Chiasmus zeichnet nicht die Transparenz reinen Denkens aus, sondern eine Inkarnation in der Welt. 34 Im regen Austausch mit Merleau-Ponty stand der Psychoanalytiker Jacques Lacan, der seinen Chiasmus des Sehens in eine Theorie des Blickes und des Bildes inkorporiert. „Merleau-Ponty gibt uns den Hinweis, dass wir im Schauspiel der Welt angeschaute Wesen sind. Was uns zum Bewusstsein macht, das setzt uns auch mit demselben Schlag ein als speculum mundi.“35

Für Lacan zeigt sich im Akt des Begehrens der Urakt einer Spaltung, einer „Urseparation“.36 Das frühkindliche Begehren spaltet ein Teil seiner selbst, das sehr verschieden besetzt werden kann, von sich ab. Lacan bezeichnet dies formal als „das Objekt a“. Dieses Objekt identifiziert Lacan mit dem Blick. Den Blick darf man nicht mit dem Sehen, der Wahrnehmung oder dem Auge verwechseln. Vielmehr ist der Blick eine Abspaltung, die dem Subjekt entgegenkommt. Der visuelle Impuls des Sehens kreuzt sich mit dem Angeblickt-Werden. Die Topik dieses Blick wird bestimmt durch das abgespaltene Objekt a, das auf das Begehren zurückbezogen ist. Unter dem Blick wird das Subjekt zum Dispositiv, in das Sichtbarkeiten eingeschrieben sind. Erblickt zu werden, liegt nicht in der Gewalt des Subjekts, sondern ist die Unterlegung der menschlichen Befindlichkeit. Das Ineinander-Verschränktsein von Sicht und Ansicht zeigt Lacan durch die Verschränkung zweier Dreiecke, welche an die Sehpyramiden perspektivischer Darstellung erinnern.37 Durch dieses theoretische Konstrukt überwindet Lacan die Vorstellung von geometrischen Sehbahnen, indem er „auf jenen Punkt zurückgeht, wo das Auge bei der Sache ist, dorthin wo sich aus einem ‚Schillern‘ (chatoinement) eine erste ‚Sichtung‘ (voyure) manifestiert“.38

33 Merleau-Ponty 1994, S. 177f 34 Zum spezifischen Gebrauch des Terminus Chiasmus bei Merleau-Ponty vgl. seine Ausführungen in Merleau-Ponty 1994, S. 172ff 35 Lacan 1996, S. 81 36 Lacan 1996, S. 89 37 Vgl. Lacan 1996, S. 112 38 Boehm 1995, S. 24, vgl. Lacan 1996, S. 88

202

WAS IST EIN BILD?

Solcher Chiasmus von Auge und Blick beschreibt ein abstraktes Dispositiv, um das „Gefühl der Gegenwart eines Blickes“39 zu erklären. „Über das Auge triumphiert der Blick.“40 Der Blick, der sich vom Sehen abspaltet, konstituiert das Verhältnis, welches das Sehen mit sich selbst herstellt, das sich kontingent einstellt und nicht dem bewussten Willen gehorcht. Wie ein Bild zu produzieren ist, lässt sich deshalb letztgültig nicht festlegen, sondern die Geste des Leibes vollbringt in einem versunkenen Akt die Bildschöpfung und schafft so Sichtbarkeiten. Wie im legendären Wettstreit zwischen Zeuxis und Parrhasios gewinnt nicht die bessere Maltechnik, sondern die gelungenere Täuschung. In seinem Versuch zu einer Bild-Anthropologie eröffnet Hans Belting für die heutige Bildproduktion eine weitergehende Topik: „Natürlich ist der Mensch der Ort der Bilder.“41 Genauer bestimmt er den Körper, der als natürlicher Körper auch immer den Körper einer kollektiven Kultur repräsentiert, als den Ort der Bilder. Bildwelten ergeben sich aus dem Zusammenstoß der Völker, ihren Eroberungen und Kolonisierungen. Damit ist der geografische Ort angesprochen, der für seine Bewohner ein Sinnprinzip bildet. Mit Bezug auf den Ethnologen Marc Augé42 stellt Belting fest, dass die Orte, welche ehemals über ein geschlossenes System von Zeichen, Handlungen und Bildern für die Ortsansässigen verfügten, sich in Nicht-Orte des Transits auflösen, in Räume einer globalen Kommunikation, die den geografischen Raum ersetzen. Bilderzeugung ist im historisch sozialen Raum zu verankern. Damit Bilder als Artefakte ihren Ort im sozialen Raum besetzen können, müssen sie einen medialen Körper erhalten, der in jeder Epoche an einem Ort eine spezifische Ausprägung hat. Belting konstatiert: „Es ist aber offensichtlich, dass Medien im Falle der Bilder ein Äquivalent dessen sind, was Schrift im Falle der Sprache ist. Nur gibt es für Bilder nicht die Alternative zwischen Sprache und Schrift, die beide Male aus dem Körper heraustreten. Wir müssen mit Medien arbeiten, um Bilder sichtbar zu machen und mit ihnen zu kommunizieren. Die „Bildersprache“, wie wir sie nennen, ist eine Bezeichnung für die Medialität der Bilder. Sie lässt sich von den Bildern nicht so sauber ablösen, wie sich Schrift von Sprache trennen lässt.“43

Wie diese Äquivalenz von Medien und Schrift im Falle der Bilder zu verstehen ist, dem wird mit dem erarbeiteten verallgemeinerten Schriftbegriff der Notation weiter nachzugehen sein, um das neue Bildverhältnis genauer zu bestimmen. 39 40 41 42 43

Lacan 1996, S. 107 Lacan 1996, S. 109 Belting 2001, S. 57 Vgl. Augé 1994 Belting 2001, S. 27

203

Vom perspektivischen Sehen zum Aspekt-Sehen Perspektivisches Sehen ist die gültige Form des (Bild-)Sehens bis etwa zum 20. Jahrhundert. Mit Erwin Panofski hier von einer Form zu sprechen, unterstellt ein kulturell bestimmtes Sehen, das an die dominierenden Formen der Bildproduktion einer Epoche gebunden ist. Im 19. und 20. Jahrhundert bringen die technischen Bildmedien völlig neue Arten der Bildproduktion hervor. Aber es geht um mehr als das Aufkommen der Bildmedien Foto, Film und digitales Bild mit den ihnen eigenen Bildtechniken und neuen Bildformen. Es geht um eine Verschiebung in den Dispositiven des Sehens gemäß Benjamins These, dass innerhalb großer geschichtlicher Zeiträume mit den eingesetzten Medien auch die Form unserer Wahrnehmung selbst sich verändert. Eine Veränderung in der menschlichen Sinneswahrnehmung ist selbst nur schwer wahrzunehmen, denn das hieße, zugleich in der Art vor der Veränderung und in der Art nach der Veränderung wahrzunehmen. Wenn die Form des Sehens sich verändert, sieht man nach der neuen Form und nicht mehr nach der alten. Da es sich um eine historische, sich allmählich vollziehende Veränderung handelt, können Zeitgenossen sie überhaupt nicht wahrnehmen.1 Gewöhnlich wird eine derartige Veränderung in unserer Wahrnehmungsweise deshalb übersehen. Manchmal wird ihre Möglichkeit auch ganz bestritten und unterstellt, dass unser Sehen biologisch festgelegt sei und sich kulturell in historischen Zeiträumen nicht ändern könne. Je präziser die biologischen oder überhaupt naturwissenschaftlichen Theorien über das Sehen werden, umso mehr zeigt sich, dass diese Meinung nicht haltbar ist und von Neurobiologen kaum noch vertreten wird. Denn in der neurobiologischen Sichtweise konstruiert nicht das Auge, sondern das Gehirn das Sehen. Um die Art und Weise der behaupteten kulturellen Veränderung des Sehens in ihrer Bedeutung zu verstehen, könnte es hilfreich sein, dass im Bereich der Sprache analoge Veränderungen spätestens seit Humboldt relativ gut erklärbar sind. Jede lebendige Sprache verändert sich in geschichtlicher Zeit, und zwar so sehr, dass aus ihr eine Fremdsprache wird. Zum Beispiel ist Französisch als romanische Sprache keine leichte Abwandlung gegenüber dem Lateinischen, sondern eine qualitative Veränderung. Latein und französisch sprechende Menschen würden sich untereinander nicht verstehen. Jedoch besteht zwischen einem lateinischen und einem französischen Text nach Benjamin das Verhältnis der Übersetzbarkeit. Analog muss es auch noch eine Art der Übersetzbarkeit zwischen den geschichtlich sich wandelnden Formen des kulturellen 1

Es mag allerdings besonders spekulativ begabte Menschen geben, die sie weit im Voraus erahnen.

204

VOM PERSPEKTIVISCHEN SEHEN ZUM ASPEKT-SEHEN

Sehens geben. So weit das nicht der Fall ist, lassen sie sich auch nicht mehr beschreiben. Mit der These von der Bildwende im 20. Jahrhunderts wird allerdings nicht nur allgemein die kulturelle Geprägtheit des Sehens behauptet, sondern eine spezifische Veränderung des Sehens. Diese ist im Folgenden zu beschreiben und zu erklären.

Auflösung des Dispositivs der Perspektive Seit dem Ende des 19. Jahrhunderts ist das Bild ins Zeitalter seiner technischen Reproduzierbarkeit2 eingetreten. Das bedeutet zum ersten Mal in der Geschichte das Aufkommen einer massenhaften Bildproduktion. Bilder zu besitzen, ist nicht mehr ein Privileg von Adel oder Besitzbürgertum. In der jüngsten Vergangenheit der letzten Jahre mag zwar die Bilder-Produktion quantitativ noch zugenommen haben. Aber qualitativ existiert eine „Bilderflut“ seit der Erfindung der Fotografie und ist kein besonderes Merkmal der neuen digitalen Medien. Allerdings verändert sich mit dem digitalen Bild die Bildproduktion noch einmal entscheidend. Nach der technischen Reproduzierbarkeit treten Bilder ins „Zeitalter immaterieller Produzierbarkeit“3. Immaterielle Produzierbarkeit heißt nicht, dass digitale Bilder geistige, nicht materielle Bilder seien, sondern dass es bei digitalen Bildern kein Original gibt, das sich von der digitalen Kopie unterscheidet. Beim digitalen Bild wird deutlich, dass es nicht gemäß dem Dispositiv der Perspektive Wirklichkeit abbildet, sondern in der Notation als raum-zeitliche Relation zwischen Speicher und Darstellung konstruiert wird. Digitale Bilder gibt es in den unterschiedlichsten Formen, die dem Foto nachgebildeten sind nur eine spezielle Form. Jedoch muss die Auflösung des Dispositivs der Perspektive schon vor dem Aufkommen des digitalen Bildes begonnen haben, sonst ließe sich nicht von einem geschichtlichen Zeitraum des Übergangs reden. Behauptet ist ein Übergang in der Form unseres Sehens, der geprägt ist durch Bilder, genauer durch die veränderte Art ihrer Produktion. Schon immer haben Medien Wirklichkeit geprägt, sie nicht isomorph und unverfälscht wiedergegeben. Neu ist das wachsende Bewusstsein, dass das auch für die technischen Medien gilt, die Wirklichkeit durch Objektive (ab-)bilden. Die Fotografie, wie die Phonographie – mit dem Griffel der Natur geschrieben – erscheint als objektives Bild der Wirklichkeit. Deshalb dauert es auch so lange bis das Foto zum anerkannten Kunstwerk wird.

2 3

Benjamin 1991b Nake 1999, S. 117

205

BILDWENDEN

Künstler-Fotografen gestalten mit dem Fotoapparat Bilder auf sehr unterschiedliche Weise: – Sie wählen unter den vielen geschossenen Fotos dasjenige aus, welches das punctum im Sinne von Roland Barthes intersubjektiv kommunizierbar zeigt. Sie zeigen im Foto den Augenblick des Bildwerdens. Durch die Kontingenz des Apparats ermöglichen sie eine neue Sichtweise. – Sie demonstrieren im Foto kulturelle Verhältnisse: Situationen des Alltags, soziale Ungerechtigkeit, fremdartige Lebensformen, etc. – Sie montieren in Collagen oder Überblendungen neue Bildformen. – usw. Was auch immer das Foto zum Kunstwerk macht, auf jeden Fall liegt darin das Bewusst-Machen einer Sichtweise des Fotos, die nicht in seiner Indexikalität und Objektivität als Griffel der Natur aufgeht. KünstlerFotografen lösen den seit Brunelleschi und Alberti perspektivisch geprägten Blick auf, der doch in der benutzten technischen Apparatur des Objektivs und der Kamera gebannt erscheint. In diesem Doppel von Auflösung und Fixierung trägt das künstlerische Foto zur Bildwende bei. Wie bei jedem Abdruck vollzieht sich in der Fotografie die Formwerdung in einer technischen Operationskette. So wie die Form den Abdruck produziert, macht der Fotoapparat das fotografische Bild. Deshalb haben Fotos immer auch eine indexikalische Struktur. In diesem Sinne liegt ein Moment der Bildwende in der Rückkehr des Indexes. Damit ist keine Rehabilitierung des Abbildes als naive Mimesis gemeint, sondern die Technik der Visualisierung von Unsichtbarem. Diese „magische“ Technik findet sich nicht erst in den Fotos mit Kunstanspruch, sondern schon in den sehr frühen Experimenten der Fotografie. Lange Belichtungszeiten stellen Bewegungen als Palimpsest dar. Die Bewegungsfotografien seit Étienne-Jules Marey machen Bewegungsabläufe analysierbar.4 Die technische Bewältigung des Augenblicks durch eine Apparatur, die in Bruchteilen von Sekunden ein noch zu entwickelndes Bild schießt, ermöglicht Kinematographie: ein Bewegungs-Bild und ein Zeit-Bild.5 Montage und „mise en scène“ lösen den Standort des perspektivischen Bildes in die Filmsyntax bewegter Bilder auf.6

4 5 6

Das Dispositiv des Fotos ermöglicht die Perfektionierung der Arbeitsteilung in tayloristischen Bewegungsstudien. Deleuze 1998 und Deleuze 1999 Vgl. Monaco 2000

206

VOM PERSPEKTIVISCHEN SEHEN ZUM ASPEKT-SEHEN „Weg – ins reine Feld, in den Raum der vier Dimensionen (drei+Zeit)! Auf zur Suche nach ihrem Material, ihrem Jambus, ihrem Rhythmus!“7

Bewegte (Film-)Bilder markieren in der Bildwende eine entscheidende Veränderung im Bildverständnis. Das nach dem Prinzip der Perspektive konstruierte Bild stellt immer eine Projektion in einen Raum ohne Zeit dar, während das bewegte Bild eine raum-zeitliche Bildlichkeit realisiert. Theoretiker des bewegten Bildes sind von Anfang an auf der Suche nach einer (Film-)Sprache, aber einer Sprache, bei welcher der Ton nur stört.8 Eisensteins Projekt einer allgemeinen Filmsprache scheitert mit der Erfindung des Tonfilms. Dennoch verflechten sich Bild und Sprache auf eine neue Weise. Diese Verflechtung und die neue Raum-Zeitlichkeit des Bildes lassen sich im Dispositiv der Perspektive nicht ausdrücken. Paradoxerweise löst es sich in technisch-fixierte perspektivische Bilder auf. Vor einer Beschreibung des Übergangs zum neuen, noch zu bestimmenden Dispositiv gilt es zunächst zu erklären, wie mit dem Dispositiv der Perspektive eine Form des Sehens verknüpft ist.

Die Perspektive als symbolische Form Das Standardwerk zur Perspektive ist Erwin Panofskys Aufsatz Die Perspektive als symbolische Form.9 Panofsky meldet Skepsis dagegen an, dass die perspektivische Malerei die Wirklichkeit abbilde. Das wie ein Trompe-l’œil Wirkende ist historisch geprägt. „Diese ganze ‚Zentralperspektive‘ macht […] stillschweigend zwei sehr wesentliche Voraussetzungen: zum Einen, dass wir mit einem einzigen und unbewegten Auge sehen würden, zum Anderen, dass der ebne Durchschnitt durch die Sehpyramide als adäquate Wiedergabe unseres Sehbildes gelten dürfe.“10

Aber wir haben zwei bewegte Augen und die Retina ist nicht plan. Im Raum der unmittelbaren Wahrnehmung, im Gesichtsraum wie im Tastraum, gibt es ungleichgewichtige Hauptrichtungen wie vorn-hinten, oben-unten, und in ihm gibt es keine unendlich fernen Punkte.11 Also kann die Zentralperspektive weder physiologisch, noch psychologisch als 7 8 9

Vertov 1995, S. 20 Eisenstein 1995 Panofsky 1992. Vgl. die umfassende Monografie zur Untersuchung der Herkunft der Perspektive von Hubert Damish: Damisch 1995. Damish diskutiert das Problem der Perspektive in weiten Auslegungen mit Lacans Tableau der Bildlichkeit, Foucaults Diskursanalyse der Ordnung der Dinge und als Paradigma im Sinne Kuhns, den Neokantianismus Panofskys hinter sich lassend. 10 Panofsky 1992, S. 101 11 Diese Analyse übernimmt Panofsky von Ernst Cassirer: Cassirer 1997 Band 2, S. 104ff

207

BILDWENDEN

die korrekte Form der Darstellung der Wirklichkeit gelten. Die Konstruktionen der Zentralperspektive als „adäquate Wiedergabe unseres Sehbildes“ zu betrachten, stellt „eine überaus kühne Abstraktion von der Wirklichkeit“12 dar: eine symbolische Form, die das Sehen der Epoche prägt. Wer gemäß den Regeln perspektivischer Korrektheit Bilder herstellt, für den ist Sehen eine „Durchsehung“ durch ein „Fenster“ auf die Welt als Gestaltung eines „eines völlig rationalen, d.h. unendlichen, stetigen und homogenen, kurz rein mathematischen Raumes“13. Das ist die Form des Sehens der Neuzeit. Auch die klassische Antike kannte eine perspektivische Bildproduktion, aber keine Planperspektive, sondern eine kurvenlineare Perspektive, welche Panofsky dem „wirklichen“ Sehen angemessener glaubt, was er daraus schließt, dass wir mit zwei Augen sehen und dass das Netzhautbild beim ovalen Auge nicht plan ist. In der antiken Perspektive hat das Gesichtsfeld eine sphäroide Gestalt: Geraden werden nicht als Geraden abgebildet, sondern vom Bildzentrum aus betrachtet als konvex gekrümmte Kurven. Ob in der Antike für die Konstruktion einer solchen Perspektive ein explizit geometrisches Verfahren zur Verfügung gestanden hat, lässt Panofsky letztlich zwar offen, aber er malt die Möglichkeit aus. Im antiken Sehen ist die sphäroide Form des subjektiven Gesichtsfeldes so sehr verankert, dass in Tempelbauten gerade Linien oft bewusst durch leichte Kurvaturen ersetzt werden, um die Täuschungen des subjektiven Sehraums zu kompensieren.14 Dass die Kurvierung dem subjektiven Sehraum eher entspricht als die Planperspektive, dafür führt Panofsky Kepler als Zeugen an, der: „die Möglichkeit zugab, daß ein objektiv gerader Kometenschweif oder die objektiv gerade Flugbahn eines Meteors subjektiv als eine Kurve wahrgenommen werde, und das Interessante dabei ist, daß Kepler sich völlig darüber im klaren war, dass nur die Erziehung durch die Planperspektive schuld daran sei, wenn er anfänglich diese Scheinkrümmungen übersehen oder abgeleugnet habe: er habe sich bei der Behauptung, dass Gerades immer gerade gesehen werde, durch die Vorschriften der malerischen Perspektive bestimmen lassen, ohne daran zu denken, dass das Auge tatsächlich nicht auf eine ‚plana tabella‘, sondern auf die Innenfläche einer Sehkugel projiziere“15.

Das Mittelalter kannte keine perspektivische Bildkonstruktion. Durch den Verzicht auf die Raumillusion gelangte es jedoch zu einem eigenen Systemraum des Bildes, in dem „Körper und Raum auf Gedeih und Ver12 Panofsky 1992, S. 101. Panofsky möchte „in diesem Falle als ‚Wirklichkeit‘ den tatsächlichen subjektiven Seheindruck“ bezeichnen. 13 Panofsky 1992, S. 101 14 Allerdings verfuhren sie dabei widersprüchlich. Vgl. Panofsky 1992S. 132f (Anm. 12) 15 Panofsky 1992, S. 104

208

VOM PERSPEKTIVISCHEN SEHEN ZUM ASPEKT-SEHEN

derb miteinander verbunden“16 werden, indem beide auf die Fläche reduziert werden. Im antiken Sehen war solche Reduktion unvorstellbar, denn: „Die klassische antike Kunst war eine reine Körperkunst gewesen, die nur das nicht bloß Sicht-, sondern auch Greifbare als künstlerische Wirklichkeit anerkannte, und die stofflich drei-dimensionale, funktionale und proportionsmäßig fest bestimmte und dadurch stets irgendwie anthropomorphisierte Einzelelemente nicht malerisch zur Raumeinheit verband, sondern tektonisch oder plastisch zum Gruppengefüge zusammensetzte.“17

Die antike und die neuzeitliche Perspektive ergibt sich also nicht jeweils aus unterschiedlichen geometrischen Konstruktion, die sich auch ineinander überführen ließen, wie etwa die Mercator-Karte des Globus und die Peters-Projektion, sondern bildet jeweils eine völlig unterschiedliche symbolische Form. Bis zu einem gewissen Maße – so Panofsky – lässt sich sogar sagen, dass die Homogenität von Körper und Raum als Flächen im Systemraum mittelalterlicher Malerei den neuzeitlichen rationalen, stetigen und homogenen Systemraum der Perspektive hervorbringt. Der antiken und der mittelalterlichen Bildkonstruktion entspricht wie der neuzeitlichen nach Panofsky jeweils eine eigene Form des Sehens, die sich zum Beispiel tief mit den Raumvorstellungen der jeweiligen Epoche verflechtet. Der symbolischen Form der antiken Perspektive entspricht ein „Aggregatraum“ von Körpern und kein Systemraum, wie der neuzeitlichen Perspektive. Auch den Raumvorstellungen griechischer Philosophen wie Demokrit, Plato oder Aristoteles haftet bei aller Verschiedenheit immer eine Körperlichkeit an. Ein rationaler, homogener, stetiger unendlicher Systemraum ist ihnen völlig unvorstellbar, entspricht dieser doch erst dem Raumbegriff Newtonscher Physik. Panofsky als Bildtheoretiker und Bildhistoriker analysiert vergangene Formen des Sehens und der Bildkonstruktion. In der Kunst der Moderne ist die Perspektive nicht das Konstruktionsprinzip des Bildes, sondern eher die Geschichte ihrer Auflösung. Das künstlerische Bild wird abstrakt. Es geht nicht mehr um die Darstellung der Wirklichkeit, sondern um die Kunst der Kunst wegen. Sie experimentiert auf unterschiedliche Art und Weise mit Formen der Bildgestaltung. Sie prägt unzählige Stile: Impressionismus, Suprematimus, Surrealismus, Dadaismus, Kubismus, etc. Sie produziert unterschiedliche Bildformen: Gemälde, Installationen, Fotos, Filme, etc. Es ist schwierig, in ihnen ein gemeinsames Konstruktionsprinzip und eine Form des Sehens zu erkennen. Ich behaupte, dass die modernen Bildkonstruktionen nach dem Prinzip des Aspekt-Sehens geformt sind. Dann lässt sich die Form des kultu16 Panofsky 1992, S. 113 17 Panofsky 1992, S. 108

209

BILDWENDEN

rell durch das Bild geprägten Sehens des 20. Jahrhunderts als AspektSehen kennzeichnen. Zu klären ist dafür zunächst der Begriff des AspektSehens und danach sein Bezug zu modernen Bildkonstruktionen.

Der Begriff des Aspekt-Sehens Den Begriff des Aspekt-Sehens übernehme ich von Ludwig Wittgenstein. In meinem Gebrauch des Begriffes wird sich seine Art des Meinens so verändern, dass er als neue Form des kulturell geprägten Sehens erscheint, welche die (symbolische) Form des perspektivischen Sehens ablöst. Gemeint ist mit Aspekt-Sehen, das was Wittgenstein damit meint. Wittgenstein führt den Begriff in seinen philosophischen Untersuchungen ein. Diese stellen selbst ein kunstvolles Gebilde der Art des Meinens dar. Wirklich erschließen lassen sie sich nur, wenn man sie kontrastierend mit dem Tractatus liest, dessen Auffassungen sie bekämpfen. Jedoch sind die neuen aphoristisch aufgeschriebenen18 Einsichten Setzungen, die letztlich nur zusammen mit dem Tractatus als eine Art Hintergrundfolie zu verstehen sind. Das ist zu bedenken, wenn ich im Folgenden den Gebrauch des Begriffes Aspekt-Sehen mit Zitaten aus den Philosophischen Untersuchungen einführe: „Zwei Verwendungen des Wortes ‚sehen‘. Die eine: ‚Was siehst du dort?‘ – ‚Ich sehe dies‘ (es folgt eine Beschreibung, eine Zeichnung, eine Kopie). Die andere: ‚Ich sehe eine Ähnlichkeit in diesen beiden Gesichtern‘ der, dem ich dies mitteile, mag die Gesichter so deutlich sehen wie ich selbst. Die Wichtigkeit: Der kategorische Unterschied der beiden ‚Objekte‘ des Sehens. Der Eine könnte die beiden Gesichter genau abzeichnen; der Andere in dieser Zeichnung die Ähnlichkeit bemerken, die der erste nicht sah. Ich betrachte ein Bild, auf einmal bemerke ich seine Ähnlichkeit mit einem andern. Ich sehe, daß es sich nicht geändert hat; und ich sehe es doch anders. Diese Erfahrung nenne ich ‚das Bemerken eines Aspekts‘. Seine Ursachen interessieren den Psychologen. Uns interessiert der Begriff und seine Stellung in den Erfahrungsbegriffen.“19

Hier einen Augenblick innehaltend, flechte ich eine Frage ein: Wie lässt sich ein ‚Objekt‘ der ersten Art des Sehens sehen? Wie kommt man dazu etwas zu sehen? Sieht die Kamera etwas? Gehört zum Sehen notwendigerweise ein ‚Ich‘? Wie beschreibt man das „Ich sehe dies.“, ohne darauf 18 Durch diese Schreibweise löst Wittgenstein die kunstvolle Ordnung des sorgfältig gegliederten Tractatus und hebt sie auf – im doppelten Sinne des Wortes „aufheben“. 19 Wittgenstein 1984b, S. 518

210

VOM PERSPEKTIVISCHEN SEHEN ZUM ASPEKT-SEHEN

Bezug zu nehmen, dass ‚dies‘ ähnlich zu etwas anderem ist? Offensichtlich appelliert Wittgenstein daran, dass es gezeigt werden kann – mit einer Beschreibung, einer Zeichnung oder einer Kopie – welches selbst nicht das ‚Objekt‘ der ersten Art des Sehens ist, sondern es beschreibt, zeichnet oder kopiert. Ohne dass der „kategorische Unterschied“ zwischen den beiden ‚Objekten des Sehens‘ geleugnet werden kann, verflechten sie sich doch. Sind meine Fragen nur psychologische? Lassen sie sich abweisen, wenn einen der Begriff des Aspekts und seine Stellung in den Erfahrungsbegriffen interessiert? Bevor ich die erste Verwendung des Wortes „sehen“, die klar schien, weiter mit vielleicht unerlaubten Fragen verflechte und verwirre, folge ich erst einmal Wittgensteins Erklärung der zweiten Verwendung des Wortes „sehen“, die hier Thema ist. „Man könnte sich denken, daß an mehreren Stellen eines Buches, z.B. eines Lehrbuches, die Illustration

stünde. Im dazugehörigen Text ist jedes Mal von etwa anderem die Rede: Einmal von einem Glaswürfel, einmal von einer umgestülpten Kiste, einmal von einem Drahtgestell, das diese Form hat, einmal von drei Brettern, die ein Raumeck bilden. Der Text deutet jedesmal die Illustration. Aber wir können auch die Illustration einmal als das eine, einmal als das andere Ding sehen. – Wir deuten sie also, und sehen sie, wie wir sie deuten. Da möchte man vielleicht antworten: Die Beschreibung der unmittelbaren Erfahrung, des Seherlebnisses mittels einer Deutung ist eine indirekte Beschreibung. „Ich sehe die Figur als Kiste“ heißt: Ich habe ein bestimmtes Seherlebnis, welches mit dem Deuten der Figur als Kiste, oder mit dem Anschauen einer Kiste, erfahrungsgemäß einhergeht. Aber wenn es das hieße, dann müßte ich’s wissen. Ich müßte mich auf das Erlebnis direkt und nicht indirekt beziehen können. (Wie ich vom Rot nicht unbedingt als der Farbe des Blutes reden muss.)“20

Wittgenstein verflechtet also selbst die beiden Arten des Gebrauchs des Wortes „sehen“. Sein rhetorischer Trick, als Agens der Erfahrung immer 20 Wittgenstein 1984b, S. 518f

211

BILDWENDEN

ein „Wir“ zu setzen, versteckt die Nähe zur Psychologie. Allerdings geht es hier in der Tat nicht um eine Ich-Psychologie der individuellen Persönlichkeitsentwicklung. Seine Verflechtung des „Wir sehen…“ mit dem „Wir deuten…“ ist analog zu Benjamins Theorie der „unsinnlichen Ähnlichkeit“ gebildet. In dem Begriff des „Sehen als“ manifestiert sich eine Überschreitung zwischen der unsinnlichen Sphäre des Deutens und der sinnlichen Sphäre des Sehens. Und wie die „unsinnliche Ähnlichkeit“ kann der Aspekt in einem Moment aufblitzen: „Die folgende Figur, welche ich aus Jastrow entnommen habe, wird in meinen Bemerkungen der H-E-Kopf heißen. Man kann ihn als Hasenkopf, oder als Entenkopf sehen.

Und ich muß zwischen dem stetigen Sehen eines Aspekts und dem ‚Aufleuchten‘ eines Aspekts unterscheiden.“21 „Wenn ich den H-E-Kopf als H sah, so sah ich: diese Formen und Farben (ich gebe sie genau wieder) – und außerdem noch so etwas: dabei zeige ich nun auf eine Menge verschiedener Hasenbilder. – Dies zeigt die Verschiedenheit der Begriffe. Das ‚Sehen als…‘ gehört nicht zur Wahrnehmung. Und darum ist es wie ein Sehen und wieder nicht wie ein Sehen.“22

Aus diesen Wittgensteinschen Begriffen des Sehens, des Sehens als und des Aspekts, forme ich den Begriff des „Aspekt-Sehen“. In ihm liegt ein Changieren zwischen Sehen und Denken, in dem sich das Sehen mit dem Sehen als verknüpft. Aspekt-Sehen wird eine Form des kulturell geprägten Sehens, das Aspektwechsel kennt.23 Dabei „erscheint das Aufleuchten des Aspekts halb Seherlebnis, halb ein Denken“24. Aspekt-Wechsel sind im perspektivischen Sehen, welches Wirklichkeit repräsentiert, nicht 21 Wittgenstein 1984b, S. 519f 22 Wittgenstein 1984b, S. 524 23 Aspekt-Sehen darf nicht als Terminus der Wahrnehmungspsychologie des Sehens aufgefasst werden. 24 Wittgenstein 1984b, S. 525

212

VOM PERSPEKTIVISCHEN SEHEN ZUM ASPEKT-SEHEN

möglich. Aspekt-Sehen repräsentiert nicht Wirklichkeit, sondern reflektiert sie in einer Reflexion, die nicht durch Spiegel vermittelt wird. Die Unterscheidung zwischen perspektivischem Sehen und AspektSehen mag so einsichtig sein. Aber was hat das Aspekt-Sehen mit modernen Bildkonstruktionen zu tun? Inwieweit ist das Aspekt-Sehen als Form aufzufassen, analog zu Panofkys Erklärung der Perspektive als symbolische Form?

Elemente des Dispositivs des Aspekt-Sehens Perspektivisches Sehen ist eine „Durchsehung“ durch ein „Fenster“ auf die Welt als Gestaltung eines „eines völlig rationalen, d.h. unendlichen, stetigen und homogenen, kurz rein mathematischen Raumes“. Ein Sehen von Aspektwechseln ist dagegen nur möglich als Reflexion in der RaumZeitlichkeit der Differänz. Um den H-E-Kopf als Hasen oder Ente zu sehen, muss man schon Hasen oder Enten kennen. Perspektivische Bilder repräsentieren Wirklichkeit. Aspektivische Bilder reflektieren Wirklichkeit – in einer Reflexion, welche zugleich Sehen und Denken ist. Paradigmatisch lässt sich der Unterschied an zwei Kunstwerken zeigen: Diego Velázquez „Las Meninas“25 und René Magrittes „Ceci n’est pas une pipe“26. In beiden Bildern geht es um Reflektieren und um Repräsentieren, aber in einer radikal unterschiedlichen Weise. Während Velázquez darauf abzielt, Abwesendes zu repräsentieren und (zum Teil in Spiegeln) zu zeigen, bringt Margritte eine Reflexion ins Spiel, die nichts mit Spiegeln zu tun hat. Im Gegenteil, sie verunsichert den perspektivischen Blick, indem die Schrift im Bild die Repräsentation in Frage stellt und verwirrt. Man muss ein ‚Objekt‘ des Bildes als Pfeife sehen, um zu sehen, dass da keine Pfeife ist, was wiederum nur zu sehen ist, wenn man dort eine Pfeife sieht. Das moderne Bild will nicht repräsentieren, sondern eher sichtbar machen, wie sich repräsentieren lässt. Es repräsentiert nicht Sichtbarkeit, sondern reflektiert sie. Der klassischen Kunst der Perspektive entspricht ein Subjekt, das zwar an sich zweifelt, sich reflektiert, aber im Denken jeden Zweifel auslöscht und sich als gegeben setzt. Der modernen Kunst entspricht eine Reflexivität des Subjektwerdens, die nie zur Sicherheit eines mit sich selbst identischen Subjekts kommt, ein Subjekt des Diskurses. Das Dispositiv des Aspekt-Sehens ist konstruktivistisch. Bevor ich weitere Elemente des Dispositivs des Aspekt-Sehen ausfindig mache und sie dem Dispositiv des perspektivischen Sehen gegenüberstelle, ist auf eine Begriffsverschiebung aufmerksam zu machen. Ich 25 Vgl. Foucault 1974, S. 30-45 26 Vgl Foucault 1997

213

BILDWENDEN

spreche hier vom Dispositiv, ein gegenüber Panofskys Ausdrucksweise der symbolischen Form weiterer Begriff. Mit dem Gebrauch von Foucaults Terminus des Dispositivs ist keine Ablehnung von Panofskys Begriffen verbunden.27 Seinen auf Cassirer zurückgehenden Ausdruck der Form werde ich im Folgenden wieder aufnehmen. Allerdings ist mit dem Gebrauch des Terminus Dispositiv, der ein „Durcheinander, ein multilineares Ensemble […] zusammengesetzt aus Linien verschiedener Natur“28 meint, eine Akzentverschiebung verbunden. Panofskys Historisierung der Perspektive unterliegt implizit die Vorstellung einer Geschichte des Fortschritts: Von der antiken Perspektive über den Rückfall nicht perspektivischer Bildkonstruktionen im Mittelalter zur (noch nicht ganz) perfekten Planperspektive der Neuzeit. Wer im Zeitalter der Globalisierung auf die vielfältigen geschichtlichen Bildformen in aller Welt schaut, wird ihre Beziehungen nur in einem rhizomartigen Gebilde29 reflektieren können und in keinem Fortschrittsmodell der Geschichte. Auch wirkt das perspektivische Sehen in der Ära des Dispositivs des Aspekt-Sehens weiter, so wie Latein in vielen heute gesprochenen Sprachen und Diskursen fortlebt – um diese ins Spiel gebrachte Analogie wieder aufzunehmen. Perspektivisches Sehen ist also nicht verschwunden, aber der ihr entsprechende homogene Raum Newtonscher Physik hat sich inzwischen zur Raum-Zeit nach Einsteins Relativitätstheorie gewandelt. Für das Dispositiv des Sehens kommt es hier auf die Einführung der Zeit an. Aspekt-Sehen positioniert sich nicht immer wieder neu an einen Standort, um von dort aus objektiv auf die Welt zu blicken. Ihm unterliegt eine Vorstellung der Relativität, eines zeitlich prozessierenden Raumes, der durch ein Spiel von Aspekt-Wechseln nur denkend zu sehen ist. Andererseits meint Aspekt-Sehen kein abstraktes Raumdenken, sondern ein vordenkendes Sehen. Dem Dispositiv des Aspekt-Sehens entspricht nicht das Abbild, sondern das Vorbild.30 Massenhaft sich im Umlauf befindliche Darstellungen als Folge technischer Bildproduktion haben in der Ära der Videosphäre eine mediale Wahrnehmungsschicht geschaffen, welche die Wahrnehmung der Wirklichkeit präfiguriert. Salopp und eher journalistisch als wissenschaftlich formuliert: Die Postkarte bildet die Urlaubslandschaft nicht ab, sondern entscheidet über die Wahl des Urlaubsortes, der daran gemessen wird, ob er den Versprechungen der Postkarte 27 Foucault selbst hat sich explizit positiv zu Panofskys Werk geäußert: Foucault o.D. 28 Deleuze 1991, S. 153 29 Ein Rhizom ist ein wurzelartiges unterirdisches Geflecht von Beziehungen. Vgl. Deleuze 1997 30 Vgl. Flusser 1994 und allgemeiner Flusser 1998b

214

VOM PERSPEKTIVISCHEN SEHEN ZUM ASPEKT-SEHEN

genügt. Ein aussagekräftiges Beispiel für diesen Sachverhalt ist die Ikone vom blauen Planeten. Sie hat einen völlig anderen Charakter als der Globus, ein Modell zur Veranschaulichung des Weltbildes. „Die Photographie aus dem All stellt einen Bruch in der Geschichte der Wahrnehmung der Erde dar. Sie verleiht der Erde Evidenz.“31

Das Foto der Erde behält auch dann noch eine ungeheure Beweiskraft, wenn es gedruckt und millionenfach vervielfältigt wird. Ein von Automaten produziertes Bild generiert das Vorbild des Weltverständnisses. Vom Kindergarten an wird ein durch Geräte vermitteltes Sehen eingeübt, das die Grenzen zwischen dem Sichtbaren und Unsichtbaren neu definiert. Röntgenstrahlen zeigen das Skelett, Ultraschall lotet Gewebedichten, die visualisiert werden als Bilder von Organen, Rasterelektronenmikroskope machen Gene sichtbar. Die Wahrnehmung des eigenen Körpers wird bestimmt durch visualisierte Theorie, mit denen für menschliche Augen Unsichtbares, nicht Wahrnehmbares evident wird.32 Wohl das bekannteste Beispiel visualisierender Theorie stellt die Chaostheorie dar. Der Theorie dynamischer Systeme gelingt es, eine Morphologie des „Amorphen“ zu entwerfen: „Bisher sind die Mathematiker jedoch dieser Herausforderung ausgewichen. Durch die Entwicklung von Theorien, die keine Beziehung mehr zu sichtbaren Dingen aufweisen, haben sie sich von der Natur entfernt. Als Antwort darauf werden wir eine neue Geometrie der Natur entwickeln und ihren Nutzen auf verschiedenen Gebieten nachweisen. Diese neue Geometrie beschreibt viele der unregelmäßigen und zersplitterten Formen um uns herum – und zwar mit einer Familie von Figuren, die wir Fraktale nennen. Die nützlichsten Fraktale enthalten den Zufall sowohl in ihren Regularitäten als auch in ihren Irregularitäten.“33

Wer sich in der Chaostheorie auskennt, wird in Fraktalen Aspekt-Wechsel erkennen. Für andere sind fraktale Bilder schön oder kitschig, je nach Geschmack. Aspekt-Sehen ist nur möglich als ein denkendes Sehen. Ihm entspricht als Kosmos-Vorstellung eine Theorie dynamischer Systeme und dissipativer Strukturen34 und nicht mehr das Weltbild des mechanistischen Uhrwerks der linearen Zeit in einem homogenen Raum, das mit dem perspektivischen Sehen korrespondiert. Die philosophische Theorie des Dispositiv des Aspekt-Sehen kann nur konstruktivistisch sein.

31 Sachs 1994, S. 318 32 Vgl. dazu den engagierten Essay Der Frauenleib als öffentlicher Ort: Duden 1991 33 Mandelbrot 1991, S. 13 34 Vgl. Prigogine und Stengers 1986

215

BILDWENDEN

Die bisher erbrachten Elemente des Aspekt-Sehens haben das Dispositiv grob konturiert. Es würde den Rahmen dieser Arbeit bei weitem sprengen, das Dispositiv des Aspekt-Sehens im Detail zu beschreiben. Um es als kulturell geprägte Form des Sehens analog der Perspektive als symbolische Form verstehen zu können, muss die Beziehung des AspektSehens zur modernen Bildkonstruktion noch klarer werden. Dafür war zunächst herauszuarbeiten, – dass dem Aspekt-Sehen das Dispositiv einer strukturierten RaumZeitlichkeit unterliegt, – dass allgemein Aspekt-Wechsel zu realisieren sind (nicht nur nach dem Prinzip von Vexierbildern), – dass es nicht – jedenfalls nicht wesentlich – um eine Verbesserung der Bildkonstruktion zur Erbringung einer möglichst perfekten Wirklichkeitsillusion geht, – dass Sprachliches und Bildliches zu verflechten sind. Solchen Anforderungen kann allgemein nur ein bewegtes Bild, genauer ein Bild als prozessierende Relation genügen. Gefordert ist das Konstruktionsprinzip des digitalen Bildes, dass durch das Prinzip der Trennung von Speicherung und Darstellung des Bildes Aspekt-Wechsel technisch ins Bild zu setzen vermag. Die Form des Aspekt-Sehens bildet sich gerade erst heraus. Schon mit dem Foto und der modernen Kunst hat sie sich herauskristallisiert, jedoch erst im digitalen Bild findet es seine Form. Die Form der Bildlichkeit der Notation des Computers als Medium ist herauszuarbeiten.

216

Die neue Bildlichkeit des Computers als Medium

„It is only worthwhile to make drawings on the computer if you get something more out of the drawing than just drawing.“1

Die Notation des Computers als Medium verknüpft Sprachliches und Bildliches auf neue Weise in einem unauflöslichen Band. Das als Notation produzierte Bild kann auf dem Schirm vielfältige sichtbare Formen annehmen, beruht letztlich aber immer auf einer formalen Beschreibung. „What is a computer image? Beyond what you see on the screen, it is in reality, a two-dimensional array of numbers. Each number represents the intensity or colour of a visible picture element or pixel.”2

Vorherrschendes Bildformat wird das Notat der Matrix von Pixeln als Nachfolger der künstlichen Perspektive nach Brunelleschi. Als Notation bildet sich keine zeitlose Verräumlichung, sondern ein prozessierendes bewegtes Bild einer virtuellen Realität. Die hervorstechende Eigenschaft des computergenerierten Bildes ist seine Programmierbarkeit, das heißt seine Form der Übersetzbarkeit als Matrix von Zahlen prozessierend dargestellt auf einem Schirm. Ein computergeneriertes Bild geht nicht auf in seiner Sichtbarkeit, aber auch nicht in der Zahlenmatrix. Es bildet eine raumzeitliche Relation.3

Die Programmierbarkeit des Bildes Das perspektivische Bild wird nach objektiven Regeln konstruiert, das Computerbild nach Regeln des Kalküls programmiert. Lehrbücher über die Kunst der Programmierung von Bildern behandeln wesentlich drei große Bereiche: – Bilderzeugung oder Computergrafik (Synthesizing images or computer graphics) – Bildverarbeitung (Image processing) – Bilderkennung (Computer vision) Die Theorie der digitalen Bilderzeugung widmet sich dem Problem, wie Licht Bilder auf irgendeinem Schirm sichtbar macht – gemäß den in einer Datenstruktur abgelegten Modellen. Bilderkennung beschäftigt sich mit 1 2 3

Sutherland 2003, S. 125 Watt und Policarpo 1998, S. 2 Vgl. dagegen Pias 2002, S. 47: „Es gibt keine digitalen Bilder, sondern nur analoge Aufführungen diskreter Datenmengen, die auf verschiedene Weise anfallen können.“

217

BILDWENDEN

Verfahren, aus einem in einer zweidimensionalen Matrix von Pixeln repräsentierten Bild automatisch Informationen über das Abgebildete zu gewinnen.4 Unter Bildverarbeitung sind sehr unterschiedliche Transformationen von Bildern zu verstehen, die entweder zur Optimierung der Bilderzeugung für bestimmte Zwecke oder zur Analyse der Bilder dienen; besonders wichtig sind Fourier-Transformationen, Übersetzungen vom Bildbereich in den Frequenzbereich. Das Bild in der Form der Notation hat immer eine Zeitdimension, die sich aus der Trennung zwischen Kode und Notat ergibt. Die Leerstelle des Zwischen vermittelt ein bewegtes Bild. Anders als beim Film liegt die Grundlage der durch den Apparat vermittelten Bewegung nicht in der Synthetisierung und Montage von Einzelbildern, sondern in der Transformation von Pixeln durch prozessierenden Kode. Das Symbolische ist in den (Projektions-)Apparat eingezogen. Ein digitales Bild kann aus der Abtastung eines analogen Bildes errechnet oder ohne Vorbild durch vom Computer prozessierte Algorithmen generiert werden. Ziel seiner effizienten Kodierung ist eine Repräsentation, die eine weitere Bildbearbeitung ermöglicht. Rastergrafik repräsentiert Bildobjekte durch die explizite Angabe der Menge aller ihrer sichtbaren Bildpunkte, Vektorgraphik errechnet diese aus der Angabe ihres Bildungsgesetzes. Zur Darstellung von 3 D-Objekten werden mehr oder minder standardisierte Graphikpakete definiert. Es gibt Algorithmen für Schatten- und Reflexionsmodelle, für Filter, für die Datenkompression, für Bildverarbeitungs- und Zeichenprogramme. Digitaler Kode ermöglicht eine Bricolage von völlig unterschiedlichen Bildtechniken, die eine neue Konfiguration bildlicher Visualität formen.5 Visionär hat 1963 Ivan E. Sutherland das Dispositiv des programmierbaren Bildes in der Computerumgebung Sketchpad entworfen: „The Sketchpad system makes it possible for a man and a computer to converse rapidly through the medium of line drawings. Heretofore, most interaction between man and computers has been slowed down by the need to reduce all communication to written statements that can be typed; in the past, we have been writing letters to rather than conferring with our computers. For many types of communication such as describing the shape of a mechanical part or the connection of an electrical circuit, typed statements can prove cumbersome. The Sketchpad system, by eliminating typed statements (except for legends) in favor of line drawings, opens up a new area of man-machine communication.”6 4

5 6

Dazu gibt es eine große Zahl von Lehrbüchern, zur Computergrafik zum Beispiel Foley, Dam, Feiner und Hughes 1990, zur Bildererkennung Abmayr 1994, als Einführung in das gesamte Gebiet Watt und Policarpo 1998. Vgl. Mitchell 1992 Sutherland 2003, S. 111

218

DIE NEUE BILDLICHKEIT DES COMPUTERS ALS MEDIUM

Revolutionär neu ist hier das Verhältnis von Sprachlichem (to converse) und Bildlichem (line drawing) in der Idee eines grafischen Kommunikationssystems. Nach einem Vierteljahrhundert Gewöhnung an grafische Benutzungsoberflächen von Computern ist diese Relation zwischen Bildlichem und Symbolischen so selbstverständlich geworden, dass die radikale Umwandlung des Bildverständnisses kaum noch bemerkt wird. Der Kode des Computerbildes beschreibt nicht isoliert das Bildungsgesetz einer singulären Ansicht, sondern Klassen von Bildern oder Bildelementen und die Beziehungen zwischen ihnen. „A drawing in the Sketchpad system may contain explicit statements about the relationship between its parts so that as one part is changed the implications of this change become evident throughout the drawing. […] A Sketchpad drawing is entirely different from the trail of carbon left on a piece op paper. Information about how the drawing is tied together is stored in the computer as well as the information which gives the drawing its particular appearance.”7

Ein mächtiges Mittel zur Erzeugung von Bildern durch Kode sieht Sutherland in der Implementierung einiger allgemeiner Funktionen, die keinen spezifischen Bezug zu den Entitäten haben, auf denen sie operieren, was sie sehr flexibel einsetzbar macht. Beispiele sind die rekursive Darstellung von Instanzen einer Klasse von Bildelementen („Recursive Display of Instances“), rekursives Löschen („Recursive Deleting“) und rekursives ‚Mixen‘ („Recursive Merging“).8 Wenn zwei Komponenten gleichen Typs, die voneinander unabhängig sind, ‚gemixt‘ (merged) werden, verschmelzen sie zu einer. Dabei hängen alle weiteren Komponenten, die bisher von einer der beiden ‚gemixten‘ Komponenten abhing, nun von der Komponente des Produkts der Verschmelzung ab. Wenn zum Beispiel zwei Punkte ‚gemixt‘ werden, hängen alle Linien, welche bisher an einem der beiden Punkte endeten, nun an dem aus dem ‚Merging‘ resultierenden Punkt. Ähnlich bedeutet rekursives Löschen, das alle Komponenten, die von einer gelöschten Komponente abhängen, automatisch mitgelöscht werden. Für die rekursive Darstellung neuer Instanzen muss Sutherland nur die Koordinaten des Zentrums der neuen Instanz, sowie ihre Größe und Rotationswinkel angeben. Den Rest berechnet die Maschine. Sketchpad verwirklicht schon wesentliche Funktionen eines Mal- oder Zeichenprogramms, wie Punkte und Linien zu erzeugen, sowie das Kopieren von Grafikelementen. Allerdings kennt Sutherland noch nicht das Undo, einige der wichtigsten Funktionen, die darauf beruht, dass im Speicher der Code noch gespeichert ist, der auf dem Display nicht mehr dargestellt wird. Am wichtigsten ist aber wohl 7 8

Sutherland 2003, S. 113 Sutherland 2003, S. 118

219

BILDWENDEN

die ansatzweise schon realisierte Möglichkeit der interaktiver Erstellung des Bildes am Schirm. „In Sketchpad the light pen is time shared between the functions of coordinate input for positioning picture parts on the drawing and demonstrative input for pointing to existing picture parts to make changes.”9

In Sketchpad muss die Programmierung des Bildes nicht mehr allein durch die Eingabe eines textuellen Programmcodes erfolgen, sondern vollzieht sich durch „Eingreifen“ in das Bild mit Hilfe eines Lichtstifts. Aber erstellt werden programmierte Grafiken als prozessierende Relation zwischen Kode und bildlichem Notat. Mit Hilfe des Kodes lassen sich auf völlig neue und einfache Weise Muster erzeugen. Wie weit das visualisierte Computerbild nur eine Instanz einer Klasse von Bildern ist, zeigt sich in der leichten Möglichkeit von Sketchpad, Punkte, von denen viele Linien abführen, als eine Art Gelenk aufzufassen. Durch die Bewegung eines Punktes und die rekursive Mitführung der von diesem Punkt abhängigen Linien, lassen sich interessante bewegte Bilder erzeugen. Der Kode gibt die Gesetze der Bewegung und die wirkenden Kräfte an. Als weitere Beispiele führt Sutherland Brückenkonstruktionen und Schaltpläne an.10

Der Kode eines Computerbildes besteht in aller Regel in mehr oder etwas Anderem als der Matrix von Pixeln, auch wenn diese letztendlich immer die Repräsentation einer Ansicht ist. Im Speicher liegt aber darüber hinaus ein Code, der diese Matrix in Beziehung setzt zu einem vorhandenen 9 Sutherland 2003, S. 115 10 Allerdings kommt er damals noch zu dem Schluss, dass sich Schaltpläne leichter von Hand zeichnen lassen: Sutherland 2003, S. 125

220

DIE NEUE BILDLICHKEIT DES COMPUTERS ALS MEDIUM

Bildwissen in einem doppelten Sinne: (auch) in Bildern darstellbarem Faktenwissen, wie etwa Gesetze der Statik und Regeln für elektrische Schaltungen und Wissen über die Darstellung von Bildern. Was mit dem letzteren gemeint ist, sei an einem Beispiel ausgeführt:

Exkurs: Farbräume Eine NxM-Matrix von Pixeln codiert ein digitales Bild. Das Pixel ist ein Vektor, der die Farbinformation des Bildes repräsentiert. Farbinformationen lassen sich auf sehr unterschiedliche Weise geben. Wenn man sie aus einer Mischung von Grundfarben aufbaut, ist eine grundsätzliche Unterscheidung ist zu treffen, ob es sich um die additive Mischung von Farben, die ein Maler auf ein Tableau aufbringt oder um die subtraktive Mischung von Lichtfarben zum Beispiel auf einem Rasterbildschirm handelt. Farbsysteme sind von Physikern, Physiologen, Textilfabrikanten, Chemikern, Insektenforschern, Farbmetrikern und vielen mehr entworfen worden. Es stellt sich die Frage, was überhaupt Farben sind. „Farben sind alles mögliche, nur keine objektive Eigenschaft der Gegenstände, aus denen die Welt vor unseren Augen besteht.“11

Schon Aristoteles hat Farbmischungen untersucht, indem er Tageslicht gleichzeitig durch gelbe und blaue Glasstücke auf weißen Marmor fallen ließ. Er beobachtete, dass sich auf dem Marmor ein grüner Farbfleck zeigte. Daraus schloss er, dass grün als additive Mischung von blau und gelb entsteht.12 Farben entstehen für den Griechen Aristoteles aus dem täglich zu beobachtenden Kampf zwischen dem Dunkel der Nacht und dem Licht des Tages. Seine Ordnung der Farben verläuft deshalb von weiß nach schwarz, mit den Zwischenfarben gelb, rot, violett, grün und blau. Das weiße Mittagslicht wird erst gelblich, wechselt dann über orange zu rot, wandelt sich am Abend zu purpurviolett und dann zum tiefblauen Nachthimmel. Isaac Newton gab eine andere wissenschaftliche Erklärung der Farben, indem er das Tageslicht durch zwei Prismen brechen ließ und feststellte: Farben sind keine Modifikationen weißen Lichts, sondern dessen ursprüngliche Bestandteile.13 Auch er klassifizierte die Farben in sieben Grundfarben – rot, orange, gelb, grün, cyanblau, ultramarinblau, violettblau --, die er aber nicht mehr auf einer Linie, sondern auf einem Kreis anordnete. Schwarz und weiß kommen in diesem Farbkreis nicht mehr vor. Die Mitte des Kreises ist weiß, als die 11 Silvestrini und Fischer 1998, S. 10 12 Die heutige Interpretation ist dagegen, dass das farbige Glas dem Licht etwas entzieht und es sich hier um eine subtraktive Farbmischung handelt. 13 Natürlich war Newton nicht der erste, der Lichtbrechungen im Prisma beobachtete, und es gab auch vorher eine Reihe von Farbsystemen. Für einen beispielhaften Überblick vgl. Silvestrini und Fischer 1998

221

BILDWENDEN

Summe aller Farben. In seiner 1704 erschienenen Abhandlung Opticks veröffentlicht Newton seine Theorie der Farbmischung. Danach setzt sich Licht aus Korpuskeln zusammen, die in Abhängigkeit von ihrer Größe durch das Prisma abgelenkt werden, das große Rot am wenigsten, das kleine Blau am meisten. Farbmischungen erklärt Newton also letztendlich aus den Gravitationsgesetzen. Grundlage der heutigen naturwissenschaftlichen Farberklärung in der Optik ist die Theorie des Farbensehens, die James Clerk Maxwell 1859 veröffentlicht. Maxwell erklärt Lichtstrahlen als Oszillationen von elektrischen und magnetischen Feldern. Die Physik war inzwischen in der Lage mit Hilfe von mikroskopischen Beugungsgittern Wellenlängen im Bereich von 10-7 m zu bestimmen. Die Wellenlänge liegt zwischen 760 nm14 für rot und 380 nm für blau. Maxwell experimentiert auch mit Farbmischungen, wählt als Grundfarben rot, grün, blau, betont aber, dass man auch jedes andere Farbtrio wählen kann, das sich zu Weiß kombiniert. Es geht nicht um geheimnisvolle Primärfarben, sondern darum, dass die Koordinaten der Farbe im Spektrum weit genug auseinander liegen. Der große Gegenspieler von Newton und der naturwissenschaftlichen Farberklärung war Johann Wolfgang von Goethe. Er entwickelt seine Farblehre aus dem elementaren Gegensatz von Hell und Dunkel, setzt Gelb (als zunächst am Licht) und Blau (zunächst an der Finsternis) als Gegenpole. Diese Gegenpole erweitert er mit Rot (als höchste Steigerung der von Gelb nach Blau führenden Farbenreihe) zum Dreieck. Dem Rot gegenüber stellt er das Grün als Mischung von Gelb und Blau und vervollständigt seine Dreieckskonstruktionen zum Kreis, indem er Gelbrot (Orange) auf der aufsteigenden Seite und Blaurot (Violett) auf der absteigenden Seite anordnet. Gelb stellt für Goethe die Plusseite der Farben (Wirkung, Licht, Hell, Kraft, Wärme, Nähe, Abstoßen) und Blau ihre Minusseite dar (Beraubung, Schatten, Dunkel, Schwäche, Kälte, Ferne, Anziehen).15 Goethe geht es um die „sinnlich-sittliche Wirkung“ der einzelnen Farbe „auf den Sinn des Auges […] und des Gemüts“. Für Goethe ist das Subjekt des Farbensehens zentral, das Newton aus der naturwissenschaftlichen Farblehre verbannt hat. Während Newtons Theorie ihre Weiterentwicklung in der heutigen Wissenschaft der Optik findet, setzt die moderne Wahrnehmungspsychologie die subjektive Farblehre fort.16 Die Übersetzung zwischen naturwissenschaftlicher subjektloser Optik und der subjektzentrierten 14 1 Nanometer (nm) = 10-9 m 15 Vgl. Silvestrini und Fischer 1998, S. 54 16 Allerdings hätte Goethe die wissenschaftliche Psychologie wahrscheinlich nicht als Erben des Studiums des Seelenlebens und des Gemüts akzeptiert. Zur Erklärung der Farbempfindung in der heutigen Wahrnehmungspsychologie vgl. Goldstein 1997 Kapitel 4

222

DIE NEUE BILDLICHKEIT DES COMPUTERS ALS MEDIUM

Farblehre der so begründeten Wahrnehmungspsychologie schafft Hermann von Helmholtz. In seinem berühmten Handbuch der psychologischen Optik zeigt Helmholtz den Unterschied zwischen den Farben, die Newton im Spektrum beobachtet hat und den Farben, die mit Hilfe von Pigmenten auf eine weiße Oberfläche aufgebracht werden. Spektralfarben mischen sich additiv, Pigmente subtraktiv und in beiden Fällen gelten verschiedene Regeln der Kombination. Des weiteren definiert Helmhotz die drei Variablen, die eine Farbe charakterisieren, den Farbton, die Sättigung und die Helligkeit, analog zur Lautstärke, Tonhöhe und Klangfarbe im auditiven Bereich. Während aber im akustischen Bereich das Ohr sehr wohl komplizierte Töne in ihrer Differenziertheit zu identifizieren vermag, kann das Auge die Komponenten einer gemischten Farbe nicht unterscheiden. „Das Auge kann zusammengesetzte Farben nicht von einander scheiden; es empfindet sie in einer nicht aufzulösenden, einfachen Empfindung, der einer Mischfarbe. Es ist ihm deshalb gleichgültig, ob in der Mischfarbe Grundfarben von einfachen oder nicht einfachen Schwingungsverhältnissen vereinigt sind. Es hat keine Harmonie in dem Sinne wie das Ohr; es hat keine Musik.“17

Die Farbsysteme der Optik und der Wahrnehmungspsychologie sind gegeneinander inkommensurabel und lassen sich nicht in einer gemeinsamen Skala vereinigen, sondern nur – so schwierig wie Gedichte – ineinander übersetzen. Zum einen sind Farbwahrnehmungen kulturell unterschiedlich geprägt, zum anderen nimmt das menschliche Farbempfinden auch dann noch die Konstanz von Farben wahr, wenn die Messinstrumente der Optik sehr unterschiedliche Werte im Farbspektrum anzeigen. Albert Henry Munsells Farbatlas realisiert den einflussreichsten Versuch, Farbsysteme nach einem logischen Plan zu organisieren, der die empfundene Affinität der Farben berücksichtigt. Munsell legt um eine zentrale senkrechte Graureihe einen zehnteiligen Farbkreis, dessen Farben er in gleichen Abständen so anordnet, dass sich gegenüber liegende Paare zu Grau mischen. Für die digitale Bilddatenkodierung werden diese Farblehren übersetzt in eine Reihe von Farbmodellen, die sich berechenbar ineinander transformieren lassen.18 Der RGB-Farbraum beschreibt Farben nach dem Modell der additiven Farbmischung aus den Grundfarben rot, grün und blau. Diese drei Komponenten werden als linear unabhängige Vektoren repräsentiert, die den dreidimensionalen Farbraum der additiven Farbmischung aufspan17 Helmholtz 1857, zitiert nach Silvestrini und Fischer 1998, S. 73 18 Berechenbare Transformierbarkeit heißt nicht verlustfrei. Die unterschiedlichen Systeme enthalten nicht die gleiche Anzahl von Farben.

223

BILDWENDEN

nen in einem Modell, in dem Vektoraddition die Farbmischung modelliert. Türkis, gelb und magenta (cyan, yellow, magenta), die Grundfarben der subtraktiven Farbmischung spannen den CYM-Farbraum auf. Die Kombination von jeweils zwei Farben dieses Modells erzeugt die Grundfarben des RGB-Modells: Türkis + gelb erzeugt rot, türkis + magenta blau, gelb + magenta rot. Aber es bedarf über diese einfache Transformation hinaus einer Reihe von Feinabstimmungen der Farbumrechungen und der Konfiguration der Geräte, damit zum Beispiel ein Farbplotter ein Bild in Farben ausdruckt, die im subjektiven Empfinden ungefähr denen ähneln, die auf dem Bildschirm erscheinen. Zur besseren Grauwertdarstellung beim Druck wird das Modell meist um eine vierte Komponente, nämlich schwarz (blacK) zum CYMK-Modell erweitert. Der HLS-(bzw. HIS-) Farbraum berücksichtigt stärker den Sinneseindruck einer Farbe. H steht für den Farbton (hue), L für die Helligkeit (luminance oder intensity), S für die Sättigung (saturation). Veranschaulicht wird dieser Farbraum durch einen Doppelkegel. Der Winkel im Farbkreis legt den Farbton fest, der Abstand des Farbwertes vom Zentrum bestimmt die Sättigung, die Helligkeit wird durch den vertikalen Abstand vom Farbkreis repräsentiert. Ein Rolle spielen außerdem noch die YUV (PAL) und YIQ (NTSC) und YcbCr (digitales Fernsehen) Farbräume, die für Fernseh- und Videosysteme eingeführt wurden.

Bild als Notation „Although a digital image may look just like a photograph when it is published in a newspaper, it actually differs as profoundly from a traditional photograph as does a photograph from a painting. The difference is grounded in fundamental physical characteristics that have logical and cultural consequences.”19

Die grundlegende Differenz zu allen anderen Formen der Bildlichkeit liegt darin begründet, dass der digitale Kode einer kalkulierenden Logik Bilder darstellt. Dadurch lassen sich etwa Farbräume algorithmisch ineinander übersetzen. Bei der Bilddatenkodierung sind derartige automatische Transformationen je nach Kontext, in dem die Bilder eine Bedeutung haben, von Vorteil. Zum Beispiel sind Probleme der Bilderkennung häufig leichter nach der Transformation in spezielle Farbräume zu lösen. Banalere Beispiele sind die notwendigen Transformationen von Farbräumen, um ein Bild auf einem anderen Screen, beispielsweise einem Drucker, anzuzeigen. Das Wissen über Farbräume ist uralt. Aber 19 Mitchell 1992, S. 3

224

DIE NEUE BILDLICHKEIT DES COMPUTERS ALS MEDIUM

erst im Computerbild ist dieses Wissen im digitalen Archiv gespeichert und eine Instanz eines Bildes lässt sich automatisch in eine andere übersetzen, die uns etwa gleich erscheint, nur dass seine Farben in einem anderen Farbraum dargestellt sind. Möglich ist eine derartige Bildmanipulation nur, weil im Computer Bilder zu Kode gerinnen. So gesehen wird das Erzeugen, Bearbeiten und Erkennen von Bildern zur Matrizenrechnung. Über Mal- oder Grafik-Programme ermöglichen Matrizentransformationen auch Computer-Laien die Erstellung und Manipulation digitaler Bilder. Im Kode solcher Programme wird nicht nur das historische Wissen über Farbräume handhabbar, sondern auch die Technik des Tafelbildes simulierbar. In Form der sogenannten Filter stehen mächtige Werkzeuge der Aufarbeitung von Bildern zur Verfügung. Entweder durch direkte Programmierung der numerischen Werte der Pixel oder mit Hilfe von digitalen Werkzeugen lassen sich Bilder transformieren, kombinieren, verändern und analysieren. Verschiedene Verfahren lassen sich auch in einer Art Bricolage miteinander verbinden. Etwa lassen sich in digitale Fotografien mit einem Grafikprogramm erzeugte Bilder von Gegenständen montieren, Farbwerte verändern, usw. „Since captured, ‚painted‘, and synthesized pixel values can be combined seamlessly, the digital image blurs the customary distinctions between painting and photography and between mechanical and handmade pictures.”20

Mit derartigen Verfahren lassen sich durchaus völlig kohärent erscheinende Bilder erzeugen. Letztlich auf einer Zahlenmatrix basierend, unterscheidet sich keine Kopie vom Original. Das heißt: Jedes Original ist eine Kopie.21 Die Computergrafik verfolgt zum Teil ein ähnliches Ziel wie die Maler des Tafelbildes seit Brunelleschi, nämlich das möglichst realistisch erscheinende Bild. Wirklichkeitstreue nennt sich heute Fotorealismus. Die Illusion der realitätsgerechten Abbildung eines Weltausschnitts lässt sich nur medienvermittelt erzeugen. Auch in der wahren Kunst des Tafelbildes ist die Beherrschung der Regeln der künstlichen Perspektive nur (eine) Technik. Mit Licht und Schatten möchte der Künstler auch die Stimmung einer Szene einfangen. Dazu bedarf es eines Wissens um die Gesetze der Optik.22 Jedoch statt mit genialen Pinselstrichen eines Rembrandt eine Szene zu bannen, generieren Computergrafiker diese in den 20 Mitchell 1992, S. 7 21 Daraus hat sich eine heftige und ausufernde Debatte über das Problem des Scheins ergeben, auf die ich hier nicht weiter eingehe, weil sie im Rahmen dieser Arbeit zu weit führte, vgl. exemplarisch Rötzer und Weibel 1991, Rötzer 1991, Virilio 1993, Schönberger 1988, QRT 1999 und Bolz 1991. 22 Dass es sich zum Beispiel beim Thema Schatten nicht nur um angewandte Physik handelt, zeigt Baxandall 1998.

225

BILDWENDEN

kalkulierten Zeichen des Kodes. Allerdings leisten solche Techniken keine direkte algorithmische Umsetzung optischer Gesetze – derart mächtig sind Computer prinzipiell nicht –, sondern bilden Vereinfachungen wie zum Beispiel Radiosity oder Raytracing.23 Die Fähigkeit, den Anschein von Wirklichkeit zu erzeugen, hängt weniger von der Getreue ihres Abdrucks, als von der Echtheit des Eindrucks ab. Der Augenschein wird gemäß den Theorien der kognitiven Psychologie nicht auf der Netzhaut, sondern im Gehirn erzeugt.24 Einschneidend neu am Computerbild gegenüber dem Tafelbild ist seine Darstellung von Raum und Zeit. Während das Tafelbild im sichtbaren Bildraum geronnene Zeit zeigt, eröffnet die abstrakte und verborgene Räumlichkeit des Kodes die immer unfertigen Gestaltungsmöglichkeiten des leeren Platzes zwischen Kode und Notat. Die im Kode programmierten Repräsentationen abstrakter mathematischer Räume prozessieren bildliche Notate einer künstlichen Raum-Zeit. Zum Beispiel (re-)präsentiert der Kode eines Würfels nicht eine Ansicht, die dem Auge als dreidimensionales Objekt erscheint, sondern einen virtuellen Würfel, der sich von allen Seiten betrachten lässt, je nachdem welchen Blickwinkel der Betrachter wählt.25 Ein nur im Computerbild möglicher Wechsel des Blickwinkels bedeutet ein Handeln im Zwischen von Kode und Notat oder in der bei der Rechnernutzung üblichen Terminologie Interaktivität. Betrachter interagieren mit einer raumzeitlichen Bildlichkeit, die nach den Kalkülregeln im Kode generiert, sich im visuellen Notat zeigt. Welcher Aspekt als nächster beleuchtet wird, legt der Betrachter fest. Damit unterscheidet sich die raumzeitliche visuelle computervermittelte Darstellung nicht nur vom Tafelbild, sondern auch vom Film. Programmierte Bilder werden zum Vorbild wirklicher Gegenstände. Wirkliche Gegenstände, selbst die industriell maschinell verfertigten, haben selten die Form einfacher geometrischer Körper wie die eines Würfels. Um auch Freiformflächen interaktiv generierbar und manipulierbar zu modellieren, entstehen neue Zweige der Differentialgeometrie, in denen es um spezielle Kurven und von ihnen erzeugte Flächen geht:

23 Vgl. Foley, Dam, Feiner und Hughes 1990, S. 721-814, Watt und Policarpo 1998, S. 56-165 24 Vgl. Gregory 2001, auch Marr 1982 und Gombrich 1995. 25 Wie der Betrachter den Blickwinkel auf den Würfel festlegt – etwa indem er mit dem Mauszeiger in den virtuellen Würfel hineingreift und ihn dreht oder indem er in einer Virtual Reality Umgebung um den virtuellen Würfel herumgeht –, ist eine zweitrangige Frage. Bilder als Konstruktionen auf dem Schirm lassen sich nicht nur von außen betrachten, sondern immersiv begreifen. Sie ermöglichen eine Interaktion mit Repräsentationen, eine Formung und Komposition von Realitäten, denen ich in Kapitel 5.4 weiter nachgehe.

226

DIE NEUE BILDLICHKEIT DES COMPUTERS ALS MEDIUM

Bézierkurven und Splines.26 Anfang der 1960er Jahre wurde die Bézierkurve unabhängig voneinander von Pierre Bézier bei Renault und Paul de Casteljau bei Citroën entwickelt. Bézierkurven eignen sich für den interaktiven Entwurf von zu produzierenden realen oder virtuellen Gegenständen am Bildschirm, da sich die Bézierkurve an ein Kontrollpolygon mit ausgezeichneten Kontrollpunkten annähert. Bézierkurven zeichnen sich durch affine Invarianz aus. Affine Transformationen (Verschiebung, Skalierung, Rotation, Scherung) können auf die Bézierkurve dadurch angewendet werden, dass man sie auf deren Kontrollpolygon anwendet. Ähnliche Eigenschaften haben auch die mathematisch anders definierten Splines. Deshalb werden Varianten beider Kurven in jedem CADModellierungs-Programm implementiert.27 Anwender derartiger Programme können interaktiv modellieren – mit der mathematischer Exaktheit der implementierten Kurven, ohne selbst etwas von Differentialgeometrie verstehen zu müssen. Die Eigenschaften der Bézierkurven und Splines charakterisieren paradigmatisch die Neuartigkeit der Interaktivität visueller Darstellungen des Bildes als Notation. Seine neue raumzeitliche Relation beruht auf der Trennung von Speicher und Darstellung. Zwar gibt es diese rudimentär auch schon beim Kinobild, aber erst das bewegte Bild, das durch kalkulierten und kalkulierenden Kode erzeugt wird, eröffnet den virtuellen Raum prozessierender, interaktiver Bildlichkeit. Das Dispositiv einer interaktiven Bildlichkeit konzeptualisiert Bilder nicht ausschließlich als zu betrachtende Gegenstände, sondern als Mittel der Kommunikation, rückt sie epistemologisch in die Nähe der Sprache und des Diskurses. „The more interaction which is enabled in a system, the more the communication shifts away from pictures to a formal or natural language of one kind or another.”28

Als Paradigma interaktiver Bildlichkeit schlechthin können die graphischen Benutzungsoberflächen gelten. Sie verbergen vor dem Nutzer die kalkulierten und kalkulierenden Zeichen des prozessierenden Kodes des Betriebssystems oder eines Anwendungsprogramms und ermöglichen gleichzeitig mit Hilfe von graphischen Symbolen auf ihm zu operieren. Interaktivität mit prozessierender Logik bedarf der ästhetischen Komponente einer visuellen Zeichenhülle. Erst diese erzeugt den Kontext, der formal gleich mächtigen Kommandosprachen fehlt. Die Turingmaschine kennt keine Bilder, sondern ist ausschließlich aus Wörtern gebaut. Para26 Vgl. beispielhaft Watt und Policarpo 1998, S. 166-192 sowie Piegl und Tiller 1997 27 CAD = Computer Aided Design 28 Strothotte und Strothotte 1997, S. 4

227

BILDWENDEN

doxerweise schreibt ihr Kode eine Vielzahl von sinnlichen visuellen Notaten vor. Diese neue Bildlichkeit umfasst nicht nur die darstellenden Bilder, also Visualisierungen sichtbarer Eigenschaften und Beziehungen in der Wirklichkeit, sondern auch grafische und diagrammatische Bilder und Piktogramme, also Visualisierungen eigentlich unsichtbarer Eigenschaften und Beziehungen in der Wirklichkeit. Das Bild als Notat zeigt prozessierend einen wechselnden Aspekt der Welt. Durch Bilder formiertes Sehen äußert sich nicht mehr als Blick durch das Fenster auf eine vorgegebene Wirklichkeit. Technisch projizierte Perzeptivität enthüllt in vielfältigen Aspektwechseln die Struktur der Wirklichkeit im Notat auf dem Schirm. Durch die Syntax formaler Sprachen werden Bilder konstruiert, die Phantasie und Einbildungskraft um bisher nicht geahnte neue Bildwelten bereichern, aber auch überfluten und bannen. Das Bild als Notation, als Relation zwischen digitalem Kode und durch ihn konstruiertes Notat auf dem Schirm enthält in sich eine Repräsentation von sich selbst, reflektiert sich. Solche Fähigkeit hat die traditionelle Wissenschaft stets nur der Sprache zugesprochen, dem Bild dagegen abgesprochen. Während die Perspektive nach Foucault zum Zeitalter der antimimetischen Repräsentation gehört, liegt in der heute beobachtbaren Wende zum Bild die Rückkehr zu einem mimetischen Sehen als – einer programmierten Mimesis der unsinnlichen Ähnlichkeit. Solche Mimesis besteht nicht in einer einfachen Nachahmung des Wirklichen, sondern wird konstruiert aus unsinnlichen Differenzen. Solch technisch verwirklichte Hypotypose verwirklicht sich nicht in einem naiven Realismus, sondern als eine vermittelte Anschauung, einer technisch ermöglichten Einbildungskraft, die auf den Übersetzungen der Differänz beruht. Daraus entsteht ein neuartiges Potenzial des Denkens mit dem Auge, was ich im nächsten Kapitel genauer ausführe. Mit den bisher gegeben Charakterisierungen des Computerbildes lässt sich seine neue mediale Bildlichkeit absehen, aber nicht abschließend bestimmen. Es bildet sich erst allmählich heraus und wird noch weiteren Transformationen unterworfen sein. „Obwohl die verbündelnde Schaltungsmethode jahrhundertealt ist und obwohl die Umschaltung ins Netz schon längst vonstatten geht, ist erst gegenwärtig der volle Einfluß ersichtlich, nämlich das Umschalten von bewegten tönenden Bildern aus Filmen und Fernsehen in vernetzte synthetische Computerbilder. Wir können den gewaltigen Umbruch, der auf dieses Umschalten folgen wird, bereits jetzt an den vorwiegend jungen Menschen beobachten, die vor den Terminals hocken, und an den Bildern, die sie dabei dialogisch erzeugen. […] Und die neuen synthetischen Bilder, in denen abstraktes Denken ansichtig und hörbar wird und die im Verlauf des neuen kreativen Dialogs hergestellt

228

DIE NEUE BILDLICHKEIT DES COMPUTERS ALS MEDIUM werden, sind nicht nur ästhetisch, sondern auch ontologisch und epistemologisch weder mit guten alten noch mit den gegenwärtig uns umspülenden Bildern vergleichbar.“29

29 Flusser 1998a, S. 75

229

Denken mit dem Auge Um gedacht zu werden, müssen Gedanken sich äußern. Sie artikulieren sich in Mimik und Gebärde, in gesprochener Sprache und gezeichneten Skizzen, im musikalischen Klang oder im Duft eines Parfums. Der Ausdruck der Gedanken formt deren Inhalt. Einen artikulierten Inhalt zu visualisieren heißt, ihn in einer medialen Perzeptionsschicht zu fixieren und erfahrbar zu machen. Sein Informationsgehalt wird in einer medialen Wahrnehmungssphäre analysierbar. Als „mit dem Auge denken“ lässt sich solche Strategie der Sichtbarmachung charakterisieren.1 Etwas einzusehen, vermittelt sich durch Sehen. Aber es gilt auch: „Auf der einen Seite ist die Welt das, was wir sehen, und auf der anderen Seite müssen wir dennoch lernen, sie zu sehen. In diesem Sinne müssen wir das Sehen zunächst in Wissen überführen.“2

Denken ist ein Prozess der Übersetzung, welcher der notatio, also der Bezeichnung und Beobachtung, bedarf. Medien dieses Prozesses sind nicht erst seitdem die notatio zur Notation wird, Bilder, die nichts abbilden, Bilder, die kein Vorbild haben können, weil sie auf nichts Sichtbares verweisen. Zum Beispiel Zahlen und geometrische Formen sind als ideale Entitäten kein Produkt des Sensiblen, sondern des Intelligiblen. Aber auch das Intelligible der Zahlen und geometrischen Gebilde formt sich nicht allein im logischen Diskursiven, sondern bedarf der Übersetzung in Bilder, die gleichzeitig anwesend und abwesend sind. Die Wirklichkeit des Himmels ist voller Zahlen.3 Über deren ontologischen Status und über das Problem der Wahrheit in der Mathematik Tiefgehendes zu formulieren, ist hier nicht der Platz.4 Worum es geht, sei an einem vom Mathematiker Rényi erfundenen sokratischen Dialog illustriert: „Sokrates: Können wir nun behaupten, daß jede Wissenschaft sich mit Dingen befaßt, die existieren? Hippokrates: Es hat den Anschein, daß dem so ist. Sokrates: Aha, und jetzt sage mir, was ist der Gegenstand der Mathematik, was untersucht der Mathematiker? Hippokrates: Das habe ich auch Theaitetos gefragt, und er hat mir geantwortet, daß der Mathematiker Zahlen und geometrische Formen untersucht. […] Sokrates: Nun paß auf! Ich schreibe hier eine Zahl hin, sagen wir 37. Existiert diese Zahl? 1 2 3 4

Vgl. Heintz und Huber 2001b, siehe auch Kemp 2000 Merleau-Ponty 1994, S. 18 Vgl. Barrow 2001 Ich hatte schon auf das Scheitern des Programms der vollständigen Formalisierung der Zahlentheorie durch Hilbert hingewiesen. Aber auch die phänomenologische Grundlegung lässt sich dekonstruieren, vgl. Derrida 1987.

230

DENKEN MIT DEM AUGE Hippokrates: Ohne Zweifel. Wir sehen sie ja. Wir können sie sogar betasten. Sokrates: Dann wären Zahlen also doch etwas, was existiert? Hippokrates: Du willst dich wohl über mich lustig machen, lieber Sokrates? Schau her, auf dasselbe Täfelchen zeichne ich jetzt einen Löwen und einen Drachen. Beide Figuren kann man auf der Wachstafel in gleicher Weise sehen. Löwen gibt es nun tatsächlich, aber Drachen gibt es nicht. Zumindest habe ich noch nie einen gesehen, und sogar den ältesten Leuten, die ich je getroffen habe, geht es nicht anders. Aber wenn ich mich irrte und es gäbe doch welche, meinetwegen irgendwo jenseits der Säulen des Herakles, so würde das die Lage in keiner Weise ändern; denn auch dann gäbe es die Drachen nicht etwa deshalb, weil ich auf dieses Täfelchen ein Produkt meiner Einbildungskraft gezeichnet habe. Wenn es überhaupt Drachen gäbe, dann gäbe es sie auch, wenn ich keinen gezeichnet hätte. Sokrates: Du hast recht, Hippokrates, und wie ich sehe, packst du die Wahrheit beim Schopfe. Heißt das nun, daß die Zahlen in Wirklichkeit nicht existieren, obwohl wir darüber sprechen und sie aufschreiben können? Hippokrates: Richtig, oder zumindest, daß sie nicht in derselben Weise existieren wie Löwen oder Sterne.“5

Mir geht es hier nicht um ontologische Fragen, sondern um die Beziehung von Wissen und Sichtbarkeit. Um das ideale Objekt ‚37‘ zum Gegenstand des Diskurses zu machen, schreibt Sokrates die Zahl 37 auf.6 Auf den ersten Blick scheint dies nur ein Merkzeichen zu sein. Erst beim genauen Hinsehen wird man gewahr, dass die Art der Visualisierung entscheidet, wie wir uns Zahlen denken und wie wir in Zahlen denken. Bei ihrer heute üblichen Darstellung in arabischen Ziffern handelt es sich um eine sehr effektive Visualisierung. Ihre Effektivität beruht darin, dass die räumliche Anordnung der Zeichen eine Regel symbolisiert: das Bildungsgesetz der im Zehnersystem geschriebenen Zahlen.7 ‚37‘ ist eine symbolische8 Visualisierung. Mathematiker übersehen leicht die Bedeutung solcher Visualisierung für das Denkgebäude der Zahlentheorie. Bildnäher als die schriftlichen Symbole für Zahlen erscheinen die ikonischen Gebilde der Geometrie. Die Etymologie des Wortes legt nahe, dass sie ihre Form der Landvermessung verdanken. Im realen Gelände finden sich aber keine Dreiecke, Quadrate, Kreise. Diese bilden sich erst in der Abstraktion des Vermessens. Sie sind ein Produkt der Werkzeuge Zirkel und Lineal.9 Anschauliches und argumentatives Denken verflechtet sich historisch. Von Euklids Lehrbuch „Elemente“ über die Verknüpfung geometrischer Formen mit algebraischen Formeln durch Descartes 5 6 7 8 9

Rényi 1972, S. 11ff Natürlich hätte der historische Sokrates diese Zahl völlig anders oder gar nicht geschrieben, denn angeblich konnte er ja überhaupt nicht schreiben. Dafür ist auch die „besonders unsichtbare“ Zahl 0 zu visualisieren. Symbolisch ist hier im Sinne des Objektbezugs des Zeichens nach Peirce (Ikon, Index, Symbol) gemeint. Vgl. Coy 2000 und Coy 2002

231

BILDWENDEN

bis hin zu ihrer vollständigen Formalisierung in Hilberts 1989 verfassten „Grundlagen der Geometrie“ wird die symbolische Durchdringung des Ikonischen immer perfekter. „Und doch hat die Mathematik die Argumentationskraft bildlicher Darstellungen niemals aufgegeben. Funktionsdarstellungen, die die Abhängigkeit einer variablen Größe f von der Zeit t als f(t) oder allgemeiner die funktionale Abhängigkeit einer Größe y von einer Größe x als y=f(x) algebraisch fassen und grafisch visualisieren, sind in der Mathematik wie in den mathematisch orientierten Naturwissenschaften und den technischen Wissenschaften unverzichtbare Hilfsmittel.“10

Solcherart Visualisierung dient in erster Linie nicht der Illustration oder Veranschaulichung eines an sich in formaler logischer Sprache auszudrückenden Gedankens, sondern ist integraler Bestandteil der Strukturierung des Gedankens selbst. Fraglich ist, ob es sich dabei um eine Reflexion in Bildern oder um ein Denken in einer grafisch notierten Sprache handelt. Wie lässt sich Sprache allgemein gegen das Bild abgrenzen? Kann es überhaupt eine allgemeine Bildwissenschaft vergleichbar der Sprachwissenschaft geben? Derartige Fragen allgemein definitorisch zu beantworten, ist nicht das Anliegen dieser Arbeit.11 Stattdessen möchte ich auf zwei Formen der Reflexion in bildhaften Darstellungen hinweisen, die eine lange Geschichte haben und deren Potenzial sich mit dem Computerbild enorm steigert. Die erste Form kennzeichne ich als Visualisierung von Information. Gemeint ist damit die Übersetzung von abstrakten unsichtbaren Zusammenhängen in visuelle bildhafte Darstellungen, etwa die Visualisierung von Statistiken in Diagrammen. Bei der zweiten Form geht es um die sich entfaltende Technik der Erzeugung bildhafter Spuren oder Abdrücke. Gemeint sind zum Beispiel Röntgenbilder, Schallbilder, Satellitenbilder usw., also Techniken der Sichtbarmachung eigentlich unsichtbarer Phänomene, denen aber eine reale Existenz unterstellt wird. Sichtbarkeit erhalten diese Spuren erst in durch Theorie geprägten technischen Verfahren der Aufarbeitung und Prägung unsichtbarer Daten. Deshalb spreche ich hier von einer Indexikalität zweiter Stufe. Bei beiden Formen wirken Praktiken einer Mimesis der unsinnlichen Ähnlichkeit nach Walter Benjamin, also Übersetzungsprozesse. Solche Bilder lassen sich nur bilden in Relation zu symbolischen Zeichenprozessen. Das Beispiel der Geometrie zeigt das hohe Alter der historischen Transformationen, Wort (Logik) und Bild in Beziehung zu setzen. Tech10 Coy 2000, S. 2 11 Vgl. dazu als weit entwickelten Forschungsansatz Sachs-Hombach 2003, Sachs-Hombach und Rehkämper 1999, Sachs-Hombach und Rehkämper 2000, Sachs-Hombach 2001 sowie Sachs-Hombach 1995

232

DENKEN MIT DEM AUGE

nisch (re-)produzierte und computergenerierte Bilder ermöglichen heute eine auf der Basis riesiger Datenmengen beruhende Erzeugung von Bildwelten, die so vorher nicht darstellbar waren. Die Kunst, Bilder von riesigen Mengen quantitativer Größen zu verfertigen, bildet sich jedoch nicht erst mit dem Computer. Diese etwa 200 Jahre alte Technik der Visualisierung von Information ist eine Basis der Entstehung des information visualization als Teildisziplin der Informatik, deren Bilder nur durch die historisch lange vorher erfundenen ‚Bilder der Statistik‘ verständlich werden.

Visualisierung von Information Abstrakte Sachverhalte zu visualisieren, ist bereits das Charakteristikum der frühesten Schriftzeichen, liegt als Prinzip den verräumlichten Bildern antiker, mittelalterlicher und früh-neuzeitlicher Gedächtniskunst zugrunde und bildet das Formgesetz der uralten Tradition der Erstellung von Landkarten. Seit etwa 200 Jahren beruhen derartige Visualisierungen auf exakten numerischen Berechnungen vielfältiger Beziehunger von in systematischen Forschungsprojekten erhobenen Größen.12 Der Chemiker Joseph Priestley entwickelt 1765 ein biographisches Zeitlinien-Diagramm, worin der Lebenslauf von circa 2000 Personen in Form von Zeitlinien visualisiert wird. Der Volkswirtschaftler William Playfair führt die Visualisierung von Statistiken in Form von Kreisdiagrammen (1801) und Kuchendiagrammen (1805) ein. Außerdem entwickelt er die Darstellungsmethode von Balkendiagrammen und Zeitserien weiter. Die englische Krankenschwester Florence Nightingale stellt 1858 in einem Polar Area Diagramm die Sterblichkeitsrate der Soldaten im Krimkrieg und die durchschnittliche Sterberate eines Krankenhauses in London gegenüber. Damit macht sie den Zusammenhang zwischen den Todesfällen und den Hygienebedingungen in einer Grafik sichtbar. Der Geograph und Statistiker Michael George Mulhall (1836 - 1900) verwendet Piktogramme in seinen Statistiken, um quantitative Verhältnisse darzustellen. Der österreichische Sozialwissenschaftler Otto Neurath (1882 - 1945) systematisiert Mulhalls Piktogramme. Seiner Meinung nach sind Bilder ein besseres Mittel der Kommunikation und Informationsvermittlung als Sprache, da sie von allen Menschen verstanden werden können. Er nennt seine Systematik ISOTYPE (International System Of Typographic Picture). Die Herausbildung dieser Art exakter Visualisierung kulminiert in einer Graphischen Semiologie13. Solcherart Grafik

12 Für das Beispiel Landkarten vgl. Galison 2003. 13 Bertin 1974

233

BILDWENDEN

dient nicht der Illustrierung von Gedanken, sondern der Artikulation des Denkens. „Da man Graphische Bilder übereinanderlagern, nebeneinanderstellen und permutieren kann, was zu Gruppierungen und Klassifizierungen führt hat sich das tote Graphische Bild, die reine Illustration, zum lebendigen Graphischen Bild, zum für alle verständlichen Forschungs-Instrument gewandelt.“14

Bertin versteht solche Grafiken als „rationale“ Instrumente von großer Effektivität; während man 20 000 Augenblicke braucht, um eine Tabelle von 100 Zeilen und 100 Spalten zu vergleichen, können die Augen das Verhältnis in einer adäquaten Grafik auf Anhieb erfassen. Um solche Beziehungen in einer systematischen Theorie zu beschreiben, definiert Bertin: „Die graphische Darstellung ist die Transkription eines Gedankens, einer durch irgendein Zeichensystem bekannten ‚Information‘, in das graphische Zeichensystem.“15

Im Rückkehrschluss versteht Bertin unter Information den transkribierbaren Inhalt eines Gedankens. Sie besteht aus einer Folge von Beziehungen, die sich in einer endlichen Menge von Komponenten (Variationsbegriffen) artikulieren, die einen invariablen Kennzeichnungsbegriff (Invariante) bestimmen. Eine Grafik auf einem Blatt Papier verfügt nach Bertin über acht Variable: „Ein sichtbarer Fleck, der eine ursprüngliche Beziehung ausdrückt, kann in seiner Lage in bezug auf die beiden Dimensionen der Ebene variieren sowie weiterhin in bezug auf Größe, Helligkeitswert, Muster, Farbe, Richtung und Form.“16

Aufgabe des Grafikers ist die Erfindung einer möglichst prägnanten Form. Für Bertin ist eine grafische Konstruktion prägnanter als eine andere, wenn sie „zur richtigen Beantwortung einer gestellten Frage unter sonst gleichen Voraussetzungen eine kürzere Betrachtungszeit erfordert“17. ‚Graphische Semiologie‘ erscheint wie ein Zwitter aus Sprachwissenschaft und Design. Unverkennbar ist die Nähe zu den Gestaltprinzipien der Theoretiker des Bauhauses.18 Allerdings ist Bertins Semiologie eingeschränkter: Sein Grundproblem ist immer die Variation mehrerer Komponenten in einer zweidimensionalen Darstellung.

14 15 16 17 18

Bertin 1974, S. 11 Bertin 1974, S. 12 Bertin 1974, S. 15 Bertin 1974, S. 147 Noch verwandter erscheint Rudolf Arnheims Theorie des anschaulichen Denkens (Arnheim 1996) und seine Psychologie des schöpferischen Auges (Arnheim 2000).

234

DENKEN MIT DEM AUGE

Edward Tufte stellt sich bei der Visualisierung von Information darüber hinaus das folgende Problem: „The world is complex, dynamic, multidimensional; the paper is static, flat. How are we to represent the rich visual world of experience and measurement on mere flatland?”19

Nicht nur Diagramme, Netze und Karten, sondern auch Fotos und Fotomontagen, Notenschriften und Tanznotationen, eben „the rich visual world“ gerät in den Fokus der Arbeiten von Tufte. Er gibt dabei keine für alle Fälle gültigen Regeln „richtiger” Visualisierungen an, sondern nennt Gestaltprinzipien und führt jede Menge Beispiele gelungener (und misslungener) Visualisierungen an. Am Exempel lassen sich für das Gelingen Gründe angeben, die Informationsdichte und die Prägnanz einer Grafik berechnen. Informationsvisualisierung im engeren Sinne der Informatik meint die Versinnbildlichung abstrakter Daten durch computergenerierte interaktive visuelle Repräsentationen.20 Der Kode solcher Notationen bezieht sich auf abstrakte Sachverhalte. Erst das Notat erschafft Bilder in Form von interaktiven bewegten Darstellungen. Der Computer ist die technische Grundlage solcher Bildformen. Informatiker benennen spekulativ hohe Erwartungen an diese neue mediale Form: „This medium allows graphic depictions that automatically assemble thousands of data objects into pictures, revealing hidden patterns. It allows diagrams that move, react, or even initiate. These, in turn, create new methods for amplifying cognition, new means for coming to knowledge and insight about the world.”21

Gegen solche positiven Erwartungen an die Auswirkungen des Computers lassen sich viele Einwände erheben. Die Visualisierungen verbergen komplexe Zusammenhänge, verfälschen oder vereinfachen sie nach dem Prinzip der Black Box. Letztendlich sind sie in ihrer Ästhetik nur verständlich, wenn sich auch ihr Bildungsgesetz dechiffriert. Erst eine ikonoklastische Betrachtung, welche das Bild auflöst und in Beziehung bringt zu den Gesetzen seiner Konstruktion, öffnet den Blick für das Potenzial derartiger Visualisierung von Information. Wesentlich sind die Übersetzungen zwischen den unterschiedlichen Notaten einer Visualisierung, die Transformationen der Daten, welche unterschiedliche Aspekte der in ihnen enthaltenen Information beleuchten. Ihr Potenzial fassen Card et al. bündig zusammen:

19 Tufte 1990, S. 9, vgl. auch Tufte 1992 und Tufte 1997. 20 Vgl. Ware 2000, Card, Mackinlay und Shneiderman 1999 21 Card, Mackinlay und Shneiderman 1999, S. 1

235

BILDWENDEN „It brings increased resources to the human in the form of perceptual processing and expanded working memory. It can reduce the search for information. It can enhance the recognition of pattern. It enables the use of perceptual inference and perceptual monitoring. The medium itself is manipulable and interactive.”22

Wie weit geht dieses Potenzial? Kann es zum Beispiel auch in abstrakten, nicht empirisch verfahrenden Geisteswissenschaften Anwendung finden? Tragen Grafiken und Diagramme zum Verständnis der Philosophie bei?23 Oder ist Philosophie „die Kunst der Bildung, Erfindung und Herstellung von Begriffen“24? Zumindest in den Naturwissenschaften gibt es neben ihrer Mathematisierung eine lange Geschichte bildlicher Darstellungen.25 Ingenieurswissenschaften sind ohne technische Zeichnungen kaum vorstellbar.

Bilder der Indexikalität zweiter Stufe In jüngster Zeit erschienen eine Reihe von Veröffentlichungen zum Thema der Ordnung von Sichtbarkeiten zwischen Logik und Bild, Wissenschaft und Kunst.26 Mich interessiert daran insbesondere die Beschreibung von zum Teil aufwendigen Techniken, unsichtbare Phänomene als Spuren des Realen zu visualisieren. Ein faszinierendes Beispiel ist der spektakuläre Versuch von Ernst Mach, mit Überschallgeschwindigkeit fliegende Gewehrgeschosse zusammen mit den sie umgebenden Luftströmungen mit fotografischen Verfahren aufzunehmen. „Die Basis der Mach/Salcherschen Versuche ist ein Medienverbund auf der Höhe der Experimentalwissenschaften des ausgehenden 19. Jahrhunderts, in dem Wellenoptik, Funkenelektrizität, Fotografie und Waffentechnik miteinander verschaltet werden.“27

Die Visualisierung selbst erfolgt als rein apparative Aufzeichnung physikalischer Phänomene. Sinn machen sie erst in einer chiastischen Verflechtung von Theorie, Experiment und Aufnahme, in der Notierungsweisen ineinander übersetzt werden. Von was sind derartige Formen der Darstellung eine Spur? Was legen Mach und sein Mitarbeiter Salcher damit offen? Auf keinen Fall lassen sie sich als Abbild der Wirklichkeit deuten. So kann man fragen, 22 Card, Mackinlay und Shneiderman 1999, S. 637 23 Vgl. den dtv-Atlas zur Philosophie, der zur Hälfte aus Bildern besteht: Kunzmann, Burkard und Wiedmann 1991 24 Deleuze und Guattari 2000, S. 6 25 Vgl. Kemp 2000 26 Jones und Galison 1998, Lynch und Woolgar 1988, Rheinberger, Hagner und Wahrig-Schmidt 1997, Geimer 2002 und Heintz und Huber 2001b 27 Hoffmann und Berz 2001, S. 11

236

DENKEN MIT DEM AUGE „ob die wissenschaftliche Aktivität überhaupt auf so etwas hinausläuft wie ein ‚Bild der Welt‘ (Wittgenstein) oder nicht vielmehr auf ein ‚Im-Bild-Sein‘ im Sinne eines vorstellenden Bildens (Heidegger).“28

Mit dem Aufkommen der Notation als Form der Darstellung lässt sich – anders als bei den Geschossfotografien von Mach und Salcher – selbst die Aufnahme der Spur nur aufgrund numerischer Berechnungen realisieren. Analogische Aufschreibsysteme wie Kurvenschreiber, Röntgenbilder oder fotografische Verfahren werden zunehmend abgelöst durch computergesteuerte Techniken. Elektronische Daten von Rastersondenmikroskopen oder Detektoren der Spuren kurzlebiger atomarer Teilchen in der Atomphysik bilden den Ausgangspunkt komplexer Verfahren der Visualisierung in den Wissenschaften. Nur das geschulte Auge des Experten vermag darin ein Bild zu erkennen. Erst der ausgebildete Arzt erkennt auf einem Ultraschallbild einen Fötus, es sei denn das Ausgangsbild ist mit Bildverarbeitungsverfahren so nachbearbeitet worden, dass auch der ungeschulte Blick der Eltern das Ungeborene erkennt. Digitale Bildtechniken prägen den Blick. Diese weisen über Disziplingrenzen hinweg starke Ähnlichkeiten auf.29 Auch Wissenschaftler nehmen die Algorithmen und Filter digitaler Bildverarbeitung im Medium nicht wahr, sondern die so generierten Bilder wecken ihr Forschungsinteresse. „Erst im Medium des Bildes und im spielerischen Umgang mit verschiedenen Bildoptionen […] wird etwas erkennbar und als forschungsrelevant aus dem gigantischen Datenstrom […] aufgehoben.“30

Die wohl ausführlichste Studie über diesen Zusammenhang hat Peter Galison vorgelegt.31 Minutiös beschreibt er, wie aus den Spurenbildern der gewaltigen für die Experimente gebauten Apparaturen Abstraktionen der allgemeinen Feldtheorie hervorgehen. „When we look at a machine like the Time Projection Chamber – or for that matter almost any large-scale high-tech device of the late twentieth century – we are seeing double. We see the object in its materiality, layer upon layer of large-scale integrated circuits, cryogenic magnets, gases, scintillating plastics, and wires. But then, as if we could dimly make out Ryle’s ghost in the machine, we begin to uncover various superposed virtual machines. If we stare at a drift chamber manufactured in the last decades of the century, we can be sure there was before it a simulation.” 32

28 29 30 31 32

Rheinberger, Wahrig-Schmidt und Hagner 1997, S. 9 Vgl. Borck 2001, S. 384f Borck 2001, S. 386 Galison 1997 Galison 1997, S. 689

237

BILDWENDEN

Ohne computerbasierte Simulation würde die Wissenschaftspraxis der Elementarteilchen-Physik des späten zwanzigsten Jahrhunderts nicht existieren. Ohne ihre virtuellen Gegenstücke könnten die ausgeklügelten riesigen Apparaturen für ihre Experimente nicht gebaut werden. „Without the computer-based simulation, detectors like the TPC were deaf, blind, and dumb: they could not acquire data, process them, or produce results.”33

Die Elementarteilchen-Physik ist nur ein Beispiel für die Produktion der Indexikalität zweiter Stufe. Ihre Darstellungen realisieren sich in sehr unterschiedlichen Formen von Experimentalanordnungen, Daten, Symbolen, Zeichnungen, Formeln und Schemata. Zur Verdeutlichung sei noch ein anderes Beispiel zitiert: „Zwischen dem Auge des Astronomen und der Galaxie, die er beobachten will, liegt ein ganzes Areal verketteter Apparaturen, die die ursprüngliche Information Schritt für Schritt auswählen, transformieren und übersetzen, bis sie schließlich als eine visuelle Konfiguration das Auge des Betrachters erreicht: Satelliten, Spiegelanlagen, Teleskoplinsen, Fotovorrichtungen, Abtastgeräte, Computer Übertragungsgeräte, Computerprogramme usw.“34

Indexikalische Bilder zweiter Stufe sind keine Abbilder. Eher ließe sich von Datenverdichtungen oder der Visualisierung theoretischer Modelle sprechen. Sie behaupten eine merkwürdige Evidenz. Denn nur durch sie produziert sich die neuartige Form der Sichtbarkeit, die nahe legt, dass die Sache so aussieht, wie es die Bilder zeigen. Schon die Primärdaten bestehen jedoch nicht aus einfachen optischen Aufzeichnungen, sondern aus aufgearbeiteten Informationen, die in Bilder übersetzt wurden. Wie aber können die Wissenschaftler beurteilen, ob es sich beim Gesehenen nicht um ein Artefakt, eine Störung in der Apparatur, sondern um ein „wirkliches“ Bild handelt? „Es liegt nahe, diese Korrespondenz zur wissenschaftlichen Methode zu erheben: Mein Modell ist richtig, wenn die von meiner Computersimulation erzeugten Bilder ‚genauso aussehen‘ wie die Rastersondenaufnahmen meines Kollegen.“35

Was als richtiges Bild im Sinne einer Repräsentation eines wissenschaftlichen Gegenstandes gilt, wird in Prozessen sozialer Aushandlung nach überprüfbaren Regeln und intersubjektiv reproduzierbaren Experimenten entschieden. Herstellung und Interpretation der Notationen indexikalischer Bilder sind nur als sich wechselseitig durchdringende Prozesse zu verstehen. Auf unterschiedliche Weise erhobene Daten lassen sich in 33 Galison 1997, S. 689 34 Heintz und Huber 2001a, S. 15 35 Krug 2001, S. 136

238

DENKEN MIT DEM AUGE

einem Geflecht von Darstellungen miteinander kombinieren und in eine visuellen Zusammenschau bringen. In die Form der Notation gebracht, lassen sie sich interaktiv manipulieren und als Simulationen prozessieren und eröffnen ein Spiel zwischen Computer und Betrachter, das biologische, chemische und physikalische Fakten produziert. „Now there is a new, postindustrial economy of images, with superimposed processes of gathering and stockpiling in raw materials, extraction, manufacture, assembly, distribution, and consumption. Perhaps the most striking illustration of this new economy is provided by EROS Data Center near Bismarck, North Dakota. More than six million satellite and other aerial images have been stockpiled there for distribution to the public. Satellites continue to scan the earth and send images of its changing surface back, causing the stock to grow at a rate of twenty thousand per month. These ceaselessly shed skins are computer processed, for various purposes, by mineral prospectors, weather forecasters, urban planners, archaeologists, military-intelligence gatherers, and many others. The entire surface of the earth has become a continuously unfolding spectacle and an object of unending, fine-grained surveillance.”36

36 Mitchell 1992, S. 57

239

FORMUNGEN DES COMPUTERS ALS MEDIUM Die Notation realisiert sich in sehr unterschiedlichen Formen. Das veränderte Verhältnis von Bild und Text halte ich dabei für das zentrale Moment, aber es formieren sich auch viele andere Relationen neu, die ich jedoch nur an ausgesuchten Beispielen beleuchten kann. Eine umfassende Beschreibung des Dispositivs der Notation mit dem Anspruch auf Vollständigkeit würde bei weitem den Rahmen dieser Arbeit sprengen. Außerdem wäre ein solcher Versuch auch in der Gefahr, sehr schnell von den immer noch rasanten Veränderungen in der Computertechnik überholt und damit obsolet zu werden. Zwar habe ich nach paradigmatischen Beispielen gesucht, aber ihre Auswahl bleibt dennoch in hohem Maße zufällig und folgt keiner zwingenden Logik. An den Beispielen sollen verschiedene chiastische Formen der formalen und berechenbaren Seite der Notation und ihren Ausprägungen in der mediatisierten Wirklichkeit erkennbar werden.

Die Digitalisierung bestehender Telekommunikationsnetze, insbesondere in der Form des Internets, wird in unzähligen Studien ausführlich analysiert. Deshalb beschränke ich mich darauf, die zentrale Bedeutung des Netzes für das Medium Computer als das Prozessieren einer global verteilten Relation zwischen Kode und Notat in der Notation zu skizzieren. Das Netz bildet sich in Sedimenten von technischen und kulturellen Übersetzungen in Raum und Zeit. Das Netz begegnet uns meistens in den Texten des World Wide Web. Der Computer als Medium prozessierender Zeichen transformiert den

241

FORMUNGEN DES COMPUTERS ALS MEDIUM

Textbegriff.1 Übersetzungen des Text-Formats in neue Strukturen reflektiere ich anhand von Visionen und Theorien des Hypertextes. Nicht nur das Notat der Notation prägt unterschiedliche Textformen aus sondern auch der Kode. Programmiersprachen strukturieren formale Systeme und Programme. Obwohl verschiedene Computersprachen in Bezug auf ihr Berechenbarkeitspotenzial gleich mächtig sind – es ist der Turing-Maschine äquivalent – , bergen sie doch völlig unterschiedliche Ausdruckspotenziale. In dieser Beziehung sind formale Sprachen mehr als formale Sprachen. Sie bilden ein Medium für Weltbilder in sehr vielfältigen Formen des Formalen und Berechenbaren. Die letzen beiden Abschnitte dieses Kapitels beschäftigen sich mit der Simulation der Wirklichkeit durch Notationen. Das prozessierende Medium wird implementiert in Computer-Modellen einer zwar nur hypothetischen, aber dennoch wahrnehmbaren Medialität. Simulierte Wirklichkeit und Virtual Reality sind als Formen und als Komposition von medial vermittelten Realitäten zu reflektieren.

1

Über dieses Thema habe ich ausführlicher in meiner Diplomarbeit „Vom Text zum Hypertext“ geschrieben: Robben 1995

242

Internet

„Er schloß die Augen. Fand den geriffelten EIN-Schalter. Und in der blutgeschwängerten Dunkelheit hinter den Augen wallten silberne Posphene aus den Grenzen des Raumes auf, hypnagoge Bilder, die wie ein wahllos zusammengeschnittener Film ruckend vorüberzogen. Symbole, Ziffern, Gesichter, ein verschwommenes, fragmentarisches Mandala visueller Information.“1

Das Internet ist die Übersetzung der Räumlichkeit der Schrift ins Informations-Zeitalter. Die Notation, der Computer als Medium, löst als Leitmedium die Schrift ab und formt einen neuen medialen Raum: den Cyberspace. Voraussetzung ist der Aufbau einer gigantischen Infrastruktur von Kabeln oder drahtlosen Verbindungen via Sendemasten und Satelliten. Zunächst haben sich eine Reihe von unterschiedlichen analogen Techniken der Telekommunikation herausgebildet: Telefon, Telegrafie, Radio und Fernsehen. Im Internet verbinden sie sich durch eine vereinheitlichende digitale Technik.2 Sinn und Zweck der ComputerNetzwerke ist zunächst nicht die Integration vorhandener Telekommunikationsnetze, sondern die weltweite Vernetzung von Computern: „Es ist das Ziel eines Netzwerks, alle im Netz verfügbaren Programme, Daten und Geräte jedem Benutzer zugänglich zu machen, und zwar unabhängig vom Standort aller Beteiligten. Anders gesagt sollte einen Benutzer, der 1000 km von seinen Daten entfernt ist, diese Entfernung nicht daran hindern, mit seinen Daten zu arbeiten, als hätte er sie auf seinem eigenen Rechner. […] Man könnte das Ziel unter dem Motto ‚Nieder mit dem Tyrannen Geographie‘ zusammenfassen.“3

Mit dem von Tim Berners-Lee erfundenen World Wide Web erhalten digitale Netzwerke eine hypertextförmige Zeichenhaut, die sie auch für Nicht-Techniker nutzbar machen. Die Gesellschaft erklärt sich zur Informationsgesellschaft und das Internet zu ihrem Mythos.4 Es bildet 1 2

3 4

Gibson 1994, S. 77 Das aus dem Arpanet hervorgegangene Internet ist zunächst als ein weiteres Telekommunikationsnetz digitaler Telekommunikationsdienste mit einem eigenen Protokoll, dem TCP/IP Protokoll; entstanden. Ich verwende den Begriff Internet hier breiter als meist üblich für alle digitalen Telekommunikationsnetze, auch für solche, die nicht durch das TCP/IP-Protokoll integriert sind, vgl. Krol 1995. Tanenbaum 1992, S. 3 Münker und Roesler 1997. Zur Aufbruchstimmung gehören die Deklaration einer Magna Carta für das Zeitalter des Wissens (Dyson, Gilder, Keyworth und Toffler 1996) und eine Unabhängigkeitserklärung des Cyberspace (Barlow 1996).

243

FORMUNGEN DES COMPUTERS ALS MEDIUM

sich eine veränderte Form der Darstellung des Wissens heraus. Dafür nötig ist nicht nur der ungeheure ökonomische und materielle Aufwand zur Konstruktion der technischen Telekommunikationsnetze, sondern darüber hinaus bedürfen Übersetzungen zwischen Notationen, damit sie funktionieren, der Normung. Die inneren Regeln der Syntax und (formalen) Semantik reichen nicht aus, sondern dazu müssen institutionell beschlossene Festlegungen kommen, um die unendlichen Möglichkeiten für geregelte Übersetzungen handhabbar zu normieren. Normung ist ein integraler Bestandteil der technischen Entwicklung digitaler Telekommunikationsnetze. Genormt werden Betriebssysteme, Bussysteme, Benutzungsschnittstellen, Programmiersprachen, Dateiformate etc. durch nationale und internationale Institutionen und Unternehmen.5 Darin verzahnen sich technische und kulturelle Übersetzungen der Notation.

Netzprotokolle und das OSI-Sieben-Schichten-Modell 1984 veröffentlichte die ISO das Dokument 7498, in dem das Open System Interconnection, abgekürzt OSI-Referenzmodell beschrieben wird. Hierin wird festgelegt, was Gegenstand der Normung ist und was nicht. Das Gebiet umfasst eine derartige Menge von zu normierenden Funktionen, dass es notwendig ist, Grenzen innerhalb des Gebietes zu bestimmen, damit eine modulare Normung möglich wird. Um Übersetzungen zwischen Daten zu ermöglichen, müssen Schnittstellen definiert werden – zum einen zur nicht normierten Wirklichkeit, zum anderen zwischen Bereichen der zu normierenden Wirklichkeit. „A cut separates an inner world from an outer world and defines discrete interaction points at which the inner world and the outer world may interact with each other.“6

Die OSI-Normung bezieht sich nur auf das Kommunikationssystem. Für beliebige nicht genormte Anwendungen werden in sich geschlossene Kommunikationsdienste standardisiert, welche den Austausch von Daten in transparenter Weise anbieten. Die Normung regelt nur das Außenverhalten des Kommunikationssystem, hin zum nächsten Teilsystem oder zu einem anderen Endsystem, aber nicht die konkrete Implementierung. Mit diesen Grenzziehungen wird eine hierarchische Ordnung von sieben Funktionsschichten festgelegt, und zwar in einem abstrakten Modell über die Abläufe in den einzelnen Schichten. Dadurch werden Tiefenschichten 5

6

Die Internationale Organisation für Standardisierung (ISO) ist die wichtigste Institution auf internationaler Ebene, die sich mit der industriellen Normung in allen Sektoren beschäftigt mit Ausnahme des elektrotechnischen Bereichs, wofür das Comité Consultatif International Télégraphique et Téléphonique (CCITT) zuständig ist. Höller 1993, S. 46

244

INTERNET

eines topologischen Raums strukturiert, dessen Vorhandensein für Nutzer von digitalen Kommunikationssystemen transparent ist. Transparent heißt hier, dass Nutzer durch die Schichten hindurch wahrnehmen, ihr Vorhandensein selbst aber nicht bemerken. Übersetzt wird nicht zu einer natürlichen Wirklichkeit, sondern zu den schon technisch strukturierten Räumen des analogen Fernmeldewesens. Da das globale digitale Datennetz feinmaschiger gewebt ist als die schon vorhandenen analogen weltweiten Verbindungen, müssen die Traditionen und technischen Standards nationaler Telefongesellschaften kompatibel für die Übersetzung zum digitalen Datennetz gemacht werden. Um eine Ahnung von der Komplexität derartiger Übersetzungen zu geben, sei ihre Struktur im Folgenden beschrieben. Nach dem internen Schichtenmodell stellt ein Kommunikationssystem einer Anwendung Kommunikationsdienste zur Verfügung.7 Für eine Schicht N wird in jedem beteiligten System eine Schichteninstanz generiert. Die Schicht N erbringt der Schicht N+1 an einem Zugangspunkt (service access point) einen Dienst, vermittels sogenannter Dienstprimitive (elements of service). Um ihren Dienst zu erbringen, kann sich die Schicht N auf die Dienste der Schicht N-1 stützen. Dies erfolgt durch die Abwicklung eines Protokolls zwischen zwei Instanzen der Schicht N in den beteiligten Kommunikationssystemen. Dienstleistungen der Dienstprimitive umfassen den Aufbau einer Schicht-N-Verbindung, die transparente Übertragung der Schicht-N+1-Daten und der Abbau der SchichtN-Verbindung. Eine N+1 Instanz fordert einen Dienst bei Schicht N an (request), eine Schicht N zeigt einer N+1-Instanz die Anforderung einer entfernten N+1-Instanz (indication), eine N+1-Instanz reagiert auf die Anzeige der Schicht N (response) und eine Schicht N reagiert gegenüber der N+1-Instanz auf die entgegengenommene Anforderung (response). Damit eine Verbindung aufgebaut wird, Daten übertragen werden und dann die Verbindung wieder abgebaut wird, sind also eine Reihe von standardisierten digitalen (oder digital-analogen) Übersetzungen nötig. Dies geschieht im OSI-Referenzmodell in einer Architektur von sieben Schichten, wobei die untersten vier Schichten transportorientiert und die drei oberen Schichten anwendungsorientiert sind. Die Hierarchie der Schichten umfasst die Anwendungsschicht, Darstellungsschicht, Kommunikationssteuerungsschicht oder Sitzungsschicht, Transportschicht, Vermittlungsschicht, Sicherungsschicht und Bitübertragungsschicht. Die unterste Schicht, die Bitübertragungsschicht befasst sich mit dem physikalischen Übertragungsmedium, legt die Darstellung der Signale fest und umfasst Protokolle des Auf- und Abbaus physischer Verbindun7

Vgl. Höller 1993, S. 46ff und Tanenbaum 1992 als technisches Standardwerk sowie Neubert 2001 für eine kurze Zusammenfassung

245

FORMUNGEN DES COMPUTERS ALS MEDIUM

gen. Die Sicherungsschicht hat die Aufgabe, die Qualität des untergelagerten Transportmediums zu verbessern, Übertragungsfehler zu identifizieren und zu beheben. Die Vermittlungsschicht hat gesicherte Endsystemverbindungen zu gewährleisten. Sie übernimmt unter anderen die Aufgaben des Routing, also die Wahl des Weges innerhalb des Netzes, und der Segmentierung des Datenstroms. Die Aufgabe der Transportschicht ist es, Endsystemverbindungen in Teilnehmerverbindungen zu übersetzen. In digitalen Netzen reicht es nicht, wie beim Telefon eine Endsystemverbindung herzustellen, sondern verschiedene Prozesse, die auf dem Nutzersystem laufen, müssen miteinander koordiniert werden. Mit einer Transportverbindung steht den Anwendungsprozessen ein Kommunikationskanal zur Verfügung, über den sie miteinander kommunizieren können. Die Kommunikationssteuerungsschicht dient als eine Art Werkzeugkasten für die Anwendungen, während die Darstellungsschicht den Anwendungsinstanzen Mittel zur Verfügung stellt, mit denen sie sich über Syntax und Semantik der ausgetauschten Protokolldateneinheiten verständigen. Die Anwendungsschicht als oberste Schicht des Referenzmodells bietet Anwendungsprozessen einen geschlossenen Kommunikationsdienst an, wobei sie sich auf die Dienste der unteren Schichten abstützt. Sie birgt keine Anwendungen in sich, sondern beinhaltet abgeschlossene und für bestimmte Anwendungssituationen taugliche Kommunikationsdienste. Dieses Schichtenmodell liefert ein einflussreiches Paradigma für die Standardisierung digitaler Übersetzungen bei der Konstruktion von Datennetzen. An seiner Ausarbeitung sind unzählige Kommissionen von Regierungs- und Interessenvertretern, sowie Repräsentanten von Telekommunikations-Unternehmen beteiligt. Das Modell ergibt sich also nicht notwendig aus technischen Anforderungen, sondern in ihm setzen sich auch ökonomische und politische Interessen durch. Interessant sind die Metaphern, welche die Topologie des vernetzten Datenraums strukturieren. Mit der Metapher der Schichtung ist die Konzeption der Schnittstellen zwischen äußeren und inneren Welten verbunden, wobei das Außen zum einen die Wirklichkeit noch nicht digitalisierter Fernmeldedienste ist, zum anderen das Außen eines Moduls einer anderen Schicht, welche selbst innerhalb des Raums der digital vernetzten Datenwelt liegt. Die Schnittstellen strukturieren die Topologie des Netzes nicht als einfache räumliche Grenzziehungen, sondern die Differenz zwischen den Schichten vermittelt sich über Dienste, implementierte raum-zeitliche Metaphern, welche den Datenraum in eine raum-zeitliche, transparente, mediale Wirklichkeitssphäre transformieren.8 8

In reiner Form setzt sich das OSI-Modell nie durch. Das wohl wichtigste Protokoll in der Geschichte des heutigen globalen Datennetzes ist das Transmission

246

INTERNET

In der Metapher des OSI-Sieben-Schichten-Modells Telekommunikation zu konzeptualisieren, setzt ihre Programmierbarkeit voraus. Erst der universale programmierbare digitale Kode macht die Vorstellung einer Übertragung von Information zwischen Schichten der Abstraktion denkbar, in denen die Schaltwerke durch das Medium Computer realisiert sind. Von den bisherigen vielfältigen technischen Medien der Telekommunikation aus gedacht, bedeutet ihre Digitalisierung eine Integration der Netzwerke in der Form der verallgemeinerten Schrift der Notation. Gegenüber der klassischen Schrift – deren Leistung auch in ihrer Transportierbarkeit in Raum und Zeit liegt – ergibt sich aus der Vernetzung der Hypermedien im Internet eine ungeheure Beschleunigung der Transportfunktion. Sie beruht auf den Transformationsleistungen analoger Telekommunikationsmedien. „The major step being taken here, technologically, is the transition, wherever advantageous, from information transported physically, and thus against inertia and friction, to information transported electrically along wires, and thus effectively without resistance or delay. Add to this the ability to store information electromagnetically (the first tape recorder was demonstrated commercially in 1935), and we see yet another significant and evolutionary step in dematerialising the medium and conquering – as they say – space and time.”9

Die Sphäre der Computer-Netze ist Bestandteil des geographischen Raumes und konstituiert gleichzeitig seine Überwindung: Durch die Geschwindigkeit des Datentransports verschwindet die Ferne. Damit entsteht ein virtueller Raum, für den der Science-Fiction-Autor William Gibson den Namen Cyberspace erfindet.10 „The term ‚cyberspace‘ denotes the environment created by computerized networks.“11

Aber wo in der Welt befindet sich der Cyberspace? Der Cyberspace bildet sich nicht einfach als logischer Raum, sondern als Umgebung. Beschrieben wird er oft in ökologischen Begriffen mit der zentralen Control Protocol/Internet Protocol (TCP/IP), das Basisprotokoll des Internets. Die Architektur des Internets ist so konzipiert, das Teilnetzwerke auch dann noch funktionstüchtig bleiben, wenn andere Teile des Netzes ausfallen. Das TCP/IP-Modell ist zeitlich vor dem OSI-Referenzmodell entstanden. Das TCP/IP-Referenzmodell besteht im Gegensatz zum OSI-Modell aus nur vier Schichten: Anwendungsschicht, Transportschicht, Internetschicht, Netzwerkschicht, die sich grob den sieben Schichten des OSI-Referenzmodells zuordnen lassen. 9 Benedikt 1991, S. 9 10 Ironischerweise schreibt der Erfinder des Genre der Cyberpunk-ScienceFiction seine Fantasien über die Matrix der Computernetze nicht auf einem Computer, sondern auf einer konventionellen Schreibmaschine. 11 Coyne 1995, S. 147

247

FORMUNGEN DES COMPUTERS ALS MEDIUM

Metapher des Netzes. Kausalitätsdenken der Gutenberg-Galaxis öffnet sich einem allgemeineren Denken in Beziehungen, Relationen und Prozessen. Der Fokus liegt nicht auf der zergliedernden Analyse, sondern auf der synthetischen Schaffung von Verbindungen. Philosophisches Paradigma ist der Konstruktivismus. Durch die Konstruktion der wahrnehmbaren virtuellen Welten des Cyberspace werden abstrakte Zusammenhänge oder entfernte Räume konkret erfahrbar. „Cyberspace: The juncture of digital information and human perception, the ‚matrix‘ of civilization where banks exchange money (credit) and information seekers navigate layers of data stored and represented in virtual space. Buildings in cyberspace may have more dimensions than physical buildings do, and cyberspace may reflect different laws of existence. It has been said that cyberspace is where you are having a phone conversation or where your ATM money exists. It is where electronic mail travels, an it resembles the Toontown in the movie Roger Rabbit.”12

Die Utopie des weltweiten Netzes realisiert sich in den Techniken der Computer-Netzwerke. Digitaler Kode ermöglicht ihre Integration in einer Hierarchie von Schichten. Anwendungsprogramme stellen für spezifische Kontext ein perzeptuell reichhaltiges Interface dar, durch das die Nutzer im System interagieren, wobei ihnen die technische Verwirklichung der Kommunikationssteuerung, der Datensicherung oder der Bitübertragung verborgen bleiben. Möglich ist solche Integration durch die Trennung des einheitlichen digitalen Kodes vom wahrnehmbaren Notat. Durch die Integration der Telekommunikationsnetze wird das Ziel von Tannenbaum „Nieder mit dem Tyrannen Geographie“ in einer sich globalisierenden Gesellschaft erreicht. „Die mit der digitalen Codierbarkeit möglich gewordene Übersetzbarkeit je singulärer Weisen der Speicherung, Übertragung und Verbreitung, die beispielsweise der Photographie, dem Film und dem Fernsehen eigen waren, ist nicht mehr nur ein ‚lokales‘ Übertragungsgeschehen zwischen den Einzelmedien und ihren angestammten ästhetischen Formbildungen. Mit der ‚globalen‘ Beschleunigung der digital vernetzten Kommunikationswege verliert die sozio-geographische Metaphorik des Lokalen ihre Plausibilität.“13

Soziale Gemeinschaften setzen nicht mehr zwingend örtliche Nähe voraus. Möglich werden virtuelle Gemeinschaften14 über weite Entfernungen hinweg. Diese agieren nicht notwendig nach kommunitären Prinzipien, sondern auch als virtuelle Unternehmen oder Banken. Das Leben im Netz gebiert neuartige Formen der Identitätskonstruktion(en).15 12 13 14 15

Heim 1993, S. 150 Tholen 2002, S. 21f Rheingold 1994 Turkle 1998

248

INTERNET

Mit dem Internet der Computer-Netzwerke und der Integration aller bisherigen Telekommunikationsnetze entsteht ein virtueller Raum der Informationsübertragung in Echtzeit. Das Prädikat echt ist immer eine nachträgliche Zuweisung, das etwa einem Kunstwerk zukommt. Echt kann nur etwas Gemachtes sein, Echtzeit meint eine hergestellte Ordnung der Zeit. Echtzeit ist ein Grundbegriff im Denken von Paul Virilio, der sich in vielen Essays mit dem Thema von Raum und Zeit auseinandersetzt. Virilio, von Hause aus eigentlich Architekt und Stadtplaner, entwickelt vom Begriff des zu planenden Raumes aus, dem Territorium, seine philosophischen Konstruktionen der Dromoskopie oder Dromologie.16 „Ein Territorium ist vor allem ein Zeit-Raum, der von den Fortbewegungsund Kommunikationstechniken gebildet wird, wie Pferd, Brieftaube, Hochgeschwindigkeitszug, Flugzeug oder Bildschirmtext.“17

Da der Zeit-Raum von Fortbewegungs- und Kommunikationstechniken gebildet wird, eignet sich als Grundbegriff weder Zeit noch Raum, sondern die Relation zwischen Zeit und Raum, die Geschwindigkeit. Das Wesen der Geschwindigkeit zu hinterfragen, versteht Virilio als eine Arbeit, bei der Physiker und Philosophen sich treffen. Schließlich sei es Einstein gewesen, der diesen Begriff in den Vordergrund gerückt habe, in der Philosophie sei er bisher zu wenig beachtet worden. In dem Neologismus Dromologie, wörtlich übersetzt etwa die Lehre vom Laufen und vom Rennen,18 schwingt die Konnotation von Rennen und Raserei mit. Mit der Untersuchung der Geschwindigkeit zeigt er die Kulturgeschichte der Menschheit als eine Geschichte der Beschleunigung in einem Horizont des Krieges.19 Geschwindigkeit bedeutet Ortsveränderung. Das heißt in menschlichen Dimensionen Abfahrt, Reise und Ankunft. Mit den modernen Fortbewegungsmitteln Zug und Flugzeug verschwindet dabei schon die Reise als erlebte Zeit. Reisezeit wird zu einer Art Zwischenzeit, ohne Bezug auf das durchquerte Land. Zugreisende lesen oder speisen im Zug, Flugzeugreisende sehen Filme, um die Zeit zwischen Abfahrt und Ankunft zu nutzen. Im 20. Jahrhundert geht durch Beschleunigung nicht nur die Reise verloren, sondern selbst die Abfahrt. Das ist nicht mehr durch eine weitere Geschwindigkeitssteigerung im Transportwesen zu erreichen, sondern beruht auf der Revolution der Übertragungsmedien. Durch die Tele-Übertragung „kommt alles an, ohne daß man noch abreisen oder reisen muß“20. Die Folge davon ist der 16 17 18 19 20

Die grundlegende Argumentation liefert er in Virilio 1989a Virilio und Daghini 1991, S. 28 δρnµος (dromos) ist die Rennbahn Virilio 1989b Virilio 1980

249

FORMUNGEN DES COMPUTERS ALS MEDIUM

Ortsverlust, die Deterritorialisierung des modernen Menschen, der Verlust des öffentlichen politischen Raumes. „Vom topischen Raum gehen wir über zu einem teletopischen Raum, einem Raum, wo die Realzeit der Übertragung eines Ereignisses die Oberhand gewinnt über den realen Raum der Ereignisse selbst.“21

Ohne den kulturpessimistischen Unterton von Virilio lässt sich der Zusammenhang zwischen Globalisierung und der entstehenden RaumZeit der Computer-Netze auch so zusammenfassen: „Der globale Takt der technischen Vernetzung macht den globalen Raum gleichzeitig.“22

Die Übersetzung der Zeitlichkeit der Rede in den medialen Raum der Schrift wirkt konstitutiv mit am Übergang von an das Lokale gebundene Gemeinschaften zu städtischen und staatlich organisierten Gesellschaften.23 Mit der Notation entsteht der Cyberspace, ein Raum weltweit verteilter Gemeinschaften, die in Echtzeit kommunizieren. Möglich wird dies in einem Kurzschluss von technischen Übersetzungen – deren Wirkungsweise mit der Beschreibung des OSI-Sieben-Schichten-Modells angedeutet sei – und kulturellen Übersetzungen – wie sie Virilios Überlegungen zur Dromologie skizzieren. In diesem Kapitel ist es nicht darum gegangen, die technischen und kulturellen Übersetzungen zu analysieren, sondern den Kurzschluss zwischen beiden deutlich zu machen: Die Notation lässt sich auch kennzeichnen als Internet. In der Notation prozessiert eine global verteilte Relation zwischen Kode und Notat.

21 Virilio und Daghini 1991, S. 31 22 Coy 1993a, S. 377 23 McLuhan 1968

250

Hypertext und Hypermedia Die Ablösung der Schrift als Leitmedium durch die Notation, den Computer als Medium, verändert die Form der Textualität. Welchen Transformationen dabei der klassische Textbegriff unterliegt, ist im Einzelnen immer noch nicht abzusehen. Deutlich ist nur, dass keinesfalls – wie oft vermutet – von einem Verschwinden der Schrift schlechthin die Rede sein kann. Übersetzungen des Text-Formats in Hypertextstrukturen seien im Licht einschlägiger Visionäre, Theoretiker und Praktiker des Hypertextes beleuchtet. Die erste konkretisierte Vision zum Hypertext stammt von Vannevar Bush. Dieser fungierte als technologischer Berater von US-Präsident Roosevelt, experimentierte mit Analog-Computern und war der anfängliche Leiter des Manhattan Projekts. Vielleicht trieb ihn die in diesem gigantischen Projekt zu bewältigende Informationsflut dazu, das System Memex zu entwerfen. „Wholly new forms of encyclopedias will appear, ready-made with a mesh of associative trails running through them, ready to be dropped into the memex and there amplified. The lawyer has at his touch the associated opinions and decisions of his whole experience, and of the experience of friends and authorities. […] There is a new profession of trail blazers, those who find delight in establishing useful trails through the enormous mass of the common record. The inheritance from the master becomes, not only his addition to the world’s record, but for his disciples the entire scaffolding by which they were erected.“1

Es handelt sich um einen Entwurf auf dem Papier, kein technisch realisiertes Produkt. Bush verknüpft 1945 bekannte Techniken und Geräte, wie Indexierung, kontrollierte Vokabularien, Relationierung und Mikroverfilmung zu einem Informationssystem.2 Dieses Informationssystem konzipiert er als Maschine, als Erweiterung des Assoziationsvermögens des menschlichen Gedächtnisses. Die auf Mikrofilm gespeicherten Informationen sollen mit einem Rapid Selector maschinenmäßig direkt zugreifbar sein. Als Eingabegerät stellt er sich eine an der Stirn befestigte optische Kamera vor, die alles, was im Verlaufe eines Tages das Interesse des mit dem künstlichen Auge bewehrten Lesers weckt, sofort in Memex aufnimmt. Um dieses Material nicht zu einem Müllberg unzugänglicher Daten anwachsen zu lassen, würde kein alphabetisches oder numerisches Indizieren ausreichen. Deshalb fordert Bush ein assoziatives Indexieren, auf dessen Grundlage ein Benutzer Pfade, Spuren durch das gesamte Material schlägt, die er – da maschinell gesichert – auch an 1 2

Bush 2003, S. 46 Vgl. Kuhlen 1991, S. 66ff

251

FORMUNGEN DES COMPUTERS ALS MEDIUM

Mitbenutzer weitergibt. Assoziatives Indexieren ist eine Forderung, eine fruchtbare Idee, deren technische Umsetzung Bush nicht angibt. Erst der Digital-Computer macht die technische Realisierung das Informationssystem Memex vorstellbar. Mit der Entwicklung einer Theorie von assoziativen Speichern, von schnellem Hashing als Suchverfahren etc. ebnen sich die Wege für ein assoziatives Indexieren und Pfadsuchen gemäß der Vision von Bush. Ted Nelson prägt 1965 den Begriff Hyptertext. Weit in die Zukunft voraussehend, konzipiert er den Hypertext nicht als neue Textform, sondern als eine andere Art der Realisierung von Informationen in weltweiten Rechnernetzen. „Now the idea is:To give you a screen in your home from which you can see into the world’s hypertext libraries. (The fact that the world doesn’t have any hypertext libraries – yet – is a minor point.)“3

Diese Idee nennt er XANADU, und er implementiert sie als funktionierendes Programm auf einer SUN-Workstation. Im Wesentlichen, so Nelson, gehe es darum, eine neue Art der Verknüpfung für Computerdateien zu finden, die der wahren Verbindung von Ideen entspreche.4 Nelson definiert mit der Hypertextvision neu, was „die wahre Verknüpfung der Ideen“ ist, nämlich, einen Speichermanager zu finden, der die Information organisiert und reorganisiert. Dabei werden die Daten auf sehr unterschiedliche Weisen organisiert, was es ermöglicht, sie auf vielfältige Arten zu gebrauchen, ohne dass sich der Speicherplatz ständig ausdehnt. Hierfür muss eine vereinheitlichte Struktur gefunden werden, in der jede Umorganisierung der Daten möglich ist, ohne dass die frühere Form der Organisation zerstört wird. Diese Struktur ist kein im Voraus entworfenes hierarchisches System, sondern die Gesamtstruktur wird erzeugt durch ein kleines Programm, das auf allen Komponenten läuft, das die Verknüpfungen und die gemeinsamen Eigenschaften zwischen den unzähligen Dokumenten anzeigt und verwaltet. Die Idee von der weltweiten Hypertext-Bibliothek, die vom Computer zu Hause aus erreichbar ist, verwirklicht Ted Nelsons Implementierung von XANADU nicht. Auch das erste relativ weit verbreitete Hypertext-System Hypercard, das anfangs gratis mit allen Apple-PCs ausgeliefert wird, realisiert diese Vision nicht. Aber es zeigt zum ersten Mal die praktische Umsetzung des Konzepts. Erst mit dem 1989 von Tim Berners-Lee erfundenen World-Wide-Web wird der Standard für Hypertexte definiert, so wie er heute den meisten Menschen im Internet begegnet. 3 4

Nelson 1987a Nelson 1987a, S. 143

252

HYPERTEXT UND HYPERMEDIA „The World-Wide-Web (W3) was developed to be a pool of human knowledge, which would allow collaborators in remote sites to share their ideas and all aspects of a common project.”5

Die Vernetzung von Information erfolgt nicht mehr über DatenbankZugriffe, sondern über Links. Damit ergibt sich ein völlig anderes Webmuster als bei der alphabetischen Schrift. Hier sind im Text die Buchstaben auf einer Linie festgezurrt, entsprechend dem Zeitlauf der aufgeschriebenen Rede. Mit der Fußnote enthält auch schon der klassische Text aus der Linearität herausbrechende, über sie hinaus weisende Anteile. Fußnoten verweisen auf andere Texte, in Form einer Verbannung des anderen Textes aus dem gerade aktuellen. Fußnoten in Fußnoten wären eine absurde Idee in einem linearen Text, würde dadurch der verwiesene Text zum Haupttext oder zumindest zu einem ebenbürtigen. Die Linie der Argumentation wäre gestört, nicht nur kurz in einer Note unterbrochen. Hypertexte sind also nicht einfach ein neues Text-Format, sondern es besteht eine qualitative Differenz: 1. Hypertexte heben die Linearität des in alphabetischer Schrift geschriebenen Textes in einer Netzstruktur auf. 2. Hypertexte basieren auf dem Dispositiv der Notation. Bei ihnen sind Speicherung und Darstellung systematisch geschieden. Ein Netzwerk von Knoten trägt die Informationen. Verknüpfungen weisen über die Knoten des gerade gestalteten Hypertextes explizit hinaus auf schon geschriebene Hypertexte. Eine Charakteristik von Hypertexten macht deren Portabilität im vernetzten Raum aus. „Before networked computing, scholarly communication relied chiefly upon moving physical marks on a surface from one place to another with whatever cost in time that movement required. Networked electronic communication so drastically reduces the time scale of moving textual information that it produces new forms of textuality. Just as transforming print text to electronic coding radically changed the temporal scale involved in manipulating texts, so too has it changed the temporal scale of communication. Networked electronic communication has both dramatically speeded up scholarly communication and created new forms of it.”6

Die Transformation des linearen Textes in den netzförmigen Hypertext verändert eine Reihe von Strukturelementen der Wissensrepräsentation:7 Topologie: Der nicht-lineare Hypertext präsentiert sich nicht in einer fixierten Sequenz von Wörtern, sondern als Übersetzungsstruktur von expliziten Verweisen. Auch der Schreibraum des klassischen linearen 5 6 7

Berners-Lee, Cailiau, Luotonen, Nielsen und Secret 1994, S. 907 Landow 1994, S. 13 Vgl. Aarseth 1994, S. 61f

253

FORMUNGEN DES COMPUTERS ALS MEDIUM

Textes prägt eine komplexe Wissensstruktur, die keinesfalls linear ist. Aber diese Struktur erschließt sich erst durch die Reflexion und ist nicht explizit als Spur von Verweisungen im Universum der Texte kodiert. Dagegen hat der Schreibraum des Hypertextes eine technisch topologische Struktur, realisiert als komplizierte Relation zwischen dem Raum des Speichers und dem der Darstellung8. Logische Beziehungen werden als Links explizit, und der Darstellungsraum eröffnet eine neue Perzeptivität von medialer Wirklichkeit, welche Übersetzungen zwischen multimodalen Darstellungen ermöglicht. Dynamik: Der klassische Text ist räumlich statisch, wohingegen der Hypertext einer dynamischen Raum-Zeit-Relation gehorcht. Ein prozessierender Kode präsentiert das erscheinende Notat je nach Kontext des Lesers oder Schreibers in angemessener Form nicht als statisches (Schrift-)Bild, sondern als dynamisch sich ändernde perzeptive Struktur. Flüchtigkeit und Vergessen: Während der Schreibraum des klassischen Textes diesen für alle Zeit unverändert konserviert (solange er nicht physisch verfällt oder vernichtet wird), ist der Hypertext potentiell ständigen Transformationen zugänglich, die aktuelle Veränderung überschreibt die alte. Handhabbarkeit: Die Medialisierung der Textfom macht den Zugriff leichter. Random access ersetzt den Gang zur Bibliothek. In der Schriftsprache der Gutenberg-Galaxis sprechen Texte nicht, sondern verweisen auf die Sprache anderer Texte. Der Sinn des Textes wird figuriert durch Schlagwortregister, die ihn in Beziehung setzen zum schriftlich gespeicherten Wissen anderer Zeiten und Räume. Dafür bildet der Hypertext eine neue Art von Verweisungen aus: Links, die eine semiotische Übersetzung vorschreiben. Ein „Link“ ist dasselbe, was der Semioseprozess immer ist, ein Spiel der Zeichen als bloße Zeichen, als Repräsentamen. So jedenfalls argumentiert Jay David Bolter. Computer – so Bolter9 – seien die Verwirklichung einer semiotischen Sicht auf Sprache und Kommunikation. Der Computer sei eine Maschine, um Zeichen zu erzeugen und zu manipulieren. Was dabei als Erstes zu lernen sei, sei der Unterschied zwischen dem Zeichen und seiner Referenz, zwischen der Adresse des Ortes im Computerspeicher und dem Wert, der an dieser Adresse gespeichert werde. Durch diese Unterscheidung sei die Maschine auf allen Ebenen charakterisiert: Sie mache die Essenz von Hypertext und Programmen der Künstlichen Intelligenz 8

9

So auch Bolter: „For electronical writing, the space is the computer’s videoscreen where text is displayed as well as the electronic memory in which text is stored. The computer’s writing space is animated, visually complex, and to a surprising extent malleable in the hands of both writer and reader.“ Bolter 1991, S. 11 Bolter 1991, S. 195ff

254

HYPERTEXT UND HYPERMEDIA

aus, worin der Text immer eine Textur von Zeichen sei, die auf andere Zeichen zeigen. So werde der Prozess der Semiose im Computer verkörpert, so dass die Semiotik offensichtlich werde, trivialerweise richtig. Nach Bolter können die Wörter in einem elektronischen Text ihre eigene Referenz suggerieren. Denn sie sind in topischen Einheiten enthalten, die zu andere topische Einheiten in Beziehung gesetzt sind. Diese topischen Einheiten, die Topics, selbst komplexe Zeichen, werden nicht nur durch die Wörter definiert, die sie enthalten, sondern durch die explizit gemachte Beziehung zu anderen topischen Einheiten. Elektronische Wörterbücher waren immer schon nach dem Prinzip der semiotischen Verweisung aufgebaut: Um einen Begriff, der nur in der Form von bloßen Zeichen als Repräsentamen gegeben ist, zu erklären, verweist das Wörterbuch auf andere Zeichen, die wiederum auf andere Zeichen verweisen, bis man im Zirkel wieder bei den ursprünglichen Zeichen angelangt ist. Darin sieht Bolter das Paradox jedes Lexikons: Man kann nichts verstehen, wenn man nicht schon wenigstens einige Begriffe kennt. Auch in der Semiotik können Zeichen immer wieder nur auf Zeichen führen. Es gibt keinen Weg nach außerhalb aus dem System der repräsentierten Welt hinaus. Durch das Lesen verändert sich der Text selbst nie, anders beim elektronischen Lesen. Beim Folgen der im Hypertext angelegten Pfade oder „Links“ verwandelt sich der Text selbst, modifiziert sich seine Struktur. Bolter sagt, „that indeed the text becomes a contested ground between author and reader. In fact there is a third player in this game, the electronic space itself. The computer is always doubling the author for the reader, just as it doubles the reader for the author.“10 [Hervorhebung durch B.R.]

Für Bolter stellt dieser symbolische Schreibraum keine Metapher für Bedeutung (signification) dar, sondern eher eine Technologie der Bedeutung. Mit dem Hypertext werden Texte zu Programmen, die der Schreiber schreibe und der Leser ausführe. Jedes Programm verwirkliche eine Menge von Bedeutungen (meanings), auch solche, die der Schreiber gar nicht vorgesehen habe. Die Interpretation durch das Lesen hänge davon ab, welche Pfade der Leser auswähle, indem er das Programm ausführt. „The new view of signs is embodied unambiguously in electronic hypertext. Here the writer and reader know that there is no transcendence, because they know that the topical elements they create are arbitrary sequences of bits made meaningful only by their interconnecting links. They feel no need to refute the old view, the product of the printed and written book, which 10 Bolter 1991, S. 199

255

FORMUNGEN DES COMPUTERS ALS MEDIUM are both closer to the spoken language. In the computer meaning is always deferral, the pointing from one place to another. The fact that electronic signs only refer to other signs is the fundamental characteristic of the medium, made apparent in every act of electronic writing. In an electronic space there is no infinite regression, not because the reader eventually reaches the transcendental signified, but rather for the mundane reason that the resources of the machine, though vast, are always finite. All this suggests again, that the computer takes us beyond deconstruction, which for all its ambivalence, is still incapable of acquiescing in the arbitrary and limited character of writing. Electronic readers and writers have finally arrived at the land promised (or threatened) by post-modern theory for two decades: the world of pure signs. While traditional humanists and deconstructionists have been battling over the arbitrary, self-referential character of writing, computer specialists, oblivious to this struggle, have been building a world of electronic signs in which the battle is over.“11

Ob man solch totalisierenden Einschätzungen nun folgt oder nicht12, so kann jedoch nicht bezweifelt werden, dass der Computer die Art der Produktion, Rezeption und Organisation von Texten in radikaler Weise transformiert. Offensichtlich hat die neue Textstruktur des Hypertextes auch nur einen kleinen spezifischen Anteil an der grundsätzlichen Neustrukturierung des Verhältnisses von Sprache, Bild und Schriftlichkeit, wie ich sie in dieser Arbeit insgesamt beschreibe.

11 Bolter 1991, S. 204 12 Für eine ausführliche Kritik vgl. Winkler 1997

256

Programmiersprachen Das „natürliche“ Anwendungsfeld für den als Rechenautomaten zur Welt gekommenen Computer schien in der Lösung von Differenzialgleichungen zu liegen, die einer analytischen Lösung nicht zugänglich waren und deshalb numerische Näherungslösungen verlangten. John von Neumann sah das wichtigste theoretische Problem deshalb in der Analyse der Komplexität der Lösungen, die er in der „Sprache“ der numerischen Mathematik formulierte. Für Programmierer blieb dann „nur“ noch die Aufgabe, die Algorithmen in eine Folge von Instruktionen zu übersetzen, die der Computer ausführen konnte. Die Syntax des Kodierens folgte eng den zu antizipierenden Operationen der jeweiligen Maschine.1 Im First Draft of a Report on the EDVAC2 formuliert von Neumann das Konzept eines speicherprogrammierbaren elektronischen Rechners. Diese später so genannte „von Neumann-Architektur“ konfiguriert das Medium der Übersetzung aus den Komponenten Central Algorithmic CA, Central Control CC, Memory M, Input I, Output O und einem outside recording medium R. Als Theoretiker abstrahiert von Neumann von der konkreten Maschine und kann so ihre allgemeine Architektur festlegen. Allerdings knüpft sein Modell eng an die technischen Anforderung der damaligen Vakuum-Röhren-Technik an. Diese Architektur umfasst einen Übersetzungsmechanismus, der numerische Mathematik als hierarchische Übersetzungen in einem hierarchisch strukturierten Raum operationalisiert: „The orders which CC receives fall naturally into these four classes: (a) Orders for CC to instruct CA to carry out one of its ten specific operations. (b) Orders for CC to cause the transfer of a standard number from one place to another. (c) Orders for CC to transfer its own connection with M to a different point, with the purpose of getting its next order from there. (d) Orders controlling the operation of the input and the output of the device.”3

Im Code ausgedrückte Befehle werden an die Kontrolleinheit (CC) der Maschine gerichtet, welche gemäss der Instruktionen Übersetzungsoperationen der arithmetischen Einheit (CA) anstößt, wodurch die Berechnung numerischer Daten als technische Übersetzung durchgeführt wird. Die im Speicher (M) genauso abgelegten Befehle des Codes wie die zu prozessierenden numerischen Daten determinieren den Übersetzungsmechanismus der Maschine. Eine Kontrolle des Inputs und Outputs 1 2 3

Vgl. Pflüger 2002. In diesem Unterkapitel folge ich in weiten Teilen der Argumentation dieses Aufsatzes von Pflüger. Neumann 1987. Es ist umstritten, ob von Neumann der einzige Autor dieses Papiers ist. Vgl. Stach 2001, S. 44 Neumann 1987, dargestellt in Punkt 14.1 des Papiers. Vgl. auch Stach 2001, S. 60 f

257

FORMUNGEN DES COMPUTERS ALS MEDIUM

erfordert technisch zu bewältigende sensomotorische Übersetzungen zur umgebenden Wirklichkeit, erscheint aber als Anhängsel zu einem Übersetzungsmechanismus, der äußere Wirklichkeit in den inneren Raum einer symbolischen Übersetzungsmaschine verlagert, welche den Kode prozessiert und prozessierte Daten ausgibt. Als Vermittlungs- und Zwischeninstanz zwischen den Instruktionen des Kodes und ihrem Prozessieren durch die verschiedenen Operatoren der Maschine wirkt die Kontrolleinheit. Ihre Operationen werden vom Kode gesteuert, ihr Schema determiniert andererseits die Form des Kodes. Kode und Aufbau der Maschine hängen wechselseitig zusammen.4 Kode in die Maschine zu bringen, erfolgt in der Ursprungsphase des Mediums durch ein quasi direktes räumliches Übersetzen. Es wird als räumliche Verbindung realisiert durch das komplexe Stecken von elektrischen Leitungen, welche für jede Aufgabe auf jeder konkreten Maschine jeweils neu gesteckt werden müssen. Die Transformation einer derartigen direkten Übersetzung in sprachähnliche Übersetzungen bildet sich erst langsam in einem historischen Wirken des für die Maschine produzierten Kodes heraus. In den 1940er und 1950er Jahren wird der Terminus „Sprache“ als Mittel der Kodierung nur sporadisch verwendet. Der Übergang zum Sprachbegriff löst das Programmieren von konkreten Maschinen und wird von den Akteuren zunächst unbewusst vollzogen.5 Zunächst werden die langen Befehlslisten des Kodes dadurch vereinfacht und für Menschen lesbarer gemacht, dass gleiche Befehlsfolgen zusammengefasst und mit einem leichter merkbaren symbolischen Namen in einem mnemonischen Kode bezeichnet werden. Dies wird schon im First Draft of a Report on the EDVAC beschrieben. Daraus entstehen die ersten Assemblersprachen und der Gedanke, dass die symbolische Maschine selbst die Symbole wieder in maschinenlesbare Befehlsfolgen übersetzt. Speicheradressen werden in Dezimal- statt in Binärdarstellung ausgedrückt, Subroutinen werden in Bibliotheken zusammengefasst. Die sogenannte relative Adressierung teilt den Kode in Blöcke auf, deren Adresse relativ zu einer gesondert gespeicherten Konstante angegeben wird. Als Assembler wird ein Programm bezeichnet, das die im Kode angeführten Unterroutinen aus der Bibliothek in das Gesamtprogramm übersetzt, indem aus den relativen und symbolischen Adressen die tatsächlichen Maschinenadressen berechnet und mnemonischer Kode in Maschinenkode übersetzt werden. 1954 wird speziell für die IBM 704 das „FORmula TRANslating System“ unter der Leitung von John Backus entwickelt. Dargelegt wird 4 5

Vgl. Stach 2001, S. 61 Vgl. Stach 2001, S. 121ff

258

PROGRAMMIERSPRACHEN

eine neue Notation, um die mathematische Notation der Formeln dem Medium Computer zugänglich zu machen. John von Neumann hat die Notwendigkeit einer solchen sprachlichen Notation nie eingesehen. Für ihn war das Kodieren der Formeln eine leichte Tätigkeit für ausgebildete Kodierer.6 Ein Ziel der Entwicklung von FORTRAN ist die Ersetzung dieser (unzuverlässigen) menschlichen Kodierer durch die (zuverlässige) Übersetzung der Maschine.7 Backus beschreibt das FORTRAN-System so: „It has two components: the FORTRAN language, in which programs are written, and the translator or executive routine for the 704 which effects the translation of FORTRAN language programs into 704 programs.“8

Das Programm wird zunächst in der definierten Sprache FORTRAN geschrieben und anschließend auf Lochkarten gestanzt. Für die Übersetzung des Programms in Maschinensprache wird das translator program in die IBM 704 eingelesen. Der translator ist das einzige Programm, das auf dieser Maschine läuft. Der Kartenstapel mit dem FORTRAN-Programm wird in den Kartenleser eingelegt. Die Maschine liefert eine fehlerfreie Übersetzung auf binary cards oder einem binary tape mit dem entsprechenden 704 Programm, dass dann wiederum in die IBM 704 eingelesen wird. Menschen programmieren in FORTRAN, die Kodierarbeit erledigt der Übersetzer der Maschine automatisch. Ingenieure und Wissenschaftler formulieren ihr Problem in der „leicht zu lernenden Sprache“ FORTRAN, die der mathematischen Sprache ähnlich sein soll. Programmierer konzentrieren sich auf eine Lösung für ihre Probleme, während die langwierige und schwierige Kodierung ihnen von der Maschine abgenommen wird.9 Der automatische Übersetzer erleichtert die Verwaltung des Speicherplatzes und die Kode-Generierung für symbolische Variablen durch die automatische Ausführung der Indexierung. Erst dieser automatische Übersetzer macht den Kode zu einer Sprache, genauer zu zwei Sprachen, dem Maschinenkode und dem FORTRANKode, die durch den Übersetzer konfiguriert werden. Die Geschichte der Informatik bringt eine Ausbreitung, ja eine Art Wuchern des Sprachbegriffs hervor. Alle möglichen Notationssysteme werden Sprachen genannt: Programmier- oder Dialogsprachen, Hardware-Beschreibungssprachen, Abfragesprachen usw. Programmiersprachen formen sich in einer Vielfalt sehr unterschiedlicher Konzeptionen. Der Zweck der Übersetzungsfunktion der formalen Sprache lässt sich in verschiedenen Hinsichten bestimmen: erstens bezogen auf die Maschine 6 7 8 9

Vgl. Stach 2001, S. 140 Vgl. Stach 2001, S. 144f Zitiert nachStach 2001, S. 146 Vgl. Stach 2001, S. 146ff

259

FORMUNGEN DES COMPUTERS ALS MEDIUM

selbst, zweitens auf den Programmierer, drittens auf die Gemeinschaft von Programmierern und Nutzern. Die erste Vermittlungsfunktion entspricht der Sicht, den Computer zu instruieren, damit er etwas tut (Metapher: befehlen), die zweite, den Computer zu nutzen zur Unterstützung des Verständnisses berechenbarer Probleme (Metapher: verstehen) und die dritte der Sicht des Computers als Medium, um über Algorithmen und ihre formalen Eigenschaften mit Zeichen zu verkehren (Metapher: kommunizieren). Sie korrespondieren mit drei sukzessiven dominanten Konzeptionen der Software-Produktion, die sich mit den Metaphern „writing, building, growing“10 kennzeichnen lassen. Anfangs geht es einfach darum, ein Programm zu schreiben, dann darum es systematisch zu konstruieren, dann führt die dem Prozess der Software-Entwicklung eigene Logik zu der organischen Idee des Wachsens von Software. Dem entsprechen Aspekte der Herausbildung einer neuen Sphäre des Zugangs zur Wirklichkeit: Funktion, Repräsentation und Performation. Nach Pflüger ist ALGOL die erste Programmiersprache, die die drei Funktionen des Befehlens, Verstehens und Kommunizierens zu umfassen beansprucht. ALGOL wird anders als FORTRAN von Anfang an unabhängig von einem bestimmten Computertyp als problemorientierte formale Sprache definiert. Alle problemorientierten Sprachen erfordern einen Compiler, der automatisch die Sprachkonstrukte des Quellkodes in Maschinenkode übersetzt. Solche maschinelle Übersetzung umfasst viel mehr als die einfache literale Übertragung von zwei Codes, denn die Struktur der beiden Sprachen des Quellkodes und des Maschinenkodes kann völlig differieren. Nötig ist die Klärung der Konzeption formaler Grammatiken.11 Hier profitiert die Informatik insbesondere von Chomskys Arbeiten zur strukturellen Linguistik.12 Während in der instruktionistischen Anfangsphase das Problem der Semantik eine untergeordnete Rolle spielte – die Bedeutung des Programms war das, was das Programm tat –, wurde mit der zunehmenden Komplexität der Übersetzung von abstrakteren formalen Sprachen das Problem formaler Semantik immer virulenter, die als operationale Semantik konzeptionalisiert werden konnte. Programmiersprachen strukturieren die Art und Weise, wie Programmierer zu Wissen über formale Systeme kommen. Obwohl verschiedene Computersprachen äquivalent sind in Bezug auf ihr Berechenbarkeitspotenzial, bergen sie doch völlig unterschiedliche Ausdruckspotenziale. Ihr Potenzial menschliche Erkenntnis zu beschreiben, 10 Pflüger 2002, S. 131 11 Als anwendungsbezogene Einführung vgl. Hopcroft und Ullman 1990 und Aho, Sethi und Ullman 1988 12 Vgl. Chomsky 1973

260

PROGRAMMIERSPRACHEN

verquickt das Formale und Berechenbare deren Grenzen überschreitenden Metaphern. Deshalb sind formale Sprachen mehr als formale Sprachen.13 Sie bilden ein Medium, das Weltbilder einfängt und zwischen Apparatur und Mensch vermittelt. Imperative, prozedurale, funktionale, deklarative, logische, regel-basierte, objekt-orientierte und agentenorientierte Programmiersprachen formen jeweils spezifische Weltsichten, unterschiedliche Programmierstile und unterschiedliche Konzeptionalisierungen, welche im Einzelnen zu analysieren hier zu weit führen würde. Allgemein führen problemorientierte Programmiersprachen zu einem Wechsel des Fokus weg von Problemen der Instruktion der Maschine hin zur Vermittlungsfunktion als Formbildner des Denkens. In der Phase des sogenannten Batch-Processing14 ist das Medium Computer nicht integriert in die Gestaltung und Formung des Verstehens während des Problemlösungsprozesses. Erst hinterher wird er eingesetzt, um die Daten gemäß den vordefinierten Programmprozeduren zu prozessieren. Der Programmierer muss die Problemlösung im Vorhinein entwerfen. Viele Probleme lassen sich aber nicht im Voraus durchdenken, sondern erst in einem Versuchs- und Irrtumsverfahren in Interaktion mit der auf den Plan getretenen Maschine bewältigen. „It is the current aim to replace, as far as possible, the human brain by an electronic digital computer.”15

Der Computer wird hier als Automat aufgefasst, der (routinemäßiges) menschliches Denken und Arbeiten ersetzt. Mit dem Konzept der Interaktivität kommt gleichzeitig die Idee einer Partnerschaft zwischen Mensch und Computer auf, in welcher der Mensch nicht durch die Maschine ersetzt wird, sondern die Maschine den Menschen unterstützt, beide ihre Fähigkeiten in einem Dialog verbinden. In den Worten von J.C.R. Licklider führt dies zu einer „Mensch-Computer-Symbiose“: „The hope is that, in not too many years, human brains and computing machines will be coupled together very tightly, and that resulting partnership

13 Pflüger 2002 14 Beim Batch-Processing werden Berechnungen sequentiell ausgeführt, ohne dass der Nutzer interagierend eingreift. Zur Zeit der Lochstreifen oder Lochkarten war dies die einzige Möglichkeit, während Time-sharing-Systeme, die in den frühen 1960er Jahren auftauchen, den Eindruck vermitteln, dass viele Berechnungen gleichzeitig prozessiert werden, wobei dem jeweils aktiven Programm kleine Zeitscheiben zugeteilt werden. Der Programmierer, jetzt durch den Bildschirm schauend, erarbeitet seine Lösung im direkteren Austausch mit den Aktionen der Maschine. 15 So Commander Grace Hopper in seinem Artikel: „The Education of a Computer“ zitiert nach Pflüger 2002, S. 136

261

FORMUNGEN DES COMPUTERS ALS MEDIUM will think as no human brain has ever thought and process data in a way not approached by the information-handling machines we know today.“16

Wenn man diese Formulierungen Lickliders von ihrer Substanzialisierung des Computers und des Menschen befreit, drückt sich in ihnen die Erwartung der Bildung des relationalen Dispositivs des Mediums der Übersetzungen zwischen Notationen aus, welche eine neuartige Perzeptionssphäre hervorbringt. Interaktivität – vermittelt durch Übersetzungen zwischen Notationen – etabliert eine reflexive Form des Verständnisses von Wirklichkeit, welche die Trennung zwischen der inneren Form und dem äußeren Diskurs übersetzt und tendenziell aufhebt. Bei jeder Unterhaltung entwickelt sich eine Idee, wobei sie in kleine Stücke zerhackt und durch schnelle Reaktionen des Opponenten vorangetrieben wird. Dialogpartner tauschen gemeinsam verständliche externe Repräsentationen von „Denkfragmenten“ aus. Ähnlich wird bei der computervermittelten Interaktion die innere mentale Aktivität des Nutzers verteilt in den Zwischenräumen der immer kürzer werden Antwortzyklen des Computers. Relationen werden strukturiert in den Wendepunkten der Interaktion mit der Maschine. In der interaktiven Programmierung wird die Vermittlung der Problemlösung in einem Feedback-Loop verflochten zu einem nur diskursiv zu schreibenden Kode. Durch die interaktiven Antworten des programmierten Mediums „programmiert“ der Nutzer sich selbst und seine Form des Denkens.17 In der building-Phase der Programmiersprachen kommt folgerichtig die Metapher der Konversation mit dem Computer auf. Das dritte Ziel von Programmiersprachen, die Etablierung eines geteilten Diskursraumes, wird im ursprünglichen Konzept von ALGOL verstanden als ein Standard für die Publikation von Algorithmen: „Source code not only communicates with the computer that executes the program, through the intermediary of the compiler that produces machinelanguage object code, but also with other programmers. […] The design of programming languages has laws proceeded under the dual requirements of complete specification for machine execution and informative description for human readers.”18

Entwickler betonen zunehmend die konstruktiven Momente des Design von Software. Sie fordern abstrakte Sprachen, die unter dem Aspekt der Unterstützung der Modellbildung konzipiert sind und nicht primär unter dem Gesichtspunkt effizienten Kodierens von Algorithmen. Bei einem derartigen Herangehen lässt sich Kommunikation nicht mehr von Ver16 J.C.R. Licklider, „Man Computer Symbiosis“, IRE Transactions on Human Factors in Electronic, HFE-1 (March 1960), zitiert nach Pflüger 2002, S. 138 17 Vgl. Pflüger 2002, S.138 18 Zitiert nach Pflüger 2002, S. 140

262

PROGRAMMIERSPRACHEN

ständnis trennen, nicht nur in Hinsicht auf die Lesbarkeit der Notationen, sondern in Bezug auf die komplexe Aufgabe, Programmsysteme in einem räumlich und zeitlich aufgeteilten gemeinsamen Arbeitsprozess zu entwerfen. Programmiersprachen, Modellierungssprachen höherer Ordnung und natürliche Sprache werden in der frühen Phase des SystemDesigns gleichzeitig eingesetzt. Verbale Kommunikation über die zu programmierende Aufgabe münden nach vielfältigen Vermittlungsschritten fortschreitender Formalisierung in eine formale Spezifikation, die in ein ausführbares Programm übersetzt wird. Die Strukturierung des Programms von der nicht formal gegebenen Wirklichkeit hin zu seiner formalen Rekonstruktion wird eher in einem netzartig strukturierten Wirken von kommunikativ ausgehandelten Übersetzungen umgesetzt als in einem hierarchisch logisch organisierten Prozess. Mit der Verbreitung von Computer-Netzwerken und computer-vermittelter Kommunikation erhält diese schon in den frühen Time-Sharing Systemen angelegte Vision eine materielle globale Basis. Ein solcher netzförmig strukturierter Software-Entwicklungsprozess kann nicht mehr als building, als Konstruktion systematischer Problemlösung begriffen, werden, sondern nach der Metapher des growing als ständige Übersetzung von Übersetzungen. Kode wird nicht mehr ex nihilo zur Lösung eines wirklichen Problems geschaffen, sondern schreibt sich ein in schon vorhandene formalisierte Wirklichkeiten, deren Sphäre durch immer weitere Hinzufügungen vergrößert wird. Die Abfolge des writing, building, growing steht in Beziehung zu einer Geschichte sich entwickelnder Auffassungen von der MenschComputer-Interaktion, die sich in Konversation, Manipulation und Delegation einteilen lässt, auch wenn die Phasen zeitlich nicht genau korrespondieren. Um nach der Metapher des writing gute Programme schreiben zu können, musste der Programmierer die Maschine kennen, ja Empathie mit der Maschine empfinden. Auch die ersten problemorientierten Programmiersprachen wurden eher als Abkürzungen für Instruktionen und Sprünge der Maschine aufgefasst, denn als Mittel zur Problemstrukturierung. Nach Pflüger drückt sich darin aus, dass die strukturelle Unterscheidung von langue und parole der Saussureschen Sprachtheorie hier noch nicht etabliert ist. Mit dem Konzept der strukturierten Programmierung – die Antwort auf die diagnostizierte Softwarekrise –, bilden sich diese Unterscheidung heraus. Mit der Metapher des building verbindet sich die Konnotation des geordneten Designs und der Komposition eines Gegenstandes aus einfachen Elementen. Strukturierte Programmierung bezeichnet die syntaktische Zusammensetzung von standardisierten Komponenten und ein top-down-Design. Die Software-Entwicklung wird

263

FORMUNGEN DES COMPUTERS ALS MEDIUM

in zwei Phasen aufgeteilt: Problemanalyse und Synthese der Lösung. Paradigmatisch analysiert der Designer das Problem, bis er die abstrakteste zu implementierende Funktion gefunden hat, die sich in Teilfunktionen zerlegen lässt. Die Teilfunktionen lassen sich wiederum in mehreren Iterationen in Teilfunktionen splitten, bis am Ende einfach zu implementierende Funktionen gefunden sind, aus deren Komposition die Lösung synthetisiert wird. Damit orientiert sich die Softwareproduktion nicht länger am Ideal von Instruktionen, die effizient von der Maschine ausgeführt werden, sondern an der Strukturierung des zu lösenden Problems. Verbunden ist damit die Erforschung denotationaler Semantiken, wodurch sich berechenbare Funktionen als aus elementaren semantischen Bauteilen zusammengesetzte Teilfunktionen schreiben lassen. Die strukturalistische Sicht macht die Programmiersprache zur langue, in der jedes Element nur abhängt vom Platz in einem statischen19 und geschlossenen Zeichensystem. Solche paradigmatisch konstruierten Programme lassen sich am reinsten in einer funktionalen Sprache schreiben und lösen gemäß der naturwissenschaftlichen Denkweise Probleme im Prinzip für die Ewigkeit. Das verträgt sich allerdings schlecht mit den praktischen Erfordernissen der Softwareproduktion, bei der die zu implementierenden Funktionen sich mit der Zeit schnell verändern. Änderungen ziehen aber bei einem hierarchischen Entwurf Veränderungen fast der gesamten Programmstruktur nach sich. Praktiker verlangen nach einem bottom-upAnsatz. Dieser wird gefunden im Übergang zur objektorientierten Programmierung, bei dem die Gliederung des Problems nicht nach Funktionen, das heißt nicht nach dem Prinzip des Verbs, sondern nach dem Prinzip des Substantivs erfolgt. Programme werden komponiert aus Objekten, die als Instanzen von komplexen Klassen geordnet sind. Dadurch wird das Prinzip der Modularisierung von Software, das schon das Ziel des Paradigmas der strukturierten Programmierung war, praktischer realisiert. Software sollte ingenieurmäßig nach dem Vorbild rationaler tayloristischer Fabrikorganisation aus vorfabrizierten Modulen produziert werden. Gleichzeitig wandelt sich die Auffassung, wie die Interaktivität mit der Maschine zu erfolgen hat. Die Konversationsmetapher geht über in die Manipulationsmetapher. Computernutzer sprechen nicht mit der Maschine als Partner, sondern interagieren durch Programme mit ihr, indem

19 Anders als in der natürlichen Sprache wechseln die Wörter der formalen Sprache mit der Zeit nicht ihre Bedeutung, sondern liegen statisch fest. Um natürliche Sprachen als Struktur auffassen zu können, analysierte Saussure sie als synchrones System.

264

PROGRAMMIERSPRACHEN

visualisierte Objekte auf dem Schirm manipuliert werden, welche sie dadurch zu Aktionen veranlassen. Die Idee der Softwarefabrik erweist sich als Illusion. Je mehr Programme geschrieben sind, je mehr Software produziert ist, desto deutlicher wird, dass der paradigmatische Zugang der strukturierten Programmierung unter dem Regime der Metapher an seine Grenzen stößt. Denn die Videosphäre verlangt nach der Beachtung ihrer eigenen inneren Strukturen, die sich nach dem Regime der Metonymie organisieren. Softwareobjekte verlieren ihren passiven Status und wandeln sich zu Agenten, die als prozessierender Kode miteinander und mit dem Computernutzer selbsttätig interagieren –gemäß der Auffassung der Delegation. „Agents […] invade the interface and are the root of the newest interactive model. Rather than pottering about the work surface of an interface, the user meets the computer in an ‚interspace‘. In this interworld, the performance of the computer and human activity re represented uniformly as both communicative and performative (inter)action.”20

Neue Ansätze und Konzepte von Programmiersprachen strukturieren den Raum des Zwischen der medialen Sphäre. Nur noch indirekt beziehen sie sich in komplexen Übersetzungen auf Probleme der vorgegebenen Wirklichkeit. Sie formen eine neue Perzeptionsschicht. In agenten-basierte Programmiersprachen reflektieren sich die Vorstellungen, Wünsche, Träume, Begehren und Intentionen der Entwickler von Software.

20 Pflüger 1997, S. 152

265

Simulation Der Computer hat eine Doppelnatur: Medium und (Steuerungs-)Automat. Im Prozessieren des Programms vollzieht der Computer Übersetzungen zwischen Notationen: Das kann erstens bedeuten, dass er als Steuerungsautomat direkt in die Wirklichkeit eingreift, etwa bei der Schaltung von Maschinen, der Steuerung von Fabrikanlagen oder bürokratischen Verwaltungen. Darin drückt sich die Mediatisierung der Steuerung der energetisch mechanistisch angetriebenen Maschinen aus. Zweitens kann das heißen, dass der Computer als Medium Wirklichkeitsauffassungen vermittelt. Als Steuerungsautomat enthält der Computer seine Steuerung medial und als Medium enthält er eine prozessierende Steuerung, die Wirklichkeit simuliert. Der Doppelcharakter von (Steuerungs-)Automat und Medium scheint ambigue Wirklichkeit zu schaffen, die rätselhaft bleibt. Was ist gemeint mit der Aussage, der Computer simuliere Wirklichkeit? Der Informatik-Duden sagt dazu: „In der Informatik bezeichnet Simulation die Nachbildung von Vorgängen auf einer Rechenanlage auf der Basis von Modellen (das sind im Computer darstellbare Abbilder der realen Welt). Sie wird meist zur Untersuchung von Abläufen eingesetzt, die man in Wirklichkeit aus Zeit-, Kosten-, Gefahren- oder anderen Gründen nicht durchführen kann.“1

Offensichtlich wird so die Untersuchung von Abläufen durch die Analyse ihrer Simulation ersetzt. Ist das möglich? Verwechselt die Informatik auf diese Weise nicht die Karte der Welt mit der wirklichen Welt? Lassen sich Computer-Simulationen als Abbilder der realen Welt auffassen? Sind es nicht eher Vorbilder, Konstruktionen von Wirklichkeiten? Oder bedeuten Computer-Simulationen die Wiederauferstehung der oft totgesagten Mimesistheorie im Sinne einer Nachahmung von Wirklichkeit? Hatte nicht Foucault ein derartiges Ähnlichkeitsdenken vormodernen Zeiten und der Moderne das Epistem einer abstrakten Repräsentation zugeordnet? Um Computer-Simulationen zu verstehen, sind zum einen Begriffe wie Abbildung, Abstraktion und Mimesis genauer zu durchdenken, zum anderen Medien und ihr Anteil an Simulationen zu bedenken. Medien formen Arten der Simulation von Wirklichkeit. Die Illusionskraft der im 19. Jahrhundert erfundenen technischen Bildmedien und ihre Überbietung durch digitale Medien stellen zunehmend eine Theorie der Mimesis als Abbild und Korrespondenz von Bild und Gegenstand in Frage. Mit den Mitteln der Technik lassen sich Bilder massenhaft produzieren und reproduzieren. Zunehmend prägt anstatt unmittelbarer Erfahrung in der Welt der Umgang mit Artefakten die Vorstellung von 1

Engesser 1993, Stichwort „Simulation“, S. 648

266

SIMULATION

der Welt. Wirklichkeitsvermittlung wird zur Wirklichkeitsprägung.2 Dieser Analyse folgend lässt sich die Geschichte der philosophischen Ästhetik als Übergang von der Mimesis zur Simulation beschreiben.3 Zugespitzt wird dann die Wirklichkeit als Simulakrum gedeutet: „Früher war die schönste Allegorie der Simulation für uns jene Fabel von Borges, in der die Kartographen des Reiches eine so detaillierte Karte anfertigen, daß Karte und Territorium schließlich exakt zur Deckung kommen. […] Heutzutage funktioniert die Abstraktion nicht mehr nach dem Muster der Karte, des Duplikats, des Spiegels und des Begriffs. Auch bezieht sich die Simulation nicht mehr auf ein Territorium, ein referentielles Wesen oder auf eine Substanz. Vielmehr bedient sie sich verschiedener Modelle zur Generierung des Realen ohne Ursprung oder Realität, d.h. eines Hyperrealen. Das Territorium ist der Karte nicht mehr vorgelagert, auch überlebt es sie nicht mehr. Von nun an ist es umgekehrt: (Präzession der Simulacra:) Die Karte ist dem Territorium vorgelagert, ja sie bringt es hervor.“4

Jean Baudrillard diagnostiziert damit die „Agonie des Realen“ durch das Wirken der Simulation nicht als Imitation, sondern als Substitution des Realen „in einem System des Todes oder vielmehr in einem System der vorweggenommenen Wiederauferstehung, wo dem Ereignis, selbst dem Ereignis des Todes, keine Möglichkeit mehr bleibt.“5 Nach diesem katastrophischen Befund gibt es keinen objektiven Grund, keine Referenz und keine Wahrheit mehr. Ähnlich beurteilt Vilem Flusser die Lage, allerdings ohne in Kulturpessimismus zu verfallen: „Vor unseren ungläubigen Augen beginnen alternative Welten aus den Computern aufzutauchen: aus Punktelementen zusammengesetzte Linien, Flächen, bald auch Körper und bewegte Körper. Diese Welten sind farbig und können tönen, wahrscheinlich können sie in naher Zukunft auch betastet, berochen und geschmeckt werden. Aber das ist noch nicht alles, denn die bald technisch realisierbaren bewegten Körper, wie sie aus den Komputationen emporzutauchen beginnen, können mit künstlichen Intelligenzen vom Typ Turing’s man ausgestattet werden, so daß wir mit ihnen in dialogische Beziehungen treten können. Warum mißtrauen wir eigentlich diesen synthetischen Bildern, Tönen und Hologrammen? Warum beschimpfen wir sie mit dem Wort ‚Schein‘? Warum sind sie für uns nicht real?“6

Die mediale Form der Wirklichkeitskonstruktion bestimmt die Art und Weise unserer Sinneswahrnehmung. Eine Veränderung dieser Form im Prozess kultureller Übersetzung wirkt schockartig, da normalerweise die Medialität der Wirklichkeitswahrnehmung nicht ins Bewusstsein gerät, 2 3 4 5 6

Vgl. Kapitel 3 der Arbeit Jung 1995 Baudrillard 1978, S. 7f Baudrillard 1978, S. 9f Flusser 1991, S. 147

267

FORMUNGEN DES COMPUTERS ALS MEDIUM

außer wenn sich ihre Form im Übergang verändert. Der neue Sachverhalt ist unstrittig: „Praktisches Handeln und Verhalten kann antizipiert, simuliert werden, wie nicht nur Flugsimulatoren, sondern die gesamte, auf Computersimulation abgestellte moderne Kriegstaktik und –strategie beweisen.“7

Aber was hat sich damit geändert? Wie lässt sich das neue Verhältnis von Simulation, Mimesis, Imitation und Abbild beschreiben? Das lateinische Verb „simulare“ bedeutet „ähnlich machen“. Zugehöriges Eigenschaftswort ist „similis“, dem das griechische Wort „oBD¾D0„, das heißt auf deutsch „ähnlich, gleichartig, ebenso beschaffen“, entspricht. Ähnlichmachen ist mehrdeutiger Vorgang. „Simulare“ meint gleichzeitig nach- oder abbilden und vorgeben oder heucheln. Eine solche Doppeldeutung haftet dem Fremdwort nach wie vor an, wenn man davon spricht, einen Vorgang zu simulieren. Als Medium formt der Computer Simulationen. Während Schriftstücke Wirklichkeit beschreiben, programmieren Notationen eigene mediale Wirklichkeiten. Das Schriftstück als im Raum geronnene Zeit der Rede fixiert Sachverhalte. Seine mediale Wirklichkeit bleibt statisch, ist tot. In der medialen Wirklichkeit der Notation formt sich nicht nur ein „Sehen als“, sondern wird auch ein „Simulieren“, ein „Handeln als“ möglich, also eine Art mimetisches Verhalten, das sich aber kaum als Nachahmung der Natur begreifen lässt. Um diese Möglichkeit des mimetischen Verhaltens genauer zu verstehen, sei die Einführung in das Gebiet der Computer-Simulation nach dem weit verbreiteten Textbuch von Paul Fishwick betrachtet: „Computer simulation is the discipline of designing a model of an actual or theoretical physical system, executing the model on a digital computer, and analyzing the execution output. Simulation embodies the principle of ‚learning by doing‘ – to learn about the system we must first build a model and make it run. The use of simulation is an activity that is natural as a child who role plays with toy objects. To understand reality and all of its complexity, we must build artificial objects and dynamically act out roles with them. Computer simulation is the electronic equivalent of this type of role playing.”8

Wichtig erscheint hier der Begriff des Modells, interessant und vielleicht unerwartet ist die sehr enge Bindung des Konzepts der Simulation an das Spiel. Zum Terminus Modell sagt Fishwick zunächst lapidar:

7 8

Jung 1995, S. 283f Fishwick 1995, S. 1f

268

SIMULATION „A model is something that we use in lieu of the real thing in order to understand something about that thing.”9

Um etwas über einen realen Gegenstand zu erfahren, gehen wir nicht mit diesem selbst um, sondern stattdessen mit dem Modell. Aber in welchem Verhältnis steht das Modell zum realen Gegenstand? Das ist keine einfache Frage und darauf lässt sich keine allgemeine Antwort geben. Auf jeden Fall gibt es zu einem realen Gegenstand unterschiedliche Modelle, die Unterschiedliches über ihn aussagen. Für eine genauere Kennzeichnung seiner Modellvorstellung zitiert Fishwick Mach: „The communication of scientific knowledge always involves description, that is, a mimetic reproduction of facts in thought, the object of which is to replace and save the trouble of new experience. Again, to save the labor of instruction and of acquisition, concise, abridged description is sought. This is really all that natural laws are.”10

Machs ökonomistische Strategie zum Verständnis von Naturgesetzen als die Suche nach einer prägnanten, Fakten zusammenziehenden Beschreibung überträgt Fishwick auf das weite Feld der System-Modellierung. Ziel ist, unterschiedliche Arten von Modellen zu konstruieren und zu kombinieren als möglichst ökonomische Beschreibung für dynamische Systeme, die – sich in der Zeit verändernde – Phänomene der Wirklichkeit modellieren. Damit ist noch ein weiterer Terminus ins Spiel gebracht worden: System. Das Wort System (griech. ıȪıIJȘµĮ = Gebilde, das Zusammengestellte, Verbundene) hat mannigfaltige Bedeutungen. Ihnen allen gemeinsam ist das Konstruktionsprinzip der „Zusammenstellung“ aus mehreren Elementen, die untereinander in Wechselwirkung stehen: Jedes System besteht aus Elementen (Komponenten, Subsystemen), die untereinander in Beziehung stehen. Meist bedeuten diese Relationen ein wechselseitiges Beeinflussen – aus der Beziehung wird ein prozessierender Zusammenhang. Zusammen mit dem Systembegriff definiert Fishwick den Modellbegriff dann genauer: „To model is to abstract from reality a description of a dynamic system. Modeling serves as a language for describing systems at some level of abstraction or, additionally, at multiple levels of abstraction. A system is a part of some potential reality where we are concerned with space-time effects and causal relationships among parts of the system. By identifying a system, we are necessarily putting bounds around nature and the machines that we build; we define a system to be a ‚closed world‘ where we clearly separate items that are integral parts of the system (i.e. they are within it) from items that can affect systems from outside. Models are used for the 9 Fishwick 1995, S. 2 10 So Mach in einer Vorlesung mit dem Titel „The Economical Nature of Physics“, zitiert nach Fishwick 1995, S. 2

269

FORMUNGEN DES COMPUTERS ALS MEDIUM purpose of communicating with each other – the alternative being that two people wishing to discuss dynamics would be forced to work with the real system under investigation. A model permits us to use devices such as equations, graphs and diagrams. […] Modeling is a way of thinking and reasoning about systems.”11

Vorgenommen hatte ich mir, das neue Verhältnis von Simulation, Mimesis, Imitation und Abbild zu beschreiben. Fishwicks Textbuch zur Theorie der Erstellung von Computer-Simulationen hat mich bisher nur zu neuen, theoretisch höchst vorbelasteten Begriffen wie System12 und Modell13 geführt. Um die Argumentation nicht ausufern zu lassen, betrachte ich die Präzisierung dieser Begriffe auf der Ebene von Fishwicks Definition. Fishwick beschreibt unterschiedliche Abstraktionsprozesse, die zu völlig verschiedenartigen Modellen führen, am Beispiel des Problems der Untersuchung von Flugkörpern. Eine einfache Simulation bestände darin, einen Ball in die Luft zu werfen. Nach dem Modell verhält sich der Ball analog oder ähnlich wie der schwer zu untersuchende Flugkörper eines Projektils. Bei einer Computer-Simulation des Flugkörpers dagegen ist das Modell das Computer-Programm, also eine Beschreibung des Verhaltens des Flugkörpers etwa in Bewegungs-Gleichungen. Um allgemein der Simulation von Flugkörpern, gibt Fishwick als mögliches Verfahren an:14 1. Erarbeite eine zu beantwortende Frage oder präzisiere das zu lösende Problem! 2. Übersetze Frage oder Problem in ein adäquates Modell für die Simulation. 3. Führe die Simulation aus! 4. Beobachte die Ergebnisse! 5. Übersetze die Ergebnisse zurück in den Bereich der zu beantwortenden Frage oder des zu lösenden Problems! 6. Formuliere eine Antwort auf die Ausgangsfrage oder eine Lösung des Ausgangsproblems! Grundvoraussetzung für die Modellbildung ist ein Zurücktreten von der Wirklichkeit. Sie muss zur Frage oder zum Problem werden. In Differenz zur realen Situation der Lebenswelt gilt es eine künstliche Systemwelt zu 11 Fishwick 1995, S. 26f., Fishwick formalisiert den Modellbegriff natürlich weiter, vgl. S. 46f 12 Fast jede wissenschaftliche Disziplin, zum Beispiel Soziologie, Biologie, Elektrotechnik, Informatik usw. hat mindestens eine eigene Systemtheorie hervorgebracht. 13 Prominent ist hier Stachowiaks allgemeine Modelltheorie (vgl. Stachowiak 1973), weit entwickelt sind Modelltheorien in der Logik. 14 Vgl. Fishwick 1995, S. 3

270

SIMULATION

schaffen, in der sich isolierte Aspekte der Situation simulieren lassen. Das artifizielle System soll ein Handeln ermöglichen, als ob es um die reale Situation ginge. Solche Täuschung verwirklicht ein Probehandeln. Von der realen Situation ist überzusetzen zu einer Modellwelt, die nur durch Abstraktion zu gewinnen ist, durch ein sich Zurückziehen aus der Realität. Fishwick betrachtet zu dem angeführten Beispiel eine Reihe von Modellen auf unterschiedlichem Abstraktionsniveau:15

Model design Model execution

Physical Scaled Analog Patch model model model model Missile in flight

Bullet in flight

Most exact

Ball in flight

Digital model

Digital Analog computer circuit program Most abstract

Inwieweit sind der Abschuss einer Gewehrkugel, das Spielen mit einem Ball oder gar ein Computerprogramm der ursprünglichen Situation ähnlich? Lässt sich hier jeweils von einem Abbild der realen Welt sprechen, wie es der Informatik-Duden bei seiner Definition der Simulation macht? Es ist unmittelbar einsichtig, dass es sich jedenfalls nicht um ein Abbild nach der Art eines Spiegelbildes handelt. Wenn hier überhaupt von Ähnlichkeit zu sprechen ist, dann vielleicht im Sinne einer von den Modellierern hergestellten Übersetzung zwischen Modellwelten, wie es Fishwick unterstellt. Im Falle des digitalen Modells geht die Abstraktion besonders weit: Es wird aus Zahlen generiert, welche selbst nichts abbilden, sondern aus bedeutungslosen Größen bestehen, auf denen formale Relationen (von algebraischen Strukturen wie Addition, Multiplikation, etc. oder Ordnungsstrukturen wie größer, kleiner etc.) definiert sind. Daraus lassen sich dann weitere komplexe Strukturen „reiner Mathematik“ aufbauen wie zum Beispiel die erste Ableitung einer Funktion, die für sich nichts bedeutet, aber doch ein Modell darstellt für die Geschwindigkeit eines Flugkörpers. Genau derselbe Formalismus ist auch ein Modell für die Steigung eines Berges oder das Wachstum einer Volkswirtschaft. In welchem Sinne lässt sich da von Ähnlichkeit oder von Abbild sprechen? Diese Frage soll hier natürlich nicht beantwortet werden. Der Bibliothek von vorhandenen Büchern über dieses Thema will ich keinen neuen Artikel hinzufügen. Mir geht es mit obigen Bemerkungen um zweierlei: 15 Tabelle nach Fishwick 1995, S. 3

271

FORMUNGEN DES COMPUTERS ALS MEDIUM

Erstens um eine Problematisierung der allzu naiven Definition des Informatik-Dudens16 und zweitens um eine Charakterisierung der Neuartigkeit des digitalen Modells. Das digitale Computerprogramm ist nicht nur abstrakter als die anderen von Fishwick dargestellten Modelle, sondern universaler, weil es nicht in Materie, sondern im reinen Zahlencode repräsentiert ist. Als digitaler Code lassen sich sowohl das Wurfgeschoss, die Gewehrkugel und auch das Ballspiel schreiben. Computer-Simulationen sind angewandte Methodologie, wodurch das Verhalten eines komplexen Systems durch mathematische oder symbolische Modelle implementiert wird. Ihr Modell bildet eine ausführbare Theorie, das heißt eine Hypothese über das Verhalten des Systems, wobei anders als in realen physischen Welten Parameter variiert, Initialbedingungen verändert oder andere Modellannahmen abgewandelt werden können. Sie formen nicht in nachahmenden, sondern in vorahmenden Praktiken eine Mimesis der unsinnlichen Ähnlichkeit und ermöglichen ein virtuelles Probehandeln. In Computer-Simulationen verbinden sich unauflöslich mimetische Praxis mit implementierter formaler Theorie.17 Computer-Simulationen lassen sich nicht als Mimesis im Sinne einer einfachen Korrespondenz zwischen Realität und medialer Wirklichkeit auffassen. Sie bilden Inkorporationen von Theorie und keine Fleisch gewordenen Abstraktionen, an denen sich unmittelbar der Wahrheitsanspruch der Theorie testen ließe, sondern mediale Konstruktionen. Aber trotzdem sind sie in einem weiten Sinne mimetisch und (meist) keine beliebigen Spielereien. Mit ihnen lassen sich virtuell Hypothesen testen, aber auch praktische Fertigkeiten trainieren. Es geht nicht um die Suche nach unumstößlichen Wahrheiten, sondern um das Sammeln möglichst vielfältig simulierter Erfahrungen körperlicher und/oder geistiger Art. Anders als alle bisherigen Schriftund Bildmedien ermöglichen Computer-Simulationen ein virtuelles Probehandeln durch Interaktion mit dem System. Ein Programm der Steuerung von Simulationen unterscheidet sich nicht prinzipiell von dem der Steuerung wirklicher Maschinen. Im Extremfall kann der Code sogar identisch sein. Der Ästhetik (im Sinne von lH$=H>0 und Wahrnehmung) der im Umgang mit Computer-Simulationen gebildeten medialen Welten – mixed reality, aumented reality, virtual reality – werde ich im nächsten Kapitel etwas genauer nachgehen.

16 Sie mag trotzdem in manchen Kontexten der Informatik für praktische Belange völlig genügen. 17 Vgl. auch Fishwicks Programm des Aesthetic Computing, in dem er die Überzeugung äußert, „that we are on the road to a stronger bridge which has historically separated art and science“: Fishwick 2003

272

SIMULATION

Das Probehandeln mit den algorithmischen Zeichen der Computer18 lässt sich auch auffassen als spielerischer Umgang mit Wirklichkeit. Für Fishwick ist dieser Zusammenhang ganz klar, wenn er sagt: „The use of simulation is an activity that is natural as a child who role plays with toy objects.“ Herbert Marcuse hat schon 1955 spekuliert: „Der Spieltrieb könnte, würde er tatsächlich als Kulturprinzip Geltung gewinnen, die Realität im wahrsten Sinne des Wortes umgestalten. Die Natur, die objektive Welt, würde dann nicht mehr in erster Linie als den Menschen beherrschend erfahren (wie in der primitiven Gesellschaft) noch als etwas, das vom Menschen beherrscht wird (wie in unserer Welt), sondern vielmehr als ein Gegenstand der ‚Betrachtung der Reflektion‘.“19

Die Frage, ob, inwieweit und in welchem Sinne mit Computer-Simulationen der Spieltrieb als Kulturprinzip Geltung gewinnt, eröffnet ein spannendes Forschungsfeld, dessen Untersuchung im Rahmen dieser Arbeit jedoch zu weit führte.

18 Vgl. auch Nake und Grabowski 2001 19 Marcuse 1970, S. 187f

273

Komposition von Realitäten Im Werden des Computers als Medium bilden sich Notationen als eine Art technische Hypotypose in Form des sinnlich wahrnehmbaren Interface. Computergenerierte Übersetzungen konfigurieren komplexe Relationen der Wirklichkeit und der medialen Wirklichkeit. Anders als die rhetorische Figur der Hypotypose, welche innere geistige Bilder hervorruft, muss die technische Hypotypose äußere technische Bilder produzieren. Solch technische Hypotypose bedeutet mehr als die Veranschaulichung von Sachverhalten, wie sie ein Bild in einem Text bietet. Sie macht das Verhältnis zwischen Entitäten der Wirklichkeit prozessierend wahrnehmbar. Notationen (re-)konstruieren Wirklichkeit. Die Informatik hat dafür Begriffe wie Virtual Reality, Augmented Reality und Mixed Reality geprägt. Diese merkwürdigen Konstruktionen von Wirklichkeit(en) gilt es genauer zu betrachten.

Virtual Reality In der Literatur wird der Begriff Virtual Reality uneinheitlich gebraucht. Oft wird er mit dem von William Gibson geprägten Begriff Cyberspace für weltweite Computernetze gleichgesetzt. Unter einem weiten Begriff von Virtual Reality werden alle computergenerierten medialen Wirklichkeiten gefasst. Mit einem engeren Begriff von Virtual Reality werden Techniken bezeichnet, Menschen in eine virtuelle, vom Computer berechnete Umgebung zu versetzen. Das heißt, sie richten nicht die Sinne auf die künstlich geschaffene Umgebung, sondern werden in sie hineinversetzt.1 Mit Mitteln der Informatik virtuelle Umgebungen zu konstruieren, bedeutet meist eine Weiterentwicklung von herkömmlichen Visualisierungs- oder Animationstechniken der graphischen Datenverarbeitung. Manchmal werden sie auch mit dem Konzept der Telepräsenz verbunden, was eine Einbindung in Computernetzwerke erfordert. „The promise of artificial realities is not to reproduce conventional reality or to act in the real world. It is precisely the opportunity to create synthetic realities, for which there are no antecedents, that is exciting conceptually and ultimately important economically.”2

1

2

Eine populärwissenschaftliche Beschreibung der historischen Entwicklung von Virtual Reality-Umgebungen liefert Rheingold 1992. Eine deutschsprachige Aufsatzsammlung zum Thema hat Waffender 1991 herausgegeben. Einen informationstechnischen Kurzüberblick geben Astheimer, Böhm, Felger, Göbel und Müller 1994a und Astheimer, Böhm, Felger, Göbel und Müller 1994b. Krueger 1990, S. xiv. Der Terminus Artificial Reality von Krueger setzt sich in der Informatik nie durch.

274

KOMPOSITION VON REALITÄTEN

Das wichtigste Grundprinzip zur Konstruktion von virtuellen Welten besteht darin, visuelle Displays so an kognitive und sensorische Fähigkeiten des Menschen anzupassen, dass nicht nur eine mediale Wirklichkeit simuliert, sondern darüber hinaus die Möglichkeit des Agierens in der virtuellen Umgebung erzeugt wird. Um ein Agieren in virtueller Umgebung zu ermöglichen, muss der Computer mit einer Reihe von Einund Ausgabemedien verbunden werden, die dem Benutzer einerseits audiovisuelle und taktile scheinbare Welten vorspiegeln, andererseits (Re-)Aktionen des Benutzers erfassen. Dazu bedarf es der Definition von Computer-Modellen der Wirklichkeit. Diese Modelle sind derart zu implementieren, dass nach festgelegten Regeln Simulationen unter ständiger Einflussnahme der Benutzer ausgeführt werden. Prinzipiell muss ein Computersystem zur Generierung einer virtuellen Umgebung also einerseits Daten berechnen, die dem Benutzer mediale Darstellungen präsentieren, andererseits muss es in der Lage sein, Aktivitäten des Benutzers zu erfassen und abhängig von diesen Aktivitäten die präsentierte mediale Wirklichkeit in Echtzeit neu zu berechnen. Um in eine virtuelle Umgebung versetzt zu werden, reicht die Darstellung visueller Scheinwelten nicht aus. Es geht um mehr als 3D-Kinematographie. Die virtuellen Modellwelten müssen sich je nach den Aktivitäten des Betrachters unterschiedlich präsentieren. „Neu ist also nicht, dass mit Hilfe von Computern künstliche Erfahrungsbereiche geschaffen werden, sondern dass die Ein-/Ausgabemedien näher an den Menschen rücken.“3

Um die Aktivitäten des Benutzers für das System zu erfassen, kann man zwei prinzipiell verschiedene Techniken anwenden. Entweder können am Körper des Benutzers Sensoren – etwa ein Datenhandschuh oder Datenanzug – angebracht werden oder entfernte Sensoren – etwa eine Videokamera – nehmen die relevanten Aktivitäten des Benutzers wahr: die Körperstellung, Handbewegungen, Kopfstellung und Augenbewegungen. Um die Illusion der Bewegung im künstlich geschaffenen virtuellen Raum zu erzeugen, gilt es je nach Augenbewegung ein verändertes virtuelles Blickfeld bieten. Immer wieder auftauchende vom Informatiker zu lösende Probleme sind Bildgenerierung in Echtzeit und Navigation in virtuellen Räumen, Kollisionserkennung, Greifen von Objekten, Gestenerkennung etc. „Diese Modelle sind formalisierte Interpretationen des Reellen, die ausnahmslos aus den Technikwissenschaften stammen (Beleuchtungs-, Farb-, Wiedergabe-, Form-, Interpolations-, Bewegungs-, Beschleunigungs-, Verlangsamungs-, Betriebs-, Wachstums-, Konnexions-, Lern-, Ablesungs-, Kogniti3

Keil-Slawik 1992, S. 7

275

FORMUNGEN DES COMPUTERS ALS MEDIUM onsmodelle etc.). Jedes Fragment der virtuellen Welt verweist auf ein Simulationsmodell, das sich faktisch wenn nicht als vollständige Erklärung des Wirklichen, so doch wenigstens als Beschreibung zeigt, die ein Teil des Reellen zu reproduzieren und Zugriff auf ihn zu ermöglichen vermag. Die Simulationsmodelle können nur sichtbar machen, was zunächst intelligibel ist.“4

Es handelt sich nicht um eine wissenschaftliche Illustration, die einen eigentlich nur intelligiblen Sachverhalt bebildert, anschaulich macht, sondern um ein Aspekt-Sehen als vorgeschriebene Anschauung durch die Erzeugung programmierter Welten. Solche Welten lassen sich nicht distanziert betrachten, sondern haben eine besondere Evidenz, eine merkwürdige Form von multisensorischer Bildwahrnehmung. Das Neue an Virtual Reality besteht nicht darin, dass Menschen virtuelle, mögliche Welten generieren, sondern neu ist die spezifische Art von virtueller Umgebung: Prozessierende Notationen schreiben eine Perzeption in der medialen Sphäre vor. Mit den Bildtechniken der Virtual Reality wird der Blick des Betrachters auf andere Weise geformt als noch bei der Kinematographie, die den Blick auf die Scheinwelten der Leinwand erzwingt. Wie die Maske der Gorgo5 verschlingt die Virtual Reality in ihrem Blick die außerhalb von ihr liegenden natürlichen Welten und macht den Betrachter dafür blind. Wie versteinert können die Augen des Cybernauten6 nur die Maske anblicken und sonst nichts mehr. Diese Maske blickt den Betrachter wirklich an. Beim Film wird die Illusion nur so weit getrieben, dass der Zuschauer den Eindruck hat, der Zug führe auf ihn zu. Zwar wird auch ein virtueller Zug in einer Virtual Reality Umgebung niemanden überfahren, bzw. um ein häufiger realisiertes Szenario zu wählen, wird ein Flugzeug im Flugsimulator niemals tatsächlich abstürzen, aber die virtuelle Fahrt wird wirklich durch die Reaktionen des Cybernauten gesteuert. Er kann den virtuellen Zug, der auf ihn zurast, möglicher Weise anhalten und so die virtuelle Katastrophe verhindern. Virtual Reality formt unsere Beziehungen zur physischen Welt auf einer neuen Stufe, wie es der Pionier virtueller Welten Jaron Lanier ausdrückt: „Die virtuelle Realität ist kein Computer. Wir sprechen über eine Technik, bei der man mit Hilfe eines computerisierten Anzugs eine gemeinsame Wirklichkeit synthetisiert. Sie formt unsere Beziehung zur physischen Welt auf einer neuen Ebene nach, nicht mehr und nicht weniger. Die subjektive Welt bleibt unberührt, es hat nichts direkt damit zu tun, was sich im Gehirn abspielt. Es hat nur damit zu tun, was die Sinnesorgane wahrnehmen.“7 4 5 6 7

Couchot 1993, S. 345 Vgl. die Interpretation des griechischen Mythos der Gorgo in Vernant 1988 Mit diesem Kunstwort sei hier jemand bezeichnet, der in eine Virtual RealityUmgebung „eintaucht“. Aus einem Interview mit Jaron Lanier: Heilbrun und Stacks 1991, S. 69f

276

KOMPOSITION VON REALITÄTEN

Virtuelle Welten sind mögliche Welten, die nicht real, aber nicht nur denk- und vorstellbar, sondern auch wahrnehmbar sind. Man könnte beschließen in der virtuellen Welt eine Katze zu sein oder ein Musikinstrument, ein Komet am Himmel zu werden oder eine Spinne, die größer als der Planet ist. Die Naturgesetze müssen in den virtuellen Welten nicht gelten. „Man hat Handschuhe an. Mit ihnen kann man Dinge fühlen und betasten, die gar nicht da sind.“8

In dieser Wirklichkeit herrscht eine merkwürdige Zeit, die weder linear noch zyklisch, sondern reversibel ist. So wie man einen Film zurückspulen und noch einmal ansehen kann, so lassen sich alle Entscheidungen in einer virtuellen Umgebung zumindest prinzipiell im System speichern. Alle Entscheidungen sind rückgängig zu machen, indem die Simulation noch einmal gestartet wird. Dies ist möglich, weil die Reise ja nicht auf dem Land, sondern auf der Landkarte entlang führt, allerdings einer so differenzierten, dass sie Erfahrungen, genauer virtuelle Erfahrungen, ermöglicht. „In der virtuellen Realität kann man sein Gedächtnis externalisieren. Die Erfahrungen werden vom Computer erzeugt, deshalb kann man sie einfach speichern und die alten Erfahrungen jederzeit aus der aktuellen Perspektive neu abspielen. Unter dieser Voraussetzung kann man dann seine Erfahrungen organisieren und sie benutzen, man kann auf sein externalisiertes Gedächtnis die ‚Suchfunktion‘ anwenden, wie man beim Macintosh sagen würde. Das wird eine völlig andere Sache sein. Man kann ganze Welten in der Tasche oder hinterm Ohr haben und sie jederzeit hervorziehen und durchschauen.“9

Sichtbarkeit virtueller Welten unterscheidet sich also grundlegend von der Wahrnehmung der Wirklichkeit. Das Bild ändert seine Natur. Es stellt nicht mehr die Oberfläche der Objekte dar, sondern ihre modellierte Rekonstruktion. Sie beweisen die intellektuellen Beherrschung der Phänomene. Die Erscheinung wird zum Effekt des Wissens. Sie macht die Oberfläche als Äußerlichkeit der Struktur sichtbar und nicht als Endzweck. Es ist eine Erscheinung, die aus den Tiefen des Speichers durch den Prozessor generiert wird. Jede Änderung eines numerischen Wertes transformiert die virtuelle Realität. „Formatoren designieren nicht Dinge oder Zeichen, sondern sie symbolisieren ihre eigene Struktur als eine mögliche Struktur für andere Zeichen. Sie sind Zeichen für einen rein formalen Umgang mit Wirklichkeiten.“10

8 Heilbrun und Stacks 1991, S. 72 9 Interview mit Jaron Lanier: Heilbrun und Stacks 1991, S. 75 10 Wiesing 1997, S. 249

277

FORMUNGEN DES COMPUTERS ALS MEDIUM

Die Bilder des Computers reproduzieren die Welt nicht, sie produzieren eine erfahrbare Welt. Technische Reproduktion schafft künstliche Wirklichkeit. Sie löst diese von einer realen Situation und versetzt sie in einen anderen Zeit-Raum. Kunstprodukte treten in unser Leben und ermöglichen Erfahrungen mit Künstlichkeit: „Die Kathedrale verlässt ihren Platz, um in dem Studio eines Kunstfreundes Aufnahme zu finden; das Chorwerk, das in einem Saal oder unter freiem Himmel exekutiert wurde, lässt sich in einem Zimmer vernehmen.“11

Mit Computer-Simulationsprogrammen beginnt die Ära des virtuellen Raumes. Dieser Raum mit einer eigenen medialen Raum-Zeitlichkeit von Heterotopien und Uchronie ist der Zwischenraum der Übersetzung. Er besteht nicht mehr allein aus Licht, sondern zudem aus Zahlen. Der virtuelle Beobachter wird Teil der numerisch gesteuerten Bildwelten. Zwischen Beobachter und Bild entsteht eine Interaktion in Echtzeit. „Die Umkehrung, die Benjamin bereits feststellte, hat sich zur Heterotopie und Uchronie gesteigert: Das Objekt ist nie da, wo es räumlich und zeitlich sein sollte; als virtuelles Objekt ist es nur das Ergebnis einer bestimmten Manipulation logisch-physischer Relationen – das heißt, dass bei aller Visualisierung das herkömmliche Paradigma der Wahrnehmung und der optischen Repräsentation verabschiedet wird.“12

Solche Reflexionen gelten für den weiten Begriff von Virtual Reality im Sinne aller computergenerierten medialen Wirklichkeiten. Der Ansatz der Virtual Reality Visionäre diese so zu konstruieren, dass sie die vollständige Illusion einer synthetischen Realität erzeugen, indem sie die Sinne möglichst vollständig von der physikalischen Realität abschotten, hat vielfältige Kritik erfahren. Als Alternative sind Systeme vorgeschlagen worden, welche die Sinne nicht oder nicht vollständig von der natürlichen Umgebung abschirmen, sondern sie mit virtuellen Repräsentationen überlagern.

Augmented Reality Eine Augmented Reality Umgebung komponiert eine realen und eine virtuelle Szene derart, dass sie als eine einzige gesehen wird. Die virtuelle Erweiterung der realen Szene ist nicht notwendigerweise visuell, auch wenn das der häufigste Fall sein dürfte, sondern kann auch auditiv sein oder irgendeinen anderen Sinn betreffen. Reale und virtuelle Objekte sind derart zu gestalten, dass ihre Differenz für die Sinne verschwimmt. Sie werden als einheitliche Umgebung inszeniert.

11 Benjamin 1991b, S. 477 12 Raulet 1995, S. 168

278

KOMPOSITION VON REALITÄTEN „What is augmented reality? An AR-system supplements the real world with virtual (computer-generated) objects that appear to coexist in the same space as the real world. […] We define an AR-system to have the following properties: combines real and virtual objects in a real environment; runs interactively, and in real time; and registers (aligns) real and virtual objects with each other.”13

Im Kern geht es darum, Informationen in das reale Sichtfeld eines Betrachters einzublenden und sie dem ansonsten Gesehenen exakt zu überlagern. Ein typischer Benutzer ist dabei ausgestattet mit einem tragbaren Computer und einer halbtransparenten Datenbrille. Vertreter des Augmented Reality Ansatzes kritisieren vehement das Virtual Reality Konzept, die Sinne in einer völlig synthetischen Wirklichkeit einzuschließen. Stattdessen betonen sie die Bedeutung der natürlichen Umgebung für das Gefühl der leiblichen Präsenz. Sie monieren die Tatsache, dass Cybernauten durch visuell dargestellte Charaktere hindurchgreifen können oder von ihnen kein haptisches Feedback erfahren.14 Bei der Überlagerung der natürlichen Umgebung mit virtuellen Objekten vermitteln die realen Gegenstände den taktilen Widerstand. Diese Technik erfordert jedoch eine sehr präzise Kalibrierung der realen Weltkoordinaten der natürlichen Umgebung mit den virtuellen Koordinaten der virtuellen Überlagerung. Als besondere Herausforderung gilt der Einsatz von videobasierten (video see-through) Head-Mounted-Displays (HMDs), da sie dem Benutzer keine direkte Sicht in die Umgebung ermöglichen, sondern stattdessen die von Kameras aufgenommenen Videosequenzen der Realität mit angereicherten Graphiken in Echtzeit anzeigen. Insbesondere die HandAuge-Koordination mit solchen Displays stellt einen gravierenden Problembereich dar. Die Latenz in der Video-Darstellung auf dem HMD sowie die Ausrichtung und Verschiebung der Kameras in Bezug auf die Augenposition bieten kaum zu lösende Schwierigkeiten. In der Praxis hat dies zu einer Reihe von Systemen geführt, die eher Mischformen realisieren als das reine Konzept von Augmented oder Virtual Reality.

Mixed Reality Zur Einordnung der Termini Augmented Reality und Virtual Reality hat Paul Milgrim den Begriff Mixed Reality geprägt.15 Nach seiner Argumentation stellen Telekommunikations-Umgebungen einen idealen virtuellen Raum bereit, der durch die Computer vermittelter Kommunikation für ein essentielles Wirklichkeitsgefühl verschafft. Den Begriff Mixed 13 Azuma, Bailot, Behringer, Feiner, Julier und MacIntyre 2001, S. 34 14 Allerdings gibt es auch Methoden, ein virtuelles haptisches Feedbach zu generieren, vgl. Burdea 1996. 15 Milgrim und Kishino 1994

279

FORMUNGEN DES COMPUTERS ALS MEDIUM

Reality ordnet er in ein Konzept zur Bestimmung der Relation zwischen virtuellem Raum einerseits und „Realität“ andererseits, die beide in derselben visuellen Umgebung zur Verfügung stehen. Die konventionelle Vorstellung einer Virtual Reality Umgebung geht davon aus, dass ein Teilnehmer-Beobachter völlig in sie eintaucht und mit einer gänzlich synthetisch erzeugten Welt zu interagieren vermag. Diese kann, je nachdem, ob sie nun selbst realistisch oder fiktional ist, mimetisch Real-Welt-Umgebungen nachahmen oder auch nach eigenen Regeln funktionieren, die physikalischen Gesetzen des Raums widersprechen. Da das Label Virtual Reality aber auch oft für Umgebungen in Anspruch genommen wird, bei denen es nicht zu einer völligen Immersion16 des Nutzers kommt oder die nicht vollständig synthetisch generiert sind, plädiert Milgrim dafür, von einem Realitäts-Virtualitäts-Kontinuum auszugehen zwischen den beiden Polen der unmodellierten Welt der realen Umgebung und der vollständig modellierten Welt der virtuellen Umgebung.17 Die Mixtur und Kombination von realen Ansichten und Bildern der Computergrafik ordne dann eine spezielle Umgebung irgendwo auf einem Punkt des Realitäts-Virtualitäts-Kontinuums an. Sowohl die reale als auch die virtuelle Umgebung gelten Milgrim als Ausschnitt der Wirklichkeit. Je nach Perspektive lasse sich eine konkrete Umgebung dann als Augmented Reality (Erweiterte Realität) oder Augmented Virtuality (Erweiterte Virtualität) charakterisieren.

Virtualitäts-Kontinuum nach Milgrim18

Diese Unterscheidungen nutzt Milgrim um Klassen von Mixed Reality Interfaces zu bilden. Für eine Taxonomie von Mixed Reality Umgebungen führt Milgrim außer dem Virtualitäts-Kontinuum weitere Unterscheidungsdimensionen ein, allerdings immer wieder unterschiedliche.19 16 Mit Immersion wird ein derartiges „Eintauchen“ in eine mediale, vom Computer synthetisierte Wirklichkeit bezeichnet, dass alle Sinne von ihr absorbiert und von der realen physischen Wirklichkeit abkoppelt. 17 Milgrim und Kishino 1994 und Milgrim und Colquhoun 1999, S. 6f 18 Grafik nach Milgrim und Kishino 1994 19 Zum Beispiel „Extent of World Knowledge“, „Reproduction Fidelity“ und „Extent of Presence Metaphor“ in Milgrim und Kishino 1994 und „Control Display Congruence (congruent – incongruent)” und „Centricity (egocentric – exocentric)” in Milgrim und Colquhoun 1999.

280

KOMPOSITION VON REALITÄTEN

Mir erscheint es problematisch, eine Unterscheidung von Wirklichkeitsebenen erklären, indem man sie als Punkte auf als Kontinuum vorgestellten Gerade zwischen den Polen Realität und Virtualität anordnet. Eine andere Möglichkeit wäre, sie als Stufen in einem Semioseprozess zu begreifen. Die (auch Zeichen-durchdrungene) Wirklichkeit der natürlichen realen Umgebung würde dann in Beziehung gesetzt zur künstlichen Zeichenwelt der Darstellung, das heißt zur medialen Wirklichkeit dessen, was die Zeichen in der virtuellen Welt bedeuten. Statt von einem Kontinuum zwischen virtuell und real auszugehen, lassen sich in einer semiotischen Betrachtung die Peirce’schen Unterscheidungen im Objektbezug des Zeichens: ikonisch, indexikalisch und symbolisch für eine differenzierte Charakterisierung nutzen. Zum Beispiel Fotos oder Filme lägen dann nicht in einem Kontinuum dichter an der Realität als modellierte virtuelle graphische Darstellungen, sondern zeichneten sich durch einen anderen Objektbezug aus. Sie gelten als indexikalisch, realisieren Spuren der Wirklichkeit, sind in diesem Sinne nicht rein symbolisch durch Konvention bestimmt, werden aber (in der Fotografie) selektierter oder (im Film) montierter Bestandteil der künstlichen medialen Wirklichkeit. Modellierte virtuelle grafische Darstellungen können ikonisch, aber auch symbolisch und durch abstrakte Konvention bestimmt sein. Wie sehr wir uns dabei in die mediale Wirklichkeit versenken (Immersion), hängt von zwei unterschiedlichen Faktoren ab: zum einen davon, worauf wir unsere Aufmerksamkeit konzentrieren, zum anderen davon, inwieweit das Arrangement der Umgebung erzwingt, unsere Sinne auf die mediale Wirklichkeit der Bedeutung zu richten. Der Leser eines Buches kann völlig in der Buchwelt versinken, ohne seine natürliche Umgebung noch bewusst wahrzunehmen. Aber er kann auch jederzeit den Fokus der Aufmerksamkeit verändern und mit seinen Sinnen in die natürliche Situation zurückkehren. Ein Kinobesucher wird dagegen stärker gezwungen, seine Aufmerksamkeit auf die mediale Wirklichkeit der Leinwand zu richten, versetzt ihn doch der dunkle Kinosaal mit der starren Ausrichtung der Zuschauer in eine ziemlich unnatürliche Haltung. Trotzdem kann er mehr auf das Rascheln, Husten oder Lachen der anderen Zuschauer achten, als auf den Inhalt des Films, der gerade gezeigt wird. Als weiterer Faktor erzwingt die Zeitlichkeit des Films die Immersion in mediale Wirklichkeit. Denn hat der Zuschauer zwischenzeitlich seine Aufmerksamkeit anderswohin gerichtet, ist die Handlung des Films inzwischen weitergelaufen, während der Buchleser nach dem Aufsehen da weiterlesen kann, wo er aufgehört hat. Eine Virtual Reality Umgebung vermag den Zwang zur Ausrichtung der Aufmerksamkeit durch Kopfhörer, Head Mounted Displays und Force Feedback Devices noch weiter

281

FORMUNGEN DES COMPUTERS ALS MEDIUM

zu steigern. Dennoch vermag auch sie den Menschen nicht völlig von der natürlichen Wirklichkeit zu separieren. Grundelemente menschlichen Lebens wie atmen, essen und trinken lassen sich in letzter Konsequenz nicht virtualisieren. Andererseits erlaubt der prozessierende Kode der Notationen einer Virtual Reality Umgebung dem Nutzer eine flexiblere Interaktion mit der medialen Wirklichkeit als die Kinematographie, bei der die Technik den Zeitfluss vorschreibt. Mixed Reality Umgebungen konfigurieren in ihren komplexen Verknüpfungen von Wirklichkeit und medialer Wirklichkeit die Sinne. Für die Konstruktion simulierter virtueller Realitäten beschäftigen sich Computerwissenschaften daher ausgiebig mit Wahrnehmungspsychologie.20 Ausgeklügelte Systeme der Sensorik und Aktorik schnüren Knoten zwischen Wirklichkeit und medialer Wirklichkeit, in denen die mediale Sphäre nicht als toter Raum erfahren wird, dem gegenüber sich der Mediennutzer positioniert, sondern als prozessierende raum-zeitliche Sphäre, in die er eintaucht. An die Stelle der Kontemplation und Reflexion treten Interaktion und mediale Erfahrung von simulierten Modellwelten. In der Taxonomie von Mixed Reality Umgebungen gelten dabei haptische Interfaces oft als wirklichkeitsnäher denn visuelle oder auditive. Dem entspricht auch meine Analyse der Zeichenträger, dass sich auditive und visuelle Zeichen als flüchtige Träger besonders für die Mediatisierung eignen.21 Sie sind nicht nur besonders flüchtige Träger von medialen Bedeutungen, sondern erlauben außerdem wegen ihrer Welleneigenschaft leichte technische Transformationen für Übersetzungen durch Wandlungen und Rückverwandlungen von Schall- und Lichtwellen in elektromagnetische Wellen. Aus semiotischer Perspektive jedoch bestimmt die Sinnqualität nicht absolut die Eignung als Zeichenträger. Physikalische Eigenschaften eines Gegenstandes legen nicht fest, ob er zum Zeichen wird, sondern prinzipiell kann jeder materielle Stoff zum Träger eines Zeichen werden. Allerdings haben sich historisch besonders auditive und visuelle Medien herausgebildet. Um zum Medium zu werden, kommt es tendenziell darauf an, wie leicht sich ein Gegenstand aus dem situativen Alltagskontext herauslösen lässt, um als Träger einer abstrakten Bedeutung zu dienen. Dies kann in Ausnahmefällen auch bei haptischen Gegenständen der Fall sein, wie etwa bei abstrakten Baukastensystemen. Noch typischere Beispiele sind der Abakus oder Brettspiele. Andererseits lassen sich ungegenständliche visuelle Schriftzeichen auch in die haptischen Zeichen der Blindenschrift transformieren. 20 Vgl. beispielhaft Carr und England 1995 21 Vgl. Abschnitt 2.4 dieser Arbeit

282

KOMPOSITION VON REALITÄTEN

Allgemein legt in Mixed Reality Umgebungen nicht die Sinnesmodalität fest, ob ein Objekt eher zur Wirklichkeit oder zur medialen Wirklichkeit gehört, sondern die Perspektive aus der wir das Objekt betrachten. Die Maus in grafischen Benutzungsoberflächen oder ein Force Feedback Device einer Virtual Reality Umgebung werden zum Bestandteil der medialen Wirklichkeit. Bei ihrer Handhabung richtet der Nutzer seine Aufmerksamkeit auf die mediale Darstellung und nicht auf die natürliche Umgebung. Zur Navigation realisiert das Sensorik-Aktorik-System meist relative Koordinaten jeweils in Bezug auf eine feste Zeigerposition in der virtuellen graphischen Umgebung und keine absoluten Raumkoordinaten in Bezug zur Position des Nutzers. Im Gegensatz dazu müssen in Augmented Reality Umgebungen oft absolute Raumkoordinaten bestimmt werden, was eine schwierige Kalibrierung der Gesamtumgebung erfordert, damit Wirklichkeit und mediale Wirklichkeit in der gemeinsamen Umgebung zur Deckung kommen. Als integrierte Umgebung erfordert Augmented Reality in der Regel eine engere Kopplung an einen natürlichen Kontext als Virtual Reality. Kompliziert werden die Verhältnisse noch durch verteilte entfernte Umgebungen. Je nach Betrachterstandpunkt gehört dann ein Teil der Umgebung zur Wirklichkeit oder zur medialen Wirklichkeit. Hier macht es einen großen Unterschied ob es sich um verteilte Bilder handelt oder etwa um die Vernetzung von realen gegenständlichen Laboren. Solange das System funktioniert, macht es für den Betrachter kaum einen Unterschied, ob der Kode des Bildes in einem lokalen Computer oder in einem verteilten Netz gespeichert wird. Er wird den Unterschied kaum wahrnehmen, und das ist auch gar nicht erforderlich. Werden dagegen reale Gegenstände an einem entfernten Ort manipuliert, ergeben sich leicht problematische Situationen, da der Nutzer die Auswirkungen seiner Manipulation am entfernten Ort nur beschränkt erfährt und wahrnimmt, dort aber einen Eingriff in die Wirklichkeit und kein mediales Probehandeln ausführt. Bei genauer Betrachtung sind die Verhältnisse noch komplizierter. Etwa bei einem gegenständlichen entfernten Labor geht es gegenüber der dort simulierten Wirklichkeit doch um ein mediales Probehandeln. Aber als Zeichenträger hat es eine andere Wirklichkeit als das Bild eines entfernten (virtuellen) Labors. Videokonferenzsysteme bilden eine weitere Zwischenform. Mixed Reality-Umgebungen formen komplexe Verhältnisse von Verflechtungen zwischen Realität und Virtualität und tragen bei zu einer immer umfassenderen Mediatisierung der Welt. Gegen den damit einhergehenden Verlust unmittelbarer Sinnlichkeit wendet sich ein Ansatz mit dem paradoxen Namen Real Reality.

283

FORMUNGEN DES COMPUTERS ALS MEDIUM

Real Reality Entwickelt wurde dieses Konzept am Forschungszentrum Arbeit und Technik (artec) der Universität Bremen. Gegen den zunehmenden Einfluss der Mediatisierung durch rationalistisch abstrakte Repräsentationen betont dieser Ansatz die Bedeutung sinnlicher und stofflicher Wirklichkeit für den menschlichen Weltzugang.22 Für den Werkstatt- und Produktionsbereich wird die Gefahr gesehen, dass die „besondere Fähigkeit des Menschen, die Umwelt über mehrere, redundante Sinnesempfindungen zu erfahren, und so ein sicheres sensibles Prozessbild in sich zu konstruieren“23, verloren geht: „Basic idea of this concept is, to record and process the manipulation of real concrete objects and use the real world as a user interface. A desktop should then be usable as a real desktop and not metaphorical as a virtual desktop, which is accessible only via twodimensional input/output devices like mouse and screen, and disappears into the computer. In shop floors and offices it will be possible, to model with real material, shaping and teaching functional and behavioral structures. Using appropriate interfaces, the activities on concrete objects are recognized and used for changing computers internal model of the outer world. The advantages of machined calculation and variation are preserved, but the creative act, the multiperspective viewing, the communication of users with others and with the material is strengthened.”24

Nach diesem Konzept arbeiten die Nutzer in einer natürlichen gegenständlichen Umgebung, in der die widerständige stoffliche Wirklichkeit allen Sinnesmodalitäten zugänglich ist. In so definierten gegenständlichen Benutzungsschnittstellen spielen die „physikalische Räumlichkeit“ und „haptische Direktheit“ eine herausragende Rolle.25 Ausgangspunkt ist die natürliche Umgebung, aber ihre Sensorisierung soll leichte und fließende Übergänge zu computergenerierten Repräsentationen ermöglichen. Dadurch lassen sich die für ein Problem wesentlichen Aspekte einer Handlung speichern und so darstellen, dass prozessierendes Handeln in medialen Modellwelten abgebildet wird. Ziel ist, die Umgebung so zu gestalten, dass die natürliche Wirklichkeit in ihrer „haptischen Direktheit“ nicht durch das Dazwischenkommen des Rechners gestört wird, so dass man sich auf seine Aufgabe im realen Raum konzentrieren kann, während der Rechner unbemerkt im Hintergrund korrespondierende künstliche Modellwelten konstruiert. Dafür ist eine Sensorisierung der natürlichen Umgebung nötig, welche die Kopplung mit virtuellen 22 Bruns 1993. Gestützt wird der Ansatz auf soziologische Untersuchungen der Qualifikationsanforderungen im Arbeitsprozess, insbesondere Böhle und Milkau 1988 23 Bruns, Heimbucher und Müller 1993, S. 5 24 Bruns 1996, S. 8 25 Brauer 1999

284

KOMPOSITION VON REALITÄTEN

Repräsentationen realisierbar macht. Grundsätzlich wurden für dieses Design zwei Möglichkeiten in Betracht gezogen, erstens die Sensorisierung aller relevanten Gegenstände, zweitens die Sensorisierung der Hand, aus deren Position und Gestik die Kopplung zur Modellwelt abgeleitet wird. Die Entwickler im artec haben sich beim Design ihrer ComputerSchnittstelle „der Hand verschrieben“, weil – so ihre These – „begreifen nicht nur etymologisch etwas mit greifen zu tun hat“.26 Anthropologische Studien über die Menschwerdung stützen diese These der herausragenden Bedeutung der Hand.27 Nicht nur in der frühen Phase der Menschwerdung, sondern auch bei der vermittelnden Übersetzung zwischen der stofflich vorgefundenen Welt und ihrem Verständnis in höchst abstrakten Reflexionen formt die Hand den Geist.28 „By pointing, by pushing and pulling, by picking up tools, hands act as conduits through which we extend our will to the world. They serve also as conduits in the other direction: hands bring us knowledge of the world. Hands feel. They probe. They practice. They give us sense, as in good common sense, which otherwise seems to be missing lately.“29

Um das Potential der Hand für computerisierte mediale Umgebungen erschöpfend zu erfassen, sind eine exakte Sensorisierung der Hand und ein Modell ihrer Aktionen zu erstellen. Absolute Raumpositionen der Hand, ja der einzelnen Finger sind zu ermitteln, Gesten müssen erkannt werden, das Anfühlen einer Oberfläche ist in Daten zu erfassen. Bei der Umsetzung ergeben sich eine Reihe von Problemen: Die Sensorisierung der Hand muss für den Nutzer möglichst unmerklich erfolgen. Eine komplizierte Apparatur zur Datenerfassung wird beim natürlichen Handeln, dessen Bedeutung dieser Ansatz ja betont, als störend empfunden und vom Nutzer nicht akzeptiert. Gesten haben oft keine exakte, sondern eine vage und weite Bedeutung. Kontextuell werden sie von Menschen genau verstanden und sie vermögen eine Menge auszudrücken, was sich nur schwer oder gar nicht in exakten Notationen beschreiben lässt, welche der Computer zu übersetzen vermag. In der Praxis beschränkt man sich deshalb meist auf die Erfassung der Bewegung und einige wenige eindeutige Zeigegesten. Grundsätzlich gibt es keine umfassende und vollständige Computer vermittelte Übersetzung zwischen einer natürlichen Umgebung und ihrem virtuellen Modell. Möglich sind ausschließlich Übersetzungen zwischen Notationen. Das Medium Computer vermittelt nur bere26 27 28 29

Robben und Rügge 1998, S. 133 Leroi-Gourhan 1988 Wehr und Weinmann 1999, McCullough 1996, MacKenzie und Iberall 1994 McCullough 1996, S. 1

285

FORMUNGEN DES COMPUTERS ALS MEDIUM

chenbare Zeichen, auch wenn sich das daraus entwickelnde Verständnis der Welt nicht auf berechenbare Zeichenprozesse reduzieren lässt. Das Erkenntnispotenzial einer natürlichen Umgebung auszunützen, und zwar in einer Weise, bei der die multimodalen handelnden Zugänge zur Welt erhalten bleiben und Kopplungen zu einer virtuellen Modellwelt ermöglicht werden, heißt nicht, die natürliche Umgebung vollständig in einem (mimetischen) virtuellen Modell zu erfassen. Bereit zu stellen sind „reichhaltige“ Übersetzungen von Notationen. Die Qualität der in unterschiedlicher Abstraktheit und Anschaulichkeit zur Verfügung gestellten Notationen und ihrer Übersetzungen ist entscheidend für die kognitive und emotionale Bereicherung und die Tiefe des Verständnisses für das Problem. „In einer iterativen Vorgehensweise, bei der sich Modellbildung, Modellexperiment und Modellbewertung abwechseln, können somit innerhalb derselben Entwurfsumgebung schrittweise Problemlösungen erarbeitet werden. Die dargestellte Vorgehensweise beim Modellieren durch gegenständliches Vormachen zeigt, wie multimodale Übergänge zwischen einer konkreten, stofflichen Welt mit ihren sinnlichen Elementen und einer abstrakten, virtuellen Modellwelt mit ihren formalen Strukturen möglich sind und real-technisch umgesetzt werden können: Die handgreifliche Modellierung bildet die Grundlage für kognitive Abstraktionsvorgänge, Denkprozesse und Begriffsbildungen. Gleichzeitig dienen die im Rechner generierten Modellbeschreibungen dazu, unterschiedlich abstrakte Repräsentationen und Visualisierungen des Modells zu erzeugen, um den Benutzer bei der Problemlösung zu unterstützen.“30

Im ursprünglichen Real Reality Konzept ist die Kopplung zwischen einem realen System in einer natürlichen Umgebung mit funktionalen Repräsentationen unidirektional. Aus dem handelnden Umgang mit dem realen System werden die virtuellen Modelle generiert. Allerdings ist es möglich daraus Daten zu generieren, die als Input für die Steuerung realer Computer gesteuerter Maschinen dienen. Mit dem Konzept der Hyper-Bonds wird das Real Reality Konzept um eine bidirektionale Kopplung zwischen dem realen System und seinen virtuellen Repräsentationen erweitert.31 Durch den handelnden Umgang mit visuell dargestellten Notationen lässt sich das reale System manipulieren und vice versa. Das Real Reality Konzept betont die Bedeutung des erfahrungsorientierten Handelns in einer natürlichen Umwelt, bei der Übersetzungen zu unterschiedlichen virtuellen Modellen möglich sind. Das verbindet es mit der sehr viel umfassenderen Vision des Ubiquitous Computing. 30 Müller und Bruns 2003, S. 10 31 Bruns 2001

286

KOMPOSITION VON REALITÄTEN

Ubiquitous Computing Den Begriff Ubiquitous Computing hat Mark Weiser geprägt als Gegenkonzept zu Virtual Reality und als Vision für den Computer des 21. Jahrhunderts „The most profound technologies are those that disappear. They weave themselves into the fabric of everyday life until they are indistinguishable from it.”32

Weiser hat richtig vorausgesehen, dass Computer sich immer weiter miniaturisieren und allgegenwärtig werden in internetfähigen Handys, Spielkonsonsolen, Personal Digital Assistents (PDAs) oder eingebettet in Haushaltsgeräten und Autos. „Ubiquitous computing enhances computer use by making computers available throughout the physical environment, while making them effectively invisible to the user.”33

Weisers Vorstellung des Ubiquitous Computing ist eine unaufdringliche dem Menschen dienende Technik. Sie wird unsichtbar, transparent, dafür aber allgegenwärtig. Ubiquitous Computing verwandelt die Wirklichkeit in ein Computer-Interface: Fenster öffnen sich automatisch, wenn die Luft im Zimmer stickig wird, Kühlschränke melden uns, dass die Milch sauer wird, die Kaffeemaschine kocht Kaffee, wenn wir aufwachen. Eine solche Vision einer dienenden Technik beobachtet und überwacht den Menschen ständig. Die physikalische Welt wird zu einem mediatisierten Ort, in dem jedes Objekt durch einen Informationsfluss mit einem anderen verbunden ist. „The question of the object does not need to arise, because with ubiquitous computing, we do not have to occupy different points of view. Instead, we stay put figuratively and even literally, while the computers bustle around – opening files, opening windows, switching cameras and sound systems on and off – to suit our needs.”34

In einer derart totalen Durchsetzung ware Ubiquitous Computing aber kein Medium mehr, sondern der Computer als allgegenwärtiger Steuerungsautomat.

32 Weiser 1991 33 Weiser 1993, S. 75 34 Bolter und Grusin 2000, S. 219

287

FAZIT: DAS RAUM-ZEIT DISPOSITIV VON ÜBERSETZUNGEN Der Computer lässt sich als universales Medium auffassen. Darunter ist keinesfalls ein Super-Gerät zu verstehen, das die Funktionen des Buches, Fernsehers, Fax, Plattenspielers und Telefons in sich vereinigt. Auch die alten Medien sind mehr als Geräte oder Gegenstände. Sie bilden Dispositive. Zum Beispiel zum Medium Fernsehen gehört nicht nur das im Wohnzimmer aufzustellende Artefakt. Es umfasst außerdem Fernsehstudios, Fernsehanstalten, die Gesetzgebung über öffentlich-rechtliches und privates Fernsehen, das in aller Welt verstreute Netz von Korrespondenten der Nachrichtensendungen, die Kultur von Talkmastern und Talkshows, die Rechte für Spielfilme, also eine Vielzahl von Institutionen, Regeln, Techniken, Praktiken, Ordnungen und Machtstrukturen, welche das Fernsehen, aber auch die Fernseh-Macher und die Fernseh-Zuschauer prägen. So verflechtet sich das Fernsehen mit dem Dispositiv des Radios, des Films und anderer Medien. Der Computer als Medium lässt sich nur schwer begreifen als die Summe der Dispositive von Einzelmedien. So konzeptualisiert wären seine vielfältigen Formen kaum noch in einem Begriff fassbar oder unter einer gemeinsamen Metapher vorstellbar. Die Art und Weise der Integration der Einzelmedien im Computer wird begreifbar, wenn man sich das Universal-Medium als eine Art verallgemeinerte Schrift vorstellt, die ich Notation genannt habe. Zentrale Erweiterung gegenüber der klassischen Schrift ist die Trennung von Archivfunktion (Kode) und Darstellung (Notat), wodurch ein kalkuliertes und kalkulierendes Prozessieren möglich wird. In Schriftstücken fixierte Reden bilden nach dem Prinzip der Verräumlichung von Zeit ein künstliches Gedächtnis des sprachlich formulierten Ausdrucks – so weit er aufgezeichnet ist. Notationen formen nach dem Prinzip des Wunderblocks ein künstliches Gedächtnis des medial konstruierten Ausdrucks – so weit er sich als Form einer berechenbaren Funktion darstellen lässt. Ein Schriftstück ist das abgeschlossene Ergebnis einer fixierten Übersetzung der zeitlichen Rede im Raum. Eine Notation prozessiert in einer medialen Raum-Zeit. Notationen repräsentieren nicht nur Information, sondern „verarbeiten“ sie, indem sie sie nach syntaktischen Regeln transformieren, übertragen, darstellen und speichern. Das Potenzial der Notation realisiert sich in vielfältigen Formen der Übersetzbarkeit. Das Medium ist zugleich Mittel, Mittler und Mittleres. Genau so wenig wie die Schrift ist die Notation nur ein Mittel oder Werkzeug. Beide sind keine bloßen technischen Instrumente, durch die Sachverhalte, deren Bedeutung immer gleich bleibt, in einem anderen, effekti-

289

FAZIT: DAS RAUM-ZEIT DISPOSITIV VON ÜBERSETZUNGEN

veren Code dargestellt würden. Nach Walter Benjamin drücken wir uns nicht durch Medien, sondern in ihnen aus. Sie bilden ein Mittleres, ein Milieu. Mit dem sich herausbildenden Medium Computer formt sich die Übersetzung zu einer neuen Kultur, in der es als Notation erst verständlich wird. Deshalb ist die Medialität des Computers nicht allein aus der Analyse seiner Eigenschaften und Funktionen zu bestimmen, sondern nur im Nachvollzug der Genese seines Dispositivs zu begreifen.

Das interaktive digitale Archiv der Übersetzungen Übersetzen setzt eine Leerstelle voraus, einen Riss im Sein, einen Unterschied, der einen Unterschied macht. Ausgangspunkt ist nicht ein grundlegendes Wesen oder eine Essenz, sondern eine Relation oder ein Verhältnis. Ein Erstes steht in einer solchen Beziehung zu einem Zweiten, dass es fähig ist, ein Drittes dahingehend zu bestimmen, in derselben triadischen Relation zu jener Relation auf das Zweite zu stehen, in der es selbst steht.1 In einer derart als rekursives Übersetzen konzipierten Semiose lässt sich das Medium Computer als algorithmisches Zeichen verstehen. Der Prozess der Semiose formt sich in kultureller Erfahrung. Übersetzungen bilden sich nicht allein durch die einfache Setzung der Differenz, etwas von etwas Anderem zu unterscheiden. Das Sich-vonsich-Unterscheiden verweist auf eine Verschiebung als ständigen Aufschub, auf ein raum-zeitliches Verhältnis der Differänz. Übersetzen ist nur möglich in einem Raum von Verweisungen. Dieser Raum wird aber erst durch Übersetzungen konstituiert. Die Differänz prozessierender Notation formt Übersetzungen als Zusammenwirken rein syntaktisch vermittelter Transformationen des Kodes und vielfältiger Übersetzungen prozessierter Notate. Übersetzungen zwischen Notationen strukturieren die Sphäre des Medialen neu. Notationen sind keine Instrumente, um Wahrheitsurteile zu treffen, sondern kommen als Medien zur Welt, zum natürlichen Feld und Milieu allen Denkens und aller ausdrücklichen Wahrnehmung. Ihre Notate drücken sich in unterschiedlichen Sinnesmodalitäten aus. Als prozessierende Relation des Kodes stellen sie keine Abbildung der Wirklichkeit dar, sondern Übersetzungen, die vielfache Stufen der Formalisierung und Berechnung durchlaufen. Syntaktisch und semantisch wird das Notat durch den Kode bestimmt. Kalkuliert und kalkulierend bilden sie gleichzeitig Partitur und Aufführung. Im Wirken wirft die Notation alle formalen Schalen ab. Programmierer verrichten ihre Arbeit des Schreibens von Notaten in konnotativ aufgeladenen Programmiersprachen und Programmierumgebungen. Sie 1

Vgl. Peirce 1983, S. 64

290

FAZIT: DAS RAUM-ZEIT DISPOSITIV VON ÜBERSETZUNGEN

weben durch Wiederverwendung, Kombination und Erweiterung schon programmierter Notationen neue Notate. Notationen formen ein Design möglicher Welten. Diese sind nicht nur passiv erfahrbar, sondern interaktiv erlebbar. Als prozessierende Relation verflechten sich das kalkülhaft Formale des Kodes und die metaphorische Kraft des Notats in einem unauflösbaren Band. Daraus erwächst der Begriff des Computers als Medium. In ihn übersetzt sich das medial darstellbare Wissen in ähnlicher Weise, wie sich das sprachlich darstellbare Wissen in die Schrift übersetzt. Jedoch enthält die Notation die Übersetzung in einem doppelten Wortsinne, nämlich als Prozess und Resultat des Übersetzens. Die Notation prägt ein Verständnis der Welt, bei dem Verstehen heißt, etwas Strukturiertes in etwas Strukturiertes zu übersetzen. Die Macht des formalen Kalküls, ein nach algorithmischen Regeln funktionierender Mechanismus des Rechnens bestimmt ein neues Dispositiv des Wissens. Populär ausgedrückt: Die Turing-Galaxis löst die GutenbergGalaxis ab. Notationen tragen wie Bücher zum kulturellen Gedächtnis bei. Sie bilden ein geschichtlich geprägtes und prägendes Medium der Übersetzungen. Schrift ist eine Form, Sprache auszudrücken. Gedachtes und Reflektiertes gerinnt in Texten. Der Umstand, dass der Text jede Zeitlichkeit der lebendigen Rede im toten statischen Raum fixiert, trägt ihn an jeden Ort und in die Zukunft. So entsteht das technische Archiv der Texte. Durch den Aufschub der Kommunikation strukturiert die Schrift ein künstliches Gedächtnis, das die methodisch und systematisch vorgehende Wissenschaft ermöglicht. Jedoch fehlt den Texten Alltagsklugheit. Wenn man sie nach ihrem Sinn befragt, bleiben sie stumm – so die bekannte Kritik Platos. Ihnen fehlt Interaktivität. Erst die Notation generiert Hypertexte, welche zu jeder Frage einen Link parat haben. Man kann bezweifeln, dass Notationen dadurch mit einer Klugheit und Intelligenz ausgestattet sind, die sie als technische Artefakte selbst zum situativen Handeln in allen Kontexten befähigt.2 Jedoch ist offensichtlich, dass Notationen unseren Alltag in einem sehr engmaschigen Netz durchdringen, in jeder Situation zur Interaktion einladend. Technisch vermittelte Interaktivität formt sich als ein Netz von Übersetzungen. Im Archiv der Schrift, der Bibliothek, muss das Schriftstück am wirklichen Ort gefunden werden. Schlagwortregister und Indexe ermöglichen ein strukturiertes Suchen. Im Archiv der Notation wird das Notationsstück virtuell mit Hilfe des Kodes in Echtzeit präsentiert. Suchmaschinen prozessieren ein strukturiertes Suchen in Form der Interaktion. Die Wirkungsweise des Archivs der Notation lässt sich ver2

Das war teilweise die Annahme der Artificial Intelligence-Forschung.

291

FAZIT: DAS RAUM-ZEIT DISPOSITIV VON ÜBERSETZUNGEN

stehen als die Form eines wirkenden Wunderblocks. Dauerspuren sind konzeptionell von der Oberfläche getrennt, auf der das Notat erscheint. Im Kode sind die Gedächtnisleistungen der phonetischen und der fotografischen Schrift, ja die aller alten Medien integriert. Anders als die phono- und kinematographischen Zeitmedien ermöglicht der Computer einen verweilenden, unterbrechenden und immer wieder aufschiebenden Umgang mit seinen Notationen. Tonbänder und Filme sind passiv zu konsumieren, das prozessierende Archiv des digitalen Mediums ist interaktiv zu erforschen. Genau wie der Leser eines Buches jederzeit innehalten kann, um das gerade Gelesene im Zusammenhang eigener Gedanken zu reflektieren, greift der Computer-Nutzer in das Prozessieren des Mediums ein. Anders als das Buch fordert der Computer ständig dazu auf, Eingaben zu machen, auf die hin der Rechner neue Darstellungen präsentiert. Der Mensch tritt mit dem digitalen Medium in eine technisch gesteuerte Interaktion. Auf diese Weise übersetzt der Computer für den Menschen zwischen einer unsinnlichen formalen Symbolwelt, die im Speicher der Maschine nach syntaktischen Regeln prozessiert und einer dadurch induzierten, wahrnehmbar dargestellten medialen Wirklichkeit. Die Notation ermöglicht einen reflexiven, durch das Formale hindurchgehenden, aber nicht auf das Formale beschränkten Weltzugang. Das digitale Archiv enthält potenziell die Funktionsweisen aller vorherigen Medien, soweit sie formalisierbar und berechenbar sind. Im Werden des Computers als Medium werden die Formate alter Medien in Notate übersetzt. In ihnen lagern sich alte Medien ab. Ihre Art des Meinens wird Bestandteil des Archivs. Dadurch verflechten sich ihre Formate zu neuartigen Formen der Übersetzung, die erst durch den Computer möglich werden. Es entsteht das interaktive Medium. Rechnergesteuert vermag es das Medium selbst, sich zu verhalten, erscheint es intelligent. „Der Geist wird zum Objekt technischer Manipulationen und daher simulierbar. Alle ‚mentalen‘ Funktionen angefangen von der Wahrnehmung bis zur Entscheidung (‚künstliche Intelligenz‘) werden von jetzt an objektivierbar, und das heißt vom Menschen auf andere Objekte übertragbar.“3

Diese Feststellungen Flussers sollte man nicht so verstehen, dass ab jetzt der Computer das Subjekt der Reflexion wäre. Er ist ihr Medium. Aber der in diesem Medium reflektierende Mensch ist nicht der Herr seiner Reflexion und Wahrnehmung, sondern dem Wirken medialer Differenzen unterworfen. Der Computer als Medium der Übersetzung befördert die Dekonstruktion der Dualismen Körper-Geist, Leib-Seele, SensiblesIntelligibles zu einer konstruktiven Differänz. 3

Flusser 1998b, S. 19

292

FAZIT: DAS RAUM-ZEIT DISPOSITIV VON ÜBERSETZUNGEN

Denken und Wahrnehmung sind immer von den Medien abhängig, in denen sie stattfinden. Andere Zeiten bringen nicht nur andere Kunstwerke und Schriftstücke hervor, sondern bilden auch eine spezifische Denk- und Wahrnehmungsstruktur. „Innerhalb großer geschichtlicher Zeiträume verändert sich mit der gesamten Daseinsweise der menschlichen Kollektiva auch die Art und Weise ihrer Sinneswahrnehmung. Die Art und Weise, in der die menschliche Sinneswahrnehmung sich organisiert – das Medium, in dem sie erfolgt – ist nicht nur natürlich, sondern auch geschichtlich bedingt.“4

Im Prozess des Werdens der Notation wird das auf Repräsentation beruhende Epistem abgelöst durch das Dispositiv der Übersetzbarkeit, durch eine Mimesis der unsinnlichen Ähnlichkeit.

Der neue Perzeptivitätsraum des Mediums der Übersetzung Der Computer als Medium bringt ein paradoxes Phänomen hervor: Prozessierende Logik erzeugt eine Bildwelt. „Wir denken nicht mehr numerisch, sondern in diesen ‚synthetischen‘ Codes.“5 Mit der Verbreitung des Computers vollzieht sich eine Wende zum Bild. Damit ist keine Rückkehr zu naiven Mimesis-, Abbild- oder Korrespondenztheorien der Repräsentation gemeint. Eher geht es um die Entdeckung des Ausdrucksvermögens des Bildes gleichwertig zu dem der Sprache. Der linguistic turn wird durch einen iconic turn modifiziert, aber nicht abgelöst. Gegenüber der breit vertretene These des iconic turn vertrete ich eine grundsätzlichere These einer allgemeineren Wende: Seit Ende des 19. und im Verlauf des 20. Jahrhunderts ändert sich die Form unseres Sehens, und zwar vom perspektivischen Sehen zum Aspekt-Sehen. Perspektivisches Sehen ist eine „Durchsehung“ durch ein „Fenster“ auf die Welt als Gestaltung „eines völlig rationalen, d.h. unendlichen, stetigen und homogenen, kurz rein mathematischen Raumes“.6 Ein Sehen von Aspekt-Wechseln ist dagegen nur möglich als Reflexion in der RaumZeitlichkeit der Differänz. Die Bildlichkeit der Notation konfiguriert diese Wende im medial geprägten Sehen. Sprachliches und Bildliches verflechtet sich in der Notation unauflöslich. Als Notation produzierte Bilder sind nicht perspektivisch zu durchschauen, sondern in ihrer Bedeutung wahrnehmend zu durchdenken. Der Gesichtssinn ermöglicht, „zu einer in dem sinnlichen Stoff selbst sich darstellenden Ausdrucksform zu gelangen“.7 Auge und Hand produzieren auf spezifische Weise sichtbare Medialität gemäß der sich 4 5 6 7

Benjamin 1991b, S. 478 Flusser 1998b, S. 25 Panofsky 1992 Fiedler 1991, S. 158

293

FAZIT: DAS RAUM-ZEIT DISPOSITIV VON ÜBERSETZUNGEN

wandelnden skopischen Ordnung der Sichtbarkeit. Die Perspektive als symbolische Form prägt das (Bild-)Sehen der Neuzeit. Heute wird die Form des perspektivischen Sehens aufgehoben im Dispositiv des AspektSehens. Nach Wittgenstein ist damit ein Sehen als gemeint, ein Changieren zwischen Sehen und Denken. Dabei „erscheint das Aufleuchten des Aspekts halb Seherlebnis, halb ein Denken“8. Was Wittgenstein zunächst an einem Vexierbild erläutert – das als Hasenkopf oder als Entenkopf gesehen werden kann – deute ich allgemeiner als neue symbolische Form heutiger Konstruktionen von Sichtbarkeiten, welche die neuzeitliche Perspektive ablösen. Das perspektivische Sehen als Blick durch ein Fenster auf eine homogen gedachte Wirklichkeit kennt zwar auch den Standpunkt-Wechsel, aber nicht den Aspekt-Wechsel als Form des Sehens. Aspekt-Sehen repräsentiert nicht Wirklichkeit, sondern reflektiert sie in einer Reflexion, die durch keinen Spiegel vermittelt wird. Das Dispositiv des Aspekt-Sehens verdankt sein Entstehen paradoxerweise den Techniken des fotografischen und kinematographischen Bildes, welche das Konstruktionsprinzip der Perspektive in einer technischen Form materialisieren. Das neue Dispositiv entfaltet sich mit dem Zeitalter der Reproduzierbarkeit des Kunstwerks und findet in der immateriellen Produzierbarkeit seine Form der chiastischen Verflechtung des Sprachlichen und Bildlichen. Zu sehen ist das, was erkennbar ist. Nicht mehr das Auge, sondern das Gehirn gilt nun als wichtigstes Organ des Sehens. Dem perspektivischen Sehen entspricht das Tafelbild der Darstellung einer vermessenen Wirklichkeit, dem Aspekt-Sehen das Computerbild der programmierten Visualisierung eines Modells der Wirklichkeit. Einschneidend neu am Computerbild ist seine Darstellung von Raum und Zeit. Das Tafelbild zeigt im sichtbaren Bildraum geronnene Zeit. Der abstrakte Raum des Kodes dagegen eröffnet ein Spiel von Übersetzungen zwischen Kode und Notat. Die im Kode programmierten Repräsentationen abstrakter mathematischer Räume prozessieren bildliche Notate einer künstlichen Raum-Zeit. Betrachter interagieren mit nach Kalkülregeln generierter raumzeitlicher Bildlichkeit. Der Kode eines Würfels (re-)präsentiert nicht eine Ansicht, die dem Auge als dreidimensionales Objekt erscheint, sondern einen virtuellen Würfel. Ein nur im Computerbild möglicher Wechsel des Blickwinkels erhält seine Bedeutung im Zwischen von Kode und Notat. Das Bild als Notat zeigt prozessierend Aspekte der Welt in der Form der Visualisierung eigentlich unsichtbarer Eigenschaften und diskursiver Beziehungen. Ein von digitalen Bildern formiertes Sehen blickt nicht mehr durch ein Fenster auf 8

Wittgenstein 1984b, S. 525.

294

FAZIT: DAS RAUM-ZEIT DISPOSITIV VON ÜBERSETZUNGEN

eine vorgegebene Wirklichkeit. Stattdessen enthüllt technisch projizierte Perzeptivität eine diskursive Struktur auf dem Schirm in vielfältigen Aspekt-Wechseln. Durch die Syntax formaler Sprachen werden Bilder der Phantasie konstruiert. Programmierte Bilder sind kein Abbild, sondern werden zum Vorbild wirklicher Gegenstände. Diese Wende zum Bild konfiguriert ein mimetisches Sehen als – eine programmierte Mimesis der unsinnlichen Ähnlichkeit. Es entsteht ein neuartiges Potenzial des Denkens mit dem Auge, für das ich zwei Formen der Reflexion in bildhaften Darstellungen ausgemacht habe: erstens die Visualisierung von Information, die Übersetzung von abstrakten unsichtbaren Relationen in visuelle bildhafte Darstellungen und zweitens die Technik einer Indexikalität zweiter Stufe, eine neuartige Form der Sichtbarkeit als Spuren einer unsichtbaren nur auf Theorie zu gründenden Materialität. In der medialen Wirklichkeit der Notation formt sich nicht nur ein Sehen als, sondern auch ein Handeln als. Notationen bilden Simulationen. Die Mimesis von Computer-Simulationen lässt sich jedoch nicht als Nachahmung der Natur begreifen. Implementierte Theorie verwirklicht die programmierte Konstruktion medialen Welten. Anders als alle bisherigen Schrift- und Bildmedien ermöglichen Computer-Simulationen ein virtuelles Probehandeln durch Interaktion mit dem System. Als eine Art technischer Hypotypose formen sie die Ästhetik (im Sinne von lH$=H>0 und Wahrnehmung) einer Virtual Reality. Es entsteht eine mediale Perzeptivität, eine vorgeschriebene Anschauung durch die Erzeugung programmierter Welten. Derartige virtuelle Welten haben eine besondere Evidenz. Man betrachtet sie nicht distanziert, man „taucht in sie ein“. Sie sind nicht rein visuell, sondern multimodal. Prozessierende Notationen schreiben die Perzeption in der medialen Sphäre vor. Der Computer als Medium konfiguriert das Dispositiv einer neuen medialen Raum-Zeitlichkeit. Dieses wird strukturiert durch vielfältige Formen der Übersetzung. Die Übersetzung von der Schrift zur Notation scheint die Metapher vom Buch der Natur in die Metonymie der programmierten Natur zu transformieren. Während der Philosoph Vilem Flusser hier eine neuartige Menschwerdung im Übergang vom Subjekt zum Projekt prognostizierte, schrieb der mehr am konkreten technischen Design interessierte Forscher Alan Kay im Jahre 1977: „Although digital computers were originally designed to do arithmetic computation, the ability to simulate the details of any descriptive model means that the computer, viewed as a medium itself, can be all other media if the embedding and viewing methods are sufficiently well provided. Moreover,

295

FAZIT: DAS RAUM-ZEIT DISPOSITIV VON ÜBERSETZUNGEN this new ‚metamedium‘ is active – it can respond to queries and experiments.”9

Den Computer als Medium aufzufassen, heißt gleichzeitig, ihn anders zu verstehen als die bisherigen technischen Medien. Er ist ein Metamedium, ein Medium des Mediums. Oder anders ausgedrückt: Der Computer als Medium ist eine Notation für Übersetzungen.

9

Kay und Goldberg 2003, S. 393f

296

LITERATUR Aarseth, E. J. 1994. Nonlinearity and Literary Theory. In: Landow, G. P. (Hg.). Hyper/Text/Theory. Baltimore & London Abmayr, W. 1994. Einführung in die digitale Bildverarbeitung. Stuttgart Aho, A. V., R. Sethi und J. D. Ullman 1988. Compilerbau. Bonn et al. Original: Compiler. Principles, Techniques and Tools, Bell Telephone Laboratories 1986 Amelunxen, H. 1988. Die aufgehobene Zeit. Berlin Anders, G. 1987. Die Antiquiertheit des Menschen. Band II. Über die Zerstörung des Lebens im Zeitalter der dritten industriellen Revolution. München Anderson, P. B. 1997. A Theory of Computer Semiotics. Cambridge, MA Apostolidès, J.-M. 1993. Der Bereich des Imaginären. In: Gumbrecht, H. U. und K. L. Pfeiffer (Hg.). Schrift. München Arijon, D. 2003. Grammatik der Filmsprache. Hamburg. Original: Grammar of the Film Language, Focal Press, Boston 1976 Aristoteles 1993. Die Poetik. Stuttgart Aristoteles 1995. Metaphysik. Philosophische Schriften, Band 5. Hamburg Arnauld, A. 1972. Die Logik oder die Kunst des Denkens. Darmstadt Arnheim, R. 1996. Anschauliches Denken. Zur Einheit von Bild und Begriff. Köln. Original: 1969 The Regents of the University of California Arnheim, R. 2000. Kunst und Sehen. Eine psychologische Studie des schöpferischen Auges. Berlin und New York. Original: Art and Visual Perception. A Psychology of the Creative Eye, Regents of the University of California, Berkeley und Los Angeles 1954 Asby, W. R. 1974. Einführung in die Kybernetik. Frankfurt/M. Original: An Introduction to Cybernetics, 1956 Assmann, A. und D. Harth (Hg.)1991. Mnemosyne. Formen und Funktionen der kulturellen Erinnerung. Frankfurt/M. Assmann, A. u. J. und C. Hardmeier (Hg.)1993. Schrift und Gedächtnis. Archäologie der literarischen Kommunikation. München Assmann, A. u. J. (Hg.) 1993. Gedächtnis und Erinnern. Schrift und Gedächtnis Archäologie der der literarischen Kommunikation. München Assmann, J. 1992. Das kulturelle Gedächtnis. Schrift, Erinnerung und politische Identität in frühen Hochkulturen. München Assmann, J. und T. Hölscher (Hg.)1988. Kultur und Gedächtnis. Frankfurt/M. Astheimer, P., K. Böhm, et al. 1994a. Die virtuelle Umgebung. Eine neue Epoche in der Mensch-Maschine Kommunikation. Teil I: Einordnung, Begriffe und Geräte. Informatik Spektrum Band 17, Heft 5 Astheimer, P., K. Böhm, et al. 1994b. Die virtuelle Umgebung. Eine neue Epoche in der Mensch-Maschine Kommunikation. Teil II: Interaktions- und Präsentationstechniken. Informatik Spektrum Band 17, Heft 6 Augé, M. 1994. Orte und Nicht-Orte. Frankfurt/M. Original: Non-Lieux. Introduction à une anthropologie de la surmodernité, Paris 1994 Austin, J. L. 1986. Zur Theorie der Sprechakte. Stuttgart. Original: How to Do Things with Words, Harvard, 1975 Azuma, R. Y. Bailot, et al. 2001. Recent Advances in Augmented Reality. IEEE Computer Graphics and Applications November/December 2001 Balázs, B. 2001. Der sichtbare Mensch. Oder die Kultur des Films. Frankfurt/M. Original: Deutsch-Österreichischer Verlag 1924

297

LITERATUR Barck, K. et al. (Hg.) 1990. Aisthesis. Wahrnehmung heute oder Perspektiven einer anderen Ästhetik. Leipzig Barlow, J. P. 1996. Unabhängigkeitserklärung des Cyberspace, Barrow, J. D. 2001. Ein Himmel voller Zahlen. Auf den Spuren mathematischer Wahrheit. Reinbek bei Hamburg. Original: Pi in the Sky, Oxford University Press, Oxford und New York 1992 Barthes, R. 1989. Die helle Kammer - Bemerkungen zur Photographie. Frankfurt/M. Original: La chambre claire. Note sur la photographie, Paris 1980 Barthes, R. 1990. Der entgegenkommende und der stumpfe Sinn. Frankfurt/M. Bateson, G. 1985. Ökologie des Geistes. Anthropologische, psychologische, biologische und epistemologische Perspektiven. Frankfurt/M. Baudrillard, J. 1978. Agonie des Realen. Berlin Bauer, F. L. 2004. Sackgassen und Durchbrüche. Informatik Spektrum Band 27 (Heft 4, August 2004): S. 354-359 Baxandall, M. 1988. Die Wirklichkeit der Bilder. Malerei und Erfahrungen im Italien des 15. Jahrhunderts. Frankfurt/M. Original: Painting and Experience in 15th Century Italy. A Primer in the Social History of Pictorial Style, Oxford University Press 1972 Baxandall, M. 1998. Löcher im Licht. München. Original: Shadows and Enlightment, Yale Universtity Press 1995 Beilenhoff, W. 1991. Licht – Bild – Gedächtnis. In: Haverkamp, A. und R. Lachmann (Hg.). Gedächtniskunst-Raum-Bild-Schrift. Studien zur Mnemotechnik. Frankfurt/M. Belting, H. 2000. Bild und Kult. Eine Geschichte des Bildes vor dem Zeitalter der Kunst. München Belting, H. 2001. Bild-Anthropologie. Entwürfe für eine Bildwissenschaft. München Benedikt, M. (Hg.) 1991. Cyberspace: First Steps. Cambridge, MA und London Benjamin, W. 1991a. Berliner Kindheit 1900. Fassung letzter Hand. In: Benjamin, W. Gesammelte Schriften, Band VII, 1. Frankfurt/M. Benjamin, W. 1991b. Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit. In: Benjamin, W. Gesammelte Werke, Band I, 2. Frankfurt/M. Benjamin, W. 1991c. Das Passagenwerk. In: Benjamin, W. Gesammelte Schriften, Band V. Frankfurt/M. Benjamin, W. 1991d. Die Aufgabe des Übersetzers. In: Benjamin, W. Kleine Prosa. Baudelaire-Übertragungen. Gesammelte Schriften IV-1. Frankfurt/M. Benjamin, W. 1991e. Kleine Geschichte der Photographie. In: Benjamin, W. Gesammelte Schriften II,1. Frankfurt/M. Benjamin, W. 1991f. Probleme der Sprachsoziologie. Ein Sammelreferat. In: Benjamin, W. Gesammelte Werke, Band III. Frankfurt/M. Benjamin, W. 1991g. Über das mimetische Vermögen. In: Benjamin, W. Gesammelte Schriften II, 1. Frankfurt/M. Benjamin, W. 1991h. Über das Programm der kommenden Philosophie. In: Benjamin, W. Gesammelte Schriften, Band II,1. Frankfurt/M. Benjamin, W. 1991i. Über Sprache überhaupt und über die Sprache des Menschen. In: Benjamin, W. Gesammelte Schriften, Band II,1. Frankfurt/M. Benjamin, W. 1991j. Ursprung des deutschen Trauerspiels. In: Benjamin, W. Gesammelte Schriften, Band I,1. Frankfurt/M. Bergson, H. 1914. Schöpferische Entwicklung. Jena Bergson, H. 1991. Materie und Gedächtnis. Eine Abhandlung zwischen Körper und Geist. Hamburg. Original: Matière et Mémoire, Paris 1896

298

LITERATUR Berners-Lee, T., R. Cailiau, et al. 1994. The World-Wide-Web. Communications of the ACM, 37(8) Bertin, J. 1974. Graphische Semiologie, Diagramme, Netze, Karten. Berlin und New York. Original: Sémiologie graphique, Edition Gauthier-Villars, Paris 1967 Bischoff, J. P. 1990. Versuch einer Geschichte der Rechenmaschine. München. Original: Ansbach 1804 Blumenberg, H. 1986. Die Lesbarkeit der Welt. Frankfurt/M. Bock, W. 2000. Walter Benjamin – Die Rettung der Nacht. Sterne, Melancholie und Messianismus. Bielefeld Boehm, G. 1995. Die Wiederkehr der Bilder. In: Boehm, G. (Hg.). Was ist ein Bild? München Böhle, F. und B. Milkau 1988. Vom Handrad zum Bildschirm. Eine Untersuchung zur sinnlichen Erfahrung im Arbeitsprozeß. Frankfurt/M. Bolter, J. D. 1991. Writing Space. The Computer, Hypertext and the History of Writing. Hillsdale Bolter, J. D. und R. Grusin 2000. Remediation. Understanding Media. Cambridge, MA und London Bolz, N. 1991. Eine kurze Geschichte des Scheins. München Bolz, N., F. Kittler und C. Tholen, (Hg.) 1994. Computer als Medium. München Borck, C. 2001. Die Unhintergehbarkeit des Bildschirms. In: Heintz, B. und J. Huber (Hg.). Mit dem Auge denken. Strategien der Sichtbarmachung in wissenschaftlichen und virtuellen Welten. Zürich und New York Borges, J. L. 1992. Das Buch. In: Borges, J. L. Die letzte Reise des Odysseus. Frankfurt/M. Brauer, V. 1999. Gegenständliche Benutzungsschnittstellen für die MenschComputer-Interaktion. Dissertation, Universität Bremen Brauner, C. 1991. Samuel F.B. Morse - Eine Biographie. Basel. Basiert auf: C. Mabbe, The American Leonardo - A Life of Samuel F.B. Morse Breidbach, O. 1999. Die Innenwelt der Außenwelt. Weltkonstitution im Hirngewebe? Zur Konturierung einer neuronalen Ästhetik. In: Breidbach, O. und K. Clausberg (Hg.). Video ergo sum. Repräsentationen nach innen und außen zwischen Kunst- und Neurowissenschaften. Hamburg Breidbach, O. und K. Clausberg (Hg.) 1999. Video ergo sum. Repräsentationen nach innen und außen zwischen Kunst- und Neurowissenschaften. Hamburg Bröcker, M. 2000. Sprache. In: Opitz, M. und E. Wizisla (Hg.). Benjamins Begriffe. Zweiter Band. Frankfurt/M. Brumlik, M. 1994. Schrift, Wort und Ikone. Wege aus dem Bilderverbot. Frankfurt/M. Bruns, F. W. 1993. Zur Rückgewinnung von Sinnlichkeit - Eine neue Form des Umgangs mit Rechnern. Technische Rundschau Heft 29/30, 85. Jahrgang Bruns, F. W. 1996. Grasping, Communicating, Understanding. Connecting Reality and Virtuality. AI & Society, 10, Nr.1: S. 6-14 Bruns, F. W. 2001. Hyper-Bonds – Enabling Mixed Reality. Bremen Bruns, F. W., A. Heimbucher und D. Müller 1993. Ansätze einer erfahrungsorientierten Gestaltung von Rechnersystemen für die Produktion. Exemplarische Darstellung der Bereiche Konstruktion und Fertigung. Bremen, artec paper 21 Bryson, N. 2001. Das Sehen und die Malerei. Die Logik des Bildes. München. Original: Vision and Painting. The Logic of the Gaze, Yale University Press, New Haven 1983 Bühler, K. 1990. Sprachtheorie. Stuttgart. Original: Sprachtheorie: d. Darstellungsfunktion d. Sprache, Fischer, Jena 1934

299

LITERATUR Burdea, G. C. 1996. Force and Touch Feedback for Virtual Reality. New York, et al. Bush, V. 2003. As We May Think. In: Wardrip-Fruin, N. und N. Montfort (Hg.). theNewMediaReader. Cambridge, MA und London. Original: Atlantic Monthly, 176 (1): 101-108 (July 1945) Capurro, R. 1978. Information. Ein Beitrag zur etymologischen und ideengeschichtlichen Begründung des Informationsbegriffs. München, et al. Card, S. K., J. D. Mackinlay und B. Shneiderman (Hg.) 1999. Information Visualization. Using Vision to Think. San Francisco Carr, K. und R. England (Hg.) 1995. Simulated and Virtual Realities. Elements of Perception. London und Bristol Casati, R. 2001. Die Entdeckung des Schattens. Berlin. Original: La scoberta dell’ombra Cassirer, E. 1997. Philosophie der symbolischen Formen. Dreibändige Ausgabe: Bd. 1 Die Sprache, Bd. 2 Das mythische Denken, Bd. 3 Phänomenologie der Erkenntnis. Darmstadt Chomsky, N. 1973. Aspekte der Syntaxtheorie. Frankfurt/M. Original: Aspects of the Theory of Syntax Chomsky, N. 1981. Regeln und Repräsentationen. Frankfurt/M. Original: Rules and Representations, Columbia University Press 1980 Couchot, E. 1993. Zwischen Reellem und Virtuellem: die Kunst der Hybridation. In: Rötzer, F. und P. Weibel (Hg.). Cyberspace. Zum medialen Gesamtkunstwerk. München Coulmas, F. 1982. Über Schrift. Frankfurt/M. Coy, W. 1992. Für eine Theorie der Informatik. In: Coy, W., F. Nake, J.-M. Pflüger, et al. Sichtweisen der Informatik. Braunschweig und Wiesbaden Coy, W. 1993a. Der diskrete Takt der Maschinerie. In: Tholen, C., M. O. Scholl und M. Heller (Hg.). Zeitreise. Bilder/Maschinen/Strategien/Rätsel. Zürich Coy, W. 1993b. Reduziertes Denken. Informatik in der Tradition des formalistischen Forschungsprogramms. In: Schefe, P., Hastedt, Heiner, Dittrich, Yvonne, Keil, Geert. Informatik und Philosophie. Mannheim, Leipzig, Wien, Zürich Coy, W. 1994a. Aus der Vorgeschichte des Mediums Computer. In: Bolz, N., Kittler, Friedrich, Tholen, Christoph. Computer als Medium. München Coy, W. 1994b. Gutenberg & Turing. Fünf Thesen zur Geburt der Hypermedien. Zeitschrift für Semiotik Band 16 - Heft 1-2, S. 69-74 Coy, W. 1995a. Automat - Werkzeug - Medium. Informatik Spektrum 18: S. 31-38 Coy, W. 1995b. Die Turing-Galaxis. Computer als Medien. In: Dencker, K. P. Weltbilder-Bildwelten - Computergestützte Visionen. Hamburg Coy, W. 2000. Die visuelle Logik der Maschine. Bilder im Zeitalter ihrer technischen Produzierbarkeit. http://waste.informatik.hu-berlin.de/Forschung/VisArg/Visuelle_Logik.pdf Coy, W. 2002. Die Konstruktion technischer Bilder – eine Einheit von Bild, Schrift und Zahl. http://waste.informatik.hu-berlin.de/Forschung/VisArg/Konstruktion.html Coyne, R. 1995. Designing Information Technology in the Postmodern Age. From Method to Metaphor. Cambridge, MA Damisch, H. 1995. The Origin of Perspective. Cambridge, MA. Original: L’Origine de la perspective, Flammarion, Paris 1987 Därmann, I. 1995. Tod und Bild. Eine phänomenologische Mediengeschichte. München Debray, R. 1994. Vida y muerte de la imagen. Historia de la mirada en Occidente. Barcelona, Buenos Aires und México. Original: Vie et mort de l’image. Une histoire du regard en Occident, Editions Gallimard, Paris 1992

300

LITERATUR Debray, R. 2003. Einführung in die Mediologie. Bern, Stuttgart, Wien. Original: Introduction à la Médiologie, Presses Universitaires de France, 2000 Deleuze, G. 1991. Was ist ein Dispositiv. In: Ewald, F. und B. Waldendfels (Hg.). Spiele der Wahrheit. Michel Foucaults Denken, Frankfurt/M. Deleuze, G. 1997. Tausend Plateaus. Kapitalismus und Schizophrenie. Berln. Original: Mille plateaux, Les Éditions de Minuit, Paris 1980 Deleuze, G. 1998. Das Bewegungsbild. Kino 1. Frankfurt/M. Original: Cinema 1. L’image-mouvement, Les Editions de Minuit, Paris 1983 Deleuze, G. 1999. Das Zeit-Bild. Kino 2. Frankfurt/M. Original: Cinema 2. L’image-temps, Les Editions de Minuit, Paris 1985 Deleuze, G. und F. Guattari 2000. Was ist Philosophie? Frankfurt/M. Original: Q’est-ce que la philosophie?, Les Éditions de Minuit, 1991 Dencker, K. P. (Hg.) 1995. Weltbilder-Bildmedien. Computergestützte Visionen. Hamburg Denning, P. J. 2002. When IT Becomes a Profession. In: Denning, P. J. E. The Invisible Future. The Seamless Integration of Technology into Everyday Life. New York, et al. Denning, P. J. und R. M. Metcalfe (Hg.) 1997. Beyond Calculation. The Next Fifty Years of Computing. New York Derrida, J. 1983. Grammatologie. Frankfurt/M. Original: De la grammatolgie, Les Éditions de Minuit, Paris 1967 Derrida, J. 1987. Husserls Weg in die Geschichte am Leitfaden der Geometrie. Ein Kommentar zur Beilage III der Krisis. München. Original: Edmund Husserl, l’origine de la géométrie. Traduction et introduction par Jacques Derrida, Presses Universitaires de France, 1962 Derrida, J. 1993. Platons Pharmazie (Auszüge). In: Regehly, T. et al. (Hg.). Text Welt. Karriere und Bedeutung einer grundlegenden Differenz. Gießen Derrida, J. 1995a. Dissemination. Wien. Original: La dissémination, Editions des Seuil Derrida, J. 1995b. Marx’ Gespenster. Frankfurt/M. Original: Spectres de Marx Derrida, J. 1997. Babylonische Türme. Wege. Umwege. Abwege. In: Hirsch, A. (Hg.). Übersetzung und Dekonstruktion. Frankfurt/M. Derrida, J. 1999a. Die différance. In: Derrida, J. Randgänge der Philosophie. Wien Derrida, J. 1999b. Randgänge der Philosophie. Wien. Original: Marges de la philosophie, Éditions de Minuit, Paris 1972 Didi-Huberman, G. 1999a. Ähnlichkeit und Berührung. Achäologie, Anachronismus und Modernität des Abdrucks. Köln Didi-Huberman, G. 1999b. Was wir sehen blickt uns an. Zur Metapsychologie des Bildes. München. Original: Ce que nous voyons, ce qui nous regard, Les Editions de Minuit, 1992 Die Bibel 1980. Altes und Neues Testament. Einheitsübersetzung. Freiburg, Basel, Wien Dirscherl, K. 1988. Cent pour-cent parlant. Oder wie der französische Tonfilm der 30er Jahre die Wirklichkeit suchte und das Theater erfand. In: Gumbrecht, H. U. und K. L. Pfeiffer (Hg.). Materialität der Kommunikation. Frankfurt/M. Dorn, M. 1994. Film. In: Faulstich, W. (Hg.). Grundwissen Medien. München Dotzler, B. J. 1996. Papiermaschinen. Versuch über Communication & Control in Literatur und Technik. Berlin Draaisma, D. 1999. Die Metaphernmaschine. Eine Geschichte des Gedächtnisses. Darmstadt. Original: De Metaforenmachine. Een Geschiedenis van het geheugen, Historische Uitgeverij, Groningen 1995

301

LITERATUR Dröge, F. und G. G. Kopper 1991. Der Medienprozess. Zur Struktur innerer Errungenschaften der bürgerlichen Gesellschaft. Opladen Druckrey, T. (Hg.) 1996. Electronic culture. Technology and Visual Representation. New York Duden 1974. Das Fremdwörterbuch. Mannheim, Wien, Zürich Duden 1989. Das Herkunftswörterbuch. Etymologie der deutschen Sprache. Mannheim, Wien, Zürich Duden, B. 1991. Der Frauenleib als öffentlicher Ort. Vom Mißbrauch des Begriffs des Lebens. Hamburg Dyson, E., G. Gilder, G. Keyworth und A. Toffler 1996. Ein Magna Charta für das Zeitalter des Wissens. In: Bollmann, S. und C. Heibach (Hg.). Kursbuch Internet, Anschlüsse an Wirtschaft und Politik, Wissenschaft und Kultur. Mannheim Eco, U. 1994. Die Suche nach der vollkommenen Sprache. München. Original: La ricera della lingua perfetta nella cultura europea, Laterza, Rom Bari 1993 Eisenstein, E. 1983. The Printing Revolution in Early Modern Europe. Cambridge MA Eisenstein, S. M. 1995. „E!“ Zur Reinheit der Kinosprache. In: Albersmeier, F. J. (Hg.). Texte zur Theorie des Films. Stuttgart. Original: 1934 Elkins, J. 1998. On Pictures and the Words That Fail Them. Cambridge Elkins, J. 1999. The Domain of Images. Ithaca und London Engesser, H. 1993. Duden Informatik. Ein Sachlexikon für Studium und Praxis. Mannheim Erickson, T. D. 1990. Working with Interface Metaphors. In: Laurel, B. (Hg.). The Art of Human Computer Interface Design. Reading MA et al. Ernst, W. 1988. (In)Differenz. Zur Extase der Originalität im Zeitalter der Fotokopie. In: Gumbrecht, H. U. und K. L. Pfeiffer (Hg.). Materialität der Kommunikation. Frankfurt/M. Faßler, M. 2002. Bildlichkeit. Navigationen durch das Repertoire der Sichtbarkeit. Wien, Köln und Weimar Faulstich, W. 1994. Grundwissen Medien. München Fellmann, F. 1997. Wovon sprechen die Bilder? Aspekte der Bild-Semantik. In: Recki, B. und L. Wiesing (Hg.). Bild und Reflexion. München Fiedler, K. 1991. Über den Ursprung der künstlerischen Tätigkeit. München Fishwick, P. A. 1995. Simulation Model Design and Execution. Building Digital Worlds. Eaglewood Cliffs, NJ Fishwick, P. A. 2003. Aesthetic Computing: Making Artistic Mathematics&Software. http://www.cise.ufl.edu/~fishwick Flichy, P. 1994. Tele-Geschichte der modernen Kommunikation. Frankfurt/M. und New York. Original: Une histoire de la communication moderne, Paris 1991 Flusser, V. 1991. Digitaler Schein. In: Rötzer, F. (Hg.). Digitaler Schein. Ästhetik der elektronischen Medien. Frankfurt/M. Flusser, V. 1992. Für eine Philosophie der Photographie. Göttingen Flusser, V. 1994. Abbild - Vorbild. In: Haart Nibbrig, C. L. Was heißt „Darstellen“. Frankfurt/M. Flusser, V. 1998a. Medienkultur. Frankfurt/M. Flusser, V. 1998b. Vom Subjekt zum Projekt. Menschwerdung. Frankfurt/M. Folberth, O. G. und C. Hackl 1986. Der Informationsbegriff in Technik und Wissenschaft. München und Wien Földes-Papp, K. 1987. Vom Felsbild zum Alphabet. Die Geschichte der Schrift. Stuttgart und Zürich Foley, J. D., A. v. Dam, S. K. Feiner und J. Hughes 1990. Computer Graphics. Principles und Practice. Reading MA et al.

302

LITERATUR Forschungsgruppe Telekommunikation (Hg.) 1989. Telefon und Gesellschaft. Beiträge zu einer Soziologie der Telekommunikation. Berlin Foucault, M. 1973. Archäologie des Wissens. Frankfurt/M. Original: L’archéologie du savoir Foucault, M. 1974. Die Ordnung der Dinge. Eine Archäologie der Humanwissenschaften. Frankfurt/M. Original: Les mots et les choses, Editions Gallimard, Paris 1966 Foucault, M. 1978. Dispositive der Macht. Über Sexualität, Wissen und Wahrheit. Berlin Foucault, M. 1993. Vorrede zur Überschreitung. In: Foucault, M. Von der Subversion des Wissens. Frankfurt/M. Original: Préface à la transgression; in: Critique Nr.195/196, 1963 Foucault, M. 1997. Dies ist keine Pfeife. Mit zwei Briefen und vier Zeichnungen von René Magritte. München und Wien. Original: Ceci n’est pas une pipe, Paris 1973 Foucault, M. o.D. Die Wörter und die Bilder. In: Seitter, W. Das Spektrum der Genealogie. Frankfurt/M. Freud, S. 1920. Jenseits des Lustprinzips. In: Freud, S. Gesammelte Werke, Band 13. Frankfurt/M. Freud, S. 1969. Das Unbehagen in der Kultur. In: Freud, S. Studienausgabe, Band IX. Frankfurt/M. Freud, S. 1982. Notiz über den „Wunderblock“. In: Freud, S. Studienausgabe Band III. Frankfurt/M. Freud, S. 1987. Entwurf einer Psychologie. Frankfurt/M. Freud, S. 1992. Zur Auffassung der Aphasien. Frankfurt/M. Freund, G. 1979. Photographie und Gesellschaft. Reinbek bei Hamburg Frey, H. J. 2001. Die Sprache und die Sprachen in Benjamins Übersetzungstheorie. In: Hart Nibbrig, C. L. Übersetzen: Walter Benjamin. Frankfurt/M. Friedewald, M. 1999. Der Computer als Werkzeug und Medium. Berlin, Diepholz Fuchs, C. und W. Hofkirchner 2003. Studienbuch Informatik und Gesellschaft. Wien Galison, P. 1997. Image and Logic. A Material Culture of Microphysics. Chicago und London Galison, P. 2003. Einstein’s Clocks, Poincaré’s Maps. Empires of Time. New York und London Gasché, R. 1994. Überlegungen zum Begriff der Hypotypose bei Kant. In: Haart Nibbrig, C. L. Was heißt „Darstellen“. Frankfurt/M. Gebauer, G. und C. Wulf 1992. Mimesis. Kultur-Kunst-Gesellschaft. Reinbek bei Hamburg Geimer, P. 2002. Ordnungen der Sichtbarkeit. Fotografie in der Wissenschaft, Kunst und Technologie. Frankfurt/M. Gelb, I. J. 1958. Von der Keilschrift zum Alphabet. Stuttgart. Original: A Study of Writing Genette, G. 2001. Mimologiken. Reise nach Kratylien. Frankfurt/M. Original: Mimologique - Voyage en Cratylie, Editions du Seuil, Paris 1976 Genth, R. und J. Hoppe 1986. Telephon - Der Draht, an dem wir hängen. Berlin Genzmer, H. 2003. Rhetorik. Die Kunst der Rede. Köln Gibson, W. 1994. Neuromancer. München Giesecke, M. 1991. Der Buchdruck in der frühen Neuzeit - Eine historische Fallstudie über die Durchsetzung neuer Informationstechnologie. Frankfurt/M. Gödel, K. 1931. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme, I. Monatshefte für Mathematik und Physik, 38: S. 173-198

303

LITERATUR Goldstein, B. E. 1997. Wahrnehmungspsychologie. Eine Einführung. Heidelberg, Berlin und Oxford. Original: Sensation and Perception, Brooks/Cole Publishing 1996 Gombrich, E. H. 1995. Art & Illusion. A Study in the Psychology of Pictorial Representation. London Gombrich, E. H. 2002. Die Geschichte der Kunst. Berlin Gondek, H.-D. 1993. Text und Unbewusstes. In: Regehly, T. et al. (Hg.). TextWelt. Karriere und Bedeutung einer grundlegenden Differenz. Gießen Gondek, H.-D. und B. Waldendfels (Hg.) 1997. Einsätze des Denkens. Zur Philosophie Jacques Derridas. Frankfurt/M. Goodman, N. 1988. Tatsache, Fiktion, Voraussage. Frankfurt/M. Goodman, N. 1995. Sprachen der Kunst. Entwurf einer Symboltheorie. Frankfurt/M. Original: Languages of Art. An Approach to a Theory of Symbols, Hackett Publishing Company, Indianapolis, 2. Aufl. 1976 Goodman, N. 1998. Weisen der Welterzeugung. Frankfurt/M. Goody, J. 1977. The Domestication of the Savage Mind. Cambridge Goody, J. 1986. Funktionen der Schrift in traditionellen Gesellschaften. In: Goody, J., I. Watt und K. Gough (Hg.). Entstehung und Folgen der Schriftkultur. Frankfurt/M. Goody, J. 1990. Die Logik der Schrift und die Organisation von Gesellschaft. Frankfurt/M. Original: The Logic of Writing and the Organization of Society Gramelsberger, G. 2000. Semiotik und Simulation: Fortführung der Schrift ins Dynamische. Entwurf einer Symboltheorie der numerischen Simulation und ihrer Visualisierung. Dissertation am Fachbereich Philosophie und Geisteswissenschaften der Freien Universität Berlin. Berlin Gregory, R. L. 2001. Auge und Gehirn. Psychologie des Sehens. Reinbek bei Hamburg. Original: Eye and Brain. The Psychology of Seeing, Oxford University Press 1998 Gumbrecht, H. U. und K. L. Pfeiffer (Hg.) 1988. Materialität der Kommunikation. Frankfurt/M. Gumbrecht, H. U. und K. L. Pfeiffer (Hg.) 1991. Paradoxien, Dissonanzen, Zusammenbrüche. Frankfurt/M. Haarmann, H. 1990. Universalgeschichte der Schrift. Frankfurt/M. und New York Haase, F. 1990. Stern und Netz. Anmerkungen zur Geschichte der Telegrafie im 10. Jahrhundert. In: Hörisch, J. und M. Wetzel (Hg.). Armaturen der Sinne. Literarische und technische Medien 1870-1920. München Habermas, J. 1985. Der philosophische Diskurs der Moderne. Frankfurt/M. Halbwachs, M. 1985. Das Gedächtnis und seine sozialen Bedingungen. Frankfurt/M. Original: Les cadres sociaux de la mémoire, Paris 1925 Harris, C. (Hg.)1999. Art and Innovation. The Xerox Parc Artist-in-Residence Program. Cambridge, MA und London Hart Nibbrig, C. L. (Hg.) 1994. Was heißt „Darstellen“? Frankfurt/M. Hart Nibbrig, C. L. 2001a. An der Stelle, statt eines Vorworts. In: Hart Nibbrig, C. L. (Hg.). Übersetzen: Walter Benjamin. Frankfurt/M. Hart Nibbrig, C. L. (Hg.) 2001b. Übersetzen: Walter Benjamin. Frankfurt/M. Havelock, E. A. 1990. Schriftlichkeit. Das griechische Alphabet als kulturelle Revolution. Frankfurt/M. Original: The Literate Revolution in Greece and Its Consequences, 1982 Havelock, E. A. 1992. Als die Muse schreiben lernte. Frankfurt/M. Original: The muse learns to write. Reflections on Orality and Literacy from Antique to Present, New Haven und London 1986 Haverkamp, A., (Hg.) 1996. Theorie der Metapher. Darmstadt

304

LITERATUR Haverkamp, A. (Hg.) 1998. Die paradoxe Metapher. Frankfurt/M. Heidegger, M. 1994. Der Spruch des Anaximander. In: Heidegger, M. Holzwege. Frankfurt/M. Heider, F. 1926. Ding und Medium. Symposion Heft 2 Heilbrun, A. und B. Stacks 1991. Was heißt „Virtuelle Realität“? Ein Interview mit Jaron Lanier. In: Waffender, M. (Hg.). Cyberspace. Ausflüge in virtuelle Wirklichkeiten. Reinbek bei Hamburg Heim, M. 1993. The Metaphysics of Virtual Reality. New York und Oxford Heintz, B. 1993. Die Herrschaft der Regel. Frankfurt/M. und New York Heintz, B. und J. Huber 2001a. Der verführerische Blick: Formen und Folgen wissenschaftlicher Visualisierungsstrategien. In: Heintz, B. und J. Huber (Hg.). Mit dem Auge denken. Strategien der Sichtbarmachung in wissenschaftlichen und virtuellen Welten. Zürich, Wien und New York Heintz, B. und J. Huber (Hg.) 2001b. Mit dem Auge denken. Strategien der Sichtbarmachung in wissenschaftlichen und virtuellen Welten. Zürich, Wien und New York Helbig, J. (Hg.) 1998. Intermedialität. Theorie und Praxis eines interdisziplinären Fachgebiets. Berlin Hiebel, H. H. et al. (Hg.) 1998. Die Medien. Logik – Leistung – Geschichte. München Hiltzik, M. 1999. Dealers of Lightning. New York Hirsch, A. 1993. Zwischen fremden Texten. Anmerkungen zur Konzeption der zwischensprachlichen Übersetzung bei Jacques Derrida. In: Regehly, T. et al. (Hg.). Text-Welt. Karriere einer grundlegenden Differenz. Gießen Hirsch, A. 1995. Der Dialog der Sprachen. Studien zum Sprach- und Übersetzungsdenken Walter Benjamins und Jacques Derridas. München Hirsch, A. 1997. Die geschuldete Übersetzung. Von der ethischen Grundlosigkeit des Übersetzens. In: Hirsch, A. (Hg.). Übersetzung und Dekonstruktion. Frankfurt/M. Hoffmann, C. und P. Berz (Hg.) 2001. Über Schall. Ernst Machs und Peter Salchers Geschossfotografien. Göttingen Hoffmann, S. 2002. Geschichte des Medienbegriffs. Hamburg Hofstadter, D. R. 1986. Gödel, Escher, Bach. Ein Endlos Geflochtenes Band. Stuttgart. Original: Gödel, Escher, Bach: an Eternal Golden Braid, Basic Books, New York 1979 Höller, H. 1993. Kommunikationssysteme. Normung und soziale Akzeptanz. Braunschweig und Wiesbaden Honour, H. und J. Fleming 1992. Weltgeschichte der Kunst. München. Original: A World History of Art, Laurence King Ltd., London 1982 Hopcroft, J. und J. D. Ullman 1990. Einführung in die Automatentheorie, Formale Sprachen und Komplexitätstheorie. Bonn et al. Original: Introduction to automata theory, languages and computation, Addison-Wesley 1979 Hörisch, J. 2001. Der Sinn und die Sinne. Frankfurt/M. Horkheimer, M. und T. W. Adorno 1989. Dialektik der Aufklärung. Philosophische Fragmente. Frankfurt/M. Original: 1944 by Social Studies Association, Inc, New York Husserl, E. 1992. Cartesianische Meditationen, Gesammelte Schriften 8. Hamburg Ifrah, I. 1987. Universalgeschichte der Zahlen. Frankfurt und New York. Original: Histoire Universelle de Chiffres, Paris 1981 Illich, I. 1991. Im Weinberg des Textes. Als das Schriftbild der Moderne entstand. Ein Kommentar zu Hugos Didascalion. Frankfurt/M. Illich, I. 1995. Die Askese des Blicks im Zeitalter der Show - INTERFACE. In: Dencker, K. P. (Hg.). Weltbilder-Bildmedien. Computergestützte Visionen. Hamburg

305

LITERATUR Informatik.Spektrum 2004. Information? Information! Informatik Spektrum Band 27(Heft 1, Februar 2004): S. 84-96 Iverson, K. E. 1980. Notation as a Tool of Thought. Communications of the ACM Vol. 23-Aug. 1980: S. 444-465 Jäger, L. und G. Stanitzek (Hg.) 2002. Transkribieren. Medien/Lektüre. München Jakobson, R. 1988. Linguistische Aspekte der Übersetzung. In: Jakobson, R. Semiotik. Ausgewählte Texte 1919-1982. Frankfurt/M. Jaschinski, A. 2001. Notation. Kassel et al. Jones, C. A. und P. Galison (Hg.) 1998. Picturing Science - Producing Arts. New York und London Jung, W. 1995. Von der Mimesis zur Simulation. Eine Einführung in die Geschichte der Ästhetik. Hamburg Kant, I. 1990. Kritik der Urteilskraft. Hamburg Karpenstein-Eßbach, C. 2004. Einführung in die Kulturwissenschaft der Medien. Paderborn Kay, A. und A. Goldberg 2003. Personal Dynamic Media. In: Wardrip-Fruin, N. und N. Montfort (Hg.). theNewMediaReader. Cambridge, MA und London. Original: Computer 10 (3), S. 31-41, March 1977 Keil-Slawik, R. 1992. Von der Benutzerin zur Kybernautin. Sinnliche Wahrnehmung beim Umgang mit symbolischen Maschinen. Wechselwirkung Nr. 57 Oktober 1992 Kemp, M. 2000. Bilderwissen. Die Anschaulichkeit naturwissenschaftlicher Phänomene. Köln Kerckhove, D. 1995. Schriftgeburten. Vom Alphabet zum Computer. München Kimmerle, H. 1988. Derrida zur Einführung. Hamburg Kittler, F. 1986. Grammophon, Film, Typewriter. Berlin Kittler, F. 1987. Die heilige Schrift. In: Kamper, D. und C. Wulf (Hg.). Das Heilige - Seine Spur in der Moderne. Frankfurt/M. Knuth, D. E. 1982. The concept of meta-fonts. Visible Language, 16, S. 3-27 Koller, W. 1992. Einführung in die Übersetzungswissenschaft. Heidelberg und Wiesbaden Köppen, M. 1993. Die schöne Gefangene im Labyrinth der Bilder. Grenzgänge zwischen Literatur, Film und Malerei bei Alain Robbe-Grillet. In: Naumann, B. (Hg.). Vom Doppelleben der Bilder. München Kovtyk, B., (Hg.) 2002. Geschichte der Übersetzung: Beiträge zur Geschichte der neuzeitlichen, mittelalterlichen und antiken Übersetzung. Berlin Kracauer, S. 1999. Theorie des Films. Frankfurt/M. Krol, E. 1995. Die Welt des Internet. Handbuch & Übersicht. Bonn Krueger, M. W. 1990. Artificial Reality II. Reading MA et al. Krug, J. 2001. Ein Auge, welches sieht, das andre welches fühlt: Bilder aus der physikalischen Nanowelt. In: Heintz, B. und J. Huber (Hg.). Mit dem Auge denken. Strategien der Sichtbarmachung in wissenschaftlichen und virtuellen Welten. Zürich, Wien und New York Kuhlen, R. 1991. Hypertext. Ein nicht-lineares Medium zwischen Buch und Wissensbank. Berlin und Heidelberg Kunzmann, P., F.-P. Burkard und F. Wiedmann (Hg.) 1991. dtv-Atlas zur Philosophie. Tafeln und Texte. München Lacan, J. 1991a. Das Ich in der Theorie Freuds und in der Technik der Psychoanalyse. Weinheim und Berlin. Original: Editions du Seuil, Paris 1976 Lacan, J. 1991b. Das Spiegelstadium als Bildner der Ichfunktion. In: Lacan, J. Schriften I. Weinheim und Berlin. Original: Bericht für den 16. Internationalen

306

LITERATUR Kongress für Psychoanalyse in Zürich am 17. Juli 1949, veröffentlicht bei Editions du Seuil, Paris 1996 Lacan, J. 1991c. Funktion und Feld des Sprechens und der Sprache in der Psychoanalyse. In: Lacan, J. Schriften 1. Weinheim und Berlin. Original: Bericht auf dem Kongress in Rom am 26. und 27. September 1953 im Istituto di Psicologia della Università di Roma, veröffentlicht bei Editions du Seuil, Paris 1996 Lacan, J. 1991d. Schriften I. Weinheim und Berlin Lacan, J. 1996. Die vier Grundbegriffe der Psychoanalyse. Das Seminar Buch XI. Weinheim und Berlin. Original: Le séminaire de Jacques Lacan. Les quatre concepts fondamentaux de la psychanalyse, Livre XI 1964 Lachmannn, R. 1991. Die Unlöschbarkeit der Zeichen. Das semiotische Unglück der Mnemonisten. In: Haverkamp, A. und R. Lachmann (Hg.). Gedächtniskunst - Raum - Bild - Schrift. Studien zur Mnemotechnik. Frankfurt/M. Lakoff, G. und M. Johnson 2000. Leben in Metaphern. Konstruktion und Gebrauch von Sprachbildern. Heidelberg. Original: Metaphors We Live By, University of Chicago Press, 1980 Landow, G. P. 1994. What’s a Critic to Do? Critical Theory in the Age of Hypertext. In: Landow, G. P. (Hg.). Hyper/Text/Theory. Baltimore & London Latour, B. und P. Weibel (Hg.) 2002. Iconoclash - Image-making in Science, Religion and Art. Karlsruhe und Cambridge MA Laurel, B., (Hg.) 1990. The Art of Human-Computer Interface Design. Reading, Massachusetts et al. Laurel, B. 1993. Computers as Theatre. Reading MA et al. Leroi-Gourhan, A. 1988. Hand und Wort. Die Evolution von Technik Sprache und Kunst. Frankfurt/M. Original: La geste y la parole, Bd. 1 Technique y langue, Paris 1964, Bd. 2 La mémoire et les rythmes, Paris 1965 Lessing, G. E. 1988. Laokoon. Oder über die Grenzen der Malerei und Poesie. Frankfurt/M. Original: Sonderausgabe: Der Text folgt der Gesamtausgabe Lessings Werke, hrsg. von Kurt Wölfel, Schriften II 1967 Lessing, H.-U. 1998. Hermeneutik der Sinne. Freiburg, München Levinson, P. 1998. The Soft Edge. A Natural History and Future of the Information Revolution. London und New York Lévy, P. 1994. Die Erfindung des Computers. In: Serres, M. Elemente einer Geschichte der Wissenschaften. Frankfurt/M. Original: Eléments d’histoire des sciences, Bordas: Paris 1989 Lieb, J. 1994. Foto. In: Faulstich, W. (Hg.). Grundwissen Medien. München Lindberg, D. C. 1987. Auge und Licht im Mittelalter. Frankfurt/M. Original: Theories of Vision from Al-Kindi to Kepler, Chicago und London 1976 Luft, A. L. und R. Kötter 1994. Informatik - eine moderne Wissenstechnik. Mannheim, Leipzig, Wien, Zürich Luhmann, N. 1996. Die Realität der Massenmedien. Opladen Luhmann, N. 1999. Die Kunst der Gesellschaft. Frankfurt/M. Lynch, M. und S. Woolgar (Hg.) 1988. Representation in Scientific Practice. Cambridge, MA und London Lyre, H. 2002. Informationstheorie. Eine philosophisch-naturwissenschaftliche Einführung. München Maar, C., U. Obrist und E. Pöppel, (Hg.) 2000. Weltwissen-Wissenswelt. Das globale Netz von Text und Bild. Köln Macheiner, J. 1995. Übersetzen. Ein Vademecum. Frankfurt/M. MacKenzie, C. und T. Iberall 1994. The Grasping Hand. Amsterdam

307

LITERATUR Maffei, L. und A. Fiorentini 1997. Das Bild im Kopf. Von der Wahrnehmung zum optischen Kunstwerk. Basel. Original: Arte e Cervello, Zanichelli Editore, Bologna 1995 Majetschak, S., (Hg.) 1997. Auge und Hand. Konrad Fiedlers Kunsttheorie im Kontext. München Malraux, A. 1987. Das imaginäre Museum. Frankfurt/M. und New York Mandelbrot, B. B. 1991. Die fraktale Geometrie der Natur. Basel, Boston und Berlin. Original: The Fractal Geometry of Nature, W.H. Freeman und Company, New York 1977 Marcuse, H. 1970. Triebstruktur und Gesellschaft. Ein philosophischer Beitrag zu Sigmund Freud. Frankfurt/M. Original: Eros and Civilization, The Beacon Press, Boston 1955 Marr, D. 1982. Vision. San Francisco McCullough 1996. Abstracting Craft. The Practiced Digital Hand. Cambridge MA und London McLuhan, M. 1968. Die Gutenberg Galaxis. Das Ende des Buchzeitalters. Düsseldorf-Wien McLuhan, M. 1992. Die magischen Kanäle. Understanding Media. Düsseldorf et al. Original: Understanding Media, McGraw-Hill 1964 McLuhan, M. und Q. Fiore 1984. Das Medium ist Massage. Frankfurt/M., Berlin und Wien. Original: The Medium is the Massage, 1967 Mehrtens, H. 1990. Moderne Sprache Mathematik. Eine Geschichte des Streits um die Grundlagen der Disziplin und des Subjekts formaler Systeme. Frankfurt/M. Merleau-Ponty, M. 1966. Phänomenologie der Wahrnehmung. Berlin Merleau-Ponty, M. 1984. Das Auge und der Geist. Hamburg Merleau-Ponty, M. 1994. Das Sichtbare und das Unsichtbare. München Metz, C. 1972. Semiologie des Films. München Milgrim, P. und H. Colquhoun 1999. A Taxonomy of Real and Virtual World Display Integration. In: Ohta, Y. und H. Tamura (Hg.). Mixed Reality. Merging Real and Virtual Worlds. Tokyo, New York, Berlin Milgrim, P. und F. Kishino 1994. A taxonomy of mixed reality visual display. IEICE Trans. Inf. & Sys. E 77-D(12): S. 1321-1329 Mitchell, J. W. 1992. The Reconfigured Eye. Visual Truth in the Post-Photographic Era. Cambridge, MA und London Mitchell, W. J. T. 1990. Was ist ein Bild? in: Bohn, V. (Hg.). Bildlichkeit. Frankfurt/M. Original: in: Iconology, Image, Text, Ideology, Chicago University Press 1986 Mitchell, W. J. T. 1994. The Pictorial Turn. In: Mitchell, W. J. T. Picture Theory. Chicago und London Mitchell, W. J. T. 1997. Der Pictorial Turn. In: Kravagna, C. (Hg.). Privileg Blick. Kritik der visuellen Kultur. Berlin. Original: in: Picture Theory, University of Chicago Press 1994 Monaco, J. 2000. Film verstehen. Reinbek bei Hamburg. Original: How to Read a Film, Oxford University Press, London und New York 1977 Müller, A. 1997. Die ikonische Differenz. Das Kunstwerk als Augenblick. München Müller, D. und F. W. Bruns 2003. Arbeiten und Begreifen: Erfahrungshandeln in virtuellen und realen Welten. In: Oberliesen, R. und G. Günter Reuel (Hg.). Schule zwischen materieller und virtueller Lernkultur. Hohengehren Münker, S. und A. Roesler (Hg.) 1997. Mythos Internet. Frankfurt/M. Murray, J. H. 2003. Inventing the Medium. In: Wardrip-Fruin, N. und N. Montfort (Hg.). theNewMediaReader. Cambridge, MA und London

308

LITERATUR Nadin, M. 1999. Jenseits der Schriftkultur. Dresden und München. Original: The Civiliziation of Illiteracy, 1997 Nägele, R. 2001. Echolalie. In: Haart Nibbrig, C. L. (Hg.). Übersetzen: Walter Benjamin. Frankfurt/M. Nagl, L. 1992. Charles Sanders Peirce. Frankfurt/M. und New York Nake, F. 1984. Schnittstelle Mensch-Maschine. Kursbuch 75, März 1984 Nake, F. 1992. Informatik und die Maschinisierung der Kopfarbeit. In: Coy, W. et al. (Hg.). Sichtweisen der Informatik. Braunschweig und Wiesbaden Nake, F. 1993a. Von der Interaktion. Über den instrumentalen und den medialen Charakter des Computers. In: Nake, F. (Hg.). Die erträgliche Leichtigkeit der Zeichen. Ästhetik, Semiotik, Informatik. Baden-Baden Nake, F. 1999. Bildgeschichten aus Zahlen und Zufall. Betrachtungen zur Computerkunst. In: Dress, A. und G. Jäger (Hg.). Visualisierung in Mathematik, Technik und Kunst. Braunschweig und Wiesbaden Nake, F. 2003. Der Computer als Automat, Werkzeug und Medium und unser Verhältnis zu ihm. In: Rödiger, K.-H. (Hg.). Algorithmik – Kunst – Semiotik. Hommage für Frieder Nake. Heidelberg Nake, F. und S. Grabowski 2001. Human-computer interaction viewed as pseudocommunication. Knowledge-Based Systems 14-2001: S. 441-447 Nake, F. (Hg.) 1993b. Die erträgliche Leichtigkeit der Zeichen. Ästhetik – Semiotik – Informatik. Baden-Baden Negt, O. und A. Kluge 1981. Geschichte und Eigensinn. Frankfurt/M. Nelson, T. 1987a. Dream Machines. New Freedoms Through Computer Screens. Washington Neubert, C. 2001. Elektronische Adressenordnung. In: Andriopoulos, S., G. Schabacher und E. Schumacher (Hg.). Die Adresse des Mediums. Köln Neumann, J. v. 1987. First Draft of a Report on the EDVAC. In: Aspray, W. und A. Burks (Hg.). Papers of John von Neumann on Computing and Computer Theory. Cambridge MA Nöth, W. 2000. Handbuch der Semiotik. Stuttgart et al. Nöth, W. und K. Wenz (Hg.) 1998. Intervalle 2. Medientheorie und die digitalen Medien. Kassel Oberliesen, R. 1987. Information, Daten und Signale. Geschichte technischer Informationsverarbeitung. Reinbek bei Hamburg Oeder, W. 1990. Vom Traum Zenons zu Cantors Paradies. Das fotografische Reglement von Zeit, Sichtbarkeit und Bewegung. In: Tholen, C. und M. O. Scholl (Hg.). Zeit-Zeichen. Aufschübe und Interferenzen zwischen Endzeit und Echtzeit. Weinheim Oemüller, W. (Hg.) 1982. Ästhetischer Schein. Paderborn et al. Ong, W. 1987. Oralität und Literalität - Die Technologisierung des Wortes. Opladen Opitz, M. 2000. Ähnlichkeit. In: Opitz, M. und E. Wizisla (Hg.). Benjamins Begriffe. Frankfurt/M. Paech, J. 1994. Der Schatten der Schrift auf dem Bild. Vom filmischen zum elektronischen Schreiben mit Licht. Oder L’image menacée par l’écriture et sauvée par l’image même. In: Wetzel, M. und H. Wolf (Hg.). Der Entzug der Bilder. Visuelle Realitäten. München Panofsky, E. 1978. Sinn und Deutung in der bildenden Kunst. Köln. Original: Meaning in the Visual Arts, Doubleday&Company, New York 1957 Panofsky, E. 1992. Die Perspektive als „symbolische Form“. In: Panofsky, E. Aufsätze zu Grundfragen der Kunstwissenschaft. Berlin Peirce, C. S. 1983. Phänomen und Logik der Zeichen. Frankfurt/M. Peirce, C. S. 2000. Semiotische Schriften Band 1. Frankfurt/M.

309

LITERATUR Petzold, H. 1992. Moderne Rechenkünstler. Die Industrialisierung der Rechentechnik in Deutschland. München Pfeiffer, K. L. 1993. Schrift-Geschichten, Typologien, Theorien. In: Gumbrecht, H. U. und K. L. Pfeiffer (Hg.). Schrift. München Pflüger, J. 1997. Distributed Intelligence Agencies. In: Warnke, M., W. Coy und C. Tholen (Hg.). HyperKult. Geschichte, Theorie und Kontext digitaler Medien. Basel und Frankfurt/M. Pflüger, J. 2002. Language in Computing. In: Dörries, M. (Hg.) Experimenting in Tongues. Studies in Science and Language. Stanford, California Pias, C. 2002. Bilder der Steuerung. In: Huber, D., B. Lockemann und M. Scheibel (Hg.). Bild – Medien – Wissen. Visuelle Kompetenz im Medienzeitalter. München Piegl, L. und W. Tiller 1997. The NURBS Book. Berlin und Heidelberg Platon 1991a. Kratylos. In: Platon. Sämtliche Werke III. Frankfurt/M. Platon 1991b. Phaidros. In: Platon. Gesammelte Werk VI. Frankfurt/M. und Leipzig Plessner, H. 1980. Anthropologie der Sinne. Gesammelte Schriften III. Frankfurt/M. Polanyi, M. 1985. Implizites Wissen. Frankfurt/M. Original: The Tacit Dimension, Doubleday & Company, New York 1966 Prigogine, I. und I. Stengers 1986. Dialog mit der Natur. Neue Wege naturwissenschaftlichen Denkens. München und Zürich Prokop, G. 1978. Die Sache der Fotografie – Ein Foto-Lesebuch. Berlin QRT 1999. Schlachtfelder der elektronischen Wüste. Berlin Quine, W. v. O. 1980. Wort und Gegenstand. Stuttgart. Original: Word und Object, MIT Press, Cambridge MA, 1960 Rajewsky, I. O. 2002. Intermedialität. Tübingen und Basel Raulet, G. 1995. Bildsein ohne Ähnlichkeit. In: Dotzler, B. J. und E. Müller (Hg.). Wahrnehmung und Geschichte. Markierungen einer Aisthesis materialis. Berlin Rechenberg, P. 2003. Zum Informationsbegriff der Informationstheorie. Informatik Spektrum Band 26 (Heft 5, Oktober 2003): S. 317-326 Recki, B. und L. Wiesing (Hg.) 1997. Bild und Reflexion. Paradigmen und Perspektiven gegenwärtiger Ästhetik. München Rényi, A. 1972. Dialoge über Mathematik. Berlin Rheinberger, H.-J., M. Hagner und B. Wahrig-Schmidt (Hg.) 1997. Räume des Wissen. Repräsentation, Codierung, Spur. Berlin Rheinberger, H-J., B. Wahrig-Schmidt und M. Hagner 1997. Räume des Wissens: Repräsentation, Codierung, Spur. In: Rheinberger, H-J., M. Hagner und B.. Wahrig-Schmidt (Hg.). Räume des Wissens. Repräsentation, Codierung, Spur. Berlin Rheingold, H. 1992. Virtuelle Welten. Reisen im Cyberspace. Reinbek bei Hamburg Rheingold, H. 1994. Virtuelle Gemeinschaft. Soziale Beziehungen im Zeitalter des Computers. Bonn et al. Original: The Virtual Community, 1993 Rieger, S. 2003. Kybernetische Anthropologie. Eine Geschichte der Virtualität. Frankfurt/M. Robben, B. 1995. Vom Text zum Hypertext. Diplomarbeit am Fachbereich Mathematik/Informatik der Universität Bremen. Bremen Robben, B. und I. Rügge 1998. Mit den Händen beGreifen: Real Reality. In: Rügge, I. et al. (Hg.). Arbeiten und begreifen: Neue Mensch-Maschine-Schnittstellen. Münster Rorty, R. (Hg.) 1967. The Linguistic Turn. Recent Essays in Philosophical Method. Chicago und London Roth, G. 1992. Das konstruktive Gehirn: Neurobiologische Grundlagen von Wahrnehmung und Erkenntnis. In: Schmidt, S. J. (Hg.). Kognition und Gesellschaft. Der Diskurs des Radikalen Konstruktivismus 2. Frankfurt/M.

310

LITERATUR Rötzer, F. und P. Weibel (Hg.) 1991. Strategien des Scheins. Kunst - Computer Medien. München Rötzer, F. (Hg.) 1991. Digitaler Schein. Ästhetik der elektronischen Medien. Frankfurt/M. Sachs, W. 1994. Satellitenblick - Die Ikone vom blauen Planeten und ihre Folgen für die Wissenschaft. In: Braun, I. und B. Joerges (Hg.). Technik ohne Grenzen. Frankfurt/M. Sachs-Hombach, K. 2003. Das Bild als kommunikatives Medium. Elemente einer allgemeinen Bildwissenschaft. Köln Sachs-Hombach, K. und K. Rehkämper (Hg.) 1999. Bildgrammatik. Interdisziplinäre Forschungen zur Syntax bildlicher Darstellungsformen. Magdeburg Sachs-Hombach, K. und K. Rehkämper (Hg.) 2000. Vom Realismus der Bilder. Interdisziplinäre Forschungen zur Semantik bildhafter Darstellungsformen. Magdeburg Sachs-Hombach, K. (Hg.) 1995. Bilder im Geiste: Zur kognitiven und erkenntnistheoretischen Funktion piktorialer Repräsentation. Amsterdam und Atlanta, GA Sachs-Hombach, K. (Hg.) 2001. Bildhandeln. Interdisziplinäre Forschungen zur Pragmatik bildhafter Darstellungsformen. Magdeburg Saussure, F. d. 1967. Grundlagen der allgemeinen Sprachwissenschaft. Berlin Schade, S. und C. Tholen 1999. Konfigurationen. Zwischen Kunst und Medien. München Schelhowe, H. 1997. Das Medium aus der Maschine. Zur Metamorphose des Computers. Frankfurt/M. und New York Schestag, T. 1991. Parerga: Friedrich Hölderlin, Carl Schmitt, Franz Kafka, Platon, Friedrich Schleiermacher, Walter Benjamin, Jacques Derrida. München Scheurer, H. J. 1987. Zur Kultur- und Mediengeschichte der Fotografie. Die Industrialisierung des Blicks. Köln Schivelbusch, W. 1989. Geschichte der Eisenbahnreise. Zur Industrialisierung von Raum und Zeit im 19. Jahrhundert. Frankfurt/M. Schneider, H. J. 1999. Phantasie und Kalkül. Über die Polarität von Handlung und Struktur in der Sprache. Frankfurt/M. Schneider, M. 1990. Das Kino und die Architekturen des Wissens. Die Zeit des Augenblicks. In: Tholen, C. und M. O. Scholl (Hg.). Zeit-Zeichen. Aufschübe und Interferenzen zwischen Endzeit und Echtzeit. Weinheim Schneider, N. (Hg.) 1996. Geschichte der Ästhetik. Von der Aufklärung zur Postmoderne. Stuttgart Schnell, R. 2000. Medienästhetik. Zu Geschichte und Theorie audiovisueller Wahrnehmungsformen. Stuttgart Scholz, O. 1991. Bild – Darstellung – Zeichen. Philosophische Theorien bildhafter Darstellung. Freiburg im Breisgau et al. Schönberger, A. (Hg.) 1988. Simulation und Wirklichkeit. Köln Searle, J. R. 2003. Sprechakte. Ein sprachphilosophischer Essay. Frankfurt/M. Original: Speech Acts, Cambridge University Press 1969 Shannon, C. E. 1948. A Mathematical Theory of Communication. Bell System Technical Journal, 27(3) Shannon, C. E. und W. Weaver 1949. The Mathematical Theory of Communication. Urbana. (Deutsche Ausgabe: Mathematische Grundlagen der Informationstheorie, München 1976) Shneiderman, B. 1992. Designing the User Interface. Reading MA et al. Silvestrini, N. und E. P. Fischer 1998. Farbsysteme in Kunst und Wissenschaft. Köln Sohn-Rethel, A. 1989. Geistige und körperliche Arbeit. Zur Epistemologie der abendländischen Geschichte (Revidierte und ergänzte Neuauflage). Weinheim.

311

LITERATUR Original: Geistige und körperliche Arbeit. Zur Theorie der Synthesis, Suhrkamp: Frankfurt/M. 1970 Sola Pool, I. d. E. 1981. The Social Impact of the Telephone. Cambridge, MA Sonka, M., V. Hlavac und R. Boyle 1996. Image Processing, Analysis und Machine Vision. London et al. Sontag, S. 1993. Über Fotografie. Frankfurt/M. Original: On Photography, New York 1977 Spielmann, Y. 1998. Intermedialität. Das System Peter Greenaway. München Spinner, H. 1994. Die Wissensordnung. Ein Leitkonzept für die dritte Grundordnung des Informationszeitalters. Opladen Spinner, H. 1998. Die Architektur der Informationsgesellschaft. Entwurf eines wissensorientierten Gesamtkonzepts. Bodenheim Stach, H. 2001. Zwischen Organismus und Notation. Zur kulturellen Konstruktion des Computer-Programms. Wiesbaden Stachowiak, H. 1973. Allgemeine Modelltheorie. Wien und New York Steiner, G. 1992. Nach Babel. Aspekte der Sprache und des Übersetzens. Frankfurt/M. Stjernfeld, F. 1993. Buchstabenformen, Kategorien und die Apriori-Position. In: Gumbrecht, H. U. und K. L. Pfeiffer (Hg.). Schrift. München Stoichita, V. I. 1999. Eine kurze Geschichte des Schattens. München. Original: Bréve histoire de l’ombre Stolze, R. 1997. Übersetzungstheorien. Eine Einführung. Tübingen Störig, H. J. (Hg.) 1969. Das Problem des Übersetzens. Darmstadt Strothotte, C. und T. Strothotte (Hg.) 1997. Seeing Between the Pixels. Pictures in Interactive Systems. Berlin, Heidelberg, New York et al. Sutherland, I. E. 2003. Sketchpad. A Man-Machine Graphical Communication System. In: Wardrip-Fruin, N. und N. Montfort (Hg.). theNewMediaReader. Cambridge MA und London. Original: American Federation of Information Processing Societies (AFIPS), Conference Proceedings 23: 329-346, Spring Joint Computer Conference, 1963 Svanæs, D. 2000. Understanding Interactivity. Steps to a Phenomenology of Human-Computer Interaction. Trondheim, http://www.idi.ntnu.no/~dags/interactivity.pdf Tanenbaum, A. S. 1992. Computer-Netzwerke. Attenkirchen. Original: ComputerNetworks, Prentice Hall, Englewood Cliffs, 1989 Taussig, M. 1997. Mimesis und Alterität. Eine eigenwillige Geschichte der Sinne. Hamburg. Original: Mimesis and Alterity. A Particular History of the Senses, Routledge, New York und London 1993 Thiel, D. 1997. Urschrift. Systematische und historische Bemerkungen zu Derridas Motiv der archi-écriture. In: Gondek, H.-D. und B. Waldendfels (Hg.). Einsätze des Denkens. Zur Philosophie von Jacques Derrida. Frankfurt/M. Tholen, C. 1998. Die Zäsur der Medien. In: Nöth, W. und K. Wenz. Intervalle 2. Medientheorie und die digitalen Medien. Kassel Tholen, C. 2002. Die Zäsur der Medien. Kulturphilosophische Konturen. Frankfurt/M. Tufte, E. R. 1990. Envisioning information. Cheshire, Connecticut Tufte, E. R. 1992. The visual display of quantitative information. Cheshire, Connecticut Tufte, E. R. 1997. Visual explanations : images and quantities, evidence and narrative. Cheshire, Connecticut Turing, A. 1987a. Intelligente Maschinen. Eine häretische Theorie. In: Dotzler, B. J. und F. Kittler (Hg.). Alan Turing. Intelligence Service. Berlin Turing, A. 1987b. Über berechenbare Zahlen mit einer Anwendung auf das Entscheidungsproblem. In: Dotzler, B. J. und F. Kittler (Hg.). Alan Turing, Intelligence Service. Berlin. Original: On Computable Numbers, with an Application

312

LITERATUR to the Entscheidungsproblem, Proceedings of the London Mathematical Society (2) 42, 1937 Turkle, S. 1998. Leben im Netz, Identitäten in Zeiten des Internet. Hamburg. Original: Life on Screen: Identity in the Age of the Internet, Simon & Schuster: New York 1995 Ueding, G. und B. Steinbrink 1994. Grundriß der Rhetorik. Geschichte, Technik, Methode. Stuttgart, Weimar Vernant, J.-P. 1988. Tod in den Augen - Figuren des Anderen im griechischen Altertum: Artemis und Gorgo. Frankfurt/M. Vertov, D. 1995. Wir. Variante eines Manifestes. In: Albersmeier, F. J. (Hg.). Texte zur Theorie des Films. Stuttgart. Original: 1922 Virilio, P. 1980. Geschwindigkeit und Politik. Berlin. Original: Vitesse et Politique, Paris 1977 Virilio, P. 1989a. Der negative Horizont. Berlin. Original: L’horizon négatif, Paris 1984 Virilio, P. 1989b. Krieg und Kino. Logistik der Wahrnehmung. Frankfurt/M. Original: Pure War, New York 1983 Virilio, P. 1992. Rasender Stillstand. Berlin. Original: L’inertie polaire, Paris 1991 Virilio, P. 1993. Krieg und Fernsehen. München und Wien Virilio, P. und G. Daghini 1991. Dromologie: Logik der Rennbahn. Lettre 14, Nr. 3 Waffender, M. 1991. Cyberspace. Ausflüge in virtuelle Wirklichkeiten. Reinbek bei Hamburg Walther, E. 1974. Allgemeine Zeichenlehre - Einführung in die Semiotik. Stuttgart Wardrip-Fruin, N. und N. Montfort (Hg.) 2003. theNewMediaReader. Cambridge, MA und London Ware, C. 2000. Information Visualization. Perception for Design. San Francisco, et al. Watt, A. und F. Policarpo 1998. The Computer Image. Harlow et al. Weber, S. 1997. Un-Übersetzbarkeit. In: Haverkamp, A. (Hg.). Die Sprache des Anderen. Übersetzungspolitik zwischen den Kulturen. Frankfurt/M. Weber, S. 2003. Theorien der Medien. Konstanz Wegner, P. 1997. Why Interaction Is More Powerful Than Algorithms. Communications of the ACM 40 (Nr. 5, Mai 1997) Wehr, M. und M. Weinmann (Hg.) 1999. Die Hand. Werkzeug des Geistes. Heidelberg und Berlin Weibel, P. 1990. Vom Verschwinden der Ferne - Telekommunikation und Kunst. In: Dencker, E. und P. Weibel (Hg.). Vom Verschwinden der Ferne in der Telekommunikation. Köln Weiser, M. 1991. The computer for the 21st century. Scientific American, Sept. 1991 Weiser, M. 1993. Some Computer Science Issues in Ubiquitous Computing. Communications of the ACM, Vol. 36, No. 7 Wetzel, M. 1991. Die Enden des Buches oder die Wiederkehr der Schrift. Weinheim Widmer, P. 1990. Subversion des Begehrens. Jacques Lacan oder Die zweite Revolution der Psychonanalyse. Frankfurt/M. Wiesing, L. 1997. Die Sichtbarkeit des Bildes. Geschichte und Perspektiven der formalen Ästhetik. Reinbek bei Hamburg Winkler, H. 1997. Docuverse. Zur Medientheorie des Computers. Regensburg Wirth, U. (Hg.) 2002. Performanz. Zwischen Sprachphilosophie und Kulturwissenschaften. Frankfurt/M. Wittgenstein, L. 1984a. Das Blaue Buch. Eine Philosophische Betrachtung. (Das Braune Buch). Frankfurt/M. Wittgenstein, L. 1984b. Philosophische Untersuchungen. In: Wittgenstein, L. Werkausgabe Band 1. Frankfurt/M.

313

LITERATUR Wittgenstein, L. 1984c. Tractatus logico-philosophicus. In: Wittgenstein, L. Werkausgabe Band 1. Frankfurt/M. Yates, F. A. 1991. Gedächtnis und Erinnern. Mnemonik von Aristoteles bis Shakespeare. Weinheim Zemanek, H. 1986. Information und Ingenieurwissenschaft. In: Folberth, O. G. und C. Hackl. Der Informationsbegriff in Technik und Wissenschaft. München und Wien Zielinski, S. 1990. Von Nachrichtenkörpern und Körpernachrichten. Ein eiliger Beutezug durch zwei Jahrtausend Mediengeschichte. In: Decker, E. und P. Weibel (Hg.). Vom Schwinden der Ferne. Köln Zizek, S. 1991. Liebe dein Symptom wie dich selbst - Jacques Lacans Psychoanalyse und die Medien. Berlin Zizek, S. 1993. Grimassen des Realen - Jacques Lacan oder die Monströsität des Aktes. Köln

314

Weitere Neuerscheinungen dieser Reihe:

Christina Bartz, Jens Ruchatz (Hg.) Mit Telemann durch die deutsche Fernsehgeschichte Kommentare und Glossen des Fernsehkritikers Martin Morlock Dezember 2005, ca. 220 Seiten, kart., ca. 25,80 €, ISBN: 3-89942-327-5

Heide Volkening Am Rand der Autobiographie Ghostwriting – Signatur – Geschlecht Dezember 2005, ca. 300 Seiten, kart., ca. 27,80 €, ISBN: 3-89942-375-5

Julia Glesner Theater und Internet Zum Verhältnis von Kultur und Technologie im Übergang zum 21. Jahrhundert Oktober 2005, 386 Seiten, kart., 27,80 €, ISBN: 3-89942-389-5

Andreas Becker, Saskia Reither, Christian Spies (Hg.) Reste Umgang mit einem Randphänomen Oktober 2005, 292 Seiten, kart., 27,80 €, ISBN: 3-89942-307-0

Christa Brüstle, Nadia Ghattas, Clemens Risi, Sabine Schouten (Hg.) Aus dem Takt Rhythmus in Kunst, Kultur und Natur

Christian Schuldt Selbstbeobachtung und die Evolution des Kunstsystems Literaturwissenschaftliche Analysen zu Laurence Sternes »Tristram Shandy« und den frühen Romanen Flann O’Briens Oktober 2005, 152 Seiten, kart., 16,80 €, ISBN: 3-89942-402-6

Joanna Barck, Petra Löffler Gesichter des Films Oktober 2005, 388 Seiten, kart., zahlr. Abb., 28,80 €, ISBN: 3-89942-416-6

Henry Keazor, Thorsten Wübbena Video Thrills the Radio Star Musikvideos: Geschichte, Themen, Analysen Oktober 2005, 472 Seiten, kart., ca. 250 Abb., 31,80 €, ISBN: 3-89942-383-6

Christoph Ernst Essayistische Medienreflexion Die Idee des Essayismus und die Frage nach den Medien September 2005, 508 Seiten, kart., 29,80 €, ISBN: 3-89942-376-3

Elke Bippus, Andrea Sick (Hg.) IndustrialisierungTechnologisierung von Kunst und Wissenschaft September 2005, 322 Seiten, kart., 50 Abb., 27,80 €, ISBN: 3-89942-317-8

Oktober 2005, 338 Seiten, kart., mit DVD, 27,80 €, ISBN: 3-89942-292-9

Leseproben und weitere Informationen finden Sie unter: www.transcript-verlag.de

Weitere Neuerscheinungen dieser Reihe: Natascha Adamowsky (Hg.) »Die Vernunft ist mir noch nicht begegnet« Zum konstitutiven Verhältnis von Spiel und Erkenntnis September 2005, 288 Seiten, kart., 26,80 €, ISBN: 3-89942-352-6

Andreas Sombroek Eine Poetik des Dazwischen Zur Intermedialität und Intertextualität bei Alexander Kluge August 2005, 320 Seiten, kart., 27,80 €, ISBN: 3-89942-412-3

Markus Buschhaus Über den Körper im Bilde sein Eine Medienarchäologie anatomischen Wissens August 2005, 356 Seiten, kart., zahlr. Abb., 28,80 €, ISBN: 3-89942-370-4

F.T. Meyer Filme über sich selbst Strategien der Selbstreflexion im dokumentarischen Film Juli 2005, 224 Seiten, kart., zahlr. Abb., 25,80 €, ISBN: 3-89942-359-3

Michael Manfé Otakismus Mediale Subkultur und neue Lebensform – eine Spurensuche Juli 2005, 234 Seiten, kart., ca. 10 Abb., 27,80 €, ISBN: 3-89942-313-5

Georg Mein, Franziska Schößler (Hg.) Tauschprozesse Kulturwissenschaftliche Verhandlungen des Ökonomischen Juli 2005, 320 Seiten, kart., 28,00 €, ISBN: 3-89942-283-X

Veit Sprenger Despoten auf der Bühne Die Inszenierung von Macht und ihre Abstürze August 2005, 356 Seiten, kart., 39 Abb., 28,80 €, ISBN: 3-89942-355-0

Horst Fleig Wim Wenders Hermetische Filmsprache und Fortschreiben antiker Mythologie August 2005, 304 Seiten, kart., zahlr. z.T. farb. Abb., 27,80 €, ISBN: 3-89942-385-2

Leseproben und weitere Informationen finden Sie unter: www.transcript-verlag.de