182 27 10MB
German Pages 382 [381] Year 2015
HyperKult II Zur Ortsbestimmung analoger und digitaler Medien
HyperKult II Zur Ortsbestimmung analoger und digitaler Medien Wolfgang Coy Susanne Grabowski Rolf Großmann Michael Harenberg Ute Holl Thomas Hölscher Hans Dieter Huber Jochen Koubek Frieder Nake Jörg Pflüger Claus Pias Uwe Pirr Christoph Rodatz Britta Schinzel Martin Warnke Annett Zinsmeister herausgegeben von Martin Warnke Wolfgang Coy Georg Christoph Tholen
Veröffentlicht mit Unterstützung durch den Fachbereich »Informatik und Gesellschaft« der »Gesellschaft für Informatik« e. V.
Bibliografische Information der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografischeDaten sind im Internet über http://dnb.ddb.de abrufbar. © 2005 transcript Verlag, Bielefeld Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen,Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen. Umschlaggestaltung: Kordula Röckenhaus, Bielefeld Umschlagabbildung: John Ford, The Battle of Midway (1942) Druck: Majuskel Medienproduktion GmbH, Wetzlar ISBN 3-89942-274-0 Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff. Besuchen Sie uns im Internet: http://www.transcript-verlag.de Bitte fordern Sie unser Gesamtverzeichnis und andere Broschüren an unter: [email protected]
Redaktion & Lektorat: Martin Warnke Assistenz: Chris Köver Gestaltung & Satz: Claus Pias
Inhalt
Martin Warnke, Wolfgang Coy, Georg Christoph Tholen Einleitung
I
7
Analog und digital
Wolfgang Coy Analog/Digital
15
Jörg Pflüger Wo die Quantität in Qualität umschlägt
27
Annett Zinsmeister Analogien im Digitalen
95
Thomas Hölscher Nelson Goodmans Philosophie des Analogen und des Digitalen
111
Frieder Nake und Susanne Grabowski Zwei Weisen, das Computerbild zu betrachten
123
Martin Warnke Quantum Computing
151
II
Virtualität und Intermedialität
Jochen Koubek Zur Kulturgeschichte des physikalischen Raums
173
Rolf Großmann Monitor – Intermedium zwischen Ton, Bild und Programm
187
Michael Harenberg Die musikalisch-ästhetische Verortung klingender Räume
211
Christoph Rodatz Der Raum des Theaters
233
Uwe Pirr Vom Monitor auf die Leinwand
267
Ute Holl Mazzen Fazzen Augenjazzen
287
Hans Dieter Huber Das Cut-Up als Schnittstelle der Intermedialität
297
Claus Pias Die Pflichten des Spielers
313
Britta Schinzel Das unsichtbare Geschlecht der Neuen Medien
343
Zu den Autorinnen und Autoren
371
Einleitung
Die Wechselwirkung von Kultur und Technik zu beschreiben, ist ein Vorhaben, das nur im interdisziplinären Dialog gelingen kann. Diese Hypothese jedenfalls war und ist der Grundgedanke der Workshopreihe »HyperKult«, die im Jahr 1991 begann. Denn während es den naturwissenschaftlich-technischen Disziplinen eher darum zu tun ist, ihren Gegenstand nach Maßgabe des Kriteriums der Objektivität oder Machbarkeit zu messen, zu modellieren und zu gestalten, geht es den Geistes- und Humanwissenschaften traditionsgemäß um die Geschichtlichkeit und Veränderbarkeit der symbolischen Formen, d. h. der Denkund Weltbilder, in denen jede Technik immer schon als Kulturtechnik situiert und gedeutet wird. Die Einsicht in den intrinsischen Zusammenhang von Technik als Werkzeug, Apparat und Gerät einerseits und Technik als Dispositiv oder Rahmen kultureller Repräsentationen andererseits markiert eine epistemologische Nachbarschaft von Disziplinen, die sich unter dem vorläufigen Namen »Kulturwissenschaft« und, spezieller, »Kulturinformatik« zusammenführen lassen. Gemeinsam ist ihnen ein transdisziplinärer, experimenteller Raum der Untersuchung, der von der Geschichte der Sprache und Schrift bis zum Computer als ubiquitärem Multimedium reicht und Epochenschwellen der Techniken der Information und Kommunikation zu beschreiben versucht. Wie auch schon der erste Band »HyperKult«1, der die Ergebnisse der fünf Workshops an der Universität Lüneburg zwischen 1991 und 1 Martin Warnke/Wolfgang Coy/Georg Christoph Tholen (Hrsg.): HyperKult, Basel 1997. Mit Beiträgen von Hubertus von Amelunxen, Peter Bøgh Andersen, Knud Böhle, Wolfgang Coy, Arnold Dreyblatt, Peter Gendolla, Rolf Großmann, Wolfgang Hagen, Heiko Idensen, Friedrich Kittler, Hans-Joachim Metzger, Joachim Paech, Jörg Pflüger, Uwe Pirr, Peter Schefe, Georg Christoph Tholen, Martin Warnke, Rudolph Wille und Hartmut Winkler.
8
Einleitung
1995 auswertete und – nach gründlicher Überarbeitung der für die Publikation ausgewählten Vortragsmanuskripte – in einem in sich kohärenten Buch verdichtete, dokumentiert der vorliegende Band im Sinne des oben genannten Dialogs ausgewählte Beiträge der Tagungsreihe »HyperKult«, ohne hierbei sich auf die Funktion eines bloß dokumentarischen Tagungsbandes zu beschränken. Der vorliegende Band »HyperKult II« fokussiert ein Leitmotiv der Tagungsreihe, das sich in den Jahren von 1997 bis 2004 herauskristallisierte: die Dazwischenkunft des Computers als eines digitalen ›Intermediums‹. Anders, und als Frage formuliert: Worin besteht die angebliche Leitdifferenz der analogen und digitalen Medien? Was ist der Übergang oder, genauer: der transitorische Status des digitalen Codes, der vormalige Weisen der Speicherung, Übertragung und Verarbeitung von Daten und Signalen, aber auch von Darstellungsformen und Erzählweisen, zu verschieben bzw. zu manipulieren erlaubt? Eine systematisch wie historisch ausgewiesene Bestimmung der oben genannten Leitdifferenz zwischen dem Analogen und Digitalen kann nicht umhin, den kategorialen Ort dieses »Dazwischen«, der den heutigen Medienumbruch in jeder Hinsicht – als Divergenz wie Konvergenz der Medien – zu charakterisieren scheint, in den Vordergrund der Betrachtung zu stellen. Zur Beantwortung dieser Frage nach dem Dazwischen gliedern sich die Beiträge des Buches in zwei Abschnitte: im ersten Abschnitt »Analog und digital« geht es vor allem um die Begriffe des Analogen und Digitalen selbst, deren Genese und Geltung, ohne die der medientechnologisch wie informationstheoretisch bedeutsame Einschnitt der binären Codierung nicht so virulent geworden wäre – in der Informatik wie in den Kulturwissenschaften. Im zweiten Abschnitt, betitelt mit »Virtualität und Intermedialität«, geht es um die intermedialen Funktionen und Gestaltungen von Klang-, Text- und Bildräumen, die sich in der Musik, der Architektur, den Formsprachen des Films und der performativen Künste, aber auch in den interaktiven Dynamiken der Computerspiele und postmodernen Rollenzuweisungen zwischen den Geschlechtern auffinden lassen. Hybridisierung des Realen und Virtuellen, so der vorläufige Stand der Forschung, kennzeichnet die Eigensinnigkeit der gerade erst begonnenen digitalen Medienrevolution, deren Verschmelzung mit der Telekommunikationstechnik zu noch ungewohnten Überlagerungen von imaginären, symbolischen und realen Räumen geführt hat, die sich der freilich noch
Einleitung
9
unausgeloteten Geste der – ihrem Selbstverständnis nach universellen – digitalen Codierbarkeit verdanken. Im ersten Abschnitt des Bandes analysiert Wolfgang Coy in seinem Beitrag »Analog/Digital. Schrift, Bilder & Zahlen als Basismedien« den medientheoretischen Status des Digitalrechners, der die bereits entwikkelten Codierungstechniken und Zeichen-Praxen, etwa die des Alphabets und des Stellensystems der Zahlen, radikalisiert und zu neuen, unerwartbaren Formen multimedialer vernetzter Medienensembles geführt hat. Jörg Pflüger untersucht in seinem ebenso umfangreichen wie für die Frage der Gegenüberstellung des Analogen und Digitalen grundlegenden Beitrag »Wo die Quantität in Qualität umschlägt« die Heraufkunft und den Geltungsanspruch der Kategorie des Digitalen. In einer minutiösen Fallstudie zu den Debatten der sog. »Macy-Konferenzen« der Jahre 1946 bis 1953, die in wissenschaftsgeschichtlicher Perspektive als epistemologische Geburtshelfer der neuen Disziplin »Kybernetik« beschrieben werden können und an der für die Computer- wie Medienwissenschaft so wegweisende Wissenschaftler wie von Neumann, Licklider, Bateson, McCulloch, Wiener u. a. teilgenommen haben, weist Pflüger die begrifflichen Aporien und Erneuerungen nach, die mit den Unterscheidungen des Kontinuierlichen (Analogen) und des Diskreten (Digitalen) zu einem Verständnis der digitalen Zeichen, d. h. der arbiträren Zuordnung von Zeichen und Signalen, führt, welches die mediale Eigensinnigkeit der Computer zu bestimmen erlaubt: Während nämlich wegen ihres stetigen Verlaufs analoge Repräsentationen stärker an das jeweilige Trägermedium gebunden sind, bedürfen arbiträr-digitale Codierungen keiner »vorgegebenen Zusammenhangsbedingung«. Eben deshalb sind digitale Zeichen in beliebige Formate »umkodierbar und können unterschiedliche Inhalte annehmen«. Mit dem Computer als Kulturtechnik ist die Trennung der maschinellen bzw. medialen Re-Präsentation von ihrer bloßen Präsentation möglich geworden: dies erst markiert den Sachverhalt der medienunspezifischen Reproduzierbarkeit und Manipulierbarkeit der (analogen) Medien selbst, oder, philosophischer formuliert: die Einsicht in die unhintergehbare »reine« Möglichkeit von Bedingungen der Möglichkeit. Annett Zinsmeister zeigt, hieran anschließend, in ihrem Beitrag »Analogien im Digitalen«, wie die Architektur die Rolle eines Interface zwischen Realem und Symbolischem annimmt, eines Zwischenraums also, an der das Analoge und das Digitale, das Semantische und das Syn-
10
Einleitung
taktische aneinandergrenzen. Computer wirken als Leerstelle, auf der sich die Verschiebungen zwischen den Registern vollziehen können. Thomas Hölscher beschreibt in seinem Aufsatz »Nelson Goodmans Philosophie des Analogen und des Digitalen« das Begriffspaar »analog/ digital« im Anschluß an Nelson Goodman als eine sich nicht wechselseitig ausschließende Form der Symbolisierung. Im jeweiligen Bildgebrauch und Bildverständnis von Kunst und Wissenschaft, die sich analoger und digitaler Symbolsysteme bedienen, zeichnet die Kunst sich vor allem dadurch aus, eine »endlose Suche« mit »offenen Meßprozessen« zu initiieren. Frieder Nake und Susanne Grabowski zeigen in ihrem Beitrag »Zwei Weisen, das Computerbild zu betrachten« an einem bekannten Bild der frühen Computergraphik, daß das Analoge und das Digitale nicht im Realen existieren, sondern Sichtweisen bezeichnen, die im Begriff des »algorithmischen Zeichens« zusammenkommen. Bei der »Programmierung des Schönen« zeigt die Kunst die Einheit des Analogen und des Digitalen. Martin Warnke beschreibt in seinem Beitrag »Quantum Computing«, wie das Analoge und das Digitale in Korrespondenz zu den Materie-Eigenschaften der Welle und des Teilchens keine sich ausschließenden, sondern sich ergänzende Sichtweisen sind. Im Quanten-Computing fallen sie in eins und werden in ihrer Verschränkung ausgenutzt – mit allen epistemologischen Dilemmata, die die Überschreitung solcher strikter Grenzen zeitigt. Zum Auftakt des zweiten Abschnitts »Virtualität und Intermedialität« zeichnet Jochen Koubek in seinem die Frage nach dem »Raum« eröffnenden Beitrag »Zur Kulturgeschichte des physikalischen Raums« nach, worin die historischen Grundlagen aller virtueller Räume, auch die von der physikalischen Struktur des Räumlichen überhaupt bestehen – vom hierarchischen Kosmos der Antike bis zur gekrümmten Raum-Zeit der allgemeinen Relativität und den aufgerollten Dimensionen der Stringtheorie. Rolf Großmann beschreibt in seinem Beitrag »Monitor – Intermedium zwischen Ton, Bild und Programm« den Monitor als Zwischen-Raum von Ton-Bild-Text-Relationen. Das Dazwischen der technischen Medien erlaubt im Computer die Verschaltung des jeweils ursprünglich Wahrnehmbaren. Er führt hierzu – exemplarisch – die prominentesten Werke der Musikliteratur an, an denen sich diese Tendenz ablesen läßt. Michael Harenberg berichtet in seinem Beitrag »Die musikalisch-ästhetische Verortung klingender Räume« von den symbolischen Zeichen-Räumen der Partituren und von den digitalen Medien als ihrem Dazwischen. Im akustischen Cyberspace geschieht
Einleitung
11
die Heimholung des radikal klanglich Neuen auf Grundlage dosierbarer Leerstellen der Beliebigkeit im Zusammenfallen von Klangraum und Strukturraum. Christoph Rodatz beschreibt in seinem Beitrag »Der Raum des Theaters« anhand einer Parzifal-Inszenierung die Rolle des Computers als An-Ordnung von symbolischen Ver-Ortungen. Er verwendet hierfür den Begriff der »Atmosphäre« in Erweiterung der Semiotik, um die körperliche Anwesenheit der Wahrnehmenden stärker ins Blickfeld zu rücken. Computer mit ihrer das Körperliche ins Geschehen hereinholenden Peripherie haben in der Form der Interaktion einen erheblichen Einfluß auf die neue ästhetische Positionierung des Theaters. Uwe Pirr zeigt in seiner Analyse des digitalen Films »Vom Monitor auf die Leinwand«, wie die digitale Technik hinzu- und dazwischentritt und damit die Ästhetik des Films und damit auch die Anmutungen der digitalen Alltagsumgebungen beeinflußt. Ute Holl thematisiert in ihrem Beitrag »Mazzen Fazzen Augenjazzen« den Eigen-Sinn der Medien als formbildendes Prinzip, das gerade an den digitalen Medien in ihrer materialreichen, intermediären Funktion studiert werden kann: Lars von Triers Gottsuche etwa findet zwischen den Bildmedien statt, seine puritanischen Epiphanien ereignen sich im Feld des Elektronischen selbst. Hans Dieter Huber führt uns in seinem kunst- und medienhistorsich argumentierenden Beitrag »Das Cut-Up als Schnittstelle der Intermedialität« die Tradition der Collage in den Medien Bild, Text, Musik und Bewegtbild vor Augen und weist nach, wie diese gerade auf der Grundlage digitaler Medien zwischen Kunst und Kultur als intermediäre Strategie wirksam werden kann. Claus Pias zeigt in seinem für die Fragestellung des Verhältnisses von Kultur und Technik ebenfalls grundlegenden Beitrag »Die Pflichten des Spielers« über die historische Wurzel des Computerspiels nach, daß das Technische der Technik nicht auf die instrumentelle Dimension der Werkzeuge, Apparate und »Extensionen« des Menschen im Sinne McLuhans zurückgeführt werden kann. Die irritierende Unruhe, die die Technik stiftet, ist als Kraft einer Konfiguration zu entschlüsseln, die allererst »Relationen organisiert und dadurch innerhalb eines strategischen Dispositivs Neues und Unerwartetes produziert.« Diese »Unruhe der Technik« ist ein transversales Phänomen, das sich in den Fallstudien zur Virtualität und Intermedialität bekundet, in ihnen aber nicht aufgeht. Britta Schinzel weist in ihrem Beitrag »Das unsichtbare Geschlecht der Neuen
12
Einleitung
Medien« darauf hin, daß und wie sich die in sozialer Hinsicht besonders wirkmächtigen digitalen Medien in das Geschlechterverhältnis einmischen, ihren Eigensinn und ihre Macht hierbei im Verborgenen entfalten. Die Sichtbarmachung und Entschlüsselung dieser Codierungen wiederum kann zur Technik des De-Gendering beitragen. War es 1991, dem Jahr des ersten HyperKult-Workshops, noch gewagt, einen eigenen Diskurs zwischen Informatik und Kulturwissenschaft anstiften zu wollen, ist seine Etablierung zu Beginn des einundzwanzigsten Jahrhunderts mittlerweile an vielen Orten einschlägig geworden, wie das Szenario von Tagungen, Workshops und Festivals und die Vielzahl der interdiziplinären Publikationen beweisen. HyperKult als Tagungsreihe kann für sich in Anspruch nehmen, eine der Anstifterinnen gewesen zu sein. Die Bände Hyperkult I und II können und wollen dies bezeugen. Die Herausgeber des vorliegenden Bandes sind zu Dank verpflichtet vor allem dem Fachbereich »Informatik und Gesellschaft« der »Gesellschaft für Informatik e. V.«, der wesentliche Teile der Finanzierung des Projekts übernommen hat, den Referentinnen und Referenten der Workshops, die nicht die Mühe scheuten, ihre Beiträge für diese Publikation zu überarbeiten und zu aktualisieren. Besonderer Dank gebührt Claus Pias, der – über seinen eigenen Text hinaus – sich durch unbezahlbare (und unbezahlte) Arbeit an Layout, Typographie und Gestaltung des Bandes ebenso verdient gemacht hat wie durch sein Engagement bei der konzeptuellen Fortführung und Umgestaltung der Tagungsreihe, die auch in diesem Jahr wieder in Lüneburg stattfinden wird.
Lüneburg im Mai 2005 Martin Warnke, Wolfgang Coy, Georg Christoph Tholen‚
I Analog und digital
Wolfgang Coy
Analog/Digital Schrift, Bilder & Zahlen als Basismedien
1. Bilder, Zahlen, Schrift & Alphabet Schrift ist als Visualisierung gesprochener Sprache entstanden. Die frühen Zeichen sind als Verbildlichung von Worten oder ›Ideen‹ entstanden. Typisierung zur Abstraktion: Ein Weg, der über 20000 oder 30000 Jahre verfolgt werden kann, von steinzeitlichen Höhlenbildern bis zu Hieroglyphen, Kanji-Zeichen und Icons. Einsilbige Worte können dabei zu Bausteinen mehrsilbiger Worte werden – ein weiterer Schritt der Abstraktion, der in China und Japan ebenso wie im Mittelmeerraum vollzogen wurde. Ein Widerhall der vokallosen phönizischen Silbenschrift ist noch in der hebräischen und arabischen Schrift zu finden. Die universelle Schließung des Alphabetes gelang (für mehr als anderthalb Jahrtausende unbemerkt) den Griechen, die statt der für ihre Sprache unpassenden semitischen Silben dem griechischen Kehlkopf angepaßte Konsonanten und Vokale erfanden, eine Erfindung, die im Kern die Verschriftlichung aller weltweit gesprochener Dialekte erlaubt. Die Schrift behält im Gewebe der Texte jedoch ihre ›Schriftbildlichkeit‹, um einen Ausdruck von Sybille Krämer zu verwenden. Diese Schriftbildlichkeit wird durch die Aufbereitung der Schrift zum formellen Manuskript seit der Mitte des 12. Jahrhunderts umfänglich erweitert und als typographische Aufbereitung des Textes mit dem Satz und dem Buchdruck festgeschrieben. Schrift wandelt sich derart von der phonemischen Notation zum Schriftbild, das eine Fülle von Lesetechnischen Hilfen bereitstellt. Deswegen können wir schneller und anders Lesen als Zuhören. Zwar kann der Text auf Fragen nicht antworten, wie Platon unbedingt anmerken mußte, aber wir können auch Textpassagen überfliegen und überspringen – ohne allzu unhöflich zu werden. Mit
16
Wolfgang Coy
dem Alphabet wird eine symbolische Welt des Gedächtnisses und des Nachdenkens eröffnet. Eine eigenständige Entwicklung nimmt die völlig symbolische Form der Zahlen. Zahlen sind sicherlich aus der Erfahrung und als Abstraktion von Ansammlungen gleicher oder fast gleicher Elemente entstanden: der Anzahl Tiere in einer Herde, der Anzahl Ziegel beim Hausbau, der Anzahl einer Menge von Samenkörnern. Die frühen Zählprozesse waren deshalb wohl Zuordnungsprozesse, bevor Aufzähltechniken entstanden. So wurde die Anzahl der Tiere einer Herde durch eine entsprechende Zahl von Tonkügelchen in einer versiegelten Vase festgestellt. Brachte der sumerische Hirte die betreute Herde zurück, so mußte die Zahl der Tiere den verwahrten Kugeln in der versiegelten Vase entsprechen. Der Prozeß des Zählens ließ sich, weniger gerichtssicher, auch unter Einsatz der Hände (und gelegentlich der Füße) bewerkstelligen – also mittels Zählen. Dies mündete in der Abstraktion des Zählens und einer entsprechenden Notation – meist mit Hilfe schon vorhandener Schreibnotationen – so bei den Hebräern und Arabern, aber auch bei den Griechen. Typisch für diese frühen Zahlnotationen ist weniger ihre parasitäre Anlehnung an die Schrift, sondern die Idee, jeder Größenordnung ein eigenes Zeichen zuzuweisen. Die römischen Zahlen, die gerade nicht aus der griechischen Tradition, sondern aus einer etruskischen oder anderen italischen Notation stammen und sich deshalb mit eigenen Zahlzeichen vom lateinischen Alphabet absetzen, zeigen dies plastisch mit ihren Einer-, Zehner-, Hunderter- und Tausendergruppen, die durch abkürzende Sonderformen der 5, 50 und 500 ergänzt werden. Das Phonemalphabet, diese griechische Erfindung des 7. Jahrhunderts, hat das Sprechen zum Diktat geführt. Unvollkommen zwar, aber über einen langen Weg von fast drei Jahrtausenden bis zum internationalen phonemischen Standardalphabet ist eine Notation für die lautlichen Möglichkeiten des menschlichen Rachenraums entstanden. Das Alphabet ist in diesem Prozeß zur Wundertüte des symbolischen Raums geworden. Die pythagoräische Schule hat dies in dem ihr eigenen Überschwang in alle Richtungen verfolgt: Das Alphabet diente ihnen nicht nur zur Fixierung der Schrift, sondern auch als Zahlenvorrat, zur musikalischen Notation und selbst zur Beschreibung von Farben. Für die Pythagoräer gilt ›Alles ist Alphabet‹ oder ›Alles ist Zeichen‹, was einen formalen Aspekt beschreibt, aber auch auf einen verborgenen übergeordneten esoterischen Sinn deutet.
Analog/Digital
17
2. Kodes Bei Aristoteles heißt dieses Stigma der Pythagoräer ›Alles ist Zahl‹ – und dies ist präzis in dem Sinne, daß die Zahlen anders als Buchstaben, Musiknoten und Farben einen Verweis auf Abstrakta darstellen, eben auf das Zählbare, während Buchstaben, Musiknoten und Farben auf Sinneseindrücke verweisen. Diese sind freilich selber auf dem Weg vom Sinnlichen zum Abstrakten: Schon die Vokale und Konsonanten des griechischen Alphabetes sind von den Silben abstrahierende Konstruktionen – und die Musiknoten dienen zur Fixierung der Tonhöhe einer schwingenden Monochordsaite. Zahlen aber gehen weiter in diesem Abstraktionsprozeß; sie verweisen bestenfalls auf den Prozeß des Zählens, also nicht auf einen Sinneseindruck, sondern eine geistige Tätigkeit. Dennoch haben die griechischen Zahldarstellungen einen gravierenden Mangel: Sie benötigen immer neue Zahlzeichen, um mit dem unbeschränkten Wachstum Schritt halten zu können, der im Zählprozeß angelegt ist. Dieses unbeschränkte Wachstum war den Erfindern der europäischen Mathematik selbstverständlich bekannt, und Techniker wie Archimedes konnten sehr große Zahlen, wie sie zur Bezeichnung astronomischer Längenverhältnisse nötig waren, exakt anschreiben. Eine allgemeine Methode zur Erweiterung des Zählraumes besaßen sie aber nicht. Dies war jedoch über Stellennotationen möglich, bei denen mit einem kleinen Ziffernvorrat beliebig große Zahlen exakt darstellbar sind, wenn die Stelle der Ziffer eine Zahlpotenz repräsentiert. Schon den babylonischen Mathematikern waren solche Stellensysteme geläufig – mit einem kleinen, aber wichtigen Manko: dem Nichts, das dann auftritt, wenn eine Stelle leer bleiben soll. Die Null also vollendet ein Stellensystem, indem sie die leere Position einer Stelle angibt. Die Babylonier haben bei Bedarf tatsächlich eine Stelle freigelassen, aber sie hatten dann Schwierigkeiten, wenn zwei oder mehr solche leeren, nicht-sichtbaren Stellen nebeneinander stehen sollten. In der Praxis war dies im babylonischen Sechzigersystem freilich weniger auffällig als in den Dezimalsystemen (oder gar im Binärsystem); es kam ja zum ersten Mal bei der Zahl 3600 vor. Ein Existenzrecht unter den Ziffernzeichen erhielt die Null viel später, wohl im 7. Jahrhundert in Indien oder vielleicht doch etwas früher in Indochina, wie Needham andeutet. Ihr gleiches Bürgerrecht freilich erhält sie noch später: dann nämlich, als sie nicht nur als Ziffer, sondern
18
Wolfgang Coy
auch als Zahl anerkannt wird – ein Prozeß, bei dem ein mathematischer ›Horror vacuii‹ zu überwinden war. Der Weg nach Europa verlangt von der Null den Umweg über die arabische Halbinsel nach Spanien und nach Oberitalien. Marco Polos Vermittlungstätigkeit beschert den Europäern zwar Seide und Ravioli aus China, aber eben nicht die überlegene indische Mathematik; diese wird erst mit der arabischen Buchhaltung und Wissenschaft in einem Zangenangriff importiert. Nach kurzen und kruden Querelen gelingt dem indisch-arabischen Stellensystem der konzeptuelle Durchbruch. Der äußeren Form nach ist das Stellensystem ein typografisches System wie die Buchstaben auch, mit typografischen Varianten ihrer Glyphen. Aber diese besitzen einen rein ideografischen Charakter, an dem keine Eierschalen einer phonemischen Geburt mehr kleben. Ziffern sind universelle Zeichen ohne nationalsprachliche Konnotation, so wie Fingerzahlen keinen verbalen Bezug haben – eben universelle Charaktere im Leibnizschen Sinne. Die Mathematik ist so zum Vorbild einer eigenständigen weltweiten Notation geworden (die dennoch nationale Überreste zu verwalten hat). Typografisch rücken die Zahlen mit dem Stellensystem in den Rang von Wörtern, deren beliebig anordenbare Elementarteilchen die Ziffern bilden. Ziffern sind also Lettern! Und wenn Alphabete wie Zahlen gleichermaßen ein typografisches Ordnungssystem beschreiben, braucht man einen neuen Oberbegriff: den Kode. Mit der Vorstellung von Kodes gewinnt der formale Charakter der Alphabete an Bedeutung. Ein einzelner Strich genügt zum Zählen, aber ein Stellensystem braucht eben eine Leerstelle, eine Null. Das minimale Stellensystem muß also Null und wenigstens ein weiteres Zeichen enthalten: ein Binäralphabet, heute meist, aber nicht zwingend, als {0,1} geschrieben. Francis Bacon scheint, um 1620, als erster die Frage nach einem minimalen Kode untersucht zu haben. Er stellt seinen Vorschlag für ein Binäralphabet, mit dem sich nicht nur Zahlen, sondern auch Buchstaben kodieren lassen, in den Kontext der geheimen Nachrichtenübermittlung – über einen Belagerungsring hinweg zur Verständigung mit der eingeschlossenen Festung. Nachrichtentechnik und Kryptografie: ›Wissen ist Macht!‹ Bacons Vereinheitlichung der Schriftalphabete mit den numerischen Stellensystemen enthält aber mehr Sprengstoff als seine Schrift ›De dignitate et augmentis scientiarum‹ enthüllt. Wenn nämlich alle Ziffern Lettern sind und, wie Bacon entdeckt, alle Lettern mit den zwei Ziffern
Analog/Digital
19
0 und 1 notierbar sind, so läßt sich auch mit allen Lettern rechnen. Dies begreift Gottfried Wilhelm Leibniz um 1697.1 Für ihn ist es ein göttlicher Hinweis im großen »Buch der Natur«: »Einer hat Alles aus Nichts gemacht«, oder moderner ausgedrückt: Alles ist binär konstruierbar. Aber eben nicht nur konstruierbar, sondern auch berechenbar, denn die Operationen der Addition und Multiplikation lassen sich wie ihre Umkehroperationen der Subtraktion und der Division auch im binären Zahlkörper vollziehen. Die binäre Arithmetik ließe sogar eine einfache maschinelle Verarbeitung zu, wie Leibniz in einem Brief anmerkt – er baut jedoch eine Dezimalmaschine, um die erhofften feudalen Geldgeber nicht zu verschrecken. Allein, diese ›Anschlußfähigkeit‹ bleibt ohne den erhofften Erfolg, so daß wir Leibniz in diesem Bereich vor allem als großen Vor-Denker einstufen müssen. Während Leibniz so doch noch eine Interpretation von ›Null/ Nichts‹ oder ›Eins/Eines‹ beibehält, die sich ja noch in Hegels »Logik« widerspiegelt, bricht Hegels Zeitgenosse Carl Friedrich Gauß kühl mit diesen metaphysischen Eierschalen. Er setzt bei seinen telegrafischen Versuchen um 1830 an die Stelle von 0 und 1 die Zeichen + und – und weist damit auf die Elektrifizierbarkeit der digitalen Kodes hin. Seit Leibniz kann man mit Recht die alphabetischen Kodes als digitale bezeichnen, auch wenn dies erst mit den digitalen Rechenmaschinen des 20. Jahrhunderts üblich wird. Festzuhalten bleibt: Zahlen sind als Wörter lesbar, und Wörter sind als Zahlen lesbar. In diesem formalen Sinne gilt: Ziffern sind Lettern und Lettern sind Ziffern, beide Varietäten des Digitalen.
3. Digitalrechner Leibnizens Vorstoß zum Bau einer binären Rechenmaschine bleibt für Jahrhunderte folgenlos. Über zwei unterschiedliche Pfade wird sie nahezu gleichzeitig im Jahr 1936 realisiert: als binär kodierte Rechenmaschine des Berliner Bauingenieurs Konrad Zuse und als logisch abgerundetes Konzept einer Paper machine, der Turing-Maschine des Cam-
1 John Napier hat in seiner Rabdology schon vorher ein Rechenschema für Binärzahlen vorgestellt. Leibniz nimmt drauf keinen Bezug. Nach einem brieflichen Hinweis des Pekinger Jesuitenpaters Bouvier glaubt er, daß die Chinesen im I-Ging bereits einen Binärkode entwickelt hätten.
20
Wolfgang Coy
bridge-Mathematikers Alan M. Turing, der in seinem Aufsatz »On computable Numbers with an Application to the Entscheidungsproblem« das algorithmische Potential und einige Grenzen des Einsatzes digitaler Rechenmaschinen formuliert. Die technische Umsetzung erfolgt im zweiten Weltkrieg und danach, zur Dekodierung von Wehrmachtsfunksprüchen, zur Berechnung ballistischer und navigatorischer Tabellen und zur Berechnung der Atombomben und der Interkontinentalraketen. Turings Akzent liegt auf der programmierten ›Berechenbarkeit‹ seines Maschinenkontruktes, und er legt damit ein sauberes Konzept formal-logischer Berechenbarkeit (und Entscheidbarkeit von logischen Prädikaten) vor. Damit wird die Linie mechanischer Rechenmaschinen von den bereits von Leibniz gebauten Vier-Species-Maschinen zu einem Maschinentyp fortgesetzt, der jegliche formal definierte Rechnung als Programmschrittfolge abarbeiten kann – im Prinzip unabhängig von der zugrunde liegende technischen Realisierung seiner universellen Paper machine. Tatsächlich erweisen sich elektro-magnetische und elektronische Bauelemente, wie sie von Konrad Zuse, Howard Aiken seit 1936 und anderen verwendet wurden, als die maschinelle Basis künftiger Rechentechnik, die später um Transistoren und Halbleiterschaltungen, Magnetbändern und -platten, CDs und DVDs erweitert wird. Die logische Qualität der Turing-Maschinen ist zweifelsfrei, wenngleich ihre Umsetzung in Befehlssätze, Programmiersprachen, Software und Softwareentwicklungstechniken durchaus eine anspruchvolle Aufgabe ist und bleibt. Die maschinelle Basis hängt aber, wie Alan Turing ebenso wie Konrad Zuse, Howard Aiken oder John von Neumann schnell vermerken, von der Zuverlässigkeit der Bauelemente, insbesondere der Speicher ab. Die neue digitale Technik hängt also mindestens so stark von der Leistung und Programmierung ihrer Prozessoren wie von der Präzision und Zuverlässigkeit ihrer Speicher ab. Mit den großen digitalen Speichern, wie sie mit den magnetischen Techniken vom Magnetband über den Ferritkern bis zu den Magnetplatten, aber auch mit den bistabilen Kippstufen der RAMs und ROMs und den optischen Speichern bereitgestellt werden, wird die Rechentechnik zur Datentechnik oder Informatik. Unter Mediengesichtspunkten steigert die Digitaltechnik die Zuverlässigkeit von Speicherung, Übertragung und Kopieren um Größenordnungen. Die Sicherheit der Speicherung beruht auf der Zuverlässigkeit, mit der zwei unterschiedli-
Analog/Digital
21
che physikalische Zustände für die Speicherung eines Bits auch nach längerer Speicherung unterscheidbar bleiben. Entsprechend hängt die Sicherheit der Übertragung und Kopie vom Rauschen der Übertragungskanäle, also den möglichen Störsignalen ab. Diese physikalischen Qualitäten unterscheiden digitale Techniken freilich nicht von analogen Medienspeichern; das Neue der Digitaltechnik liegt in der Möglichkeit, Unzuverlässigkeiten wie Alterung, Rauschen und andere Störungen mit Hilfe geeigneter Kodiertechniken zu mildern, und dies in beinahe beliebigem Maße. Dies wird durch fehlerentdeckende und fehlerkorrigierende Ziffernkodes erreicht.
4. Analoge Signale und digitale Kodes Interessant wird die Frage beliebig guter Kopierbarkeit oder Übertragbarkeit bei Meß- oder Mediensignalen, wie sie die autografischen Medien erzeugen. Hier schleifen die zu übertragenden oder zu kopierenden Schwingungen durch die physikalischen Ungenauigkeiten der Meßwerterfassung ab. Eine Fotografie einer Fotografie enthält weniger Details als die ursprüngliche Version, eine Schallplatte kann keine perfekte Kopie einer anderen Schallplatte sein, ein mit einem Meßinstrument abgelesener Meßwert ist immer ungenau in dem Sinne, daß er keinen Wert, sondern ein Werteintervall angibt. Die analogen Speicher der autografischen Medien des 19. und beginnenden 20. Jahrhunderts, also Foto, Film, Schallplatte oder Magnetband, speichern also keineswegs präzise Meßwerte, sondern Intervalle, innerhalb derer das gemessene Signal irgendwo, nicht mehr exakt bestimmbar, liegt. Das ist die Krux aller Aufnahmetechnik. In der digitalen Technik werden analoge Signale in Zahlen gewandelt; der Wandlungsprozeß selber ist freilich auch bei den benötigten Analog-digital-Wandlern mit ähnlichen Präzisionsverlusten behaftet wie die Aufnahme analoger Signale. Sind erst einmal die Signale digitalisiert, also in Zahlen verwandelt, so reduziert sich der Kopier- oder Übertragungsprozeß auf die Repetition eben dieser Zahlen. Bliebe es bei den Zahlen, so hätten wir eine neue Qualität erreicht, denn Ziffern sind Symbole, also nicht-körperliche Entitäten. Sie zu kopieren scheint idealiter in völliger Perfektion möglich. Doch leider gibt es keine Speicher für Ziffern, sondern nur für deren körperliche Erscheinungsformen, also digitale Signale. Erst als Signale erhalten Zif-
22
Wolfgang Coy
fern eine materielle Gestalt, und alle Operationen des Speicherns, Übertragens und Kopierens sind so perfekt wie die zugrunde liegende Signaltechnik – mit einer kleinen, freilich nicht unwichtigen Besonderheit: Ganze Zahlen lassen sich in den Grenzen fehlerkorrigierender Kodes perfekt restaurieren und auf ihren Ausgangswert zurücksetzen. Solange diese Korrekturen funktionieren, sind digitalisierte Signale verlustfrei speicherbar, übertragbar und kopierbar. Wenn nur einzelne Lettern und Ziffern übertragen und kopiert werden, ist es einleuchtend, daß eine beliebig hohe Präzision erreichbar ist, denn die Grundaufgabe der Übertragung oder Kopie heißt: »Lies eine Zahl n im Speicher A und schreibe diese Zahl in den Speicher B!« Für eine einzelne Ziffer scheint dies keine große Herausforderung zu sein, für die Kopie von Millionen oder Milliarden Zeichen sind freilich technische Vorkehrungen zu treffen, um die Fehlerfreiheit der Kopie oder Übertragung aufrechtzuerhalten. Was nun durch die Digitaltechnik verändert wird, ist die durch Kodierung steigerbare Präzision der Kopien einmal gespeicherter Werte. Im Analogen entspricht dies einer erneuten Aufnahme – womit die Umwandlung eines Meßwertes in ein Meßwertintervall erneut vorgenommen wird. In der Folge wird dieses Intervall zwangsläufig verändert und gegebenenfalls verfälscht. Anders kann man die Kopie digitalisierter Meßwerte verstehen. Sie sind Zahlen aus einem endlichen Zahlenvorrat möglicher Werte, dem Meßbereich. Und diese lassen sich durch geeignete Kodes mit beliebiger Genauigkeit kopieren. Währen die digitale Aufnahmetechnik ähnliche Probleme der Genauigkeit wie die analoge zu lösen hat, besteht bei der Kopie die Möglichkeit beliebig gesteigerter Präzision. Dies ist eine wesentliche Differenz der beiden Techniken. Beliebige Genauigkeit beschreibt allerdings nur ein Potential, das je nach Ausprägung der Kodes mehr oder minder gut erreicht wird. Es sei deshalb vor der Illusion gewarnt, völlige Fehlerfreiheit sei im Digitalen erreichbar. Auch CDs sind nicht völlig fehlerfrei: Im statistischen Mittel enthält eine von zwei Audio-CDs, bedingt durch das normierte Fehlerkorrekturverfahren, einen unkorrigierten Fehler. Bei CD-ROMs und DVDs ist das sehr viel besser. Beliebig steigerbar ist es freilich nicht, denn jede Fehlerkorrektur verlangt zusätzlichen Speicherplatz – bis irgendwann der ganze Speicherplatz von der Sorge um die Korrektur aufgefressen wird. Eine völlig fehlerfreie (also beliebig korrigierbare) Kodierung ist auch mit digitalen Techniken niemals erreichbar.
Analog/Digital
23
Die Differenz zwischen analoger und digitaler Speicherung ist also die eines zwar großen und beliebig steigerbaren quantitativen Sprunges, aber keine völlige ›Wesensfremdheit‹, wenngleich ein Hegelscher Umschlag von Quantität zu Qualität2 sichtbar zu werden scheint.
5. Und die Bilder? Digitalrechner und Digitalkodes werden durch die Digitalisierung analoger Signale zu großen Unifikatoren. Alle Signale, die aus Schrift oder Zahlen bestehen und alle Signale, die sich in Zahlen oder Schrift verwandeln lassen, sind in digitalen Speichern ablegbar. Einheitliche, programmierbare Speicher sind das eigentliche Kennzeichen des Digitalen. Und diese werden immer größer. Mitte der Sechziger stellt IBM die erste erfolgreiche magnetische Wechselplatte vor, die IBM 2305. Sie speichert in einer tortengroßen Ausführung 5 Megabyte, also etwa den Textumfang von einem Dutzend Büchern. Dasselbe Material in Taschenbuchform wäre kompakter gewesen. Derzeit (im Jahr 2003) fassen Platten mit 3,5 Zoll Durchmesser 160 Gigabyte, und mittlere Rechenzentren halten Plattenplatz im Terabytebereich vor – Speicher, in denen mehr digitalisierter Text als in irgendeiner Bibliothek der Welt speicherbar wäre. Aber es sind eben nicht nur Texte und Zahlen, die in Binärfolgen umgewandelt werden, sondern auch Töne, Bilder und Filme. Bildsensoren in CCD- oder CMOS-Technik erlauben es, Bilder zu rastern und die Rasterpunkte in Zahlenwerte umzuwandeln – in einer Geschwindigkeit, die digitale Videotechnik mit 25 oder 30 Bildern in der Sekunde als Konsumtechnik anzubieten hilft. Fernsehstudios sind inzwischen voll digital geworden, und die Hollywood-Industrie zieht nach. Der Film verliert die Referenz seines Namens: digitale Speicher ersetzen das Zelluloid. Die Projektion wird digitalisiert – im Kino ebenso wie beim LCD-Fernsehschirm, einer Technologie, die dem LCD-Computerbildschirm entspringt. Film wie Fernsehen: die Digitaltechnik wandelt wie im Audiobereich die gesamte Produktionskette. Selbst Videorekorder werden entweder durch DVDs ersetzt oder von Bandmaschinen zu Festplattenrekordern.
2
Siehe hierzu den Artikel von Jörg Pflüger in diesem Band!
24
Wolfgang Coy
Mit der Lösung des Speicherproblems trägt der zweite Aspekt der Digitalisierung: Die programmierte Bearbeitung des digitalisierten Materials. Oberflächlich wird dies in der Erweiterung der special effects3 sichtbar. Doch hinter der FX-Produktion werden handfeste ökonomische Vorteile sichtbar: billiges Aufnahmematerial, virtuelle Kulissen, nicht-linearer Schnitt. Die nicht-lineare Bearbeitung, die durch den direkten, adressierten Speicherzugriff und durch programmierte Arrangements möglich wird, greift radikal in die gerade einmal hundert Jahre alte Tradition der filmischen Bildfolgen ein. So wie der Text durch programmierte Links in das Gewebe des Hypertextes verwandelt wird, werden Bildfolgen in ein hypermediales Gewebe von Takes oder Clips gewandelt. Die autorengenerierte lineare Anordnung wird um Navigation und programmierte Interaktion ergänzt. Die Computerspiele-Industrie hat dies zuerst aufgegriffen, aber die Möglichkeiten verknüpfter multimedialer Elemente reichen von den CDFassungen von Wörterbüchern und Lexika bis zu den ersten Realisierungen virtueller Welten.
6. Computer sind Medienmaschinen (geworden) Das Konzept programmierter Hypertexte reicht in die sechziger Jahre zurück. Allgemein bekannt wurde es in den Neunzigern durch das World Wide Web und die unterliegende Hypertext Markup Language HTML, die zu dem übertriebenen Ruhm kamen, mit dem Internet identifiziert zu werden. Das Netz erweitert die Multimediamaschine Computer zum Netzmedium. Auch die Vernetzung beruht wesentlich auf der Digitalisierung: Sowohl die Adressierungschemata und -mechanismen wie auch die Datenübertragungsmechanismen der Paketvermittlung sind ohne Rechentechnik nicht realisierbar. Vernetzung und Multimedia definieren moderne Computer als Medienmaschinen. Dies ist nicht ihre einzige Erscheinungsform und nicht ihre endgültige, aber es ist zur dominierenden Erscheinungsform geworden. Dies gilt zumindest solange, wie der PC die dominierende Form des Computers ist. Schon werden neue Formen sichtbar – in der Verschmelzung mit der Telekommunikationstechnik, in den Prozessoren der embedded Systems (deren Stückzahlen die PC-Produktion 3
Siehe hierzu den Artikel von Uwe Pirr in diesem Band!
Analog/Digital
25
übertreffen) oder in den Konzepten des ubiquitous Computing oder der wearable Computer. Die digitale Medienrevolution hat erst begonnen, und nicht alle Computer werden zu Bildschirmmedien.
7. Das Spannungsfeld analog/digital Greifen wir noch einmal die Frage nach den Unterschieden digitaler und analoger Kodierung auf. Sie kann entlang zweier Konstrukte verfolgt werden: den Speichern und den Prozessoren. Medial schlägt sich die symbolische, speziell die numerische Herkunft des Digitalen in den unifizierten Speichern, den Digitalbändern, CDs und DVDs nieder. Dies erweist sich für die Trennung analog/digital nur bedingt als aussagekräftig: zwar sehen wir eine deutliche Steigerung der Dauerhaftigkeit der Speicherung, der Stabilität der Übertragung und Sicherheit beim Kopieren, aber dies begründet nur einen Aspekt der Differenz von analog und digital, eben eine Erweiterung der alphabetischen Tradition als Kode. Der andere wesentliche Aspekt liegt in den erweiterten maschinellen Verarbeitungsmöglichkeiten der gespeicherten Kodes mit Programmen und Prozessoren: die mediale Interaktion wird um dynamische Formen der Navigation in den Medien erweitert, die den analogen Medien abgehen. Hypertexte und auf den Nutzer programmiert reagierende, mediale Speicher sind die ersten Formen dynamischer ›virtueller Welten‹, wie sie die herkömmlichen analogen Medien nicht bieten konnten. Erst in diesem Sinne ist sinnvoll, ›Digitalmedium‹ und ›Computer‹ als Speicher, Prozessor und Programm zusammen zu denken.
Literatur Berners-Lee, Tim/Fischetti, Mark: Weaving the Web. The original design of the World Wide Web by its inventor, New York : HarperCollins Publishers 2000. Cailliau, Robert: A Short History of the Web, European branch of the W3 Consortium Paris, 2. November 1995. Coy, Wolfgang: »Beyond Turing?«, in: Klaus Peter Dencker (Hrsg.), Interface 5. Die Politik der Maschine. Computer Odyssee 2001, Hamburg: HansBredow-Institut 2002.
26
Wolfgang Coy
Coy, Wolfgang: »Eine kurze Geschichte der Informatik in Deutschland«, in Jörg Desel, Anwendungsorientierte Informatik, Berlin, Heidelberg, New York: Springer 2001. Coy, Wolfgang: »Wer kontrolliert das Internet«, in: Sybille Krämer, Medien Computer Realität, Frankfurt/M.: Suhrkamp 1998. Coy, Wolfgang: »Hat das Internet ein Programm?«, in: Joachim Paech (Hrsg.), Strukturwandel medialer Programme. Vom Fernsehen zu Multimedia, Konstanz: UVK Medien 1999. Coy, Wolfgang: »Einleitung«, in: McLuhan, Herbert Marshall: Die Gutenberg Galaxis, Bonn: Addison-Wesley 1996, S. VII-XVIII. Kittler, Friedrich: Alan Turing. Enigma, Berlin: Brinckmann&Bose 1992. Lanier, Jaron: Interview mit Corey S. Powell, in: Scientific American, 15. September 1996. Licklider, Joseph C. R.: »Man-Computer Symbiosis. IRE Transactions on Human Factors in Electronic«, in: HFE-1, March (1960), S. 4-11. Luhmann, Niklas: Die Realität der Massenmedien, Opladen: Westdeutscher Verlag 1998. Napier, John: Rabdology or Calculation with Rods, Vol. 15 in the Charles Babbage Institute Reprint Series for the History of Computing, Cambridge, London: MIT Press 1990. McQuillan, John M./Cerf, Vinton G. (Hrsg.): Tutorial. A practical view of computer communications protocols, New York: Institute of Electrical and Electronics Engineers 1978. Nelson, Ted: Literary Machines, Sausalito: Mindful Press 1999. Nyíri, Kristóf J. C.: »Cyberspace. A planetary network of people and ideas«, in: The UNESCO Courier, Juni (1997), S. 25-29. Turing, Alan M.: On computable numbers with an application to the Entscheidungsproblem, Proceedings of the London Mathematical Society (2) 42, 1936/37. Warnke, Martin/Coy, Wolfgang/Tholen, Christoph (Hrsg.): HyperKult. Geschichte, Theorie und Kontext digitaler Medien, Basel, Frankfurt/M.: Stroemfeld 1997. Winkler, Hartmut: »Über Computer, Medien und andere Schwierigkeiten«, in: Ästhetik und Kommunikation 96 (1997). Zuse, Konrad: Der Computer. Mein Lebenswerk, Berlin, New York u. a.: Springer 1984.
Jörg Pflüger
Wo die Quantität in Qualität umschlägt Notizen zum Verhältnis von Analogem und Digitalem
»I am a little disoriented by the opposition between analogical and digital.« – Gregory Bateson
1. In der Gegenüberstellung von Analogem und Digitalem werden zwei Unterscheidungen vermengt: Kontinuum vs. Diskretheit und Analogie vs. Arbitrarität. Das Verhältnis zwischen Diskretem und Kontinuierlichem erscheint dominanter, aber vielleicht ist auch nur die Begriffsbildung unangemessen. Schauen wir, was der indiskrete Speicher des Wissens, das Internet, über das Analoge zu sagen hat. Im Google Glossary finden wir unter dem Stichwort ›analog‹: »Representation of coding of information in a continuous signal that varies in proportion to what is being represented, compared to digital, where information is coded into discrete numerical values.« »An analogy of the difference between digital and analog signals is like the difference between real numbers and integers«. »For example, a clock with hands is analog, because the hands are always moving very slightly, while a digital watch is not analog because the display changes only once every minute.«1 Über ›analoge Signale‹ lesen wir: »A sound signal that is continuously variable by nature and corresponds exactly to real sound. … An analog recording technically contains more audio information than a digital recording, because digital sound consists of a finite series of 1
Google Glossary, meine Hervorhebungen.
28
Jörg Pflüger
ones and zeros that can never perfectly describe the original analog waveform … . However, analog recordings cannot be copied or manipulated without degrading the sound, and they often contain more noise than digital recordings. In practice, digital recordings sound better and are much easier to work with.« »An analog signal in its normal form does not have intelligence.«2 Die Definition des Analogen nimmt hier wie auch sonst Bezug auf seinen modernen Komplementärbegriff des Digitalen. Natürliche Prozesse wurden traditionell fast immer als kontinuierlich aufgefaßt und mathematisch im Kontinuum der reellen Zahlen behandelt. Ihre maschinelle Modellierung wird etwa seit Mitte des 20. Jahrhunderts als analog bezeichnet, was wohl der provozierenden Existenz eines mächtigen digitalen Gerätes – dem Computer – geschuldet ist. Aber die leichte Unterscheidbarkeit von analogen und digitalen Maschinen täuscht darüber hinweg, daß es nicht so einfach ist, die ihnen zugrundeliegenden Prinzipien begrifflich zu fassen. In den oben angeführten Charakterisierungen sind zwei verwandte, aber unterscheidbare Unterscheidungen verquickt: die Opposition von Kontinuierlichem und Diskretem (»continuous signal« versus »discrete numerical values«, »continously variable by nature«, »difference between real numbers and integers«), sowie der Unterschied zwischen einer zu ihrem Vorbild analogischen Modellierung (»in proportion to what is being represented«, »corresponds exactly to real«) und einer arbiträren Kodierung in einem digitalen System. Um dieses Gemenge, das insbesondere die Zweideutigkeit des Analogen betrifft, näher auszuleuchten, will ich mich im folgenden eng an die Diskussionen der 7. Macy-Konferenz im Jahre 1950 halten, in denen die beiden Begriffe und die ihnen zugrundeliegenden Konzepte im Kontext von Maschinen und Gehirnen intensiv diskutiert wurden, jedoch die Diskussionsbeiträge 2 Google Glossary. In dem lesenswerten Artikel von Andreas Brennecke »Physikalische Analogien und Ziffernrechenmaschinen« findet man in Teil 2 eine Aufzählung ähnlicher Charakterisierungen aus unterschiedlichen Epochen. Vgl. Andreas Brennecke: »Physikalische Analogien und Ziffernrechenmaschinen. Von mechanischen Rechengeräten zu Integrieranlagen und programmgesteuerten Maschinen«, in: Werner H. Schmidt/ Werner Girbardt, 1. Symposium zur Entwicklung der Rechentechnik 15.-17. 09. 2000, Greifswald: Ernst Moritz Arndt Universität 2000. Den Anfang September 2004 erschienenen Band »Analog/Digital – Opposition oder Kontinuum?« konnte ich nicht mehr berücksichtigen. Vgl. Jens Schröter/Alexander Böhnke (Hrsg.): Analog/Digital. Opposition oder Kontinuum? Zur Theorie und Geschichte einer Unterscheidung, Bielefeld: transcript-Verlag 2004.
Wo die Quantität in Qualität umschlägt
29
meinen Bedürfnissen entsprechend durcheinanderwirbeln.3 Mir scheint, daß sich sowohl hinsichtlich Klärung wie Verwirrung bis heute nicht allzuviel geändert hat.
Erste Reihe (v.l.n.r.): T. C. Schneirla, Y. Bar-Hillel, M. Mead, W. S. McCulloch, J. D. Fortuyn, Y. R. Chao, W. G. Walter, V. E. Amassian. Zweite Reihe: L. J. Savage, J. F. Lynch, G. v. Bonin, L. S. Kubie, L. K. Frank, H. Quastler, D. G. Marquis, H. Klüver, F. S. C. Northrop. Dritte Reihe: P. Kubie, H. W. Brosin, G. Bateson, F. Fremont-Smith, J. R. Bowman, G. E. Hutchinson, H.-L. Teuber, J. H. Bigelow, C. E. Shannon, W. Pitts, H. v. Foerster.
Abb. 1 – Abschlußbild der 10. Macy-Konferenz (nach Pias 2004)
Auf der Konferenz versucht der Neurophysiologe Ralph Gerard, Gregory Batesons Desorientierung abzuhelfen, indem er zusammenfaßt, was er aus den bisherigen Diskussionen gelernt hat: »The picture that I have of analogical and digital, owing to the expert tutelage that I have received here, primarily from John Von Neumann, is this: an analogical system is one in which one of two variables is continuous on the other, while in a digital system the variable is discontinuous and quanti3 Die zehn sogenannten Macy-Konferenzen, die von 1946 bis 1953 anfangs unter dem Titel »Circular Causal and Feedback Mechanisms in Biological and Social Systems« stattfanden und später in »Conferences on Cybernetics« umbenannt wurden, können als Geburtshelfer der Disziplin Kybernetik verstanden werden. Die Protokolle der letzten sechs Konferenzen wurden damals von Heinz von Foerster ediert und liegen nunmehr in einem von Claus Pias herausgegebenen Band vor. Vgl. Claus Pias (Hrsg.): Kybernetik. The Macy-Conferences 1946-1953. Band 1 Protokolle, Zürich, Berlin: diaphanes 2003. Da ich im folgenden viel daraus zitieren werde (bis auf eine Ausnahme nur aus der 7. Konferenz), führe ich im Text der Einfachheit halber nach dem Kürzel MC nur den Sprecher und die Seitenzahl an; wenn es sich um einen kurzen Dialog handelt, zitiere ich in der Form (Macy, MC, S. xxx).
30
Jörg Pflüger
zed. The prototype of the analogue is the slide rule, where a number is represented as a distance and there is continuity between greater distance and greater number. The digital system varies number by integers, as in moving from three to four, and the change, however small, is discontinuous. The prototype is the abacus, where the bead on one half of the wire is not counted at all, while that on the other half is counted as a full unit. The rheostat that dims or brightens a light continuously is analogical; the wall switch that snaps it on or off, digital. In the analogical system there are continuity relations; in the digital, discontinuity relations.«4 Wir finden die gleiche Mehrdeutigkeit wie in den aktuellen Definitionen, die sich hier aber in der Zwielichtigkeit des Ausdruckes »continuity« verbirgt: Die »continuity relations« meinen beides – Analogie wie Stetigkeit. Und sicherlich stellt ein Dimmer eine viel direktere, analoge Modellierung eines realen Prozesses dar als ein Rechenschieber.
Abb. 2 – Vier mechanische analoge Addierwerke (Soroka 1954, S. 2/3)5
4
Gerard, MC, S. 172; meine Hervorhebungen.
Wo die Quantität in Qualität umschlägt
31
J. C. R. Licklider, der Pate des Internet, artikuliert wohl am eindringlichsten das allgemeine Unbehagen an der Begriffsbildung, die die Maschinen unterscheidet, aber dem Verständnis ihres Unterschieds nicht recht gerecht wird: »I know which machines are called analogical and which are called digital. I don’t think those terms make sufficient distinction and that is all there is to it. It won’t help me to talk about differential analyzers.6 I know all about that. … It confuses us in communication here. These names confuse people. They are bad names, and if other names communicate ideas they are good names.«7 Die Anthropologin Margaret Mead schlägt daraufhin vor, sich die historische Entstehung des Begriffspaars zu vergegenwärtigen, worauf sich eine kurze Diskussion entspinnt, die hauptsächlich zeigt, daß man schon recht bald den Bezug zu den (vermutlichen) Anfängen verloren hatte. »Mead: It would help if we knew when this distinction was made in describing the machines, that is, if we knew the historical use of the term ›analogical‹. McCulloch: I don’t know how old it is. Wiener: I would put it at about 1940, when Bush’s machine was already developed and when the rival machine, the differential analyzer, and the machines which were working on the principle of the desk machine electronically were being developed. That began to be an acute issue about 1940, and I doubt if you will find any clear distinction older than that. McCulloch: They used to be called logical machines or analogical machines before the word ›digital‹ appeared. Hutchinson: Analogical, if I may use the word, the difference between 5 Tatsächlich berechnen drei Addierer 1/2 · (x + y) und der vierte 2 · (x + y); diese »Skalenfaktoren« mußten natürlich berücksichtigt werden. Da solche analogen Bausteine normalerweise – ganz analog zu digitalen Schaltungen – zu einem komplizierteren Gebilde zusammengesetzt wurden, mußte man insbesondere darauf achten, daß alle Eingänge eines Elementes den gleichen Skalenfaktor aufweisen, weil man sonst fürs Resultat keinen für alle Datenfälle gleichen Skalenfaktor erhält. 6 Differential Analyzer waren mechanische oder elektronische Analogrechner, mit denen man nichtlineare Differentialgleichungen numerisch integrieren konnte. Anfang der dreißiger Jahre entstand am MIT unter der Leitung von Vannevar Bush ein mechanisches Exemplar, das noch zur Zeit der Macy-Konferenzen als der Prototyp eines analogen Computers galt. (Abb. 3 – Der Differential Analyzer von Vannevar Bush (MIT 1995)) 7 Licklider, MC, S. 192.
32
Jörg Pflüger
the natural and real numbers, is hiding in the background all the time, but you must go back to the Greek mathematicians. Wiener: If you want to say that in one case you are dealing with counting and in the other, with measuring, the concept of the machine goes back to the Greeks. Hutchinson: That is a neat way of putting it. Wiener: Yes. Licklider: Continuous and discrete.«8
Bezeichnenderweise hat die Diskussion, deren Anlaß Lickliders Verwirrung über Sinn und Angemessenheit der neuen Begriffsbildung war, auf vertrautes Gelände zurückgeführt: die Entgegensetzung von Kontinuierlichem und Diskretem, wie sie seit der Antike existiert und zumeist mit der Unterscheidung von Messen und Zählen identifiziert wird.9 Und sie versteckt sich keineswegs. John von Neumann, dem auf den Macy-Konferenzen die Rolle des Computerexperten zuerkannt wurde, hatte sich schon 1948 in dem Aufsatz »The General and Logical Theory of Automata« mit dem Verhältnis von Analog- und Digitalcomputern auseinandergesetzt. Dort formuliert er ohne jeden Bezug auf die Frage, ob das Berechnungsmodell der Realität analog oder arbi8 Macy, MC, S. 192f. Wohl eine der ersten überlieferten Erwähnungen des Ausdrucks ›analog‹ im Zusammenhang mit Rechenmaschinen ist bei John Atanasoff in einem Memorandum von 1940 zu finden, der von »using a mechanical or electrical analogue« spricht. Vgl. John V. Atanasoff: Computing Machine for the Solution of Large Systems of linear Algebraic Equations (Unpublished Memorandum), Ames: Iowa State College 1940, zitiert nach dem Reprint in: Brian Randell (Hrsg.), The Origins of Digital Computers. Selected Papers, Berlin, Heidelberg, New York: Springer 1982, S. 316. Im Unterschied zu der später vorherrschenden Kontinuierlich/Diskret-Unterscheidung bezieht sie sich auf den Aspekt der Analogie zwischen Berechnung und modelliertem Prozeß. Siehe A, Brennecke: Physikalische Analogien. Der englische Computerpionier Douglas R. Hartree versuchte 1949 vergeblich, die alternative Terminologie von »calculating instruments« versus »calculating machines« einzuführen: »I have found it convenient to distinguish the two classes by the terms ›instruments‹ and ›machines‹ respectively; a corresponding distinction is made in the Encyclopedia Britannica (14th Edition), in which the two classes of equipment are considered in different articles entitled ›Mathematical Instruments‹ and ›Calculating Machines‹ respectively. In America a similar distinction is made between ›analogue machines‹ and ›digital machines‹, but the former term is, I think, usually restricted to the larger and more elaborate instruments; I have never heard a slide-rule referred to as an ›analogue machine‹, though in my classification it is certainly an ›instrument‹.« Douglas R. Hartree: Calculating Instruments and Machines, The University of Illinois Press, Urbana: 1949, S. 1. 9 Ein nicht unwesentlicher Teil von Hegels Logik ist dem Nachweis gewidmet, daß es sich dabei in ›Wirklichkeit‹ nicht um Gegensätze handelt. Vgl. Georg W. F. Hegel: »Wissenschaft der Logik.« in: Gesammelte Werke Band 11, Hamburg: Meiner 1978.
Wo die Quantität in Qualität umschlägt
33
trär gestaltet ist, zwei Prinzipien: »The Analogy Principle. … A computing machine may be based on the principle that numbers are represented by certain physical quantities. Operations like addition, multiplication, and integration may then be performed by finding various natural processes which act on these quantities in the desired way.« und »The Digital Principle. A digital machine works with the familiar method of representing numbers as aggregates of digits.«10 Doch Licklider kann sich mit dieser säuberlichen Scheidung nicht mehr zufrieden geben: »I also want to say that I think the time has come when some of us must really know what the distinction between analogical and digital is, besides that of continuous and discrete. Analogue and digit are not words that the ordinary person, even the intelligent person, holds up and says: These are opposite. I can conceive of digital system which is the digital process and the analogue of another digital process, and therefore really analogical. I need clarification. I wonder what the distinction is.« Darauf reagiert Warren McCulloch, der Diskussionsleiter der Konferenz, als ob nichts gewesen wäre: »May we start again with the question that was on the floor, that is, the question on continuous and discrete?«, aber Licklider insistiert auf der Berechtigung seiner Frage: »The question is simply this: We have been using the words ›analogical‹ and ›digital‹ to describe computers. To a lay man analogical and digital are not opposites in any very clear sense. We understand the distinction between continuous and discontinuous or between continuous and discrete. We understand roughly what an analogy is, but we would like explained to us here, to several of us and to many on the outside, in what sense these words are used in reference to the nervous system.«11 Nun fordert McCulloch Walter Pitts auf, eine Erklärung zu geben. 10 John von Neumann: »The General and Logical Theory of Automata«, leicht überarbeitetes Manuskript eines Vortrags auf dem Hixon Symposium am 20.9.1948, in: Abraham H. Taub (Hrsg.), John von Neumann. Collected Works, Vol. V, Oxford: Pergamon Press 1963, S. 292-294. Im Protokoll der 8. Macy-Konferenz treffen die Herausgeber Heinz von Foerster, Margaret Mead und Hans Lukas Teuber in einer »Note by the Editors« praktisch die gleiche Unterscheidung, als ob diese einfache Opposition von kontinuierlich und diskret ein Jahr zuvor nicht problematisiert worden wäre: »Computers are constructed on either of two principles: they may be digital or analogical. In an analogical device, numbers are represented by a continuous variation of some physical quantity, a voltage, say, or a distance on a disc. A digital device, however, represents numbers as discrete units which may or may not be present, e. g., a circuit that may be open or closed, and the basic alphabet of the machine may be a simple yes or no, zero or one.« Macy, MC, S. 346.
34
Jörg Pflüger
Diese fällt wenig konzise aus und bezieht sich nicht nur auf Computer, sondern allgemein auf physikalische Systeme. Nachdem er reichlich mit Variablen, Relationen und Schwellwerten herumoperiert hat, endet Pitts mit einer bekannt anmutenden Unterscheidung von digitalen Maschinen, »that are constructed almost wholly out of variables which are capable of finite number of states called digital computers« und analogen, »the other kind where we try roughly to make the continuous variables ape the continuous variables of the physical system in which we are really interested. … These are called analogical simply because there is a detailed analogy between the computed system and the computing one. Actually, the notion of digital or analogical has to do with any variable in any physical system in relation to the rest of them, that is, whether or not it may be regarded for practical purposes as a discrete variable. Simplified, I think that is the essence of the distinction.«12 Verblüffenderweise werden die analogen Systeme, die eben noch durch ihren Nachahmungstrieb gekennzeichnet wurden, in der unmittelbar darauf folgenden Quintessenz dadurch charakterisiert, daß man ihre Elemente praktisch nicht als diskrete Größen behandeln kann. Irgendwie sind wir nicht recht weitergekommen. Die Begriffe scheinen sich ihrem Inhalt homolog zu verhalten: das Digitale scharf umrissen, das Analoge ohne klare Konturen. An anderer Stelle ist es wieder ein Sozialwissenschaftler, der Anthropologe Gregory Bateson, der eine Begriffsklärung vorschlägt, worauf sich ein verquerer Sokratischer Dialog entspinnt, bei dem die Mathematiker als Lehrer auftreten. »Bateson: It would be a good thing to tidy up our vocabulary. We have the word ›analogical‹, which is opposed to the word ›digital‹. We also have the word ›continuous‹, which is opposed to the word ›discontinuous‹. And there is the word ›coding‹, which is obscure to me. First of all, as I understand the sense in which ›analogical‹ was introduced to this group by Dr. Von Neumann, a model plane in a wind tunnel would be an ›analogical‹ device for making calculations about a real plane in the wind. Is that correct? Wiener: Correct. Von Neumann: It is correct.
11 Macy, MC, S. 185. Dieser Wortwechsel fand im Kontext einer Diskussion über das Nervensystem statt, aber die Frage selbst betrifft die Begriffsbildung als solche. 12 Pitts, MC, S. 186.
Wo die Quantität in Qualität umschlägt
35
Bateson: It seems to me that the analogical model might be continuous or discontinuous in its function. Von Neumann: It is very difficult to give precise definitions of this, although it has been tried repeatedly. Present use of the words ›analogical‹ and ›digital‹ in science is not completely uniform. McCulloch: That is the trouble. Would you redefine it for him? I want to make that as crystal clear as we can.«13
Der Gewährsmann John von Neumann beginnt daraufhin, zwei unterschiedliche Weisen der analogen Modellierungen am Beispiel des Windkanals und des Differential Analyzer zu erläutern: »The wind tunnel, in attempting to determine forces of a particular kind upon an analogical model airplane, presupposes similarity in almost all details. It is quite otherwise for the differential analyzer, which is supposed to calculate the trajectory of a projectile. The parts of the analyzer look entirely different from any parts of the projectile. It is, nevertheless, analogical because the physical quantities of the true process are represented by continuous variables within the analyzer, for example, by coordinates or by velocity components of various parts, or by electrical potentials or current intensities, and so forth. This is clearly a much more sophisticated connection between the true physical process and its symbolization within the computing machine than the mere ›scaling‹ in wind tunnels.«14 Was von Neumann als »a much more sophisticated connection« zwischen Realität und Symbolisierung bezeichnet, ist aber der eigentliche Anlaß der Verwirrung bezüglich der Namensgebung ›analog‹. Der Windkanal modelliert Realität analog im Sinne der herkömmlichen Wortbedeutung, für den komplexen Differential Analyzer kann eigentlich nur noch die Opposition kontinuierlich/diskret herangezogen werden, aber auch die ist nicht trennscharf. Wenn Pitts konstatiert: »Where the correspondence between the variables in the machine and the variables in the problem is not a one-to-one topological correspondence, it does not have simple continuity properties«15, dann trifft das praktisch auf alle etwas komplizierteren Analogmaschinen zu. Sie sind konstruktive Hybride, die nicht mehr in Analogie zu einem (natürlichen) Urbild 13 Macy, MC, S. 181. 14 von Neumann, MC, S. 181. 15 Pitts, MC, S. 196.
36
Jörg Pflüger
verstanden werden können, sei es, daß sie ein diskretes Verfahren kontinuierlich berechnen oder digitale Bauprinzipien aufweisen. Schon gar, wenn sie solche Dimensionen annehmen wie der Analogcomputer TRIDAC (»three-dimensional analog computer«), der für Simulationen des Flugverhaltens eingesetzt wurde.16
Abb. 4 – Skizze des Analogcomputers TRIDAC (Ivall 1956)
Ich will im folgenden den ›kontinuierlichen‹ Übergang von der einfachen Analogie zu den Mischformen mit etwas handlicheren Beispielen illustrieren. Mit einer Planisphäre kann man sich durch Drehen einer Scheibe die Position der Sterne, bezogen auf einen bestimmten Breitengrad, für jede Uhrzeit anzeigen lassen. Die Abbildung der Himmelssphäre auf eine Ebene ist, wie bei jeder Karte, analog, die jeweilige Ansicht kann kontinuierlich verändert werden. Astrolabien waren (vielleicht mit Ausnahme der seltsamen Maschine von Antikythera) seit der Spätantike bis ins 17. Jahrhundert wohl die elaboriertesten Analogrechner. Sie wurden vornehmlich in der Astronomie (oder Astrologie) und in der Schiffahrt eingesetzt. Der verbrei16 Luigi M. Bianchi: History of Computing and Information Technology. Lecture 20. Analog vs Digital, 2002, http://www.yorku.ca/sasit/sts/sts3700b/lecture20a.html (18.10.2004).
Wo die Quantität in Qualität umschlägt
37
Abb. 5 – Planisphäre (Planisphere 2004)
Abb. 6 – Maurisches Astrolabium, ca. 1280 (Museo 2004)
tetste Typ besteht aus einer runden Grundplatte mit einer festen Zeitskala, in die unterschiedliche Scheiben mit (vom Breitengrad abhängigen) planisphärischen Projektionslinien eingelegt werden; einer filigranen Gitterscheibe, auf der die Positionen von wichtigen Sternen und der Tierkreis markiert sind, und einem Zeiger, mit dem sich Informationen der (drehbaren) Scheiben verknüpfen lassen. Je nachdem, welche Größen bekannt sind, kann man die Position der Sterne, die (lokale) Uhrzeit, den eigenen Standort und einiges mehr berechnen.17 17 Eine recht gute Erklärung findet man in James E. Morrison: The Astrolabe, http:// www.astrolabes.org (18.10.2004).
38
Jörg Pflüger
Abb. 7 – Schieblehre
Eine Schieblehre ist ein Meßinstument für kleine Durchmesser. Mit einem raffinierten Mechanismus, dem auf dem Schieber angebrachten Nonius, können durch Vergleich von zwei unterschiedlich gradierten Skalen Werte zwischen den Millimetermarkierungen noch auf 0,1 mm genau abgelesen werden.
Abb. 8 – Rechenschieber
Mit einem Rechenschieber lassen sich Multiplikationen durchführen, indem man die auf logarithmischen Skalen aufgetragenen Faktoren durch Verschieben der Skalen gegeneinander addiert. Abb. 9 zeigt die Multiplikation von 2 mal 4.
Abb. 9 – Multiplikation von 2 mal 4
Bei der Schieblehre ist die Eingabe ein physischer Meßvorgang, also analog in beiden Bedeutungen; die Ausgabe erfolgt auf einer kontinuierlichen Skala mit diskreten Markierungen. Der abgelesene Wert ist diskret, etwas in der Art 4,275 cm, wobei die letzte Stelle geschätzt wird, weil auch der Vergleich der Markierungen auf der Millimeter- und Nonius-Skala keine exakte Übereinstimmung liefert. Dem Nonius selbst liegt ein diskretes Prinzip zugrunde: 9 mm werden in 10 gleiche Abstände eingeteilt; seine Realisierung erfolgt aber innerhalb einer kontinuierlichen Strecke, auf der die (gerundeten) Zwischenwerte abgelesen
Wo die Quantität in Qualität umschlägt
39
werden. Beim Rechenschieber sind Eingabe wie Ausgabe diskrete Werte, die mit der Mechanik nur ungenau eingestellt oder abgelesen werden können; das Ablesen selbst ist ein Vorgang der Diskretisierung. Das Analoge findet in der ›Berechnung‹ statt, die durch einen kontinuierlichen, physikalischen Prozeß erfolgt, der jedoch keinerlei Ähnlichkeit zu der diskreten Operation der Multiplikation aufweist. Das Verschieben und Vergleichen der Skalen ist ein – dem Zusammenzählen von Körnchen analoger – Meßvorgang, aber die Addition selbst ist eine diskrete Operation des Zählens, die hier kontinuierlich simuliert wird. Norbert Wiener verwendet das Beispiel des Rechenschiebers, um eine »real distinction« zwischen Analogem und Digitalem zu treffen. Er behauptet, aus ihm würde in gewisser Hinsicht ein digitales Gerät, wenn man ihn mit Kerben versähe, in die der Schieber immer einrastet: »May I speak of the real distinction between the digital and the analogical situation? … Suppose that we take an ordinary slide rule. In the ordinary slide rule we have to get the precise position of the slider to give us a number. There is nothing to hold the slider in position. However, if we put little granulations in the slide rule and if we push it beyond one, it would have to slip into the next one. The moment we do that, we introduce a digital element. In other words, the digital element lies in the fact that the things to which we are referring are not precise positions but fields of attraction which impinge upon one another so that the field where there is any substantial indetermination as to whether the thing goes to one or the other is as small as possible. I will illustrate that by tossing a coin. Actually, if I toss a coin there is every possible position for the landing of the coin, a certain region where the coin stands on edge and one where it does not. That is the thing which makes the coin essentially a digital possibility.«18 Ich bin nicht sicher, was Wiener bei seiner Distinktion mit »real« gemeint hat, aber faktisch findet sie nicht im Symbolischen der abgelesenen Werte, sondern am Realen der diskreten, stabilen Zustände – den »fields of attraction« – des Instruments statt.19 Auch Wieners Differenzierung beruht ganz auf der Opposition kontinuierlich/diskret, die Analogie ist auf der Strecke geblieben.20 Vielleicht ist der Ausdruck ›analog‹ einfach nicht glücklich gewählt, ein Verdacht, den Leonard Savage formuliert: »The word ›analogical‹ may 18 Wiener, MC, S. 177f. 19 Darauf werde ich im nächsten Abschnitt genauer eingehen.
40
Jörg Pflüger
suggest a little too strongly a computing device acting in analogy to the problem situation. Thus, for example, if a multiplication for a laundry bill be computed on a slide rule, the problem is purely digital. Yet the slide rule is properly called analogical precisely because it does not behave in analogy with this digital problem but rather in the essentially continuous fashion typical of an analogical computing device.«21 Ist also alles eine Frage der Ausdrucksweise? »Is the nomenclature confusing us, or is the nomenclature a promising one?« Ich will den Nomenklaturstreit mit einem letzten Wortwechsel beenden und im weiteren, wie die Konferenzteilnehmer, pragmatisch verfahren und mich nicht um eine säuberliche Scheidung bemühen, sondern versuchen, weitere Facetten der Begriffe aufscheinen zu lassen. »Licklider: Is it then true that the word ›analogues‹ applied to the context of the computer’s brains, is not a very well-chosen word; that we can do quite well if we stick to the terms ›discrete‹ and ›continuous‹, and that when we talk about analogy we should use the ordinary word ›analogy‹ to mean that we are trying to get substitution? Bigelow: I should object to ›substitution‹. Licklider: I mean the object we are trying to compute, using ›analogue‹ in the way it is used by most people and not in the way used by the computing machine. Wiener: I think perhaps ›discretely coded‹ would be good words for ›digital‹. Licklider: I think we could communicate better. Savage: We have had this dichotomy with us for four or five years, Mr. Licklider. I think the word has worked fairly well on the whole. Most of us have been familiar with its meaning. There would be some friction for most of us in changing it now. McCulloch: I should be happy to abandon the word except that I don’t see how any simple word like ›continuous‹, as opposed to ›discrete‹, would take the place of it. I think one would have to say, as Wiener suggested, ›discretely coded‹ or ›continuously coded‹. I think that is the chief obstacle.«22 20 Für das Übergewicht der Kontinuierlich/Diskret-Unterscheidung dürfte auch eine Rolle spielen, daß in dieser Zeit der Computer die digitale Maschine par excellence war und der Kampf zwischen Analog- und Digitalrechnern noch nicht völlig zu seinen Gunsten entschieden war. Heute, wo mediale Funktionen des Computers wichtiger geworden sind, könnte die Analog/Digital-Differenzierung wieder stärker Aspekte der analogen Modellierung betonen. 21 Savage, MC, S. 186. 22 Macy, MC, S. 188.
Wo die Quantität in Qualität umschlägt
41
2. Diskrete Kodierungen interpretieren stabile Zustände im physikalischen Raum der Signale, die sich durch hinreichend trennbare Bereiche im Kontinuierlichen auszeichnen. Dadurch wird das Rauschen des Kontinuums kontrollierbarer, und man kann die kodierte Information verlustfreier speichern, kopieren und übertragen. Nachdem John von Neumann den Unterschied der analogischen und kontinuierlichen Modellierung am Beispiel von Windkanal und Differential Analyzer angesprochen hat, versucht er deren gemeinsamen Gehalt kristallklar gegen digitale Systeme abzugrenzen: »All these devices have, nevertheless, a common trait: certain physical quantities that have continuous motions are represented by similarly continuous processes within the computing machine. Interrelationships are entirely different in a digital model. To conclude, one must say that in almost all parts of physics the underlying reality is analogical, that is, the true physical variables are in almost all cases continuous, or equivalent to continuous descriptions. The digital procedure is usually a human artifact for the sake of description. Digital models, digital descriptions arise by treating quantities, some of which or all of which are continuous, by combinations of quantities of which each has only a small number of stable (and hence discrete) states – usually two or three – and where one tries to avoid intermediate states.«23 Das Digitale ist Ergebnis eines Vorgangs der Diskretisierung, Artefakt einer Entscheidung, sich zu beschränken. Die »diskrete Kodierung« führt ein Doppelleben: Sie operiert im Symbolischen in Form einer Interpretation des Realen, die wesentlich eine Strategie der Vermeidung ist, und sie schränkt sich im technisch-natürlichen Kontinuum durch das Auszeichnen von separierbaren stabilen Zuständen ein. Auf der physikalischen Ebene der Signale läuft im Computer und in jedem anderen digitalen Medium alles analog ab, oder besser ausgedrückt: Es verläuft kontinuierlich in Raum und Zeit. Wenn beispielsweise die diskreten Werte 0 und 1 durch unterschiedliche Spannungspotentiale realisiert werden, dann ist ein Zustandswechsel in Wirklichkeit kein instantaner Schaltvorgang, sondern wird durch einen Spannungsanstieg oder -abfall mit einer sehr steilen Flanke erzielt. Je kürzer die 23 von Neumann, MC, S. 181f.
42
Jörg Pflüger
Übergangsphasen und je ferner die physikalischen Größen der stabilen Zustände sind, umso besser sind sie auseinanderzuhalten und umso fehlerfreier kann das digitale System arbeiten. Die physikalischen Werte müssen nicht genau eingehalten werden, solange ihre Intervalle auseinanderzuhalten sind. Am einfachsten erscheint dies bei nur zwei Zuständen, läßt sich aber auf mehr Werte verallgemeinern.
Abb. 10 – Physikalischer Schaltvorgang bei einem zweiwertigen Speicherelement (Bartee, Lebow, Reed 1962, S. 11)
Folgen wir noch einmal einer Beschreibung von John von Neumann: »an electrical computing machine is based on an electric current, which is an analogical concept. A detailed analysis of how a responding elementary unit of the machine (a vacuum tube or an electromechanical relay) stimulates another such unit, which is directly connected to it, shows that this transition of stimuli is a continuous transition. … both for the man-made artifact as well as for the natural organ, which are supposed to exercise discrete switching actions, these ›discrete actions‹ are in reality simulated on the background of continuous processes. The decisive property of a switching organ is that it is almost always found in one or the other of its two extreme discrete states, and spends only very little time transiently in the intermediate states that form the connecting continuum. Thus there is a combination of relatively fixed behavior first, then a rapid transition, then again a relatively fixed, though different, behavior. It is the combination and organization of a multiplicity of such organs which then produce digital behavior. To restate: the organs that we call digital are, in reality, continuous, but the main aspects of their behavior are rather indifferent to limited variations of the input stimuli.«24
Wo die Quantität in Qualität umschlägt
43
Der philosophisch bewanderte Mathematiker Norbert Wiener formuliert das der diskreten Kodierung zugrunde liegende Prinzip der ›transitorischen Nichtigkeit‹ etwas ungegenständlicher mit Begriffen, die seltsam (post-)modern anmuten: »Every digital device is really an analogical device which distinguishes region of attraction rather than by a direct measurement. In other words, a certain time of non-reality pushed far enough will make any device digital. … I could get devices intermediate between digital and numerical devices. The important thing of the digital device is the use of non-linearity in order to amplify the distinction between fields of attraction and that can be done to a greater or lesser degree.«25 ›Attraktoren‹, Unwirklichkeit und Nichtlinearität kennzeichnen das Digitale im Realen wie im Symbolischen. Die Attraktivität der stabilen Zustände konstituiert ein flüchtiges, unwirkliches Zwischenreich, das nicht interpretiert werden darf, wenn man diskret sein will. »You treat them as if these transition states did not exist.«26 Mehr noch, die Transit-Zone muß, wie Julian Bigelow meint, verboten werden: »it does not seem to me enough to describe a digital process as being one in which there are two or more discrete levels in which you are only interested in saying whether you are at level A or level B. I think it is essential to point out that this involves a forbidden ground in between and an agreement never to assign any value whatsoever to that forbidden ground, with a few caveats on the side.«27 Durch die Beschränkung auf diskrete, stabile Zustände wird das Rauschen des Kontinuums kontrollierbarer und die Unschärfe von Werten vermieden. Wenn die zu bewertenden Intervalle hinreichend separiert sind, können geringfügige Schwankungen oder Verluste ausgeglichen und die durch die »region of attraction« verkörperten Originalzustände des digitalen Organs wiederhergestellt werden. »This 24 von Neumann, MC, S. 176f. 25 Wiener, MC, S. 158f. Wiener sprach auch von den Kerben im Rechenschieber als »fields of attraction«. 26 Stroud, MC, S. 184. 27 Bigelow, MC, S. 187. Claus Pias behandelt in seinem Aufsatz »Elektronenhirn und verbotene Zone«, mit dem mein Beitrag einige Überschneidungen aufweist, diesen Ausschluß aus medien- und kulturtheoretischer Sicht. Vgl. Claus Pias: »Elektronenhirn und verbotene Zone. Zur kybernetischen Ökonomie des Digitalen«, in: Jens Schröter/Alexander Böhnke (Hrsg.), Analog/Digital. S. 295-310. McCulloch sieht das praktischer: »Let us put it this way: as long as the probability of a state between our permitted states is great and has to be taken into account, we have still a flavor of the continuous. When the probability of the Zwischen state is zero or negligible, we think chiefly in other terms. That is, I think, purely a matter of practicality.« (McCulloch, MC, S. 197.)
44
Jörg Pflüger
requires in all cases some amplifying property in the organ, although the corresponding amplification factor is not always a very great one.«28 Die Möglichkeit, Zustände zu bewahren, bedeutet, daß man ihnen zugeordnete Information speichern kann. Bekanntermaßen kennt das einfachste Speicherelement im Computer, das sogenannte ›Flip-Flop‹, zwei stabile Zustände und kann damit 1 Bit Information konservieren. Auch dies kostet Energie, sei es, den Zustand zu erhalten oder ihn andauernd zu erneuern;29 und man muß darauf achten, daß der Energieverlust durch einen Lesevorgang, der in Wirklichkeit eine Messung ist, den Wert nicht aus dem stabilen Intervall treibt. Ein Flip-Flop macht jedoch noch keinen Rechner. Von einem digitalen System kann man erst sprechen, wenn viele solcher Elemente verbunden werden, wobei die Information zwischen ihnen natürlich wieder kontinuierlich übertragen wird, das funktionale Zusammenspiel der Bausteine aber nach diskreten Regeln erfolgt.30 »All such organs must be suited to be connected to each other in large numbers, pyramided. Thus the question regarding 28 von Neumann, MC, S. 177. 29 Die Zustände eines DRAM-Speichers (»Dynamic RAM«) werden periodisch erneuert, sozusagen als Klon wiedergeboren. Obwohl digitale Speicher wie CD-ROMs die stabilen Zustände physisch festschreiben, scheint angesichts ihrer unbekannten Lebensdauer eine regelmäßige Erneuerung wohl auch die einzige Möglichkeit zu sein, Informationen über längere Zeit zu erhalten. Man könnte sagen, daß dem Kontinuierlichen und dem Digitalen unterschiedliche Vorstellungen von einem Original zugrunde liegen. Analoge Originale altern und haben eine Geschichte, die ihnen eine Aura verleiht; digitale Originale existieren nur in der Folge ihrer immer wieder gleichen Reinkarnationen, – eine Vorstellung, die den Archivaren, die Kulturgut in unterirdischen Bunkern bewahren wollen, sicher näher liegt als das langsame Verschwinden des einzigartigen Objekts. Die unterschiedlichen Konzepte kann man auch bei der Definition des ›Urmeters‹ verfolgen. 1799 wurde der Meter durch die Länge eines in Paris aufbewahrten polierten Platinstabs bei einer bestimmten Temperatur festgelegt. Davon wurden Kopien hergestellt und auf der ganzen Welt verteilt. Aber natürlich verändern sich, wenn auch nur sehr geringfügig, physisches Original und die Kopien im Laufe der Zeit, was einem einheitlichen Maßstab nicht zuträglich ist. Seit 1983 ist ein Meter definiert als die Strecke, die Licht (von einem Ionen-stabilisierten Helium-Neon-Laser) in 1/299792458 Sekunden im Vakuum zurücklegt, wobei die Sekunde mit einer Cäsium-Uhr mit einer Unsicherheit von 1 zu 1014 gemessen wird. Vgl. William B. Penzes: Time Line for the Definition of the Meter, NIST Museum, http://www.mel.nist.gov/div821/museum/timeline.htm (18.10.2004). Der diskreten Definition liegt also kein physisches Orginal mehr zugrunde, sondern ein gesetztes Ideal, das jederzeit (re)konstruiert werden kann. 30 Wie wir oben gesehen haben, ist das bei Analogrechnern auch nicht viel anders, wenn beispielsweise mehrere Addierer hintereinandergeschaltet werden. Im digitalen System werden aber auch die Größen diskretisiert, d. h. Werte werden wie in einem Stellensystem durch zusammengeschaltete Ziffernbausteine repräsentiert, – »numbers as aggregates of digits«, wie von Neumann schrieb.
Wo die Quantität in Qualität umschlägt
45
the continuous or digital character relates to the main functional traits of large, reasonably self-contained parts of the entire organ, and it can only be decided by investigating the manner in which the typical functions are performed by larger segments of the organism, and not by analyzing the continuous functioning of parts of a unit or that of a single unit apart from its normal connections and its normal mode of operation.«31 Bei umfangreichen Systemen muß zusätzlich die endliche Geschwindigkeit der physischen Übertragung berücksichtigt werden. Beim Layout von großen Schaltungen auf einem rechteckigen Chip, etwa bei VLSI-Chips, treten zwangsläufig sehr unterschiedlich lange Verbindungsleitungen auf, und es könnte passieren, daß ein Signal zu spät an einem weit entfernten Schaltelement ankommt, wodurch ein falscher Wert verarbeitet würde. Diese sogenannten Hazards sind ein Problem bei asynchronen Schaltungen. Man löst dies bei den bis heute gebräuchlichen (synchronen) Schaltungen im Rechner durch die Einführung einer synchronisierenden Taktung, deren Zykluszeit so ausreichend bemessen sein muß, daß die unterschiedlichen Laufzeiten keine Wirkung zeigen. Takt ist im Computer nichts anderes als ein Ja/Nein-Impuls, der angibt, wann die diskreten Elemente aktiv sein dürfen und wann nicht. Es existiert somit nicht nur ein verbotener Raum zwischen stabilen Zuständen, sondern auch verbotene Zeiten zwischen aufeinanderfolgenden Zustandsänderungen.32 Sinn und Nutzen dieses ganzen Aufwandes der diskreten Kodierung bestehen darin, durch die Kapselung der Unschärfe in abgeschlossenen Lokalitäten zu vermeiden, daß sich Ungenauigkeiten fortpflanzen und wechselseitig beeinflussen. Analoge Systeme verhalten sich bezüglich Präzision und Fehlerverhalten wie Messungen, digitale Systeme kann man dagegen mit Stellensystemen vergleichen. Messungen einer reellen Größe liefern (diskrete) Werte, die mit einem Fehler behaftet sind und 31 von Neumann, MC, S. 177. 32 »We might say that the clock enables us to introduce a discreteness into time, so that time for some purposes can be regarded as a succession of instants instead of a continuous flow. A digital machine must essentially deal with discrete objects, and in the case of the ACE this is made possible by the use of a clock. All other digital computing machines except for human and other brains that I know of do the same.« Alan Turing: Lecture to the Mathematical Society on 20 February 1947; abgedruckt in Volume 10 in the Charles Babbage Institute Reprint Series for the History of Computing, A. M. Turing’s ACE Report of 1946 and Other Papers, The Massachusetts Institute of Technology, 1986, S. 111.
46
Jörg Pflüger
sich entsprechend der Gaußschen Fehlerkurve (Glockenkurve) zufällig verteilt um den präzisen, idealen Wert sammeln. Entsprechendes gilt für analoge Verfahren, bei denen ein Wert gemessen, berechnet und abgelesen wird. Der Fehler ist proportional zu dem zugrundegelegten Maßstab gemäß der Präzision des Instruments. Nachdem von Neumann in seinem Aufsatz von 1948 das analoge und digitale Prinzip eingeführt hat, geht er ausführlicher auf das Fehlerverhalten der entsprechenden Verfahrensweisen ein: »the critical question with every analogy procedure is this: How large are the uncontrollable fluctuations of the mechanism that constitute the ›noise‹, compared to the significant ›signals‹ that express the numbers on which the machine operates? The usefulness of the analogy principle depends on how low it can keep the relative size of the uncontrollable fluctuations – the ›noise level‹. To put it another way. No analogy machine exists which will really form the product of two numbers. What it will form is this product, plus a small but unknown quantity which represents the random noise of the mechanism and the physical processes involved.«33 In einem Stellensystem können wir dagegen jede Ziffer für sich behandeln: messen, speichern oder übertragen. Da hierbei nur so viele diskrete Werte auftreten können, wie wir Ziffern verwenden, läßt sich deren Genauigkeit bis zur Exaktheit steigern. Und wenn doch einmal ein Fehler auftritt, z. B. ein Übertragungsfehler, können wir dies (fast immer) durch zusätzliche Prüfinformationen erkennen und lokal reparieren, weil sich eine falsche Ziffer nicht auf die anderen Stellen auswirkt. Norbert Wiener hat diesen Vorteil des Digitalen so formuliert: »Here is the important point: ordinarily in an analogical machine each digit goes down as we go along in the digits. We are performing a single measurement in which we really are adding the tens digit, the unit, the tens, thousands, and so forth, so that our smallest digit is corrupted by the error in our biggest digit. That is essentially a vicious way of handling things with precision. In the digital machine we make a deliberate effort to have a measurement without any particular degree of error, one which is a Yes or No measurement. In this particular case the probability of error in a particular measurement belongs to that measurement only and is not carried over to one of the others. That probability then can be reduced to a very low quantity. It is like the coin standing on edge. We know that it is either one thing or another. Now the point 33 J. von Neumann: The General and Logical Theory of Automata, S. 293.
Wo die Quantität in Qualität umschlägt
47
of the digital machine is that we get our precision of workmanship by extremely close estimates of each digit by itself and not in a situation in which a mismeasurement of one very large digit will corrupt a small digit together with it. To say that a thing is digital is to say that we use this technique of accuracy in the machine instead of the technique of accuracy which consists in extreme precision of the measurement, but in which the error of a big measurement is linearly combined with that of the small measurement and corrupts it.«34 Die Präzision der digitalen Rechnung wird also nicht durch ungenaue Werte der Ziffern oder rauschhafte Zustände beeinträchtigt, aber sehr wohl durch die endliche Stellenanzahl, die zur Verfügung steht. Wenn man mit dem Computer reelle Werte mit Gleitkommazahlen (real-Zahlen) berechnet – Zahlen der Art: 6,243547549 · 1013 –, treten ganz ähnliche Probleme wie im Analogen auf. Dieser Bereich des Rechnens wird im Computer in Koprozessoren verbannt und gerät den meisten Usern, vor allem den Kulturtheoretikern, leicht aus dem Blick. Seine Eigenschaften haben aber nicht zu überschätzende (soziale) Auswirkungen, weil damit praktisch alle Rechnungen bei naturwissenschaftlichen und ingenieurstechnischen Anwendungen erfolgen. Beim Rechnen mit Gleitkommazahlen treten notwendigerweise Rundungsfehler auf, weil sich das Kontinuum der reellen Zahlen damit nur mit endlicher Genauigkeit repräsentieren läßt, was im Prinzip völlig der endlichen Ablesegenauigkeit im Analogen entspricht. Da die Anzahl der darstellbaren Stellen normalerweise fest vorgegeben ist, verteilen sich die Gleitkommazahlen sehr ungleich in dem von ihnen abzudekkenden reellen Intervall: Je (betragsmäßig) größer die Zahl, umso ungenauer tritt sie im Computer in Erscheinung.
Abb. 11 – Verteilung der (nicht-normalisierten) Gleitkommazahlen in »single precision«
Dies erscheint akzeptabel, wenn man davon ausgeht, daß es bei großen Werten nicht so aufs Detail ankommt.35 Allerdings macht sich die endliche Genauigkeit auch im Kleinen unangenehm bemerkbar, weil auch winzige Zahlen nur angenähert werden und es insbesondere zwi34 Wiener, MC, S. 186f.
48
Jörg Pflüger
schen der Null und der kleinsten darstellbaren Zahl eine Terra incognita gibt. Dies kann bei Berechnungen zu erheblichen Verzerrungen führen. Es ist eine beliebte Übungsaufgabe im Informatik-Grundstudium, den Wert s mit dem Programmstück s := 0; for i := 1 to n do s := s + (1/n);, das einfach (1/n) n-mal aufsummiert, für viele verschiedene Werte n berechnen zu lassen. In einer idealen Real-Welt sollte für s immer der Wert 1 herauskommen, in der endlichen Welt der Rundungsfehler treten bei großen n jedoch beliebig große Abweichungen auf. Dies liegt daran, daß beim Computer »every step actually matters«, wie von Neumann bemerkt,36 und ein noch so geringer Fehler in einer Programmschleife kann sich durch die Iteration beliebig aufschaukeln. Durch Erhöhen der Stellenanzahl (»double precision«) kann man sich etwas behelfen, aber die Verfehlung damit nur hinauszögern und nicht vermeiden, weil jede diskrete Näherung nur eine verstreute Inselwelt im Meer des Kontinuums bleibt.37 John von Neumann, für den der Computer noch ein Rechner und kein Gerät zum Abspielen von Movies war, stellt also auch die prinzipielle Ähnlichkeit der digitalen Rechnung mit der analogen heraus: »To conclude, no matter what the maximum number of digits is for which the machine has been built, in the course of successive multiplications this maximum will be reached, sooner or later. … Thus the necessity of rounding off an (exact) 20-digit product to the regulation (maximum) 35 Abbildung 11 kann die extrem unterschiedliche Dichte der real-Zahlen nicht wirklich wiedergeben, dazu wäre eine logarithmische Skala erforderlich. Zur Veranschaulichung kann man ihre Verteilung mit einer Graphik vergleichen, bei der man in ›fernen‹ Bereichen wenig unterscheiden und präzise lokalisieren kann, dort aber auch nicht viel Interessantes erwartet. So wird man beispielsweise eine graphische Darstellung der klimatischen Verhältnisse der paar Millionen Jahre, seit es die Gattung Homo gibt, auf einer logarithmischen Zeitachse auftragen, weil uns die letzten hundert Jahre näher gehen als der Zeitraum vor einer Million Jahren. Vgl. beispielsweise Geoffrey Parker (Hrsg.): Knaurs neuer historischer Weltatlas, (5. Auflage), München: Droemersche Verlagsanstalt Th. Knaur Nachf. 1996, S. 36. 36 Von Neumann schreibt: »I am not aware of any other field of human effort where the result really depends on a sequence of a billion (109) steps in any artefact, and where, furthermore, it has the characteristic that every step actually matters – or at least, may matter with a considerable probability. Yet, precisely this is true for computing machines – this is their most specific and most difficult characteristic.« J. von Neumann: The General and Logical Theory of Automata, S. 291. 37 Einen ehrlicheren Ansatz vertritt die sogenannte Intervallarithmetik, bei der man keine Zahlen, sondern Grenzen eines Intervalls berechnet, in dem der gesuchte Wert zuverlässig liegt. Diese Technik wird allerdings wenig eingesetzt; wenn man es täte, würde sich sicher erweisen, daß viele Ergebnisse in den Naturwissenschaften und im Ingenieurswesen bedeutungslos sind, weil ihr Vertrauensintervall absurd groß ist.
Wo die Quantität in Qualität umschlägt
49
number of 10 digits introduces in a digital machine qualitatively the same situation as was found above in an analogy machine. What it produces when a product is called for is not that product itself, but rather the product plus a small extra term – the round-off error. This error is, of course, not a random variable like the noise in an analogy machine. It is, arithmetically, completely determined in every particular instance. Yet its mode of determination is so complicated, … that it usually can be treated to a high degree of approximation as a random variable.«38 Von Neumann betont, daß theoretisch zwischen der Zuverlässigkeit einer analogen Maschine und einer digitalen kein qualitativer, sondern nur ein quantitativer Unterschied besteht. Allerdings schlägt praktisch die Quantität in Qualität um, wenn man die Möglichkeit der Genauigkeitssteigerung technisch und ökonomisch bedenkt. Ein analoges Gerät läßt sich wegen seiner physischen Beschaffenheit nicht beliebig präzise skalieren, und jede Verbesserung der Genauigkeit ist sehr teuer; beim Digitalcomputer kostet dagegen die Halbierung des Fehlers für jeden Wert nur ein zusätzliches Bit. »The important difference between the noise level of a digital machine, as described above, and of a analogy machine is not qualitative at all; it is quantitative. … The real importance of the digital computer lies in its ability to reduce the computational noise level to an extent which is completely unobtainable by any other (analog) procedure. In addition, further reduction of the noise level is increasingly difficult in an analogy mechanism, and increasingly easy in a digital one. … It is here – and not in its practically ineffective absolute reliability – that the importance of the digital procedure lies.«39
38 J. von Neumann: The General and Logical Theory of Automata, S. 295. 39 J. von Neumann: The General and Logical Theory of Automata, S. 295f. Die diskutierten Vorzüge des Digitalen lassen sich mit den Worten Alan Turings aus seiner »Lecture to the Mathematical Society« resümieren: »That the machine is digital however has more subtle significance. It means firstly that numbers are represented by sequences of digits which can be as long as one wishes. One can therefore work to any desired degree of accuracy. This accuracy is not obtained by more careful machining of parts, control of temperature variations, and such means, but by a slight increase in the amount of equipment in the machine. … This is in sharp contrast with analogue machines, and continuous variable machines such as the differential analyser, where each additional decimal digit required necessitates a complete redesign of the machine, and an increase in the cost by perhaps as much as a factor of 10. A second advantage of digital computing machines is that they are not restricted in their application to any particular type of problem.« Alan Turing: Lecture, S. 106. Auf den zweiten Aspekt – die Universalität der arbiträren Kodierung – werde ich im 3. und 4. Abschnitt genauer eingehen.
50
Jörg Pflüger
Das günstigere Fehlerverhalten der diskretisierten Symbolwelt spielt nicht nur bei Speicherung und Berechnung, sondern auch bei der Übertragung von Information eine wichtige Rolle, wobei der Zusammenhang zum Kontinuierlichen hier noch deutlicher gegeben ist. Die Übertragung von digitalisierter Information erfolgt auf der Ebene der Signale ebenfalls analog, d. h. mit Wellen, sei es über eine Leitung oder mit Funk. Will man digitale Daten (in Analogie zum analogen Funk) mit einer Technik der Amplitudenmodulation übertragen, verwendet man eine Trägerschwingung, z. B. von 8 KHz, und unterteilt deren Amplitude (›Lautstärke‹) in hinreichend unterscheidbare Intervalle, z. B. in 256 = 28 Stufen, die als diskrete (Schwell-)Werte genommen werden.40 Eine solcherart ›quantisierte‹ Schwingungshöhe kann also 1 Byte (= 8 Bits) Information aufnehmen, und wenn jede einzelne Periode (Impuls) als ein Zeichen interpretiert wird, kann man mit der amplitudenmodulierten Trägerfrequenz einen Bitstrom übertragen, der in unserer Rechnung 8000 · 8 = 64 Kbits/sec beträgt, was der normalen Leistung von ISDN entspricht. Wäre die Trennung von 256 Werten zu 40 Bei der analogen Amplitudenmodulation, wie sie etwa Kurz- und Mittelwellensender verwenden, wird eine hochfrequente Trägerwelle durch eine erheblich langsamere Signalschwingung so verändert, daß die Amplitudenschwankungen der modulierten Schwingung das (vom Empfänger rekonstruierbare) informationsenthaltende Signal in Form einer Hüllkurve wiedergeben. Wenn es sich bei dem zu übertragenden Signal nicht um eine einfache Schwingung, sondern ein komplexes Audiosignal (Geräusch) handelt, wird die Modulation einfach ein wenig komplizierter.
Abb. 12 – Analoge Amplitudenmodulation: a) Signalschwingung, b) Trägerwelle, c) modulierte Schwingung mit angedeuteter Hüllkurve Ganz entsprechend kann man die Grundschwingung mit diskreten Werten modulieren. Am einfachsten sind wie im linken Bild nur 2 Werte oder rechts 4 Werte zu kodieren.
Abb. 13 – Amplitudenmodulation mit diskreten Werten (links mit 1 Bit, rechts mit 2 Bits)
Wo die Quantität in Qualität umschlägt
51
störanfällig, könnte man auch z. B. nur 4 Amplitudenwerte (= 2 Bits) unterscheiden und eventuell die Trägerfrequenz erhöhen;41 ein Byte würde dann 4 Impulse erfordern. Und man könnte die 2 Bits auch dazu verwenden, zwei Nachrichten gleichzeitig (mit halber Geschwindigkeit) zu senden. Die Übertragung von diskreten Zeichen erlaubt, im Rahmen ihrer Unterscheidbarkeit, eine arbiträre Zuordnung von Zeichen und Signal. Natürlich treten bei der Übertragung von diskreten Werten ebenfalls Fehler auf, aber auch hier gilt, daß sich Fehler lokal eingrenzen und eventuell korrigieren lassen. Die Arbitrarität der Kodierung bedeutet, daß in den Signalen beliebige diskrete Information eingearbeitet werden kann. Dies betrifft zum einen Steuerinformationen, die für den Aufund Abbau einer Verbindung oder die Aktivierung bestimmter Dienste erforderlich sind, zum anderen kann man den eigentlichen Informationen Prüfinformationen hinzufügen, die es erlauben, (die meisten) Fehler zu erkennen oder auszubessern.42 Solche fehlererkennenden oder fehlerkorrigierenden Kodes werden auch bei der Speicherung von Daten verwendet, da hier ebenfalls (hardwarebedingte) Fehler auftreten können; tatsächlich dient ein großer Teil der Daten auf einer Audio-CD der Sicherstellung der eigentlichen Information.
3. Wegen ihres stetigen Verlaufs sind analoge Repräsentationen stärker an die ›Proportion‹ des Trägermediums gebunden als arbiträre digitale Kodierungen, die keiner vorgegebenen Zusammenhangsbedingung genügen müssen. Deshalb sind digitale Zeichen einfach in andere Formate umkodierbar und können unterschiedliche Inhalte annehmen. Wir haben gesehen, daß Diskretisierung auf einer Abstimmung des Symbolischen und Realen, von diskreten Zeichen und stabilen Zuständen, beruht. Eine solche Zuordnung wird als (diskrete) Kodierung 41 Im amerikanischen ISDN werden bei einer Trägerfrequenz von 80 KHz nur 4 Stufen (2.5V, 0.83V, -0.83V und -2.5V) unterschieden, was einen Durchsatz von 160 Kbits/sec ergibt. Es geht mir bei meiner kurzen Betrachtung nur ums Prinzip, in Wirklichkeit ist das natürlich alles viel komplizierter und setzt Normenausschüsse ins Brot. 42 Problematischer als falsche sind fehlende Bits, weil ohne zusätzliche Vorkehrungen danach alles Weitere falsch dekodiert würde.
52
Jörg Pflüger
bezeichnet, und Bateson blieb dunkel, was das genau bedeutet. Julian Bigelow ist so ziemlich der einzige, der in den Konferenzprotokollen einmal versucht, den so selbstverständlich verwendeten Begriff ›Kodierung‹ zu erklären: »I think most people who think about digital machines also have in mind a definition of ›coded‹. What is meant by the word ›coded‹, which so far has not been cleared up in this meeting? I don’t know that I can define it, but I believe there is this element to it: if you have two or more levels of a quantity, such as a voltage, or if you have two or more periods in time, and if you take the same event and assign to it different numerical values, for example, then you are in some sense coding. … coding means in effect a technique aimed at gaining increased efficiency by having a simple signal possess different values when referred to a different referent.«43 Analoge Signale sind stetig, weil ein kontinuierlicher Zusammenhang zwischen den Größen besteht. Eine analoge Kodierung muß diesen Zusammenhang bewahren, auch wenn die Abbildung zwischen Symbol- und Signalebene nicht völlig proportional verläuft. Die Stetigkeit der Realisierung induziert im Symbolischen wieder einen kontinuierlichen Verlauf. Daß die gemessenen, abgelesenen Werte letztendlich diskret sind, wie Lawrence Kubie klarstellt,44 ist als nachgeschalteter Prozeß im Symbolischen aufzufassen, eine Abstraktion im ›Übersehen‹ von Zwischentönen, – kein Verbot, aber der Zwang, einen (gerundeten) Wert wählen zu müssen. Diese Diskretisierung in der Wahrnehmung, die von der kontinuierlichen Anschauung zu diskreten Objekten des Denkens übergeht, wahrt die Ordnung der kontinuierlichen Skala und verhält sich in diesem Sinne analogisch.45 Ein typischer Fall wäre ein einfacher elektronischer Analogrechner, bei dem Werte mittels Drehreglern (Potentiometern) eingegeben und die Ergebnisse an Zeigerstel43 Bigelow, MC, S. 187. 44 Lawrence Kubie möchte die Begriffe analog und digital von der Nutzung her verstanden wissen: »I cannot conceive of any measuring device, whether a machine nor not, that is not ultimately digital. If you measure, you count. If you are going to count, you must be able to recognize identical discrete units. But in science we often try to measure where we cannot even identify the units. Here we have to work by analogy. Consider the clinical thermometer. Is a clinical thermometer a digital measuring machine or is it analogical? It is both; because if you think simply in terms of the temperature of the aperture into which you insert it, it is digital. If you think one step beyond that, in terms of the internal processes about which you are going to make some deductions on the basis of estimated quantitative changes in unisolated units, then it is analogical. Therefore, whether a machine is digital or analogical depends on the use to which the machine is put. As a measuring device, however, a machine must always be digital.« Kubie, MC, S. 190.
Wo die Quantität in Qualität umschlägt
53
Abb. 14 – Drehpotentiometer »RB duodial« und »Borg 1301 microdial« (Korn, Korn 1964, S. 3-4)
lungen auf Meßinstrumenten abgelesen werden. Analoge Instrumente können auch (zusätzlich) eine Ziffernanzeige aufweisen, die wie ein Kilometerzähler funktioniert und der man immer noch die Bewegung des Kontinuierlichen ansieht.46 Das analoge Berechnungsmodell ist viel stärker an seine Realisierung gebunden, weil nicht jeder kontinuierliche Prozeß durch jeden anderen imitiert werden kann. Harmonische Schwingungen sind zwar
Abb. 15 – Mechanisches Bauteil zur Erzeugung harmonischer Schwingungen (Soroka 195, S. 32)
45 Wenn analoge Geräte die Möglichkeit haben, den Eingabebereich oder die Ableseskala auf andere Dimensionen umzuschalten, wird damit ein diskreter Mechanismus eingeführt. Man könnte solche analogen Geräte, und das betrifft die meisten komplizierteren Analogmaschinen, mit der Wendung eines mathematischen Terminus technicus als ›stückweise stetig‹ bezeichnen. 46 Inzwischen gibt es auch Digitaluhren im Retrodesign, die eine analoge Uhr mit Zeigern in einem LCD-Bildschirm simulieren. Wenn man dann im schnellen Vorlauf die Uhrzeit verstellt, erscheint ein verschmierter Strahlenkranz von Zeigern, weil die Refresh-Rate des LCDs nicht schnell genug reagiert. Das führt zu der bizarren Situation, daß ein digitales Gerät mit einer analogen Präsentation auf einem digitalen Ausgabemedium wegen einer analogen Eigenschaft der Technik sich als digitales und analoges Gebilde zugleich präsentiert.
54
Jörg Pflüger
vielseitig verwendbar, aber nur, weil sie in der Natur vieles erklären. Ein Bauelement, das Sinusschwingungen erzeugt, ist jedoch etwas prinzipiell anderes als beispielsweise ein Addierer. Analoge Bausteine lassen sich zwar auf mannigfaltige Weise zusammenschalten, aber selbst nicht umprogrammieren. In diesem Sinne haben analoge Geräte die Werkstattwelt der Getriebe und Transmissionsriemen nicht verlassen und sahen zumeist auch so aus. Komplexe
Abb. 16 – Steckbrettprogrammierung beim animac (Sieg, New Photo Gallery 2004; vgl. S. 81).
Analogmaschinen, die in einem eingeschränkten Bereich vielfältige Funktionen ausführen konnten, wurden mit Steckverbindungen in Schalttafeln für unterschiedliche Aufgaben programmiert (Abb. 16). Bei einer diskreten Kodierung werden (endlichen) stabilen Zuständen Zeichen zugeordnet. Für jeden Zustand ist nur wichtig, daß er sich von seinen ›Nachbarn‹ unterscheidet, nicht welche Nachbarn er hat. Im Prinzip gibt es somit überhaupt keine Nachbarschaftsbeziehungen mehr. Aus den quantitativen Größen sind qualitative Momente einer Gesamtheit geworden.47 Die Stetigkeit des Signals ist zerbrochen, jeder Zustand steht nur für sich. Damit können aber auch die Zeichen für sich genommen werden, und es besteht apriori kein ›natürlicher‹ Zusammenhang zwischen den diskreten Einheiten. Jede Relation zwi-
Wo die Quantität in Qualität umschlägt
55
schen den Zeichen muß (und kann) gesetzt werden. Diese Freizügigkeit erlaubt arbiträre Kodierungen, und sie können im diskreten Raum des symbolischen Kodes in gleichwertige umkodiert werden.48 Dergestalt sind für die gleiche Information ganz unterschiedliche Datenformate möglich, – leider, wie man wohl angesichts des Wirrwarrs von Bild- und Video-Formaten sagen muß. Dazu sind Vereinbarungen (Kontrollinformationen) notwendig, wie eine kodierte Zeichenkette zu interpretieren ist, damit die von ihr repräsentierte Information (in anderer Form) rekonstruiert oder auf einem Ausgabemedium wiedererkannt werden kann.49 Datenformate sind nichts anderes als solche Kodierungsvereinbarungen für eine Klasse von Datenfällen. Entscheidend für die Flexibilität der diskreten Kodierung ist, daß die Kontrollinformationen wiederum nur diskrete Zeichen sind, die genauso wie der kodierte Inhalt behandelt, in stabilen Zuständen gespeichert oder übertragen werden können.50
47 Es handelt sich sozusagen um die technische Variante eines geschlossenen Systems, wie es die Strukturalisten überall gesehen haben, bei dem ein Element sich nur dadurch auszeichnet, daß es sich von allen anderen unterscheidet. 48 Damit wird die Kodierung von einer Zuordnung des Symbolischen und Realen in naheliegender Weise auf den diskreten Raum der Zeichen erweitert. In der Informatik wird eine Kodierung meist schlicht auf diskrete Zeichenalphabete bezogen und als eine mathematische Abbildung von Buchstaben auf beliebige »Worte« (Zeichenketten) definiert, die sich auf zusammengesetzte Zeichen fortsetzen läßt, beispielsweise die Abbildung von Buchstaben auf Strings aus • und – im Morsekode. Nun kann man Kodierungen mit netten Eigenschaften betrachten, z. B. sogenannte Präfixkodes, die es erlauben, das Urbild aus einer kodierten Zeichenfolge einfach wiederzugewinnen. Die maßgebliche Eigenschaft eines Präfixkodes läßt sich (in Deutschland) an den Telefonnummern aufzeigen: Keine Nummer ist Anfangsstück einer anderen, und so ist es möglich, eine Folge von lückenlos hintereinandergeschriebenen Telefonnummern eindeutig zu zerlegen und die Teilnehmer zu rekonstruieren. 49 Eine wichtige Anwendung der arbiträren Umkodierung besteht in der Datenkomprimierung. Beispielsweise werden bei der einfachen (verlustfreien) Run-length-Kodierung lange Folgen von gleichen Zeichen in ein Paar-Zeichen umkodiert, das aus Angabe der Länge der Zeichenfolge und dem Zeichen selbst besteht: Aus einer Folge von 63 Nullen würde also das Zeichen 〈63, 0〉 oder binär geschrieben: 〈1111111, 0〉. Die Arbitrarität macht es auch möglich, Audiodaten auf verschiedene Weise graphisch darzustellen und nach visuellen Kriterien zu verändern. Zwar kann man mit einem Oszilloskop Audiosignale auch analog präsentieren, aber die Möglichkeiten für die Modifikation sind durch die Hardware erheblich beschränkter. 50 Im Computer sehen Programmbefehle und Daten gleich aus. Es ist Sache des Steuerwerkes, sie auseinanderzuhalten und richtig zu interpretieren. Im Prinzip ist es möglich, daß ein Programm seine Befehle als Daten behandelt und sich so im Laufe der Rechnung selbst verändert. Das hat man aber tunlichst vermieden, weil es zu völlig unvorhersehbaren Resultaten führt.
56
Jörg Pflüger
Abb. 17 – Sampling einer Sinusschwingung
Auch wenn die arbiträre Kodierung bei allen Diskretisierungen möglich ist, macht es doch Sinn, diskrete Kodierungen gemäß ihrer Entstehung und Verwendung auseinanderzuhalten. Ich möchte zwei Arten unterscheiden, die ich, mangels besserer Ausdrücke, normalisierende und normierende Diskretisierung bzw. Kodierung nennen will.51 Typische Fälle einer normalisierenden Diskretisierung sind das Einscannen eines Bildes oder das Samplen im Audiobereich. Beim digitalen Sampling handelt es sich um eine Analog-digital-Wandlung in Form einer Mittelwertbildung, bei der für jedes durch die Sampling-Rate bestimmte Intervall ein repräsentativer (Schwell-)Wert genommen wird. Dies ist dem Ablesevorgang bei analogen Geräten vergleichbar, nun aber vorverlagert in die Maschine, deren Ausgabewerte diskret sind.52 Das Sampling ist noch im Analogen verhaftet, weil es die Ordnung der Schwingung im Diskreten beibehält. Man kann zwar im Sinne des Arbitraritätsprinzips große Signalwerte mit kleinen Zahlen kodieren, aber sinnvollerweise bleiben die ›natürlichen‹ Größenverhältnisse auch in der 51 Die Namensgebung orientiert sich an Jürgen Links »Versuch über den Normalismus«, Opladen, Wiesbaden: Westdeutscher Verlag 1997. Link beschreibt in seinem Buch einen tendenziellen Wandel im Begriff des Normalen in der modernen Gesellschaft: von der normativen Festlegung des ›Wesens‹ einer Mannigfaltigkeit, dem die Mitglieder mehr oder weniger entsprechen, hin zu einer Vorstellung von Normalität als Mittelwert einer (statistischen) Normalverteilung. Während die normalisierende Kennzeichnung eher an der beobachtbaren Variation einer Population interessiert ist, erlaubt die normative Festschreibung ihrer Wesensmerkmale arbiträre Zuschreibungen, durch die die Abartigen von den Artigen geschieden werden, was ideologisch etwa mit rassistischen Vorurteilen weidlich ausgenutzt wurde und wird. 52 Solche Mittelwertbildungen kommen nicht nur bei der Analog-digital-Wandlung vor, sondern auch im diskreten Raum selbst, etwa bei Veränderungen der Auflösung eines digitalen Bildes. Bei einer Vergröberung wird man von jeweils vier Pixeln den Mittelwert für das Bild mit halber Auflösung nehmen, und bei einer Verfeinerung entstehen die neuen Pixel durch Interpolation aus benachbarten alten.
Wo die Quantität in Qualität umschlägt
57
umgekehrt proportionalen Anordnung erhalten; es sei denn, man will deren Zerstörung in der Musik- oder Bildbearbeitung kreativ nutzen. Der Übergang von der normalisierenden zu einer normierenden Kodierung läßt sich am Beispiel der Schriftkodierung veranschaulichen. Die Software eines OCR-Scanners versucht, einem ›Kontinuum‹ von Zeichenformen den diskreten Repräsentanten zuzuordnen: {A, A, A, A, A, A, A, … } → 〈A〉. Sie operiert wie eine normalisierende Diskretisierung, auch wenn die Eingabe zu diesem Zeitpunkt schon digitalisiert worden ist, indem sie für eine Klasse ähnlicher Pixel-Flecken einen diskreten Wert bestimmt. Dem Computer ist es gleich, wie dieses Ideal kodiert wird, solange es sich von anderen Zeichen unterscheidet. Die interne, ›normierte‹ Repräsentation des Zeichens geht über die ›Normalisierung‹ hinaus und erlaubt zusammen mit der Angabe einer Schrift, Glyphen zu produzieren, die untereinander keine Ähnlichkeit mehr aufweisen: 〈〈A〉, 〈Schrift〉〉 → {A, A, A, A, A, A, … }. 〈A〉 indiziert nur noch den ersten Buchstaben in einem Alphabet oder das Zeichen mit dem (dezimalen) Index 65 in einer ASCII-Tabelle, und wenn die gewählte Schrift »Wingdings« ist, sieht das entsprechende Token eben so aus: . Erst die normierende Kodierung nutzt die Arbitrarität der ›Zeichensetzung‹ wirklich aus. Wenn jede Ähnlichkeit aufgegeben ist und der Zusammenhang der Zeichen nicht mehr eine (physische) Vorlage reflektiert, können willkürlich Referenzen und Relationen formuliert werden, die nur noch der Syntax einer formalen Sprache genügen müssen. Der symbolische Inhalt der Zeichen wird normativ vereinbart, ihr syntagmatischer Zusammenhang kann unabhängig von der realen Struktur ihrer Speicherung geformt werden.53 Speicherelemente sind im Computer aber variabel, sie können nacheinander unterschiedliche Zustände annehmen. Im symbolischen Raum der interpretierten Zustände sind die Zeichen somit nicht nur zu unabhängigen Modellbeziehungen frei gesetzt, sondern ihnen können zu verschiedenen Zeiten auch unterschiedliche Werte zugeordnet werden, was Kubie als »a technique aimed at gaining increased efficiency« gesehen hat. Die zusätzliche Flexibilität der normierenden Kodierung besteht also darin, die Arbitrarität
53 In dieser Gleichgültigkeit gegen ihre Realisierung ist der Grund zu sehen, warum es so viele zur Turingmaschine äquivalenten Berechenbarkeitsmodelle gibt. Unter Zeichen verstehe ich im folgenden nicht nur ›Buchstaben‹ sondern auch Namen wie Kontonummer oder Worte wie begin und end in einer Programmiersprache.
58
Jörg Pflüger
auch auf die Zeit zu erstrecken, die selbst wieder in Schrittfolgen diskretisiert ist.54 Um dieses Surplus zu betonen, möchte ich statt von diskreten von ›digitalen Zeichen‹ (und einer ›digitalen Kodierung‹) sprechen. Mit digitalen Zeichen lassen sich Verweisungszusammenhänge formulieren, die nicht auf ›intertextuelle‹ Bezüge der inhaltlichen (Signifikat) oder formalen (Signifikant) Ebene beschränkt sind, sondern zeitabhängige Beziehungen zwischen variablen Inhalten in ihrer bloßen Möglichkeitsform formalisieren. Digitale Zeichen treten in zwei symbolischen Räumen auf: in Programmen als Bausteine einer Absichtserklärung der Entwickler und im Interface bei der Interaktion der Nutzer. Beiden Vorkommen ist gemein, daß die Zeichen zwei unterschiedliche Interpretanten haben: Mensch und Maschine, und dementsprechend hat jedes einen gedoppelten Referenten. Für die Programmiererin handelt es sich um Entitäten und operative Verknüpfungen im Entwurf eines formalen Modells, die Maschine ordnet ihnen einen Speicherplatz oder eine Operation zu. Die Interpretation von Programmbefehlen ist kleinlich fixiert, ihre Bedeutung ist sozusagen fest verdrahtet. Die Schwierigkeit des Programmierens ist darin zu sehen, daß, was als Verknüpfung von Referenten in einem Modell gedacht ist, in Befehlen, d. h. in Referenzen auf die Operationen der Maschine, zu denken ist. Bei den eigentlichen – arbiträren und variablen – digitalen Zeichen muß man zeichentheoretisch zwei Stadien unterscheiden: Im laufenden Programm zeigen sie einfach Speicherplätze an, bei der ›programmatischen Niederschrift‹ eines Systementwurfs treten sie als Programmvariablen auf. Von der Entwicklerin wird eine Variable als Repräsentant einer Entität, etwa eines Kontos, in einer Modellierung verstanden, aber dieser Referent des Zeichens existiert nur in ihrem Kopf; es bezieht sich nicht auf ein wirkliches Konto, sondern auf etwas in der Maschine. Tatsächlich sind digitale Zeichen auf Programmebene symbolische Namen für Speicherplätze, willkürliche Namen für Adressen, die auf den Ort verweisen, wo ein Zustand zu finden ist. Die Zuordnung des Namens zu einer Adresse wird vom Compiler oder Interpreter nach Kriterien 54 Für die temporale Arbitrarität braucht man natürlich beliebig oft beschreibbare Speicher, also kein »read-only memory« wie ROMs oder CD-ROMs. Ohne diese Möglichkeit könnte keine programmgesteuerte Berechnung stattfinden, weil der Rechner keine Zwischenergebnisse und Kontrollinformationen verwenden könnte. Selbstverständlich kann man auch bei normalisierenden Kodierungen Werte verändern, etwa beim Schärfen von Bildern, aber die Überschreibung folgt normalerweise der referenzierten Kontinuität.
Wo die Quantität in Qualität umschlägt
59
der Verfügbarkeit getroffen. Würde man die symbolischen Zusammenhänge noch im Maschinenkode formulieren, müßte man die Adressen direkt ansprechen. Man bezeichnet solche Zeichen in höheren Programmiersprachen als »Variablen«, um auszudrücken, daß das von ihnen referenzierte Objekt variieren kann, genauer: daß der von ihnen adressierte ›Behälter‹ zu verschiedenen Zeiten unterschiedliche Werte aufnehmen bzw. Zustände annehmen kann.55 Die Benennung ›Variable‹ ist unglücklich gewählt, weil eine Variable in der digitalen Kodierung etwas anderes ist als in der Mathematik. Dort vertritt eine Variable ein beliebiges Element aus einem Gegenstandsbereich, der auch eine unendliche Menge oder das Kontinuum sein kann. Ihre Bedeutung ist immer die gleiche, sie steht für »irgendein Element«; nur weil man in einem Kalkül für sie Terme substituiert, muß man Variablennamen unterscheiden. Eine Variable in einem Programm verweist dagegen immer auf einen konkreten Wert (Zustand), der zwar wechseln kann, aber zu jedem Zeitpunkt feststeht, sonst haben wir es mit dem Versehen einer »undefinierten Variablen« zu tun.56 Die Variabilität einer Programmvariablen bedeutet also nicht, daß sie einen beliebigen Inhalt (Wert eines bestimmten Typs) symbolisiert, sondern sie ist als Eigenname eines veränderlichen Objekts aufzufassen. Deshalb ist der englische Ausdruck »Identifier« viel treffender, dem die seltener verwandte deutsche Bezeichnung »Bezeichner« entspricht. Nun sind Adressen diskrete Zeichen (Bitstrings) wie andere auch, sie können also ebenso in stabilen Zuständen kodiert und gespeichert werden. Folglich kann ein Speicherelement auch eine Adresse zum Inhalt haben und ein Bezeichner die Adresse einer Adresse bezeichnen.57 Dies macht die Verarbeitung im Computer ungeheuer flexibel, weil sich die Organisation der physischen Repräsentation im Speicher ganz von der dem Menschen zugewandten Struktur der Signifikanten lösen kann.58 55 Laufvariablen in einer Programmschleife, deren Belegung einen Wertebereich durchläuft, sind ein häufiger, spezieller Typ, dem noch die ›analoge Bindung‹ eines Zählers anhaftet. Wiederum andere Variablen können auch konstant sein. 56 Bei der Objektorientierung wird das ein wenig komplizierter, weil der ›Wert‹ ein komplexes Objekt sein kann, aber auch hier handelt es sich bei den Variablen um Eigennamen von Instanzen einer Klasse (eines »Typs«), die einem Allgemeinbegriff entspricht. Aber ich wollte hier ja keine Semiotik der Programmwelt betreiben. 57 Solche Gebilde nennt man ›Pointer‹ oder ›Zeiger‹, und weil nicht sein darf, daß einer ins Leere zeigt, wird er als ›Null-Pointer‹ gebannt. 58 Die alltäglich wichtigste Anwendung dieser Arbitrarität besteht wohl darin, daß ein Dokument im Computer sich nicht an die (lineare) Ordnung seiner Präsentation am Bildschirm halten muß. Darauf werde ich im nächsten Abschnitt genauer eingehen.
60
Jörg Pflüger
Wenn der Compiler seine Arbeit getan hat und ein lauffähiges Programm installiert worden ist, sind die symbolischen Namen verschwunden, und es existieren nur noch Adressen und Operatoren. Nun kommt die Zeit des Nutzers, der im Interface ebenfalls einer doppelten Interpretation ausgesetzt ist. Die symbolische Referenz eines Zeichens auf dem Bildschirm, z. B. ein mit einem Icon versehener Button, zielt auf die Absicht oder Aktion, die der Nutzer damit verbindet, aber jenseits seiner ikonischen Repräsentation ist der Button ›real‹ mit einem Zustand verbunden, der durch das Anklicken verändert wird. Daß die beiden Referenzen nicht übereinstimmen müssen, macht die Schwierigkeit im Umgang mit dem Computer aus, was man im User-InterfaceDesign als Kluft zwischen dem ›user model‹ und dem ›system model‹ diskutiert. In freiem Gebrauch der Begrifflichkeit von Charles Sanders Peirce könnte man, wenn wir uns auf den Computer im Einsatz konzentrieren, bei einer digitalen Kodierung von einer indexikalischen Repräsentation sprechen.59 Während eine analoge Kodierung ein ikonisches Verhältnis zum Kontinuierlichen offenbart, steht das digitale Zeichen in einem Kontiguitätsverhältnis zum Bezeichneten, auch wenn es auf dem Bildschirm als Icon dargeboten wird. Es verweist für den interpretierenden Nutzer auf einen Inhalt, indem es (für die Maschine) einen Ort referenziert/indiziert, an dem der Inhalt zu finden ist.60 In der Semiotik wird ein indexikalisches Zeichen meist mit einer geringen Arbitrarität assoziiert, weil der Verweis relativ unabhängig vom Interpretanten ist, aber im Reich des Digitalen haben wir es mit Zeichen zu tun, die einen ›realen‹ Zusammenhang mit einem Objekt anzeigen, das selbst diskret variieren kann. Vielleicht ist dies die entscheidende Eigenschaft, durch die das Digitale über das Diskrete hinausreicht.
59 Peirce’ Charakterisierungen eines ›Index‹ erscheinen uneinheitlicher als die von ›Ikon‹ und ›Symbol‹. Primär wird unter einem Index wohl ein natürliches Zeichen, ein Signal, verstanden, das wie Rauch, der auf ein Feuer verweist, eine reale Beziehung zum Referenten aufweist. Aber schon Peirce läßt auch konventionelle sprachliche Zeichen mit einer Indexfunktion gelten; wichtig ist nur, daß sie in irgendeiner Kontiguitätsbeziehung zum Bezeichneten stehen. 60 Durch die temporale Arbitrarität geht es auch über die dem symbolischen Zeichen (in der Peirceschen Terminologie) zugeschriebene Arbitrarität hinaus, weil dessen Benennung zwar konventionell vereinbart wird, aber eben als Konvention von Dauer ist.
Wo die Quantität in Qualität umschlägt
61
4. Für die digitale Revolutionierung des Alltags sind nicht die ›bits‹ sondern die ›pieces‹ maßgebend. Der Computer als Kulturtechnik beruht auf der Arbitrarität der digitalen Kodierung; sie erst erlaubt eine radikale organisatorische Trennung der maschinellen Repräsentation von ihrer Präsentation. Dadurch lassen sich Dokumente effizient auffinden, durchsuchen und umformen. Eine indexikalische Repräsentation diskreter Einheiten bringt mit sich, daß Adresse, Formatierung und Inhalt gleich behandelt werden können. Somit kann auch der Inhalt einer Adresse wiederum eine Adresse sein, und ein diskretes Ganzes kann verkettet oder vernetzt werden. Damit ist der kontinuierliche (lineare) Zusammenhang einer analogen Repräsentation aufbrechbar und eine Gesamtheit in Form einer Adreßtabelle ansprechbar. Dies ist schon im Medium der Schrift zu beobachten, die sich zwar aus diskreten Einheiten (Buchstaben, Worten) zusammensetzt, aber in ihrer Linearität analoge Eigenschaften aufweist: bei der Herausbildung von Textformatierungen und Strukturinformationen wie Kapitel, Inhaltsverzeichnis und Index im europäischen Mittelalter. Im frühen Mittelalter wurde eine Schrift ohne Worttrennung und Interpunktion verwandt, die sogenannte Scriptura Continua. Diese konnte nicht ›überblickt‹, sondern nur laut gelesen werden. Das Auffinden einer Passage war enorm schwierig, weil es kaum Anhaltspunkte für ihre Plazierung gab.61 Erst viel später ist dieser analoge Zusammenhang zwischen gesprochenem Wort und Schrift (wieder) aufgebrochen worden, und es wurden Orientierungshilfen und Indexierungen für einen ›random access‹-Zugriff in den Text eingeführt.62 In gewisser Hinsicht ist auch ein Schreibmaschinentext immer noch ein analoges Medium, dessen diskrete Einheiten auf dem Papier kontinuierlich fortlaufend repräsentiert sind und (ohne Schere und Kleber) nicht umarrangiert oder ergänzt werden können. Lokale Änderungen sind durch Vorgaben des Trägermediums beschränkt, vor allem auf den Raum, den eine auszuwechselnde Passage auf dem Papier einnimmt, 61 Man kann die Scriptura Continua mit der Datenspeicherung auf Magnetbändern vergleichen, wo es auch notwendig ist, zum Aufsuchen eines Datums sich an allen vorhergehenden entlang zu hangeln. Alan Turing verglich die Effizienz eines Speicherbandes mit der Handhabbarkeit einer Papyrusrolle: »We may say that storage on tape and papyrus scrolls is somewhat inaccessible.« Alan Turing: Lecture, S. 107.
62
Jörg Pflüger
was viele aus leidvoller Erfahrung mit Korrekturen mit Tipp-Ex noch erinnern werden. Die Herkunft der digitalen Textverarbeitung aus der Schreibmaschinenwelt war bei den frühen Texteditoren noch zu merken, weil sie zwei verschiedene Modi der Änderung kannten: Ersetzen eines Strings durch einen anderen der gleichen Länge sowie das heute fast ausschließlich verwendete Einfügen, das sich aus den zwei Aktionen delete und paste zusammensetzt. Diese viel flexiblere Operation wird mit dem Computer möglich, weil Speicherung und Präsentation, sei es am Bildschirm oder auf einem Ausdruck, bei einer digitalen Kodierung auseinanderfallen und die abgeänderten Texte intern in Form von verketteten Fragmenten gespeichert werden. Technisch wird aus der großen Kette der Worte ein Stück herausgebrochen und die beiden losen Enden mittels Pointern über ein neues Fragment, das irgendwo anders im Speicher steht und deshalb beliebig groß sein darf, wieder verknüpft.63 Der Prototyp einer arbiträr organisierbaren und durchsuchbaren Dokumentensammlung ist die Kartei. In ihrer Dämmerstunde und am Vorabend des ubiquitären Einsatzes des digitalen Computers schrieb Walter Porstmann 1950 in seinem »Handbuch der Karteitechnik«: »Die Kartei ist die Arbeitsgrundlage zur Beherrschung verwickelter Vorgänge. … Die Hauptunterschiede der Kartei gegenüber dem Buche sind: 1. Die einzelnen Blätter sind auswechselbar und in ihrer Reihenfolge vertauschbar. 2. Die einzelnen Blätter der Kartei sind vielen Händen gleichzeitig zugänglich, während sämtliche Buchblätter nur einer einzelnen Hand zugänglich sind. Es können an einer Kartei gleichzeitig mehrere Leute arbeiten, in einem Buch jeweils nur einer. 62 Vgl. Paul Saenger: Space Between Words. The Origins of Silent Reading, Stanford: Stanford University Press 1997; vgl. Malcolm B. Parkes: Pause and Effect. An Introduction to the History of Punctuation in the West, Berkeley: University of California Press 1993. Inwieweit Schrift in Analogie zur Rede, also sekundär zu verstehen ist, ist bekanntermaßen heftig umstritten; ich will mich da ganz raushalten. Christian Stetter argumentiert aber überzeugend, daß unsere Vorstellung vom Wort als einer linguistischen (diskreten) Einheit erst vor dem Hintergrund der Schrift entstanden ist, weil es im Gegensatz zum Fluß der Rede nur dort als abtrennbares Gebilde ›ausgezeichnet‹ werden kann. Vgl. Christian Stetter: Schrift und Sprache, Frankfurt/M.: Suhrkamp 1997. 63 Dies bedeutet natürlich auch, daß ein heftig überarbeiteter Text im Speicher völlig verstreut wird. Durch Aufräumarbeiten oder Kopieren kann man die Textdatei (wie andere Dateien auch) wieder »defragmentieren«, woraufhin sie etwas weniger Platz einnehmen sollte. Es wäre eine eigene Betrachtung wert, ob die in der Postmoderne so beliebte Fragmentarisierung und Dissemination hier nicht eine technische Wurzel haben.
Wo die Quantität in Qualität umschlägt
63
Abb. 18 – Mehrzweck-Schreibtisch (Porstmann 1950, S. 263)
Abb. 19 – Skizze des Memex im life Magazine (Berrnier 2004)
3. Die Bindung der Kartei, ihr Behälter, ist unabhängig vom Inhalt. Wenn der Inhalt erledigt ist, ist der Behälter noch weiter brauchbar. 4. Dadurch, daß die Karteikarten auf einer Kante stehen oder gestaffelt sind, im Gegensatz zu den flachliegenden Buchblättern, wird bei der Karte ein Blickfeld ermöglicht: die Gesamtheit der Karten- und Sichtkanten mit Ordnungs- und Findemalen. …«64 Die herausgestellten Vorteile der Kartei gegenüber dem (linearen) Buch sind bezeichnend für die arbiträre Kodierung von Text im Computer: auswechselbare und vertauschbare Fragmente, gleichzeitige Bearbeitung von Dokumenten, Unabhängigkeit der Speicherung vom Inhalt, Strukturübersicht mittels »Ordnungs- und Findemalen«. Porstmann 64 Dr. Walter Porstmann: Karteikunde. Das Handbuch der Karteitechnik, Berlin-Schöneberg: Max Schwabe Verlag 1950, S. 259f; Hervorhebungen im Original.
64
Jörg Pflüger
kann sich jedoch noch 1950 die Zukunft der Registratur nur mit Mikrofilmen vorstellen: »Die Alt- und Großkarteien werden in Zukunft teilweise vom Film abgelöst. Diese (Mikro-)Filme können als Kurzstreifen in Filmmappen verwaltet werden oder als Ganzfilme (50 m) auf Spulen, die wiederum in Kapseln und Dosen stecken. Hier liegen die Wörter Filmei, Dosei und Spulei nahe.«65 Aber Kartei und Mikrofilm sind durch einen Medienbruch gehandikapt. Sie sind nur digital bis auf die Ebene ihrer elementaren Einheit – Karteikarte oder Filmstreifen –, innerhalb dieser Einheit verhalten sie sich analog. Das bedeutet, daß eine Volltextsuche nicht möglich ist und alle Metainformationen zur Orientierung oder inhaltlichen Verknüpfung der Einheiten diskret beiseite expliziert werden müssen.66 Dies wäre auch das zentrale Problem von Vannevar Bushs berühmtem Entwurf des »Memex« geworden, wenn er jemals gebaut worden wäre.67 Bush war ein entschiedener Vertreter der Analogtechnik und wollte im Memex alle Informationen auf Mikrofilm speichern. Zum Verknüpfen und Auffinden der Inhalte mußte er jedoch zusätzlich einen digitalen Mechanismus vorsehen, einen »rapid selector«, der Indexierungen und Suchinformationen verarbeiten konnte.68 Diese sollten in Form von Markierungen auf den Filmen angebracht werden, was eben bedeutet, daß nichts gefunden werden kann, was nicht explizit diskret bedacht und kodiert worden ist.69 Heute wären für Bushs Medienbruch Lösungen mit Analog-digitalWandlern wie OCR-Scannern denkbar, die im Sinne einer normalisierenden Diskretisierung ein Kontinuum von Schriftformen auf digitale Zeichen reduzieren. Aber sie arbeiten recht aufwendig und nach wie vor fehlerhaft. Im Diskreten entfällt dieses Problem. Bei der Volltextsuche können digitale Zeichen auf der Ebene der Signifikanten effizient und exakt verglichen werden. (Schwierig wäre eher das Auffinden von ähnlichen Zeichen, was aber auf der syntaktischen Ebene nicht viel Sinn macht.) Dergestalt läßt sich jeder Inhalt in Dokumenten auffinden, der sich auf der Ebene der Signifikanten formal angeben oder rekonstruieren läßt.70 Und das ist gar nicht so wenig. Suchmaschinen wie Vivisimo 65 W. Porstmann: Karteikunde, S. 15. 66 Auch bei der Nachrichtenübertragung, z. B. beim Analogtelefon, waren Verbindungsdaten immer diskret und mußten separat behandelt werden; bei digitalen Techniken wie ISDN sind es Daten wie andere auch, und Steuerung und Inhalt können gleichartig verarbeitet werden. 67 Vannevar Bush: »As We May Think«, in: Atlantic Monthly, Vol.176 (1945), S. 101108, elektronisch unter anderem: http://arti.vub.ac.be/cursus/2001-2002/ai2/material/ bush.pdf (18.10.2004).
Wo die Quantität in Qualität umschlägt
65
beweisen, daß sich semantische Beziehungen mittels Clustering-Verfahren, die inhaltlich verwandte Dokumente nur aufgrund von Wortverteilungen gruppieren, automatisch generieren lassen. Für »kontinuierliche Medien« wie Bild und Ton ist das Problem der Suche und inhaltlichen Identifizierung jedoch trotz Digitalisierung geblieben, weil sich Bildinhalt nicht in endlichen Zuständen kodieren läßt. Versteht man unter ›Text‹ ein Sinngebilde mit endlicher Syntax, kann man die Schwierigkeit der Organisation von Bildern so fassen, daß Bil68 Unter Bushs Leitung wurde Ende der dreißiger Jahre am MIT ein »Rapid Selector« für Mikrofilme entwickelt (Abb. 20 – Funktionsweise des Rapid Selector (Buckland 1992)). Er arbeitete mit 35-mm-Filmen, auf die neben den Dokumenten Punktmasken aufgebracht wurden, nach denen mittels photoelektrischer Zellen gesucht werden konnte. Vgl. Michael K. Buckland: »Emanuel Goldberg, Electronic Document Retrieval, And Vannevar Bush’s Memex«, in: Journal of the American Society for Information Science 43, No. 4 (1992) S. 284-294, http://www.sims.berkeley.edu/~buckland/goldbush.html (18.10.2004). Vgl. auch Jana Varlejs: »Ralph Shaw and the Rapid Selector«, in: Proceedings of the 1998 Conference on the History and Heritage of Science Information Systems, http://www.chemheritage.org/explore/ASIS_documents /ASIS98_ToC.htm (18.10.2004). In seinem berühmten Aufsatz »As We May Think« schreibt Bush: »Positional dots can enter the data.« Die Punkte können magnetisch sein oder, wie bei einer Hollerith-Karte, Löcher im Film, die optisch abgetastet werden. Sie können sowohl für das »usual scheme of indexing« wie für die neuartige Form eines »associative indexing« verwendet werden, das Bushs besonderes Anliegen war. »This is the essential feature of the memex. The process of tying two items together is the important thing. When the user is building a trail, he names it, inserts the name in his code book, and taps it out on the keyboard. Before him are the two items to be joined, projected onto adjacent viewing positions. At the bottom of each there are a number of blank code spaces, and a pointer is set to indicate one of these on each item. The user taps a single key, and the items are permanently joined. In each code space appears the code word. Out of view, but also in the code space, is inserted a set of dots for photocell viewing; and on each item these dots by their positions designate the index number of the other item.« 69 Solche explizite Markierung ist dem Verfahren der ersten Suchmaschinen vergleichbar, die noch keine Volltextsuche kannten und bei denen Suchinformationen in Form von Meta-Tags angegeben werden mußten. Mit der Konzeption des »semantic web« lebt diese Explizitheit wieder auf, weil dort zur Unterstützung einer inhaltlichen Suche die ›Bedeutung‹ von (Such-)Begriffen mittels XML-Daten fixiert werden soll; das könnte meiner Ansicht nach auch ein Grund sein, daß das »semantic web« eine Totgeburt wird. 70 Der formale Aspekt wird besonders deutlich, wenn man, um eine bestimmte Passage in einem Text zu finden, sinnvollerweise nicht nach dem inhaltlich treffendsten, sondern nach dem seltensten Wort sucht.
66
Jörg Pflüger
der keine (diskrete) Syntax aufweisen; ihre Konstruktion auf Pixelebene hat kaum Bezug auf ihren Sinn. Bildsuchmaschinen wie Google operieren deshalb für Suche und Indexierung mit dem textlichen Kontext, der diskret aufbereitet werden kann. Andere Versuche, sinnvoll verwertbare Metainformationen automatisch aus einem digitalisierten Bild zu gewinnen, wie beispielsweise die statistische Verteilung der Farbwerte, die mit einem Suchmuster verglichen wird, liefern bislang nur recht grobe Ergebnisse und funktionieren eher nach dem Prinzip: Jede Hilfe ist besser als keine. Der vielbeschworene »Pictorial Turn«, der durch den Computer forciert wird, ist also allein der leichten Handhabbarkeit der digitalen Bilder (Speicherung, Übertragung, Kopieren und Präsentation) auf der Ebene ihrer subsymbolischen Repräsentation geschuldet; sie verhalten sich auf der kodierten Zustandsebene wie Pixeltext, jedoch gibt es keine verbindliche Diskretisierung für ihre symbolische Interpretation. Die digitale Revolution aber findet diskret statt.
5. Zweiwertigkeit ist praktisch, aber nicht essentiell für digitale Systeme. Daß Digitalcomputer mit den Werten 0 und 1 rechnen, ist ein kontingentes Faktum. Ähnlichkeiten der 0/1-Logik mit bedeutungsbeladenen Binarisierungen wie wahr/falsch, anwesend/abwesend oder weiblich/ männlich sind für die Auszeichnung des Digitalen völlig irrelevant. Die Wortbedeutung des Ausdrucks ›digital‹ kommt von Digit, Ziffer, und deutet an, daß digitale Repräsentationen wie in einem Stellensystem mit ›Buchstaben‹ aus einem (endlichen) Ziffernalphabet aufgebaut werden können. Definitionen des Digitalen nehmen zumeist nur Bezug auf die Verzifferung, ohne sich auf deren Anzahl festzulegen, so bei von Neumann: »representing numbers as aggregates of digits«.71 Aber allzuoft wird das übersehen und das Digitale mit dem Binären identifiziert.72 Im Prinzip ist jede Zahl mit einem einzigen Zeichen schreibbar, z. B. mit Strichen im Sand. Jedoch ist der Darstellungsaufwand sehr hoch,
71 Der Computer wurde in der Frühzeit auf deutsch »Ziffernrechenmaschine« genannt. 72 Dies war auch in den Macy-Konferenzen zu beobachten, wo den Teilnehmern die Beliebigkeit des Zahlensystems zwar bewußt war, sie aber immer wieder in das »simple yes or no, zero or one« zurückfielen.
Wo die Quantität in Qualität umschlägt
67
weil man der Größe der Zahl entsprechend viele Striche machen muß. Bei einem Stellensystem ist die Zeichenlänge einer Zahl durch deren Logarithmus zur Basis der Anzahl der zur Verfügung stehenden Ziffern bestimmt, für ein Binärsystem gilt also: |n|2 ~ log2 n.73 | 4095 |1 | 4095 |2 | 4095 |4 | 4095 |8 | 4095 |10 | 4095 |16
= | |||||||||||||||||||||||| … |||||||||||||||||||||||| | = 4095 = | 111111111111 | = 12 = | 333333 | = 6 = | 7777 | = 4 = | 4095 | = 4 = | fff | = 3
Die Platzersparnis durch den Übergang von einem einelementigen Alphabet zu einem zweielementigen ist enorm, weil der Logarithmus stark verkleinert. Wie der Aufstellung zu entnehmen ist, sind die darüber hinausgehenden Einsparungen bei höherwertigen Alphabeten dagegen vergleichsweise gering. Unter Effizienzgesichtspunkten erscheint also eine zweiwertige Kodierung ausreichend, zumindest solange sich Speicherkapazitäten billig steigern lassen. Natürlich haben bei der historischen Entstehung des binären Systems im Computer auch technische Bedingungen eine Rolle gespielt. Mechanische Rechenmaschinen arbeiteten zumeist mit dem vertrauten Zehnersystem. Da die Ziffern auf einem Rad angeordnet wurden, war ihre Anzahl relativ gleichgültig. Elektromechanische Relais der ersten Digitalcomputer kannten dagegen nur die Zustände ein und aus, waren also inhärent zweiwertig. Mit der Entwicklung von anderen Technologien für Rechen- und Speicherelemente war die Beschränkung auf zwei Zustände nicht länger notwendig, sondern schlicht am einfachsten zu realisieren und am wenigsten fehleranfällig.74 Nichtsdestotrotz hat es schon früh Versuche gegeben, Speicherelemente zu bauen, die statt der zwei Werte eines gängigen Flip-Flops vier Werte aufnehmen können, wodurch ein Datenspeicher mit gleicher Kapazität entsprechend kleiner ausfällt und weniger Zuführungsleitungen braucht (die auf einem Chip den Hauptteil an Fläche ausmachen). Beispielsweise hat Intel Anfang 73 Die Schreibweise |n|m bedeutet: Anzahl der erforderlichen Zeichen der Zahl n in einem Zahlensystem mit m Ziffern (= m-elementiges Alphabet). 74 »It is much easier to work in the scale of two than any other, because it is easy to produce mechanisms which have two positions of stability; the two positions may then be regarded as representing 0 and 1.« Alan Turing: Lecture, S. 114.
68
Jörg Pflüger
der 80er Jahre den mathematischen Koprozessor 8087 zum Intel 8086 mit einem vierwertigen ROM ausgestattet, mit dem ca. 31% an Fläche eingespart wurde.75 Da sich aber die zweiwertige Speichertechnologie so rasant entwickelt hat, gab es keinen echten Anreiz, mehrwertige Techniken ernsthaft weiter zu verfolgen. Heute hat sich die Situation gewandelt, und vierwertige Speicher sind beispielsweise bei FlashCards im Kommen, weil es bei der gallopierenden Schwindsucht von Handies verstärkt auf Platzeinsparung ankommt.76 Ganz entsprechend ist auch die zweiwertige Logik des Rechnens kontingent, und seit Jahrzehnten gibt es im Abseits eine Forschung zur »multivalued logic«.77 Ihre Ergebnisse werden aber kaum praktisch umgesetzt, weil dazu (bislang) keine Notwendigkeit besteht, solange sich die Rechenleistung durch schnellere Taktzeiten erhöhen läßt. Auch hier gilt, daß die Zweiwertigkeit robuster zu realisieren ist, weil nur zwei Zustände im physischen Kontinuum der Schaltungsvorgänge unterschieden werden müssen. Jedoch berichtet Donald Knuth, daß bei der Entwicklung eines der allerersten Computer an der Moore School of Electrical Engineering in den Jahren 1945/46 ernsthaft überlegt wurde, eine symmetrische (balanced) ternäre Logik, die mit den Ziffern 1, 0, -1 operiert, zu verwenden: »at that time it was given serious consideration along with the binary system as a possible replacement for the decimal system. The complexity of arithmetic circuitry for balanced ternary arithmetic is not much greater than it is for the binary system, and a given number requires only ln2/ln3 = 63% as many digit positions for its representation. … The experimental Russian computer SETUN was based on balanced ternary notation [see CACM 3 (1960), 149-150], and perhaps the symmetric properties and simple arithmetic of this number system will prove to be quite important some day – when the ›flip-flop‹ is replaced by a ›flip-flap-flop‹.«78 Die Entwicklung 75 Vgl. Swietlana Yanushkevich: Logic Differential Calculus in Multi-Valued Logic Design, Habilitationsschrift, Technical Univ. of Szczecin 1998, Kapitel 1, http:// puc.wi.ps.pl/person/yanush/hab/chap1.ps (18.10.2004). Vgl. David A. Rich: »A survey of multivalued memories«, in: IEEE Transactions on Computers, Vol. 35 No. 2 (1986), S. 99-106. 76 Intel Product Brief: 3 Volt Intel StrataFlash ® Memory (J3), 2002, http://www.intel. com/design/flcomp/prodbref/pdfs/298044.pdf (18.10.2004). 77 Kenneth C. Smith: »Multiple-Valued Logic. A Tutorial and Appreciation«, in: IEEE Computer, Vol. 21 Issue 4 (1988), S. 17-27. 78 Donald Knuth: The Art of Computer Programming. Volume 2. Seminumerical Algorithms, Boston: Addison-Wesley Publishing Company 1981, S. 192.
Wo die Quantität in Qualität umschlägt
69
des ternären Rechners »Setun« begann 1956 an der Moskauer Universität, ein Prototyp war im Dezember 1958 fertiggestellt. Bis 1965 wurden dann 50 Exemplare gebaut und in Universitäten, Forschungseinrichtungen und Fabriken eingesetzt. Es gab auch ein Nachfolgemodell »Setun 70«, aber danach wurde die Entwicklung von ternären Computern in der Sowjetunion eingestellt.79
Abb. 21 – Der ternäre Computer Setun von 1958 (Brousentsov et al 2004)
Das ›Rechnen‹ im Computer hat recht wenig mit »Gesetzen des Denkens«, wie George Boole seine Algebra der Aussagenlogik verstanden hat, zu tun. Die Rechenregeln in einer zweielementigen (Booleschen) Algebra stimmen ›zufällig‹ mit den Verknüpfungen in der Aussagenlogik überein. Man kann die elementaren Operationen NOT, AND und OR, mit denen man in der Booleschen Algebra umgeht, aber ebensogut als Komplement, Minimum und Maximum auffassen und so auch einfach auf mehr Werte verallgemeinern, etwa auf die von Emil Post 1921 vorgestellte dreiwertige Post-Algebra.80 Tatsächlich kann man jede Boolesche Schaltung mit einem einzigen Bauelement – dem NAND-Gatter, das sich funktional wie ein NOT-AND verhält – entwerfen, eine Konstruktion, die in einer Logik des Denkens kaum eine sinnvolle Interpretation aufweist.
79 N. P. Brousentsov, S. P. Maslov, J. Ramil Alvarez, E. A. Zhogolev: Development of ternary computers at Moscow State University, http://www.computer-museum.ru/ english/setun.htm (18.10.2004). 80 Natürlich gibt es auch mehrwertige Logiken, bei denen z. B. neben wahr und falsch ein dritter Wahrheitswert im Sinne eines vielleicht eingeführt wird. Aber damit wird der inhaltliche Zusammenhang zur Computerlogik vollends zerstört, weil es hier um die formale Modellierung einer Denkform geht, beim Computer aber um eine effiziente Zeichenmanipulation, die man dummerweise auch Logik nennt.
70
Jörg Pflüger
Ich habe oben ›Rechnen‹ in Anführungsstriche gesetzt, weil man sogar fragen kann, ob der Computer überhaupt ›rechnet‹. Während er anfangs unter dem ausschließlichen Blickwinkel einer elaborierten Rechenmaschine konzipiert und wahrgenommen wurde, hat sich Ende der 50er Jahre die Einsicht durchgesetzt, daß es sich eigentlich um ein »symbol-manipulating device« handelt, unter den angesprochenen Bedingungen der Praxis also um ein Gerät, das auf binären Zeichenketten operiert. Bei der Sicht auf den Computer als einem Medium erscheint diese Auffassung noch gerechtfertigter. Es ist zwar üblich, bei digitalen Bildern die Helligkeitswerte (Grauwerte) der Pixel durch Zahlen (normalerweise von 0 bis 255) anzusprechen, so daß man die Bearbeitung von Pixeln als ein verallgemeinertes Rechnen auffassen kann. Aber eigentlich werden dabei nur diskrete Gesamtheiten (die mit einer Ordnungsstruktur versehen sind, die sich auf die natürlichen Zahlen abbilden läßt) manipuliert. Grenzt man Information gegenüber Wissen dahingehend ein, daß Information in der Auswahl aus einem vorbestimmten (technisch endlichen) Möglichkeitsraum be/entsteht, findet bei der (interaktiven) Symbolmanipulation eine Informationsverarbeitung unter Verwendung endlicher Ressourcen statt. Rechnen im herkömmlichen Sinn stellt dabei nur eine operative Möglichkeit unter anderen dar. Zweiwertigkeit ist weder für die Manipulation der Elemente noch für die Organisation einer diskreten Mannigfaltigkeit notwendig, sondern lediglich ein praktisches uniformes Hilfsmittel, insofern als sich jeder diskrete Informationsraum mit Ja/Nein-Entscheidungen in Form eines Binärbaumes auffalten läßt.81 Jedoch könnte man mit dreiwertigen Bausteinen jeden solchen Informationsraum auch entsprechend mit ternären Bäumen organisieren.82 Das Digitale referiert also nur auf die Möglichkeit, diskrete (endliche) Mengen durch einen Satz von Elementarbausteinen zu (re-)konstruieren. Der Bausatz und die Regeln können, bei wenigen einschränkenden Bedingungen, frei gewählt werden. Kultur- und geisteswissenschaftliche Mystifikationen der 0/1-Diskretisierung in Form einer 81 Bekanntermaßen hat die Technik der dichotomen Zerlegung schon Platon zur Orientierung in einem Begriffsverband gedient. Wenn zusätzlich Angaben über die Häufigkeitsverteilung der Elemente vorliegen, lassen sich diskrete Gesamtheiten optimal effizient kodieren, was man bei der verlustfreien Komprimierung von Daten, etwa beim Huffman-Code, ausnutzt. 82 Die drei Farben einer Verkehrsampel könnte man so in einem Schritt entscheiden, binär braucht man dero zwo: die Unterscheidung von rot oder nicht-rot, und nicht-rot zerlegt sich dann weiter in gelb oder grün.
Wo die Quantität in Qualität umschlägt
71
Zuschreibung von Binarisierungen wie anwesend/abwesend oder weiblich/männlich sind somit völlig unangebracht, – nicht nur wegen der hypostasierten Essentialität der Zweiwertigkeit, sondern weil es zudem in ihrem Reich völlig beliebig ist, welcher physikalische Zustand als hü oder hott interpretiert wird.
6. Bei einer Charakterisierung des Digitalen und Analogen muß zwischen Nutzung und Verarbeitung unterschieden werden, was zu weiteren (begrifflichen) Schattierungen führt. Die Interfaces von digitalen Medien rechnen auch mit der kontinuierlichen Aktivität ihrer Nutzer. Praktisch läßt sich in technischen Medien Digitales und Analoges oft nicht trennen, streng genommen kommt immer beides vor. Auch ›rein‹ analoge Geräte weisen diskrete Elemente auf, die unterschiedliche Zustände ansprechen, und die Funktion von digitalen Maschinen wird durch kontinuierliche ›Randbedingungen‹ beeinflußt. Es bietet sich an, den analogen und digitalen Anteil auf (mindestens) drei Ebenen zu betrachten.83 Wie wir gesehen haben, arbeiten alle Maschinen auf der physikalischen Ebene analog, – genauer: im physikalischen Modell des Kontinuums. Auf der Ebene der Verarbeitung, die (mehr oder weniger) dem Design des Berechnungsmodells entspricht, können sie sowohl analog wie digital oder hybrid operieren: Computer-Algorithmen sind per definitionem Verfahren, die eine Berechnung in kleine diskrete Schritte zerlegen; mit dem Rechenschieber multipliziert man mittels einer kontinuierlichen Verschiebung von logarithmischen Skalen, deren 83 John Stroud treibt die Unterscheidungen in der Ebenenhierarchie noch weiter nach unten bis in die Quantenphysik, sieht in ihnen aber primär Entscheidungen für jeweils zufriedenstellende Modelle: »I know of no machine which is not both analogical and digital, and I know only two workable ways of dealing with them in my thoughts. I can treat them as analogical devices, and if this is a good approximation I am happy. I can treat them as digital, and if this approximation works I am happy. The devils are generally working somewhere in between, and I cannot understand how they work accurately. I should like to illustrate. This process of going from a digital device to an analogical to a digital device can go on in vertical lattices ad nauseam. You begin with the rather highly digital electron, conclude the next step with the rather analogical hard vacuum tube, use it as a ›flip-flop‹, which is primarily a digital element, and so on. When you have gone through enough stages, what you are finally dealing with depends upon function.« Stroud, MC, S. 182.
72
Jörg Pflüger
(markierter) Verlauf selbst wieder mit einem Algorithmus berechnet wurde. Und schließlich kann auf der Ebene der Nutzung ein UserInterface ebenso analoge wie digitale Bedienelemente enthalten. Eine Betrachtung von technischen Medien, die die Benutzer und ihre Aktionsmöglichkeiten nicht einbezieht, geht an der Funktion eines Mediums vorbei und ignoriert, daß die Unterscheidung von analog und digital nur im Hinblick auf eine Anwendung und einen Anwender Sinn macht; »whether a machine is digital or analogical depends on the use to which the machine is put«, hatte Lawrence Kubie gesagt. Ein Medium wie das Fax gewinnt, auch wenn es intern digital arbeitet, seine eigentliche Stärke erst durch eine analoge Nutzung, beispielsweise durch die Möglichkeit, einen Brief mit handschriftlichen Anmerkungen an den Absender zurückzuschicken.84 Bei einer digitalen Verarbeitung kann ein kontinuierliches Bedienelement für die Nutzung von Vorteil sein. Für die Benutzerin ist es gleichgültig, daß ein ›analoger‹ Regler in einem Computer-Interface auf diskrete innere Werte abgebildet wird; sie findet beim Umgang damit
Abb. 22 – Regler bei Apples QuickTime-Player und Abstandsregelung in Apples Präsentationsprogramm Keynote. Bei der Lautstärkereglung sind sehr feine Unterscheidungen irrelevant; bei der Bestimmung von Abständen kommt er dagegen oft auf feinste, die analoge Regelung überfordernde Nuancen an.
die gleichen Bedingungen – Vor- und Nachteile – wie bei einem analogen Gerät vor. Ein Regler ermöglicht eine schnelle, grobe Sondierung des verfügbaren Möglichkeitsraums und eine ›gefühlsmäßige‹ Anpassung an Zielvorgaben, bringt aber bei der Feinabstimmung Probleme mit sich, sobald diese Motorik und Wahrnehmung des Users überfordert und einen Proportionswechsel der Skala (oder eine Lupe) erfor84 Sicher hat die technische Weiterentwicklung des im Prinzip schon lange existierenden Faxgerätes nach dem Zweiten Weltkrieg in Japan und seine explosionsartige Verbreitung eine wesentliche Ursache darin, daß die japanische Schrift sich gegen eine Digitalisierung sperrt und auch im Geschäftsleben handschriftliche Briefe weiterhin gebräuchlich sind. Die Geschichte zeigt, wie kulturelle Bedingungen unser Verhältnis zum Digitalen und Analogen prägen.
Wo die Quantität in Qualität umschlägt
73
dern würde. Deshalb bieten viele Programme die zusätzliche Alternative an, Werte präziser als Zahl einzugeben. Auch die digitalen Ausgabemedien weisen analoge Momente auf, sowohl bezüglich der physischen Voraussetzungen ihrer Wiedergabe wie hinsichtlich der physiologischen Faktoren ihrer ›Anschaulichkeit‹. Beim Ausdruck eines digitalen Bildes kommen Materialeigenschaften wie Papierqualität und Druckfarbe ins Spiel, und die Präsentation am Bildschirm ist von der Raumbeleuchtung und physikalischen Charakteristiken des Displays abhängig. Wer einmal mit Farbe am Computer gearbeitet hat, weiß, daß es die Farbe nicht gibt. Für die Wahrnehmung und die interaktive Nutzung ist der Rasterbildschirm faktisch ein analoges Medium, weil die Rasterung zu fein ist, als daß sie normalerweise wahrgenommen werden kann. Sichtbar wird das Digitale nur bei manchen schrägen Linien, die als Treppenstufen erscheinen. Dem begegnet man recht erfolgreich mit der Technik des ›Antialiasing‹, die sich eine physiologische Eigenschaft unserer Wahrnehmung zunutze macht: Das Auge wird getäuscht, indem zusätzliche graue Pixel die scharfen Kanten der Figur glätten; wir sehen scharf, weil wir unscharf sehen.
Abb. 23 – Antialiasing bei Schrift (Lynch, Horton 2004)
Für den Bildschirm als Eingabemedium sei an Kubies Diktum erinnert: »If you measure, you count. If you are going to count, you must be able to recognize identical discrete units.« Auf dem Bildschirm kann man nicht ›messen‹, weil man nicht in der Lage ist, die diskreten Einheiten zu erkennen; um punktgenau zu positionieren, muß man virtuelle Meßlatten oder Zähler einsetzen. Folglich müssen Aktionen wie das Verschieben eines Objekts auf dem Bildschirm als analoge Operationen aufgefaßt werden. Erst durch die Einführung eines virtuellen Rasters – sozusagen die softwaretechnische Lösung von Norbert Wieners gekerbtem Rechenschieber – wird die Bedienung für die Nutzerin wie-
74
Jörg Pflüger
der diskret, wenn das verschobene Gebilde an den (unsichtbaren) Gitterlinien ›einrastet‹ (»snap to grid«). Programme wie Photoshop verwenden nicht nur analoge Regler für die Steuerung, sondern versuchen auch, aus dem Alltag vertraute analoge Operationen digital nachzubilden: Beispielsweise wird durch eine punktweise Boolesche Verknüpfung von zwei Digitalbildern der Effekt simuliert, den man erhält, wenn man zwei Folien übereinanderlegt. Man kann visuelle Eindrücke digital auch künstlich verstärken, so daß sie unter Umständen kein reales Vorbild mehr haben. Ein Beispiel wäre die elegante Alternative des ›Fish-eye-view‹ zu dem sattsam bekannten, analogen Scroll-Balken bei Dokumenten, die nicht als Ganzes auf den Bildschirm passen.
Abb. 24 – Fish-eye-view eines Dokumentes (Purgathofer 2004, S. 83)
Mit einem Fish-eye-view wird der Übergang zwischen dem lesbaren, im »focus of attention« liegenden Teil des Dokuments und dem hintergründigen Rest durch eine kontinuierliche Verkleinerung der Schrift bis ins Unlesbare, aber als vorhanden Wahrgenommene vermittelt. Während man aus Größe und Position des Scroll-Balkens nur außerhalb des Dokuments darauf schließen kann, wie groß es ist und wo man sich darin befindet, erlaubt der Fish-eye-view dies nicht nur nebenbei, sondern am Dokument selbst abzulesen, – eine unwirkliche Sicht, die eine wirkliche Übersicht ermöglicht.85
Wo die Quantität in Qualität umschlägt
75
Die Technik des Fish-eye-view gehört zu dem vielfältigen Forschungsgebiet der Informationsvisualisierung. Dort versucht man, unsere Fähigkeit, sich im Kontinuierlichen zu orientieren, für den (interaktiven) Umgang mit großen Datenmengen am Bildschirm nutzbar zu machen. Alltägliche Anschauung ermöglicht eine schnelle Orientierung bezüglich Nähe und Ferne, Nachbarschaft und Umgebung. Wahrnehmung besteht in vielen Hinsichten in Unterscheidungen von Figur und Hintergrund, d. h. in der ›Auszeichnung‹ von interessanten Gebilden im Kontinuum von Raum und Zeit, einem Prozeß der Diskretisierung durch ›Attraktion‹.86 Viele Visualisierungstechniken versuchen, dieses Spiel zwischen Anschauung und Denken zu nutzen, beispielsweise im Data Mining, wo man aus der Wahrnehmung von Mustern (Patterns) in der visuellen Darstellung auf Relationen und Ordnungen in den Daten schließt.87 Die Rückführung des Digitalen aufs Analoge reflektiert den Umstand, daß eine ›unbewehrte‹ Bearbeitung des Diskreten im Großen und Ganzen uns nicht angemessen ist, weil wir mit Zahlenhaufen wenig anfangen können und mit den kontinuierlichen Zusammenhängen von Raum und Zeit besser zurechtkommen.88 Man kann dies als technische Wendung des bekannten Satzes von Kant auffassen, daß Begriffe ohne Anschauung leer sind.
85 Der Fish-eye-viewer in Abbildung 24 wurde vom uid-lab der TU Wien unter der Leitung von Peter Purgathofer für ein Besucherinformationssystem des Ars Electronica Center in Linz entwickelt. Da die präsentierten Texte nicht sehr viel länger als das Bildschirmfenster waren, wurde auf den technisch aufwendigeren kontinuierlichen Übergang ins Unleserliche verzichtet. 86 Zur Entstehung der Vorstellung einer zielstrebigen ›diskreten‹ Wahrnehmung im späten 19. Jahrhundert und den Zusammenhang mit kapitalistischer Produktion und »Technologien der ›Attraktion‹« siehe Jonathan Crary: Aufmerksamkeit. Wahrnehmung und moderne Kultur, Suhrkamp Verlag, 2002. 87 XmdvTool Home Page. Parallel Coordinates. Visualizations, http://davis.wpi.edu/ ~xmdv/vis_parcoord.html (18.10.2004); Table Lens, http://www.sapdesignguild.org/ community/book_people/visualization/controls/TableLens.htm, Demo zu finden unter: http://www.inxight.com/demos/tl_movies/tl_movies.html (18.10.2004). 88 Der Verlust der kontinuierlichen Anschaulichkeit bei digitalen Geräten kann das Verständnis ihrer Funktionsweise erschweren und zu umständlichen Alternativen führen: Digitalkameras werden meist mit hundertseitigen Anleitungen ausgeliefert, wovon ein großer Teil auf Sonderprogramme wie ›Porträt‹, ›Landschaft‹, ›Sport‹ und dergleichen draufgeht, die man auch noch ›umprogrammieren‹ kann. Diese Einstellungen verschleiern den einfachen analogen Sachverhalt, daß man durch Verdrehen zweier Ringe unterschiedliche Präferenzen für Blende, Tiefenschärfe und Verschlußzeit regeln kann. Die Fallunterscheidungen im Digitalen erscheinen als unverbundene Qualitäten und verhindern, daß man den optischen Zusammenhang versteht.
76
Jörg Pflüger
7. Die Differenz von digitalen und analogen Modellen ist praktisch verhandelbar. Der Erfolg des digitalen Computers hat alternative Entwicklungen obstruiert, aber zukünftige, neuartige Anforderungen könnten analoge Maschinen rehabilitieren. Analoge und digitale Modelle sind praktisch motiviert und können im Grenzfall ineinander übergehen.89 In der technischen Realität wird Kontinuierliches bei entsprechender Auflösung diskret, Photographien lösen sich irgendwann in Pigmente auf, und umgekehrt läßt es sich mit entsprechendem Aufwand nach Bedarf diskret approximieren.90 Für viele praktische Anwendungen verrauscht die Differenz der analogen und digitalen Modellierung. Auch wenn die Mathematik klar zwischen dem Gegenstandsbereich der natürlichen Zahlen, als Prototyp einer diskreten Unendlichkeit, und dem Kontinuum der reellen Zahlen trennt, gibt es doch auch dort konzeptionelle Verbindungen, die, wenn man sich auf endliche Bereiche beschränkt, technisch interessant werden. Ich möchte das am Beispiel der Fouriertransformation demonstrieren: Jede beliebige kontinuierliche periodische Funktion läßt sich mittels einer Fouriertransformation als unendliche Summe von Sinus- und Kosinuswellen darstellen, deren Frequenzen ganzzahlige Vielfache einer Grundfrequenz sind. Wir besitzen also im Kontinuum einen (unendlichen) Satz von einfachen Bausteinen und können mit ihnen mittels einer diskreten Operation – einer (unendlichen) Summation mit geeigneten reellen Koeffizienten – jede periodische Funktion nachbilden. Da die elementaren Sinus- und Kosinusfunktionen immer die gleichen sind, bedeutet das, daß die diskrete (unendliche) Menge der Koeffizienten im Frequenzraum die gleiche Information beinhaltet wie die darzustellende kontinuierliche Funktion. Nun kann man sich jedes endliche Kurvenstück als in beide Richtungen periodisch fortgesetzt denken und folglich einen beliebigen endlichen Kurvenverlauf durch eine Fourier-Überlagerung erzeugen. Und 89 Es sei an die schon zitierten Aussagen von John Stroud in Fußnote 83 und Lawrence Kubie in Fußnote 44 erinnert. 90 Dies ist kein Widerspruch zu unserer Betrachtung der real-Zahlen, weil deren Beschränktheit nur bedeutet, daß man mit jeder vorgegebenen Genauigkeit in einem reellen Intervall fast immer daneben liegt, was aber nicht ausschließt, daß man im Einzelfall durch Erhöhung der Stellenzahl praktisch jede geforderte Genauigkeit erreichen kann.
Wo die Quantität in Qualität umschlägt
77
wenn man praktisch nur an einer Näherungslösung interessiert ist, braucht man nur hinreichend endlich viele Elementarbausteine aufzusummieren: Abb. 25 zeigt die Approximation einer Rechteckschwingung durch additive Überlagerung von nur vier Kosinuswellen und einem konstanten Anteil (›Gleichstrom‹). Die Koeffizienten α0 bis α7 lassen sich aus der darzustellenden Funktion ausrechnen. Die Frequenzen der Kosinusschwingungen sind Vielfache der Grundkreisfrequenz ω; geradzahlige Vielfache und Sinusanteile werden für das Rechteck nicht benötigt, d. h. ihre Koeffizienten sind Null.
Abb. 25 – Fourier-Darstellung einer Rechteckschwingung (bis zur Ordnung 7)
Für endliche Wertebereiche kann man diesen diskreten Überlagerungsprozeß in naheliegender Weise digital nachvollziehen, um eine diskrete Verteilung im Raum in ein diskretes, endliches Frequenzspektrum zu überführen. In der digitalen Bildverarbeitung (und in der Tonverarbeitung) verwendet man häufig die einfachere, der Fouriertransformation verwandte ›Discrete Cosine Transformation‹ (DCT), mit der
78
Jörg Pflüger
man eine Verteilung von Grauwerten in einem Pixelfeld durch additive Überlagerung von diskreten Kosinus-Bausteinen darstellen kann.
Abb. 26 – Zusammensetzung einer Helligkeitsverteilung mit der DCT
In Abb. 26 ist zu sehen, wie die Verteilung der (jeweils 256) Grauwerte für 8 nebeneinanderliegende Pixel durch Überlagerung von 8 Basisvektoren erzeugt wird. Die Komponenten der Basisvektoren kann man sich aus den reellen Funktionen cos(0ωt) (= konstanter Anteil) bis cos(7ωt) ›gesampelt‹ vorstellen. Sie werden in einer Tabelle abgespeichert und für alle Datenfälle verwandt; die 8 Koeffizienten lassen sich wieder leicht aus den Pixelwerten bestimmen. Man kann die DCT (wie auch die Fouriertransformation) auf den zweidimensionalen Fall verallgemeinern, und üblicherweise transformiert man Blöcke von 8×8 Pixeln separat. Abb. 27 zeigt die zugehörigen 64 Basiselemente.
Wo die Quantität in Qualität umschlägt
79
Während die endliche Fourierdarstellung nur eine Näherung an die kontinuierliche Form liefert, entspricht, weil hier von vornherein nur endlich viele diskrete Werte auftreten können, der Informationsgehalt der 64 DCT-Koeffizienten der ursprünglichen Grauwertverteilung der 8×8-Blöcke und verbraucht auch genauso viel Speicherplatz. Jedoch ist die DCT eine Grundlage für die fundamentale Operation der verlustbehafteten Bild- und Tonkompression, z. B. beim JPEG-Format. Denn man kann in der transformierten Darstellung ›überflüssige‹, weil für den Betrachter kaum wahrnehmbare ›Frequenzen‹ weglassen und so den Datenaufwand reduzieren. Die Rücktransformation der komprimierten Daten in den Pixelraum ergibt dann eine Näherung ans ursprüngliche Bild, deren Verfehlung je nach gewählter Qualität mehr oder weniger bemerkbar ist.
Abb. 27 – Die 64 Basiselemente der zweidimensionalen DCT
Mit dem etwas länglich geratenen Beispiel wollte ich zeigen, wie sich das Kontinuierliche und Diskrete verschränken können. Die digitale Verarbeitung bildet hier schlicht eine Zerlegungseigenschaft der kontinuierlichen Funktionen auf diskretisierten Werten nach. Wenn wir von der Bildbearbeitung einmal absehen, ist der Hauptgrund für die Beschränkung auf diskrete Werte, daß wir gerasterte Ein- und Ausgabegeräte verwenden. Mit einem analogen Ausgabegerät, zusammen mit einem analogen Prozessor, könnten wir echte Fouriertransformationen verwenden und Graphiken durch eine (endliche) Summe von harmonischen Grundschwingungen darstellen. Analoge Ausgabegeräte sind etwas aus der Mode gekommen, hatten und haben aber durchaus ihre Berechtigung. Die bekanntesten sind der Plotter und der Vektorbild-
80
Jörg Pflüger
schirm, mit denen man nicht in einem Raster einzelne Bildpunkte ›beschreibt‹, sondern die einen Zeichenstift oder einen Elektronenstrahl gemäß einer kontinuierlichen Funktion steuern.91 Das erlaubt vor allem für Figuren eine sehr effiziente Darstellung und Speicherung, weil kein Pixelfeld, sondern eine Beschreibung der Linienführung verwandt wird. Das Defizit der analogen Geräte, mit stark gemusterten Flächen wie bei Photographien schlechter zu Rande zu kommen, hätte man mit entsprechendem Forschungsaufwand vermutlich ausgleichen können. Solche effizienten Beschreibungen werden auch in digitalen Applikationen eingesetzt, in der Vektorgraphik oder wenn die Gestalt von Schriftzeichen mittels Bezierkurven ihrer Umrisse angegeben wird. Für die Ausgabe auf heutigen Rastergeräten müssen die Beschreibungen allerdings erst von einem ›Treiber‹ in Pixelgebilde umgeformt werden. Mit analogen Geräten wäre unter Umständen eine bessere Qualität zu erreichen, insbesondere bei schrägen Linien oder Kreisen. Auch Operationen der Bildbearbeitung und andere mediale Funktionen des Computers ließen sich analog umsetzen, weil es bei ihnen nicht auf hohe Rechengenauigkeit, sondern auf eine schnelle Umsetzung in qualitativ hochwertige Objekte der Wahrnehmung ankommt. Solche Funktionen wären mit Spezialprozessoren oder sonstigen in den Computer integrierten analogen Bauelementen vermutlich effizienter zu realisieren als durch digitale Berechnungen.92
91 Die mit einem Vektorbildschirm ausgestattete Spielekonsole Vectrex aus dem Jahre 1982 ist heute ein begehrtes Sammlerstück. Wie schon im letzten Abschnitt festgestellt, trügt die simple Analog/Digital-Opposition. So weisen auch Rasterbildschirme unterschiedliche Anteile von analogen und digitalen Mechanismen auf. Am ›digitalsten‹ ist wohl der LCD-Bildschirm, da hier jede Pixelzelle separat angesteuert wird. Bei Röhrenbildschirmen wird ein Elektronenstrahl (zeilenweise) kontinuierlich abgelenkt, erst eine Lochblende sorgt für die physische Diskretisierung. Und bei der im »Mobile Computing« eingesetzten experimentellen Technik des »Virtual Retinal Display« (VRD) wird das Auge selbst zum Bildschirm, (digitale) Bilder werden mit Laserstrahlen direkt auf die Netzhaut projiziert. Da die Photorezeptoren der Retina ein diskretes Raster bilden, wirft dies im Gegenzug die Frage auf, inwiefern unsere Wahrnehmung überhaupt als analog anzusehen ist. Ich habe mich oben eindeutig für die analoge Auffassung entschieden, weil sonst jede Beschreibung der Wahrnehmung recht unelegant ausfiele und Kontinuierliches ausschließlich als mathematisches Modell existierte. 92 Dies legt einen über das Modell der Turingmaschine hinausgehenden Begriff des Algorithmus nahe, der zwar weiterhin schrittweise verfährt, aber dessen Basiselemente (und Transformationen) kontinuierliche Funktionen sein können. Eine ähnliche Revision erfordern auch die Möglichkeiten des Quantencomputing. Hierzu siehe den Beitrag von Martin Warnke in diesem Band.
Wo die Quantität in Qualität umschlägt
81
Die Geschichte ist voll von gelungenen, aber vergessenen Ansätzen, mit dem Analogen zu experimentieren. Bei dem rauschenden Erfolg von Pixar kann man sich heute nur schwer vorstellen, daß vor dreißig Jahren interessante Animationsfilme mit einer Analogmaschine hergestellt wurden. Nachdem Lee Harrison III Anfang der sechziger Jahre einen Analogcomputer namens animac für die Animation von Strichmännchen gebaut und damit experimentiert hatte, produzierte seine Firma Computer Image Corporation von 1969 bis 1986 mit dem ausgereifteren Nachfolgemodell scanimate viele Animationsfilme.
Abb. 28 – Die Arbeit mit Scanimate (Video Sythesizers. The scanimate 2004)
Der Herstellungsprozeß verlief mit Scanimate dreistufig: Bildvorlagen wurden von einem Leuchttisch abgefilmt, dann auf dem monochromen Bildschirm einer Kathodenstrahlröhre ausgegeben und dort wieder mit einer Video-Kamera abgefilmt, wobei die verschiedenen Helligkeitswerte unterschiedlich koloriert wurden. Die Wiedergabe auf dem Röhrenschirm konnte durch einen Analogcomputer, der mit Steckbrettverbindungen programmiert wurde, auf vielfältige Weise beeinflußt und ›animiert‹ werden. Zusätzlich war es möglich, mit 250 Reglern Veränderungen in Echtzeit vorzunehmen, was auch dazu genutzt wurde, auf Wünsche der im Studio anwesenden Klienten einzugehen.93 Nachteilig war, daß die Programmierung den Künstlern ungewöhnliche technische Fertigkeiten abverlangte und daß Sequenzen nur mit großem Aufwand wiederholt und nachträglich modifiziert werden
82
Jörg Pflüger
konnten.94 Die Schnelligkeit der analogen Prozesse machte jedoch Animationen in Realzeit möglich, woran in dieser Zeit mit einer digitalen Verarbeitung nicht zu denken war. In Abb. 29 ist zu sehen, wie die Performance einer mit Bewegungssensoren bestückten Tänzerin in Echtzeit in Bewegungen einer Figur umgesetzt wird.
Abb. 29 – Verkabelte Performance (Sieg, Ed Tajchman Material 2004)
Analog- und Hybridrechner wurden in vielen Bereichen eingesetzt, insbesondere für die Simulation von natürlichen oder technischen Prozessen, bevor sie von der digitalen Programmierung weitgehend verdrängt wurden. 93 Auf der Webseite http://scanimate.zfx.com kann man eine DVD bestellen, auf der über den Produktionsprozeß berichtet wird und mit Scanimate hergestellte Animationsfilme gesammelt sind, unter anderem eine »Einführung in Fourierreihen«. Auf der Webseite http://scanimate.zfx.com/movies.html kann man sich kurze Ausschnitte einiger »Scanimations« anschauen, auch die berühmte Sequenz mit dem Todesstern aus dem ersten Star Wars-Film. Einen Überblick über andere Entwicklungen gibt die »Video Synthesizer Homage Page«, http://www.audiovisualizers.com/toolshak/vsynths.htm (18.10. 2004). 94 Vgl. Dave Sieg: »Scanimation in the Analog Days, SIGGRAPH 98 History Project«, in: ACM SIGGRAPH Newsletter, Vol.32 No.3 (1998), http://www.siggraph.org/publications/newsletter/v32n3/contributions/sieg.html (18.10.2004).
Wo die Quantität in Qualität umschlägt
83
Abb. 30 – Hybrid-Tischcomputer H180 (Coward 2004)
Wie man sieht, ist die Ausstattung des hybriden Tischrechners H180 mit digitalen Elementen recht bescheiden. Auch bei größeren Hybridrechnern diente der digitale Anteil meist zur Unterstützung der eigentlichen analogen Berechnung, mit der man beispielsweise Sensordaten recht einfach und schnell auswerten konnte.
Abb. 31 – »A typical analog/hybrid-computer console« einer »multipurpose machine« (Korn, Korn 1964, S. 1-2)
Die wohl wichtigsten Einsatzfelder betrafen strömungsmechanische Aufgaben wie den Entwurf von Brücken und Turbinen oder die Simulation von Flüssen in Wasser, Gasen oder elektrischen Systemen. Einige dieser Maschinen waren noch lange nach dem Durchbruch des Digitalcomputers in Gebrauch und wurden (werden?) zum Testen der digita-
84
Jörg Pflüger
len Berechnungen verwendet. Analogrechner modellieren und simulieren solche Aufgabenstellungen viel direkter und somit verständlicher als digitale Systeme, so daß sich der Entwurf eines Modell damit besser überprüfen läßt. Bekanntermaßen ist es schwierig, kontrafaktisch zu argumentieren. Und so ist schwer einzuschätzen, was eine massive (finanzielle) Förderung von Analogrechnern an Weiterentwicklungen hätte bringen können. Aber auf jeden Fall ist zu bedenken, daß der Erfolg des digitalen Computers Forschung und Entwicklung im Analogen, wie in anderen Bereichen auch, demotiviert und behindert hat.95 Jedoch gibt es Anzeichen, daß analoge Computer eine Wiedergeburt erleben könnten, zumindest in Form von Hybridsystemen, in denen der analoge Anteil spezielle Aufgaben effizienter erfüllt.96 »Recently there has been a rebirth of interest in analog computation, since for many applications it’s convenient for each component of the data representation to take on a continuum of values, rather than one of a finite set of discrete values.«97 Auch wenn vieles davon (noch) im Visionären verbleibt, hat das wiedererwachte Interesse an analogen Rechenverfahren mit neuartigen Problemstellungen und alternativen, kontinuierlichen Modellierungen mittels ›komplexer dynamischer Systeme‹ oder ›neuronaler Netze‹ zu tun. Träume von ›ubiquitous computing‹, ›smart houses‹ und ›selbstreinigenden Teppichen‹ sind mit herkömmlichen Computern schwer zu verwirklichen. Solche Systeme, die die physische 95 Auf zwei andere Opfer sind wir schon eingegangen: Die Kybernetik als Forschungsgebiet mit weiter gefaßtem Anspruch ist unter dem Siegeszug des Computers auf der Strecke geblieben, und die »multivalued logic« hat es nie in die Massenproduktion geschafft. Ein etwas moderneres drittes Beispiel wären Digitalrechner mit hochgradig paralleler Verarbeitung, wozu es eine umfangreiche theoretische Literatur gibt, aber wenig gebaute Maschinen. In den letzten beiden Fällen war es einfacher, zweiwertige Massenspeicher zu bauen und die Taktfrequenz zu erhöhen, als konzeptionell Neues zu entwickeln, was im Falle der Parallelprozessoren auch neue Anforderungen an die Programmierer gestellt hätte. Der Computer, der in seinen wesentlichen Prinzipien sich seit den Anfängen bis heute nicht verändert hat, verdankt seinen Erfolg und seine Allgegenwärtigkeit einer schieren Leistungssteigerung, was auch einen Umschlag von Quantität in eine (faktische) Qualität darstellt. 96 Ich halte es gleichfalls für wahrscheinlich, daß in nicht allzuferner Zukunft, wenn sich das Mooresche Gesetz der Hardwareentwicklung totgelaufen hat, Parallelprozessoren für spezielle Aufgaben, etwa die Matrixmultiplikation, in den normalen Computer integriert werden; der Anschluß solcher Spezialprozessoren kann innerhalb der Maschine erfolgen und erfordert so keine zusätzlichen Kenntnisse der Programmierer und User. 97 Bruce J. MacLennan: »Continuous Computation. Taking Massive Parallelism Seriously«, Los Alamos NM, 1989. S. 1.
Wo die Quantität in Qualität umschlägt
85
Umwelt beobachten, kontrollieren und rechtzeitig auf Veränderungen reagieren, müssen die Daten von Myriaden von Sensoren blitzschnell auswerten.98 Hier liegt die Stärke von analogen Prozessoren, die solche Aufgaben mit geringem Energieverbrauch, hochgradig parallel und in einem ›Schritt‹ lösen können. Johnathan Mills experimentiert deshalb mit Analogprozessoren, die mit einer kontinuierlichen (Lukasiewicz-) Logik operieren, und untersucht Anwendungen wie eine analoge Retina.99 Bruce MacLennan behandelt in seinem Aufsatz »Transcending Turing Computability« analoge Informationsverarbeitung als Grundlage einer »natural computation«, die von Systemen erwartet wird, die in einer ›natürlichen‹ Umgebung agieren und reagieren, wie beispielsweise ein autonomer Roboter, der ohne menschliche Steuerung einen Planeten erforscht. »Natural computation shifts the focus from the abstract deductive process of the traditional theory of computation to the computational processes of embodied intelligence … .«100 Damit werden ganz andere Anforderungen an Berechnungsverfahren gestellt: Sie sind spezifisch für eine feste, durch die Sensoren bestimmte Größe der Eingabewerte auszulegen; sie müssen nicht optimal, sondern zufriedenstellend arbeiten, aber mit Rauschen, Fehlern und Ausfällen zurechtkommen und sich neuen Bedingungen anpassen können: »performance is critical; abstract competence is unimportant.«101 Dies legt eine kontinuierliche Datenrepräsentation und eine analoge Verarbeitung nahe. Analogmaschinen werden auch unter Stichworten wie »Hypercomputation« als Modelle für kognitive Prozesse gehandelt, nachdem neuronale Netze im Diskreten nicht sonderlich erfolgreich waren. Hier gibt es theoretische Ergebnisse, daß bestimmte analoge neuronale Netzwerke mächtiger als Turingmaschinen sind.102 Die meisten Informatiker 98 Leigh Hedger: »Analog Computation. Everything Old Is New Again«, in: Indiana University Research & Creative Activity, Vol. XXI Nr. 2 (1998), http://www.indiana. edu/~rcapub/v21n2/p24.html (18.10.2004). Für solche Probleme macht eine synchronisierende Taktung wenig Sinn und stellt eher ein Hindernis dar. Auch im Bereich von asynchronen Prozessoren ist die Forschung recht aktiv, aber bislang noch nicht zum Zuge gekommen. 99 Johnathan Mills: Kirchhoff-Lukasiewicz Machines, http://www.cs.indiana.edu/ ~jwmills/ANALOG.NOTEBOOK/klm/klm.html (18.10.2004). 100 Bruce J. MacLennan: »Transcending Turing Computability«, in: Minds and Machines, Volume 13, Issue 1, (2003) S. 8. 101 MacLennan 2003, S. 9.
86
Jörg Pflüger
bleiben allerdings skeptisch, weil nicht erkennbar ist, wie so etwas praktisch eingesetzt werden kann und weil sich zeigen läßt, daß solche Netzwerke im Rauschen nicht einmal ›reguläre Mengen‹ erkennen. »Thus we may anticipate that the theoretical power attributed to analog computers may depend somewhat delicately on the assumptions made in the theory.«103 In diesem Zusammenhang wird auch diskutiert, ob es eine der universellen Turingmaschine, die das Standardmodell für den Digitalcomputer abgibt, vergleichbare programmierbare universelle Analogmaschine gibt, eine Frage, die Claude Shannon schon 1941 beschäftigt hat, als er mit dem Differential Analyzer arbeitete und eine mathematische Theorie dazu entwickelte.104 MacLennan dagegen erscheint die Frage der universellen Programmierbarkeit nicht sonderlich relevant, weil er Analogrechner ja für eine »natural computation« einsetzen will und »natural computation systems are typically constructed from interconnection of large numbers of special-purpose modules.«105 Was auch immer sich aus solchen Spekulationen und Experimenten an sinnvollen Produkten ergeben wird, sie werden wohl nicht die mit dem Modell der universellen Turingmaschine verbundene Möglichkeit der arbitären Kodierung in einem diskreten Zeichensystem ersetzen, sondern eine diskrete Verbindung eingehen. Hybridrechner der Zukunft werden vermutlich nicht auf einem Tisch herumstehen oder ein Haus einnehmen, sondern als ›intelligenter Schwarm‹ sich wie in Stanislaw Lems Geschichte »Der Unbesiegbare« in Haus und Hof verteilen. Dergestalt könnte auf nicht vorhersehbare Weise Norbert Wieners Utopie von der konstruktiven Freiheit eingelöst werden: »I think that the freedom of constructing machines which are in part digital and in part analogical is a freedom which I profoundly believe to exist in the nervous system, and it represents, on the other hand, with humanly 102 »The mathematical model of analog computation suggested by [Hava] Siegelmann is, similarly, a dynamical system that evolves in a continuous-phase space, in contrast to the discrete-space model of digital computers. She interprets the dynamical behavior of systems as a process of computation and shows, mathematically, the essential difference between the two paradigms. ›The neural network that represents the analog computer proves to be inherently richer than the standard Turing model,‹ said Siegelmann. ›It encompasses and transcends digital computation while its power remains bounded and sensitive to resource constraints.‹« Sunny Bains: Analog computer trumps Turing model, 1998, http://www1.cs.columbia.edu/~evs/marvin/non-discrete.html (18.10.2004). 103 MacLennan 2003, S. 2. 104 Claude Shannon: »Mathematical Theory of the Differential Analyzer«, in: Journal of Mathematics and Physics, Vol. 20 (1941), S. 337-354. 105 MacLennan 2003, S. 13.
Wo die Quantität in Qualität umschlägt
87
made machines, possibilities which we should take advantage of in the construction of the automaton. … I feel that the machines we build in the future for a great many purposes should take advantage of nondigital ways of modifying the threshold of digital machines.«106
8. Die digitale BeGeisterung findet in den Köpfen, nicht in den Maschinen statt. Wenn, wie in dem gegoogelten Zitat behauptet wird, analoge Signale in ihrer normalen Form keine Intelligenz hätten, dann können wir ergänzen, daß wir sie auch im Digitalen nicht gefunden haben. Unterstellt man in einem Umkehrschluß dem Autor die Meinung, das Digitale wäre mit Intelligenz verbunden, stellt sich die Frage, wie eine solche Vorstellung zustandekommt. Aus unserer Betrachtung der digitalen Verarbeitung lassen sich drei charakteristische Merkmale herausstellen, die Voraus-Setzungen des digitalen Berechenbarkeitsmodells (der Turingmaschine) sind: Digitale Information ist formal, endlich und definit.107 Wir können mit Information operieren – suchen, vergleichen, verknüpfen und umkodieren –, sofern sie sich formal, auf syntaktischer Ebene und in stabilen Zuständen, fassen läßt. Die Beschränkung auf diskrete Zustände bedeutet in der technischen Realität natürlich eine Einschränkung aufs Endliche, was die Daten wie die Regeln ihrer Verarbeitung betrifft; im Analogen gibt es Endlichkeit streng genommen nicht, weil auch ein endliches Werteintervall theoretisch dem Kontinuum entspricht. Und schließlich schafft die Separierung der Zustände durch die Dequalifizierung der Transit-Zone eindeutige Zeichen, was exakte Rechnungen und arbiträre Kodierungen ermöglicht. Bruce MacLennan faßt diese Eigenschaften des Digitalen konzise zusammen: »The traditional theory of computation assumes that information representation is formal, finite and definite … . Formality means that information is abstract and syntactic rather than concrete and semantic. Abstract 106 Wiener, MC, S. 176. 107 Streng genommen ist jeder Digitalcomputer ein ›endlicher Automat‹. Die universelle Turingmaschine ist mit ihrem unendlich langen Band eine mathematische Idealisierung, die zum Ausdruck bringt, daß wir für praktische Fälle im Computer genügend Speicher bereitstellen können.
88
Jörg Pflüger
formality means that only the form of a representation is significant, not its concrete substance. Therefore there is no limit to the production of further representations of a given form, since the supply of substance is assumed to be unlimited. … Syntactic formality means that all information is explicit in the form of the representation and independent of its meaning. Therefore information processing is purely mechanical. Since ancient Greek philosophy, finiteness has been assumed as a precondition of intelligibility. Therefore, representations are assumed to be finite both in their size and in the number of their parts. Definiteness means that all determinations are simple and positive, and do not require subtle or complex judgements. Therefore there is no ambiguity in the structure of a representation.«108 MacLennan weist auch auf den geistesgeschichtlichen Horizont dieses Berechnungsmodells hin: »The roots of these assumptions go much deeper however, and reach into the foundations of Western epistemology.«109 Die abendländische Logik ist seit Aristoteles in Form eines Begriffsverbandes strukturiert, mit endlichen Schlußregeln und dem Ideal von eindeutigen Definitionen. Kants Kategorientafel und seine Entgegensetzung von kontinuierlicher Anschauung und endlichem, diskreten Verstand ist hierfür vielleicht das beredtste Beispiel. Vermutlich ist das der Hinter-Grund, daß jemand darauf verfällt, im Digitalen etwas Intelligibles zu wähnen. Aber praktisch ist dem nicht so. Gedruckte Zeichen sind unscharf und lassen sich oft nicht auseinanderhalten. Zwischenstadien lassen sich nicht immer vermeiden, und die Fehlerwahrscheinlichkeit ist auch im Digitalen nicht Null. Das Digitale ist eine Abstraktion, ein Modell, das mit dem Computer eine erfolgreiche Realität gewonnen hat. Aber Modelle sind keine Tatsachen, sondern Sachen der Tat; sie werden interessegeleitet konstruiert und rechtfertigen sich nur durch ihren heuristischen Wert. So auch die Unterscheidung von analog und digital. Der Psychologe Hans Lukas Teuber drückte auf der Macy-Konferenz sicher die mehrheitliche Meinung der Teilnehmer am prägnantesten aus: »To assume digital action is permissible as long as we remember that we are dealing with a model. The only justification for using the model is its heuristic value.«110 Unter praktischen Gesichtspunkten ist die Idealisierung ver108 MacLennan 2003, S. 3. 109 MacLennan 2003, S. 2. 110 Teuber, MC, S. 189.
Wo die Quantität in Qualität umschlägt
89
handelbar, wenn sich die Voraussetzungen ändern oder ein Modellwechsel das Verständnis erleichtert. So spricht nichts dagegen, das Verhalten eines riesigen Konglomerats von digitalen Elementen in einem kontinuierlichen Modell zu betrachten, wenn dieses (mathematisch) einfacher zu handhaben ist.111 Im Kontext menschlicher Sinneswahrnehmung vertrat John Stroud die Ansicht, daß ein kontinuierlicher Prozeß nur die Statistik von diskreten Ereignissen wiedergibt, ein Ansatz, der im Verhältnis von Thermodynamik und statistischer Mechanik recht erfolgreich ist.112 Und in der Bedienung der digitalen Maschine erweist sich täglich, daß man praktisch mit der analogen Modalität des Diskreten im Interface gut zurechtkommt. Die gesellschaftliche Bedeutung des Computers resultiert aus seinem ubiquitären Einsatz als Rechner und Medium, im privaten wie im wirtschaftlichen Bereich mit Programmen wie Spreadsheets oder Computerspielen, in der Text-, Bild- und Tonverarbeitung, bei Präsentationen oder im WWW. Die praktischen Qualitäten der digitalen Maschine haben zu ihrer ungeheuren quantitativen Verbreitung geführt, und dann hat die Allgegenwärtigkeit des Digitalen die Köpfe mit einer metaphysischen Qualität geschlagen, die sich als absolute Differenz zum Analogen behauptet.113 »I think that part of our difficulty is that we have been using terms as opposite which apparently are not logical opposites. We use them only because they are in the properties of the two.«114 Gregory Batesons Desorientierung erscheint also völlig gerechtfertigt, und 111 MacLennan 1989. 112 »I am more inclined to the notion of analogical processes as the statistics of a large number of quantical events.« Stroud, MC, S. 184. 113 Zu eigentümlichen Differenzen hat es den (deutschen) Gesetzgeber verschlagen. Der »Referentenentwurf für ein Zweites Gesetz zur Regelung des Urheberrechts in der Informationsgesellschaft« des Bundesministeriums der Justiz sieht beispielsweise in § 53a UrhG-E vor, daß der digital-elektronische Versand »einzelner in Zeitungen und Zeitschriften erschienener Beiträge sowie kleiner Teile eines erschienenen Werkes« durch öffentliche Bibliotheken auf Einzelbestellung zulässig ist, aber nur in Form einer »graphischen Datei« (BMJ 2004). Diese groteske (Schranken-)Regelung, die eine solche nichtkommerzielle digitale Übermittlung nur zulassen will, »soweit der elektronische Versand funktional an die Stelle der Einzelübermittlung in körperlicher Form tritt«, ist als (weiterer) Versuch zu sehen, die neuen Möglichkeiten der digitalen Medien den Verwertern von urheberrechtlich geschützten Werken vorzubehalten und die Rechte der Allgemeinheit auf eine quasi-analoge Nutzung zu begrenzen, die nur als Substitut einer für die Analogmedien etablierten Nutzung fungiert. Hierzu siehe Volker Grassmucks Analyse in Volker Grassmuck: Digitale Revolution für alle. Ein Plädoyer für durchsetzbare Schrankenbestimmungen für Privatkopie, Zitat und Filesharing, in: Zeitschrift für Urheber- und Medienrecht (ZUM), Jahrg. 49, erscheint 2005. 114 Pitts, MC, S. 198.
90
Jörg Pflüger
wir sollten uns mit Norbert Wieners Befund bescheiden: »I say that the whole habit of our thinking is to use the continuous where that is easiest and to use the discrete where the discrete is the easiest. Both of them represent abstractions that do not completely fit the situation as we see it. One thing that we cannot do is to take the full complexity of the world without simplification of methods. It is simply too complicated for us to grasp.«115
Literatur Atanasoff, John V.: Computing Machine for the Solution of Large Systems of linear Algebraic Equations (Unpublished Memorandum), Ames: Iowa State College 1940, zitiert nach dem Reprint in: Brian Randell (Hrsg.), The Origins of Digital Computers. Selected Papers, Berlin, Heidelberg, New York: Springer 1982, S. 315-335. Bains, Sunny: Analog computer trumps Turing model, 1998, http:// www1.cs.columbia.edu/~evs/marvin/non-discrete.html (18.10.2004). Bartee, Thomas C./Lebow, Irwin L./Reed, Irving S.: Theory and design of digital machines, New York, San Francisco, Toronto, London: McGraw-Hill 1962, S. 11. Berrnier, Marc: Vannevar Bush, http://www.acmi.net.au/AIC/BUSH_BERR NIER.html (18.10.2004). Bianchi, Luigi M.: History of Computing and Information Technology. Lecture 20. Analog vs Digital, 2002, http://www.yorku.ca/sasit/sts/sts3700b/ lecture20a.html (18.10.2004). Brennecke, Andreas: »Physikalische Analogien und Ziffernrechenmaschinen. Von mechanischen Rechengeräten zu Integrieranlagen und programmgesteuerten Maschinen«, in: Werner H. Schmidt/Werner Girbardt, 1. Symposium zur Entwicklung der Rechentechnik 15.-17. 09. 2000, Greifswald: Ernst Moritz Arndt Universität 2000, http://www.rechnerlexikon. de/ wiki.phtml?title=Physikalische_Analogien_und_Ziffernrechenmaschinen &PHPSESSID=555b5531590dba626ea1133c92737261 Brousentsov, N. P./Maslov, S. P. /Ramil Alvarez, J./Zhogolev, E. A.: Development of ternary computers at Moscow State University, 2004, http:// www.computer-museum.ru/english/setun.htm Brousentsov, N. P. et al: http://compmus9.valuehost.ru/histussr/setun2.htm (21.10.2004). Buckland, Michael K.: »Emanuel Goldberg, Electronic Document Retrieval, And Vannevar Bush’s Memex«, in: Journal of the American Society for 115 Wiener, MC, S. 197.
Wo die Quantität in Qualität umschlägt
91
Information Science 43, No. 4 (1992) S. 284-294, http://www.sims.berkeley.edu/~buckland/goldbush.html (18.10.2004). Bundesministerium der Justiz: Referentenentwurf für ein Zweites Gesetz zur Regelung des Urheberrechts in der Informationsgesellschaft«, elektronisch: http://www.bmj.bund.de/enid/2x.html Bush, Vannevar: »As We May Think«, in: Atlantic Monthly, Vol.176 (1945), S. 101-108, elektronisch unter anderem: http://arti.vub.ac.be/cursus/20012002/ai2/material/bush.pdf (18.10.2004). Crary, Jonathan: Aufmerksamkeit. Wahrnehmung und moderne Kultur, Suhrkamp Verlag, 2002. Coward, Doug: Doug Coward’s Analog Computer Museum and History Center, http://dcoward.best.vwh.net/analog/index.html#manufact, Link: Physical & Electronic Laboratories Limited, http://dcoward.best.vwh. net/analog/p&e.htm (18.10.2004). Google Glossary: Web definitions for ›analog‹, http://www.google.com/search? num=30&hl=en&lr=&ie=UTF-8&safe=off&oi=defmore&q=define: Analog (2003). Google Glossary: Web definitions for ›analog signal‹, http://www.google.com/ search?num=30&hl=en&lr=&ie=UTF-8&safe=off&oi=defmore&q=define: ANALOG+SIGNAL (2003). Grassmuck, Volker: Digitale Revolution für alle. Ein Plädoyer für durchsetzbare Schrankenbestimmungen für Privatkopie, Zitat und Filesharing, in: Zeitschrift für Urheber- und Medienrecht (ZUM), Jahrg. 49, erscheint 2005. Hartree, Douglas R.: Calculating Instruments and Machines, The University of Illinois Press, Urbana: 1949, S. 1; wieder abgedruckt in: Volume VI in the Charles Babbage Institute Reprint Series for the History of Computing, The Massachusetts Institute of Technology and Tomash Publishers, 1984. Hedger, Leigh: »Analog Computation. Everything Old Is New Again«, in: Indiana University Research & Creative Activity, Vol. XXI Nr. 2 (1998), http://www.indiana.edu/~rcapub/v21n2/p24.html (18.10.2004). Hegel, Georg W. F.: »Wissenschaft der Logik.« in: Gesammelte Werke Band 11, Hamburg: Meiner 1978. Intel Product Brief: 3 Volt Intel StrataFlash ® Memory (J3), 2002, http:// www.intel.com/design/flcomp/prodbref/pdfs/298044.pdf (18.10.2004). Ivall, T. E.: Electronic Computers, London: Iliffe & Sons 1956, das Bild ist wiedergegeben in Luigi M. Bianchi, 2002. Knuth, Donald: The Art of Computer Programming. Volume 2. Seminumerical Algorithms, Boston: Addison-Wesley Publishing Company 1981. Korn, Granino A./Korn, Theresa M.: Electronic Analog and Hybrid Computers, New York, San Francisco, Toronto, London: McGraw-Hill 1964, S. 1-2.
92
Jörg Pflüger
Link, Jürgen: Versuch über den Normalismus, Opladen, Wiesbaden: Westdeutscher Verlag 1997. Lynch, Patrick J./Horton, Sarah: Web Style Guide, http://www.webstyleguide.com/type/graphics.html (18.10.2004). MacLennan, Bruce J.: »Continuous Computation. Taking Massive Parallelism Seriously«, poster presentation, Los Alamos National Laboratory Center for Nonlinear Studies 9th Annual International Conference, Emergent Computation, Los Alamos NM, 22.-26.5. 1989. Auch in: University of Tennessee, Knoxville, Department of Computer Science Technical Report CS-89-83 (1989), elektronisch: http://www.cs.utk.edu/~mclennan/fieldcomp.html (21.10.2004). MacLennan, Bruce J.: »Transcending Turing Computability«, in: Minds and Machines, Volume 13, Issue 1, (2003), S. 3-22, elektronisch: http:// www.cs.utk.edu/~mclennan/papers.html (21.10.2004). Mills, Johnathan: Kirchhoff-Lukasiewicz Machines, http://www.cs.indiana. edu/~jwmills/ANALOG.NOTEBOOK/klm/klm.html (18.10.2004). MIT Department of Engineering & Computer Science: »As We May Think« – A Celebration of Vannevar Bush’s 1945 Vision, An Examination of What Has Been Accomplished, and What Remains to Be Done, Thursday, October 12, 1995, A Photographic Appreciation, http://www.eecs.mit. edu/AY95-96/events/bush/photos.html (21.10.2004). Morrison, James E.: The Astrolabe, http://www.astrolabes.org (18.10.2004). Museo della Specola in Bologna, http://www.bo.astro.it/dip/Museum/english/ index.html (18.10.2004). Parker, Geoffrey (Hrsg.): Knaurs neuer historischer Weltatlas, (5. Auflage), München: Droemersche Verlagsanstalt Th. Knaur Nachf. 1996. Parkes, Malcolm B.: Pause and Effect. An Introduction to the History of Punctuation in the West, Berkeley: University of California Press 1993. Penzes, William B.: Time Line for the Definition of the Meter, NIST Museum, http://www.mel.nist.gov/div821/museum/timeline.htm (18.10.2004). Pias, Claus (Hrsg.): Kybernetik. The Macy-Conferences 1946-1953. Band 1 Protokolle, Zürich, Berlin: diaphanes 2003. Pias, Claus (Hrsg.): Kybernetik. The Macy-Conferences 1946-1953. Band 2 Dokumente, Zürich, Berlin: diaphanes 2004. Pias, Claus: »Elektronenhirn und verbotene Zone. Zur kybernetischen Ökonomie des Digitalen«, in: Jens Schröter/Alexander Böhnke (Hrsg.), Analog/ Digital. Opposition oder Kontinuum? Zur Theorie und Geschichte einer Unterscheidung, Bielefeld: transcript-Verlag 2004, S. 295-310. Planisphere http://askconline.org/Store/planisphere.jpg (18.10.2004). Porstmann, Dr. Walter: Karteikunde. Das Handbuch der Karteitechnik, BerlinSchöneberg: Max Schwabe Verlag 1950. Purgathofer, Peter: designlehren. zur gestaltung interaktiver systeme, Habilitationsschrift, TU Wien 2004.
Wo die Quantität in Qualität umschlägt
93
Rich, David A.: »A survey of multivalued memories«, in: IEEE Transactions on Computers, Vol. 35 No. 2 (1986), S. 99-106. Saenger, Paul: Space Between Words. The Origins of Silent Reading, Stanford: Stanford University Press 1997. Scanimate Site, http://scanimate.zfx.co/ (18.10.2004). Scanimate Movies, http://scanimate.zfx.com/movies.html (18.10.2004). Schröter, Jens/Böhnke, Alexander (Hrsg.): Analog/Digital. Opposition oder Kontinuum? Zur Theorie und Geschichte einer Unterscheidung, Bielefeld: transcript-Verlag 2004. Shannon, Claude: »Mathematical Theory of the Differential Analyzer«, in: Journal of Mathematics and Physics, Vol. 20 (1941), S. 337-354. Sieg, Dave: Dave Sieg’s Scanimate Files. Ed Tajchman Material, http://scanimate.zfx.com/tajchman1.html (18.10.2004). Sieg, Dave: Dave Sieg’s Scanimate Files. New Photo Gallery, http://scanimate.zfx.com/photo1.html (18.10.2004). Sieg, Dave: »Scanimation in the Analog Days, SIGGRAPH 98 History Project«, in: ACM SIGGRAPH Newsletter, Vol.32 No.3 (1998), http://www. siggraph.org/publications/newsletter/v32n3/contributions/sieg.html (18. 10.2004). Smith, Kenneth C.: »Multiple-Valued Logic. A Tutorial and Appreciation«, in: IEEE Computer, Vol. 21 Issue 4 (1988), S. 17-27. Soroka, Walter W.: Analog Methods in Computation and Simulation, New York, Toronto London: McGraw-Hill 1954. Stetter, Christian: Schrift und Sprache, Frankfurt/M.: Suhrkamp 1997. Table Lens, http://www.sapdesignguild.org/community/book_people/visualization/controls/TableLens.htm, Demo: http://www.inxight.com/demos/ tl_movies/tl_movies.html (18.10.2004). Turing, Alan: Lecture to the Mathematical Society on 20 February 1947; abgedruckt in Volume 10 in the Charles Babbage Institute Reprint Series for the History of Computing, A. M. Turing’s ACE Report of 1946 and Other Papers, The Massachusetts Institute of Technology, 1986, S. 106124. Varlejs, Jana: »Ralph Shaw and the Rapid Selector«, in: Proceedings of the 1998 Conference on the History and Heritage of Science Information Systems, http://www.chemheritage.org/explore/ASIS_documents/ASIS 98_ToC.htm (18.10.2004). Video Synthesizers Homage Page, http://www.audiovisualizers.com/toolshak/ vsynths.htm (18.10.2004). Video Synthesizers. The scanimate, http://www.audiovisualizers.com/toolshak/vidsynth/scanimat/scanimat.htm (18.10.2004). von Neumann, John: »The General and Logical Theory of Automata«, leicht überarbeitetes Manuskript eines Vortrags auf dem Hixon Symposium am
94
Jörg Pflüger
20.9.1948, in: Abraham H. Taub (Hrsg.), John von Neumann. Collected Works, Vol. V, Oxford: Pergamon Press 1963, S. 288-328. Welcome to the ASKC Web Store, http://www.askconline.org/Store/storemain.htm (18.10.2004). XmdvTool Home Page. Parallel Coordinates. Visualizations, http:// davis.wpi.edu/~xmdv/vis_parcoord.html (18.10.2004). Yanushkevich, Swietlana: Logic Differential Calculus in Multi-Valued Logic Design, Habilitationsschrift, Technical Univ. of Szczecin 1998, Kapitel 1, http://puc.wi.ps.pl/person/yanush/hab/chap1.ps (18.10.2004).
Annett Zinsmeister
Analogien im Digitalen Architektur zwischen Messen und Zählen
Man kann nicht nicht darstellen In Anlehnung an Paul Watzlawicks pragmatisches Axiom: »Man kann nicht nicht kommunizieren« möchte ich die Aufmerksamkeit auf die Frage nach der Darstellung als einer basalen Form der Kommunikation lenken. Am Beispiel der Architektur werde ich digitale und analoge Modalitäten der Darstellung aufzeigen, die Watzlawick für die menschliche Kommunikation behauptet. »Digitale Kommunikationen haben eine komplexe und vielseitige logische Syntax, aber eine auf dem Gebiet unzulängliche Semantik. Analoge Kommunikationen dagegen besitzen dieses semantische Potential, ermangeln aber für die eindeutige Kommunikation der erforderlichen logischen Syntax.«1 Mit der Unterscheidung in digitaler (syntaktischer) und analoger (semantischer) Kommunikation zeigt Watzlawick auf, daß diese Komponenten sich in der menschlichen Kommunikation wechselseitig bedingen und »in jeder Mitteilung gegenseitig ergänzen«.2 Architektur wird nicht nur innerhalb des Planungsprozesses, sondern generell mittels bildhafter Darstellung kommuniziert. Pläne und Visualisierungen von Räumen und Objekten veranschaulichen und vereinfachen komplexe Sachverhalte. Wie jede Art der Kommunikation funktioniert sie jedoch nur dann, wenn es (unabhängig von ihrer syntaktischen Genauigkeit) eine Übereinkunft über die Bedeutung (Semantik) zwischen Sender und Empfänger gibt. Die Darstellung der
1 Paul Watzlawick, Janet H. Beavin, Don D. Jackson: Menschliche Kommunikation. Formen, Störungen, Paradoxien, Bern, Stgt, Wien: Hans Huber 1969, S. 68. 2 Ebd., S. 64.
96
Annett Zinsmeister
Architektur basiert, so meine These, auf digitalen und analogen Prozessen. Als digital beschreibt gemeinhin Datenübermittlungen mithilfe diskreter Zeichen (Signale, Begriffe, Zeichen, Laute), die unabhängig vom transferierten Inhalt ablaufen und als »willkürlich festgelegte Kodifizierungen […] ebensowenig Ähnlichkeit mit den Daten zu haben brauchen, wie Telephonnummern mit Fernsprechteilnehmern.«3 Analog meint in kommunikativen Prozessen einen Informationsübertrag, der auf Ähnlichkeiten und der Unmittelbarkeit des aktuellen Beziehungssystems basiert. Analog bezeichnet den Ausdruck und stellt somit das Beziehungsverhältnis von Sender und Empfänger dar: anstelle von Buchstaben und Lauten treten bei der Verständigung beispielsweise Vokalisierungen, Ausdrucksbewegung und Stimmungssignale (Gregory Bateson). Wie sich digitale und analoge Modalitäten in wechselseitiger Durchdringung in der Architekturdarstellung niederschlagen, möchte ich an zwei historischen Beispielen deutlich machen.
Architektur zwischen Messen und Zählen Übertragung, Präzision und Effizienz als Leistungen des Digitalen sind seit der Renaissance zunehmend elementare Bestandteile der Darstellungstechnik. Bereits im 15. Jahrhundert entwickelte Leon Battista Alberti ein Digitalisierungsverfahren, um mit Hilfe einer eigens entwikkelten Hard- und Software die Fehlerhaftigkeit manueller Übertragungen in der Plandarstellung auszumerzen. Die Digitalisierung der Darstellungstechnik garantierte die fehler- bzw. verlustfreie Wiederholbarkeit eines Zeichenverfahrens, das gerade in der Kartographie von existentieller Wichtigkeit war. Bereits Ptolemäus wußte um die Gefahr der manuellen Reproduktion bildlicher Darstellung in der Kartographie. Von seiner 1409 unter dem Namen »Cosmographica« erschienenen »Geographie« besaß auch Alberti Kenntnis.4 Trotzdem erwähnte er Ptolemäus’ vorbildliches Verfahren mit keiner Silbe, denn als vermeintlicher Inventor einer neuen Darstellungsmethode wollte Alberti vermutlich nicht preisgeben, daß bereits Ptolemäus der akuten Lebensge3 Ebd., S. 62. 4 Mario Carpo: Architecture in the Age of Printing. Orality, writing, typography, and printed images in the history of architectural theory, Cambridge: MIT Press 2001, S. 123.
Analogien im Digitalen
97
fahr angesichts fehlerhafter See- und Landkarten mit folgendem Vorschlag trotzte: ein Bild der Welt durch 8000 Koordinatenpaare zu ersetzen. Alberti beschrieb in seiner Descriptio Urbis Romae (1448-1455) ein Abbildverfahren, das mittels eines vorbestimmten Maßes an Operationen das Speichern und Übertragen räumlicher Daten bzw. Koordinaten sicherte.5 In der Wiederholbarkeit dieses wohlbemerkt unbebilderten, dafür aber ausführlich beschriebenen Verfahrens war es jedem möglich, der des Lesens mächtig war und Albertis doch recht komplizierte ›Betriebsanweisung‹ verstanden hatte, einen Plan von Rom zu zeichnen. Albertis Hardware bestand aus einem segmentierten Kreis (Horizont) und einem drehbaren Lineal (segmentierter Radius). Mit dieser systematisch bestimmten Apparatur war es nun möglich, bestimmte Punkte innerhalb des räumlichen Gefüges der Stadt Rom zu übertragen bzw. zu adressieren. Hierzu stellte Alberti Listen mit 176 Koordinatenpaaren
Abb. 1 – Albertis beschriebener Darstellungsmechanismus in der Rekonstruktion bzw. Umsetzung des MHA-Laboratory der Ecole d’Architecure Grenoble (aus: Carpo 2001)
zur Verfügung, die, ausgehend vom Colosseum als dem römischen Zentrum und gleichsam systemischen Nullpunkt, den Stadttoren, Kirchen und antiken Monumenten bzw. deren stadträumlichen Koordinaten ihren jeweiligen unverrückbaren Ort zuwiesen. Daß hierbei allein die Hälfte der Datensammlung für die Beschreibung des topographischen Verlaufs des Tibers herhalten mußte, gibt einen Ausblick auf die 5
Vgl. hierzu ebd., S. 122ff.
98
Annett Zinsmeister
immense Datenmenge, die vonnöten gewesen wäre, um das Stadtgefüge Roms nur annähernd detailliert beschreiben und abbilden zu können. Oder anschaulicher: Die gezackelte abstrakte Linie, die aus dem Verfahren hervorging, konnte nur unzureichend den tatsächlichen Windungen des Flußverlaufes Rechnung tragen.6 Um dieses räumliche Bezugssystem tatsächlich umsetzen zu können, erforderte es eine klare Betriebsanweisung, wie mit diesem System umzugehen sei. Alberti lieferte mit seiner Beschreibung (descriptio) jenes Programm, das mittels Algorithmen die systematische Umsetzung diskreter Arbeitsschritte anwies. Interessant ist, daß hier nach spezifischem Programmablauf ein (Ab) Bild als Ansammlung abstrakter Daten (Wort und Zahl) in Erscheinung – oder eben gerade nicht in Erscheinung – tritt. Mit dieser Übersetzung von Bildern in diskrete Zeichen, d. h. in Koordinaten und Buchstaben, in Schrift und Zahl, prozessierte Alberti für die Darstellung Roms ein rein syntaktisches Verfahren, das den semantischen Gehalt der übertragenen Information außer Acht läßt. Eine solche Auslassung betrifft beispielsweise die spezifischen Angaben zur Ausgabe der Daten, denn die Wahl des Zeichenwerkzeugs, die Strichführung und die Darstellung der einzelnen Gebäude lagen im Ermessen des jeweiligen Operators der Zeichenübertragung. Somit lieferte Alberti die vermutlich erste digitale Darstellungstechnik,7 die räumliche Objekte in diskrete Zeichen – oder genauer in Zahlen – übersetzte. Mit diesem Verfahren, das die Darstellung effizient und maschinell berechenbar machte, war Alberti – wir ahnen es – seiner Zeit weit voraus und seine Erfindung mit entsprechend wenig Durchschlagskraft gesegnet. Genau 500 Jahre sollte es dauern, bis diese Methodik dank Konrad Zuse ihre Vollendung erfuhr. Der erste Plotter Z 64 Graphomat8 übersetzte von nun an die Zahlen durch Motoren in Bewegung und machte in der maschinellen Ausführung der Liniensetzung den Menschen in diesem Übertragungsprozeß sukzessive entbehrlich. Sowohl Albertis Apparatur als auch Zuses Graphomat dienen der Digitalisierung, Übertragung und Speicherung und lassen dabei die Fragen 6 Übrigens ist dies ein Problem, das sogar bis vor kurzem in der CAD-Software ungelöst war, weil die Bézierkurve erst vor wenigen Jahren zum festen Bestandteil der Werkzeugpalette von Architekturprogrammen avancierte. 7 Vgl. hierzu M. Carpo: Architecture in the Age of Printing, ebd. 8 Siehe hierzu auch den Beitrag von Frieder Nake und Susanne Grabowski in diesem Band!
Analogien im Digitalen
99
Abb. 2 – Konrad Zuse: Z 64 »Graphomat«
nach der Gestaltung der Darstellung (Farbigkeit, Stärke und Materialität der Linien, Duktus, etc.), d. h. auch dem Ausdruck im doppelten Wortsinne, unbeantwortet. Im Sinne Shannonscher Informationtheorie wird die Darstellung hier auf die Übertragung einer spezifischen Datenmenge (ohne Rücksicht auf einen semantischen Gehalt) reduziert. Doch auch die Darstellung funktioniert immer auf zwei Ebenen, wie Watzlawick bereits in bezug auf die Kommunikation deutlich machte: denn mit der Digitalisierung wird die Darstellung zwar syntaktisch, präzise, effizient und berechenbar, aber mit dem Ausdruck (im doppelten Wortsinn) wird das Digitale analog und damit wahrnehmbar und ästhetisch. Diese Transformation von digital in analog, die wohl informationstechnisch gesehen Verluste produziert, erzeugt gleichsam einen ästhetischen Überschuß, der sich hier in der Materialisierung behauptet. Das schlichteste Beispiel hierfür wäre eine Linie, die als übersetzte Datenmenge (Koordinaten) materiell wird, wenn die Tusche des maschinell bewegten Stifts die Zeichenfläche trifft und zur Darstellung ihrer selbst wird. Dabei könnte man argumentieren, daß eine Linie mathematisch keine Breite hat, doch in der Aufzeichnung zwangsweise eine Ausdehnung in ihrer Materialisierung erhält (abhängig von jeweiligen Zeichen- bzw. Ausgabeinstrument). Wolfgang Coy hat dies auf der »Hyperkult 11« mit der Abbildung von Euklids Linie (= Länge ohne Breite) zur Anschauung gebracht.9 Die Unterscheidung von digitaler und analoger bzw. syntaktischer und semantischer Darstellung besitzt noch an anderer Stelle buchstäb-
100
Annett Zinsmeister
lich Relevanz. Dies läßt sich in der Gegenüberstellung von Albertis zu Ernst Neuferts Darstellungs-Programm illustrieren: Alberti übersetzte Bilder in Zahlen und tilgte im Kampf um syntaktische Genauigkeit jedwede Gefahr semantischer Bildhaftigkeit. 1936, als Konrad Zuse in Berlin den ersten Computer baute und Alan Turing das mathematische Modell einer universalen, diskreten Maschine entwickelte, erschien das wohl meist verkaufte Architekturbuch der Geschichte und drehte Albertis Prinzip unter ähnlichen Prämissen schlicht um: In seiner Bauentwurfslehre, jenem populären Buch zur architektonischen Planungsanweisung, propagierte der Architekt Ernst Neufert mit Hilfe einer visuellen Grammatik die Normierung und Digitalisierung der gesamten architektonischen Objektwelt. Ernst Neufert studierte am Staatlichen Bauhaus in Weimar und war Mitarbeiter im privaten Bauatelier von Walter Gropius, wo er zum Chefarchitekten und Bauleiter des allseits bekannten Bauhausgebäudes in Dessau avancierte. 1926 wurde er selbst zum Professor am Bauhaus in Weimar ernannt und zudem Leiter der Architekturabteilung. Walter Gropius spielte in Neuferts Werdegang nicht nur als Lehrer und späterer Arbeitgeber eine wichtige Rolle. Mit dem deutschen Normungsausschuß unterstützte er maßgeblich das Erscheinen der Bauentwurfslehre 1936. Im Zuge der Industrialisierung des Bauwesens äußerte sich Gropius bereits 1910 zur Gestaltung mit »fabrikmäßiger Massenware« folgendermaßen: »Von jedem Gegenstand liegt gleichzeitig eine Auswahl von Entwürfen in verschiedener Ausführung und Preishöhe, aber gleicher Größe vor. Sämtliche Teile passen unbedingt, da sie nach ein- und derselben Normalgröße hergestellt und je nach Wunsch auswechselbar sind. Der Bauherr kann sich nun selbst aus dieser Fülle von Material und wechselnden Formen nach persönlichem Geschmack ein Haus komponieren.«10 Voraussetzung für dieses Unterfangen war jedoch die Ermittlung der ›günstigsten Größenverhältnisse‹ für alle wesentlichen Bauteile, die erst einmal durchgeführt werden mußte und als entsprechende ›Normalgrößen‹ die Grundlage für derzeitige und zukünftige 9 Wolfgang Coy: Technische Bilder entstehen aus dem Unsichtbaren. Hyperkult 11. Lüneburg, 4.-6.7.2002. 10 Walter Gropius: »Programm zur Gründung einer allgemeinen Hausbaugesellschaft auf künstlerisch einheitlicher Grundlage m.b.H.«, in: Hartmut Probst/Christian Schädlich (Hrsg.), Walter Gropius, Ausgewählte Schriften Bd. 3, Berlin: Verlag für Bauwesen 1987, und in: Walter Prigge, Ernst Neufert. Normierte Baukultur, Frankfurt 1999, S. 9.
Analogien im Digitalen
101
Abb. 3 – Ernst Neufert: Oktametermaß (aus: Ernst Neufert, Bauordnungslehre 1942)
Entwürfe bilden sollten. Sein Schüler und Mitarbeiter Neufert leistete diese Ermittlung günstigster Größenverhältnisse und schrieb dafür ein maßliches Raster als Rechengrundlage fest, auf dem von nun an Architektur als Summe berechen- und kombinierbarer Einheiten im Universalen als auch Realen beliebig wiederholbar gründen konnte. Ernst Neufert, der übrigens seine Karriere als Maurer begann, vereinte den menschlichen Fuß in unauflösbarer Allianz mit dem industriellen Ziegelformat. Mit dem Hinweis auf Vitruv und die Anthropometrie entwickelte er ein Baumaß-System, das in der Verbindung von Dezimal- und Duodezimalsystem ein Grundmaß von 1,25 Metern festschreibt. Mit diesem ›Oktametersystem‹ gelang es Neufert, bauliche Maße wie Raumhöhen und Ziegelformate (25 cm x 12,5 cm) mit dem Durchschnittsmenschen (175 cm) in einem effizienten Berrechnungssystem optimal zu verbinden und zu verwerten. Dieses Baumaß-System avancierte 1942 als Maßgabe rationaler Vereinheitlichung unter DIN 4171 zum Industriebaumaß (IBA) und legt bis heute der Planung und Ausführung beispielsweise von Industriehallen ein festgeschriebenes Raster von 2,50 m zugrunde. Seit dem Erscheinen der Bauentwurfslehre beginnt der architektonische Entwurf mit der »schematischen Aufzeichnung der Räume als einfacher Rechtecke mit dem geforderten Flächeninhalt im einheitlichen Maßstab«.11 Mit der effizienten Rasterung der Grundrisse werden nicht
102
Annett Zinsmeister
nur Raumgrößen und Bauteile typisiert und als kombinierbare Einheiten arithmetisiert, sondern auch sämtliche im Raum lozierten Objekte: Alles, was sich im gebauten Umraum befindet, vom Ziegel bis zum Menschen, vom Laufstall bis zum Flugplatz – ob stehend, gehend, fahrend oder fliegend –, jedes Objekt wird einer Messung unterzogen, in ein vereinheitlichendes räumliches Raster eingefügt und mit einem ›snap to grid‹ daran ausgerichtet. Übertragung, Präzision und Effizienz werden hier zum planerischen Kalkül einer industriellen Massenfertigung. Denn dank der Berechenbarkeit können optimale Zusammenstellungen einzelner Elemente numerisch kombiniert werden. Die Raumeinheit, das Bauteil, das Mobiliar, das Objekt und sogar der Mensch werden sowohl in der Moderne als auch in der Objektbibliothek von Ernst Neufert, CAD-Programmen und Strategiespielen zur Repräsentation ›günstigster Größenverhältnisse‹ bzw. von ›Normalgrößen‹. Alan Turing schuf das Modell einer Maschine, die mit einer bestimmten Anzahl von Elementen und einer bestimmten Anzahl klar definierter Regeln, die auf diese Elemente angewendet werden, jedes entscheidbare Problem in endlicher Zeit (und ohne menschliches Zutun) lösen konnte. Ernst Neufert schuf ein Programm, das mit einer bestimmten Anzahl von Objekten und einer bestimmten Anzahl klar definierter Regeln (Raster und Maßeinheiten) innerhalb eines Baumaßsystems (Oktametersystem) jedes räumliche Problem in endlicher Zeit (und theoretisch ohne menschliches Zutun) lösen konnte. Bezeichnend ist, daß diese Tätigkeit von Architekten, Bauherren, Spielern und Rechnern ausgeführt werden kann. Man könnte also sagen, daß mit Ernst Neufert die Elemente und Regeln des Turing-Modells und mit Konrad Zuse die konkrete (und nicht bloß mathematische) Maschine, die mit diesen Elementen vielleicht jedes lösbare architektonische Problem in endlicher Zeit rechnen könnte, an definitorischer Schärfe gewinnen.
Analogien im Digitalen Neuferts Bilderbuch für Architekten, das Zahlen in visuelle Botschaften transferiert, erschien bezeichnenderweise ein Jahr nach dem ersten Bildwörterband des Duden und zeitgleich mit Otto Neuraths Interna-
11 Ernst Neufert: Bauentwurfslehre, Stuttgart: Vieweg-Verlag 1950, S. 34.
Analogien im Digitalen
Abb. 4 – Ernst Neufert: IBA Raster (aus: Ernst Neufert, Bauentwurfslehre, 1942)
Abb. 5 – Ernst Neufert: Schlafräume (aus: Ernst Neufert, Bauentwurfslehre 1966 S. 193)
Abb. 6 – Ernst Neufert: Kleintierställe (aus: Ernst Neufert, Bauentwurfslehre 1966 S. 311)
103
104
Annett Zinsmeister
tional Picture Language, die 1936 in London verlegt wurde. Neurath ging es in seiner Entwicklung einer ›Systematik der optischen Darstellungsweisen‹ nicht um Distanzen und räumliche Proportionen, sondern um die Visualisierung von Mengenverhältnissen: Neurath, Rudolf Carnap, Hans Hahn proklamierten in ihrer »Wissenschaftlichen Weltauffassung – der Wiener Kreis, (1929)«, daß »mit dem zwanzigsten Jahrhundert ein visuelles Zeitalter angebrochen ist, das nach einer Reform des Kommunikativen verlangt – auch die Wissenschaft soll ihre Sprache überdenken, und das problematische Bilderverbot einer Aufklärung der Gelehrten durch die Entwicklung neuer Formen überwinden.«12 In diesem Sinne und ganz im Gegensatz zu Alberti schuf Neufert ein Programm, in das er gerade Bilder einführte, die auf Ähnlichkeiten und der Unmittelbarkeit eines aktuellen (und nicht universalen) Beziehungssystems (Watzlawick) basieren. In der Darstellung – nicht von Bildern als Zahlen (Alberti), sondern von Zahlen als Bilder – begründete Neufert einen Katalog an numerischen Daten, d. h. räumlichen Maßen, die er als Objekte und Raumsituationen visualisierte, wohl in der Hoffnung, daß »die meisten [Zusammenhänge] … von einfach denkenden Menschen erfasst werden [können], wenn man die Gegenstände der Wirklichkeit gewissermaßen verkleinert abbildet!«13 Die Grafik wird hier zum Mittler zwischen abstrakten Zahlen (Koordinaten und Maßen) und räumlich-bildlicher Beschreibung. Sowohl die Neufertsche Objektbibliothek als auch die Bibliotheken von CAD-Programmen und Computerspielen, die meines Erachtens strukturell auf dieser gründen, bedienen sich Analogien (die Neurath als verkleinerte Abbilder der Wirklichkeit beschrieb) und setzen somit das gewollt abstrakte, universale und eben nur vermeintlich neutrale Zeichensystem in einen temporären Bezugsrahmen. Denn auch eine nüchterne schwarz-weiß-Grafik14 kann nicht den Umstand verbergen, daß die Visualisierung neutraler Bedarfsgrößen sich in der Bauentwurfslehre eben nicht auf den Übertrag dieser numerischen Informa12 Rudolf Carnap, Hans Hahn, Otto Neurath: »Wissenschaftliche Weltauffassung – der Wiener Kreis, (1929)«, in: Otto Neurath, Wissenschaftliche Weltauffassung, Sozialismus und Logischer Empirismus, Frankfurt/M.: Suhrkamp 1979, S. 86 f. 13 Otto Neurath: »Bildliche Darstellung sozialer Tatbestände«, in: Aufbau, Nr. 8/9, Wien 1926, S. 170ff. Vgl. hierzu auch: Frank Hartmann, Erwin K. Bauer: Bildersprache. Otto Neurath. Visualisierungen, Wien: VUW 2002. 14 Otto Neurath: »Alles Malerische lenkt ab.«
Analogien im Digitalen
105
Abb. 7 – Ernst Neufert: Lichtschachtabdeckung (aus: Ernst Neufert, Bauentwurfslehre 1966, S. 163)
Abb. 8 – Ernst Neufert: Bäder (aus: Ernst Neufert, Bauentwurfslehre 1966, S. 163)
tion beschränkt, sondern gleichsam eine Semantik einführt, die sich zum einen im Übergang von digitaler Information zu analoger Darstellung vollzieht und zum anderen Rückschlüsse auf den Verfasser und seinen gesellschaftlichen Kontext zuläßt. Man erinnere sich an das puristische Beispiel der Euklidschen Linie: Sie verlor gewissermaßen in der Darstellung ihre digitale/syntaktische Unschuld, indem sie an Breite gewann. Ähnlich und doch viel komplexer verhält es sich mit den Neufertschen Raum- und Objektdarstellungen, die in vielfacher Hinsicht an Unschuld bzw. Neutralität verlieren. Dies läßt sich an einer einfachen Darstellung aus der Bauentwurfslehre illustrieren (Abb. 7). Trotz sachlicher Linienführung im Sinne der technischen Plandarstellung werden nicht nur durch unterschiedliche
106
Annett Zinsmeister
Linienstärken bemerkenswerte Akzente gesetzt (ich möchte hier die Aufmerksamkeit auf die Umrißlinie der Schürze im Verhältnis zu den vorhandenen Schnitt- und Ansichtlinien lenken), sondern natürlich auch auf die funktionale bzw. narrative Darstellung – hier von Praktikabilität. Was im Untertitel noch rein funktional anmutet: »Lichtschachtabdeckung, zugleich Abtreterrost vom Kellerraum zu reinigen«, verliert spätestens dann seine reine Sachdienlichkeit, wenn uns klar vor Augen geführt wird, welches Nutzerverhalten hier den funktionalen Bezugsrahmen abgibt. Es ist selbstverständlich der Mann, der (vermutlich) von der Arbeit kommt und Schmutz verursacht, und es ist ebenso selbstverständlich die mit Schürze klar kodierte Hausfrau, die diesen für sie vielleicht mißlichen aber doch alltäglichen Umstand im Keller geradezu erwartet und natürlich umgehend beseitigt. Das zweite Beispiel ist ähnlich konnotiert. Interessant ist hier weniger die Bedürfnislage der dargestellten Personen, sondern wiederum die Positionierung von Mann und Frau, die bildlich die Bemessung der Zwischenräume (hier zwischen Wanne und Wand) argumentieren: der Mann, der den Raum als Nutznießer der sanitären Anlagen gewissermaßen funktional und dabei raumgreifend bespielt, und die Frau, die die Spuren dieser Handlung gebückt zu beseitigen versteht. Doch nicht nur grafisch gewollte oder ungewollte Akzentuierungen und geschlechtsspezifische Kodierungen geben hier Aufschluß über einen gesellschaftlichen und historischen Bezugsrahmen, sondern auch die Darstellung der Objekte an sich. Trotz sukzessiver Aktualisierung der Auflagen wurden die Bilder zumeist nur minimal verändert: bautechnische Veränderungen und Errungenschaften mußten selbstredend ihren Niederschlag finden, ebenso die Neuerungen von Fahrzeugtypen und anderem technischen Gerät. Doch erstaunlicherweise blieben in diesem Aktualisierungsprozeß gesellschaftliche und auch gestalterische Veränderungen im Objektbereich mit nur wenigen Ausnahmen bis heute unberücksichtigt. Neuferts überaus erfolgreiche Visualisierung, d. h. die analoge Darstellung numerischer Daten oder Maße, bestimmen bis heute die architektonische Planung, nicht nur im Realen, sondern auch im Virtuellen. Denn die spezifische Software von CAD-Programmen und Computerspielen kodieren nicht nur, sondern formen gewissermaßen auch jene Objekte, die unsere normierte, typisierte und virtuelle Umwelt konstituieren.
Analogien im Digitalen
107
Abb. 9 – CAD Bibliothek: Mobiliar (Screenshot Archicad 2002)
Abb. 10 – The Sims: Modus Bauen (aus: Handbuch zum Computerspiel The Sims 2000)
Schon Alberti zeigte, daß sich aus Algorithmen und diskreten Elementen ein räumliches Gefüge (re)konstruieren läßt, in dem jedes Element kalkulierbar, adressierbar und damit austauschbar wird. Die Kombination aus Raster und Objektbibliothek findet in der architektonischen Planung ihren Ursprung bei Neuferts Bauentwurfslehre und
108
Annett Zinsmeister
wird zum Programm: Mit einer eindeutig definierten endlichen Anzahl an Elementen kann auch eine Maschine diese Elemente nach entsprechend endlichen Möglichkeiten kombinieren. Gerade diese Kombination, die in der Gestaltungswelt spezifischer Software noch heute gewissermaßen ›das Handwerk‹ von Künstlern, Architekten und Spielern repräsentiert,15 ist genau genommen eine Rechenleistung, die in vermessenen Räumen vermessene Objekte in optimalen oder auch effizienten maßlichen Abständen zueinander gruppiert. Der Versuch, digital und analog als Komponenten zu trennen und entsprechend Verfahren zu der rein analogen bzw. rein digitalen Darstellung zu etablieren, mußte scheitern. Analog und digital erscheinen als wechselseitige Bedingungen in jedem Kommunikations- und Darstellungsprozeß.
15 Vgl. hierzu: Annett Zinsmeister: »Schöne neue Welt. Konstruktionen im Virtuellen« in: dies. (Hrsg.), Constructing Utopia. Konstruktionen künstlicher Welten, Zürich/Berlin: Diaphanes 2005, und dies.: »Virtual Constructions. The standards of Utopia«, in: Thesis, Band 4, Medium Architektur. 9.internationales Bauhaus-Kolloquium, Weimar 2003.
Analogien im Digitalen
109
Literatur Carnap, Rudolf/Hahn, Hans/Neurath, Otto: »Wissenschaftliche Weltauffassung – der Wiener Kreis, (1929)«, in: Otto Neurath, Wissenschaftliche Weltauffassung, Sozialismus und Logischer Empirismus, Frankfurt/M.: Suhrkamp 1979. Carpo, Mario: Architecture in the Age of Printing. Orality, writing, typography, and printed images in the history of architectural theory, Cambridge: MIT Press 2001. Coy, Wolfgang: Technische Bilder entstehen aus dem Unsichtbaren. Hyperkult 11. Lüneburg, 4.-6.7.2002. Gropius, Walter: »Programm zur Gründung einer allgemeinen Hausbaugesellschaft auf künstlerisch einheitlicher Grundlage m.b.H.«, in: Hartmut Probst/Christian Schädlich (Hrsg.), Walter Gropius, Ausgewählte Schriften Bd. 3, Berlin: Verlag für Bauwesen 1987. Hartmann, Frank/Bauer, Erwin K.: Bildersprache. Otto Neurath. Visualisierungen, Wien: VUW 2002. Neufert, Ernst: Bauentwurfslehre, Stuttgart: Vieweg-Verlag 1950. Neurath, Otto: »Bildliche Darstellung sozialer Tatbestände«, in: Aufbau, Nr. 8/ 9, Wien 1926, S. 170ff. Prigge, Walter (Hrsg.): Ernst Neufert. Normierte Baukultur. Frankfurt/M./ New York: Campus 1999. Watzlawick, Paul/Beavin, Janet H./Jackson, Don D.: Menschliche Kommunikation. Formen, Störungen, Paradoxien, Bern/Stuttgart/Wien: Hans Huber 1969. Zinsmeister, Annett: »Schöne neue Welt. Konstruktionen im Virtuellen«, in: dies. (Hrsg.), Constructing Utopia. Konstruktionen künstlicher Welten, Zürich/Berlin: Diaphanes 2005. Zinsmeister, Annett: »Virtual Constructions. The standards of Utopia«, in: Thesis, Band 4, Medium Architektur. 9.internationales Bauhaus-Kolloquium, Weimar 2003.
Thomas Hölscher
Nelson Goodmans Philosophie des Analogen und des Digitalen
Nelson Goodmans Lebenswerk umfaßt den Entwurf und die genauere Ausarbeitung von etwas, das er im reinsten Understatement eine ›Symboltheorie‹ bzw. ›allgemeine Symboltheorie‹ nennt. Dahinter verbirgt sich nicht weniger als eine durchdringende Untersuchung von ›Weisen der Welterzeugung‹, wie sein wichtiges späteres zusammenfassendes Buch heißt. ›Symbolsysteme‹ oder eben: ›Versionen‹, welche welterzeugende Effekte haben, sind der Gegenstand. Die unterschiedlichsten Symbolisierungsweisen oder Symbolmanipulationen bringen die unterschiedlichsten Welten hervor, von den Sternen in der Kosmologie bis zu einem Aquarell oder einer Klaviersonate in der Kunst und Musik. Die wissenschaftlichen, logischen, mathematischen Weltversionen genießen keinerlei Priorität mehr gegenüber denen der verschiedenen Kunstformen, sprachlich-denotationale – in anderer Sprache: logozentrische – Formen keinerlei Wichtigkeitsbonus vor bildlichen und metaphorischen. Der Witz dieser übergreifenden Sicht ist nicht etwa die Etablierung eines neuen wissenschaftlich-künstlerischen Supersystems, sondern die Möglichkeit, aus den alten klassifikatorischen Geleisen auszubrechen, die tief eingefleischte Politik der Gleichheiten und Unterschiede zu unterlaufen. Folgt man Goodmans Darlegungen, sieht man sich in ein weites Feld ungewohnter Neupositionierungen von Zusammenhängen und Unterscheidungen, von Ähnlichkeiten und Differenzen geführt. Diese Landschaft der Neuverteilungen bietet überraschende Querbezüge und Quereinblicke in die wissenschaftlichen, alltagspragmatischen und künstlerischen Praktiken unserer Weltenverfertigung, die man unter diesen Blickwinkel oft wie zum ersten Mal zu erblicken vermeint. Dies gilt auch für das Muster des ›Digitalen vs. das Analoge‹, das Computertheorie und Medienphilosophie lange Zeit ausgiebig beschäf-
112
Thomas Hölscher
tigt hat. Ich möchte Goodmans Einblicke ins Thema hier hauptsächlich an den von ihm gegebenen Beispielen vorführen. Diese Beispiele allein schon sind, als solche und in ihren Kombinationen und Konfrontationen, höchst strategisch von Goodman plaziert. Sie dienen zwar zur Exemplifizierung seiner allgemeinen Theorie der ›Notationssysteme‹, und zwar in bezug auf die jeweilige relative Nähe oder Ferne zu deren strengen Erfordernissen, entfalten aber einen hohen Grad eigener Signifikanz. Die ›Theorie der Notation‹, das Herzstück von Goodmans Entwurf – im Sinne eines idealtypisierten Differenzen-Meßinstruments – werde ich gegen Ende kurz berühren. Sie entstammt mehrfacher Motivation, darunter der Klärung der Unterschiede und Ähnlichkeiten zwischen den propositionalen und den pikturalen Symbolsystemen, einem der Hauptanliegen Goodmans. Eine auffällige Vielzahl der Beispiele Goodmans stammt aus dem Bereich der Meßinstrumente und der Modelle. Und das nicht um der Dominanz einer technisch-szientistischen Denkweise willen, sondern – im Gegenteil – um die übliche ästhetische Begrifflichkeit zu unterlaufen und den Gewinn an Neubesichtigung in eine entsprechende Unterlaufung der üblichen Rede von Wissenschaft und Technik zu reimportieren. Thermometer messen Temperatur. Ein skalenloses Thermometer ist ein Analoginstrument. Es mißt entsprechend der absoluten Höhe der Quecksilbersäule, bei der jede der – virtuell unendlich vielen – möglichen Stellungen einen Unterschied ausmacht. Es handelt sich nach Goodman um ein syntaktisch und semantisch ›dichtes‹ System: ein System, »dessen konkrete Symbolvorkommnisse sich nicht in unterscheidbare verschiedene Charaktere sortieren lassen, sondern ineinander übergehen; das gilt auch für die Denotate«.1 Ein Thermometer mit fixer Skala oder ein Digitalthermometer ist ein Digitalinstrument. Beide, auch die Quecksilbersäule, messen nur entsprechend den jeweiligen diskreten Gradeinteilungen, die Lücken messen nicht, sie stellen keinen relevanten Messbereich dar. Hier handelt es sich um ein syntaktisch und semantisch diskontinuierliches und (endlich und effektiv) ›differenziertes‹ Symbolsystem, vorausgesetzt, der Gegenstandsbereich – die Denotate, die Temperatur nämlich – ist ebenso streng diskret sortiert wie das Symbolschema. ›Differenzierte‹ 1 Nelson Goodman: Vom Denken und anderen Dingen, Frankfurt/M.: Suhrkamp 1987, S. 89.
Nelson Goodmans Philosophie des Analogen und des Digitalen
113
und ›dichte‹ Symbolsysteme sind einander genau gegensätzlich organisiert. Hier sei schon auf die vielfach möglichen Mischbildungen und Kombinationen beider Ordnungen hingewiesen, wenn nämlich z. B. Systeme syntaktisch dicht und semantisch differenziert sind – oder umgekehrt. Ausführlicher und genauer zeigt Goodman das Gesagte am Beispiel von Druckmessern, Zeitmessern – d. h. Uhren – und Geldmünzenzählern.2 Ein einfacher Druckmesser mit rundem Zifferblatt und einem einzigen Zeiger zeigt zunehmenden Druck an, indem er sich gleichmäßig im Uhrzeigersinn bewegt. Ist das Zifferblatt ohne Ziffern oder andere Markierungen und bezeichnet jede mögliche Zeigerstellung einen unterschiedlichen Wert, dann verwendet das Instrument bei der Anzeige keine Notation. Es entspricht nicht der Erfordernis syntaktischer Differenzierung: die Zeigerposition kann nie mit absoluter Präzision festgestellt werden. Auch das semantische Ordnen der Druckverhältnisse ist ›dicht‹, so daß wir es mit einem syntaktisch und semantisch dichten System zu tun haben. Was passiert, wenn das Zifferblatt durch Punkte in fünfzig Abschnitte eingeteilt wird? Wird das System dadurch differenziert, d. h. notational? Es kommt darauf an, wie man das Meßgerät abliest, ist also eine Frage der ›Lesart‹. Kommt es nach wie vor auf die absolute Zeigerstellung an und fungieren die Punkte nur als ein Hilfsmittel zur annähernden Bestimmung dieser Stellung, so bleibt alles beim alten: das System ist syntaktisch und semantisch dicht. Wenn aber die Punkte als fünfzig disjunkte Gebiete aufgefaßt werden, mit Lücken dazwischen, und der Zeiger jeweils ein solches Gebiet anzeigt, ohne irgendwelche Zwischenwerte – und: zusätzlich auch der Druckbereich, also die Denotate, disjunkt d. h. durch wie kleine Lücken auch immer voneinander getrennt sind –, dann ist das System syntaktisch und semantisch differenziert, d. h. vollnotational. Eine gewöhnliche Uhr kombiniert beide Möglichkeiten. Nur mit Stunden- und Minutenzeiger ausgerüstet, wird der Stundenzeiger normalerweise nur zum Auswählen einer der zwölf Halbtagesabschnitte verwendet. Er zeigt notational. Ebenso funktioniert der Minutenzeiger, wenn er einen der sechzig Abschnitte einer Stunde auswählen soll – 2 Vgl. Nelson Goodman: Kap. »Clocks and Counters«, in: Sprachen der Kunst. Entwurf einer Symboltheorie, Frankfurt/M.: Suhrkamp 1995.
114
Thomas Hölscher
wird aber der Abstand von einer zur nächsten Markierung absolut aufgefaßt, d. h. als Anzeige der vergehenden absoluten Zeit – so zeigt er nichtnotational, das Symbolsystem ist nichtnotational. Wenn dabei jedoch der Feinheit der Bestimmung eine untere Grenze gesetzt wird, etwa eine halbe Minute oder eine Sekunde, dann kann dieses Schema notational werden. Hier haben wir einen ersten Hinweis auf die Komplexität analoger Meßprozesse als gleichsam prä-digitaler Messungen. Hat die Uhr einen Sekundenzeiger, so wird der Minutenzeiger notational und der Sekundenzeiger auf beide mögliche Arten gelesen. Betrachten wir jetzt einen Geldmengenzähler, mit einer kleinen Bank, in die wir maximal fünfzig Eurocent hineinfallen lassen. Der Gegenstandsbereich ist nun ganz anders, nicht mehr Druck oder Zeit oder Temperatur, sondern eine Anzahl von Münzen. Was ändert sich dadurch? Wird das Zählen durch arabische Ziffern angezeigt, so ist das System eindeutig notational. Wenn das Zählen aber mit Zifferblatt und Zeiger wie beim Druckmesser passiert, dann werden die Verhältnisse sehr kompliziert, wenn der Zeiger, gleich ob ohne oder mit eingeteiltem Zifferblatt, absolut abgelesen wird. Hier treten – von notationalen Systemen aus gesehen – verwirrende Mischungen, mit Phänomenen wie Ambiguität und Redundanz auf, die solche Systeme ineffektiv machen. Notational ist dieses System erst dann, wenn das eingeteilte Zifferblatt im Sinne fünfzig disjunkter und differenzierter Symbole gelesen wird – genau wie beim dritten Fall des Druckmessers. Hier geht Goodman zu einer interessanten Generalisierung, einer fruchtbaren Simplifizierung über. Er schreibt: »Der oben zuerst beschriebene Druckmesser ist ein klares und elementares Beispiel für das, was man einen Analogcomputer nennt. Der Pfennigzähler, der Zahlen zeigt, ist ein einfaches Beispiel für das, was man als Digitalcomputer bezeichnet; und eine gewöhnliche Uhr, in der gebräuchlichen Weise gelesen, vereinigt in sich Analog- und Digitalcomputer.«3
Hier rückt also der Computer in die Position eines elementaren Meßgeräts ein, nicht nur eines Symbolsystems. Denn Symbolsysteme – als Weisen der Welterzeugung – werden bei Goodman generell in die Nähe von elementaren Meßprozessen gerückt. Messen gilt ihm also als ein ›konstruktionistischer‹ Grundakt. Das hat weitere Konsequenzen. 3
Nelson Goodman: Sprachen der Kunst, S. 154.
Nelson Goodmans Philosophie des Analogen und des Digitalen
115
Zunächst aber wendet sich Goodman gegen einige Fehldeutungen des Analogen und Digitalen. Er schreibt: »Natürlich hat ein digitales System nichts mit Digits und ein Analogsystem nichts mit Analogie zu tun. Die Charaktere eines digitalen Systems können Objekte und Ereignisse jeder Art als ihre Inskriptionen haben; und die Erfüllungsgegenstände in einem Analogsystem können von ihren Charakteren so weit entfernt und andersartig sein, wie es uns beliebt. Wenn eine Eins-zu-eins-Korrelation zwischen Charakteren und Erfüllungsklassen ein System analog macht, dann erweisen sich digitale Systeme auch als analog. Da man sich wahrscheinlich nicht von den traditionellen Ausdrücken ›analog‹ und ›digital‹ trennen wird, besteht die beste Verfahrensweise vielleicht in dem Versuch, sie von Analogie und Digits und einer Fülle ungenauer Redeweisen zu trennen und mit Hilfe von Dichte und Differenziertheit zu unterscheiden – obwohl diese keine Gegensätze darstellen.«4
Die weiteren Konsequenzen aus dem oben genannten für Goodman zentralen Meß-Paradigma bestehen darin, daß – in jeweils geeigneter Modifikation – auch Bilder und schließlich sogar Kunstwerke in einem Sinn Messungen bzw. Meßapparate sind, der trotzdem mit dem Grundcharakter technischer Messung noch ausreichend verknüpft bleibt. Und natürlich gilt dasselbe hier für die Analog-/DigitalcomputerMetapher: Metapher hier ebenso wenig im üblichen vagen Sprachgebrauch, sondern entsprechend Goodmans Theorie der Metapher bzw. der metaphorischen Prozesse als einer bestimmten strikten Symbolisierungsweise selber. So rücken Bilder, pikturale Systeme, als dichte Systeme in die Nähe des skalenlosen Thermometers, erscheinen also als Meßvorgänge, während Meßgeräte wie das skalenlose Thermometer auch in erweiterter Abbildungsfunktion verstanden werden könnten. In einem Plädoyer für den nicht nur notationalen Charakter der Mittel des Wissenschaftlers gegenüber denen des Künstlers meint Goodman weiter: »Doch anzunehmen, Wissenschaft sei schlicht und einfach sprachlich, buchstäblich und denotativ, hieße zum Beispiel die häufig verwendeten Analoginstrumente zu übersehen ebenso wie die Metapher, die beim 4
Ebd.
116
Thomas Hölscher
Messen eine Rolle spielt, wenn ein numerisches Schema in einer neuen Sphäre angewandt wird.«5
Und weiter zur fundamentalen Funktion des sozusagen ›prä-digitalen‹ analogen Messens: »Wo die Aufgabe im Wiegen und Messen besteht, da spielt das analoge Instrument seine Hauptrolle wahrscheinlich in der Erkundungsphase, bevor die Maßeinheiten fixiert worden sind; danach übernimmt ein entsprechend entwickeltes digitales Instrument seine Funktion.«6
Diese paradoxe ›Messung ohne Maßeinheiten‹, dieses Messen im noch Unmeßbaren, eine solche auf Dauer gestellte Erkundungsphase, ja eine ›endlose Suche‹ erkennt Goodman schließlich als signifikant für ästhetische Systeme. Er schreibt in Bezug auf die von ihm skizzierten ›Symptome des Ästhetischen‹, zu denen ebenfalls ›syntaktische‹ und ›semantische Dichte‹ gehören sowie ›Fülle‹ und ›Exemplifikation‹: »Alle drei Aspekte fordern ein äußerst sensibles Unterscheidungsvermögen. Syntaktische und semantische Dichte erfordern ständige Aufmerksamkeit auf den entscheidenden Charakter und sein Bezugsobjekt, wenn irgendeine Marke des Systems auftaucht; und relative syntaktische Fülle in einem syntaktisch dichten System erfordert eine ebensolche Anstrengung, Unterscheidungen zu treffen unter Berücksichtigung, so könnte man sagen, mehrerer Dimensionen. Die Unmöglichkeit einer endgültigen Festlegung läßt vielleicht eine Ahnung der Unsagbarkeit aufkommen, die man so oft für das Ästhetische in Anspruch genommen oder ihm vorgeworfen hat. Aber Dichte ist alles andere als mysteriös und vage und wird explizit definiert; und sie entsteht aus dem nicht zu befriedigenden Verlangen nach absoluter Präzision und hält es am Leben.«7
Und an anderer Stelle: »Wenn ich alle diese Symptome durchsehe, stelle ich gewisse interessante Verwandtschaften zwischen ihnen fest. Drei sind Eigenschaften, die in dem, was ich als Notation definiert habe, abwesend sein müssen, und die beiden anderen wären in einer Notation unwesentlich und normalerweise 5 6 7
Nelson Goodman: Weisen der Welterzeugung, Frankfurt/M.: Suhrkamp 1984, S. 132. Nelson Goodman: Sprachen der Kunst, S. 155. Ebd., S. 232f.
Nelson Goodmans Philosophie des Analogen und des Digitalen
117
störend. Alle fünf sind Merkmale, die tendenziell die Durchsichtigkeit reduzieren, die tendenziell die Konzentration auf das Symbol erfordern, um bestimmen zu können, was es ist und worauf es Bezug nimmt. Wo Exemplifikation vorliegt, müssen wir unsere Gewohnheit bremsen, sogleich vom Symbol zum Denotierten überzugehen. Fülle erfordert die Beachtung verhältnismäßig vieler Merkmale des Symbols. Dichte Systeme, in denen jeder Unterschied bei einem Merkmal einen Unterschied ergibt, bedürfen einer endlosen Suche, wenn wir herausfinden wollen, mit welchem Symbol wir es zu tun haben und was es symbolisiert.«8
Und dann wieder die umgekehrte Volte: »Andererseits können ästhetische Merkmale in den feinen qualitativen und quantitativen Unterscheidungen, die für den Test wissenschaftlicher Hypothesen erforderlich sind, eine herausragende Rolle spielen. Kunst und Wissenschaft sind einander nicht völlig fremd.«9
Es war mehrfach und widersprüchlich die Rede von Präzision. Auch die Zuschreibung von Präzision insbesondere an Digitalcomputer gegenüber Analogcomputern erweist sich als nicht so eindeutig. Zutreffend ist das nur, insofern die Aufgabe des Digitalcomputers eben im Zählen liegt, während die des Analogcomputers im Registrieren absoluter Positionen in einem Kontinuum besteht. Die wirklichen Vorzüge von Digitalinstrumenten sieht Goodman in den Vorzügen von Notationssystemen:10 Bestimmtheit und Wiederholbarkeit des Ablesens. Während Analoginstrumente größerer Empfindlichkeit und Flexibilität fähig sind – was eine andere Form der Präzision ist. Bei dichten Systemen – repräsentationale, pikturale Systeme wie Analoginstrumente – geht unbegrenzte Verfeinerung auf Kosten der Bestimmtheit. Bei differenzierten notationalen Systemen geht Bestimmbarkeit auf Kosten von Nichterfaßbarkeit von Unterschieden.11 Dichte aber entsteht, wie oben zitiert, »aus dem nicht zu befriedigenden Verlangen nach absoluter Präzision und erhält es am Leben.«12 8 Nelson Goodman: Vom Denken und anderen Dingen, S. 195f. 9 Nelson Goodman: Sprachen der Kunst, S. 243. 10 Vgl. ebd., S. 155. 11 Nelson Goodman/Catherine Z. Elgin: Revisionen. Philosophie und andere Künste und Wissenschaften, Frankfurt/M.: Suhrkamp 1989, S. 23. 12 Nelson Goodman: Sprachen der Kunst, S. 233.
118
Thomas Hölscher
Ich möchte noch einmal auf das paradoxe ›Messen ohne Maßeinheiten‹ zurückkommen. Diese Art toplogischen Messens in der Erkundungsphase wurde von Goodman oben dem besonderen Potential eines analogen Instruments zugerechnet. Dennoch bewegt man sich jedoch im Topologischen keineswegs immer und automatisch im Bereich des Analogen. Unter den speziellen Symbolisierungsformen der Diagramme, die Goodman genauer untersucht, um ihr Verhältnis zu notationalen, pikturalen und sprachlichen Systemen zu klären, zitiert er Diagramme in der Topologie: Diese brauchen nur die richtige Anzahl von Punkten oder Verbindungsstellen aufzuweisen, die nach dem richtigen Schema durch Linien verbunden sind, wobei die Größe und die Position der Punkte und die Länge und die Form der Linien irrelevant sind. Goodman macht darauf aufmerksam, daß »die Punkte und Linien hier ersichtlich als Charaktere in einer notationalen Sprache fungieren, und daß diese Diagramme wie die meisten Diagramme für elektrische Schaltungen, rein digital sind.« Daß wir solche Diagramme eher als schematisierte Bilder aufzufassen geneigt sind, beweist nur die ›Analogie‹- bzw. Ähnlichkeits-Täuschung, der wir bei der landläufigen Verwendung von ›analog vs. digital‹ allzu leicht unterliegen.13 Mit »Diagrammen, Karten und Modellen«14 wendet sich Goodman abgelegeneren und seltsameren Formen von Computern bzw. Analog/ Digital-Instrumentarien zu. Keineswegs sind, wie schon gesagt, alle Diagramme, wegen ihres quasi pikturalen Aussehens, rein analog, wie oft gemeint. Wie schon die »Clocks and Counters« oben kommen sie vielmehr in allen drei Zuständen vor. Analog sind z. B. maßstabsgerechte Maschinenzeichnungen, dagegen sind Diagramme von Kohlehydraten etwa digital, und wieder andere, z. B. gewöhnliche Straßenkarten, sind gemischt.15 Modelle folgen derselben Ordnung und zunächst im üblichen Verständnis denselben Täuschungen. Sie sind weder mathematisch-sprachlich-beschreibend, vielmehr nonverbal, noch exemplifizierend nach Art von Stoffproben, sondern denotativ. Goodman kann zeigen, daß es sich eigentlich um dreidimensionale Diagramme handelt mit beweglichen Teilen bzw. umgekehrt: Diagramme sind flache und statische Modelle. Wie bei den Diagrammen schon erwähnt, können Modelle dementspre13 Ebd., S. 163f. 14 Ebd., Kap. IV.10. 15 Vgl. ebd., S. 163.
Nelson Goodmans Philosophie des Analogen und des Digitalen
119
chend digital, analog oder gemischt sein. Mit folgenden eigenartigen Meßinstrumenten oder Krypto-Computern hat man also zu rechnen: Molekularmodelle aus Tischtennisbällen und Stäbchen: sind digital, das Arbeitsmodell einer Windmühle: kann analog sein, das maßstabsgerechtes Modell eines Campus mit grünem Pappmaché für’s Gras, rosa Karton für Backsteine, Plastikfolie für Glas etc.: ist analog in Hinsicht auf die räumlichen Dimensionen, aber digital in Hinsicht auf die Materialien.16 Solche Mischtypen, auf die wir immer wieder stoßen, haben allerdings in der eigentlichen, strikten Computertechnik kaum Überlebenschancen, hier geht der Trend weitgehend zu reinen Typen, d. h. auf eine Zuordnung der syntaktischen und semantischen Eigenschaften, die für analoge und digitale Systeme jeweils spezifisch sind. Jedoch treten die oft unangenehmen Konsequenzen dieser Mischtypen, die sie ›ineffizient‹ und zu ›Störungen‹ werden lassen – wie riesige Verschwendung, riesige Redundanz, Inadäquatheit und Ambiguität, und auch der nicht aufgehende, nicht registrierbare ›Rest‹ bei der Digitalisierung – als produktive Phänomene im Bereich der ästhetischen Systeme in Erscheinung. Interessant und von weitreichender Bedeutung sind die Symbolprozesse, die beim Übergang, der Übersetzung von Analog- in Digitalsysteme und umgekehrt beteiligt sind. Es handelt sich um ›Tilgung‹ und ›Ergänzung‹. Die erste gibt beim Abtasten einer Kurve die Positionen einiger Punkte an. Die zweite erzeugt auf der Basis einiger angegebener Punkte eine Kurve oder andere Punkte auf ihr durch Interpolation oder Extrapolation. Die unendliche Kontinuität bzw. Nichtdifferenzierung des Analogen wird repräsentiert oder konzentriert oder kontrahiert in der endlichen Differenziertheit bzw. Diskontinuität des Digitalen, und umgekehrt eine endliche Differenziertheit auf virtuell unendliche Positionen ausgeweitet oder gedehnt (Dilatation) oder verschoben. Es sei hier nur kurz erwähnt, daß diese Verfahren sehr den Grundmodi von Sprache und Denken ähneln, die der Linguist Roman Jakobson in den rhetorischen Figuren von ›Metapher‹ und ›Metonymie‹ generalisiert hat und die den Prinzipien der ›Similität‹ bzw. ›Kontiguität‹ folgen. Jacques Lacan hat dies dann mit den Freudschen Mechanismen des Unbewußten ›Verdichtung‹ und ›Verschiebung‹ zu seiner Rhetorik des Unbewußten verbunden. Das zumindest als Hinweis, daß es sich hier um ele16 Ebd., S. 165.
120
Thomas Hölscher
mentare Symbolisierungsweisen handeln könnte. Goodman selber führt das ausdrücklich aus, indem er die Form der ›Ergänzung‹ in einem eigenen Kapitel von »Sprachen der Kunst«17 zu seiner revolutionären, neuen Theorie der Induktion (zuerst entworfen in »Tatsache, Fiktion, Voraussage«18) ausweitet, d. h. des elementaren Prozesses naturwissenschaftlicher Erkenntnisgewinnung. Demonstrieren läßt sich das an Beispielen, die wir schon hatten. Die Ersetzung eines skalenlosen Thermometers durch ein Digitalthermometer (mit Zehntelgrad-Einteilung) schließt Tilgungen ein: zwischen 90 und 90,1 Grad wird keine Temperatur mehr erfaßt.19 Und bei einem Diagramm hängt es, wie beim Zifferblatt eines Meßinstruments, davon ab, wie wir es lesen. Wenn bei einem Barogramm oder Seismogramm Zahlen bestimmte Punkte anzeigen, durch die die Kurve hindurchführt, und doch jeder Punkt der Kurve ein eigenes Symbol mit eigener Denotation darstellt, dann ist das Diagramm rein analog, Goodman nennt es auch ›graphisch‹. Wenn dagegen bei einem Schaubild der jährlichen Autoproduktion während eines Jahrzehnts die Kurve lediglich die einzelnen mit Zahlen versehenen Punkte verbindet, um den Trend hervorzuheben, dann sind die dazwischenliegenden Punkte auf der Kurve keine Symbole des Schemas, d. h. das Diagramm ist rein digital.20 Dies führt uns zu einer weiteren Erweiterung der Betrachtung, nämlich direkt auf die Ebene der Kunst, zu den überaus heiklen Instrumentarien, die ästhetische Systeme darstellen. Goodman macht einen ähnlichen Vergleich auf wie soeben zwischen den Diagrammen von Seismogramm und Autoproduktion, nur um einen wichtigen Blickwinkel verschoben, der auf das Phänomen der sogenannten ›Fülle‹ fokussiert. Ich zitiere die Passage vollständig: »Vergleichen wir den Ausschnitt eines Elektrokardiogramms mit einer Zeichnung des Fudschijama von Hokusai. Die schwarzen Schlangenlinien auf weißem Hintergrund können in beiden Fällen exakt dieselben sein. Und doch ist das eine ein Diagramm und das andere ein Bild. Worin liegt der Unterschied? Offenkundig in irgendeinem Merkmal der verschiedenen Schemata, in denen die beiden Marken als Symbole fungieren. 17 18 19 20
Nelson Goodman: Sprachen der Kunst, Kap. IV.9. Nelson Goodman: Tatsache, Fiktion, Voraussage, Frankfurt/M.: Suhrkamp 1988. Vgl. Nelson Goodman: Weisen der Welterzeugung, S. 28f. Vgl. Nelson Goodman: Sprachen der Kunst, S. 163.
Nelson Goodmans Philosophie des Analogen und des Digitalen
121
Da aber beide Schemata dicht… sind, in welchem Merkmal? Die Antwort liegt nicht in dem, was symbolisiert wird; Berge können in Diagrammen und Herzschläge bildlich dargestellt werden. Der Unterschied ist syntaktisch: Die konstitutiven Aspekte des diagrammatischen Charakters sind, verglichen mit dem pikturalen, ausdrücklich und eng begrenzt. Die einzig relevanten Merkmale des Diagramms sind die Ordinate und die Abszisse von jedem der Punkte, durch die die Mitte der Linie hindurchgeht. Die Dicke der Linie, ihre Farbe und Intensität, die absolute Größe des Diagramms etc. spielen keine Rolle; ob ein angebliches Duplikat des Symbols zu demselben Charakter des diagrammatischen Schemas gehört, hängt überhaupt nicht von solchen Merkmalen ab. Für die Skizze trifft dies nicht zu. Jede Verdickung oder Verdünnung der Linie, ihre Farbe, ihr Kontrast mit dem Hintergrund, ihre Größe, sogar die Eigenschaften des Papiers – nichts von all dem wird ausgeschlossen, nichts kann ignoriert werden. Obwohl sich die pikturalen und diagrammatischen Schemata darin gleichen, daß sie nicht artikuliert sind, werden einige Merkmale, die in dem pikturalen Schema konstitutiv sind, in dem diagrammatischen als kontingent fallengelassen; die Symbole in dem pikturalen Schema sind relativ voll.«21
Nicht umsonst hat Goodman eine Zeichnung von Hokusai gewählt. Denn ›Fülle‹ fungiert nicht nur als Merkmal pikturaler Systeme, sondern wurde von Goodman unter seine ›Symptome des Ästhetischen‹ aufgenommen, wie wir oben gesehen haben. Sie ist verantwortlich für eine gesteigerte Aufmerksamkeit auf die Mehrdimensionalität zu eruierender Unterscheidungen bei den Kunst genannten ästhetischen Instrumentarien. Der wichtigste Symbolisierungsmechanismus, den Goodman entdeckt hat, ist die sogenannte ›Exemplifikation‹. Sie umfaßt den gesamten Bereich ästhetischer und nicht-ästhetischer Systeme, ist das komplexeste der ›Symptome des Ästhetischen‹ und rückt als naturwissenschaftlich essentielles Verfahren des Nehmens einer ›Probe‹ in die Nähe des schon genannten Induktionsprozesses. Eine Stoffprobe von einem Stoffballen besitzt nicht nur gewisse Merkmale, sondern nimmt auch, als Probe eben, auf diese Bezug, ›exemplifiziert‹ sie, wie Goodman sagt. Es handelt sich um eine Symbolisierungsweise, die nichts denotiert, sondern in der Gegenrichtung zur Denotation, nämlich auf sich selber verweist. Bei Stoffproben ist der Interpretationsraster standardisiert, 21 Ebd., S. 212f.
122
Thomas Hölscher
z. B. bei chemischen Proben zur Untersuchung aus einem Gewässer ist die Interpretation der relevanten Merkmale, d. h. ob die Probe adäquat ist, schon erheblich schwieriger. Die Merkmale nun, die Kunstwerke besitzen und als solche an sich selber exemplifizieren – darauf verweisen – sind weitgehend offen. Exemplifikation stellt bei ihnen ein offenes Suchprogramm dar, mit erst zu eruierenden Merkmalen als Gegenstand. Von der hier nötigen ›endlosen Suche‹ sowie dem Äquivalent für die traditionellen ästhetischen Kategorien wie ›Unsagbarkeit‹ war die Rede. Für Goodman ist Exemplifikation die angemessene symboltheoretische Übersetzung einer weiteren dieser traditionellen ästhetischen Kategorien, des »Unmittelbaren« und »Nichtdurchschaubaren«.22 Zusammenfassend meint er: Kunstwerke sind wie Proben aus dem Meer. Und darin sind sie offene Meßprozesse, eben Messungen ohne Maßeinheiten oder ohne Angabe von Toleranzbereichen.23
Literatur Goodman, Nelson: Tatsache, Fiktion, Voraussage, Frankfurt/M.: Suhrkamp 1988. Goodman, Nelson: Sprachen der Kunst. Entwurf einer Symboltheorie, Frankfurt/M.: Suhrkamp 1995. Goodman, Nelson: Weisen der Welterzeugung, Frankfurt/M.: Suhrkamp 1984. Goodman, Nelson: Vom Denken und anderen Dingen, Frankfurt/M.: Suhrkamp 1987. Goodman, Nelson/Elgin, Catherine Z.: Revisionen. Philosophie und andere Künste und Wissenschaften, Frankfurt/M.: Suhrkamp 1989. Laplanche, Jean/Pontalis, Jean-Bertrand: Das Vokabular der Psychoanalyse, Frankfurt/M.: Suhrkamp 1973.
22 Ebd., S. 233. 23 Ebd., S. 217f.
Frieder Nake und Susanne Grabowski
Zwei Weisen, das Computerbild zu betrachten Ansicht des Analogen und des Digitalen
Das Analoge ist das So-wie. Das Digitale ist das Anders-als. Die Ähnlichkeit und begrenzte Übereinstimmung des Analogen fußt im Mystisch-Ganzen, das sie anstrebt. Das Anders- und Anderswo-Sein des Digitalen fußt im Rational-Geteilten, das es zählt. Analog die Welt zu betrachten, sucht zu verbinden. Digital die Welt zu betrachten, will trennen. Solchen Bemerkungen könnten wir weitere hinzufügen. Das würde Spaß bereiten und ein interessantes größeres Bild zeichnen. Doch wie dem auch sei, wir halten hier kein auch nur in die Nähe von Philosophie geratendes Kolleg. Vielmehr hatte sich die erstaunliche Tagungsreihe HyperKult im Jahre 2003 (und in ihrem Gefolge dieser Band) das alte Thema ›analog&digital‹ wieder einmal vorgeknüpft. Was ist das eine, was das andere, worin unterscheiden sie sich, worin begegnen sie sich? Um es gleich vorweg zu sagen und dem raschen Leser möglicherweise einiges an Aufwand zu ersparen: Wir werden die Auffassung vertreten, daß es das Analoge und das Digitale dort draußen in der Welt, bei den Dingen und Vorgängen, nicht gibt, daß es sich vielmehr um zwei Betrachtungsarten und Sichtweisen handelt. Etwas ist nicht analog oder digital, vielmehr betrachten wir es als analog oder digital. Wir projizieren mithin auf die Welterscheinungen, so unsere Einlassung, die digitale Unterscheidung und die analoge Ähnlichkeit. Wir wollen das durch exemplarische Betrachtung eines Bildes aus dem Computer plausibel machen. Diesem Kern unseres Beitrages schicken wir einige Leseblüten voraus. Sie beleuchten den etwas eklektizistischen Hintergrund, vor dem wir argumentieren. Unsere Argumentation wird zeigen, daß das Computerbild stets die beiden Seiten aufweist, Bild und gleichzeitig Text zu sein. Semiotisch fassen wir beide
124
Frieder Nake und Susanne Grabowski
zum algorithmischen Zeichen zusammen. Von ihm mag eine Brücke zu dem möglich sein, was Benjamin das dialektische Bild nennt. Wir wollen enden mit einem nahe liegenden Hinweis auf die sog. Dritte Kultur.
Vom Ähnlichen Ähnlich scheinen uns zu allererst solche zwei Dinge zu sein, die eines so aussehen wie das andere. Oder die sich so anhören wie das andere. Oder die sonst sinnliche Eindrücke hervorrufen, die wir als so-wie, als fast gleich, als gleichartig, als gleich genug und dgl. einstufen würden. Danach aber wird uns ähnlich auch Entfernteres: ein Verhalten etwa, eine Bedeutung, eine Geschichte, ein Ereignis. Wir vergleichen, d. h. setzen in Beziehung zueinander, betrachten (im wörtlichen wie im übertragenen, im sinnlichen also wie im unsinnlichen Sinne) zwei Verschiedene, wohl im Bestreben, ihr Gemeinsames zu entdecken. In seinem kurzen Aufsatz »Lehre vom Ähnlichen« und, diesem in vielem fast identisch, in »Über das mimetische Vermögen« sucht Walter Benjamin nach der fernen phylogenetischen Wurzel unserer mimetischen Fähigkeit.1 Er macht sie in Magie, Astrologie, Tanz aus und unterscheidet eine sinnliche von einer unsinnlichen Ähnlichkeit. Damit gewinnt er einen Begriff für die »Verspannung zwischen dem Geschriebnen und Gesprochnen«. Die Ähnlichkeit, die für Benjamin erst einmal umstandslos zwischen beiden, der geschriebenen Schrift und dem gesprochenen Laut, waltet, sei die »vergleichsweise unsinnlichste«. In der Tat, möchte man zustimmen, auf welche Weise soll denn auch der (im Druck nicht wiederzugebende, hier also auch nicht erklingende) Laut »baum« dem (in irgendeiner konkreten Typografie gesetzten) Schriftbild »arbre« ähnlich sein? Wenn es gelingen sollte, zwischen diesen beiden Erscheinungen menschlicher Äußerung Ähnlichkeit zu konstatieren, so geschähe das in der Tat, Benjamin folgend, auf die unsinnlichste, nämlich pur gedankliche Art, Brücken schlagend, die so fern nicht liegen mögen, die jedoch unserem gewöhnlichen und naiven Begriff von Ähnlichkeit zu widersprechen scheinen, wo nicht Hohn sprechen. 1 Vgl. Walter Benjamin: Lehre vom Ähnlichen. Sowie: Über das mimetische Vermögen, in: ders., Medienästhetische Schriften, Frankfurt/M.: Suhrkamp 2002, S. 117-122, S. 123126.
Zwei Weisen, das Computerbild zu betrachten
125
Die Brücke, über die Benjamin uns lockt, ist die des Gemeinten. Das Gesprochene meint eines, das Geschriebene erst einmal ein anderes, hier jedoch das nämliche. Das gemeinsam Gemeinte stiftet, indem wir es denken oder – so Benjamin – seiner blitzartig gewahr werden, die Ähnlichkeit. So als ob eine Assoziationskette Gültigkeit besäße, wie die Mathematiker sie aufstellen. Man mag dem folgen oder auch nicht. Tut man es, so lugt für uns Ungläubig-Rationalistische aus vielen Ritzen die Semiotik hervor. Denn die sinnlich wahrnehmbaren Erscheinungen des Schrift- und des Lautbildes werden uns, semiotisch gesprochen, zu zwei unterschiedlichen Repräsentamina2, die jedoch für ein und dasselbe Objekt stehen, während sie durchaus in den unterschiedlichen Situationen, in denen sie dem einen (vielleicht lesender Franzose) und der anderen (lauschende Deutsche) erscheinen, unterschiedliche Interpretanten als Bedeutungen hervorrufen mögen. Wir hätten mithin die Benjaminsche unsinnliche Ähnlichkeit als einen besonderen semiotischen Prozeß notiert. Einen solchen nämlich, bei dem zwei Zeichen bei unterschiedlichen Repräsentamina durch ihr gemeinsames Objekt miteinander verschränkt sind. Die Benennung als ›unsinnlich‹ scheint leicht irreführend zu sein, da Zeichen stets eine sinnliche Wahrnehmung ermöglichen müssen. Sie bezöge sich darauf, daß die Zuschreibung einer Ähnlichkeit nicht (schon) auf der Ebene der wahrnehmbaren Repräsentamina stattfände, sondern erst auf der der gedanklichen Objekte.
Vom Alter des Digitalen Würden wir wohl vom Digitalen überhaupt sprechen, ohne daß es die digitale Technik gäbe? Schwer vorstellbar. Würden wir von der digitalen Technik sprechen, von der Datenverarbeitung also, von der elektronischen Datenverarbeitung – die heute gewöhnlich Informationstechnik genannt wird – ohne die Entdeckung des elektromagnetischen Feldes und die Entwicklung seiner Theorie vor allem durch James Clerk Maxwell (1831-1879)? Wir würden das, so müssen wir behaupten, nicht tun, und könnten dafür aus dem aktuellen Diskurs um die Medien scharen2 Hier folgen wir, wie man bemerkt, der semiotischen Terminologie von Peirce. Ein Zeichen ist ihm eine Relation aus Repräsentamen, Objekt und Interpretant. Vgl. Charles Sanders Peirce: Phänomen und Logik der Zeichen, Frankfurt/M.: Suhrkamp 1983.
126
Frieder Nake und Susanne Grabowski
weise Zeugen aufrufen, die die Digitalisierung als eines der zentralen Phänomene der Computermedien identifizieren.3 »Bei der Formel ›Digitalisierung‹ aber wird unterschlagen, daß es sich auch bei diesen Übertragungsvorgängen um einen fundamental analogen Vorgang handelt«, schreibt Bock.4 Das digitale Prinzip – die Sicht auf die Welt als eine gekörnte, in Partikel aufgelöste – kommt in Vorläufern mit der Wende von der Französischen Revolution zum 19. Jahrhundert auf. Es gewinnt überzeugende, dann durchschlagende und epochale Kraft mit der hohen Zeit des 19. Jahrhunderts, also mit der Entwicklung des Industriekapitals, der Einleitung der Postmoderne (so Barilli, der die Moderne eben mit der Elektromagnetisierung, mit dem Aufkommen des physikalischen Feldes zu Ende gehen läßt).5 Mit dem digitalen Bild verbinden wir die Vorstellung eines gefärbten regelmäßigen Rasters wie beim Fernsehbild. Sehr kleine Rechtecke – vielleicht nur Bruchteile eines Millimeters groß und technisch weiter schrumpfend bis hin zum Verschwinden der sichtbaren Körnigkeit – werden beim Rasterbild zu Trägern des Farbauftrages. Innerhalb eines solchen gefärbten Raster-Rechtecks (›Pixel‹ genannt) kann sich, technisch bedingt, der Farbauftrag nicht ändern. Die Farben sind durch Zahlen codiert, ebenso wie die Positionen der Pixel. In solcher Codierung entdecken wir den Kern der Digitalität. Das Schema ist, wie allgemein bekannt sein dürfte, mächtig genug, um jedes beliebige Bild beliebig genau durch eine Matrix von digital codierten Farbwerten (›Pixelmap‹) zu approximieren. Das digitale Schema obsiegt auf grandiose und genau spezifizierbare Weise über das analoge. Müssen wir aus der absoluten Herrschaft des Rechteck-Schemas der Rasterbilder nicht schließen, daß entgegen aller Kritik am cartesianischen Rationalismus selbiger in den digitalen Bildern einen umfassenden Sieg davonträgt? Autoren wie der glamouröse Nicholas Negroponte legen das nahe. Das Bit, eine andere, noch rudimentärere Inkarnation des digitalen 3 Vgl. Sybille Krämer (Hrsg.): Medien, Computer, Realität. Wirklichkeitsvorstellungen und Neue Medien, Frankfurt: Suhrkamp 1998. 4 Wolfgang Bock: Bild – Schrift – Cyberspace. Grundkurs Medienwissen, Bielefeld: Aisthesis 2002, S. 65. 5 Vgl. Renato Barilli: »Wie das Zeitalter der Elektronik die visuellen Künste verändert hat«, in: Gianni Vattimo/Wolfgang Welsch (Hrsg.), Medien – Welten, Wirklichkeiten, München: Wilhelm Fink Verlag 1998, S. 127-137.
Zwei Weisen, das Computerbild zu betrachten
127
Prinzips als das Pixel, hat weder Farbe, noch Größe oder Gewicht, noch sonstige physikalische Eigenschaften, stellt er fest, es bewegt sich aber mit der Grenzgeschwindigkeit des Lichtes. Es ist das kleinste atomare Element in der DNA der Information, teilt er mit.6 »It is a state of being«, der so eng mit dem Wahrnehmbaren verknüpft ist, daß wir nicht recht wissen können, ob die kontinuierlichen Dinge aus der Verfeinerung der diskreten entstehen oder ob umgekehrt die diskreten aus der Zerlegung der kontinuierlichen hervorgehen. Die widersprüchlich sich ergänzenden Sichten des Analogen und Digitalen waren gedanklich mathematisch, so müssen wir weiter konstatieren, lange schon vorbereitet, bevor sie stofflich technisch erschienen. Aufzurufen ist Jean-Baptiste Joseph Fourier (1768-1830) und seine Einsicht, daß sehr allgemeine periodische Vorgänge sich mit beliebiger Genauigkeit durch endliche Summen aus Gliedern einfacher Art annähern lassen. Da die hierbei verwendeten elementaren Sinusfunktionen durch Angabe von je drei Zahlen bestimmt sind (Amplitude, Frequenz, Phasenverschiebung), übertrumpft das digitale Prinzip das analoge eindeutig bzw. enthält das digitale Prinzip das analoge als seinen Grenzfall oder, müssen wir sagen, geht in der Grenze unendlich fortgesetzter Verfeinerung in das analoge über. So ist der mathematische Befund, der im Kopf vorhanden war, bevor die Hand ihn stofflich realisieren konnte, der aber wohl andererseits neue Anstöße gewann, als er äußere Existenz angenommen hatte.
Dematerialisierung Das Digitale scheint doch etwas unfaßlicher zu sein als das Analoge. Über zwei Tendenzen in der Kunst der zweiten Hälfte des zwanzigsten Jahrhunderts, die aber schon beim Altmeister Marcel Duchamp angelegt sind, schreibt Renato Barilli unter den Bezeichnungen Materialisierung & Dematerialisierung.7 Während einerseits in vielfältiger Weise Materialität und Sinnlichkeit gefeiert werden (z. B. in der Land Art, den Happenings, Environments und vielen mehr), erheben Concept Art, Computerkunst oder Medienkunst die Beschreibungen und Repräsen6 Vgl. Nicholas Negroponte: Being digital, London: Hodder and Stoughton 1996, S. 14. 7 Vgl. Barilli 1998.
128
Frieder Nake und Susanne Grabowski
tationen möglicher Werke zu ihrem Prinzip. Die Feier der Materialisierung, das Körperprinzip, erhebt das dumpfe Sein als solches zur Kunst; die Feier der Dematerialisierung, das Geistprinzip, tut dies mit dessen Reflexion. Da wir hier keine Theorie der Kunst betreiben können noch wollen, ist es recht müßig, auf den merkwürdig, ja: wesenstief dialektischen Charakter der Kunst hinzuweisen, den speziell und wohl besonders schlagend das Bild aufweist. Es ist Ding und doch Nichtding, Öl auf Leinwand, woran genau dieser Sachverhalt als das am wenigsten Interessante erscheint. »Kunstwerke sind Dinge, welche tendenziell die eigene Dinghaftigkeit abstreifen«, notiert Adorno.8 Erscheinen darin nicht wieder das Analoge und das Digitale? Das Analoge in der Stofflichkeit, das Digitale in der Konzeptionalität? Das Analoge als der Ort des einzelnen – nämlich hier, jetzt und so existierenden – Werkes; das Digitale dagegen als der Ort des allgemeinen, nur potentiell herstellbaren – nämlich berechenbaren oder interaktiv beeinflußbaren – Werkes, d. h. einer Klasse von Werken.
Die digitale Differenz Im ersten Sammelband, der aus den HyperKult-Tagungen hervorgegangen war, findet sich ein Aufsatz von Georg Christoph Tholen mit dem Titel »Digitale Differenz«.9 Er macht neugierig. Tholen geht von der Beobachtung einer epochalen Zäsur aus, die die digitalen Medien (wie andere technische Medien auch) markieren. Er fragt nach der spezifischen Differenz, die den Computer als Instrument wie als Medium kennzeichne. Von der Schnittstellen-Thematik aus betrachtet (Mensch trifft auf Maschine), komme man, so Tholen, zu einem rätselhaften Alsob des Computers (als ob er Werkzeug, Automat, Medium sei), dessen Betrachtung nur teleologisch, nicht jedoch im Phänomen selbst weiterführe. Die Dimension des Symbolischen schiebt sich zwischen Sprechwesen und Zeichenmaschine. Die analogen Äußerungen von Mensch und 8 Theodor W. Adorno: Ästhetische Theorie. Frankfurt/M.: Suhrkamp 1998, S. 412. 9 Georg Christoph Tholen: »Digitale Differenz. Zur Phantasmatik und Topik des Medialen«, in: Martin Warnke/Wolfgang Coy/Georg Christoph Tholen (Hrsg.): HyperKult. Geschichte, Theorie und Kontext digitaler Medien, Basel, Frankfurt: Stroemfeld 1997, S. 99-116.
Zwei Weisen, das Computerbild zu betrachten
129
Maschine werden durch eine Welt digitaler Signale vermittelt, die, sobald sie ihre Unsichtbarkeit durch Erscheinen an der Schnittstelle verlieren, uns auch schon zum Zeichen werden (müssen). Wir sprechen in diesem Zusammenhang, ähnliches meinend, von der semiotischen Koppelung zweier Semiosen, von denen eine beim Menschen, die andere bei der Maschine stattfindet.10 In solcher zeichenbedingter Koppelung wäre die spezifische Differenz des medial gewordenen Computers11 zu sehen, zu der Tholen abschließend schreibt: »So zeigt sich beispielsweise an der Umwandlung von digitaler in analoge Information, daß im Prozeß dieser Umwandlung nicht nur sich die mediale Übertragung von der materiellen Verbindung mit ihrem ›Referenten‹ löst, sondern daß diese mediale Übertragung selbst sich in ein System differentieller bzw. inter-medialer Repräsentationen zu transformieren vermag. Diese digitale Differenz zu vormaligen Medienkonfigurationen besagt: die möglichen medialen Formen der Repräsentation sind nicht mehr nur angewiesen auf vermeintlich je medienspezifisch codierte Formen der Darstellung. Und daß bereits analoge Medien nicht oder nicht ausschließlich als Reproduktionen im Sinne des schlichten Abbildens vorgegebener Inhalte fungieren, sondern als signifikante Konstruktionen ausschnitthafte Aspekte der Welt zur Erscheinung brachten, wird durch die Einsicht in die durch die Digitaltechnik hinzugewonnene Disponibilität der medialen Verwendungen nur sichtbarer.«12
Vielleicht schlichter ausgedrückt heißt dies, daß die Vermittlung durch Computer als eine zeitliche Abfolge von analog-digital-analog gesehen werden muß, deren mittleres, digitales Bindeglied den permanenten Stachel der berechnenden Veränderung in sich birgt. Genau dieses Verhältnis wollen wir an einem historischen Einzelfall genauer ansehen. Wir wollen, was zunächst als nur zeitliche Abfolge erscheinen mag, als dialektischen Widerspruch sehen, nicht als faktisches Nacheinander nur, sondern als dialektisches Miteinander. 10 Frieder Nake: »Von der Interaktion. Über den instrumentalen und medialen Charakter des Computers«, in: ders. (Hrsg.) Die erträgliche Leichtigkeit der Zeichen. Ästhetik, Semiotik, Informatik, Baden-Baden: agis 1993, S. 165-189. 11 Angelika Hoppé, Frieder Nake: Das allmähliche Auftauchen des Computers als Medium. Ergebnisse einer Delphi-Studie, Universität Bremen, Informatik Bericht Nr. 3 (1995). Sowie: Heidi Schelhowe: Das Medium aus der Maschine. Zur Metamorphose des Computers, Frankfurt/M.: Campus 1997. 12 Tholen 1997, S. 115f. Hervorhebung der Autoren.
130
Frieder Nake und Susanne Grabowski
Das Bild aus dem Computer Das Bild, das aus dem Computer kommend automatisch auf Papier gezeichnet oder auf den Bildschirm projiziert wird, nehmen wir so wahr, wie wir jedes andere Bild auch wahrnehmen. Wir richten unseren Blick darauf und machen uns Gedanken darüber. Ist ein solches Bild analog oder digital? Sofort können wir antworten: das sichtbare Bild, was immer seine Herkunft, ist stets ein analoges. Denn Linien und Flächen auf dem Papier sind kontinuierliche. Das aber ist das wesentliche Merkmal des Analogen. Ob das Bild durch einen Zeichenmechanismus entsteht, der einen Tuschefüller über Zeichenkarton führt und letzteren dabei färbt, oder ob ein Maler mit einem Pinsel Farbe aufnimmt und diese auf Leinwand aufträgt, macht keinen einschneidenden Unterschied. Die stofflichen Erscheinungen sind von ähnlicher Art, und wenn Öl auf Leinwand ›analog‹ genannt würde, dann müsse das auch für Tusche auf Papier gelten. Sogleich wird jemand anderes aber auch antworten: das Bild auf dem Computer ist stets ein digitales. Denn es besteht aus farbigen Bildpunkten an vorgegebenen Orten. Wenn zwischen solchen Punkten kontinuierliche, gerade oder gebogene Linien gezogen würden, so sei das lediglich interpretative Zugabe – hübsch und begrüßenswert, damit wir etwas sehen, mehr aber auch nicht. Wenn aber ›digital‹ das genannt werde, was diskret sei, dann müsse das auch für das Computerbild gelten. Der aufmerksamen Leserin wird auffallen, daß die beiden spontanen Antworten einen kleinen, vielleicht entscheidenden Unterschied beinhalten. Beiläufig wird das eine Mal – bei der analogen Auffassung – vom Bild aus dem Computer, das andere Mal aber – bei der digitalen Auffassung – vom Bild auf dem Computer gesprochen. Wo auch immer das Bild auf dem Computer sich aufhalte, im Datenspeicher, im Programmspeicher, auf dem Bildschirm etwa, es existiert dort in anderer stofflicher Form als auf Papier. Wir sprechen derart Selbstverständliches aus, um darauf hinzuweisen, daß die Welt nicht in eine analoge und eine digitale Abteilung zerfällt, daß sie vielmehr so ist, wie sie ist, daß wir aber in unserem Bemühen um Erkenntnis der Welt diese Eigenschaften zu- und einschreiben. Nicht sie wird dadurch eine andere. Vielmehr erweist der Betrachter sich als ein anderer, der mal dieses, dann jenes Erkenntnisinteresse verfolgt. Mit der Aussage »Phänomen x ist von der
Zwei Weisen, das Computerbild zu betrachten
131
Art y« sagt der Betrachter nichts anderes als »Ich schreibe jetzt dem Phänomen x die Eigenschaft y zu«.
Eine Zeichnung Wir befassen uns mit der Zeichnung von Abb. 1. Sie ist 1965 von der automatischen, programmierbaren Zeichenmaschine Graphomat Z64 gezeichnet worden. Sie gehört zur frühen Computerkunst und wurde auf der dritten Ausstellung solcher Werke im November 1965 in der Galerie Wendelin Niedlich in Stuttgart erstmals ausgestellt. Der Titel ›13/9/65 Nr. 2‹ der Zeichnung verweist darauf, daß sie am 13. September 1965 entstanden ist und an diesem Tag die zweite Produktion darstellte. Sie ist in schwarzer Tusche auf Zeichenpapier (Format 40 cm x 40 cm) ausgeführt. Von ihr existieren um die zwanzig Exemplare als Originalzeichnungen sowie ein Siebdruck mit einer Auflage von vermutlich 40 Exemplaren. Wo sie sich befinden, ist weitgehend unbekannt, der Verbleib einiger Blätter in Museen oder bei Sammlern ist nachgewiesen. Das Blatt ist oft ausgestellt worden und erlangte z. B. dadurch eine gewisse Bekanntschaft, daß es in Meyers Großes Taschenlexikon in 24 Bänden (2. Aufl. 1987, Bd. 4, S. 359) zur Illustration des Stichwortes ›Computerkunst‹ verwendet wurde. Der Zeichnung ist oft der Titel ›Hommage à Paul Klee‹ gegeben worden. Damit hat es folgende Bewandtnis. Der Produzent des Bildes, Frieder Nake, hatte sich im Sommer des Jahres 1965 Federzeichnungen von Paul Klee angesehen, die er in einem kleinen Bändchen von 1955 gefunden hatte. Anderswo hatte er das Ölbild ›Hauptweg und Nebenwege‹ (von 1929) gesehen. Aus diesen Eindrücken versuchte er, Inspiration zu gewinnen für abstrahierte Strukturen, die in berechenbare Elemente und Prozesse umzusetzen wären. Daraus entstand das Programm, das Anlaß für das Bild ›13/9/65 Nr. 2‹ gab. Das in Maschinensprache geschriebene Programm lief auf einem Rechner der Klasse ER56 von Standard Elektrik Lorenz ab. Es produzierte einen Lochstreifen, der genau die Bewegungen codiert enthielt, die die Zeichenmaschine auszuführen hatte, um die Zeichnung der Abb. 1 entstehen zu lassen. Der Zeichenvorgang selbst fand also offline statt, wie es in den 1960er Jahren noch üblich war. Die Zeichenmaschine konnte durch simultane Drehung zweier Hochpräzisions-Spindeln einen Zeichenkopf über eine große Zeichen-
132
Frieder Nake und Susanne Grabowski
Abb. 1 – Frieder Nake, Hommage à Paul Klee (13/9/65 Nr. 2). Tusche auf Papier, 40 cm × 40 cm
fläche bewegen. Auf einer Milchglasscheibe war der Zeichenkarton (oder ein anderes Material) befestigt. In den Zeichenkopf konnten bis zu drei Zeichenstifte eingehängt werden, die wahlweise wechselnd verwendet wurden. In unserem Fall waren es Rapidograph-Tuschefüller, die damals in Grafik, Konstruktion und Design viel verwendet wurden. Von ihnen gab es eine große Auswahl an Formen und Stärken der Zeichenspitzen. Die Stifte konnten mit gewöhnlichen Tuschfarben gefüllt werden, von denen die Firma Pelikan eine reiche Palette anbot. Das Blatt ›13/9/65 Nr. 2‹ benötigte etwa vier Stunden zur Fertigstellung. Es wurde mit der Signatur ›NAKE/ER56/Z64‹ in eigens konstruierter Typografie beendet.
Zwei Weisen, das Computerbild zu betrachten
133
Das verdoppelte Bild Das Bild der Abb. 1 existiert mehrfach verdoppelt. Diese Redeweise gilt es, genauer zu fassen. Sie ist nicht im wörtlichen, stofflichen Sinn zu nehmen. Die durchaus geläufige Redeweise von der Verdoppelung soll vielmehr andeuten, daß ein Gegenstand in zwei materiellen Formen gleichzeitig existiert und daß diese eng miteinander verzahnt sind. Hier verhält es sich folgendermaßen. Es existiert ein Programm, dessen Ausführung als Anwendung eines Prozeß-Schemas auf einen Satz von Eingabedaten den Lochstreifen für die Zeichenmaschine erzeugt. Er codiert die Zeichnung und steuert die Zeichenmaschine. Mit gewissem Recht können wir sagen, die Zeichnung existierte (a) als ›Tusche auf Papier‹, (b) als ›Steuer-Lochstreifen‹, (c) als ›ProgrammLochstreifen‹. Wir könnten hinzufügen: (d) als ›Programm-Entwurf‹, würden aber vor einer Version (e) als ›Idee‹ zurückschrecken. Denn (e) erschiene nicht in explizit wahrnehmbarer Form wie die anderen vier. Jede der vier Formen der Existenz unserer Zeichnung steht zu der ihr benachbarten in einer Relation von Spezialisierung/Generalisierung. Die auf Papier sichtbare Zeichnung (a) ist eine Spezialisierung der Lochstreifen-Erscheinung (b) insofern, als über die konkreten Zeichenstifte (Farbe, Strichstärke) und das konkrete Papier entschieden werden muß, die die endgültige materielle Realisierung der Zeichnung ausmachen. Wenn uns dieser Akt auch gering vorkommen mag, eine Entscheidung von der Art einer Auswahl aus einem Repertoire ist dennoch zu treffen. Der Tendenz nach können noch fast beliebig unterschiedlich wirkende Zeichnungen entstehen. Sie unterscheiden sich in ihren visuell wahrnehmbaren Qualitäten. Tatsächlich gibt es von Abb. 1 Blätter in grüner Farbe auf rosa Karton, was eine psychedelische, leicht räumliche Anmutung erzeugt. Der Schritt von der Form (c), nämlich dem Programmstreifen, zur Form (b) ist von ähnlicher Natur und realisiert noch schlagender eine Relation von Spezialisierung und Generalisierung. Das Programm lesen wir als die Beschreibung einer Klasse von Zeichnungen. Durch Auswahl konkreter Parameterwerte, die als Eingabedaten in das Programm einflossen, wurde erst das spezielle Mitglied jener Klasse von Zeichnungen festgelegt, das dann den Namen »13/9/65 Nr. 2« bekam. Die hierbei zu treffenden Auswahl-Entscheidungen haben erheblichen Einfluß auf die Bilderscheinung (im einzelnen in Nake 1974 nachzulesen).13 Die Auswahl-Entscheidungen sind von komplexer Natur:
134
Frieder Nake und Susanne Grabowski
variable Größen, die die Zeichnung bestimmen, sind nicht selbst, sondern nur über Wahrscheinlichkeitsverteilungen festzulegen. Jede solche Verteilung führt bei der Ausführung des Programms im Wechselspiel mit Zufallszahlengeneratoren dazu, daß numerische Parameterwerte festgelegt werden, die jede Einzelheit des Zeichenblattes kontrollieren. Mit dem Rückzug auf Wahrscheinlichkeitsverteilungen legt der Mensch nur den Rahmen für die Entscheidungen fest. Er greift nie direkt ein, sondern läßt Algorithmen alle Details bestimmen. Wir greifen ein Beispiel heraus. Es dürfte auffallen, daß das Bild erkennbar Makro- und Mikrostrukturen aufweist. Die Makrostruktur besteht aus horizontalen Bändern, die durch gebrochene Linien definiert werden. Die Mikrostrukturen füllen kleinere Felder aus, die sich zwischen zwei solchen Linien als Vierecke ergeben. Manche der Felder bleiben leer, andere werden von senkrechten Linien durchzogen, wieder andere mit schrägen Linien gefüllt. Die senkrechten Linien können sich in das darüber liegende Feld fortsetzen. Zwischen diesen Makround Mikrostrukturen wäre noch die separate Struktur der Kreisverteilung anzusiedeln. Die Unterscheidung von Makro- und Mikrostruktur könnte auch ›Komposition und Ausfüllung‹ genannt werden. Mit ihrer expliziten Programmierung wird darauf hingewiesen, daß, anders als beim traditionellen Kunstwerk, Übergänge zwischen beiden Betrachtungsebenen nicht weich sein müssen. Indem sie programmiert werden, nehmen sie dinghaften Charakter, also eine gewisse Objektivität, an. Wie entstehen die horizontalen Bänder in einem berechenbaren Prozeß? Offenbar liegen ihre Knicke in gedachten Linien senkrecht übereinander. Wo die Knicke in horizontaler Richtung angebracht sind, ist zufällig zu entscheiden. Damit dies geschehen kann, muß eine Verteilungsfunktion FA(a, b) gegeben sein, die den horizontalen Abstand A (zwischen Werten a und b) eines Knickes vom vorhergehenden kontrolliert. Zur Festlegung der konkreten Form der Bänder ist eine ähnlich geartete Verteilungsfunktion FV(c, d) vonnöten. Sie kontrolliert die Werte des vertikalen Abstandes V (zwischen Grenzen c und d), den zwei aufeinander folgende Begrenzungslinien am linken Bildrand aufweisen. 13 Vgl. Frieder Nake: Ästhetik als Informationsverarbeitung, Wien, New York: Springer 1974, S. 214-220.
Zwei Weisen, das Computerbild zu betrachten
135
Vom linken Bildrand weg muß durch eine Verteilungsfunktion FW(α, β) bestimmt werden, wie die Winkel W (zwischen α und β) variieren dürfen, unter denen die Bänder am linken Rand loslaufen. Eine ähnliche Verteilungsfunktion (oder auch die gleiche) bestimmt die Winkel der Knicke. Sorgt man dafür, daß die Bänder sich nicht überschneiden können und daß sie nach rechts und oben ordentlich abschließen, so hat man durch die erwähnten Funktionen einen Kontrollmechanismus von beträchtlicher Allgemeinheit und Distanz zum konkreten bildlichen Geschehen entworfen. Nirgends haben wir bei dieser (zugegeben: groben) Schilderung unmittelbar auf die Geometrie oder gar Grafik Bezug genommen. Vielmehr haben wir die Bandstruktur durch drei Verteilungsfunktionen, also mit Mitteln der Wahrscheinlichkeitstheorie, definiert. Wir setzen sie ein, um zufällige Serien von Zahlen zu bestimmen, die eine geometrische Interpretation als Knickpunkte der bandbegrenzenden Linien erfahren. Wir bestimmen, genauer gesagt, monoton wachsende Folgen {x0 = 0, x1, …, xm = 1} und {y0 = 0, y1, …, yn = 1} am unteren bzw. linken Rand des Bildes. Vom Punkt mit den Koordinaten (0, y1) aus lassen wir eine polygonale Linie entlang der Richtung w11 nach rechts bis zum Punkt (x1, y1 + w11x1) laufen. Dort setzen wir in Richtung w12 fort bis zum Punkt (x2, y1 + w11x1 + w12(x2 – x1)) usf. Wenn wir den rechten Rand erreichen, beginnen wir eine zweite solche Linie beim Punkt (0, y2) usw. Wir erzeugen ein halb-regelmäßiges Raster von Punkten Pij = (xi, yij). Regelmäßig hieran ist, daß die Rasterpunkte in der Vertikalen übereinander liegen; unregelmäßig ist, daß sie entlang der Horizontalen auf und ab schwanken (vgl. Abb. 1). Wie weit die Allgemeinheit dieses Schemas geht, können wir daran sehen, daß alle regelmäßigen Raster in dem beschriebenen Fall als Spezialfälle enthalten sind. Wenn etwa die Wahrscheinlichkeit für einen festen horizontalen Abstand Δx = xi - xi-1 gleich 1 ist, d. h. wenn in der horizontalen Richtung die Abstände mit Sicherheit konstant sind, wenn ebenso die Wahrscheinlichkeit für Δy = yj - yj-1 (j = 1, 2, …) gleich 1 ist und die Zufallsvariable W für den Winkel mit Sicherheit den Wert 0 annimmt, so erhalten wir horizontale Linien in gleichen vertikalen Abständen und Felder konstanter Breite: das ist das regelmäßige Raster. Behalten wir die Wahrscheinlichkeit P[W = 0] = 1 (d. h. mit Sicherheit wird nicht geknickt) für die Knickwinkel bei, so bleiben die Linien
136
Frieder Nake und Susanne Grabowski
exakt horizontal, könnten nun aber unterschiedliche vertikale Abstände und unterschiedliche Feldbreiten aufweisen. Diese Art der Beschreibung können wir auf andere Spezialfälle von Rastern ausdehnen. Lassen wir es jedoch genug sein mit der Schilderung konzeptioneller Festlegungen der Bilderklasse. Wir wollten auf die Mehrfach-Existenz des Bildes hinaus. In seiner Bildlichkeit erscheint es als sichtbares Ding. Die pure Sichtbarkeit ist für Lambert Wiesing sogar das Spezifikum des Bildes.14 Das Computerbild besitzt jedoch immer auch eine verborgene, ja: unsichtbare Seite. Das festzustellen ist insofern interessant, als die Unsichtbarkeit des Computerbildes, sein Verborgenes, dennoch – und im Gegensatz zu allem uns Bekanntem – auch stoffliche Existenz aufweist. Nicht erst im Gedanken, der mit der sichtbaren Erscheinung des Bildes zusammenhängen mag oder nicht, wächst dem Bild seine zweite Seite zu (der ›Sinn‹, der von der Tätigkeit des Seh-Sinnes weg gewonnen wird). Diese zweite Seite ist nun vielmehr genau so objektiv-stofflich vorhanden wie ›Tusche auf Papier‹, ›Elektronen im Speicher‹ oder ›Löcher auf dem Lochstreifen‹ es sind.
Bild und Text Wir haben von der unsichtbaren Seite des Computerbildes als einer ›Beschreibung‹ gesprochen. Nennen wir die Beschreibung ›Text‹, so erscheint das Bild aufgespalten in sichtbare Erscheinung und ausführbare Beschreibung, in Bild und Text also. Das algorithmische Bild steht gewissermaßen neben seinem Text, dem es entspringt. Beide verhalten sich komplementär zueinander. Das Bild wird zum einzelnen Zeugen seines Text-Schemas, Instanz einer Klasse, kalkuliertes Ergebnis eines kalkulierenden Textes. Der Text ist eine besondere Art von Text, da er Programm ist; das Bild ist besondere Art von Bild, da es automatisch gezeichnet ist. Sybille Krämer nennt solche Texte gelegentlich »operativ«, Christiane Floyd und Michaela Reisin nennen sie »auto-operationale Formen«. Der Gedanke ist mit Schattierungen der gleiche. Wie jeder Text, ist ein operativer Text lesbar. Er ist das jedoch doppelt. In beiden Fällen 14 Vgl. Lambert Wiesing: Die Sichtbarkeit des Bildes. Geschichte und Perspektiven der formalen Ästhetik, Reinbek: Rowohlt 1997.
Zwei Weisen, das Computerbild zu betrachten
137
erfährt der Text eine besondere Interpretation. Seine Leser nämlich sind Mensch und Prozessor. Der Mensch möchte beim Lesen verstehen, wie das Bild aus der Beschreibung entsteht. Der Prozessor muß hingegen bestimmen, welche kalkulatorischen Schritte er auszuführen hat, um das Bild in operationaler Codierung zu erzeugen. Wir wollen die auf Seiten des Prozessors zugelassenen Operationen als semiotisch bezeichnen. Denn der Stanzvorgang des Lochstreifens ist nicht durch das Stanzen an sich, durch die dabei erzeugten Lochkombinationen also, interessant. Vielmehr liegt sein Sinn und Zweck darin, daß die Lochkombinationen anschließend als Codierungen von Zeichenbefehlen interpretiert werden können. Sie sollen sich als Zeichenbefehle erweisen, die Steuerbefehle für einen Mechanismus sind, der einen Zeichenstift über eine Papierfläche führen kann. Der Prozessor scheint es mit der Interpretation des Textes einfacher zu haben als der Mensch. Denn während wir erst lernen und trainieren müssen, bevor wir den (recht formalen) Text zu lesen im Stande sind, muß der Prozessor nur gebaut werden, schon kann er auch ›lesen‹. Trivialerweise ist der Grund hinter diesem Unterschied, daß wir Entscheidungen treffen können (und müssen), wenn wir interpretieren. Wir interpretieren, was wir sehen, gegen den offenen Spielraum unseres Wissens. Der Prozessor dagegen trifft keine Entscheidung und besitzt keinen Spielraum. Er bestimmt, im Sinne des Berechnens, was zu geschehen hat. Interpretation schrumpft ihm auf Determination, Bedeutung auf Berechnung. Beide sind ihm eingebaut. Das Bild war uns auf dem Computer zu Bild und Text geworden. Der Text wird uns zu Text und Bild. Das Programm wird zum ausführbaren Text, der Lochstreifen zum ausführbaren Bild. Er ist letztlich Code des Bildes, mit dem Bild in jeder Einzelheit eindeutig verbunden. Er entsteht als Rechenergebnis des Programms und wird zum Zeichenprogramm für den Zeichenautomaten. Verallgemeinern wir ein wenig, so deutet sich an, daß Gegenstände auf dem Computer, also algorithmische oder algorithmisierte Gegenstände, stets aus dem bestehen, als was sie uns vertraut sind, aber gleichzeitig aus formalen Texten, als die sie dem Computer vertraut sind. Die hier anklingende Thematik ist die der generellen Verdoppelung der Software-Dinge oder der Dinge als Software oder auch der virtuellen Dinge. Interessanterweise ist das Bild nun ein Gegenstand, der schon immer eine solche Zweifachheit in sich trägt (eine Eigenschaft, die es im
138
Frieder Nake und Susanne Grabowski
übrigen mit allen Zeichen teilt, vielleicht aber besonders deutlich aufweist). Das Bild ist das, als das es stofflich präsent ist (semiotisch: das Repräsentamen), und das, zu dem es mental Anlaß geben kann (semiotisch: ein Interpretant). Es stiftet ein Wechselspiel zwischen einem anwesenden Ding und einer abwesenden Interpretation. Nennen wir letztere wieder ›Text‹, so steht die Interpretation des bildlichen Zeichens für die Lesbarkeit des Bildes. Für Walter Benjamin war dieser Aspekt so bedeutsam, daß er vom Bild als der »Dialektik im Stillstand« spricht. »Nicht so ist es, daß das Vergangene sein Licht auf das Gegenwärtige oder das Gegenwärtige sein Licht auf das Vergangene wirft, sondern das Bild ist dasjenige, worin das Gewesene mit dem Jetzt blitzhaft zu einer Konstellation zusammentritt. Mit anderen Worten: Bild ist die Dialektik im Stillstand. Denn während die Beziehung der Gegenwart zur Vergangenheit eine rein zeitliche ist, ist die des Gewesenen zum Jetzt eine dialektische: nicht zeitlicher sondern bildlicher Natur. Nur dialektische Bilder sind echt geschichtliche, d. h. nicht archaische Bilder. Das gelesene Bild, will sagen das Bild im Jetzt der Erkennbarkeit trägt im höchsten Grade den Stempel des kritischen, gefährlichen Moments, welcher allem Lesen zugrunde liegt.«15
Die Leinwand an der Wand ist ein Gewesenes. Sie ist das geworden, was sie ist. Im Jetzt ihrer Erkennbarkeit aber, also in meinem Hinzutreten und Betrachten und damit sofort rettungslos eintretenden Interpretieren, strömt jedoch ein jetziger Prozeß von der Leinwand weg. Eine Konstellation hat sich eingestellt, oder ich habe für sie gesorgt, ich habe die Leinwand an der Wand, das Gewesene, mit mir davor, das Jetzt, in eine solche Konstellation versetzt, daß die Leinwand nun ihrem stumpfen Leinwand-Dasein entrissen und dialektisches, nämlich gelesenes Bild wird. Das ist, wie gesagt, immer so, bei jeder Art von Bild. Wir haben uns oben einige Mühe gegeben, um die technische Doppelung des Computerbildes einsichtig zu machen. Im bilderzeugenden Programm liegt die Beschreibung einer Klasse von Bildern explizit und operational vor. Sie liefert, wird sie ausgeführt, ein Exemplar der Klasse. Einige der Eigenschaften und Interpretationen, die mein Hinzutreten dem Bild zukom15 Walter Benjamin: Das Passagen-Werk. Gesammelte Schriften Bd. V-1, Frankfurt/M.: Suhrkamp 1991, S. 578.
Zwei Weisen, das Computerbild zu betrachten
139
men läßt, sind nun Teil der operativen Beschreibung geworden. Das Computerbild, so wollen wir sagen, beinhaltet seine Beschreibung (zu Teilen). Benjamin scheint Wert auf das Blitz- und sozusagen Überfallartige der Konstellation zu legen, die die erstarrte Dialektik des Bildes wieder in Gang setzen kann. Ob das so entscheidend ist, mag dahinstehen. Zu vermuten ist, daß er hiermit das Bild als Raum okkupierendes Werk gegen Werke in der Zeit (Roman, Musik) abgrenzt.
Analog und digital Was hat nun die bis hier angestellte Betrachtung mit der Frage von ›analog & digital‹ zu tun, mit dem Gegensatz dieser zwei Beschreibungen? Wir bleiben relativ naiv und setzen das Analoge, wie schon angedeutet, mit dem Kontinuierlichen, das Digitale mit dem Diskreten gleich. Grundlegende Handlungen, die im Analogen münden, sind die des Messens, Handlungen des Zählens führen zum Digitalen (Flusser nennt sie Komputieren). Analog ist eines zu einem anderen, wenn es diesem ähnlich ist, ihm gleichkommt, in wenigstens einer Hinsicht entspricht. Digital ist eines, wenn wir von all seinen Eigenschaften absehen außer derjenigen, daß es anders als andere ist – und sei es, daß es völlig gleich einem anderen ist, außer daß es sich an einem anderen Ort befindet. Daraus folgt, daß wir es zählen können, daß also eine Analogie zur Folge der Ziffern hergestellt werden kann. Kontinuierlich ist ein Vorgang, bei dem eines ohne räumliche oder zeitliche Unterbrechung auf ein anderes folgt. Diskret ist ein Vorgang, bei dem eines vereinzelt und abgesondert von anderen existiert. Kontinuierlich ist eine Linie, die ich ohne Absetzen des Zeichenstiftes aufs Papier bringe. Diskret sind zwei Punkte, die ich dort markiere. Diskret sind die Buchstaben des Alphabets in ihrer Eigenschaft als Mitglieder dieser endlichen Menge, kontinuierlich ist jeder von ihnen jedoch in seiner gezeichneten oder gedruckten Form. Kontinuierlich ist der Stamm des kleinen ›i‹ und auch der i-Punkt. Diskret sind beide als Bestandteile der Form des ›i‹. Messen führt zur Geometrie (dem Vermessen der Erde), Zählen führt zur Kalkulation. Unsere Begriffe, das sollen all diese Explikationen andeuten, sind relativer Art. Nur im Verhältnis zu anderen kom-
140
Frieder Nake und Susanne Grabowski
men wir dazu, von einem Gegenstand als ›analog‹ oder ›digital‹ zu sprechen. Wie kann es geschehen, daß die offensichtlich kontinuierliche Bewegung des Zeichenkopfes über dem Papier auf dem Zeichentisch von einem diskreten Code gesteuert wird, der in Drehgeschwindigkeiten von Spindeln übersetzt wird, deren Zusammensetzung ›beliebige‹ Richtungen zu fahren gestattet? Ohne Frage, der Code für die Fahrgeschwindigkeiten ist diskret (wie im übrigen alles, was wir mit dem üblichen Begriff des ›Code‹ erfassen). Jede der beiden Antriebs- oder Vorschubspindeln kann auf eine (endliche und relativ kleine) Anzahl von Geschwindigkeiten eingestellt werden. Die Kombination von beiden ergibt die möglichen Richtungen, in denen von einer gegebenen Position aus geradlinig gezeichnet werden kann. In jedem Fall sind dies nur endlich viele Richtungen. Bekannt und minimal nötig sind vier Richtungen (rechts, oben, links, unten). Die Diagonalen kommen hinzu bei acht zugelassenen Richtungen. Eine beachtliche Feinheit wird schon mit 16, erst recht mit 64 möglichen Richtungen erreicht. Die genauer werdenden Approximationen des Zeichnens mit 64 zugelassenen Richtungen (das sind 16 pro Quadrant) können dennoch nicht darüber hinwegtäuschen, daß eine beliebige Richtung i. d. R. durch ein Schlingern des Zeichenkopfes um die gewünschte Richtung herum approximiert werden muß. Wir stehen also vor der Situation, daß ein endlicher (diskreter) Code zur Darstellung von endlich vielen Richtungen dafür genutzt wird, einen Zeichenstift zum Zeichnen beliebiger Richtungen zu führen. Die unvermeidlichen Knickpunkte der approximierenden Polygonzüge stellen ein diskontinuierliches Moment solchen Zeichnens dar. In ihnen bleibt der Kurvenzug selbst zwar kontinuierlich, seine Steigung aber ändert sich abrupt und sprunghaft. Die Kunst solchen automatischen Zeichnens liegt darin, die kontinuierlichen, aber eckigen Polygonzüge so gut um eine beabsichtigte Linie herum tänzeln zu lassen, daß das Auge über die eingebettete Diskontinuität, über das Digitale im Analogen, weggetäuscht wird. Die Ästhetik der Angelegenheit wäre eher als Zu-mutung denn als An-mutung zu bezeichnen.16
16 Vgl. Hans Ulrich Reck: »Entgrenzung und Vermischung. Hybridkultur als Kunst der Philosophie«, in: Irmela Schneider/Christian W. Thomsen (Hrsg.), Hybridkultur. Medien Netze Künste, Köln: Wienand 1997, 91-117, hier S. 103f.
Zwei Weisen, das Computerbild zu betrachten
141
Die Mathematik kennt das selbstverständlich schon lange. Alle Approximationssätze haben diese Einsicht zum Gegenstand. Die Physik und die Philosophie tun sich schwerer. Da sie ein Phänomen nicht nur formal darstellen, sondern es gar erklären wollen, sind ihnen die Dinge einmal kontinuierlich (z. B. Welle), dann wieder diskret (z. B. Partikel). Das Erstaunliche hieran ist, daß beide Betrachtungen Bereiche kennen, die sie zu ›erklären‹ vermögen. So kommt es zu der Merkwürdigkeit, die Erscheinung des Lichtes gleichzeitig als kontinuierliche Welle und als diskreten Partikelstrom zu erfassen, zwei Sichtweisen, die sich gegenseitig ausschließen. Die Ästhetik beschreibt solche Phänomene als Wahrnehmungen des Ähnlichen. Sie kann eine Entstellung kaum vermeiden. Das Dargestellte wird zur verfremdeten Ähnlichkeit, zur anderen Schrift, zur Spur des Anderen. Die Ähnlichkeit kann nicht in ihrer einfachsten Form, der geometrischen Sinnfälligkeit, sondern erst in einem assoziativen mentalen Akt festgestellt werden (die erwähnte unsinnliche Ähnlichkeit).17 Die Fragerichtung des Entweder/Oder hilft offenbar nicht, kaum mehr aber auch die eines Sowohl-als-auch. Vielleicht etwas mehr das ins Dialektische tendierende Einerseits-andererseits. In ihm nämlich deutet sich an, daß es nicht um ein Erfassen des Wesentlichen des Phänomens gehen kann, sondern nur um eine hinlänglich nützliche Darstellung. Eine Sichtweise wird beschrieben, immer wieder gilt es, sich dies vor Augen zu halten, nicht der Charakter des Phänomens. Er bleibt unerreichbar, so sehr wir uns bemühen mögen. Kein Gegenstand ist als solcher digital oder analog. Er ist und bleibt das, was er ist und wie er ist. Wenn wir uns ihm nähern, schaffen wir Zeichen, mit denen wir die Art der Näherung ausdrücken. Zeichen aber, das hatten wir oben schon gesehen, sehen wir in ihrer Form als analog, in ihrer Unterschiedenheit als digital an. Unsere Erfahrung im praktischen Umgang mit den Dingen hilft. Das Bild, betrachtet als Zeichnung, erscheint uns vorrangig analog. Als Lochstreifen, der die Zeichenmaschine steuert, erscheint es digital (wenn wir an den Loch-Code denken). Der Text des Programms, das den Code erzeugte, erscheint vorrangig digital. Denn er ist über einem diskreten Alphabet in Anwendung diskret notierter Regeln entstanden. Der Ablauf des Programms unter Steuerung durch den Prozessor erscheint uns vielleicht in einer Mischform: analogdigital. Denn wir 17 Vgl. Benjamin 2002, S. 118f.
142
Frieder Nake und Susanne Grabowski
beschreiben den Vorgang dann günstig, wenn wir Zustände (digital!) zur Hilfe nehmen, in die der Prozessor die Maschine bringen kann. Der physikalische Übergang zwischen zwei Zuständen wird jedoch kontinuierlich (analog!) vonstatten gehen.
Das algorithmische Zeichen Die Kunst birgt in sich technische, ästhetische, soziologische und andere Sichtweisen. Jede verlangt ihr eigenes Recht, jede wirkt auf die anderen ein. Unter Bedingungen der informationstechnischen Produzierbarkeit des Kunstwerkes scheinen gewisse Differenzen dieser Sichtweisen gemildert zu werden. Wir wollen einen formalen Begriff an das Ende unserer Betrachtung setzen, in dem vieles von dem zusammenläuft, was wir angesprochen haben. Es ist dies der Begriff des algorithmischen Zeichens. Das algorithmische Zeichen ist zunächst ein Zeichen wie jedes andere, eine Relation also, die – folgen wir Peirce – ein darstellendes Repräsentamen in Verhältnis zu einem bezeichneten Objekt setzt, woraus ein bedeuteter Interpretant entspringt. Solche triadischen Relationen werden von Menschen in Akten der Zeichenproduktion und -interpretation hergestellt. Das algorithmische Zeichen besitzt nun eine zusätzliche Komplexität, weil es stets von zwei Instanzen interpretiert wird: von Mensch und von Prozessor. Der Mensch produziert den Peirceschen Interpretant, den wir hier den intentionalen Interpretanten nennen. Der Prozessor produziert in kausalem Prozeß einen Interpretanten, den wir den automatischen Interpretanten nennen wollen. Der Akt der maschinellen Interpretation war uns oben bereits begegnet. Da ihm der Spielraum offener, willentlicher und willkürlicher Interpretation fehlt, nennen wir ihn auch Determinant, was wir als ›determinierter Interpretant‹ lesen. Wir verweisen im übrigen auf Nake 2001.18 Es wird nun hoffentlich nicht allzu künstlich wirken, wenn wir eine relative Nähe zwischen dem intentionalen Interpretant und dem analogen Prinzip einerseits, dem automatischen Interpretant und dem digita18 Vgl. Frieder Nake: »Das algorithmische Zeichen«, in: Kurt Bauknecht/Wilfried Brauer/Thomas Mück (Hrsg.), Informatik 2001. Tagungsband der GI/OCG Jahrestagung, Bd. II, (2001), S. 736-742.
Zwei Weisen, das Computerbild zu betrachten
143
len Prinzip andererseits konstatieren. Im algorithmischen Zeichen sind beide Sichtweisen kombiniert. Gehen wir von der Annahme aus, daß algorithmische Kunst durch Programmieren gekennzeichnet wird, so steht der Gedanke an das Werk vor diesem selbst. Das wird niemanden in Erstaunen versetzen, weil es üblich ist. Nicht üblich aber ist, daß bei algorithmischer Kunst der Gedanke an das Werk als solcher ausgearbeitet wird (und nicht das wahrnehmbare Werk). Im Programm, auf das sich der Schaffensprozeß konzentriert, wird die allgemeine Klasse niedergelegt, zu der das (noch immer nicht sichtbar existierende) Werk einst gehören wird. Diese Klasse zu schaffen, ist in jedem Fall eine abstraktere Tätigkeit als das Schaffen eines sichtbaren Werkes. Sie ist über ihre generelle Abstraktheit hinaus durch Distanz zum Werk gekennzeichnet, da die Klasse im Programm als operationale Anweisung zur Schaffung jedes einzelnen ihrer Mitglieder entstehen muß. Ist ein einzelnes Werk erst einmal erschienen, so kann der Blick auf das Papier sich nurmehr mit eben diesem einzelnen Fall befassen. Das geschieht vor allem in der Dimension des Analogen (wir hatten oben jedoch auf Details aufmerksam gemacht, die das Digitale innerhalb des Analogen erscheinen lassen). Die Beschreibung der Klasse wird hingegen eher Züge des Digitalen aufweisen. Jedoch sehen wir in jeder solchen Zuschreibung deren unvermeidliche Willkürlichkeit. Das Bild wurde uns zum verdoppelten Bild-&-Text. Darin erscheinen zwei Aspekte des Einen. Das, was so ist, wie es ist, erscheint als analog und digital, also als analogdigital. Mit seiner Verdoppelung in Bild-&-Text stellen wir fest, daß die Komponente Bild darin kalkuliert wird, während die Komponente Text die kalkulierende darstellt. Das kalkulierte Bild existiert für den Prozessor im Speicher. Dort ist es für uns unsichtbar, für den Prozessor aber ausführbar. Indem er es ausführt, wird es zum Lochstreifen. Dieser ist für uns zwar sichtbar. Was er uns aber zeigt, ist nicht das, was wir gewöhnlich als ›Bild‹ erwarten. Wir könnten unsere Sehgewohnheiten ändern. Vorläufig aber erscheint das Bild auf dem materiellen Träger des Lochstreifen als sichtbar unsichtbar, jedoch – erneut! – für einen Prozessor ausführbar. Dessen Operation nun erzeugt das Bild in der Form von Tusche auf Papier und damit in einer für uns sichtbaren Form. Diese wiederum befindet sich außerhalb der Erreichbarkeit durch den Prozessor: was uns sichtbar (analog) ist, ist für ihn nicht ausführbar; was uns unsichtbar, ist ihm ausführbar (digital). (Vgl. hierzu auch Abb. 2.)
144
Frieder Nake und Susanne Grabowski
Abb. 2 – Prozesse und Produkte algorithmischer Kunst. Unten: operierende Instanzen; oben: Ergebnisse bzw. Voraussetzungen von Operationen
Ähnlich können wir die Sichtbarkeit und Ausführbarkeit der anderen Komponente des Bild-&-Text darlegen, den kalkulierenden Text. Er ist außerhalb des Computers sichtbar für uns. Von seinem Notat auf Papier wird er mit Hilfe eines Apparates auf Lochstreifen übertragen – der für uns zwar sichtbaren, den Text aber bereits verhüllenden Form. Von dieser Form wird er in den Speicher eingeschrieben und verliert damit für uns seine Sichtbarkeit, wird uns unsichtbar, gleichzeitig für den Prozessor aber ausführbar. Es scheint, daß die semiotische Koppelung von Sichtbarkeit und Ausführbarkeit, die den interpretierenden Instanzen von Mensch und Computer im algorithmischen Zeichen zuteil wird, von drei Arten Semantik kontrolliert wird (Zusammenstellung in Tab. 1). Eine konstruktive Semantik, will heißen: eine Semantik der Konstruktion, befaßt sich mit dem entstehenden und notwendigerweise sichtbaren Text, der allmählich zum Programm und damit zum ausführbaren Objekt wird. Eine operative Semantik, will heißen: eine Semantik der automatisierten Ausführung, herrscht auf determinierte Weise im Inneren der Maschine, wo der ausführbare Text zu Anlaß und Quelle für das Bild wird, auf das wir hoffen und warten, das drinnen im Computer aber erst noch nur ausführbares, noch nicht sichtbares Bild ist. Erscheint jenes Bild dann schließlich ›draußen‹, indem die Zeichenmaschine ihre Operationen unter Regie einer entsprechend operativen Semantik vollzieht, indem sie also durch Fahrbefehle das Bild für uns sichtbar werden läßt, so greift eine interpretative Semantik, will heißen: eine Semantik der Interpretation.
Zwei Weisen, das Computerbild zu betrachten
145
Der Mensch sieht sich angesichts der Kunst – wie auch sonst – in einem fortgesetzten Wechselprozeß von Drinnen und Draußen. Das Innere wird nach außen gekehrt und umgekehrt. Die Interpretationen der Kunstwerke dringen schon immer in diese ein, gehen in sie hinein, auch um sie herum, ziehen ihren Kreis und stülpen ihr Innerstes nach außen: man muß ins Werk hineingehen, um über seine Unmittelbarkeit hinausgehen zu können (was in größerer Allgemeinheit bei Adorno anklingt).19 Das aufregend Neue an der algorithmischen, also: digitalen Kunst scheint zu sein, daß das Eindringen ins Werk nun wörtlich genommen werden kann. Im unsichtbaren Doppel, über das der Prozessor herrscht, steht eine Form des Werkes zur Verfügung, die manipuliert, gedreht, gewendet, zerlegt und sogar zerstört werden kann, ohne daß solches Tun das Werk selbst berührte. In das digital verdoppelte Bild können wir quasi zwischen Tusche und Papier hinein eindringen und dort keines auf dem anderen lassen, alles in Frage stellen und anders machen und in solchem Tun über das Werk an der Wand unendlich hinaus gelangen, ihm dennoch seine Identität in Würde lassen.
das kalkulierte bild (speicher | lochstreifen & papier)
der kalkulierende text (papier & lochstreifen | speicher)
mensch: das sichtbare bild
interpretative semantik
prozessor: das ausführbare bild
operative semantik
prozessor: der ausführbare text mensch: der sichtbare text
konstruktive semantik
Tab. 1 – Verdoppeltes Bild, Sichtbarkeit und drei Semantiken
Vielleicht haben Flussers Anschauen und Hinschauen hiermit zu tun.20 Die Bildoberfläche schauen wir an, beim Hinschauen aber lesen wir das Bild aus sich heraus. In unserer Betrachtungsweise sagen wir, daß wir das Programm, den operativen Text aus dem Bild heraus lesen. Wieder 19 Vgl. Adorno 1998, S. 386. 20 Vgl. Vilém Flusser: Ins Universum der technischen Bilder, Göttingen: European Photography 1999.
146
Frieder Nake und Susanne Grabowski
ist das gar nicht so schrecklich neu in allgemeiner Betrachtung. Was aber traditionell nur gedanklich faßbar bliebe, ist nun im Zuge interaktiver Tätigkeit mit Händen greifbar. Die algorithmische Seite liefert einen Teil der ästhetischen Anstrengung in externer, also expliziter Form. Die völlig harmlose, weil heute selbstverständliche Programmierung des Schönen stiftet die Dialektik von Algorithmik und Ästhetik, von Berechenbarkeit und Wahrnehmbarkeit also, von konstruierter und aufbrechender Schönheit vielleicht – und zeigt uns darin die Einheit des Analogen und Digitalen.21
Dritte Kultur Wir haben darauf aufmerksam machen wollen, daß mit dem algorithmischen Bild notwendigerweise sowohl der analoge wie der digitale Blick verbunden sind. Wir wollen die beiden Perspektiven abschließend als Indikatoren für den eher künstlerischen und den eher wissenschaftlichen Zugang zur Welt nehmen. In dieser Unterscheidung sprechen wir die Differenz von geistes- und naturwissenschaftlicher Tradition an, die schon Hermann L. F. von Helmholtz (1821-1894) leidvoll bewußt war und die vor fast einem halben Jahrhundert Charles P. Snow auf den Begriff der Zwei Kulturen gebracht hat, der literarischen und szientifischen nämlich, wie er sie nannte. Kreuzer 1987 enthält in deutscher Übersetzung den Vortrag, in dem Snow 1959 die These vertrat, daß geistes- und naturwissenschaftliche Tradition sich mit den unterschiedlichen Methoden ihrer Erkenntnisgewinnung einander so sehr entfremdet hätten, daß beide als verschiedene Kulturen zu betrachten seien, die mehr als nur spezialisierte Sprachspiele trennten. Die damals aufbrechende heftige Kontroverse ist ebenfalls in Kreuzer 1987 nachzulesen.22 Aus relativer Vergessenheit wurde der Streit hervorgeholt, als in den 1980er Jahren mit dem radikalen Konstruktivismus, mit der neuen Kybernetik, mit der neurokognitiven Forschung und dem Einzug informationstechnischer Begriffe und Methoden in die Biologie sowie der digitalen Medien in die Kunst-, Literatur-, Musik-, Erziehungs-, Museums- und allgemein in die Kulturwissenschaften sich die Notwen21 Vgl. Max Bense: Aesthetica Baden-Baden: agis 1965. 22 Vgl. Helmut Kreuzer (Hrsg.): Die zwei Kulturen. Literarische und naturwissenschaftliche Intelligenz. C. P. Snows These in der Diskussion, München: dtv 1987.
Zwei Weisen, das Computerbild zu betrachten
147
digkeit eines Brückenschlages zwischen den Disziplinen aufdrängte. Heute sammeln sich manche bewußt disziplinäre Grenzen überschreitende Kräfte unter dem Banner einer Dritten Kultur.23 Eine der Kritischen Theorie verpflichtete Habilitationsschrift nimmt ihren Ausgang zu einem neuen Begriff von Bildung in einer ausführlichen Schilderung der Position von Snow.24 Für unsere Betrachtung interessant ist hieran die Beobachtung, daß die Sache der neuen, nämlich digitalen Medien selbst nur schwer im Rahmen disziplinärer Grenzen zu halten und zu behandeln ist. Das wird anerkannt, jedoch bisher noch hilflos geformt in Medientechnik, Medieninformatik, Medienpädagogik, Medienökonomie, Mediengestaltung und vielleicht weiteren Subdisziplinen – was bleibt auch ohne Sprung? Stellen die digitalen Medien jedoch das technische Substrat einer tiefgreifenden gesellschaftlichen Transformation dar, die mit Mediatisierung oder Semiotisierung aller Verhältnisse wohl am treffendsten zu bezeichnen wäre, so können wir uns mit derartigen Attributierungen nicht zufrieden geben. Träger einer solchen ›dritten‹ kulturellen Bewegung werden Menschen sein, die anschauliche mit analytischer Erkenntnis vereinen; denen das Unmittelbare nicht entschwindet, wenn das Vermittelte in den Vordergrund rückt; die sich nicht über analog oder digital, sondern über das eine im anderen Gedanken machen. Uns scheint, daß im digitalen Medium, im algorithmischen Zeichen, im Gewebe von Bild-&Text Gegenstände aufgezogen sind, die eine kulturelle Wende bedeuten können, hinter der Analoges und Digitales sich nicht mehr gegenseitig ausschließen.25 Mit Erstaunen aber ist zu vermerken, daß Max Bense, der alte Unruhestifter zwischen den Disziplinen, vor allen anderen den Diskurs eröffnet hatte. Im Vorwort zu seinem Traktat Descartes und die Folgen spricht er von den Traditionen humanistischer und technischer Bildung, die ästhetischen bzw. funktionellen Bildungsbegriffen folgen, die Welt 23 Vgl. John Brockman (Hrsg.): The third culture. Beyond the scientific revolution, New York: Touchstone 1995. 24 Vgl. Peter Euler: Technologie und Urteilskraft, Weinheim: Beltz Deutscher Studien Verlag 1999. 25 Wenigstens am Rande wollen wir vermerken, daß Goodman in seinem berühmten Werk dem Unterschied von analog und digital eine eigene Begrifflichkeit widmet: die Dichte und Differenziertheit eines Systems. Vgl. Nelson Goodman: Sprachen der Kunst. Entwurf einer Symboltheorie, Frankfurt/M.: Suhrkamp 1997, S. 154ff und den Beitrag von Thomas Hölscher in diesem Band.
148
Frieder Nake und Susanne Grabowski
ästhetisch rechtfertigen oder technisch umgestalten, die Universalität beanspruchen oder Spezialität pflegen.26 Solange nicht in der Anstrengung einer Synthese beide aufgehoben würden, blieben Rationalität wie Hermeneutik beschränkt und gebrochen. Hier liegt eine Kritik an Descartes vor, die die Folgen von dessen Genie nicht beweint, sondern vor der Zeit so wendet, daß Bewegung möglich wird: geistige Bewegung. Was ist das Digitale, was das Analoge? Worin unterscheiden sie sich, wo begegnen sie sich? So hatten wir eingangs die Fragen gestellt. Zwei Sichtweisen haben wir identifiziert, die sich ergänzen und nur miteinander, nicht gegeneinander gestellt werden können. Sie begegnen sich, so würden vielleicht Adorno, Benjamin und ihre heutigen Schüler sagen, in einer Konstellation. Nehmen wir deren Potential an Widersprüchlichkeit auf, so gelangen wir in Bereiche neuer Einsichten, die auf Tat drängen.
Literatur Adorno, Theodor W.: Ästhetische Theorie, Frankfurt/M.: Suhrkamp. Barilli, Renato: »Wie das Zeitalter der Elektronik die visuellen Künste verändert hat«, in: Gianni Vattimo/Wolfgang Welsch (Hrsg.), Medien – Welten, Wirklichkeiten, München: Wilhelm Fink 1998. S. 127-137. Benjamin, Walter: Das Passagen-Werk. Gesammelte Schriften Bd. V-1, Frankfurt/M.: Suhrkamp 1991. Benjamin, Walter: »Lehre vom Ähnlichen«, Sowie: »Über das mimetische Vermögen«, in: ders., Medienästhetische Schriften, Frankfurt/M.: Suhrkamp 2002. S. 117-122, S. 123-126. Bense, Max: Aesthetica. Baden-Baden: agis 1965. Bense, Max: »Descartes und die Folgen. Ein aktueller Traktat«, in: ders.: Ausgewählte Schriften, Bd. 1, Stuttgart: J. B. Metzler 1997, S. 271-315. Bock, Wolfgang: Bild – Schrift – Cyberspace. Grundkurs Medienwissen, Bielefeld: Aisthesis 2002. Brockman, John (Hrsg.): The third culture. Beyond the scientific revolution, New York: Touchstone 1995. Euler, Peter: Technologie und Urteilskraft. Weinheim: Beltz Deutscher Studien Verlag 1999. Goodman, Nelson: Sprachen der Kunst. Entwurf einer Symboltheorie, Frankfurt/M.: Suhrkamp 1997. 26 Vgl. Max Bense: »Descartes und die Folgen. Ein aktueller Traktat«, in: ders.: Ausgewählte Schriften, Bd. 1, Stuttgart: J. B. Metzler 1997. S. 271-315.
Zwei Weisen, das Computerbild zu betrachten
149
Hoppé, Angelika/Nake, Frieder: »Das allmähliche Auftauchen des Computers als Medium. Ergebnisse einer Delphi-Studie«, Universität Bremen, Informatik Bericht Nr. 3 (1995). Sybille Krämer (Hrsg.): Medien, Computer, Realität. Wirklichkeitsvorstellungen und Neue Medien, Frankfurt/M.: Suhrkamp 1998. Kreuzer, Helmut (Hrsg.): Die zwei Kulturen. Literarische und naturwissenschaftliche Intelligenz. C. P. Snows These in der Diskussion, München: dtv 1987. Nake, Frieder: Ästhetik als Informationsverarbeitung, Wien, New York: Springer 1974. Nake, Frieder: »Von der Interaktion. Über den instrumentalen und medialen Charakter des Computers«, in: ders. (Hrsg.), Die erträgliche Leichtigkeit der Zeichen. Ästhetik, Semiotik, Informatik, Baden-Baden: agis 1993, S. 165-189. Nake, Frieder: »Das algorithmische Zeichen«, in: Kurt Bauknecht/Wilfried Brauer/Thomas Mück (Hrsg.), Informatik 2001. Tagungsband der GI/ OCG Jahrestagung, Bd. II, (2001), S. 736-742. Negroponte, Nicholas: Being digital, London: Hodder and Stoughton 1996. Peirce, Charles Sanders: Phänomen und Logik der Zeichen, Frankfurt/M.: Suhrkamp 1983. Reck, Hans Ulrich: »Entgrenzung und Vermischung. Hybridkultur als Kunst der Philosophie«, in: Irmela Schneider/Christian W. Thomsen (Hrsg.), Hybridkultur. Medien Netze Künste, Köln: Wienand 1997, S. 91-117. Heidi Schelhowe: Das Medium aus der Maschine. Zur Metamorphose des Computers, Frankfurt/M.: Campus 1997. Tholen, Georg Christoph: »Digitale Differenz. Zur Phantasmatik und Topik des Medialen«, in: Martin Warnke/Wolfgang Coy/Georg Christoph Tholen (Hrsg.): HyperKult. Geschichte, Theorie und Kontext digitaler Medien, Basel, Frankfurt: Stroemfeld 1997, S. 99-116. Wiesing, Lambert: Die Sichtbarkeit des Bildes. Geschichte und Perspektiven der formalen Ästhetik, Reinbek: Rowohlt 1997.
Martin Warnke
Quantum Computing
Nach gängiger Auffassung lautet eine der sympathischsten Eigenschaften heutiger Konsumentenelektronik, etwa Handheld oder Handy: ihre buchstäbliche Handlichkeit. Nicht so wie in der Frühzeit elektronischer Technik, in der das Wort ›Rechnerarchitektur‹ sich noch auf Objekte in Wohnzimmergröße bezog oder schon einmal zwei kräftige Männer vonnöten waren, um das experimentelle Mobiltelefon aus dem Kleinlaster zu hieven. Alles scheint nun tragbar, und an die Tragbarkeit knüpft sich die Vorstellung, man könne diese Dinger, wenn man nur wolle, einfach wegwerfen, weit von sich schleudern, um sich ihrer zu entledigen.1 Das ist, wir ahnen es, natürlich lediglich eine Wunschvorstellung. Denn so wie Linus ohne seine Schmusedecke überkommt uns Nervosität, wenn wir herumtasten und das Handy nicht mehr fühlen oder die vertraute Beule in der Hemdtasche fehlt, mit der wir uns unseres Organizers versichern. Wir würden also die Gadgets nicht mehr fortwerfen wollen, auch dann, wenn wir es noch könnten. Aber selbst das Ungewollte wird so einfach in der Zukunft nicht mehr sein. Denn wenn man sich auf zweierlei verlassen kann in der Computerei, dann ist es der Ärger über den Wort-Prozessor des Marktführers und das Mooresche Gesetz. Über Ersteres lohnt sich nicht zu reden, gewisse Plagen scheinen nicht ausrottbar zu sein, aber Letzteres kann uns Anlaß zu Spekulationen geben. Bekannterweise prognostiziert das Mooresche Gesetz, aufgestellt 1965 vom Mitbegründer von Intel, daß sich die Packungsdichte von 1 Die Feuilletons haben davon berichtet, daß sich zumindest in Finnland noch einige wenige Menschen erlauben, genau dies in Form der Disziplin ›Handy-Weitwurf‹ auch tatsächlich zu praktizieren. Wir konnten lesen: »Eine negative Grundeinstellung zu modernem Kommunikationsgerät ist nicht Pflicht, aber sicher hilfreich.« (http:// www.heise.de/newsticker/meldung/38914, 3.1.2005)
152
Martin Warnke
Chips alle eineinhalb Jahre verdoppelt, was dasselbe ist wie eine Miniaturisierung in der Fläche um den Faktor Zwei in derselben Zeit. Die Computerindustrie hat sich brav an die Vorhersage gehalten, und so kam es dann auch, daß Moore’s Law2 mit hoher Verläßlichkeit seit langem gültig ist: Liest man Moores Gesetz anders herum,3 trägt man also die Größe eines Schaltelements gegen die demnächst verstreichenden Jahre auf, dann wachsen die Bäume plötzlich nicht mehr in den Himmel, sondern die Zahl der Atome, die zur Repräsentation eines Bit noch erforderlich ist, verdunstet gegen Eins:
2 Vgl. Communications of the ACM, Vol. 41 No. 8 (1998), S. 50. 3 Vgl. Colin P. Williams/Scott H. Clearwater: Ultimate Zero and One. Computing at the Quantum Frontier, New York: Copernicus 2000, S. 6.
Quantum Computing
153
Es dauert nicht mehr lange, dann wird es schwer werden, einen Computer zu fassen zu bekommen, geschweige denn, sich seiner mittels Handgreiflichkeiten zu entledigen. Die Autoren des einschlägigen Buchs über das Quantencomputing »The ultimate zero and one«, Colin Williams und Scott Clearwater, drücken das so aus: »Computers are starting to disappear before our very eyes by becoming part of the fabric of our world.«4 Computer werden eher sein wie Staub, den man nur unvollkommen abklopfen kann, wie Feuchtigkeit, die in alle Ritzen kriecht, wie Rußpartikel in der Atemluft, gegen die nur noch katalytische Filter und auch die nur unvollkommen helfen. Wenn wir den Fortschritt der Rechnertechnik, die Zukünfte des Computers, ungebrochen weiterdenken, mithin an der conditio sine qua non der Computerindustrie festhalten, verlassen wir die Fertigungsbedingungen des klassischen Computers, betreten die Domäne des transklassischen Quantencomputers. Das gerade gezeigte Diagramm sagt aus, daß die Miniaturisierung die Computerbausteine etwa um das Jahr 2020 herum auf Atomgröße geschrumpft haben wird. Für Speicher gibt es erste Beispiele5, bei denen eine Speicherstelle aus einem Silikonatom besteht, dessen An- oder Abwesenheit die binären Speicherwerte repräsentiert. Dieses Atom sitzt in einer Zelle aus neunzehn Goldatomen, so daß wir auf insgesamt zwanzig Atome pro Bit kommen, was schon dichter ist als die Methode, die Mutter Natur bei der DNA einsetzt und die zweiunddreißig Atome pro Bit verbraucht.
4 Ebd., S. 3. 5 Vgl. Roland Bennewitz/Jason N. Crain/Armen Kirakosian u. a.: »Atomic scale memory at a silicon surface«, in: Nanotechnology 13 (2002), S. 499–502.
154
Martin Warnke
Die absolute Grenze der Miniaturisierung liegt bei ungefähr einem Atom pro Bit.6 Die wird spätestens, so Moore’s Law, im Jahr 2020 erreicht werden, dem voraussichtlichen Jahr meiner Pensionierung als Rechenzentrumsleiter. Ich kann dann das im Folgenden geschilderte Problem getrost meiner Nachfolge überlassen und aus dem Ohrensessel heraus zusehen, was geschehen wird. Die Geschehnisse werden uns dazu zwingen, die gewohnte Vorstellung von der Materialität unserer Computer über Bord zu werfen, denn auf atomarer Skala ist die Natur und sind die Artefakte nur noch mit Hilfe der Quantenphysik zu beschreiben. Von ihr hat der PhysikNobelpreis-Träger Richard P. Feynman, der eigentlich immer ein blitzgescheiter Zeitgenosse mit extrem guter Auffassungsgabe war, der Entscheidendes zur Quantenphysik beigetragen hat, behauptet, er kenne niemanden, der sie wirklich verstehe. Und er schloß sich selbst mit ein. Die Quantenphysik ist unglaublich genau in ihren Vorhersagen. So sagt sie voraus, wie stark der Magnet ist, den das Elektron durch ständige Rotation seiner Elementarladung erzeugt. Im Experiment kann man diese Größe, das ›Bohrsche Magneton‹, messen, und auf sieben Stellen genau7 stimmt die Vorhersage mit der Messung überein, also auf ein Zehntel Millionstel genau. Das heißt schon etwas: spekulativ kann man eine Theorie nicht nennen, die zu solcher Präzision in der Lage ist. Sie ist aber nicht nur unglaublich genau, sondern auch genau genommen völlig unglaublich. Sie bricht mit unseren Vorstellungen einer Dingwelt (mit der Betonung auf einer Welt oder auf dem Ding, je nach Sichtweise, ich komme noch dazu), und sie bricht mit ihnen bis auf viele viele Stellen rechts vom Komma exakt. Ihr Name rührt daher, daß die Annahme von Quanten, von unteilbaren elementaren Grundmaßen, aus denen die Mikrowelt aufgebaut ist, die seltsamen Phänomene erklären kann, mit denen sich die Physik um die Wende des neunzehnten zum zwanzigsten Jahrhundert plagte, etwa der Farbe, in der das Innere eines heißen Ofens leuchtet. So ist eben auch das Licht in Quanta abgemessen, mußte Max Planck widerstrebend postulieren, und nicht etwa beliebig verdünnbar: macht man das Licht sehr schwach, so zerfällt es in einzelne Lichtteilchen, die Photo-
6 Da ein Atom in verschiedenen Zuständen sein kann, liegt die Grenze in Wirklichkeit noch darunter. 7 Vgl. Anton Zeilinger: Einsteins Schleier. Die neue Welt der Quantenphysik, München: C. H. Beck 2003, S. 147.
Quantum Computing
155
nen. Und dennoch gibt es die bekannten Interferenzbilder, wie man sie von Licht- und von Wasserwellen kennt, auch dann, wenn das Licht so schwach ist, daß es in einzelnen Photonen durch den Doppelspalt rieselt. Warum ist das so ungewöhnlich? Weil Interferenz8, die Überlagerung von Wellen, halt ein Wellen- und kein Teilchenphänomen ist – zumindest in der uns gewohnten Makrowelt:
Und wie soll das gehen mit einzelnen Photonen? Es geht jedenfalls. Man kann es überprüfen mit Hilfe des Doppelspalt-Experiments, das Niels Bohr folgendermaßen aufgezeichnet hat:9
Und, von der Seite:
8 Eine hübsche Visualisierung findet man z. B. unter http://www.pk-applets.de/phy/ interferenz/interferenz.html und unter http://www.didaktik.physik.uni-erlangen.de/ grundl_d_tph/msm_qm/msm_qm_03d.html, letztere Seite lieferte auch das Bild. 9 Vgl. Niels Bohr: »Discussion with Einstein on Epistemological Problems in Atomic Physics«, in: Paul Arthur Schilpp (Hrsg.), Albert Einstein. Philosopher-Scientist, La Salle, Illinois: Open Court 1949, S. 199-241, hier S. 216 und 219.
156
Martin Warnke
Solange anständige Wellenfronten auf den Doppelspalt treffen und für Wellentäler und -berge sorgen, mag das ja einleuchtend sein; aber für nacheinander durch die beiden Spalte laufende einzelne Photonen, für die ein Fotopapier die charakteristischen Streifenmuster abliefert, auch? Und nun wird es noch verrückter: Man kann dasselbe auch mit massiven Teilchen machen, etwa mit Elektronen, die zugegebenermaßen sehr leicht sind. Sie liefern auch die Streifen, als wären sie Wasserwellen. Und sogar auch mit ziemlich großen Gebilden, etwa den sechzig Kohlenstoff-Atomen eines Fullerens10, das aussieht11 wie ein Fußball, bekommt man das Phänomen der Interferenz:
Die Experimentralphysiker sind im Moment dabei, Interferenz zwischen immer größeren Materiestückchen nachzuweisen. Es sind auch schon Viren ins Auge gefaßt worden. Übertragen ins Alltagsleben hieße das, daß hinter der berühmten Torschußwand aus der Sportschau die Bälle nicht nur direkt hinter den Löchern oben links und unten rechts in der Dekoration des Studios landen, sondern eben auch, wenn man nur oft genug schießt, in dem Bereich direkt zwischen den Löchern. Vorstellen kann man sich das nicht. Aber man kann einen Formalismus entwickeln, der dann die oben erwähnte legendäre Präzision in der Vorhersage produziert – Augen zu und durch. Und dieser Formalismus geht ansatzweise so:
10 Vgl. Anton Zeilinger: Einsteins Schleier, S. 25 f. 11 http://www.ivw.uni-kl.de/Deutsch/Projekte_Partner/Proj_Abt2/Einzelprojekte/ Fullerene.jpg
Quantum Computing
157
Jedes quantenphysikalische System, etwa ein Fulleren, ein einzelnes Elektron, ein Photon oder ein Molekül oder Atom, läßt sich durch den Zustand beschreiben, in dem es ist. Das ist nicht Neues und war schon in der klassischen Physik so. Nehmen wir als Beispiel die Polarisation eines Photons, die horizontal in x-Richtung oder vertikal in y-Richtung sein kann. Sie kennen das wahrscheinlich noch von den schicken Polaroid-Sonnenbrillen, die in meiner Jugend modern waren. Mit denen konnte man reflektionsfrei durch Wasseroberflächen schauen, und mit dreien davon konnte man lustige Sachen machen, wir kommen noch dazu. Wenn die Polarisation in x-Richtung liegt, kann man sich das so vorstellen, daß das Licht, das ja eine elektromagnetische Welle ist, ihren elektrischen Feldstärkevektor eben in x-Richtung, horizontal, und nur dort, schwingen lässt. Entsprechendes gilt für die Richtung senkrecht dazu, vertikal:12
Wenn man die Polarisationsrichtung eines Photons mit einem Polarisationsfilter mißt, dann haben alle hindurchkommenden Photonen die Polarisationsrichtung des Filters. Für das obere Photon, mit der Polarisationsrichtung in die senkrechte y-Achse, schreibt man |y> und das andere, dessen Schwingung in x-Richtung verläuft, |x> Jedes Photon, das völlig durch das senkrecht stehende Polarisationsfilter kommt, ist ein reines |y>, jedes, das völlig durch ein waagerechtes Filter kommt, ein reines |x>. 12 http://www.ihf.de/~schoene/unter_texte/texte/flachbildschirm/img005.gif
158
Martin Warnke
Allgemein kann man jedes Photon als eine Kombination eines |x>und eines |y>-Photons schreiben: |photon> = c1|x> + c2|y>. Das wird beispielsweise dann nötig sein, wenn seine Polarisationsrichtung zwischen x- und y-Achse liegt, etwa im Winkel von 45°: |45°> = 1/√2|x> + 1/√2|y>. Und nun wird es seltsam: Was passiert, wenn man solche schrägen Photonen durch einen y-Filter schickt, einen senkrechten? Alle Photonen, die hindurchkommen, sind dann reine |y>, nicht etwa halb so helle |45°>-Photonen. Denn die Lichtenergie kann man nicht weiter unterteilen, sie ist ja quantisiert. Aber es kommen nur halb so viele hindurch. Natürlich passiert dasselbe für die x-Richtung. Richtig seltsam ist das dann, wenn man von einzelnen Photonen redet. So eines kann ja nun wirklich nur entweder durch das Filter gehen oder von ihm absorbiert werden. Halb durch oder halb absorbiert ist denkunmöglich. Es bleibt nichts anderes übrig, als den Ausgang des Experiments mit Hilfe von Wahrscheinlichkeiten zu beschreiben: mit der Wahrscheinlichkeit von 50% kommt es durch den y-Filter – also schafft es jedes zweite im Mittel –, mit der gleichen Wahrscheinlichkeit durch das x-Filter, ob es durchkommt, ist für den Einzelfall vollständig unvorhersehbar. Der Formalismus der Quantenphysik beschreibt das so: Jedes Photon ist die Überlagerung eines |x> mit einem |y>. Es ist gleichzeitig ein |x> und ein |y>, mit bestimmten Anteilen von beidem, bemessen nach den beiden Koeffizienten c1 und c2: |photon> = c1|x> + c2|y>. Es kommt mit der Wahrscheinlichkeit |c1|2 durch das x-Filter und mit der Wahrscheinlichkeit |c2|2 durch das y-Filter. Man kann übrigens tatsächlich ein einzelnes Photon nachweisen, es macht dann ›klick‹ im Photomultiplier, wenn es durchkommt. Mit Polaroid-Sonnenbrillen ist solch ein Experiment leicht zu machen: erst schickt man alles Licht durch ein Brillenglas, das, sagen wir, in x-Richtung gedreht ist. Dann verkreuzt man die andere Sonnen-
Quantum Computing
159
brille quer dazu in y-Richtung, und nichts kommt mehr hindurch. Nun hat man Glück, wenn noch eine Dritte mitspielt. Die hält dann ihre Brille im Winkel von 45° zwischen die erste x-Brille und die zweite yBrille. Und plötzlich wird es ein wenig hell! Warum? Weil durch die erste Brille nur reine |x> kommen: die kann man schreiben als 1|x> + 0|y>. Das y-Filter läßt – in der ersten Variante des Experiments mit zwei Brillen – mit der Wahrscheinlichkeit |0|2 = 0 keine Photonen hinten mehr durch. Hält man aber eine 45°-x-y-Brille – die von der Dritten im Bunde – zwischen die erste und die zweite, entkommen dieser nur reine 45°-Photonen: |45°> = 1/√2|x> + 1/√2|y>, denn die Messung durch die dazwischen gehaltene Brille wurde ja in 45°-Richtung gemacht. Die Wahrscheinlichkeit, mit der hinter dem schrägen Polarisationsfilter solche reinen |45°>-Photonen erscheinen, beträgt |1/√2|2 = 1/2, weil ja vor dem Filter nur reine |x>-Photonen da waren und der Anteil der |x> an den |45°> gerade einmal 1/√2 beträgt. So will es der Formalismus der Quantenphysik. Nun werden die Photonen zum Schluß wieder in y-Richtung gefiltert, und es bleiben von den 45°-Photonen |1/√2|2 = 50%, ihr |y>Anteil, übrig – und es bleibt nicht ganz dunkel. Insgesamt kommen dann durch den letzten Filter noch die Hälfte der Hälfte, also ein Viertel, derer, die es durch den ersten geschafft haben. Die sogenannte Kopenhagener Interpretation, maßgeblich von Niels Bohr entwickelt, deutet ein solches Experiment so, daß jedes Photon als Überlagerung zweier verschiedener Sorten von Photonen beschrieben werden muß. Die Geschichte der Überlagerung, also die Veränderung der Werte der Koeffizienten mit der Zeit, wird von der berühmten Schrödingergleichung beschrieben, von der hier nur gesagt sein soll, daß sie eine Wellengleichung ist. Deshalb kann man mit ihr Teilchenexperimente beschreiben, die Wellenphänomene aufweisen, wie die Beugungsmuster beim Doppelspalt-Experiment mit massiven Objekten wie Elektronen oder Fullerenen. Unzumutbar und dennoch unvermeidlich bleibt wohl für immer die Doppelexistenz der Materie als Teilchen und als Welle. Sir William Henry Bragg wird das Wort zugeschrieben: »Physisists use the wave theory on Mondays, Wednesdays, and Fridays, and the particle theory
160
Martin Warnke
on Tuesdays, Thursdays, and Saturdays.«13 Nur, daß es noch viel schlimmer ist, und der Montag auf einen Dienstag, der Mittwoch auf einen Donnerstag und der Freitag auf einen Samstag fällt, weil man nämlich in der Physik seit den hundert Jahren der Existenz der Quantenphysik immer beide Theorien zugleich benutzen muß. Neben der wellenartigen Überlagerung von Systemzuständen muß für das weitere noch eine sehr wichtige Besonderheit der Quantenphysik erwähnt werden: durch die Messung des Zustands – bei den Photonen etwa durch das Aufstellen eines Polarisationsfilters – beeinflußt man das zu messende System. Wenn es vor der Messung noch als Überlagerung verschiedener Zustände existierte, ist es nach der Messung immer in einem reinen Zustand, einem sogenannten Eigenzustand. Es gibt den unbeteiligten externen Beobachter also nicht mehr. Jede Messung stört das System und zwingt es, von einer Zustands-Überlagerung in einen reinen Zustand überzugehen. Also versuchen wir jetzt noch, das Doppelspalt-Experiment zu beschreiben. Jedes Quanten-System, das durch den Spalt gekommen ist, um später auf den Schirm zu treffen, ist eine Überlagerung aus |oben>, was heißt, daß es durch den oberen Spalt gegangen ist, und |unten>, dem reinen Zustand für’s Hindurchfliegen durch den unteren Spalt: |durch> = c1|oben> + c2|unten> Wir haben, wohl gemerkt, keine Messung gemacht, darum haben wir eine Mischung aus beiden Zuständen. Die Schrödinger-Gleichung macht dann wunderbare Wellen aus c1|oben> und c2|unten>, und am Ende, auf dem Schirm, können sich die beiden Zustände überlagern, Interferenz veranstalten, als wären es Wasserwellen, in die man zwei Steine hat plumpsen lassen. Doch: was ist eigentlich passiert? Wenn man das Experiment mit einzelnen Quantensystemen macht, einzelnen Fullerenen z. B.: wie können die interferieren? Sie gehen doch, so sagt der ›gesunde Menschenverstand‹, entweder oben oder unten durch den Spalt. Ein anständiges ›Ding‹, ein Teilchen, würde sich so verhalten. Es hätte einen definierten Ort zu jeder Zeit, es könnte nur oben oder unten 13 Colin P. Williams/Scott H. Clearwater: Ultimate Zero and One, S. 11.
Quantum Computing
161
hindurch. Wie könnte es oben und unten gleichzeitig durch den Spalt treten? Hier wurde 1957 eine atemberaubende Interpretation vorgeschlagen, und zwar von Hugh Everett.14 Sie lautet: jedes Teilchen geht auch wirklich durch nur einen Spalt, und zwar jedes in einem separaten Universum. Immer, wenn es eine Alternative gibt, entsteht auch ein eigenes Universum, in dem das dann auch tatsächlich passiert. Am Ende werden alle Universen aufgesammelt, und es entsteht das Streifenmuster. Kein Naturgesetz spricht dagegen, aber dennoch ist die These ziemlich gewagt.15 Die andere Schule, die von Niels Bohr, hat die Kopenhagener Deutung vorgeschlagen, die besagt: Realität hat nur das wirklich ausgeführte Experiment, es macht keinen Sinn, danach zu fragen, ob das ›Ding‹ oben oder unten durchgegangen ist. Es gibt auch keine zwei verschiedenen ›Dinge‹, die gleichzeitig existieren, sondern nur den Interferenzstreifen. Augen zu, den Formalismus anwenden, und durch! Jedenfalls, wenn man nachsieht, eine Messung macht, und herausbekommt, ob das Teilchen unten oder oben den Doppelspalt passiert hat, dann verschwindet der Interferenzstreifen. Das ist ja auch kein Wunder, denn Messungen liefern immer reine Eigenzustände, und nur |oben> oder nur |unten> geben keinen Anlaß zu irgendeiner Interferenz wie bei den Wasserwellen. Mit einer Augen-zu-und-durch-Haltung läßt sich die mikroskopische Welt grandios in Formeln und Zahlen fassen, versucht man jedoch, wieder von ›Wie‹- auf ›Was‹-Fragen umzustellen – was man vielleicht gerade deshalb nicht tun sollte, und wovon abzuraten Niklas Luhmann nicht müde wurde –, stellt man also die Frage nach dem ›Was‹, dann gerät man in sehr unangenehme epistemologische Dilemmata. Vor meinem geistigen Auge sehe ich schon die Seins-Sucher mit diesen Widrigkeiten ringen, sich die ontologischen Haare raufen, ob nun das Ding im Multi- oder die Überlagerung separater Zustände im einen Kopenhagener Universum noch zu retten sei. Genau diese Widrigkeiten machen aber den Pfiff des Quantencomputing aus, um das es als unvermeidlicher Utopie der IT nun gehen soll. 14 Vgl. Hugh Everett III: »›Relative State‹ Formulation of Quantum Mechanics«, in: Reviews of Modern Physics Vol. 29 #3 (July 1957), S. 454-462. Vgl. dazu auch David Deutsch: Die Physik der Welterkenntnis, München: DTV 2000. 15 Eine Liste von frequently asked questions zur Theorie der Multiversen mit Literaturangabe findet man unter http://www.hedweb.com/manworld.htm#faq.
162
Martin Warnke
Irgendwelche Vorstellungen deterministischer robuster Maschinen werden gänzlich ad acta zu legen sein: die Ununterscheidbarkeit von Lesen und Schreiben auf der Skala des Planckschen Wirkungsquantums wird dazu führen, unsere Computermetaphern umzuformulieren. Etwa der Begriff eines ›Displays‹, das lediglich ›abzulesen‹ wäre, würde absurd, weil mit dieser Messung der beteiligten Quantenzahlen der Zustand des Computers selbst verändert werden müßte, man also auch gleichzeitig mit der Ausgabe eine Eingabe vornähme. Für die Kryptographie ergeben sich neue Möglichkeiten, etwa die absolute Fälschungssicherheit, für eine Medientheorie des Computers hieße das: neue Aufgaben, neue Metaphern, neue dicke Bücher. Fangen wir beim Bit an. Das heißt dann nicht mehr Bit, sonden Qubit, es ist kein Schalter mehr, der nur in einer von zwei definierten Schaltzuständen sein kann, wenn man ihn nicht kaputt nennen will, sondern er kann sich in einer Überlagerung seiner beiden Eigenzustände befinden. Das ist quantenmechanisch, wie wir gesehen haben, völlig normal. Ein Photon etwa hat die beiden Eigenzustände |x> und |y>, es wird dann beschrieben als Superposition dieser beiden Eigenzustände: |photon> = c1|x> + c2|y>. In Anlehnung an Matthäus 5, Kapitel 1, Vers 37 kann man nun sagen: Eure Rede aber sei nicht mehr: |x>|x>, |y>|y>. Und was darüber ist, das ist auch nicht mehr vom Übel, sondern einfach nur Quantenmechanik. Wie sehen nun Qubits aus? Sie werden physikalisch realisiert durch irgendein geeignetes physikalisches System, das zwei reine Ausprägungen, zwei Eigenzustände hat. Etwa durch ein Photon mit seinen beiden Polarisationsrichtungen, ein Elektron mit seinen beiden Spin-Zuständen, ein Atom, das zwei Zustände haben kann oder irgend etwas anderes. Nennen wir den einen Zustand |0>, den anderen |1>, die als reine Zustände die klassischen Bit-Werte 0 und 1 repräsentieren. Typische Beispiele für den Zustand, in den man ein einzelnes Qubit bringen kann, wären dann etwa |0>, |1>, aber eben auch (|0> + |1>)/√2 oder (|0> - |1>)/√2.
Quantum Computing
163
Nun sieht man schon: ein Qubit kann in Überlagerung gleichzeitig eine Null und eine Eins repräsentieren! So etwas geht in klassischen Computern nicht, da muß man die Bit-Stelle nacheinander mit dem einen und dann dem anderen Wert beschicken und jeweils durchrechnen lassen. Verwendet man nun Qubits in Quantencomputern und rechnet mit ihnen, dann wird das Ergebnis wieder in dem Register aus Qubits stekken, das nun auszulesen wäre. Rechnen heißt dabei, daß man ein geeignetes Experiment anstellt, durch das ein Quantencomputer-Algorithmus realisiert wird. Am Ende liest man am Qubit-Register ab, was die Rechnung erbracht hat. Aber was heißt hier Lesen am Ende? Messen muß man dazu sagen, und Messen ist auch immer Schreiben, Präparieren und Zwingen in einen Eigenzustand. Man darf also nur möglichst wenig zusehen beim Quantencomputing, jeder Blick ins Innere, der über Zwischenergebnisse und Details einer Berechnung Auskunft gäbe, vielleicht die Begründung eines behaupteten Resultates einer Quantencomputer-Berechnung abgäbe, würde die Berechnung selbst unweigerlich zum Erliegen bringen. Also wieder: Augen zu und durch. Man kann also ein Register aus Qubits beschicken mit QubitMustern. Nicht nur pro Speicherstelle mit einer |0> oder einer |1>, sondern eben mit beidem zugleich. Ein acht Qubits breites Register speichert mithin nicht nur eine von 256 verschieden 0-1-Kombinationen 00000000 00000001 00000010 bis 01111110 01111111 11111111, sondern alle 256 zugleich, denn alle Kombinationen von |0> und |1> sind ja an jeder Stelle zugleich in Überlagerung möglich. Man muß also nur ein Mal rechnen, um alle 256 Kombinationen von 0 und 1 dem Quanten-Algorithmus zu unterwerfen, nicht 256 Mal. Und die Berechnung selbst? Jetzt wird es richtig strange: der Zustand des Quantensystems, die Anteile an |0> und |1> in ihrer Überlagerung, entwickeln sich gemäß der Schrödingergleichung, die eine Wellengleichung ist. Und wenn dann z. B. im Verlauf der Berechnung die Elektronenspins miteinander interagieren oder Photonen gespiegelt und durch Polarisationsfilter und Doppelspaltblenden geschickt wer-
164
Martin Warnke
den, aus denen die Schaltgatter des quantum computing bestehen werden, dann überlagern sich die Teilchen in einer Weise, wie es nur Wellen können: sie interferieren, sind überall gleichzeitig, schlagen alle Wege ein, gehen etwa durch beide Öffnungen des Doppelspalts, benehmen sich wie Spin-up und auch wie Spin-down und liefern am Ende als Resultat die Mélange aller dieser Parallel-Entwicklungen, genau so, als hätten sich alle Eigenzustände der Startkonfiguration separat entwickelt und als wären dann alle Resultate der reinen Zustände im Mischungsverhältnis der Startkonfiguration zum Resultat miteinander verschnitten worden. Ein Acht-Qubit-Register hätte dann also gestattet, alle 256 Kombinationsmöglichkeiten parallel durchzurechnen und zur Resultat-Superposition der acht Qubits aufzuentwickeln. Das ist die Quantenparallelität, die dadurch entsteht, daß Teilchen eben auch Wellen sind, die mit sich selbst und anderen Wellen, die wieder Teilchen sind, interferieren. Wächst die Zahl der Register-Qubits, dann steigt die Parallelität exponentiell, und zwar zur Basis 2. Der Welle-Teilchen-Dualismus sorgt für die enorme Leistungsfähigkeit der Quantencomputer. Im Zyklus des prepare-evolve-measure, der die altvertraute Eingabe, Verarbeitung, Ausgabe ersetzen wird, werden alle möglichen Anfangskonfigurationen in alle zugehörigen Endkonfigurationen überführt. Schafft man also die Lösung eines quantenrechnerisch lösbaren Problems für ein schmales Register, dann braucht man nur noch größere Register zu bauen, um exponentiell leistungsfähigere Komputationen auszuführen. Wo es um schiere Rechenleistung geht, etwa beim Brechen eines kryptographischen Codes, da sind Quantencomputer in ihrem Element: ein sechzehn-Qubit-Schlüssel, der 65536 Kombinationen beherbergt, wird mit nur dem doppelten maschinellen Aufwand des acht-QubitSchlüssels bearbeitet, der nur 256 Kombinationen codieren kann, was ja nur ein Zweihundersechsundfünzigstel davon ist. Shors Quantenalgorithmus,16 der Zahlen in ihre Primfaktoren zerlegt, ist so ein Beispiel, er wurde 2001 mit einem Sieben-Qubit-Quantencomputer realisiert, der die Zahl ›15‹ faktorisieren konnte. Was jede und jeder von uns sofort im Kopf macht, nämlich auszurechnen, daß 15 = 3*5, ist von einer Fluor-
16 Vgl. Peter W. Shor: »Algorithms for quantum computation. Discrete logarithms and factoring«, in: 35th Annual Symposium on Foundations of Computer Science, Los Alamitos: IEEE Computer Society Press 1994, S. 124-134. Siehe auch: Colin P. Williams/ Scott H. Clearwater: Ultimate Zero and One, S. 105 ff.
Quantum Computing
165
Kohlenstoff-Eisen-Verbindung mit sieben Spins erledigt worden, was heißt, daß das nicht in irgendeinem Kopf passiert ist, weil da ja gar kein Kopf war, sondern in einer quittegelb leuchtende Suppe im Reagenzglas.17
Wo beim klassischen Computing Moores Gesetz der Rechenleistung berechenbare zeitliche Schranken setzt, stellt sich beim Quantencomputing die Frage der Registerbreite, die sich durchaus sprunghaft vergrößern kann. Kein Public-Key-Verschlüsselungsverfahren wäre mehr sicher, wenn die entscheidenden technischen Lösungen für breite Qubit-Register gefunden werden könnten. Aber kommen wir noch einmal zur Frage des Welle-Teilchen-Dualismus zurück, zur Ursache des Quanten-Parallelismus! David Deutsch, einer der Pioniere des Quantencomputing, stellt die Frage, wie denn alle die Bitmuster im Quantenregister, etwa die 65536 im 16-Qubit-Register, und dann noch die astronomisch vielen Kombinationen der Zwischenergebnisse während der Berechnung überhaupt in Form physischer Entitäten repräsentiert werden können. Eine Überschlagsrechnung ergibt, daß schon bei mittelgroßen Problemen mehr Teilchen erforderlich wären, als es im Universum überhaupt gibt, denn wenn etwa ein Elektron oder ein Photon durch beide Schlitze eines 17 http://domino.research.ibm.com/comm/pr.nsf/pages/rsc.quantum.html
166
Martin Warnke
Spalts fliegen muß, so muß es sich eben verdoppeln, um dann hinter dem Spalt Interferenzmuster bilden zu können, und alle diese intermediären Zustände des Quantencomputers müßten ja irgendwo und irgendwie von irgendetwas repräsentiert werden, wie es bei Digitalcomputern ja unvermeidlich ist. Ein Universum wäre dann nicht genug. Es müssten so viele her, wie sich Entwicklungsalternativen ergeben, und die bildeten dann das bereits erwähnte Multiversum. Bei der Faktorisierung einer 250-stelligen Zahl schon einmal 10500. Und so stellt David Deutsch die Frage, die ihn als Pionier des Quantum Computing zum bekennenden Anhänger der Theorie der Multiversen werden ließ: »Falls also das sichtbare Universum tatsächlich die ganze physikalische Wirklichkeit umfaßt, enthält sie nicht einmal näherungsweise die Ressourcen, die zur Faktorisierung einer solch großen Zahl nötig wären. Wer hat sie dann faktorisiert? Wie und wo wurde die Rechnung durchgeführt?«18 Nicht nur die Zahl der Universen, in deren jedem einzelnen dann eine anständige Repräsentataion durch ein Bit möglich wäre, diese 1 mit 500 Nullen, sondern der Gedanke des Multiversums selbst läßt mich schwindeln, was zugegebenermaßen mein persönliches Problem und kein physikalisches Argument ist. Aber das Ding und der Digitalcomputer wären im Multiversum gerettet. Kein Teilchen müßte mit sich selbst interferieren, sich wellenhaft selbst auslöschen oder aufschaukeln, wie es ihm in dem einen Universum zuzugestehen ist, in dem es dann allerdings kein anständiges Ding mehr gibt und auch keine digitale Repräsentation der Qubitmuster, also keine Digitalcomputer selbst mehr, denn ein Digitalcomputer ohne explizite Repräsentation aller an der Rechnung beteiligten Größen ist undenkbar. Wir haben also die Qual der Wahl, das Unentscheidbare selbst zu entscheiden: wir können es vorziehen, die Welt als Einheit von geheimnisvoll mit sich selbst interferierenden Wellenteilchen zu sehen, oder die heiße ontologische Kartoffel weiterreichen und uns dazu entschließen, in einem Multiversum zu leben, das sich in jedem Moment in eine astronomisch große Zahl von miteinander geheimnisvoll interagierenden Multiversen aufspaltet, die alle wie gewohnt Teilchen besitzen, die noch Teilchen sind und die Bits der Qubit-Vielfalt realisieren können.
18 David Deutsch: Die Physik der Welterkenntnis, S. 205. Hervorhebung im Original.
Quantum Computing
167
Ich ziehe das Geheimnis der Teilchen vor, die Wellen sind, und muß daher den Schluß ziehen, daß Quantencomputer keine Digital- sondern Analogrechner sind, was jetzt noch zu belegen ist. Es gibt zunächst ein Indiz für die Analogizität von Quantencomputern: es ist mit ihnen genau wie bei den wundervollen messingglänzenden Analogrechnern des Neunzehnten Jahrhunderts: sie konnten nur ihre Spezialaufgaben, dafür aber in Echtzeit, erledigen, etwa im zeichnerischen Fluge Integrale berechnen oder Kurven rektifizieren oder Winkelfunktionen berechnen, wie z. B. der Proportionalzirkel:19
Und genau so gibt es – bislang – auch nur Spezialprobleme, auf die man Quantencomputer ansetzen kann: Faktorisierung von Zahlen, das Durchsuchen von ungeordneten Listen – ebenfalls in Echtzeit.20 Zu stark sind die physikalischen Einschränkungen der Quantenmechanik – etwa Reversibiliät –, als daß so grobschlächtig prozessiert werden könnte wie zu Turings Zeiten. Quantencomputer sind keine Simulationen von Quantensystemen, sondern nichts als sie selbst, Quantensysteme, deren Verhalten manchmal eine berechenbare Funktion in Echtzeit realisiert. Zudem sind Quantencomputer Maschinen, die abliefern, was nach Turing eben nicht berechenbar ist, Zufallszahlen zum Beispiel. Genau wie eine Wasserwelle nicht die Differentialgleichungen lösen muß, um nach allen Regeln der Hydrodynamik am Strand zu brechen, und folglich ihre Wassermoleküle auch nicht zur Repräsentation der Bitmuster einer Simulation ihrer selbst hergeben muß, so wenig muß ein Quantencomputer mit Hilfe seiner diskreten Elemente die kombinatorische Explosion seiner Qubit-Superpositionen in unserem guten alten und einzigen Universum explizit codieren – wenn man ihn als Analogrech19 www.rechenwerkzeug.de/propzirk.htm 20 Eine Übersicht bietet Colin P. Williams und Scott H. Clearwater: Ultimate Zero and One, a.a.O., Kap. 2 und 4.
168
Martin Warnke
ner akzeptiert. Er evolviert eben, nachdem man ihn präpariert hat, um am Ende seinen finalen Zustand einer Messung zur Verfügung zu stellen. Noch ein Wort zur Kryptographie, deren Sicherheit massiv durch die massive Quantenparallelität und Shors Verfahren zur Faktorisierung bedroht ist: Übertragungstechnik mit Musterabgleich, wie es das Quantencomputing zur Verfügung stellt, bei der jedes Lesen auch ein Schreiben, also ein Verändern des Datenbestandes ist, eine solche Übertragungstechnik auf Glasfaserbasis erlaubt den Austausch von Kryptographie-Schlüsseln, deren Abhorchen mit ins Beliebige steigerbarer Wahrscheinlichkeit offenbar werden würde.21 Alice und Bob könnten mit Sicherheit ausschließen, daß Eve sie abhört, und das wurde schon praktisch realisiert auf eine Distanz von zehn Kilometern.22
Lassen Sie mich bitte kurz zusammenfassen, worin die unvermeidliche Zukunft des Computers in Gestalt der Quantencomputer liegen wird: Quantencomputer werden sehr klein, auf atomarer Skala, operieren.
21 Vgl. Colin P. Williams/Scott H. Clearwater: Ultimate Zero and One, Kap. 4. 22 Vgl. Christian Kurtsiefer/Harald Weinfurter u. a.: »A step towards global key distribution«, in: Nature, Vol. 419 (2002), S. 450.
Quantum Computing
169
Quantencomputer werden Analogrechner sein, oder wir akzeptieren die Multiversumtheorie. Quantencomputer sind der Tod der Kryptographie mit öffentlichen Schlüsseln, und Quantencomputer sind der Garant für absolut abhörsichere Kommunikationskanäle. Und zu guter Letzt: eine Ontologie des Quantencomputing wird sich mit völlig neuen Phänomenen herumschlagen müssen. Nicht mehr das Binäre und Digitale allein sind deutend zu bewältigen, folgende Kategorien stehen zur Klärung an: – die der Repräsentation, – der Dinghaftigkeit und des Universums, – der Realität des Mikrokosmos. Oder aber, als durchaus realistische Alternative, wir verzichten auf Deutung, finden uns mit dem Unvermeidlichen und Unverständlichen ab, rechnen quantenphysikalisch, machen die Augen zu und: durch!
Literatur Bennewitz, Roland/Crain, Jason N./Kirakosian, Armen u. a.: »Atomic scale memory at a silicon surface«, in: Nanotechnology 13 (2002), S. 499–502. Bohr, Niels: »Discussion with Einstein on Epistemological Problems in Atomic Physics«, in: Paul Arthur Schilpp (Hrsg.), Albert Einstein. PhilosopherScientist, La Salle, Illinois: Open Court 1949, S. 199-241. Communications of the ACM, Vol. 41 No. 8 (1998), S. 50. Deutsch, David: Die Physik der Welterkenntnis, München: DTV 2000. Everett III, Hugh: »›Relative State‹ Formulation of Quantum Mechanics«, in: Reviews of Modern Physics Vol. 29 #3 (July 1957), S. 454-462. Kurtsiefer, Christian/Weinfurter, Harald u. a.: »A step towards global key distribution«, in: Nature, Vol. 419 (2002), S. 450. Shor, Peter W.: »Algorithms for quantum computation. Discrete logarithms and factoring«, in: 35th Annual Symposium on Foundations of Computer Science, Los Alamitos: IEEE Computer Society Press 1994, S. 124-134. Williams, Colin P./Clearwater, Scott H.: Ultimate Zero and One. Computing at the Quantum Frontier, New York: Copernicus 2000. Zeilinger, Anton: Einsteins Schleier. Die neue Welt der Quantenphysik, München: C. H. Beck 2003.
II Virtualität und Intermedialität
Jochen Koubek
Zur Kulturgeschichte des physikalischen Raums
Einführung »Der Weltraum, unendliche Weiten.« So beginnt die erfolgreichste Science-Fiction-Serie seit 1966, Star Trek. Um aber diesen Satz überhaupt formulieren zu können, ist eine Raumvorstellung notwendig, die es in dieser Form nicht immer gegeben hat. Die Idee eines unendlichen Raums ist kulturhistorisch relativ jung und löste erst seit dem 17. Jahrhundert das auf Aristoteles zurückgehende Raumverständnis des Mittelalters ab. Zwar können wir davon ausgehen, daß sich die physiologischen Voraussetzungen der Raumwahrnehmung im Laufe der Zeit wenig geändert haben, dennoch wurden die Vorstellung des Raums und die damit verbundenen Konnotationen tiefgreifenden Veränderungen unterworfen, von denen ich einige anhand der Meilensteine physikalischer Theorien im folgenden nachzeichnen werde. Aus Platzgründen verzichte ich auf wissenschaftshistorische Details und konzentriere mich auf das kulturgeschichtliche Umfeld der jeweiligen Theorie, die ihrerseits als mathematische Formulierung einer bestimmten Naturphilosophie interpretiert werden kann; Kulturgeschichte, nicht Theoriegeschichte ist Schwerpunkt der Darstellung.1 Die vorgestellten Theorien formuliere ich in der Sprache der Relativitätstheorie,2 ein gänzlich a-historisches Vorgehen, durch welches die Theorien aber in ihren Aussagen vergleichbar und letztendlich einfacher dar1 Eine allgemeinverständliche Einführung in die physikalische Theoriegeschichte des Raums ist z. B. »Die illustrierte kurze Geschichte der Zeit« von Stephen Hawking, Reinbek, 2000.
174
Jochen Koubek
stellbar werden, weil eine einzige Terminologie zur Beschreibung ausreicht. Ein Ereignis findet statt in einem kleinen Raumabschnitt innerhalb kurzer Zeit. Im Laufe seiner Existenz durchläuft ein Objekt verschiedene Ereignisse, die seine Geschichte ausmachen. Sie wird in einem Raum-Zeit-Diagramm als Weltlinie abgebildet, üblicherweise mit einer Dimension des Raums auf der Abszisse und der Zeit auf der Ordinate. Die Raumzeit ist die Menge aller möglichen Ereignisse im Universum, sie wird mathematisch modelliert durch einen 4-dimensionalen Vektorraum. Jeder Punkt in der Raumzeit ist ein Ereignis. Verschiedene Theorien haben in dieser Sicht die Gestalt der Raumzeit unterschiedlich interpretiert.
Aristoteles und das Ptolemäische Weltbild Aristoteles war vor allem ein systematischer Philosoph, dem es darum ging, die Gesamtheit seiner Beobachtungen unter einheitlichen Prinzipien zu ordnen. In seinem Interesse für Bewegung ging er davon aus, daß alle Dinge sich normalerweise in Ruhe befinden und einen äußeren Anstoß brauchen, um sich überhaupt zu bewegen. Fällt die Anregung weg, streben sie dem Mittelpunkt des Kosmos entgegen, wobei die Fallgeschwindigkeit mit der Masse des Objektes steigt. Die schwere Erde setzte Aristoteles daher in den Mittelpunkt des Kosmos, obwohl ihm andere Kosmologien bekannt waren. E. Dijksterhuis schreibt dazu: »Er hat sicher das Weltbild des Philolaos gekannt, in welchem die Erde um ein zentrales Feuer rotierend gedacht wurde, und möglicherweise auch das des Herakleides von Pontos, in welchem ihr wahrscheinlich sowohl eine Rotation um die Achse als auch eine Bewegung in einem Kreis zuerkannt wurde.«3 Diese Vorstellungen aber ließen sich nicht in Übereinstimmung mit Aristoteles’ systematischer Naturphilosophie bringen, so daß er sich für ein geozentrisches Weltbild entschied. Die Idee, daß jedes Objekt sich normalerweise in Ruhe befindet, solange es nicht durch eine äußere Anregung bewegt wird, bedingt die Existenz eines 2 Hier orientiere ich mich an dem Artikel »Philosophie und Geschichte von Raum und Zeit« von Klaus Mainzer in Jürgen Audretsch/Klaus Mainzer (Hrsg.) »Philosophie und Physik der Raum-Zeit« sowie an dem Text »The Light Cone« von Rob Salgado. 3 Eduard Jan Dijksterhuis: Die Mechanisierung des Weltbildes, Berlin, Göttingen, Heidelberg: Springer 1956, S. 36.
Zur Kulturgeschichte des physikalischen Raums
175
Abb. 1
ersten Bewegers, der sich selber nicht bewegt, für die Bewegung aller anderen aber direkt oder indirekt verantwortlich ist. In unsere Sprache übersetzt bedeutet dies, daß Aristoteles die Raumzeit wie folgt interpretierte (Abb. 1): Der Kubus repräsentiert die 4-dimensionale Raumzeit. Ereignisse auf jeder horizontalen Ebene finden gleichzeitig statt; der zeitliche Abstand zweier Ereignisse A und B ist der Abstand der Projektion von A und B auf eine vertikale Achse, der räumliche Abstand ist der Abstand der Projektionen von A und B auf eine gemeinsame horizontale Ebene. Die Weltlinie des ersten Bewegers ist eine senkrechte Gerade, weil dieser in absoluter Ruhe ist. Alle Personen sind sich über diese Ruhe einig, Geschwindigkeit ist laut Aristoteles absolut, weil es einen sicheren Ruhepunkt gibt. Ebenso ist die Zeit absolut, weil die Dauer zwischen je zwei beliebigen Ereignissen meßbar und die Messung überall gleich ist. Ptolemäus formte im 2. Jahrhundert n. Chr. das Aristotelische Weltbild aus, begrenzte das Universum auf die Erde im Zentrum, verteilte die Sonne, den Mond, die fünf bekannten Planeten und die Fixsterne auf acht Sphären, die an die Atmosphäre anschlossen und sich kreisförmig um die Erde drehten. Um die komplizierten Bahnen der Planeten zu erklären, führte Ptolemäus kleinere Kreise ein, die Epizyklen, auf denen sich die Planeten in ihren Sphären drehten. Was jenseits der äußersten Sphäre lag, blieb ungeklärt, auf jeden Fall war es für Menschen unergründlich. Die aufstrebende christliche Kirche akzeptierte das Ptolemäische Weltbild, ließ es sich doch einfach mit der Bibel in Übereinstimmung bringen: Die Vorstellung eines ersten Bewegers
176
Jochen Koubek
paßte gut zum christlichen Monotheismus, die Unbestimmtheit jenseits der äußeren Sphären ließ genügend Platz für den spirituellen Raum. Das mittelalterliche Raumverständnis war zutiefst dualistisch: Die griechische Trennung von Soma und Pneuma verband sich mit jüdischer Spiritualität zu der Trennung von Körper und Seele. Beide hatten ihre Sphären, es gab den Raum des Körperlichen und den Raum des Seelischen. Bedingt durch die Vergänglichkeit des Körpers und die Unsterblichkeit der Seele lag der Schwerpunkt des mittelalterlichen Interesses klar auf dem spirituellen Raum, dessen Hierarchien und Ordnungen in der Kunst dargestellt wurden. Die aus heutiger Sicht oft merkwürdige Raumlosigkeit mittelalterlicher und byzantinischer Malerei begründet sich nicht durch eine andere Wahrnehmung des physikalischen Raumes, sondern durch eine kulturelle Entscheidung, den für die Menschen wichtigeren Raum des Geistigen nachzubilden: Die mittelalterliche Malerei ist symbolisch. Die Bedeutung einer Person wurde durch ihre Größe symbolisiert, eine goldene Aura deutete die Anwesenheit Gottes an, individuelle Gesichtszüge, wie sie beispielsweise die Portraitmalerei bestimmt, spielten noch keine Rolle etc. Es herrschte eine starke Einteilung des Raumes in verschiedene Zonen unterschiedlicher emotionaler Qualitäten, vor allem gab es noch kein Verständnis eines einheitlichen Raums, wie wir es heute haben. In der Kunstgeschichte wird dies in der Regel an dem Übergang zur Perspektive gezeigt. Giottos Fresken über das Leben des Hl. Franziskus in Assisi und das Leben Christi in der Arena-Kapelle in Padua müssen auf seine Zeitgenossen revolutionär gewirkt haben, bemühten sie sich doch zum ersten Mal um eine realistische Darstellung des physikalischen Raums.4 Giotto malte so, wie er die Dinge sah und nicht so, wie er sie interpretierte. Der Betrachter erlebte die Heilsgeschichte realistisch mit, eine erste Form der Virtual Reality, wie Margaret Wertheim betont.5 Dem perspektivisch geschulten Blick fällt bei seinen Bildern aber ein Bruch innerhalb der räumlichen Darstellung auf: Während z. B. in dem Bild »Die Vertreibung der Dämonen aus Arezzo« jedes Gebäude in sich räumlich stimmig ist, zerbricht die Konsistenz untereinander. Der Gesamtraum hängt nicht zusammen, ein Problem, was erst durch die Einführung eines einheitlichen Fluchtpunktes in der Perspektive Alber4 5
Giottos Bilder sind online einsehbar in der Web Galery of Art: http://www.wga.hu Vgl. Margaret Wertheim: The pearly Gates of Cyberspace, London: Virago 1999.
Zur Kulturgeschichte des physikalischen Raums
177
tis gelöst wurde. Auch wirken die Zwischenräume flach und gotisch, was mit Augustinus zusammenhängen kann, der den Blick in den (Zwischen-)Raum als sündhafte Anmaßung ansah, ein Blick, der nur Gott vorbehalten war. Giottos Vermischung des physikalischen und spirituellen Raums zeigt sich besonders deutlich an seiner Darstellung des jüngsten Gerichts, wo wieder die alten Darstellungsformen vorherrschen. Die letztendlich wahre Ordnung ist auch bei Giotto der spirituelle Raum. Dennoch legte er die Grundlage für die visuelle Vereinheitlichung des Raums, die auch vorangetrieben wurde durch technische Entwicklungen, Entdeckungsfahrten, die Kartographie und den als zunehmend weniger sündhaft empfunden Blick in den Raum und auf Landschaften, wie Petrarcas Brief beim Besteigen des Mount Ventoux belegt.6 Die schwindende Autorität des Aristotelischen Weltbildes paarte sich mit dem wachsenden Selbstbewußtsein der Naturforscher, welche die Fehler der Ptolemäischen Planetenbewegung zu korrigieren hofften. Lieferte dessen Modell auch gute Annährungen, so verschwanden nicht wenige Schiffe mit Ladung bei dem Versuch, nach den Planetenbewegungen zu navigieren. Nikolaus Kopernikus versuchte, ein heliozentrisches Weltbild zu entwerfen, er behielt jedoch die Kreisbewegung der Planeten bei, die er auf geeignete Weise verknüpfte. Seine Kosmologie war nicht weniger kompliziert als die ptolemäische, ermöglichte aber eine erste mathematische Formulierung der Heliozentrik durch Johannes Kepler. Dieser verwarf die Kreisbahn und beschrieb Planetenbewegungen als elliptisch. Doch sollte die Umstürzung des mittelalterlichen Weltbildes mit dem Namen jenes Mannes verknüpft werden, dem mit dem Teleskop ein astronomisches Instrument zur Verfügung stand, mit dem er die theoretischen Berechnungen visuell überprüfen konnte: Galileo Galilei.
Kepler, Galileo, Newton und der Prä-Relativismus Galileos Untersuchung zum freien Fall führten ihn zu der Behauptung, daß die mechanischen Gesetze für jeden Beobachter gleich bleiben, der sich mit konstanter Geschwindigkeit auf einer geraden Linie bewegt. 6 Vgl. Peter Dinzelbacher: Europäische Mentalitätsgeschichte, Stuttgart: Kröner 1993, S. 615 ff.
178
Jochen Koubek
Galileo bestätigte Keplers Vermutungen bezüglich der Planetenbewegungen durch seine Beobachtung der Jupitermonde, die durch das neue Modell elliptischer Bahnen wesentlich einfacher zu erklären waren als in der Geozentrik. Während Galileo die Kraft, welche die Planeten auf ihren Bahnen hält, noch im Magnetismus vermutete, führte Isaac Newton die Bewegung auf Gravitation zurück und stellte die Kosmologie von Kopernikus, Kepler, Brahe und Galileo auf ein mathematisches Fundament. Die Bündelung der verschiedenen theoretischen Ansätze wird in der Geschichte der Physik unter der Überschrift »Klassische Mechanik« zusammengefaßt. Deren Entwicklung war kompliziert und verschlungen, sie ließ sich erst im 19. Jahrhundert einheitlich formulieren. Newton ging nämlich weiterhin von einem entfernten absoluten Ruhepunkt aus, was ihm die Kritik von Leibniz eintrug, der dafür argumentierte, daß es (in unseren Worten) keine Weltlinie gäbe, die vor anderen ausgezeichnet wäre. Nach Leibniz ist die Wahl eines Koordinatensystems lediglich eine Frage der Einfachheit. Es ist demnach egal, ob sich die Sonne um die Erde dreht oder umgekehrt, die Heliozentrik ist allein deshalb die bessere Wahl, weil sie sich besser berechnen läßt. Die Probleme, die sich aus der Einordnung des Trägheitsgesetzes ergaben, wurden 1885 von L. Lange durch die Einführung der Inertialsysteme gelöst, in denen die Trägheit erhalten bleibt. Verschiedene Inertialsysteme können über die sogenannte Galileotransformation ineinander überführt werden, etwa wenn man ohne Beschränkung der Allgemeinheit von einer gleichförmigen Bewegung des Inertialsystems S’ bezüglich des Inertialsystems S in x-Richtung ausgeht: x’ = x – ut; y’ = y, z’ = z; t’ = t Die Newtonsche Bewegungsgleichung F = m × a – Kraft ist gleich Masse mal Beschleunigung, Grundlage der klassischen Konzeption von Raum und Zeit – bleibt bei Anwendung der Galileotransformation unverändert, Beschleunigung ist damit eine absolute Größe. Das letztendlich auf Galileo zurückgehende Prinzip der Relativität von Bewegung beendete die aristotelische Vorstellung des absoluten Raums, weil kein Inertialsystem für sich absolute Ruhe beanspruchen kann. Zeit aber blieb absolut: Die Gleichzeitigkeit zweier Ereignisse wird aus jedem Inertialsystem heraus erkannt, auch der zeitliche Abstand zweier verschiedener Ereignisse ist in jedem Inertialsystem identisch.
Zur Kulturgeschichte des physikalischen Raums
179
Dies gilt auch für die räumliche Entfernung zweier gleichzeitiger Ereignisse zueinander. Die Setzung der absoluten Zeit bei gleichzeitiger Relativierung des Raums kennzeichnet den Prärelativismus der klassischen Mechanik. Der Übergang von Geo- zu Heliozentrik wird oft als traumatisches Erlebnis des Menschen charakterisiert, der sich aus dem Zentrum der Schöpfung verschoben sah. Diese Dezentrierung, wenn auch von der Kirche als Widerspruch gegen traditionelle Überzeugungen an sich als häretisch gesehen, bedeutete allerdings mehr einen Aufstieg als eine Degradierung, denn im aristotelischen und somit im mittelalterlichen Weltbild fiel das Schwere zum Zentrum, während das Leichte nach oben stieg. Die Sünde als Gewicht der Seele drängte die Seele des Sünders nach unten in die Hölle, während die des Bußfertigen aufstieg in die himmlischen Sphären. Das materielle, schwere Zentrum kennzeichnet den spirituell minderwertigsten Ort im Kosmos, so daß die Menschen in der neuen kosmischen Hierarchie besser dastanden als zuvor. Das entscheidende Problem des neuen Kosmos war seine prinzipielle Unendlichkeit: Wenn die physikalischen Gesetze überall gleich sind, gibt es keinen Grund mehr, das Universum als begrenzt anzunehmen. Die Fixsterne füllten den Weltenraum, der physikalische Raum dehnte sich und entzog damit der spirituellen Welt im wörtlichen Sinne den Raum. Der Himmel, Gott und die Engel wurden förmlich aus dem Universum gedrängt. Newton versuchte, das Problem zu umgehen und rettete seine Religiosität in die neuen Raumverhältnisse, indem er das Universum zum sensorium dei erklärte. Der Philosoph Berkeley verdächtigte Newton daraufhin des Pantheismus, in dem Gott mit Natur identifiziert wird. Raum, so Berkeley, dürfe nur relativ gedacht werden, »oder es gäbe andernfalls etwas von Gott verschiedenes, das ewig, ungeschaffen, unendlich, unteilbar und unveränderlich sei.«7 Darüber hinaus beruhe das Postulat eines unendlichen Raumes auf keiner empirischen Tatsache und setze einen quasi-religiösen Glauben in die Naturwissenschaft voraus – eine Tendenz, die sich im 20. Jahrhundert noch erheblich verstärken sollte. Descartes’ Versuch, die Seele in säkularisierter Form als res cogitans in den Humanismus zu übersetzen, konnte die Auflösung des spirituel7 Berkeley, zitiert nach: Jürgen Audretsch/Klaus Mainzer (Hrsg.): Physik und Philosophie der Raum-Zeit, Mannheim, Wien, Zürich: BI 1994, S. 25.
180
Jochen Koubek
len Raums nicht verhindern und gerann im aufstrebenden Empirismus schnell zur Leerformel, zusammen mit der alten spirituellen Ordnung. Das Abendland sah sich im 18. Jahrhundert mit der bis dahin undenkbaren Situation konfrontiert, ein kulturell fest verankertes dualistisches Weltbild einer monistischen, empirischen Weltordnung gegenüberzustellen, »zum ersten Mal in der Geschichte hatte die Menschheit ein reines physikalisches Weltbild, in dem für Geist/Spiritualität/Seele kein Platz mehr war.«8 Eine wesentliche Ursache dieser Krise lag darin, daß die spirituelle Welt jenseits der Sterne im physikalischen Raum angesiedelt war. Mit seiner Ausdehnung blieb für den Himmel kein Platz mehr. Robert Romanyshyn verweist in diesem Zusammenhang darauf, daß erst mit der Absolutsetzung des physikalischen, perspektivischen Raums die Entwicklungsbedingungen für die Psychologie gegeben waren.9 Die Geister, Engel und Dämonen, denen im neuen Weltbild der Raum entzogen war, wurden in den Menschen verlagert. In Giottos Bild »Die Vertreibung der Dämonen aus Arezzo« belagern Dämonen die Stadt Arezzo und können von dem Hl. Franziskus an jenen Ort zurückgetrieben werden, wo sie herkommen. In Goyas »Der Schlaf der Vernunft gebiert Monster« sind die Dämonen nach Innen verlegt, wo sie als Alpträume den Schlaf des Vernünftigen heimsuchen. Erst diese Bewegung ermöglichte und erforderte die Ausprägung einer neuen Wissens-Disziplin, um die Heimsuchungen begrifflich und methodisch zu fassen: die Psychologie, die z. B. an der Humboldt-Universität zu Berlin noch immer zur mathematisch-naturwissenschaftlichen Fakultät gerechnet wird. Dennoch hat die Wissenschaft es bis heute nicht geschafft, die spirituelle Leere auszufüllen, die sie hinterlassen hat, weswegen viele Menschen sich von ihr abkehren und ihre Wahrheiten woanders suchen.10
8 Margaret Wertheim, The Pearly Gates of Cyberspace, S. 152. 9 Vgl. Robert D. Romanyshyn: Technology as symptom and dream, London: Routledge 1989. 10 Laut Margaret Wertheim ist Cyberspace ein moderner Versuch, einen Ort für die Seele zu finden, den sie in der Aufklärung verloren hat. Sicherlich weist auch die starke Affinität vieler Menschen zur Esoterik in diese Richtung.
Zur Kulturgeschichte des physikalischen Raums
181
Einstein und die Relativität Im Jahr 1864 vereinte J. C. Maxwell die elektromagnetisch-optischen Entdeckungen der vorangegangenen Jahrhunderte und erforschte das Licht als elektromagnetische Welle. Schon bald stellte sich heraus, daß die Maxwellschen Gleichungen der Elektrodynamik mit der Newtonschen Mechanik in ihrer Formulierung der Galileo-Transformationen unvereinbar waren. Zur Rettung beider Theorien führte man als ad hocHypothese die Vorstellung eines Äthers ein, der als ruhendes Bezugssystem den materiellen Träger der Lichtwellen darstellt. Die seit 1881 durchgeführten Experimente von Michelson und Morley sollten die Existenz des Äthers in Bezug auf die Erdbewegung nachweisen: Ein Lichtstrahl wird an einem Halbspiegel geteilt, in Richtung des angenommenen Äthers und rechtwinklig dazu abgestrahlt. Zwei Spiegel in gleicher Entfernung vom Teilungspunkt reflektieren beide Lichtstrahlen, so daß nach ihrem erneuten Zusammentreffen aus Interferenzmustern auf die Geschwindigkeit der Meßapparatur und mit ihr der Erde relativ zum Äther geschlossen werden sollte. Die erwarteten Interferenzen zeigten sich jedoch nicht, was H. A. Lorentz zu der Vermutung veranlaßte, daß es bei hohen Geschwindigkeiten zu einer Längenkontraktion des Meßstabs relativ zum Äther um den Faktor √(1-v2/c2) kommt, eine Annahme, die das Problem zwar mathematisch löste, sich dabei aber auf Einwirken von Kräften auf den Meßstab stützte, die nicht erklärbar waren. Einstein hingegen setzte sich für ein gemeinsames Relativitätsprinzip von Mechanik und Elektrodynamik ein und weigerte sich, das ausgezeichnete Inertialsystem des Äthers anzunehmen. Vielmehr postulierte er die absolute Konstanz der Lichtgeschwindigkeit in allen Trägheitssystemen. Die Schlußfolgerungen aus dieser Annahme waren radikal: Wird aus einem fahrenden Zug in Fahrtrichtung ein Lichtstrahl abgeschickt, so addiert sich die Fahrtgeschwindigkeit des Zugs nicht zur Geschwindigkeit des Lichtstrahls. Ist die Geschwindigkeit des Lichtstrahls in beiden Bezugssystemen die gleiche, so bedeutet dies, daß die Uhr im Zug, mit der die Geschwindigkeit gemessen wird, langsamer laufen muß als die Uhr auf dem Boden. Mit anderen Worten: Zeit verläuft relativ zum Bezugssystem, sie ist keine konstante Größe. Die von Lorentz gesetzte Transformation beschreibt damit nicht eine unbegründbare Längenkontraktion bezüglich eines ruhenden Äthers, sondern die Struktur der Raumzeit. Ähnlich wie mechanische Inertialsy-
182
Jochen Koubek
steme durch die Galileo-Transformation ineinander überführt werden konnten, stellten sich die Maxwell-Gleichungen als forminvariant heraus gegenüber der Lorentz-Transformation: t – vx -----2x – vt y’ = y z’ = z t’ c x’ = -----------------; ; ; = -----------------2 2 v 1–v 1 – -------2-2 c c Ist die Geschwindigkeit v deutlich kleiner als c, so geht die LorentzTransformation in die oben angeführte Galileo-Transformation über. Die klassische Mechanik erweist sich somit als angenäherter Spezialfall der Lorentz-Transformationen für kleine Relativgeschwindigkeiten. Diese sauber formulierbare Theoriegeschichte, in der zwei widersprüchliche Theorien in einer dritten aufgehoben werden, also bewahrt, aufgelöst und in abstraktere Höhen erhoben, ist ein viel zitiertes Musterbeispiel für das Konzept des Paradigmawechsels Thomas Kuhns, der die Struktur wissenschaftlicher Entwicklung als Serie revolutionärer Umbrüche zeichnet.11 Die Vorstellung eines absoluten Raumes und einer getrennten Zeit, die unseren Weltlinien bislang zugrunde lag, wurde in der erweiterten Theorie aufgegeben und zu einer vierdimensionalen Raumzeit zusammengefasst, eine Leistung, die auf H. Minkowski zurückgeht: »Von Stund an sollen Raum für sich und Zeit für sich völlig zu Schatten herabsinken, und nur noch eine Art Union der beiden soll Selbständigkeit bewahren.«12 Mit der Lichtgeschwindigkeit als der absoluten Grenze ist die Weltlinie, also Zukunft und Vergangenheit eines Ereignisses E, nur noch innerhalb eines Kegels zu suchen, den ein von E ausgehender Lichtstrahl in der Raumzeit aufspannt. Es gibt Ereignisse, die weder zur Vergangenheit noch zur Zukunft von E gehören. Kausalität wirkt nicht mehr von einer beliebigen Vergangenheit in jede Zukunft, sondern ist ebenfalls in den Lichtkegel gebunden. Die Gleichzeitigkeit zweier Ereignisse ist nur noch relativ zu einem Beobachter festzustellen.
11 Vgl. Thomas S. Kuhn: Die Struktur wissenschaftlicher Revolutionen, Frankfurt/M.: Suhrkamp 1973. 12 Hermann Minkowski: »Raum und Zeit«, in: Physikalische Zeitschrift 10 (1909), S. 104.
Zur Kulturgeschichte des physikalischen Raums
183
Eine direkte Konsequenz der neuen Raumzeit ist das Zwillingsparadoxon (Abb. 2):
Abb. 2
Fliegt von einem Zwillingspaar einer der beiden mit einem Raumschiff nahe der Lichtgeschwindigkeit geradlinig in eine Richtung SR und kehrt danach zum Ausgangspunkt zurück, ist sein am Ausgangspunkt verbliebener Bruder älter als er. Die Verbindung der Weltlinien von S nach P dauert in der 4-dimensionalen Raumzeit länger als die Wege SR und RP, was darin begründet ist, daß die Zeit mit wachsender Geschwindigkeit langsamer läuft. Diese Folgerung wird experimentell durch die Lebensdauer von Myonen bestätigt, die sich relativ zur Erde nahe der Lichtgeschwindigkeit bewegen und somit deutlich länger stabil bleiben als im Ruhezustand (relativ zur Erde). Einsteins spezielle Relativitätstheorie brach mit der Anschauung und trennte die mathematische Physik endgültig vom interessierten Laien, der ihre Ergebnisse nur noch mit Erstaunen nachvollziehen konnte. Die vierdimensionale Struktur der Raumzeit, in der Raum und Zeit untrennbar verknüpft sind, läßt sich mathematisch zwar beschreiben, aber nur noch in Analogien veranschaulichen. Dies ist auch der Weg, den ich im folgenden beschreiten werde, wenn ich lediglich Veranschaulichungen anführe, mit denen die Physik des 20. Jahrhunderts dem populärwissenschaftlichen Bedürfnis nach Metaphern entgegenkommt.13 Die abstrakte Raumzeit der speziellen und der allgemeinen Relativitätstheorie stieß zunächst noch auf Widerstand und löste eine heftige Weltanschauungsdiskussion aus, an der sich neben Albert Einstein u. a. 13 Eine Einführung mit dem essentiellen Formalismus bietet Ernst Schmutzer: Relativitätstheorie aktuell, Stuttgart: Teubner 1996.
184
Jochen Koubek
Henri Bergson, Werner Heisenberg, Moritz Schlick, Hermann Weyl, Hans Reichenbach und Ernst Cassierer beteiligten. Der französische Philosoph Henri Bergson kritisierte in seinem 1922 veröffentlichten Buch »Durée et Simultanéité« Einsteins neue Raumzeit mit dem Selbstverständnis des Philosophen als letzte naturphilosophische Bewertungsinstanz. Er wies auf zeitliche Strukturen hin, die Einstein übersehen hätte. Doch die Physik hatte den Kampf um die Definitionsmacht der physikalischen Struktur der Raumzeit gewonnen, Bergson mußte mit dem Vorwurf leben, die Relativitätstheorie nicht hinreichend verstanden zu haben.14 Ernst Cassirer diskutierte den Konflikt um das Erkenntnisprimat zwischen Philosophie und Physik in seinem Aufsatz Zur Einsteinschen Relativitätstheorie. Er kommt dabei zu dem (diplomatischen) Schluß, daß keine symbolische Form vollständige Erkenntnis für sich beanspruchen könne: »Die Frage aber, welche von beiden Raum- und Zeitformen, die psychologische oder die physikalische, die Raum- und Zeitform des unmittelbaren Erlebens oder die des mittelbaren Begreifens und Erkennens, denn nun die wahre Wirklichkeit ausdrückt und in sich faßt, hat für uns im Grunde jeden bestimmten Sinn verloren.«15 Eine »kritische Erkenntnistheorie«16 kann zwischen Physik und Bergsons Philosophie keine normative Entscheidung treffen, »beide Gesichtspunkte lassen sich im idealistischen Sinne und ihrer Notwendigkeit verstehen: – keiner reicht für sich aus, das tatsächliche Ganze des Seins im idealistischen Sinne, als ›Sein für uns‹ zu umfassen.«17 Die Relativitätstheorie traf einen Nerv der Zeit: »In der Tat wurde Einsteins relativistische Revision der klassischen Raum-Zeit-Auffassung von vielen Menschen nach dem 1. Weltkrieg als Zusammenbruch einer alten Welt mit absoluten Maßstäben empfunden: ›Alles ist relativ‹ war ein beliebtes Schlagwort in einer Epoche sich auflösender Wertvorstellungen und mag ideologisch für eine größere Akzeptanz der Einsteinschen Theorie bei den einen oder gesteigerte Reserve und Ablehnung bei den anderen gesorgt haben.«18 Die Kernaussage der Relativi14 Eine Darstellung Bergsons inhaltlicher Fehler findet sich bei Alan Sokal/Jean Bricmont: Eleganter Unsinn, München: C. H. Beck 1999. 15 Ernst Cassirer: »Zur Einsteinschen Relativitätstheorie«, in: ders., Zur modernen Physik, Darmstadt 1957, S. 117. 16 Ebd., S. 116. 17 Ebd., S. 118. 18 Jürgen Audretsch/Klaus Mainzer: Physik und Philosophie der Raum-Zeit, S. 45.
Zur Kulturgeschichte des physikalischen Raums
185
tätstheorie wurde in verschiedene Diskurse übersetzt und eingegliedert, so gut es möglich war. Der Theologe H. Vortisch schrieb: »Naturgesetze sind uns nicht von Gott geoffenbart; sie haben keinen absoluten Wert, sondern sind der Relativität unterworfen, so gut wie die anderen irdischen Dinge.«19 Die spezielle Relativitätstheorie legte die Grundlage für immer abenteuerlichere Vorstellungen über Entstehung und Beschaffendheit des Kosmos. In der allgemeinen Relativitätstheorie formulierte Einstein die Idee eines in der 4-dimensionalen Raumzeit gekrümmten Universums. Der Astronom Edwin Hubble schloß 1929 aus der Rotverschiebung beobachteter Sonnensysteme auf ein expandierendes Universum, das notwendigerweise auch einen Anfang hatte, den Urknall oder Big Bang, wie ihn der Nuklearphysiker George Gamow 1946 bezeichnete. Wechselweise ging man von einem expandierenden, zyklisch kontrahierenden oder stabilen Universum aus. Die Berechnung seines Alters hängt mit der angenommenen Expansionsgeschwindigkeit zusammen, der Hubble-Konstanten H0. Verschiedene Forscher nehmen z. Zt. Werte für H0 zwischen 50 und 80 an, wodurch der Big Bang auf 10 Mrd. bis 16 Mrd. Jahre zurückgeschätzt wird. Die Raumzeit ist durchsetzt mit Gravitationssingularitäten, den Schwarzen Löchern. Aus der rechnerischen Lösung der Einsteinschen Feldgleichung der Gravitation zeigte Roger Penrose 1965, daß ein Stern, der unter der eigenen Masse kollabiert, zu einem Punkt mit unendlicher Dichte und unendlicher Krümmung der Raumzeit zusammenfällt. Raumzeitsingularitäten können untereinander durch Wurmlöcher verbunden sein, die 1935 von Albert Einstein und Nathan Rosen vorgeschlagen wurden und als Einstein-Rosen-Brücken berechenbar sind. Sie sind als extrem instabil berechnet, doch sollen in ihnen auch Zeitreisen möglich sein. Ein weiteres Abenteuer der modernen Physik ist die seit Ende der 60er Jahren entwickelte String-Theorie. Sie geht von 7- bis 11-dimensionalen Grundbausteinen der Materie aus, deren Extradimensionen in der Größenordnung 10-33 zusammengerollt sind.20 Die Stringtheorie verspricht, die Relativitätstheorie mit der Quantenmechanik zu verei-
19 Hermann Vortisch: Die Relativitätstheorie und ihre Beziehung zur christlichen Weltanschauung, Hamburg: Agentur des rauhen Hauses 1921, S. 55. 20 Vgl. Paul Davies/Julian R. Brown (Hrsg.): Superstrings. Eine allumfassende Theorie der Natur in der Diskussion, München: Deutscher Taschenbuch Verlag 1992.
186
Jochen Koubek
nen und die von der Physik wie die blaue Blume ersehnte Weltformel zu liefern, aus der alle Naturgesetze ableitbar sind. Nur wenige Spezialisten verstehen und diskutieren die Theorien in ihrem mathematischen Kern, noch weniger können sie auch nur in Ansätzen überprüfen. Für alle übrigen bleibt die Kosmologie eine Glaubensfrage, in der sich das Vertrauen in die Wissenschaft und in ihre Vertreter niederschlägt. Würde morgen publiziert, daß das Universum in sich verknotet sei, müßten wir es ebenso glauben wie das Gegenteil.
Literatur Audretsch, Jürgen/Mainzer, Klaus (Hrsg.): Physik und Philosophie der RaumZeit, Mannheim, Wien, Zürich: BI 1994. Bergson, Henri: Durée et Simultanéité, Paris 1922. Braun, Walter: Philosophie des Raumes. Mit Fußnoten zum Evolutionismus, Cuxhaven, Dartford: Junghans 1996. Cassirer, Ernst: »Zur Einsteinschen Relativitätstheorie«, in: ders., Zur modernen Physik, Darmstadt 1957. Davies, Paul/Brown, Julian R. (Hrsg.): Superstrings. Eine allumfassende Theorie der Natur in der Diskussion, München: Deutscher Taschenbuch Verlag 1992. Dinzelbacher, Peter: Europäische Mentalitätsgeschichte, Stuttgart: Kröner 1993. Dijksterhuis, Eduard Jan: Die Mechanisierung des Weltbildes, Berlin, Göttingen, Heidelberg: Springer 1956. Hawking, Stephen: Die illustrierte kurze Geschichte der Zeit, Reinbek: Rowohlt 2000. Kuhn, Thomas S.: Die Struktur wissenschaftlicher Revolutionen, Frankfurt/M.: Suhrkamp 1973. Minkowski, Hermann: »Raum und Zeit«, in: Physikalische Zeitschrift 10 (1909), S. 104. Romanyshyn, Robert D.: Technology as symptom and dream, London: Routledge 1989. Salgado, Rob: The Light Cone, http://physics.syr.edu/courses/modules/ LIGHTCONE/ (19.02.2005) Schmutzer, Ernst: Relativitätstheorie aktuell, Stuttgart: Teubner 1996. Sokal, Alan/Bricmont, Jean: Eleganter Unsinn, München: C. H. Beck 1999. Vortisch, Hermann: Die Relativitätstheorie und ihre Beziehung zur christlichen Weltanschauung, Hamburg: Agentur des rauhen Hauses 1921. Wertheim, Margaret: The pearly Gates of Cyberspace, London: Virago 1999.
Rolf Großmann
Monitor – Intermedium zwischen Ton, Bild und Programm
»Für mich jedenfalls ist Suppe eindeutig pong und Himbeereis ping.«1
Nicht nur dem Künstler, auch dem Wissenschaftler sind offene Situationen willkommen und regen zur Produktivität an. Eine Öffnung und Aktualisierung erfährt der Diskurs um Intermedialität, Intertextualität, Mixed-Media, Medienwechsel etc., nachdem die Wechselwirkung von Bild, Text und Ton den Status eines »komparatistischen Grenzgebiets«2 hinter sich gelassen hat und als Audio-Vision, Video-Text, Multi-Media die Kommunikationsprozesse einer Gesellschaft, die sich das Siegel ›Information‹ verleiht, dominiert. Um so erstaunlicher ist es, daß die technischen Integrationsprozesse der elektronischen Medien trotz deren unbestrittener kommunikativer Dominanz (als Leitmedien TV oder Computer) im Diskurs um Inter- und Transmedialität nur wenig Beachtung finden. Der wissenschaftliche Blick auf Phänomene der Grenzüberschreitung, etwa auf intermediale Paradebeispiele der Videoclipund Trailerkultur3, auf rhythmisierte Schnitte, Text-Graphik-Bewegtbild-Relationen, Narrationsstruktur, zeitliche ›Verdichtung‹ etc. bleibt kurzsichtig, wenn die Technik-kulturellen Bedingungen einer Verknüpfung der »kulturell kodierten Kommunikationssysteme«4 hinter den flimmernden Oberflächen der Bildschirme verschwinden. 1 Ernst H. Gombrich: Kunst und Illusion, Stuttgart: Belser 1986 (engl. Original Oxford 1977), S. 406. 2 Ulrich Weisstein (Hrsg.): Literatur und bildende Kunst. Ein Handbuch zur Theorie und Praxis eines komparatistischen Grenzgebiets, Berlin: E. Schmidt Verlag 1992. 3 Z. B. Prince, Sign O’ The Times, Warner Bros. 1987, Videoclip. 4 Thomas Eicher: »Was heißt (hier) Intermedialität?«, in: Thomas Eicher/Ulf Bleckmann (Hrsg.), Intermedialität. Vom Bild zum Text, Bielefeld: Aisthesis 1994, S. 11.
188
Rolf Großmann
Der Monitor steht in der Anordnung von Mensch und digitalem Werkzeug nicht nur räumlich ›dazwischen‹. Als visuelles Intermedium bei der Musikproduktion liefert er Bilder von Tönen, die im Sinne des Programms einer Partitur mit möglichen Realisationen korrespondieren. Das Produzieren von Tönen findet dort also über ›Bilder‹ im weitesten Sinne statt. Der in diesem Zusammenhang oft verwendete Terminus visuelle Oberfläche täuscht insofern, als er eine ›neutrale‹ technische Repräsentation – die Programmoberfläche – suggerieren könnte. Visualisierungen sind jedoch nicht neutral. Das ›Monitoring‹ der Töne hat mehrere Dimensionen: Das Monitorbild visualisiert die inneren Zustände der Maschine, des technischen Mediums Computer, gleichzeitig repräsentiert es als Bild das kulturelle Medium ›Musik‹. Von der visualisierten Musik einer Partitur, eines Notentextes unterscheidet sich dieses ›Oberflächenbild‹ durch seine unmittelbare technische Verknüpfung mit Prozessen der Steuerung und Klangerzeugung. Elektronische Integrationsmaschinen der AV-Produktion und Postproduktion bringen naturgemäß andere Artefakte hervor als die Pinsel, Federn und Tasten klassischer künstlerischer Grenzgänger wie Kandinsky, Mondrian oder Skriabin. Materialität und Strukturprinzipien medialer Wahrnehmungsangebote sind ebenso wie bei den ›herkömmlich‹ produzierten Künsten Ergebnis einer künstlerisch-instrumentalen Gestaltung, in der sich Intention, Werk und Werkzeug gegenseitig bedingen. Geht es um intermediale Bezüge, kommt damit die Ebene der im technischen Prozeß selbst angelegten Relationen von Ton, Bild und Text ins Spiel. Die kulturelle bzw. ästhetische Dimension dieser Relation verliert hierdurch keineswegs an Gewicht, im Gegenteil. Sie bedarf einer Fortschreibung unter – durch Beschreibung und Analyse der generativen technischen Strukturen der elektronischen und digitalen Medien – veränderten Voraussetzungen. Um einen Aspekt dieser generativen Strukturen, um die funktionale Verschränkung von Musik und ihren Repräsentationen in den technischen Medien, ihrem ästhetikgeschichtlichen Ort und die Wechselwirkungen auf der Ebene ästhetischen Handeln wird es im folgenden gehen.
Medien und Wahrnehmungsmodi Eine so verstandene Intermedialität hat es also mit zwei Medienbegriffen zu tun, die – in eine detaillierte terminologische Diskussion soll an
Monitor – Intermedium zwischen Ton, Bild und Programm
189
dieser Stelle nicht eingetreten werden – eine eher technische (elektronische Medien) oder eine eher kulturelle (Massenmedien) Perspektive akzentuieren. Die Suche nach Grenzüberschreitungen, nach Integration, nach dem »Dazwischen« zwischen den Medien (zugunsten eines Dritten, Intermedialen) führt entsprechend einerseits zu Fragen der technischen Abbildung, Transformation, Übermittlung, Kanal, Signal, Codierung und Standardisierung, andererseits zu Fragen veränderter Wahrnehmung und subjektiver Wirklichkeit (»filmisches Sehen«), zur Synästhesie, zu kulturellen Codes und Programmen.5 Die Ausgangsfrage lautet demnach: Wann und wie treten anthropologisch bedingte und kulturell geformte Wahrnehmungsmodi wie Sehen, Hören, Lesen und damit die auf ihnen aufbauenden und ausdifferenzierten ›Medien‹ (Malerei, Musik, Literatur, Schauspiel; aber auch Radio, Fernsehen, CD-Player, Video etc. als kulturell definierte technische Medien) auf der Ebene der technischen Funktion zueinander in Beziehung und begründen damit eine – nun kulturell verstandene – intermediale Praxis? Die Frage scheint prima vista schnell beantwortet: Technische Medien sind seit Ende des 19. Jhdts. für das Gegenteil von Integration zuständig, sie vertiefen die Grenzen, die intermedial überschritten werden müssen: »Mit der historischen Gleichzeitigkeit von Kino, Phonographie und Maschinenschreiben werden die Datenflüsse von Optik, Akustik und Schrift ebenso getrennt wie autonom. Daß elektrische oder elektronische Medien sie dann wieder verschalten können, ändert nichts am Faktum dieser Ausdifferenzierung.«6
Damit ist ein erster Eckpunkt unserer Überlegungen zum Thema gesetzt. »Grammophon, Film, Typewriter« isolieren demnach Ton, (Bewegt-)Bild und Schrift in ihren Speichermedien, bis Alan Turings reduzierte, aber universell anwendbare Version der Schreibmaschine die Symbolschrift (in ihrer einfachsten Version, der 0 und 1) und ihre
5 Zum Thema ›Kultur als Programm‹ vgl. Siegfried J. Schmidt: »Medien, Kultur: Medienkultur«, in: ders. (Hrsg.), Kognition und Gesellschaft, Frankfurt/M.: Suhrkamp 1992, S. 428f. 6 Friedrich Kittler: Grammophon Film Typewriter, Berlin: Brinkmann & Bose 1986, S. 27.
190
Rolf Großmann
maschinelle Transformation zum Wendepunkt der gesuchten technischen intermedialen Funktion werden läßt: »Alle Datenströme münden in Zustände N von Turings Universaler Maschine, Zahlen und Figuren werden (der Romantik zum Trotz) Schlüssel aller Kreaturen.« 7
Ein genauer Blick auf die »akustischen Datenflüsse« des Grammophons läßt allerdings zweifeln: Die Bezeichnung ist wenig präzise, denn ihren ›Daten‹ fehlt sowohl das Moment des Diskreten als auch die Adresse; ein ›Datum‹ ist weder identifizierbar noch handhabbar. Beim mechanischen Grammophon Emil Berliners oder der Walze Edisons fließt nichts. Zeit ist zur Strecke geworden, Ton zum taktilen Objekt. Die technische Funktion, die Strecke und Zeit verbindet, die den Ton im Zeit›fluß‹ rekonstruiert, ist die synchronisierte lineare Zeit von Aufnahme und Wiedergabe, realisiert als ›gehemmtes‹ drehzahlstabiliserendes Räderwerk. Die analogen Speichermedien Grammophon und Film funktionieren ohne Daten im engeren Sinne, sie rekonstruieren physikalische Phänomene direkt ohne Umwege über Daten, Zeichen oder Symbole. Dennoch betrifft Friedrich Kittlers These, umgedeutet als eine Aufspaltung von Wahrnehmungsmodi durch die technischen Medien, den Kernpunkt des hier verhandelten Themas. In etwas veränderter Terminologie sind seine Überlegungen auch für den musikalischen Kontext in zwei Bereichen evident. Die Trennung von Akustik und Optik betrifft die vormals ›natürliche‹ Einheit der Wahrnehmung von Klangerzeugung und Raum, Bewegung sowie gestischer Performanz der Akteure. Durch die physikalische und kulturelle Selektivität der technischen Medien werden die vertrauten Relationen dieses Ensembles unterbrochen. Sowohl für die Wahrnehmung als auch für Sinnzuordnungen entstehen Leerstellen, die nur zum Teil durch imaginative Wiederbelebung vergangenen situativen Erlebens kompensiert werden können. Diese ›Leerstellen‹ können für neue inner- oder außermusikalische Korrespondenzen ästhetisch produktiv werden. So sieht Pierre Schaeffer in der aus der Trennung von Klang und Klangursache resultierenden »akusmatischen« Erfahrung isolierter Klangobjekte eine der Grundlagen der von ihm begründeten »musique concrète«: 7
Ebd., S. 33.
Monitor – Intermedium zwischen Ton, Bild und Programm
191
»When I listen to a violin being played, my attention is drawn to the gestures of the violinist and to the technical aspects of his instrument for producing sounds – my understanding of the music he makes is affected by what I see. But when I listen to the radio or recordings, I am forced to modifiy my listening, to penetrate into the sounds alone. […] Listening to live orchestral music is essentially deductive listening, it is strongly deduced from vision, whereas listening to the radio or a phonograph is inductive or acousmatic listening.«8
Die Neubesetzung der ›Leerstellen‹ erfolgt bei der »musique concrète« auf der assoziativ-semantischen Ebene, sie kann jedoch auch – wie unten ausführlich gezeigt – in der direkten Verknüpfung technischer Medien untereinander als spezifisch intermediale Beziehung auf der Ebene der Objekte, ihrer Wahrnehmungsmodi und der ästhetischen Symbole stattfinden. Auch die Beziehung von Akustik und Schrift verändert sich grundlegend. Die europäische Musiktradition verbindet lange vor den technischen Medien Komposition und Aufführung mit der Repräsentation bzw. Visualisierung von musikalischer Struktur. Zum einen in der zeichenhaften Codierung der Schriftlichkeit der Noten›texte‹ (die im Gegensatz zum Alphabet der Buchstaben arbiträre und motivierte Elemente enthält), zum anderen in der rationalen taktilen und visuellen Gestaltung mechanischer Musikinstrumente (Manuale und Klaviaturen bilden die Tonhöhen linear ansteigend von links nach rechts ab, das temperierte Tonsystem findet sich in der Form und farblichen Markierung der Tasten wieder) ist ›repräsentierte‹ Klangstruktur Bestandteil musikalischer Praxis. Grammophon und Hörfunk trennen auch hier zunächst für Aufführung und Komposition (etwa bei der TonbandMontage) Akustik und Schrift. Die technische Repräsentation des Klangs, die sich den Speichermedien ›einschreibt‹, hat weder den Charakter arbiträrer Zeichen noch ist sie für die menschliche Wahrnehmung lesbar.9 Erst mit dem binären Code der symbolverarbeitenden 8 Frank J. Malina/Pierre Schaeffer: »A Conversation on Concrete Music and Kinetic Art«, in: Frank J. Malina (Hrsg.), Kinetic Art. Theory and Practice, New York: Dover 1974, S. 231. 9 Daß die direkte Lesbarkeit der technischen Schrift zumindest die Erprobung der Leistungsgrenze menschlicher Sinne herausfordert, zeigt eine auch vom kulturphilosophischen Standpunkt höchst unterhaltsame Wette der TV-Game Show »Wetten daß?«: Der Kandidat konnte innerhalb einer kleinen Auswahl von Schallplatten vom Anblick der Rillen auf deren Titel schließen.
192
Rolf Großmann
Maschinen endet die ›Schriftlosigkeit‹ der elektronischen Medien. Allerdings mit weitreichenden intermedialen Folgen: Die Repräsentation des binären Code erfolgt auf einer weiteren (inter-)medial inszenierten Oberfläche.10 Beide Relationen, vor oder nach dem trennenden Einschnitt der technischen Medien, ›Musik-Aktionsraum‹ bzw. ›Musik-visuelle Repräsentation‹ haben per se noch nichts Intermediales, da sie lediglich Aspekte eines kulturell verstandenen Mediums, der Musik, darstellen. Erst wenn der Aktionsraum oder die Repräsentation den Charakter eigenständiger Medien annehmen, kann ein ›Intermedium‹ zwischen zwei Medien entstehen. Dies wird etwa dann greifbar, wenn wie im ›instrumentalen Theater‹ Mauricio Kagels die motorische Aktion des Instrumentalspiels theatralische Züge annimmt und – zur theatralischen Aktion umgedeutet – das Medium ›Musik‹ und das Medium ›Schauspiel‹ strukturell11 verkoppelt. Technische Medien spielen bei diesem Beispiel allerdings nur insofern eine Rolle, als die Koppelung vor dem Hintergrund der durch technische Medien veränderten Wahrnehmung stattfindet.12
Synästhetische Experimente Anders sind die Verhältnisse bei der klassischen Basis für Bild- oder Farb-Ton-Relationen, den Synästhesien des »Tönesehens« oder »Farbenhörens«. Das »Überspringen der Erlebnisqualität von einem der fünf Sinne auf einen anderen, also Tönensehen, Farbenhören usw.«13 scheint auf einem internen psychophysischen Prozeß des menschlichen kognitiven Systems zu beruhen, der – wenn er zwanghaft erlebt wird – durchaus bis ins Pathologische reicht. Seine intersubjektive Übereinstimmung ist allerdings so gering, daß das Streben der »Vorromantiker, Romantiker und Neuromantiker«, »die wechselseitige Erhellung der Künste nicht in rational durchgeführten Vergleichen, sondern mit Hilfe 10 Vgl. Brenda Laurel: Computers as Theatre, Reading (Mass.): AddisonWesley 1991. 11 Diese direkte Kopplung unterscheidet Kagels »instrumentales Theater« vom traditionellen Musiktheater, das die Koppelung mittels semantischer Plots auf anderer Ebene vornimmt. 12 Vgl. hierzu auch den Beitrag von Christoph Rodatz in diesem Band. 13 Ernst H. Gombrich: Kunst und Illusion, Stuttgart: Belser 1986 (engl. Original Oxford 1977), S. 402.
Monitor – Intermedium zwischen Ton, Bild und Programm
193
Abb. 1
der Intuition«14 zu erreichen, nicht in einer kulturell gefestigten (syn)ästhetischen Ton-Bild-›Sprache‹ mündete, sondern nach wie vor von Beliebigkeit geprägt ist.15 Einige Protagonisten des »Farbenhörens« ließen sich jedoch dadurch nicht hindern, ihre subjektiven Synästhesien mit Hilfe technischer Ton-Bild-Instrumente ›objektive‹ Realität werden zu lassen. Die Farbklaviere der Jahrhundertwende erzeugten indessen keine Bilder und Töne, sondern lediglich Farb- und Formprojektionen, die per Partitur und/oder Gehör mit der klingenden Komposition synchronisiert wurden. Alexander Lázlós »Sonchromatoskop« und Alexander Skriabins »Farbklavier« beziehen den musikalischen Teil ihres Namens aus nicht mehr und nicht weniger als der Spielbarkeit des Lichts, also seiner zeitlichen Gestaltbarkeit im Sinne eines musikalischen Instruments. Frühe »Lichtorgeln« oder das »Piano optophonique« (ca. 1920) des Vladimir Baranoff-Rossiné besitzen daneben noch eine ihrem akustischen Pendant analoge Klaviatur.16 Trotz der – wie in der »Luce«-Stimme der »Promethée«-Partitur (1911; Abb. 2) – relativ festen Koppelung von Ton und Licht findet diese auf einer symbolischen Ebene statt, die im Visuellen zwar keine allgemein gültige ästhetische Signifikanz besaß, jedoch auf der Utopie 14 U. Weisstein, Literatur und bildende Kunst, S. 16f. 15 Vgl. Helga de la Motte-Haber: Musik und Bildende Kunst, Laaber 1990, S. 61ff. 16 Alle im folgenden genannten Beispiele sind nach der Einfachheit ihrer technischen Funktionen sowie nach Repräsentativität und Bekanntheit im Diskurs ausgesucht. Sie können nur einen ersten Einblick in prinzipielle Vorgänge geben, um die sich von der Farbenmusik bis zum digitalen interaktiven Environment eine Unzahl von ›Werken‹, Apparaturen und Konfigurationen gebildet haben. Eine systematische und detaillierte Aufarbeitung technikvermittelter intermedialer Prozesse steht z. Zt. noch aus.
194
Rolf Großmann
Abb. 2
einer allgemeinverständlichen Farbenmusik beruhte. Ihr ästhetischer Ort ist von den Vorstellungen der Romantik des 19. Jhdts. geprägt, mit Effekten und Affekten einer kosmologisch begründeten Korrespondenz der Naturerscheinungen und der Empfindungen, deren allgemeine Prinzipien auch in einer Synthese der Künste zu suchen sind. Diese Synthese ist also zunächst weder im heutigen Sinn naturwissenschaftlich oder technisch gedacht, führt jedoch in der Anwendung technischer Medien zu Experimenten, die schließlich statt der Verkopplung der Symbole die Verkopplung der technischen Signale erproben. Als besonders geeignet zeigte sich hierfür die Elektrizität, die als modulierter »Träger« sowohl optische als auch akustische Signale überträgt, sowie ein Medium, das die gerade vollzogene Trennung des Audio/ Visuellen mit Hilfe eines ebenfalls optoelektrischen Verfahrens technisch überwunden hatte, der Tonfilm.
Monitor – Intermedium zwischen Ton, Bild und Programm
195
Eine solche einfache Beziehung auf der Ebene der technischen Signale, deren funktionelle Unmittelbarkeit damals allerdings im Sinne des romantischen Ideals als Beschränkung empfunden wurde, stellte Raoul Hausmanns »Optophone« (1922 patentiert) her, das Lichtschwankungen über eine Selenzelle photoelektrisch abgetastet und mittels eines Telefon-Hörers hörbar werden läßt. Seine Apparatur unterscheidet sich grundlegend von den synästhetischen Instrumenten der »Lichtmusiker«, da hier die Intuition synästhetischer Empfindungen durch die objektive physikalische Transformation der Schwingungen des Lichts in Schwingungen des Schalls ersetzt werden sollte. Entsprechend unromantisch ist das ästhetische Programm des Konstrukteurs: »Wir wollen die Optophonetik, als exakte Ausbreitungsmöglichkeit unseres Zeit- und Raumbewußtseins zur technischen Perfektion bringen, denn wir können und wollen keinerlei Zusammenhänge zwischen Malerei und Musik im Sinne der alten Gattungen und sentimentalen Ordnungen anerkennen.«17
Abb. 3
Schon für Hausmanns Apparatur und nicht erst für die symbolverarbeitenden digitalen Maschinen gilt in einer ersten Annäherung Hartmut Winklers Beobachtung, »daß die Ebenen der Oberflächen und der ›Gesetze‹ [der phänomenalen Seite des Realen, R. G.] nicht mehr allein im menschlichen Vorstellungsvermögen in Beziehung zueinander treten. Die Maschine und das sym-
17 Raoul Hausmann: »Optofonetika« MA, Mai 1922, zit. nach Karin Maur (Hrsg.), Vom Klang der Bilder, München: Prestel 1985, S. 140.
196
Rolf Großmann
bolische System [der späteren digitalen Medien, R. G.] selbst haben es übernommen, diese Beziehung zu verwalten, und auch solche Relationen zu demonstrieren, die dem Erkenntnis- wie dem Vorstellungsvermögen bis dahin sich entzogen haben.«18
Besonders deutlich wird die technische Grenzüberschreitung von Bild und Ton in den Experimenten Oskar Fischingers, der im Rahmen des experimentellen Films den ebenfalls nach dem optoelektronischen Prinzip arbeitenden Lichtton in seine Versuche einbezog. »Im Frühjahr 1932 gelangte er zu der entscheidenden Erkenntnis, daß sich die abstrakten ›Ornamente‹, die er in seinen Filmen verwendete, nicht grundlegend von denjenigen Mustern unterschieden, die Töne auf der optischen Tonspur erzeugten.«19
Die Konsequenz war die Aufnahme von Tonspurbildern, die zu »Tönenden Ornamenten« (s. Abb. 4) wurden. Fischinger überwindet die Trennung der Kanäle buchstäblich physisch, indem er das Bildfenster einer Kamera über dem Tonaufnahmebereich auffeilte, um die auf Papierrollen gezeichneten Ornamente direkt abfilmen zu können.20 Aus der Synchronisationsfunktion des gemeinsamen Trägermaterials der Bilder und Töne war eine synästhetische technische Funktion geworden. Rudolph Pfenninger, der zur gleichen Zeit ähnliche Versuche machte (und zuweilen mit Fischinger verwechselt wurde) arbeitete an dem umgekehrten Verfahren. Während der »absolute Tonfilm« Fischingers Bildsequenzen hörbar macht, visualisieren Pfenningers tönende Handschriften vorhandene Melodien. Beide machen in ihren Anordnungen – in dieser Hinsicht unterscheidet sie nichts von Hausmanns Versuchen – statt einer Transformation semantisch aufgeladener Zeichen eine technische Bild-Ton-Relation sinnlich erlebbar. Die ästhetischen Gegenstände der drei genannten Beispiele sind einerseits Bilder und Töne der menschlichen Vorstellungswelt, andererseits das optoelektrische Prinzip selbst. 18 Hartmut Winkler: »Der Film und die digitalen Bilder«, in: Joachim Paech (Hrsg.), Film, Fernsehen Video und die Künste. Strategien der Intermedialität, Stuttgart: Metzler 1994, S. 305. 19 William Moritz: »Oskar Fischinger«, in: Hilmar Hoffmann/Walter Schobert (Hrsg.), Optische Poesie. Oskar Fischinger – Leben und Werk, Schriftenreihe des deutschen Filmmuseums, Kinematograph Nr. 9, Frankfurt/M.: 1993, S. 31. 20 Ebd., S. 31.
Monitor – Intermedium zwischen Ton, Bild und Programm
197
Abb. 4
Für die Ästhetisierung eines technisch-medialen Prozesses fehlte allerdings in Europa sowohl der kulturhistorische als auch medienphilosophische Hintergrund. Trotz anfänglich emphatischer internationaler Resonanz setzte Fischinger die Lichtton-Versuche nicht fort, die Ergebnisse erschienen ihm – auch aufgrund einer fehlenden ›offenen‹ ästhetischen Strategie – als unbefriedigend. Die Kunst- und Musikauffassung der europäischen Avantgarde orientierte sich an der Vorstellung struktureller und semantischer ästhetischer Diskurse, die sich auf einer Ebene der ästhetischen Zeichen vollzogen, in deren Dienst die Objekte selbst eine untergeordnete Rolle spielten. Diese Ebene sollte auch – wie Pierre Schaeffer im folgenden Zitat deutlich macht – die Relation von Ton und Bild dominieren, während dem technischen Prozeß der Rang eines Werkzeugs zugewiesen wird:
198
Rolf Großmann
»Images of sounds can be produced easily on a television screen by using an oscilloscope. […] One hears a ›la‹ and one sees at the same moment, say, an ellipse. But an ellipse in no way means ›la‹ and nothing in the sound of ›la‹ signifies an ellipse. One must look for a connection in the signs […] but not in the objects that produce them.«21
Medienobjekte der Grenzüberschreitung Bereits zehn Jahre vor der Veröffentlichung dieser Sätze Schaeffers hatte Nam June Paik genau das getan, wovon Schaeffer abriet: Er hatte eine Art Oszilloskop als ästhetisches Objekt ausgestellt. In »Participation TV I« (1963-1966) wird mittels Mikrophon, Signalverstärker und TV-Bildschirm das Fernsehgerät in eine oszilloskopische Anordnung gebracht. Paik, dessen »Tanzende Muster« (1966) u. a. auch auf die Ornamente Fischingers zurückverweisen, agierte zwar im Umfeld der damaligen deutschen Musik-Avantgarde, seinen künstlerischen Hintergrund bildeten jedoch Konzepte der Aktionskunst und die Musikphilosophie John Cages.22 Für Cage ist es das ›Wie‹ und nicht das ›Was‹, das musikalische Situationen schafft. Das ›Was‹, die erklingende Struktur, ist im Prozeß der ›Unbestimmtheit‹ (Indeterminacy) aufgegangen, der wiederum seine Definition als ›musikalisch‹ seiner spezifischen Inszenierung verdankt. Der Gegenpol zur »avant-garde« der europäischen Musiktradition mit ihren beiden Zweigen der ›elektronischen Musik‹ und der ›musique concrète‹, von Michael Nyman als »experimental music« ausführlich dargestellt, versteht »music as silence, actions, observations and sounds.«23 Musik wird von der Ebene eines ästhetischen Diskurses der Avantgarde auf die Basis der Objekte und Prozesse vor ihrer semantischen Vereinnahmung durch soziokulturelle oder naiv-anthropologische Konzepte zurückgeführt. Die so mögliche »De- und Resemantisie21 F. J. Malina/P. Schaeffer: A Conversation on Concrete Music and Kinetic Art, S. 231. Das Gespräch des Amerikaners Malina mit dem Europäer Schaeffer zeigt nebenbei, daß auch 1970 noch Verständigungsprobleme zwischen den ästhetischen Welten der inzwischen klassischen europäischen Avantgarde und einer experimentellen Auffassung in der Folge von Fluxus und ›Unbestimmtheit‹ bestehen. 22 Auf die Diskussion von Cages eigenen »Mixed-Media«-Arbeiten muß leider aus Platzgründen verzichtet werden (s. Anm. 14). 23 Michael Nyman: Experimental music. Cage and beyond, London: Studio Vista 1974, S. 19.
Monitor – Intermedium zwischen Ton, Bild und Programm
199
Abb. 5
rung«24 umfaßt auch den Bereich einfacher physikalischer Phänomene25 und technischer Medien. Deren Funktion erscheint dabei weder als kulturell festgelegt noch an einen urprünglichen Zweck gebunden. Durch die Inszenierung ästhetischer Situationen verlagert sich die semantische Ebene von den den Objekten zugeschriebenen Bedeutungen in den dynamischen Bereich (Fluxus!) von Aktion und Partizipation. Die Reinszenierung des TV-Geräts als ästhetisiertes Ton-Oszilloskop macht in einer spielerischen Situation den apparativen Charakter des Mediums wieder sichtbar. Die »Eigenwelt der Apparate-Welt«26 tritt in einer neuen Korrespondenz von technischem Prinzip und seiner Veränderung der Weltwahrnehmung hervor. Audio- und Videosynthesizer nutzen die zunächst unanschauliche Welt der »elektrischen Energie« zur Grenzüberschreitung zwischen den Medien. »In electronic media the basic units are not tangible shapes or formes but forces – electrical energy: complex patterns of energy are built by interrelating simple ones just as in more concrete forms of synthesis.«27
24 Thomas Dreher: »›Apres John Cage‹. Zeit in der Kunst der sechziger Jahre. Von Fluxus-Events zu interaktiven Multi-Monitor-Installationen«, in: Ulrich Bischoff (Hrsg.), Kunst als Grenzbeschreitung. John Cage und die Moderne, Düsseldorf: Richter 1992, S. 64. 25 Z. B. Klangfiguren von Granulat auf schwingenden Flächen bei Alvin Luciers »Queen of the south« (1972). 26 Titel der Ausstellung der »Pioneers of Electronic Art« im Landesmuseum Linz (Österr.) 1992. 27 Robert Arn: »The Form and Sense of Video«, in: David Dunn (Hrsg.), Eigenwelt der Apparate-Welt (Katalog), Linz 1992, S. 188.
200
Rolf Großmann
Paiks Partizipationsfernsehen und viele andere seiner TV-Installationen besonders der 60er und 70er Jahre sind eine Medienkunst nicht nur der Bilder, Töne und/oder Texte, sondern der elektronischen Medien selbst und ihrer technischen Prinzipien. Partizipation des Publikums und Aktion stehen im Vordergrund, Wahrnehmung und Gestaltung von Zeit rücken ins Zentrum, der technische Prozeß erhält den Charakter eines Instruments im musikalischen Sinne. Neben einer neuen Verknüpfung der »Datenflüsse« kommen die situativen Zusammenhänge buchstäblich wieder ins ›Spiel‹, es geht um Handlung und Beobachtung (s.o.). Die Grenzüberschreitung von Akustik, Optik und Mediendispositiv geschieht bei Paik – wie es Hausmann gefordert hatte – nicht mehr im Rahmen romantischer Synästhesievorstellungen, sondern vor den kulturellen Konsequenzen einer neuen Mediensituation, deren Einzelmedien nicht mehr Musik, Theater oder Bildende Kunst, sondern Plattenspieler, Radio und Fernsehen heißen. Das ›Intermedium‹ dieser Medien ist der technische Prozeß selbst.
Digitale Transformationen Die Intermedialität der Analogtechnik der 60er Jahre ist demnach eine Inszenierung der den technischen Einzelmedien gemeinsamen Signalprozesse, die eine »Wiederverschaltung«28 der technisch getrennten Wahrnehmungsmodi ermöglichen. Bereits Anfang der 70er Jahre kündigt sich jedoch die nächste Stufe der Medienintegration an. Analoge Systeme werden durch digitale Schaltkreise zu hybriden Systemen ergänzt, Audio/Video-Synthesizer wie Bill Hearns »Vidium« erhalten in der »MK II«-Version digitale Ein- und Ausgänge. Der »Pepsi-Cola Pavillon for EXPO 70« in Osaka demonstrierte der Welt den Stand der »Mixed Media« in USA (während es im von Kh. Stockhausen und F. Bornemann entworfenen »Osaka-Auditorium« um die Bewegung elektronischer Klänge im Raum ging): »The inside of the pavillon consisted of two large spaces, one blackwalled and clam-shaped, the other a ninety-foot high hemispherical mirror dome. The sound and light environment of these spaces was achieved by an innovative audio and optical system consisting of state-of-the-art ana28 S. Anm. 6
Monitor – Intermedium zwischen Ton, Bild und Programm
201
log audio circuitry, with krypton-laser, tungston, quartz-iodide, and xenon lighting, all controlled by a specially designed computer programming facility.«29
Neben den neuen Steuerungsoptionen werden Ton und Bild selbst errechenbar, sie bilden die hör- und sichtbare Oberfläche algorithmischer Funktionen. Die Nachfolge der Farbenmusiken tritt die »Visual Music« mit computererzeugten Bildern, etwa als Flug durch fraktal erzeugte Gebirgsketten in Loren Carpenters »Vol Libre« (1980), an.30 Gleichzeitig wird die Unterhaltungsindustrie zur treibenden Kraft bei der Entwicklung neuer Geräte, Musikinstrumente, Programme und Standards. Nach der digitalen Codierung der Zeichen des »Typewriter« im ASCIIStandard folgt 1981 die digitale Schriftlichkeit der Musik. Der MIDIStandard legt mit der Vereinheitlichung der Steuerungsbefehle für elektronische Klangerzeuger den Grundstein für die musikalische Symbolverarbeitung. Damit ist der zweite Eckpunkt der »technikvermittelten Synästhesie«31 erreicht, die Turing-Maschine beginnt, mit ihren symbolverarbeitenden Kopplungsprozessen die analogen ›begreifbaren‹, aber schriftlosen physikalischen Beziehungen im Sinne des Wortes ›aufzulösen‹. Das Dazwischen der getrennten Datenflüsse von Optik, Akustik und Schrift wird mittels einer zweiten Medienoberfläche (zumeist als Visualisierung auf dem Bildschirm) als sequentielle Folge von Befehlen (der Programmsteuerung) gestaltbar. Der analogen Verkoppelung der Kontrolle von einem durch das andere Medium auf der physikalischen Ebene – die vom Lochstreifenbild eines mechanischen Klaviers bis zum Audio/ Videoimpuls des Videosynthesizers reicht – folgt eine technisch-symbolische Sprache der Intermedialität: die Programmiersprache der symbolverarbeitenden Maschine. Sie ist codiert – wie die Mediendaten selbst – in Symbolen des binären Codes. Ihre kulturelle Dimension ist nicht mehr nur diejenige einer medienübergreifenden Idee und ihrer spezifischen technischen Ausführung (eines konkreten Medien›objekts‹), sondern die eines abstrakten Symbolsystems und seiner temporären und dynamischen Repräsentation als Oberfläche bzw. Interface. 29 David Dunn: »A history of electronic music pioneers«, in: ders. (Hrsg.), Eigenwelt der Apparate-Welt. (Katalog), Linz, 1992, S. 59f. 30 Frühere computererzeugte Kurzfilme waren etwa »Permutations« von John Whitney (1967) oder »Arabeske« von John Whitney/Larry Cuba (1975). 31 H. Winkler: Der Film und die digitalen Bilder, S. 302.
202
Rolf Großmann
Auch das Verhältnis zur Zeit hat sich verändert. Die lineare Zeit der Synchronisation/Rekonstruktion (s.o.) ist noch vorhanden, sie taktet die Verarbeitung der Symbole jedoch im MHz-Bereich, einem vom Standpunkt menschlicher Wahrnehmung her irrelevanten Zeitraster. Die technische Konkretion der abstrakten linearen Zeit verschwindet aus der wahrnehmbaren Welt des neuen Mediums Computer. Lineare Zeit(basis) und erlebte Zeit korrespondieren nach der verbesserten Auflösung des Zeitrasters nicht mehr unmittelbar. Die Gleichlaufschwankungen oder Tonhöhentranspositionen eines Grammophons oder Magnetophons entfallen oder werden – falls gewünscht – auf der Basis einer konstanten Taktrate errechnet.
Abb. 6
Die »Zeichen« und »Objekte« (s. Zitat Schaeffer) werden auf allen Ebenen kombinierbar, allerdings mittels eines neuen Typs von Medienmaschine. Die Verkoppelung von Objekten nach Maßgabe gestaltbarer bedeutungstragender Zeichenkomplexe wird ebenso möglich wie eine nunmehr simulierte (d. h. programmgesteuert nachgebildete) direkte Beziehung der Objekte untereinander. Eine fast beliebige Verknüpfung der nunmehr symbolisch organisierten Einschreib- und Übertragungssysteme der Medien wird möglich, selbst so unterschiedliche Medien wie Geld und Musik lassen sich verschalten: in der Installation »Hausmusik« (Feuerstein/Strickner/Fuchs/Zabelka, Wien 1993; s. Abb. 6)
Monitor – Intermedium zwischen Ton, Bild und Programm
203
spielt eine elektromechanische Violine die aktuellen Börsendaten eines Online-Dienstes. »Es wird jetzt eine Ordnung hinter der Sprache, hinter der Schrift, hinter der Ware und der Kunst, selbst hinter den (sozialen) Objekten erzeugt, auf der die Konstitution dieser Begriffe stattfindet oder eben nicht mehr im Hinblick auf diese Kategorien stattfinden kann. Es wird eine Ordnung hinter den Bedeutungen, VOR jeder Bedeutung erzeugt.«32
Neben solchen exotischen Relationen gilt es, die tägliche Intermedialität der Produktionsvorgänge der Unterhaltungsindustrie zu entdecken. Digitale Musikproduktion mittels eines Software-Sequenzers findet unter den Bedingungen technisch vermittelter Ton-Bild-Beziehungen statt. Ein Sequenzerprogramm dient zur Aufzeichnung, Generierung und Bearbeitung musikalischer Strukturen auf der Ebene von Steuerungsdaten für Klangerzeuger. Diese Strukturen werden – je nach Anwendung – als Notenbild, Balkendiagramm oder numerische Liste dargestellt. Die Visualisierung von Daten und Bearbeitungsfunktionen des Interfaces ›Bildschirm‹ rückt neben die auditive Ebene des Interfaces ›Lautsprecher‹. Sehen und Hören sind zwei Ansichten eines Prozesses geworden.
Abb. 7
32 Reinhard Braun: »Hausmusik«, in: Thomas Feuerstein/Mathias Fuchs/Klaus Strickner (Hrsg.), Hausmusik, Wien: Triton 1993, o. Seitenzahlen.
204
Rolf Großmann
Im Wintersemester 1921/22 gibt Paul Klee seinen Studenten am Weimarer Bauhaus Übungsaufgaben zum Verhältnis von musikalischer und bildnerischer Form. Aus seinem eigenen Beispiel (Abb. 7), »welches versucht, einen Gegenstand der zugleich abstrakt und zugleich von zwingender Realität ist, bildnerisch sachlich darzustellen, ist mancherlei zu lernen. Erstens die Möglichkeit dieser neuen Darstellung an sich.«33
Interface und funktionale Visualisierung Klee hatte mit seiner bildnerischen Umsetzung eines Koordinatensystems mit Tonhöhen- und Zeitachse den Prototypen des Edit-Windows eines modernen Sequenzers (Abb. 8) entworfen. Daß sich diese sachli-
Abb. 8
che Darstellung zu Übungszwecken eines einfachen, rational-verkürzten Modells der Relation zwischen Musik und Bild bedient, wird bei der Durchsicht der weiteren bildnerischen Versuche klar, die Klee seinen Studenten erläutert, etwa einer ›3D-Variante‹ (Abb. 9), die dynamische Bewegungen der Melodie ästhetisch repräsentiert. Die ansteigende Oktave erscheint als gebogener Anstieg im musikalischen Raum, der 33 Paul Klee: »Beiträge zur bildnerischen Formlehre«, 1921/22, faksimilierte Ausgabe des Originalmanuskripts, in: Jürgen Glaesener (Hrsg.), Basel: Schwabe 1979, S. 53.
Monitor – Intermedium zwischen Ton, Bild und Programm
205
Abb. 9
Abb. 10
trotz der folgenden lediglich kleinen Terz wieder auf den Boden absteigt und dort ruht. Vom Standpunkt des musikalischen Geschehens ist die Melodielinie wesentlich genauer abgebildet als in den Abb. 7 und 8. Die Verschränkung von visueller Repräsentation und Bearbeitung von Klangstrukturen macht digitale Musikproduktion zu einem inter-
206
Rolf Großmann
medialen Prozeß, der – so könnte eine These lauten – von einer rational verkürzten Bildlichkeit geprägt ist. Die vom Sequenzer-Dispositiv inspirierte Installation »piano – as an image media« (Toshio Iwai, 1995; Abb. 10) macht die visuelle Dimension einer sequenzergestalteten Musik interaktiv erlebbar und demonstriert zugleich – gewollt oder ungewollt – dessen intermediale Dürftigkeit, die hinter die »Formenlehre« Paul Klees zurückfällt. Das Prinzip eines Sequenzers wird auf zwei Projektionsflächen, die an die Tastatur eines elektromechanischen Flügels anschließen, kinetisch sichtbar. Die vom Trackball (links) gesteuerten Daten-Events bewegen sich auf die Tasten zu, ›drücken‹ sie und verschwinden als Lichtblitze über der Klaviatur. Die Installation zeigt einen metaphorischen und verklärten Blick ins Innere von Programm und Apparat.
Ästhetische Strategien Allerdings ist es notwendig, die Auseinandersetzung mit neuen Wahrnehmungsformen der digitalen »extensions of man« auch und gerade im ästhetischen Bereich zu führen. Produktive Beispiele, von der Erprobung hybrider Wirklichkeiten als virtuell-reale Klangräume (z. B. durch David Rokeby oder Knowbotic Research) über Datenexperimente (wie die erwähnte »Hausmusik«) bis zur erfolgreichen Gratwanderung zwischen experimenteller Ästhetik und Popkultur (Laurie Anderson), sind in Fülle vorhanden. Der Diskurs über ästhetische Strategien und Qualitäten bedarf jedoch – soviel sollte hier deutlich geworden sein – auch der ausführlichen Reflexion der technisch vermittelten intermedialen Prozesse und ihrer geschichtlichen Position. Auf die vorausgegangenen Beispiele bezogen treffen Hans Ulrich Recks (von einer These McLuhans abgeleitete) kritische Anmerkungen zu Methode und Kunstanspruch medialer Technologien den zentralen Punkt: »Daß die Medienextensionen heute euphorisch beansprucht werden, ist durch die Extension der Kunst vorbereitet, die im 20. Jahrhundert sich immer als jenseits ihrer Begrenzung zu umschreiben versuchte. Die Kunst hat radikale Erkenntnisansprüche gestellt. Nun werden von den medialen Technologien massive Kunstansprüche eingeklagt.«34
Monitor – Intermedium zwischen Ton, Bild und Programm
207
Zu Recht mahnt Reck den Anschluß an die Ästhetik der 20er und 60er Jahre an, die den technischen Apparat, seine Dispositivität und technische Funktion selbst als Objekt künstlerischer Gestaltung versteht, ohne dem Illusionscharakter vorgegebener Medienfunktionen zu erliegen. »Kunst hat dem technischen Anspruch der Computerästhetik nicht mit der Normativität des Ästhetischen in erster Linie zu antworten, sondern damit, daß sie den Computer wie ein ›objet trouvé‹ behandelt.«35
Was Nam June Paik mit den analogen Medien der 60er Jahre macht, sollte danach auch mit den digitalen Medien geschehen: ihre ästhetische Eroberung durch die Inszenierung ihrer von alltäglichen Zwecken ›befreiten‹ Funktionen als Kunst. Sicht- und hörbar werden so – Beispiel »Hausmusik« – auch die neuen Dimensionen intermedialer Transformation. Durch die Codierung, Vernetzung und Generativität des Digitalen erhalten diese Transformationen sowohl auf der Ebene der Signale als auch auf der Ebene der Symbole ihre spezifische Qualität, die im ästhetischen Feld medienreflexiv wirksam werden kann. Mit der Inszenierung der nun digitalen Verschaltung ist jedoch nur der erste Schritt möglicher ästhetischer Strategien vollzogen. Auf der Basis einer solchen ersten Ebene ästhetischer Praxis kann die avancierte ästhetische Reflexion der längst etablierten Produktionsprozesse und der hier ausgebildeten Formen aufsetzen. Die funktionalen Visualisierungen der Sequenzer, die als »Music Creation & Production System« (Cubase) auftreten, finden sich direkt in musikalischen Formen, Stilen und Gattungen wieder. Pattern und Loops, die als Parts im Raster der Arrangement-Windows beliebig verschiebbar sind, virtuelle Instrumente mit ihren für den intuitiven Zugriff visualisierten Parametern und die interaktiven Raumdarstellungen der Hall- und Surroundgeneratoren sind weit mehr als visuelle Interfaces zur Simulation etablierter Medienmusikpraxis. Sie entgrenzen in einem halbautomatischen intermedialen Produktionsprozeß kulturell etablierte Formen und Strukturen und fördern auf der Rezeptionsseite neue intermediale Klang- und Raumkonzepte, die mit Begriffen wie Synästhesie unzureichend und 34 Hans Ulrich Reck: »Der Streit der Kunstgattungen im Kontext der Entwicklungen neuer Medientechnologien«, in: Kunstforum international, Bd. 115 (1991), S. 97. 35 Ebd.
208
Rolf Großmann
teilweise unzutreffend beschrieben wären. Trackästhetik und tonale Indifferenz einer auf geschichteten Pattern aufgebauten Medienmontage sind bereits kulturell verbreitete und vertraute Formen der Produktion und Rezeption. Diesen verdeckten intermedialen Charakter der durch digitale Medien bestimmten neuen Praxis zu reflektieren, ist u. a. eine implizite Strategie ästhetischer Gestaltung in der avancierten Popularmusik, die von den »aesthetics of failure« über die Soundexperimente der Clicks & Cuts bis zu den obligaten VJs (Video Jockeys) bei Sound-Performances reicht.36 Die Skizze der Stationen der Wiederverschaltung der medial getrennten Wahrnehmungsmodi läßt sich in einer ersten – sicher ergänzungsund differenzierungsbedürftigen – Übersicht wie folgt zusammenfassen: Während das Farbklavier für eine zwar eng mit der technischen Entwicklung verknüpften, aber noch indirekten Kopplung von Bild und Ton steht, nehmen optoelektrische und oszilloskopische Anordnungen wahrnehmungsexterne direkte Kopplungen vor. Digitale ›Werkzeuge‹ schließlich enthalten bereits aufgrund ihres Funktionsprinzips mittels Interface bzw. Oberfäche diverse Elemente struktureller und symbolischer Vermittlung. Die ästhetischen Konsequenzen werden dabei sichtbar in der - Inszenierung des Mediums und seiner Funktion, - Inszenierung von Interface und Oberfläche, - alltäglichen Intermedialität in Produktionsprozessen und Produkten der Unterhaltungsindustrie. Wenn heute ganz selbstverständlich von »akustischem Design« oder »Klangbild-Image«37 die Rede ist, wird auch terminologisch klar, daß die Prinzipien der Gestaltung in Medienprodukten und von Medien›werkzeugen‹ in der Alltagspraxis bereits die Bereiche Bild, Ton und Text übergreifen. Versuche zur Beschreibung der technisch intermedialen Prozesse spiegeln sich in Formulierungen wie »technikvermittelte Synästhesie«38, »funktionale Synästhesie«39 und »Mediensyn36 S. dazu Rolf Großmann: »Spiegelbild, sprechender Spiegel, leerer Spiegel. Zur Mediensituation der Clicks&Cuts«, in: Marcus S. Kleiner/Achim Szepanski (Hrsg.): Soundcultures, Frankfurt/M.: Suhrkamp 2003, S. 52-68. 37 Jan Reetze: Medienwelten. Schein und Wirklichkeit in Bild und Ton, Berlin: Springer 1993, S. 224. 38 H. Winkler, Der Film und die digitalen Bilder. 39 Rolf Großmann: »Sechs Thesen zu musikalischen Interfaces«, in: Klaus Peter Dencker (Hrsg.), Interface 2. Weltbilder – Bildwelten, Hamburg: Hans-Bredow-Institut 1995, S. 159f.
Monitor – Intermedium zwischen Ton, Bild und Programm
209
these«40 wieder, die sich am Rande des Mediendiskurses gebildet haben. Diese Sicht des ›Inter‹ zwischen den Künsten folgt dem Desiderat eines ›Inter‹ zwischen den »zwei Kulturen« (C. P. Snow) einer geistes- und naturwissenschaftlichen Perspektive, das sich schon begrifflich aus dem Gegenstand einer technikkulturellen Entwicklung von Kunst und Gesellschaft ergibt. (Der Beitrag basiert auf einem Vortrag zum Workshop »Computer als Medium«- HyperKult VI, Lüneburg 1997 und erschien zunächst unter dem Titel »Farbklavier, Oszilloskop, Sequenzer – technische Transformationen von Ton und Bild« in: Jörg Helbig [Hrsg.], Intermedialität. Theorie und Praxis eines interdisziplinären Forschungsgebiets, Berlin: Schmidt 1998. Für den vorliegenden Band wurde der Text ergänzt und aktualisiert.)
Literatur Arn, Robert: »The Form and Sense of Video«, in: David Dunn (Hrsg.), Eigenwelt der Apparate-Welt (Katalog), Linz 1992, S. 183-189. Braun, Reinhard: »Hausmusik«, in: Thomas Feuerstein/Mathias Fuchs/Klaus Strickner (Hrsg.), Hausmusik, Wien: Triton 1993, o. Seitenzahlen. de la Motte-Haber, Helga: Musik und Bildende Kunst, Laaber 1990. Dreher, Thomas: »›Apres John Cage‹. Zeit in der Kunst der sechziger Jahre. Von Fluxus-Events zu interaktiven Multi-Monitor-Installationen«, in: Ulrich Bischoff (Hrsg.), Kunst als Grenzbeschreitung. John Cage und die Moderne, Düsseldorf: Richter 1992, S. 57-74. Dunn, David: »A history of electronic music pioneers«, in: ders. (Hrsg.), Eigenwelt der Apparate-Welt. (Katalog), Linz, 1992, S. 21-62. Eicher, Thomas: »Was heißt (hier) Intermedialität?«, in: ders./Ulf Bleckmann (Hrsg.), Intermedialität. Vom Bild zum Text, Bielefeld: Aisthesis 1994, S. 11-33. Gombrich, Ernst H.: Kunst und Illusion, Stuttgart: Belser 1986 (engl. Original Oxford 1977). Großmann, Rolf: »Sechs Thesen zu musikalischen Interfaces«, in: Klaus Peter Dencker (Hrsg.), Interface 2. Weltbilder – Bildwelten, Hamburg: HansBredow-Institut 1995, S. 156-163. Großmann, Rolf: »Spiegelbild, sprechender Spiegel, leerer Spiegel. Zur Mediensituation der Clicks&Cuts«, in: Marcus S. Kleiner/Achim Szepanski (Hrsg.): Soundcultures, Frankfurt/M.: Suhrkamp 2003, S. 52-68. Hausmann, Raoul: »Optofonetika« MA, Mai 1922, zit. nach Karin Maur (Hrsg.), Vom Klang der Bilder, München: Prestel 1985.
40 J. Reetze: Medienwelten, S. 235ff.
210
Rolf Großmann
Helbig, Jörg (Hrsg.): Intermedialität. Theorie und Praxis eines interdisziplinären Forschungsgebiets, Berlin: Schmidt 1998. Kittler, Friedrich: Grammophon Film Typewriter, Berlin: Brinkmann & Bose 1986. Klee, Paul: »Beiträge zur bildnerischen Formlehre«, 1921/22, faksimilierte Ausgabe des Originalmanuskripts, in: Jürgen Glaesener (Hrsg.), Basel: Schwabe 1979. Laurel, Brenda: Computers as Theatre, Reading (Mass.): AddisonWesley 1991. Malina, Frank J./Schaeffer, Pierre: »A Conversation on Concrete Music and Kinetic Art«, in: Frank J. Malina (Hrsg.), Kinetic Art. Theory and Practice, New York: Dover 1974, S. 230-235. Moritz, William: »Oskar Fischinger«, in: Hilmar Hoffmann/Walter Schobert (Hrsg.), Optische Poesie. Oskar Fischinger – Leben und Werk, Schriftenreihe des deutschen Filmmuseums, Kinematograph Nr. 9, Frankfurt/ M.: 1993, S. 7-90. Nyman, Michael: Experimental music. Cage and beyond, London: Studio Vista 1974. Reck, Hans Ulrich: »Der Streit der Kunstgattungen im Kontext der Entwicklungen neuer Medientechnologien«, in: Kunstforum international, Bd. 115 (1991), S. 81-98. Reetze, Jan: Medienwelten. Schein und Wirklichkeit in Bild und Ton, Berlin: Springer 1993. Schmidt, Siegfried J.: »Medien, Kultur: Medienkultur«, in: ders. (Hrsg.), Kognition und Gesellschaft, Frankfurt/M.: Suhrkamp 1992, S. 425-450. Weisstein, Ulrich (Hrsg.): Literatur und bildende Kunst. Ein Handbuch zur Theorie und Praxis eines komparatistischen Grenzgebiets, Berlin: E. Schmidt Verlag 1992. Weisstein, Ulrich: »Einleitung. Literatur und bildende Kunst; Geschichte, Systematik, Methoden«, in: ders. (Hrsg.), Literatur und bildende Kunst: Ein Handbuch zur Theorie und Praxis eines komparatistischen Grenzgebiets, Berlin: E. Schmidt Verlag 1992, S. 11-33. Winkler, Hartmut: »Tearful reunion auf dem Terrain der Kunst? Der Film und die digitalen Bilder«, in: Joachim Paech (Hrsg.), Film, Fernsehen Video und die Künste. Strategien der Intermedialität, Stuttgart: Metzler 1994, S. 305. »ZKM/Zentrum für Kunst und Medientechnologie Karlsruhe«, in: MultiMediale 4. Das Medienkunstfestival des ZKM Karlsruhe (Katalog). Karlsruhe 1994.
Michael Harenberg
Die musikalisch-ästhetische Verortung klingender Räume Virtuelle Räume als musikalische Instrumente
1. Die Verortung der Musik Seit Kant wissen wir, daß Zeit und Raum als anthropologische Konstanten stets gegeben sind. Und so ist auch für das Erklingen von Musik ein Raum, in dem sich Schallwellen ausbreiten und wahrgenommen werden können, a priori existent. Ohne Raum ist Musik, die, was ihre Struktur angeht, primär als Zeitkunst interpretiert wird, schlicht nicht vorstellbar und klanglich nicht präsent. Wir werden sehen, wie eng Raum und Zeit, Form und Klang gerade in der räumlichen Wahrnehmung gekoppelt sind und welches Potential diese Kopplung angesichts immaterieller Datenräume besitzt. Räume, die speziellen Hör-Anforderungen gehorchen müssen, spielen in der Musik seit jeher eine gewichtige Rolle. Seien es Amphitheater, Kirchen, Konzertsäle oder Clubs, den jeweiligen Anforderungen der funktionalen Hörerwartungen wird durch die Gestaltung des Hörraums selbst Folge geleistet. Dabei war der architektonische Raum bisher lediglich als Ort des Erklingens gemeint und wurde je nach vorhandenen Kriterien und physikalischen Möglichkeiten gestaltet. So denkt und zielt Architektur in der Regel lediglich auf die (klanglichmusikalische) Funktionalität des Ortes. Eine Kulturgeschichte des Hörraums würde die historische Relationalität solcher Raumkonzepte demonstrieren und somit immer auch von künstlerischen, sozialen, politischen sowie individuellen Vorstellungen und Phantasien der jeweiligen Gesellschaft sprechen müssen. Dies würde interessante Rückschlüsse nicht zuletzt auf die Räumlichkeit der jeweiligen Musik selbst zulassen.1 Parallelen etwa zwischen den Illusionsmedien und entsprechenden musikalischen Gestaltungsmitteln des Barock und
212
Michael Harenberg
unseren heutigen digitalen Simulationen oder die musikalischen Vorläufer eines akustischen Cyberspace sind resultierende interessante Fragestellungen, die hier zumindest andeutungsweise eine Rolle spielen sollen.2 Zum Gegenstand aktiver musikalischer Gestaltungsmöglichkeiten konnte der Ort des Erklingens von Musik selbst erst als technischer Raum, als programmierbarer und parametrisierbarer Datenraum werden. Als solcher existiert er lediglich virtuell in der Software digitaler Medienmaschinen. Als wahrnehmbarer Hör- und Klangraum kann er mittels Lautsprechern abgestrahlt und somit in der Überlagerung mit dem physikalisch-akustischen Realraum klanglich exisitieren. Das hat weitreichende Konsequenzen, da anders als beim digitalen Bild, welches autonom im Bildrahmen des Monitors erscheint,3 der virtuelle Klangraum keine akustische Existenz per se haben kann. Ein virtueller Klangraum ist aber ebenso als akustischer Nicht-Raum unvorstellbar, da selbst die (ebenfalls unmögliche) völlige Stille noch eines Raumes bedürfte. Schon die isolierte Überlagerung künstlicher, realer und technischer Räume, z. B. mittels Kopfhörern, demonstriert die völlige Desorientierung durch den Verlust des akustischen Realraumes. Dieser Verlust muß bei immersiven Systemen durch aufwendige TrackingVerfahren ausgeglichen werden und provoziert schon bei Walkman/ iPod-TrägerInnen die gewünschten Raum-distanzierenden und realitätsverdrängenden ›Realtime-Kino‹-Effekte einer als inszeniert erlebten Wirklichkeit.4 Man könnte den Einsatz mobiler Rezeptionstechnik als akustische Manipulation der Realitäts- und so auch der Raumwahrnehmung, ja sogar aktiv als die Generierung der gewünschten Wahrneh1 Ebenso lassen sich musikimmanente Raumvorstellungen anführen, die erst sehr spät hohen und tiefen Lagen zugeschrieben werden. ›Hoch‹ und ›tief‹ war bei den Griechen noch vertauscht! Im Mittelalter gab es die Bezeichnungen ›hart‹ und ›weich‹, ›spitz‹ oder ›schwer‹; hoch/tief kommt ursprünglich aus dem Germanischen; z. B. ist es bis heute üblich, von ›einem hohen Fest‹ zu sprechen, ohne daß damit räumliche Vorstellungen verbunden wären. Vgl. Heinrich Hussmann: Einführung in die Musikwissenschaft, Wilhelmshaven 1975, S. 94. 2 Für die ikonographische Seite gibt es bereits entsprechende Untersuchungen. Vgl. etwa die Arbeiten von Margaret Wertheim zur Genealogie des virtuellen Raums in: Die Himmelstür zum Cyberspace. Eine Geschichte des Raumes von Dante zum Internet, Zürich: Ammann 2000 oder Burghart Schmidt zu den Illusions- und Simulationsleistungen des Barock in: Herbert von Karajan Centrum (Hrsg.), Amor vincit omnia. Karajan, Monteverdi und die Entwicklung der Neuen Medien, Wien 2000, S. 88-107. 3 Lev Manovich: »Archäologie des Computerbildschirms«, in: Kunstforum Dokumentation, Bd. 132, Die Zukunft des Körpers I, November-Januar (1995/96), S. 124ff.
Die musikalisch-ästhetische Verortung klingender Räume
213
mungsqualitäten über die bewußte Auswahl der Musik beschreiben und hätte damit einen ersten Hinweis auf Verfahren, wie sie auch in Raumsimulationen der elektroakustischen Musik zum Einsatz gelangten. Aber bis dahin war es ein langer Weg der Auseinandersetzung und Gestaltungsversuche von Raumkonzeptionen, die in der technologischen Umsetzung eine ebenso wichtige Rolle spielen sollten. Unabhängig von heutigen technischen Raumkonzepten ist Räumlichkeit als musikalische Dimension historisch schon sehr lange Gegenstand kompositorischer Auseinandersetzungen. Überliefert ist z. B. das Werk des Niederländers Adrian Wilaert, Kapellmeister an San Marco, in Venedig von 1527-1562. San Marco, mit seinen zwei Orgeln, Emporen und dem unterteilten Mittelschiff, wurde von Wilaert zur formalen Gestaltung seiner mehrchörigen Werke benutzt. Mit Beginn der Renaissance ging es bei der Einbeziehung des Raumes um die strukturelle Ausweitung kompositorischer Formprinzipien. Die Aufstellung und Bewegung der Stimmen und Chöre im Raum repräsentiert die Topologie der Form der Komposition, die somit zwischen einchöriger Homophonie und mehrchöriger Polyphonie in verräumlichter Repräsentation wahrgenommen werden kann. Die Aufführung dieser bereits voll ausgebildeten mehrchörigen Werke projiziert die bis dahin gültigen polyphonen Mittel struktureller Organisation aus den symbolischen Zeichen-Räumen der Partitur in den Realraum, der dadurch eine strukturell-kompositorische Funktion erhält. Es handelt sich im Kern um eine Projektions- und Simulationstechnik für musikalische Formen, wie man sie strukturell mit der Entwicklung der Zentralperspektive in der Malerei vergleichen kann. Alle musikalischen Raumkonzepte müssen sich seither die Frage nach ihrer kompositorischen und strukturellen Funktion des Raumes gefallen lassen – wie auch vice versa alle raumbezogenen Konzepte als potentielle
4 Zum Walkman-Effekt und seinen aktuellen Erscheinungsformen mittels mp3-Playern heißt es in einem Beitrag des Apple Online-Magazins MacGuardians am 8.8.2004: »Nachdem die Listen geschrieben und die CDs geordnet waren, machte ich mich daran, per Pause-Record-Play die Kassetten zu bespielen, die dann in meinem Walkman den Soundtrack für den Weg zur Schule, zur Fete, zum Bäcker, ja sogar in den Keller lieferten. Ich rannte so oft es ging mit Stöpseln in den Ohren herum. Ein Weg ohne passende Musik wurde zur Zumutung. […] Mit Musik schwimmt sich’s einfach leichter durch den Tag… […] Musik überall…?! … wobei ich es trotz iPod durchaus genieße, ab und zu ohne Musik zu sein… die Naturgeräusche zu erfahren und die Umwelt in Echt zu erleben…! […]« in: http://www.macguardians.de/fullstory.php?p=3132&c=1&bereich=2, 8.8.2004
214
Michael Harenberg
Materialisierung kompositorischer Formprinzipien gelesen werden können. Beispiele für diese topologischen Strukturtechniken finden sich neben Venedig etwas später auch in England bei Tallis und gipfeln wohl 1628 in der gewaltigen 53stimmigen Festmesse von Orazio Benevolis zur Einweihung des Doms in Salzburg, in der solcherart Klang- und Raumwirkungen, auf komplexe Art gestaltet, den sakralen Raum funktional adressieren und gleichsam imprägnieren. In der Klassik und der Romantik hatte Raum als musikalisch-kompositorische Kategorie keine Konjunktur. Das Ideal der verschmelzenden Einheit von Instrumenten und Orchestern förderte die Guckkastenbühne und erlaubte räumliche Ausreißer lediglich programmatisch und funktional wie etwa als Fernorchester oder ›ferner Ruf der Nachtigall‹. Kompositionstheoretisch machen die klaren, zeitlich eindimensional linearen, auf ein unausweichliches Ziel hin angelegten Formen die Dopplung ihrer Wirkung in bezug auf Räumlichkeit überflüssig. Im Zentrum des Interesses standen die symbolischen Räume der Tonintervalle, vorausgedachte Linien von Reprisenwirkungen, die Vorstellung von Form als einer linearen Strecke und konstruierte, später gar gesprengte Harmoniken: kurz, die Revolutionierung in der Beherrschung und Gestaltung des immanenten musikalischen Materials. Erst an dessen krisenhafter Grenze im 20. Jahrhundert, als der Materialzugriff und der Materialbegriff selbst soweit perfektioniert und ausgeweitet waren, daß sie tautologisch und damit kontraproduktiv zu werden drohten, konnte eine Ausweitung hin zu den mittelbaren Parametern wie Geräusch, Klangfarbe und Raum geschehen.
2. Vom Klangraum zum Raumklang Das geschah von 1900 an trotz aller technischer Erfindungen sowie der beiden vorbereitenden bahnbrechenden theoretischen Arbeiten von Helmholtz 1870 (zur Wahrnehmung) sowie von Fourier 1907 (zur technischen Beschreibbarkeit) zuallererst in der gedanklich-kompositorischen Vorstellungswelt der Komponisten und Musiker. Es war die zugespitzte Krise des physikalischen Raumbegriffes, ausgelöst durch Einsteins Relativitätstheorie und der damit verbundenen sukzessiven Auflösung linearer Raum-Zeit-Konzepte, die die Frage nach dem musikalischen Raum eines Werkes in den Entstehungsprozeß von Musik
Die musikalisch-ästhetische Verortung klingender Räume
215
verlagerte.5 Die Krise des euklidisch-geometrischen dreidimensionalen Raumes zugunsten relativistischer mehrdimensionaler Raumvorstellungen fasziniert Wissenschaftler wie Künstler, scheint sie doch dem modernen Lebensgefühl der ersten industriellen Revolution in seiner neuen Unübersichtlichkeit, Geschwindigkeit und Intensität zu entsprechen. Zusätzlich beeinflußt durch neue Wahrnehmungsqualitäten – durch die Entwicklung von Medientechnologien wie Telefon, Radio und die neuen ästhetischen Techniken der Fotographie und vor allem des Films befördert –, begünstigen die neuen Raumkonzepte die Vorstellung abstrakter Räume fernab jeglicher physikalischer Realität bis zu topologischen ›Konsens-Halluzinationen‹ unserer Zeit, als die Gibson die euphorische Rezeption des von ihm erstmals beschriebenen ›Cyberspace‹ als einem virtuellen (Daten-)Raum im Inneren der unsinnlichen Realität des Digitalen beschreibt.6 Diese Vorstellungen wurden auch von Komponisten aufgegriffen und künstlerisch interpretiert. So dient Bernd Alois Zimmermanns formale Vorstellung von der Kugelgestalt der Zeit einer extrem komplexen Durchdringung verschiedener musikalisch gekennzeichneter Handlungsstränge, Orte und Zeiten. Die gleichzeitige musikalische Darstellung verschiedener (Handlungs-)Räume in Vergangenheit, Gegenwart und Zukunft gehört zu den Meisterwerken in der kompositorischen Durchdringung raumzeitlicher Vorstellungen. Jannis Xenakis ist einer der ersten, der begrifflich die Einsteinschen Theorien musikalisch-künstlerisch adaptiert und etwa mit Klangquanten7, kleinsten musikalischen Einheiten, räumlich-materielle Vorstellungen verbindet.8 Ebenso stieß Edgar Varèse bereits in den zwanziger Jahren auf Schriften des polnischen Physikers, Musikologen und Philosophen Hoëné-Wronsky, die ihn so stark inspirierten, daß er sich später beeindruckt erinnert:
5 Vgl. hierzu den Beitrag von Jochen Koubek in diesem Band. 6 Vgl. http://www.heise.de/tp/deutsch/inhalt/buch/7283/1.html zu Margaret Wertheim 2000. 7 Vgl. hierzu den Beitrag von Martin Warnke in diesem Band. 8 Diese nach dem zweiten Weltkrieg von dem englischen Physiker Gabór fortgesetzten Forschungen, die erst in den 80er Jahren durch Barry Truax mathematisch bewiesen werden konnten, führen zur Entwicklung der Granularsynthese. Damit etabliert sich eine Spielart der digitalen Klangsynthese, welche, in Abgrenzung zur zeitlich diskreten vertikalen Analyse/Synthese auf der Basis der Fouriertransformation, die Entstehung von Klang horizontal als raum-zeitlichen Verschmelzungsprozeß beschreibt.
216
Michael Harenberg
»Dieser Mann definierte die Musik als ›la corporification de l'intelligence, qui est dans les sons‹. Es war für mich eine neue, aufregende und die erste einleuchtende Konzeption von Musik. Hier lag für mich wahrscheinlich der erste Ansatzpunkt, mir Musik räumlich vorzustellen, mir die Klänge als bewegliche Tonkörper im Raum zu denken, eine Konzeption, die ich stufenweise weiter entwickelte und realisierte.«9
Während in den seriellen Kompositionsverfahren, exemplarisch etwa bei Webern als Resultat kompositorisch immanenter Raumvorstellungen als Oberflächenphänomen, eine Art Klangfarbenmosaik entsteht, bei Xenakis architektonische Raumkonstruktionen formbildend wirken, inszeniert Varèse Sirenen- und Perkussionsklänge wie materialisierte Klangsäulen durch den Raum. In allen Fällen ist die räumliche Dimension Bestandteil der kompositorischen Struktur geworden, womit eine Komponistengeneration spätestens nach dem zweiten Weltkrieg mit imaginären, symbolischen sowie realen Ansätzen alle Dimensionen musikimmanenter raumbezogener Verfahren erobert. Mit dem Ende des Serialismus als dem historischen Endpunkt des musikalischen Zeitalters einer narrativen Musik im weitesten Sinne, sei es in bezug auf expressionistische oder romantische Traditionen, wird plötzlich sichtbar, daß sich unter den nur scheinbar spröden Ansätzen der Reihentechniken längst ein Parameter emanzipiert hatte, der traditionell als Schnittmengenphänomen ein eher unscheinbares Dasein führte: der Klang. In der folgenden explosiven Öffnung kompositionstheoretischer wie praktisch-experimenteller Ansätze etablieren sich Klangfarbenkompositionen allerdings vorsichtig und über den Umweg einer anderen Entwicklung der Nachkriegsperiode: der nicht länger nur musikimmanent-kompositorischen Einbeziehung des Raumes. Reale Raumpositionierungen von Lautsprechern, Musikern oder Orchestergruppen versprachen eine differenziertere Wahrnehmbarkeit komplexer Strukturen und Klangphänomene. Obwohl von einigen Komponisten wie z. B. Karlheinz Stockhausen fälschlich als Neuentdeckung interpretiert,10 knüpfte man an die alte venezianische Schule topologischer Formentäußerung an, mit dem großen Unterschied, daß weniger strukturelle Fragen der Form, sondern – nicht zuletzt angeregt und unterstützt durch die Entwicklung der Elektronischen Musik in Köln, der 9 In: Grete Wehmeyer: Edgar Varèse. Regensburg: Bosse 1977. 10 Vgl.: Karlheinz Stockhausen, »Musik im Raum«, in: Die Reihe 5, Wien 1959, S. 59ff.
Die musikalisch-ästhetische Verortung klingender Räume
217
musique concrète in Paris und den Anfängen der Computermusik in den USA – eher Klangfarbenphänomene im Zentrum des Interesses standen.11 Anders als in der parallel sich entwickelnden Pop- und Rockmusik, die mit ihren neuen elektrifizierten Instrumenten einen ganz direkten Zugang zur Kategorie des Sound als emotionaliserendes Stilund Differenzierungspotential findet, führt der Weg in der komponierten Musik über die Ausdifferenzierung von Klangexperimenten im Raum. Es gibt »eine zeittypische Neugier auf klingende Farbintensitäten im dreidimensionalen Raum«, die anknüpfen an die »Idee vom reinen Klang«, den »Durchblick auf die unverfälschte Materie«, wie sie sich durch die Jahrhunderte verfolgen läßt.12 Stücke wie Madernas »Musica su due dimensioni« (1952/58), Stockhausens »Gesang der Jünglinge« (1956), seine »Gruppen für drei Orchester« (1955/57) sowie »Carré« (1959/60), Berios »Allelujah II« (1956/58), Boulez’ »Poésie pour pouvoir« (1958), Zimmermanns »Soldaten« (1958/60), Nonos »Intolleranza« (1960/61) und »La fabrica illuminata« (1964) sind nur die bekanntesten Beispiele für eine unmittelbare und konstitutive Erweiterung des Rezeptionsraumes, der durch das Aufbrechen traditioneller Ordnungen und Dezentralisierung ein neues Verhältnis von Zuhörer, Werk und Aufführung abzubilden beginnt. Zentrum dieser Entwicklung war zweifelsohne Donaueschingen, wo sich Heinrich Strobel, gefolgt von Otto Tomek, zum wichtigsten Förderer und Auftraggeber von Raummusiken entwickelte. So entstanden neben einigen spektakulären Raumkompositionen, wie dem »Musik-Raum-Hörexperiment« für drei Orchestergruppen, Tonband, 70 Lautsprecher auf einer hängenden, sich drehenden Spirale und Sprecher »Poésie pour pouvoir« von Pierre Boulez, 1958, zunächst eine Reihe von Solo-Werken, die die neuen Möglichkeiten und Grenzen auszuloten versuchten. Schließlich entstand mit Ligetis »Atmosphères« 11 »Die räumliche Auffassung von Musik, wie ich sie mir vorstelle, beruft sich auf das Prinzip der Venezianischen Schule um 1600 […] Aber sie unterscheidet sich von den Venezianern in einer völlig grundverschiedenen kompositorischen und klanglichen Einstellung. Diese Ping-Pong-Auffassung, bei der Musik von rechts nach links und von links nach rechts wechselt, wie der Ball beim Ping-Pong-Spiel, […] ist meiner Musik fremd. Ich setze den Klang räumlich zusammen durch die Benutzung verschiedener, im Raum getrennter Ausgangspunkte. […] Den drei Gefühlszuständen, die ich vorher darlegte – Entsetzen, bewunderndes Staunen, Begeisterung – entsprechen die drei verschiedenen Wesensarten des Klangs und ihre unterschiedliche kompositorische Verwendung.« Luigi Nono: Texte. Studien zu seiner Musik, Zürich: Atlantis 1975, S. 124. 12 Alle Zitate: Ulrich Dibelius: Moderne Musik II. 1965-1985, München: Piper 1988, S. 46f.
218
Michael Harenberg
für großes Orchester (1961) eigentlich schon das Maßstäbe setzende, ideale Werk in bezug auf Klangdifferenzierung sowie die ausgewogene Binnen-Räumlichkeit exakt strukturierter toplogischer Klangflächen. Andere Schlüsselwerke entstehen in eigenen speziellen Hörräumen, wie es z. B. Xenakis mit »Metastaseis« gelingt. Er übernimmt die Statikberechnungen des Philipps-Pavillions zur Weltausstellung 1958 in Brüssel als Strukturvorlage für seine Musik, die im Auftrag des Architekten Le Corbusier zusammen mit Edgar Varèses »Poème Electronique« aus Klängen bearbeiteter Aufnahmen von Glocken, Chören, Gesang, Maschinengeräuschen und Klavierakkorden in diesem idealen Hörraum mit seinen 425 Rundum-Lautsprechern gleichsam dreidimensional erklingt. Aspekte räumlicher Entgrenzung finden sich ebenfalls bei Stockhausen, der etwa in »Telemusik« (1966) sowie in »Hymnen« (1967) mit Sprachen und Musiken aller Kontinente experimentiert, um »die Wirklichkeit des fixierten Standpunkts durch eine Globalsicht über Länder, Räume, Nationalsprachen und Erdteile hinweg aufzulösen und ins Imaginäre zu entrücken«, mit dem Ziel der »Diffusion von Konkretem in schwebende Phantasiewelten«.13 Irdischer und eher politisch motiviert arbeitet Nono in »La fabrica illuminata« (1964) für 4-KanalTonband und Sängerin mit den bearbeiteten Klängen aus einer Fabrik, die er auch dort wieder aufführt und zur Diskussion stellt. Mit Paiks 1954 erstmals per Satellit in Europa und Japan übertragenem Simultankonzert ist dann auch im Realraum die globale Dimension raumgreifender musikalischer Konzeptionen inklusive der bis heute aktuellen Fragestellung synchronisierender Kopplungen und topologischer Anbindung erreicht.
3. Technische Räume Damit sind Anfang der 60er Jahre die Hauptströmungen beschrieben, der reale Raum als Klangraum im doppelten Sinne erobert und abgesteckt. Viele dieser Werke benutzen bereits Tonbandeinspielungen über einen oder mehrere Lautsprecher, um die vorhandenen räumlichen und akustischen Aufführungsbedingungen zu beeinflussen und sich letztlich von den realen Klangverhältnissen unabhängig machen zu können. Es ist das Versprechen der Technik, künstliche Räume als Erweiterung 13 Ebd., S. 30f.
Die musikalisch-ästhetische Verortung klingender Räume
219
technischer Parametrisierung des musikalischen Materials zu erzeugen und spielbar zu machen. Technische Räume existieren im Prinzip überall da, wo Aufnahme-, Speicher- und Übertragungstechnik, wo Klangsynthese und technische klangbearbeitende Verfahren zum Einsatz kommen. Unabhängig davon, ob analog oder digital: Abbildungen realer Raumakustiken sind nie neutral im Sinne ihrer Referenzialität und beinhalten so das Potential der bewußten Manipulation im Sinne der ästhetisch-kompositorischen Setzung von akustischen Raumklanginformationen. Beschreiben die technischen Räume zu Beginn dieser Entwicklung vor allem radiophone Konzepte, in denen elektrische Spielinstrumente direkt an Radiosender gekoppelt sind, avancieren sie schnell zur sogenannten reinen ›Lautsprechermusik‹, welche die synthetisierten Klänge der elektroakustischen Musik in den Realraum hineinprojiziert und mit diesem überlagert. Der klingende Raum wird als Bestandteil technischer Manipulationen von musikalischen Entäußerungen dekonstruiert, aber dadurch selbst zum unmittelbaren Bestandteil von Verfahren elektroakustischer Klangerzeugung. Die ersten frühen elektrischen Instrumente benötigen Räume noch ganz direkt als Bestandteil ihrer Spielinterfaces. So benutzt etwa der Lichtbogen von Doddler als eines der ersten musikalisch verwendeten elektrischen Instrumente den Realraum unmittelbar zur Klanggenerierung, während Cahill 1913 für sein ›Dynamophon‹ in Ermangelung von Verstärker und Lautsprecher mit dem Telephonnetz bereits einen technischen Raum zur Distribution seiner Musik einsetzt. Das sowjetische »Theremin« von 1927, mit seiner Verklärung raumgreifender Gestiken durch Manipulation unsichtbarer kapazitativer Antennenfelder auch als ›Ätherophon‹ bezeichnet, benutzt schon Lautsprecher zur Schallabstrahlung in den Realraum. Diese Lautsprecher sind allerdings, wie auch beim folgenden »Ondes Martenau«, mittels Saiten, Becken und Resonanzkörpern so präpariert, daß sie als spezielle (Klang-)Räume im (Real-)Raum mit einem starken Eigenklanganteil das Signal färben und dadurch lebendiger erklingen lassen. Diese letztlich aber doch statischen Mikroraummanipulatoren, wie wir sie auch aus außereuropäischen Musikkulturen kennen, werden mit der elektronischen Musik mittels Generatoren, Verstärkern und Filtern ebenso obsolet wie mit den Tonband- und Schallplattenmanipulationen der musique concrète, wo Pierre Schaeffer im übrigen die Live-Steuerung der Verteilung von Klängen auf mehrere im Raum verteilte Lautsprecher primär nutzt, um
220
Michael Harenberg
mit der Inszenierung eines ›Spielers‹ ein visuelles Moment in das sterile Setting von reinen Lautsprecherkonzerten zu reintegrieren. Die musikalische Arbeit mit Entfernungseindrücken über einfache Dynamikabstufungen hat ihre Wurzeln im Barock und der Romantik. Mit Fourier entdeckte man bereits relativ früh, wie durch Dynamik und klangfarbliche Variationen der Raumeindruck beeinflußt werden kann. Technisch beschreibbar werden Parameter wie die Raumgröße aber primär als Zeitfunktionen. Durch Reflektionszeiten und Laufzeitunterschiede zwischen dem rechten und dem linken Ohr können wir in Verknüpfung mit Tonhöheninformationen wie beim Dopplereffekt in Kombination mit Klangfarbeninformationen die Größe von Räumen und die Ortung sowie Bewegung von Klangquellen lokalisieren. Ein Delay als einfachste Schaltung einer Zeitverzögerung wäre also das primitivste Werkzeug zur Herstellung eines künstlichen Klangraumes. Moderne digitale Effektgeräte zur Raumsimulation bedienen sich zur Erzeugung von künstlichen Klang-Räumen vielfältiger frequenzselektiv gefilterter Primär- und Sekundär-Reflexionen, um auch subtilere Klangeigenschaften wie die Materialbeschaffenheit von Boden und Wänden abbilden zu können. Auf der Makroebene ist dies durchaus ausreichend, um entsprechende Raumeindrücke herzustellen. Simulative Verfahren zur identischen Reproduktion ganz bestimmter Raumakustiken (z. B. berühmter Konzertsäle) benutzen das mathematische Prinzip der Faltung, um die spezifischen Klangeigenschaften von Räumen anhand frequenzabhängiger Impulsantworten auf jegliches klingende Artefakt zu projizieren und dieses damit akustisch in den ursprünglichen Raum zu transformieren. Lange bestand eine Hauptaufgabe dieser Techniken darin, die recht sterilen Ergebnisse technischer Klangsyntheseverfahren in simulierten akustischen Räumen erscheinen zu lassen. Es war Karlheinz Stockhausen, der mit dem Werk »Mikrophonie« den ersten komponierten und live-elektronisch erzeugten technischen Raum realisierte. Dafür komponierte er allerdings keine interessanten Hall- oder Echosimulakra, sondern die Bewegung der mit Mikrofonen erzeugten Klänge im Realraum. Mittels analoger Schaltungen springt und/oder kreist der Klang der Instrumente real zwischen den Lautsprechern. Die kontrollierte bewegte akustische Projektion wurde in unbewußter Anlehnung an die historischen Vorläufer bis in die Standards der Stereophonie oder heutiger Surroundverfahren zum Synonym für Raumklangsteuerung, wobei erst das Simulationsparadigma der Digitaltechnik den Sprung in die
Die musikalisch-ästhetische Verortung klingender Räume
221
Herstellung rein technisch definierter und musikalisch-kompositorisch adressierbarer virtueller Klangräume ermöglicht.14 Die computergestützte Simulation der Klangbewegung benötigt jedoch ein viel differenzierteres Verständnis des dynamischen Verhaltens von bewegten Klängen im Raum, wie sie John Chowning in den 70er Jahren mit seinem Text »The Simulation of Moving Sound Sources«15 liefert. Er beschreibt, wie wahrnehmbare akustische Raumbewegungen das Resultat aus Hall, Entfernung und Richtungswinkel sind und einen perfekten virtuellen Raum beschreiben können, wobei er mit Filtern und vor allem dem Einsatz des Doppler-Effekts psychoakustische Eindrücke hervorrufen möchte, die die Virtualität dieser Klangräume unterstreichen sollen. Chowning selbst hat diese Verfahren in seinem Werk »Turenas« (1972) eindrucksvoll demonstriert. Spätestens seit den Beatles gehören digitale raummanipulierende Verfahren auch in der Rock- und Popmusik zum Arsenal der Studiotechnik, die mit Mischpult, Equalizern, Filtern, Echo- und Hall-Geräten erst analog, dann aber vor allem digital die Erzeugung, Bearbeitung und Veränderung von Klang in allen seinen Dimensionen zum Ziel hatte. Dieses Ziel kann heute als erreicht betrachtet werden. Klang in einem virtuellen Raum zu bewegen, zu manipulieren oder aber den Klangraum selbst in allen Dimensionen zu transformieren, gehört zu den Standardaufgaben diskret adressierbarer Medienmaschinen, die dieses Potential auf Wunsch einem Spieler als spezifisches Instrumentarium in Realtime zur Verfügung stellen können. Das Resultat bleibt allerdings die mediale Überlagerung der akustischen Präsentation im Realraum mittels Lautsprechern. »Luigi Nono sagte einmal: ›Es gibt keine schlechten Konzertsäle, wir müssen nur versuchen, diese kennen zu lernen, d. h. ihre natürliche Akustik genau zu studieren und danach unsere neuen elektroakustischen Klangräume zu gestalten.‹ Diese Aussage bedeutet, daß wir für eine Komposition einen neuen Klangraum mittels der Live-Elektronik auskomponieren und im Studioexperiment festlegen können, diesen Entwurf jedoch von Aufführungsort zu Aufführungsort neu überarbei14 Ein Prinzip, welches Hans Peter Haller als technischer Leiter des Experimentalstudios der Heinrich Strobel Stiftung in Freiburg i. Br. mit dem nach ihm benannten »Halaphon« mittels programmierbarer Überblendungen eines jeden einzelnen Lautsprechers musikalisch verfügbar gemacht hat. 15 John Chowning: »The simulation of moving sound sources.«, in: Journal of the Audio Engineering Society 19 (1) (1971), S. 2-6.
222
Michael Harenberg
ten, modifizieren müssen. Es ist für mich persönlich immer schwierig, bei der Vorbereitung zur Edition von Nonos Werken mit Elektronischer Klangumformung absolute Kriterien für den Klangraum festzulegen, da Nono und auch ich selbst diese von Konzert zu Konzert immer modifiziert haben. Gerade dieser Prozeß des Erlernens und Modifizierens macht jedoch die Live-Elektronik, den Einsatz neuer, simulierter Klangräume zu einem lebendigen Instrument.«16
4. Vom instrumentierten Raum zum Raum als Instrument Eine radikale Lesart des Raumes als unmittelbares Instrument entwikkelt Alvin Lucier, ohne jedoch Parameter wie Form, Struktur oder Klang von Musik traditionell vergegenständlichen zu wollen. »I’m sitting in a room« heißt das Werk von 1969, in dem im Prozeß permanenter technischer Rückkopplung die Eigenresonanz des Raumes einen gesprochenen Satz nach und nach transformiert und schließlich dominiert. Übrig bleibt ein Frequenzgemisch im Bereich der Formant-Resonanzen des Raumes, der somit als Instrument und Medium des Werkes fungiert.17 Mit dieser demonstrativ voraussetzungslosen Struktur wird nicht nur der Werkcharakter radikal in Frage gestellt, der inszenierte Paradigmenwechsel hinterfragt letztlich den Charakter von Komposition als Kunstwerk an sich. Ähnlich spielen auch andere Komponisten mit dem physikalischen Resonanzraum als eigenständigem musikalischen Parameter. Dazu zäh16 Hans Peter Haller: »Das Experimentalstudio der Heinrich-Strobel-Stiftung des Südwestfunks Freiburg 1971-1989. Die Erfoschung der Elektronischen Klangumformung und ihrer Geschichte«, in: Südwestfunk-Schriftenreihe: Rundfunkgeschichte Band 6, Baden-Baden 1995. 17 »Dies wird über direkte Tonbandaufnahmen von Klangmaterial geschehen, (besonders von Sprache, Unterhaltungen in verschiedenen Sprachen) […]. Wenn das aufgenommene Material in den Raum zurückgespielt und dort wieder aufgenommen wird, werden seine ursprünglichen Eigenschaften verstärkt werden. Nach ungefähr sechs Durchläufen dieser Art ist jede Ähnlichkeit mit der ursprünglichen Sprache verschwunden, und es verbleiben nur sehr schöne glockenähnliche Klänge, […] die durch Sprache artikulierten Resonanzfrequenzen. Es wäre schön, wenn man viele Leute hätte, die viele verschiedene Sprachen sprechen, so daß sich der Rhythmus der glockenähnlichen Klänge von Vorführung zu Vorführung ändern würde.« Alvin Lucier zitiert nach: Gisela Nauck: »Musik erobert den Raum (1). Vier Stühle, drei Orchestergruppen, eine Spirale und Duell.«, in: Vom Innen und Außen der Klänge. Die Hörgeschichte der Musik des 20. Jahrhunderts, SWR 2 (©), zitiert nach http://www.swr2.de/hoergeschichte/sendungen, 4.10.2000.
Die musikalisch-ästhetische Verortung klingender Räume
223
len u. a. Konrad Boehmer mit »Position« (1962), Henry Pousseur z. B. mit »Rimes pour différent sources sonores« für zwei Orchester und Tonband mit drei Lautsprechern (1969) und La MonteYoung, der in seinem Werk für 15 sich überlagernde Sinustöne einer Naturtonreihe endlose Klangbänder produziert, die je nach Standpunkt im Raum verschiedene Interferenzen und Intermodulationen hörbar werden lassen. Der Hörer ist angehalten, das Stück durch Bewegung im Raum eigenständig zu erforschen und damit quasi individuell zu interpretieren. In »In Memoriam Jon Higgins; for clarinet in A and slow sweep, pure wave oscillator«, ebenfalls von Alvin Lucier (1984), erzeugt ein Sinuston zusammen mit einem Instrumentalton Schwebungen und Vibrati, wobei das resultierende Resonanzverhalten des jeweiligen Raumes in Abhängigkeit von der Position des Hörers ebenfalls konstitutiv ist. Den Raum auf eine ganz poietische Art selbst zum Klingen bringen wollte auch Julius O. Smith in Standford, dessen Arbeiten sich mit virtuellen akustischen Räumen beschäftigen. Smith arbeitet an RaumSimulationsmodellen, die sich allerdings nicht auf den Rezeptionsraum beziehen, sondern auf die Mikro-Räume akustischer Instrumente. Seit den Arbeiten Helmholtz’ und der Physiker Karplus/Strong wissen wir, daß die technische Beschreibbarkeit von Raum über die Nachbildung seiner Zeitfunktionen prinzipiell auch für die Mikroräume unserer Instrumente gilt. Die gängigen Verfahren elektroakustischer Klangerzeugung bleiben den Helmholzschen/Fourierschen Paradigmen insofern verhaftet, als ein Klang primär durch die Anzahl und Verteilung seiner Obertöne definiert ist. Zur Imitation bestehender Instrumente oder zur Erzeugung neuer elektronischer Klänge orientieren sich diese Klangsyntheseverfahren, ob analog oder digital, an Momentaufnahmen einer statischen Komplexität resultierender Obertonspektren. Dagegen setzt Julius O. Smith die ursprünglich von Max Mathews ausgehende Idee, nicht das klingende Ergebnis, sondern die Bedingungen der Klangerzeugung selbst zu simulieren. Bei den komplexen akustischen Wechselbeziehungen zwischen den Klanggeneratoren akustischer Instrumente – wie Saite, Luftsäule oder schwingender Körper – und dem jeweiligen Instrumentenkorpus samt Spielapparat wären Simulationen durch Nachbildungen von Primär- und Sekundär-Reflexionen viel zu grob, die realen Zeitintervalle um Größenordnungen zu klein. Vielmehr interpretiert Smith die mathematische Beschreibung eines akustischen Mikro-Raums und dessen physikalische Bedingungen und Abhängigkeiten als virtuelles ›Instrument‹. Je genauer die beschrie-
224
Michael Harenberg
benen Verhältnisse mit denen eines realen Instrumentes übereinstimmen, desto ähnlicher müßte auch das klingende Ergebnis jenseits der Digital-analog-Wandlung sein.
Schematische Darstellung einer virtuellen Klarinette (Brüse 1994)
Solche ›Physical Modeling‹ genannten Verfahren sind in der Lage, Natur-Instrumentenmodelle in ihrem komplexen klanglichen Verhalten zu simulieren und diese in Realtime spielbar zu machen. Im Gegensatz zum Sampling und digitalen Klangsyntheseverfahren, die statische Klangereignisse produzieren, entstehen ausdruckstarke Klänge, welche innerhalb des simulierten Modells ›natürlich‹ auf den Spieler zu reagieren in der Lage sind.18 Ein in diesem akustischen Cyberspace simuliertes Instrument besteht aus virtuellen Eigenschaftsräumen, mit denen die physikalischen Zustände im und um das Instrument mathematisch beschrieben sind. In diesem virtuellen akustischen Mikrokosmos herrschen eigene, zum Teil chaotische Gesetze, die sich im Kern über die Simulationen ihrer Zeitverhältnisse nachbilden lassen. Physical Modeling nimmt somit eine selbstreferenzielle Position ein. Anders als ihre realen Vor18 Für detailliertere Informationen zu Geschichte und Technik von Physical Modeling vgl. M. Harenberg 1999, 2001 und 2003.
Die musikalisch-ästhetische Verortung klingender Räume
225
bilder können virtuelle Instrumente in ihre simulierten physikalischen Komponenten und Teilfunktionen zerlegt und rekombiniert werden. Es entstehen hybride Instrumentenmodelle wie gestrichene Flöten, Trompeten mit Saxophon-Mundstücken oder geblasene Celli mit verblüffenden akustischen Eigenschaften und ungewohntem musikalischen Verhalten.
Hybride virtuelle Instrumentenmodelle. »Visual Editor« für den Physical-ModelingSynthesizer VL-1 der Firma Yamaha
Neue Klangfarben und Klangstrukturen werden durch die Manipulation, Umdefinition und Rekombination virtualisierter, physikalisch beschriebener Ausgangsmodelle erzeugt, wobei traditionelle Instrumente weiterhin als Referenzraum der ästhetischen digitalen Artefakte sowie der historischen Dimensionalität ihrer Interfaces dienen (müssen). Nach McLuhan setzen sich dabei – verstärkt durch entsprechende kommerzielle Strategien – jeweils die medialen Konkretionen durch, die sich in ästhetischen Leitbildern und Vorläufertechnologien als Orientierung im Möglichkeitsrausch der Simulationen bewährt haben. Massenhafte Simulationen analoger und digitaler Hardwaresynthesizer sowie der gängigen elektronischen Studioperipherie, mit als visuelle Interfaces umgedeuteten völlig unfunktionalen aber photorealistischen Oberflächen, belegen dies eindrucksvoll. Durch die eindimensionale Übertragung einer historisierenden Praxis auf das digitale Medium ist zudem der Hyperrealismus eines Baudrillard in der Imitation realer (akustischer wie elektronischer) Instrumente gefragt, die in der Vorwegnahme der kulturell-medial geprägten Hörerfahrung ›natürlicher‹ bzw. ›echter‹ klingen als ihre realen Vorbilder. In Analogie zu digitalen Bildern, die als »Dialektik im Stillstand«19 außerhalb des Realraums in einer neuen Zeitdimension existieren, erscheinen digital simulierte Instrumente als ›bewegte Dialektik‹ außer-
19 Walter Benjamin: Das Passagen-Werk. Gesammelte Schriften Bd. V-1, Frankfurt/M.: Suhrkamp 1991, S. 578.
226
Michael Harenberg
Screenshots fotorealistischer virtuell-analoger Instrumenten-Plug-Ins
halb der (klingenden) Realzeit in einer neuen virtuellen akustischen Räumlichkeit. Physical Modeling als simulatives Klangsyntheseverfahren bietet somit einen historisch interessanten selbstreferentiellen Zugriff auf (makro-)musikalische Strukturen und Formen. Die in Realtime spielbare sukzessive Veränderung der Instrumentenmodelle, die man sich metaphorisch als transformatorischen Umbau vorstellen könnte, geschieht durch Manipulation der klanggenerierenden Raumsimulationen virtueller Instrumente. Wie bei traditionellen Instrumenten auch, können solche Manipulationen neben Veränderungen des Klanges auch form- und strukturbildende Funktionen haben, die in diesem Fall durch einen Kurzschluß von virtuellem (Mikro-)Raum mit realem (Makro-) Raum zustande kommen. Nach dem Ende einer narrativen bürgerlichen Repräsentationsmusik könnte dies einen Zugang zu einer neuen postnarrativen Formensprache in der Musik bedeuten!
5. Formlose Räume und raumlose Formen Das 20. Jahrhundert kann als das Jahrhundert angesehen werden, das sich generativ, analytisch und repräsentativ vor allem mit strukturellen Formen der Musik beschäftigt hat. Diese historisch zugespitzte und sich schließlich verselbständigende Durchdringung der formalen Strukturen ist heute mit ihrer absoluten Dekonstruktion in den Genres populärer elektronischer Musik mit ihrem Primat von Rhythmus und
Die musikalisch-ästhetische Verortung klingender Räume
227
Klang verlorengegangen. Musikalische Stile aktueller elektronischer Musik als Vertreter einer technischen Medienmusik benutzen mit ihrem entweder kommerziellen und/oder experimentellen Zugang zu diesen Prozessen derart fraktalisierte Reste von Formen als Norm. Dabei beziehen sie aus dem Insistieren auf den selbstähnlich zersplitterten, gleichsam gefrorenen Resten struktureller Formen in gesampelten Loops und ostinaten Patterns einen nicht unwesentlichen Teil ihrer ästhetischen Spannung. Ziel ist die Inszenierung konzeptionell formloser Strukturen durch musikalische Verfahren der Wiederholung, Reihung und Schichtung, die – weniger abstrakt und theoriegeleitet – eine bruchlose, als ohne Anfang und Ende gedachte ›fließende‹ QuasiNatürlichkeit zu vermitteln in der Lage sind und damit auch ihre beabsichtigte körper- und bewegungsbezogene Rezeption unterstützen. Technisch werden dafür Verfahren des Harddiscrecording und digitalen Samplings sowie der programmatisch abgeleiteten Granularsynthese verwendet, denen die Bandbreite alles Hörbaren sowie der gesamte Bestand existierender Musikkonserven als universelles globales Klangarchiv zur Verfügung stehen. Ästhetisch haben sich eine Reihe dezidierter Strategien digitaler Verfahren wie etwa Copy & paste, Looping, entkoppelte Zeit- und Tonhöhenmanipulationen etabliert, die ein solches in Realtime hörend konstruierendes Arbeiten unterstützen. Die aktuelle Sequencer-Software »Live« der Berliner Firma Ableton repräsentiert diese Entwicklung bis in die konzeptionellen und Interface gestaltenden Strukturen eines modifizierten Raumkonzeptes, in dem nicht länger die lineare, zweidimensionale Metapher des unendlichen Tonbandes, sondern die mehrdimensionale, nonlineare Zersplitterung in einzelne Samples und Pattern, die – von jeglichen physikalisch gegebenen Zusammenhängen zwischen Tonhöhe, Tempo und Raum befreit – als strukturbildendes musikalisch-ästhetisches Granulat manifestiert wird. Über die Raummetapher als emanzipatorische Klammer des resultierenden Produktionsprozesses könnte das alte Thema musikalischer Formen gerade in der Befreiung von linearen Zeitkonnotationen neue Aktualität gewinnen. Dann schließt sich der ästhetisch-historische Kreis im Umgang mit musikalischer Räumlichkeit, indem Klangraum und Strukturraum zusammenfallen und ästhetisch befreit und umgedeutet, musikalisch neu gestaltet werden können. Einen musikalischen Vorläufer dieser Entwicklung stellt das letzte große Werk Luigi Nonos, »Prometeo«, von 1989 dar. Mit dem unsicheren Gestus des Suchens bewegt sich die Musik Nonos zwischen Inseln
228
Michael Harenberg
aus reinem Klang, live-elektronisch erzeugten Formen und nonlinearkompositorischen Manifestationen. Historisch wird über Texte und musikalische Assoziationen ein riesiger Bogen von der Antike bis heute geschlagen. Nono beschreibt seine kompositorische Haltung selbst als die eines »Wanderers« in diesen längst aufgebrochenen und ihrer monokausalen Zielgerichtetheit beraubten Räumen und Zeiten. Musikalisch-ästhetisch realisiert er diese Spannung mehrfach geschachtelter Raummodelle eines differenziert aufgesplitterten Klangapparates aus mehreren Orchesterteilen, Sängern und Solisten, die mittels live-elektronischer Settings verkoppelt werden, in der kontrapunktischen Überführung von realen in virtuell-technische Klangräume. Damit greift Nono weit voraus und beschreibt mit seiner ›Tragödie des Hörens‹ bereits Endpunkt wie möglichen Neubeginn. Mit aktuellen leistungsfähigeren Rechnern, neuen Standards für mehrkanalige digitale Audioformate und den entsprechenden Surround-Wiedergabeverfahren über fünf, sieben oder mehr Lautsprecher inklusive Subwoofer erhält neben der kompositorischen Nutzung auch die Diskussion über die ästhetischen Verfahren medialer räumlicher Abbildungen neue Aktualität. Technologisch neue Verfahren wie großflächige Folienlautsprecher, Infrarot-gesteuerte punktförmige Schallprojektionen oder die Wellenfeldsynthese, die über raumumgreifende Lautsprecherarrays – weg von der Punktabstrahlung – rechnergesteuerte Klangsimulationen mittels Projektionen virtueller Klangquellen im Raum ermöglichen, stellen schließlich auch die Frage nach resultierenden musikalisch-ästhetischen Konsequenzen. Ähnlich wie das Sgt.Pepper-Album der Beatles einen musikalisch-künstlerischen Durchbruch für stereophone Experimentier- und Abbild-Verfahren bedeutete, sind ästhetische Antworten auf den derzeitigen technologischen Entwicklungsstand gefragt. Die »Killerapplikation« für Surroundanwendungen jenseits funktional-konservativer Kino-Surroundstandards aus »Sprechermitte-Stereophonie plus Raum« steht schon seit den quadrophonen Verfahren in den 70ern nach wie vor aus. Wie ich versucht habe zu zeigen, ist das Verständnis und die Vorstellung von ›Raum‹ auch in der Musik keine absolute Größe. Jede Zeit entwickelt ihr spezifisches, kulturell definiertes Raumbewußtsein und die Formen zu seiner ästhetischen Vergegenständlichung. In der Musik können wir eine Entwicklung skizzieren, die vom architektonischen Klang-Ort über den symbolischen Raum formaler und struktureller Projektionen zum imaginären musikimmanenten Raum kompositori-
Die musikalisch-ästhetische Verortung klingender Räume
229
scher Phantasie verläuft. Von da an kann zum einen der reale Raum musikalisch funktionalisiert und zum anderen um technische Räume aufgebrochen und erweitert werden. Diese ermöglichen als digitale Simulationen die universelle Manipulation und referenzlose Skalierung in alle Dimensionen. So entstehen zum einen virtuelle Räume, die als kompositorisch-ästhetisch gestaltbare musikalische Parameter interpretiert und genutzt, gleichzeitig aber auch als instrumentale MikroRäume zur Klangsynthese mittels eines virtuellen Instrumentariums dienen können. Damit werden primär über Zeitfunktionen vermittelte Raumvorstellungen eines akustischen Cyberspace konstituierend für neue kompositorisch/konstruierende Formvorstellungen wie für die Generierung und Manipulation von Klängen. Der historische Kreis öffnet sich, wenn die frühen form- und damit strukturabbildenden Raumfunktionen durch eine akustische »Himmelstür des Cyberspace«20 eine neue musikalische Klangformensprache finden, jenseits bloßer Simulation vergangener Räume einer bürgerlichen Musikkultur.
20 Nach: Margaret Wertheim: Die Himmelstür der Cyberspace: Eine Geschichte des Raumes von Dante zum Internet. Zürich 2000.
230
Michael Harenberg
Literatur Benjamin, Walter: Das Passagen-Werk. Gesammelte Schriften Bd. V-I, Frankfurt/M.: Suhrkamp 1991. Boehmer, Konrad: Das böse Ohr. Köln: Dumont 1993. Brüse, Claudius: »Physical Modeling. Die neue Klangsynthese«, in: Keyboards 4 (1994), S. 44-73. Chowning, John: »The simulation of moving sound sources.«, in: Journal of the Audio Engineering Society 19 (1) (1971), S. 2-6. Dibelius, Ulrich: Moderne Musik II. 1965-1985. München: Piper 1988. Haller, Hans Peter: »Das Experimentalstudio der Heinrich-Strobel-Stiftung des Südwestfunks Freiburg 1971-1989. Die Erfoschung der Elektronischen Klangumformung und ihrer Geschichte«, in: Südwestfunk-Schriftenreihe: Rundfunkgeschichte Band 6, Baden-Baden 1995. Harenberg, Michael: »Die Rationalisierung des Virtuellen in der Musik«, in: Konfigurationen. Zwischen Kunst und Medien, Kassel: Fink 1999. Harenberg, Michael: »Virtuelle Instrumente im akustischen Cyberspace«, in: Bildungswerk des Verbandes Deutscher Tonmeister (Hrsg.): Bericht der 21. Tonmeistertagung Hannover 2000, München 2001. Harenberg, Michael: »Instrumente zwischen Simulation und (De-)Konstruktion.«, in: Marcus S. Kleiner, Achim Szepanski (Hrsg.): Soundcultures. Über elektronische und digitale Musik, Frankfurt/M.: Suhrkamp 2003. Hiller, Lejaren A.: »Informationstheorie und Computermusik«, in: Darmstädter Beiträge zur Neuen Musik, Mainz: Schott 1963. Hommel, Friedrich (Hrsg.): »Algorithmus, Klang, Natur. Abkehr vom Materialdenken?«, Ferienkurse ’82. 31. Internationale Ferienkurse für Neue Musik. Darmstädter Beiträge zur Neuen Musik, Wiesbaden 1984. Hussmann, Heinrich: Einführung in die Musikwissenschaft. Wilhelmshaven 1975. Herbert von Karajan Centrum (Hrsg.): Amor vincit omnia. Karajan, Monteverdi und die Entwicklung der Neuen Medien, Wien 2000. Kittler, Friedrich: »Der lange Weg zur Compact Disc«, in: Herbert von Karajan Centrum (Hrsg.): Amor vincit omnia. Karajan, Monteverdi und die Entwicklung der Neuen Medien, Wien 2000, S. 215-232. Kolleritsch, Otto (Hrsg.): Die Musik Luigi Nonos. Studien zur Wertungsforschung, Band 24, Wien, Graz 1991. Manovich, Lev: »Archäologie des Computerbildschirms«, in: Kunstforum Dokumentation, Bd. 132, Die Zukunft des Körpers I, Nov.-Jan. (1995/96). Mazzola, Guerino: Music@EncycloSpace. Institut für Informatik/Multimedia Lab. Universität Zürich, Institut de Mathématiques et Statistique, Université Laval, Québec, 1997, zitiert nach: http://www.ifi.unizh.ch/ groups/mml/musicmedia/staff/mazzola.html, 11.7.2000.
Die musikalisch-ästhetische Verortung klingender Räume
231
Nauck, Gisela: »Musik erobert den Raum (1). Vier Stühle, drei Orchestergruppen, eine Spirale und Duell«, in: Vom Innen und Aussen der Klänge. Die Hörgeschichte der Musik des 20. Jahrhunderts, SWR 2 (©), zitiert nach http://www.swr2.de/hoergeschichte/sendungen, 4.10.2000. Nono, Luigi: Texte. Studien zu seiner Musik, Zürich: Atlantis 1975. Prieberg, Fred K.: Musica ex Machina, Berlin: Ullstein 1960. Prieberg, Fred K.: EM. Versuch einer Bilanz der elektronischen Musik, Freudenstadt: Rohrdorfer Musikverlag 1980. Schaeffer, Pierre: Musique concrète, Stuttgart: Klett 1974. Schmidt, Burghart: »Aktualität des Barock. Illusion in Simulation oder Simulation in Illusion?«, in: Herbert von Karajan Centrum (Hrsg.), Amor vincit omnia. Karajan, Monteverdi und die Entwicklung der Neuen Medien, Wien 2000, S. 88-107. Smith, Julius O.: Music Applications of Digital Waveguides, Paolo Alto, California: CCRMA Stanford University 1995. Smith, Julius O.: Discrete-Time Modeling of Acoustic Systems with Application to Musical Instruments, Paolo Alto, California: CCRMA Stanford University 1996, zitiert nach: http://www-ccrma.stanford.edu/~jos/ smithbook/smithbook.html, 8.7.2000. Stephan, Rudolph/Knessel, Lothar/Tomek, Otto (Hrsg.): Von Kranichstein zur Gegenwart. 50 Jahre Darmstädter Beiträge zur Neuen Musik, Darmstadt 1996. Stockhausen, Karlheinz: »Musik im Raum«, in: Die Reihe 5, Wien 1959. Wehmeyer, Grete: Edgar Varèse, Regensburg: Bosse 1977. Wertheim, Margaret: Die Himmelstür zum Cyberspace. Eine Geschichte des Raumes von Dante zum Internet, Zürich: Ammann 2000. Zelli, Bijan: Reale und virtuelle Räume in der Computermusik. Theorie Systeme, Analysen, unveröffentlichte Promotion, Berlin 2001, zitiert nach: http://webdoc.sub.gwdg.de/ebook/gu/2003/tu-berlin/zelli_bijan.pdf, 20. 10.2002.
Christoph Rodatz
Der Raum des Theaters Reflektionen zur Intermedialität des Theaters
Prolog Es war kein Theaterabend wie jeder andere. Genau genommen stellte sich zum Schluß die Frage, ob es überhaupt ein Theaterabend war. Denn auch wenn eine Inszenierung von Richard Wagners Parsifal angekündigt war, das Ereignis behauptete von sich, Eine Oper für Singende, Musizierende und Wandernde zu sein, allein das schon ließ Zweifel aufkommen, ob man überhaupt von einer Aufführung bzw. in den für den Theaterzuschauer typischen Kategorien des Wahrnehmens, Empfindens oder Rezipierens sprechen durfte. Zu den grundsätzlichen Problemen bei der Beschreibung eines theatralen Ereignisses gehört es, daß der Gegenstand, den man beschreibt, als vergangenes Ereignis im Moment seiner Beschreibung nicht mehr existiert. Abhilfe schaffen eigene Aufzeichnungen oder die anderer, auch medientechnische Aufzeichnungen helfen, das Ereignis als solches irgendwie zu fixieren. Nur gibt es letztlich ein zentrales Problem damit: Aufzeichnungen sind immer das Produkt einer massiven Reduktion. Trotzdem sind sie zweckmäßig, ermöglichen sie doch erst die Reflektion und Betrachtung des Vergänglichen. Mein subjektives Erfahren eines Ereignisses kann ich nur mit anderen teilen, wenn ich es in irgendeiner Weise für andere zugänglich mache, also ausdrücke. Das ist das Grunddilemma der Theaterwissenschaft. Denn was sie betrachtet, ist nicht das Ereignis selbst, sondern nur die Erinnerung daran, ihre Aufzeichnungen. Und so ist es ihr Schicksal, längst Vergangenes zum Gegenstand zu haben. Ihr steht lediglich eine mögliche Summe von Aufzeichnungen aus unterschiedlichsten Gesichtspunkten und mit unterschiedlichsten Aufzeichnungstechniken zur Verfügung, das Ereignis hingegen existiert nur im Hier und Jetzt. So läßt sich fragen, ob es überhaupt wichtig ist, ob ein
234
Christoph Rodatz
Ereignis stattgefunden hat, ist es doch schließlich nicht selbst materieller Gegenstand der Betrachtung, sondern nur die ihm zugehörige Aufzeichnung.
Parsifal – Eine Oper für Singende, Musizierende und Wandernde oder Ein feuilletonistischer Einstieg Es war einer dieser Momente, als jedem Zuschauer bewußt wurde, daß er nicht nur seine Erwartungen wird umcodieren müssen, sondern auch sämtliche über Jahre der Opernbegeisterung erarbeiteten Seh- und Hörgewohnheiten. Im Eingang des Foyers wurde den vermeintlichen Zuschauern mitgeteilt, daß der heutige Abend ein freies Kommen und
Der Raum des Theaters
235
Gehen zulassen würde. Keiner sei gezwungen, sich während der etwa vierstündigen, pausenfreien Aufführung auf seinem Stuhl im Zuschauerraum dauerhaft aufzuhalten. Ratlosigkeit – und doch: Robert Wilsons Einstein on the Beach hat gezeigt, ein pausenloses Kommen und Gehen der Zuschauer, eine pausenlose Aufführung ist möglich. Trotzdem, hier war es anders, die Unruhe machte es deutlich. Einstein on the Beach ist immerhin ein zeitgenössisches Stück, Parsifal hingegen die ›heiligste‹ aller Wagneropern.
Zu guter Letzt wurde erklärt, daß nicht nur ein Wandern zwischen Zuschauerraum und Foyer möglich war, sondern auch ein Wandern zwischen Zuschauerraum und Bühnenraum. Den Augen der anderen konnte man entnehmen, daß ihnen all die Momente einer direkten Konfrontation mit Darstellern wieder hochkamen. All die Affronts, die sie ertragen mußten, als plötzlich Schauspieler mit ihnen sprachen, sie bloßstellten oder versuchten, sie in das Geschehen einzubinden. All das, gekoppelt an die dazugehörige Portion Abneigung, schrieb sich in ihre Haltung ein, wurde sichtbar. Noch bevor alle wieder kehrtmachen konnten, wurden die Möglichkeiten des Wanderns vermittelt, Pläne ausgeteilt und jedem ein Infrarotempfänger mit Kopfhörern in die Hand gedrückt. »Für den Bühnenbereich«, hieß es hektisch, als sich auch schon die Türen zum Zuschauerraum öffneten und der Sog einen mitriß. In gewohnter Weise setzten sich erst einmal alle mit großen Erwartungen und ein wenig Trotz hin. Als das Licht sich langsam zurückzog,
236
Christoph Rodatz
wich die Skepsis, und den Befürchtungen stellte sich die wohlgesonnene Konvention in den Weg. Unnachahmlich und eindringlich erklang die Ouvertüre von Parsifal, und Wagners Universum, das hier so einzigartig, schwebend und flirrend den Raum erobert, drang vor bis ins letzte Eck des Zuschauersaals. Die Abwesenheit des Orchesters schien plausibel, vor allem denjenigen, die Bayreuth kennen und wissen, daß diese Unsichtbarkeit vor allem dem Klang zugute kommt. Lange bevor die eingekehrte Entspannung in eine passive Konsumhaltung überzugehen drohte, stellten sich erneute Irritationen ein. Auch wenn die Oper als konzertante Variante im Zuschauerraum hörbar war, waren im Anschluß an die Ouvertüre keine Sänger und Sängerinnen leibhaftig sichtbar. Der eiserne Vorhang blieb verschlossen, als wolle man irgendetwas dahinter verstecken. Wie auch sollte er sich jetzt noch öffnen, wo doch die musikalische Maschinerie Richard Wagners voll in Gang war und beileibe nicht gestört werden durfte. Auch wenn die Abwesenheit der Sängerinnen und Sänger über ihre riesenhafte Telepräsenz auf dem zur Leinwand umfunktionierten eisernen Vorhang kompensiert wurde, wenn der perfekte Klang der Oper wie eine Radiosendung in den Saal schallte und wenn alles live erzeugt wurde; die Abwesenheit der Akteure sorgte für eine gewisse Beunruhigung. Theater als totes Medium?
Schnell wurde klar, daß der Aufenthalt im Zuschauerraum die Frage nach den realen Produzenten von Bild, Klang und Gesang nicht wird beantworten können. Wo also waren die Akteure, wo das Orchester? Wer erzeugte den hörbaren Klang, wer belebte die sichtbaren Bilder? Sich auf den Weg machen, den Pfeilen folgen und die Seitenbühne betreten, ohne den alles durchdringenden Klang der Oper dabei zu verlieren, drängte sich als Alternative auf. Vorbei an einer großen leuchten-
Der Raum des Theaters
237
den bunten Box, die vollständig mit einer schier unendlichen Masse von Dias übersät war, konnte man so das Zentrum des Bühnenraumes betreten. Dann befand man sich auf der Drehbühne, die sich beinahe
unmerklich bewegte. Und hier waren sie nun also, die vermißten Akteure, die Sängerinnen und Sänger. An den Rändern der Drehbühne waren zehn riesige Vitrinen angeordnet, darin die Akteure. Manche waren mit dem Singen beschäftigt, andere standen oder saßen da und erzählten. Die Singenden konzentrierten sich auf ein Notenpult direkt
vor ihnen. Bei genauem Hinschauen waren aber keine Noten zu sehen, sondern ein LCD-Display mit einem Videobild des Dirigenten. Den Erzählenden, die in ihrer Vitrine ›stillgestellt‹ waren, konnte man in Ruhe mit Hilfe der anfangs ausgeteilten Infrarotempfänger zuhören. Stellte man sich vor eine der Vitrinen, empfing man über Kopfhörer ihre Stimme. Sie erzählten Geschichten über Parsifal, ihre Rolle im
238
Christoph Rodatz
Stück, ihre Interpretationen und von ihren Schwierigkeiten mit dieser doch so anderen Inszenierung. Außerhalb des Kernes des Bühnenraumes, dem Drehbühnenbereich, waren zehn weitere Räume angeordnet. Jeder dieser Räume entsprach einem thematisch ausgerichteten Museumsraum. Ganz unterschiedliche Exponate waren ausgestellt. Mal waren es assoziative Anleihen an die mythische Person Parsifal, ein anderes Mal konkrete Bezüge zur Oper, die sich hier räumlich ausbreiteten. Der Zuschauer mußte seine Verhaltensgewohnheiten umstellen, mußte das passive Sitzen mit dem aktiven Laufen tauschen. So gab es einen Archivraum, in dem man sich auf Bildschirmen, in Zettelkästen und mit seinen Kopfhörern über die Rezeptions- und Erstehungsgeschichte von Parsifal informieren konnte. Es gab auch einen Raum voller Kinderkreisel mit Plexiglaskuppeln. Solche Kreisel, die oben einen Stift haben, den man
hoch und runter bewegen kann, um ihn damit in Bewegung zu setzen. Das besondere dieser Kreisel waren ihre implantierten Miniaturlandschaften. Miniaturbühnenbilder, Nachbildungen von vergangenen Parsifal-Inszenierungen, mit Figuren und Objekten darin, die sich bewegten. Für jeden Kreisel eine vollkommen eigene Landschaft. Bringt man den Kreisel in Bewegung, geht eine Lampe darin an, und die Figuren und Objekte innerhalb des Kreisels beginnen sich zu bewegen. Und so befand man sich unerwartet in einem belebten und von Ereignissen durchtränkten Museum wieder. Ein Museum, das erfüllt war von Parsifal, von seiner Musik, seinen Geschichten und seinem Mythos. Spätestens mit der Erkenntnis, nicht mehr in der Oper, sondern in einem Museum zu sein, war die Distanz zu dem Präsentierten so groß geworden, daß die eigene Beweglichkeit und die an sich große Nähe zu den Akteuren nicht mehr als Angriff auf die eigene Privatsphäre wahrgenommen werden konnte. Im Gegenteil, der Rückgriff auf die etablierte und kulturell gewachsene Präsentationsform Museum vermittelte eine Sicherheit, die trotz vorhandener Mobilität den Blick
Der Raum des Theaters
239
eines distanzierten Beobachters ermöglichte und eben nicht das Gefühl vermittelte, jederzeit als involvierter Akteur mißbraucht zu werden. Bei all dem Entdeckten fehlen noch immer das Orchester und der Chor. Auf dem erhaltenen Plan zeigte sich, wo sich beide aufhielten: nämlich in den Katakomben des Opernhauses, in ihren jeweiligen Proberäumen. Diese zwei Räume konnte man in Begleitung einer Hosteß aufsuchen. In regelmäßigen Abständen wurden Führungen dorthin unternommen. Noch immer begleitet vom Klang der Opernmusik, bewegten sich alle durch die verschlungenen Alltagswege der hier Angestellten. Vorbei an Requisiten anderer Aufführungen, Brandschutzerläuterungen, Neonlicht und kahlen Korridorwänden wurde man von der Illusion einer pompösen Kunstwelt des Theaters befreit. Im Proberaum des Orchesters angekommen, sah man den Musikern bei ihrer Arbeit zu. Man erlebte die Synchronisierung von Dirigenten, Sängern und Orchester und fragte sich, wie das alles überhaupt zusammenpaßt. Und so konnte man vier Stunden lang durch die unterschiedlichsten Räume des Theaters streifen, um zwischendrin dann doch immer wieder im Zuschauerraum zu verweilen, sich der Musik hinzugeben und sich von den Strapazen seiner fürs Theater ungewohnten Lauf- und Sehtätigkeit zu erholen. Hier möchte ich mit meiner Beschreibung enden. Vieles mehr gab es zu entdecken, aber ich denke, die wichtigsten Elemente der Aufführung sind vorgestellt.
Theater und Intermedialität. Eine Reflexion Ausgangslage Die nächsten Seiten fokussieren auf dem Gedanken, daß Parsifal eine Operninszenierung ist, anhand derer ein Wirken neuer Medien auf das Theater nachgezeichnet werden kann, das sich vor allem in den konzeptionellen Grundlagen der Inszenierung wiederfindet. Dabei geht es aber nicht um die Frage, wie die Aspekte des Wirkens zustande gekommen sind. Weder interessieren die inhaltlichen Bezüge zum Opernwerk, noch die Frage, ob ein solches Wirken überhaupt den Intentionen der Macher entspringt. Auch wird es keine auf Musiktheater und seine Mittel zugeschnittene Analyse geben. Im Gegenteil, der zugrunde gelegte Theaterbegriff ist sehr grundlegend angelegt und kann auf alle institu-
240
Christoph Rodatz
tionalisierten Theaterereignisse angewandt werden. Es handelt sich deshalb um den Versuch, in einer Gegenüberstellung spezifischer Eigenschaften von Theater und neuen Technologien (vor allem dem Computer) exemplarisch Grundlagen einer Verzahnung ausfindig zu machen, die zu einem unkonventionellen Konzept unter der Verwendung konventioneller Mittel führt. In der Theaterwissenschaft ist die Diskussion über die Wechselwirkung des Theaters mit neuen Technologien seit einiger Zeit sehr populär. Und doch hat es immerhin bis Sommer 2001 gedauert, bevor ein Werk herausgegeben wurde, das sich sehr umfangreich diesem Thema widmet. Martina Leekers Maschinen, Medien, Performances. Theater an der Schnittstelle zu digitalen Welten1, wirft in über 770 Seiten viele aktuelle Fragen auf und nähert sich dem sehr komplexen und vor allem vielschichtigen Gebiet. Hier wird deutlich, wie offen das Feld der Einflüsse neuer Medien und Technologien auf das Theater noch ist und in welcher Vielfalt das Thema diskutiert werden kann und werden muß. Deutlich wird auch, daß eine Wechselwirkung zwischen Theater und neuen Technologien nicht nur auf den Einsatz neuer Technik im Theater begrenzt werden kann. Vielmehr sind die Bereiche, die das nicht Sichtbare und nicht offensichtlich Erfahrbare untersuchen, die eigentlich interessanten und auch schwierigen. So verfährt auch Parsifal. Der Einsatz von Technik ist relativ überschaubar, und doch begründet sich darauf das Funktionieren der gesamten Aufführung. Die verwendete und sichtbare Technik erfüllt hier aber selten eine gestalterische Funktion, sondern vor allem eine instrumentelle. Und doch entfaltet sich durch die Durchmischung tradierter Präsentationsformen mit theaterspezifischen Elementen und dem Einsatz von Technik ein Kunstereignis, dessen Funktionieren von vielen Anleihen abhängig ist, die man auf Strukturen, Organisationsund Funktionsweise neuer Technologien und Medien zurückführen kann.
1 Martina Leeker (Hrsg.): Maschinen, Medien, Performances. Theater an der Schnittstelle zu digitalen Welten, Berlin: Alexander 2001.
Der Raum des Theaters
241
Ist Theater ein Medium oder »nur« intermedial? Als mögliches Instrumentarium, jene unsichtbaren Verwebungen mit Technik und Medien sichtbar zu machen, bietet sich ein Ansatz an, mit dem man Verschränkungen zwischen Theater und anderen Medien untersuchen kann: die Intermedialität. In der Theaterwissenschaft wird sie zurzeit vor allem von Christoph B. Balme vertreten. Ihren Ursprung hat sie eigentlich in der Linguistik und der Medientheorie.2 Es drängt sich also die Frage auf, wie ein an sich fremder Begriff, der sich auf ganz andere Gegenstände beruft, von der Theaterwissenschaft fruchtbar gemacht werden kann. Was also stellt Balme in den Mittelpunkt seiner Betrachtung, wenn er einer Intermedialität des Theaters nachgeht? Balme legt seinen Fokus auf folgende Definition: »Intermedialität verstanden […] als Begriff für den Versuch, in einem Medium die ästhetischen Konventionen und/oder Seh- und Hörgewohnheiten eines anderen Mediums zu realisieren.«3
Vielleicht ist es an dieser Definition schon abzulesen, spätestens die Lektüre seines Textes zeigt es unverkennbar auf: Balmes Fokus ist von einer rein semiotisch orientierten Aufführungsanalyse von Robert Lepages Seven Streams of the River Ota geleitet. Ein wesentlicher Kritikpunkt an solch einem Vorgehen ist, daß spezifische Eigenschaften des Theaters hierbei zu kurz kommen. Doch soll es nun nicht darum gehen, Balmes Vorgehen detailliert vorzustellen oder zu kritisieren. Vielmehr will ich auf der Grundlage seiner hier vorgestellten Definition in Anlehnung an Parsifal Alternativen aufzeigen, die stärker als bei Balme spezifische Eigenschaften des Theaters berücksichtigen. Und blickt man auf seine Definition, so fällt auf, daß Balme von etwas ausgeht, das von Seiten der Theaterwissenschaft nicht einhellig so vertreten wird. Er definiert nämlich Theater als Medium. Ich kann hier nicht differenzierter auf die einzelnen Standpunkte dieser Auseinander2 Vgl. Jürgen E. Müller: »Intermedialität als poetologisches und medientheoretisches Konzept. Einige Reflektionen zu dessen Geschichte«, in: Jörg Helbig (Hrsg.): Intermedialität. Theorie und Praxis eines interdisziplinären Forschungsgebiets, Berlin: Erich Schmidt 1998, S. 31-40. 3 Christopher B. Balme: »Robert Lepage und die Zukunft des Theaters im Medienzeitalter«, in: Martina Leeker (Hrsg.): Maschinen, Medien, Performances. Theater an der Schnittstelle zu digitalen Welten, Berlin: Alexander 2001, S. 670.
242
Christoph Rodatz
setzung eingehen, will aber doch einen zentralen Streitpunkt vorstellen.4 Joachim Fiebach gehört zu den prominenten Gegnern des Gedankens, Theater als Medium zu bezeichnen. Sein Ansatz geht von einem beliebten Mediengedanken aus, der vor allem das Ereignishafte des Theaters und sein Element des Vermittelns in den Vordergrund stellt. Mediale im Gegensatz zu theatralen Ereignissen sind für ihn somit kommunikative Vorgänge, »in denen sich eine Produktion und deren Macher nicht unmittelbar, gleichsam ›lebendig‹ begegnen, sondern sich in einer von den Machern abgelösten/ablösbaren Gestalt der Wahrnehmung, der Erfahrung, der Rezeption/den Rezipienten vermitteln (darbieten).«5
Er argumentiert für das Theater, daß die Unmittelbarkeit des Ereignisses, welches ›face-to-face‹ erst im Moment seiner Entstehung rezipiert wird, kein vermitteltes sein kann, ergo kann es sich bei Theater auch nicht um ein Medium handeln.6 Die wesentliche Spezifik des Theaters wird hier zur Begründung herangezogen. Fiebach fokussiert auf die gemeinsame Anwesenheit von Darsteller und Zuschauer, als auch auf die Vergänglichkeit des theatralen Prozesses. Er betont, daß die Darsteller auf der Bühne in ihrem »Tätigsein«7 zentral sind und deshalb keine mediale Funktion übernehmen können. Genau darin aber sieht Balme die mediale Spezifität des Theaters begründet. So beschreibt er den menschlichen Darsteller im Theaterraum als nichttechnischen, aber durchaus medialen Körper der Unmittelbarkeit.8 Die Ko-Präsenz von Darsteller und Zuschauer, die Prozessualität und Vergänglichkeit der Theateraufführung hebt er als das Spezifische hervor, das gleichzeitig auch seine Medialität bestimmt.9 So 4 Ausführlicher bei Leeker 2001 zu finden. 5 Joachim Fiebach: »Ausstellen des tätigen Darstellerkörpers als Keimzelle von Theater oder Warum Theater kein Medium ist«, in: Martina Leeker (Hrsg.): Maschinen, Medien, Performances. Theater an der Schnittstelle zu digitalen Welten, Berlin: Alexander 2001, S. 494. 6 Vgl. ebd. 7 Ebd., S. 497. 8 Christopher B. Balme: Einführung in die Theaterwissenschaft, Berlin: Erich Schmidt 2001, S. 153. 9 Christopher B. Balme: »Robert Lepage und die Zukunft des Theaters im Medienzeitalter«, S. 669f.
Der Raum des Theaters
243
ähnlich die Standpunkte scheinen, so wenig vereinbar sind sie. Aber nicht, weil die Spezifik des Theaters unterschiedlich beurteilt wird, sondern weil beide auf der Grundlage ganz unterschiedlicher Medienbegriffe argumentieren. Fiebach knüpft an einen Begriff an, der ausschließlich technische Apparaturen der Kommunikation berücksichtigt. Balme läßt sich auf einen kommunikationstheoretischen Medienbegriff ein, der nicht nur die Apparaturen mit ihren spezifischen Eigenschaften berücksichtigt, sondern auch zwischenmenschliche Prozesse. Trotz dieser grundlegenden Differenz findet sich zwischen beiden ein Anknüpfungspunkt. Sie gestehen Theater und seiner historischen Entwicklung zu, schon immer von Technik, Medien und deren Entwicklung beeinflußt und mitunter auch geprägt worden zu sein. Die Erfindung des Buchdrucks und die damit verbundene Verbreitung sowie Dominanz von Schrift und Text innerhalb der europäischen Kultur beschreiben sie als zentrale Prozesse, die sehr große Wirkung auf die Entwicklung des dramatisch orientierten klassischen Theaters10 hatten.11 So nähern sie sich darin an, Theater als Hypermedium12 zu begreifen, dessen Offenheit das Einströmen äußerer Einflüsse zuläßt. Am Ende seiner unveröffentlichten Antrittsvorlesung von 1999 hebt Balme diese Charakteristik des Theaters hervor:
10 Mit dem Begriff des klassischen Theaters bezeichne ich jene Theateraufführungen, die sich vor allem auf einen dramatischen Text stützen. Als weiteren Aspekt, der für diesen Aufsatz zentral ist, verstehe ich unter klassischem Theater auch all jene Aufführungen, deren Raumkonzepte sich an der tradierten und seit der Renaissance existierenden architektonischen Anordnung des Theaters ausrichten. Diese geht grob beschrieben davon aus, daß immer nur ein klar abgetrennter Zuschauerraum einem Bühnenraum gegenübergestellt ist. Im weitesten Sinne stimmt dieser Begriff überein mit Hans-Thies Lehmanns Begriff des »dramatischen Theaters« (Vgl. Hans-Thies Lehmann: Das postdramatische Theater, Frankfurt/M.: Verlag der Autoren 2001, S. 20ff). 11 Vgl. Joachim Fiebach 2001, S. 495 und Balme, Christopher B.: »Theater zwischen den Medien: Perspektiven theaterwissenschaftlicher Intermedialitätsforschung«, in: Christopher B. Balme, Markus Moninger: Crossing Media: Theater – Film – Fotografie – Neue Medien, München: epodium 2004. 12 Der Begriff Hypermedium an dieser Stelle darf nicht mit dem in der Informatik verwendeten Begriff Hypermedia verwechselt werden. Denn dieser hat seinem Ursprung in der dem Internet immanenten Struktur, die bekannter unter dem Namen Hypertext ist. Das Internet ist ein so genanntes Hypersystem, das ursprünglich nur mit Text umging. Mittlerweile sind aber auch Bilder, Videos oder Audiodaten Teil davon, weswegen hier auch oftmals von Hypermedia die Rede ist. Vgl. Wolfgang Coy: »Aus der Vorgeschichte des Mediums Computer», in: Norbert Bolz/Friedrich A. Kittler/Georg Christoph Tholen (Hrsg.): Computer als Medium, München: Fink 1994, S. 33.
244
Christoph Rodatz
»Theater ist und war schon immer ein Hypermedium, das in der Lage ist, alle anderen Medien zur Darstellung zu bringen, sie zu thematisieren und zu realisieren.«13
Mit dem Präfix Hyper erweitert er den Gedanken, Theater als Medium zu verstehen. Es geht nun um eine Präsentationsform, die, weil sie räumlich ist, als eine Art Behälter (Blackbox) fungiert, in den Medien als Mittel des Ausdrucks einfließen, wirken und thematisiert werden können. Auch wenn Fiebach nicht explizit den Begriff Hypermedium verwendet, kommt er doch zu einem ähnlichen Ergebnis. So spricht er von einer »Medieneinwirkung auf und Medienentfaltung in Theater«.14 Eine für die Frage nach dem Theater als Medium existente Differenz tritt hier zutage. Die für das Theater spezifische Medialität: seine Ereignishaftigkeit, Vergänglichkeit und Leiblichkeit, widerspricht in all seinen Erscheinungen den spezifisch medialen Eigenschaften technischer Medien. Das Theater ist nicht auf Grund von Standards und technischen Vorgaben auf wenige spezifische mediale Eigenschaften festgelegt. Kann das Radio nur akustische Wellen elektronisch übertragen oder die Photographie nur auf der Basis opto-chemischer Verfahren Licht fixieren, muß das Theater sich solch einer Kanalisierung nicht per se unterordnen. Im Gegenteil, die der Apparatur Theater innewohnende mediale Spezifität zeichnet sich dadurch aus, daß sie grundsätzlich alle Ausdrucksformen in sich aufnehmen kann, die im natürlichen und alltäglichen Raum des Menschen existieren. Das Theater wird somit kaum über seine Apparatur standardisiert oder auf Normen festgelegt, sondern benötigt hierzu vom Menschen festgelegte Konventionen. Gerade die aber können jederzeit in Frage gestellt und aufgelöst werden. Ist nicht sogar unkonventionell zu sein – im Sinne von nichtden-Erwartungen-entsprechen – seit spätestens Anfang des 20. Jahrhunderts in der Kunstszene positiv besetzt? Damit wird aber nahegelegt, nicht mehr nach dem Theater als Medium zu fragen, sondern vielmehr nach dem Wirken von Medien auf den ›Raum des Theaters‹. Es wird mit dem Bezug auf den Raum, dann aber auch nach der Ordnung dieses Raumes gefragt, weil genau diese dafür verantwortlich ist, wie Rezipienten und Akteure, wie Auffüh13 C. Balme: »Theater zwischen den Medien«, S. 29. 14 J. Fiebach: »Ausstellen des tätigen Darstellerkörpers als Keimzelle von Theater«, S. 494.
Der Raum des Theaters
245
rungsraum und Zuschauerraum zueinander situiert werden und in welcher Weise gewisse Medien darin eine Rolle spielen. Es geht also um die apparative Anordnung.
Theater als apparative Anordnung Ganz im Sinne dieses Gedankens fordert Balme deshalb auch dazu auf, die »technisch-apparativen Bedingungen«15 des Theaters stärker in den Vordergrund einer intermedialen Forschung zu stellen. In seiner Einführung in die Theaterwissenschaft16 verweist er in diesem Zusammenhang auf Knut Hickethier.17 Ohne es auszuführen, eröffnet Balme einen ganz neuen Ansatz einer intermedialen Betrachtung von Theater. Einen Ansatz, der eher mit dem Begriff des ›Zwischenräumlichen‹ und nicht des ›Zwischenmedialen‹ benannt werden müßte. Hickethier ist einer von diversen deutschen Film- und Fernsehwissenschaftlern, der die von Frankreich ausgehende Apparatus-Diskussion aufgegriffen und weitergeführt hat. Darin entwickelt er den Begriff eines materiellen Fernseh- und Kinodispositivs, das er entlang der technisch-apparativen Anordnung des Fernsehens und des Kinos ausrichtet. In der allgemeinen Debatte steht aber insbesondere die Anordnung des Kinos im Vordergrund. Die eigentliche Neuerung für die Medienwissenschaft Ende der 1980er war dann auch, daß die Inhalte von Filmen in den Hindergrund der Betrachtung rücken, dagegen aber der Projektor und die Leinwand und die dazwischen befindlichen Zuschauer zentral wurden.18 Aufgrund der Verwandtschaft dieser Anordnung mit dem klassischen Theaterraum zieht Hickethier ihn als historischen Vorläufer immer wieder exemplarisch heran. Schlußfolgerung für ihn ist, daß auch das Theater als ein ebensolcher Apparat angesehen werden kann
15 C. Balme: »Theater zwischen den Medien«. 16 C. Balme: Einführung in die Theaterwissenschaft. 17 Ebd., S. 149f. 18 Insbesondere die deutsche Diskussion bezieht sich Anfang der 1990er Jahre auf zwei Texte von Jean-Louis Baudry. Diese sind schon Anfang der 70er Jahre erschienen und behandeln die apparative Anordnung vor allem aus psychoanalytischer und ideologiekritischer Sicht. Vgl. Jean-Louis Baudry: »Le dispositif: approches métapsychologiques de l’impression de réalité«, in: Communications 23 (1975) und ders.: »Ideological Effects of the Basic Cinematographic Apparatus«, in: Rosen 1986, S. 286-198.
246
Christoph Rodatz
und als solcher für die Wahrnehmung des Zuschauers von prägender Bedeutung ist. »Das Angebot selbst ist vom Ambiente des Ortes eingefaßt: Die Bühne im Theater steht in einer Beziehung zu einem Zuschauerraum, der Beginn eines Angebots wird durch externe, an den Raum gebundene Faktoren (Abdunklung des Zuschauerraums, Schließen der Türen etc.) mitbestimmt. Der Raum des Theaters wird hier als ein von der alltäglichen Wirklichkeit gesonderter Raum für die Struktur des Angebots selbst zu einem mitgestaltenden Faktor.«19
Was Hickethier hier als Beispiel für das Wirken räumlicher Faktoren im Raum des Theaters vorstellt, stellt sich aus heutiger Sicht für viele als grundsätzliche Unsicherheit dar, wenn es um den Besuch einer sogenannten ›modernen‹ Inszenierung geht. Anders als bei technischen Medienapparaten kann sich der Rezipient nicht mehr sicher sein, daß er im Raum des Theaters vorhandene Konventionen vorfindet, in denen er sich auf Anhieb zurechtfindet und auch wohl fühlt. Die Vielfalt der Anordnungen wird somit nicht nur zu einem Spielball der Theatermacher, sondern auch zu einem Unsicherheitsmoment für den Zuschauer. Und doch lassen sich wenige, aber relevante Aspekte auffinden, die als etablierte Konventionen vorausgesetzt werden können. Auch im Theater bestehen gewisse Regeln, die nicht so ohne weiteres ausgehebelt werden können. In Balmes Einführung in die Theaterwissenschaft20 ist eine Zeichnung abgedruckt, in der diverse etablierte
Raumordnungen des Theaters abgebildet sind. Diese Zeichnungen thematisieren zwei Formen von Abgrenzung. Einerseits wird hier, indem 19 Knut Hickethier: »Apparat – Dispositiv – Programm. Skizze einer Programmtheorie am Beispiel des Fernsehens«, in: Siegfried Zielinski/Knut Hickethier (Hrsg.): MedienKultur. Schnittstellen zwischen Medienwissenschaft, Medienpraxis und gesellschaftlicher Kommunikation. Knilli zum Sechzigsten, Berlin: Wiss.-Verl. Spiess 1991, S. 427. 20 C. Balme: Einführung in die Theaterwissenschaft.
Der Raum des Theaters
247
ausschließlich der Raum des Theaters hervorgehoben wird, die Trennung zwischen Außenraum und Innenraum hervorgehoben. Nur, daß ein Außerhalb nach der Skizze keinen Einfluß auf das Innen zu haben scheint. Der Raum des Theaters wird klar von einem umliegenden Raum losgelöst. Straßentheater oder Freilichtbühnen sind anscheinend nicht vorgesehen. Anderseits zeigt die Zeichnung mögliche Konstellationen einer Anordnung von Zuschauerraum und Aufführungsraum auf. Auffällig ist, daß immer die Trennung zwischen Rezipienten und Akteuren enthalten ist. Das trifft selbst bei Theaterformen wie dem ›environmental theatre‹ zu. Balme hebt hervor, daß dort trotz der Auflösung der klassischen architektonisch hergestellten Anordnung noch immer die Akteure einen ›Spielraum‹ um sich aufbauen, der eine andere Welt markiert, in die ein Rezipient niemals wird eintreten können.21 Theater als apparative Anordnung zu betrachten, so knapp dieser Ansatz hier auch eingeführt wurde, eignet sich vor allem deshalb, weil von räumlichen Strukturen ausgegangen und deshalb auch die eben vorgestellte Anordnung stark betont wird. Kommt man auf die eingangs gestellte Fragestellung zurück, nämlich wie und in welcher Form neue Technologien auf Theater wirken, sind hiermit erste Annäherungen vorgestellt worden, die es erleichtern, für Theater und beispielsweise Computer eine gemeinsame Betrachtungsebene zu entwickeln. So hat ja Hickethier nicht nur die Verwandtschaft zwischen Bildschirmmedien und dem klassischen Theater hervorgehoben, sondern überhaupt die räumliche Anordnung als ereignisprägend. Blickt man jetzt noch einmal auf das Projekt Parsifal, zeigt sich ja, daß der eiserne Vorhang als Leinwand genutzt wird und somit eine sehr konkrete Anleihe an das Kino vorgenommen wurde. Blickt man aber auf den dahinter liegenden Museumsraum, scheint der hier angeführte Vergleich nicht möglich zu sein. Und doch läßt sich gerade der Bezug zu Computern und hypertextuellen Strukturen herstellen. Greift man noch einmal auf Balmes generierten Intermedialitätsbegriff zurück, so basiert er auf klar auszumachenden Gewohnheiten und auch Konventionen. Für seinem Intermedialitätbegriff setzt er als definitorische Klammer, daß es um den »Versuch … zu realisieren« geht. Damit wird von ihm eine aktive Rolle eines Produzenten vorausgesetzt, bei der sehr gezielt Konventionen von einem Medium in ein anderes überführt werden. Geht man aber von der apparativen Anordnung aus, 21 Vgl. ebd., S. 137.
248
Christoph Rodatz
geht es nicht mehr so sehr um das Ausfindigmachen eindeutiger Bezüge und auffindbarer Intentionen, sondern um eine strukturelle Annäherung an sich differenter Anlagen. Intermedialität so verstanden löst sich von Balmes semiotischem Ansatz und orientiert sich an räumlichen Strukturen. Bei diesem Intermedialitätsverständnis geht es darum, die apparative Anordnung des Theaters mit der technischer Medien abzugleichen. Interessant können hier Veränderungen tradierter und etablierter Umgangsformen in Bezug auf Bildschirmmedien22 sein. Orientierten sich diese bisher am Gemälde, dem Kino oder dem Fernseher, kommt es durch Computer, vor allem aber durch hypertextuelle Strukturen, zu einem starken Wandel. Man löst sich von seinen Traditionen und nähert sich anderen Präsentationsweisen wie dem Museum an. Was für den Umgang mit Computern alltäglich ist, bleibt auch nicht ohne Wirkung für tradierte Kunstformen. Parsifal zeigt dies vielschichtig auf.
Der Raum des Computers und Bildschirmmedien Medienkonventionen und das Theater Im Zusammenhang mit Balmes Forderung, die technisch-apparative Konstellation von Theater zu berücksichtigen, appelliert er dafür, stärker Medienkonventionen zu berücksichtigen, um im Umgang mit ihnen Theaterarbeiten aus der Perspektive intermedialer Verschränkungen besser beurteilen und analysieren zu können.23 Er führt uns diesen Ansatz exemplarisch am pluri-medialen Spektakel des Kanadiers Lepage vor. So entdeckt er im Raum des Theaters eingebundene und artfremde Filmtitel, nachgestellte Kameraeinstellungen und viele wei22 Hierbei berufe ich mich auf Lev Manovichs Text Archäologie des Computerbildschirms (Lev Manovich: Archaeology of a Computer Screen. Auch im deutschen Erschienen unter: Lev Manovich: »Archäologie des Computerbildschirms«, in: Kunstforum International. Die Zukunft des Körpers I, Band 132, 1995), in dem er die Ursprünge des Bildschirms auf das zentralperspektivische Renaissancegemälde zurückführt. Auch wenn er nicht explizit das Theater benennt, so ist auch dieses – zumindest das klassische Theater – davon betroffen. Zwar handelt es sich im Theater um einen Aufführungsraum im Gegensatz zum Bild, aber schon in dem noch heute gebräuchlichen Begriff des Bühnenbildes wird deutlich, daß gerade das klassische Theater an das Bildliche Anleihen nimmt. Deshalb begreife ich das klassische Theater als Teil eines umfassenden Begriffs von Bildschirmmedien. 23 Vgl. C. Balme: »Theater zwischen den Medien«, S. 29.
Der Raum des Theaters
249
tere Analogien, die als sehr direkte Übersetzungen von Filmkonventionen in den Raum des Theater implementiert werden.24 Anders als bei Lepage beruft sich die Intermedialität Parsifals aber nicht auf audiovisuelle Vermittlungsstrategien des Mediums Computer, sondern auf gemeinsame strukturelle Prinzipien, die der Raum des Theaters und der Computer teilen. Nicht mehr die Konventionen als solche stehen im Vordergrund, sondern die Grundlagen, die zur Ausbildung spezifischer Konventionen notwendig sind. Als zentrales Moment kommt zum Zuge, daß beide Hypermedien sind. Hypermedialität beruht letztlich nicht nur auf der dem World Wide Web innewohnenden Vernetzung und der sogenannten Interaktivität. Sie beruht eben auch auf der Fähigkeit, alle vorhandenen Medien in sich aufzunehmen und vor allem annähernd in der ihnen spezifischen Weise auch wieder auszugeben. Auch der Computer stellt somit eine Art Raum zur Verfügung, innerhalb dessen alle möglichen Medientypen realisiert werden können. Der zentrale Unterschied zum Theater ist, daß der Computer keinen tatsächlichen Raum eröffnet und deshalb auch keine tatsächliche körperliche Anwesenheit darin möglich ist. Das Projekt Parsifal löst dies, indem es auf das Museum zurückgreift, das beiden Hypermedien – Theater und Computer – in ihrer je spezifischen Weise gerecht wird. Ob dies nun bewußt oder unbewußt entschieden wurde, spielt dabei keine Rolle, aber sich des Museums zu bedienen, ist durchaus naheliegend. Schließlich kann das Museum als eine Präsentationsform gefaßt werden, deren räumlich geprägtes Regelwerk große Affinitäten zu hypertextuellen Strukturen aufweist. An sich ist das Museum in seiner architektonischen Organisation die Materialisierung einer realräumlichen Hyperstruktur. Der Besucher kann selbständig unterschiedliche, miteinander verbundene Informationsräume durchlaufen. Er entscheidet darüber, welchen Raum er wie lange betritt. Die einzelnen Räume sind in der Regel in sich geschlossen inszeniert. Sie sollen den Besucher auf spezielle Aspekte eines Kontextes aufmerksam machen. Anders als beim ›Surfen‹ im Internet aber, kommt im Durchlaufen eines Museums die leibliche Anwesenheit im Raum zum Tragen. Es zeigt sich, das Museum ist letztlich unkonventionell, dabei aber theatergerecht und trotzdem für den Zuschauer nicht unvertraut. 24 Vgl. ebd. oder ders.: »Robert Lepage und die Zukunft des Theaters im Medienzeitalter«.
250
Christoph Rodatz
Parsifal eignet sich dahingehend als Beispiel, weil gezeigt werden kann, daß nicht nur Konventionen anderer Medien in den Raum des Theaters übertragen werden, sondern eben auch Strukturen und Funktionsweisen, die sogar über den Umweg Museum ihren Weg ins Theater finden. Zwar orientiert sich letztlich ein Besucher von Parsifal an den ihm bekannten Konventionen, die ein Museum einfordert. Der eigentlich intermediale Prozeß findet aber auf der Basis einer Übertragung gemeinsamer Strukturen und Funktionsweisen statt. Interessant daran ist weitergehend, daß dieser an sich simple Vorgang eine ganze Reihe von massiven Veränderungen herbeiführt. Hat der Bildschirmnutzer vergangener Tage sehr ähnliche Haltungen und Erwartungen gegenüber dem präsentierten ›anderen Raum‹ eingenommen, wie es der Theaterzuschauer im klassischen Theater tut, werden durch den Computer und seine hypermedialen Möglichkeiten diese massiv durchbrochen. War man bislang vor allem starrer Betrachter, gerät man nun in Bewegung. Der Bildschirmnutzer bewegt sich körperlich zwar nicht, ist aber trotzdem agiler als je zuvor. Immerhin kann er sich scheinbar durch einen ›anderen Raum‹ hindurchbewegen. Was aber bedeutet das für etablierte Konventionen, Haltungen und Verhaltensweisen im Umgang mit Theater und auch anderen Künsten? Was beispielsweise bedeutet dies für den Umgang mit Narrativität und Sequenzialität? Was bedeutet das für die Wahrnehmung von Theater und Raum?
Der Computer zwischen Instrument und Medium In ihrem medientheoretischen Ansatz fokussiert Sybille Krämer auf Medien als technische Artefakte. Diese wiederum erfüllen zwei wesentliche Funktionen. Sie dienen als Instrumente (Technik als Werkzeug) und als Medien zur Erzeugung symbolischer Welten (Technik als Apparat). Für Krämer zentral ist die Annahme, daß Technik immer dazu dient, »Welten zu erzeugen, die es ohne Technik nicht etwa abgeschwächt, sondern überhaupt nicht gäbe«25. An anderer Stelle kommt sie zu dem Ergebnis, daß der von ihr hier vertretene Medienbegriff eine 25 Sybille Krämer: »Medien – Körper – Performance. Zwischen Person und ›persona‹. Ein Gespräch«, in: Martina Leeker (Hrsg.): Maschinen, Medien, Performances. Theater an der Schnittstelle zu digitalen Welten, Berlin: Alexander 2001, S. 474.
Der Raum des Theaters
251
Umakzentuierung voraussetzt. Nämlich, daß medientechnische Apparate »Spielräume im Erfahren von und Umgehen mit symbolischen Universen«26 eröffnen. Für den Computer leitet sie daraus seine Besonderheiten ab. Er kann nämlich mit Abwesendem bzw. Fiktivem über ein symbolisches System interagieren. Hypertextuelle Strukturen oder Textverarbeitungsprogramme sind dafür gleichermaßen Ausdruck wie virtuelle Realität. Krämer macht deutlich, daß jedes Medium seine Spezifität hat, die es von anderen Medien unterscheidet. Für meine Betrachtungen sind Krämers Ausführungen aufgrund ihrer Zuordnungsarbeit von Interesse. Indem sie Technik unterteilt in einen instrumentalen und einen medialen Anteil, stellt sie eine Besonderheit des technischen Artefakts Computer heraus. Der Computer ist das erste elektronische Massenmedium, das Instrumentsein und Apparatsein mit höchster Intensität verbindet. Krämer betont diesen Zusammenhang für technische Artefakte im Allgemeinen und hebt hervor, daß man diese nicht einfach in zwei Gruppen, in die der Werkzeuge und die der Medien, unterteilen könne. »Vielmehr spielen beide Perspektiven – und zwar bei jedem technischen Artefakt – zusammen, allerdings mit je unterschiedlichen Gewichten«.27 Betrachtet man das Kino, scheint hier das Moment des MediumSeins, des Schaffens anderer symbolischer Universen zu überwiegen, wohingegen der instrumentelle Charakter verschwindend ist. Der Bildschirm des Fernsehers hingegen wird sehr viel häufiger auch als Werkzeug eingesetzt. Beispielsweise im militärischen Bereich für Radar oder für die Überwachung. Der Computer aber hat unsere alltägliche instrumental ausgelegte Arbeitswelt mit der medial orientierten Konsumwelt untrennbar aneinander gekoppelt. Diese Verquickung führt dazu, daß es nicht mehr allein um das »Wahrnehmen des Abwesenden bzw. Fiktiven« geht, wie bei analogen Medien, sondern um die mediale Nutzung des Computers, die »zu einer Interaktion mit eben diesem Abwesenden«28 führt.
26 Sybille Krämer: Über Medien. Geistes- und kulturwissenschaftliche Perspektiven, Berlin 1998 oder http://userpage.fu-berlin.de/~sybkram/medium/inhalt.html (Zugriff am 20. August 2004), S. 3. 27 Sybille Krämer: »Das Medium als Spur und als Apparat«, in: dies. (Hrsg.): Medien, Computer, Realität. Wirklichkeitsvorstellungen und neue Medien, Frankfurt/M.: Suhrkamp 1998, S. 85. 28 S. Krämer: Über Medien, 2f.
252
Christoph Rodatz
Krämer zeigt deutlich auf, daß der sonst im Gegenüber von visuellen Präsentationsmedien rezipierende Betrachter oder Zuschauer, wie ihn das Gemälde oder das Theater kennen, zum Nutzer avanciert, dessen bisher instrumenteller Umgang mit Technik sich in einen spielerischen Umgang wandelt.29 Als Nutzer ist er aktiver und viel stärker an seine Entscheidungsfreiheit und -möglichkeit gebunden. Eine Freiheit, die er bislang im Bereich narrativ orientierter Präsentationen wie dem Theater oder dem Film nicht kannte. Das Computerspiel stärkt diesen Gedanken. So verändert sich damit nicht nur die Haltung des Nutzers in seinem Umgang mit dem Bildschirm, sondern auch seine Erwartung an dramaturgische und narrative Strukturen. Blick man erneut auf Parsifal, spiegeln sich diese Zusammenhänge im Verlust des kontinuierlichen Zeitverlaufs und einer intentional ausgerichteten Lesbarkeit. Weil der vermeintliche Zuschauer innerhalb der Opernaufführung seine ihm im klassischen Sinne zugeordnete Position verlassen hat und zum Nutzer avanciert, rezipiert er die Oper in einem selbstbestimmten Muster. Das hat natürlich auf die Rezeption des eigentlichen Stückes massive Auswirkungen. Nicht mehr der rote Faden der Handlung und die Musik stehen als Gesamtkunstwerk im Mittelpunkt. Auch nicht die mit Aussagen und Intentionen versehenen Vorgaben eines Regisseurs, der seine Zeichen plaziert und eine Lesbarkeit auf der Grundlage eines kontinuierlichen Zeitverlaufs erzeugt, sind hier noch vorgesehen. Der Zuschauer wird vielmehr zum Flaneur, der sich auf die Suche nach den Ereignissen macht. Auch hier stößt er auf Zeichen, auf Zeichen, die die Darsteller aussenden, die Museumsräume vermitteln oder die Gesamtanlage ausstrahlt. Weil aber der fixe Rahmen fehlt, kommt es zu einer räumlichen Öffnung. Neben dem Gesehenen und Erlebten, wird man auch damit konfrontiert, vieles – vielleicht Wesentliches – verpaßt zu haben. Wichtig erscheint in diesem Zusammenhang, daß beim Versuch einer intermedialen Verquickung zwischen Theater und Computer eben nicht nur die je spezifischen medialen Eigenschaften beider Bereiche ermittelt und analysiert werden, sondern vor allem auch ihre Auswirkungen auf das Subjekt, das mit ihnen umgeht. Im Falle des Computers spielt demnach die Verquickung einer auf technische Interaktion 29 Sybille Krämer: »Spielerische Interaktion. Überlegungen zu unserem Umgang mit Instrumenten«, in: Florian Rötzer (Hrsg.): Schöne neue Welten? Auf dem Weg zu einer Spielkultur, München: Boer 1995, S. 227.
Der Raum des Theaters
253
gebundenen Werkzeugnutzung und dem tradierten Umgang mit visuellen Medien eine zentrale Rolle. War man im Umgang mit Bildschirmmedien gewohnt, auf einem festen Platz zu sitzen und seinen Blick gebannt und distanziert auf eine Leinwand hin auszurichten, wird nun mit Hilfe des Computers ein scheinbares Eindringen in einen ›anderen Raum‹ möglich. Der Nutzer wird mehr oder minder ›mobil‹ und kann durch die Netze ›surfen‹. Das klassische einseitige Sender-EmpfängerModell, mit seinen an der aristotelischen Poetik ausgerichteten dramaturgischen Anleihen, greift nicht mehr. Dagegen werden hier ganz andere Muster evoziert. Immer wieder taucht im Zusammenhang mit dem ›Surfen‹ und ›Zappen‹ durch das Internet oder die Fernsehprogramme, also der Tätigkeit des interaktiv Agierenden, der Flaneur als Ähnlichkeitsfigur auf.
Der Zuschauer als Nutzer. Flanieren in Datennetzen Diese scheinbare Mobilität gibt immer wieder Anlaß, hypertextuelle Strukturen mit der Stadt in Beziehung zu setzen. Dabei sind Ansätze präsent, die die Dichte der Stadt mit der Dichte des weltweiten Internets und der dadurch gewonnenen Geschwindigkeit von Informationsübermittlung vergleichen. Die Stadt bietet sich aber auch an, weil urbane Strukturen – architektonische Ordnung oder die Nutzung der Stadt durch ihre Bewohner – mit dem Internet vergleichbar sind. Hartmut Winkler beispielsweise beschreibt in seinem Aufsatz Songlines30 die Nähe des Internets zur Stadt am Beispiel gemeinsamer Hierarchisierungsmuster.31 Die Stadt wird aber nicht nur als Strukturmodell herangezogen, sondern auch als besonderer Lebensraum, der besondere Formen von Verhaltensweisen und Typen hervorbringt. Als kulturhistorisch zentrale Figur taucht hier immer wieder der Flaneur auf. In diesem Zusammenhang wird er vor allem als literarische Kunstfigur des 19. Jahrhunderts eingeführt. Seine Geltung hat er insbesondere Walter Benjamin zu verdanken, der ihn als zentrale Figur der Moderne einführt.32 Ursprungsstadt ist Paris, und laut Benjamin können die dort 30 Hartmut Winkler: »Songlines. Landschaft und Architektur als Modell für den Datenraum«, in: Martin Warnke/Wolfgang Coy/Georg Christoph Tholen (Hrsg.): Hyperkult. Geschichte, Theorie und Kontext digitaler Medien, Frankfurt/M.: Stroemfeld 1997, S. 227-239. 31 Vgl. ebd., S. 235.
254
Christoph Rodatz
Mitte des 19. Jahrhunderts entstehenden Passagen als Ursprungsort verantwortlich gemacht werden. Des Flaneurs wichtigster Chronist und Protagonist ist Charles Baudelaire, der ihn 1861 erstmals in Tableaux parisiens als textstrukturierende Perspektive einsetzt.33 Für den Flaneur charakteristisch sind zwei Merkmale. Zum einen bewegt er sich körperlich richtungs- und ziellos »im Zeit-Raum der Großstadt«34. Zum anderen aber, und das zeichnet ihn aus, benutzt er die Stadt als inspirierende Fundgrube für seine literarische Arbeit. »Die Doppelbegabung – nämlich sehen zu können und gleichzeitig über die künstlerischen Mittel zu verfügen, das Geschaute sichtbar zu machen – ist für Baudelaire der Garant dafür, daß sich das Genie [der Flaneur] trotz seiner Vermählung mit der Masse nicht in ihr verliert«.35
Seit einigen Jahren taucht das Motiv des Flaneurs vermehrt in der medientheoretischen Diskussion über neue Technologien und hierbei auch speziell im Kontext der Frage nach einer Räumlichkeit vernetzter Kommunikationsstrukturen auf. Zu nennen sind hierbei insbesondere Florian Rötzer, Stephan Porombka und Steve Goldate. Alle drei entwikkeln Ideen, die dem Computer und Bildschirmnutzer flaneurähnliche Tätigkeiten und Haltungen attestieren. Wortschöpfungen wie Cyberflaneur36, elektronischer Flaneur37 oder Netz-Flaneur38 suggerieren, daß vernetzte Welten Eigenschaften hervorbringen, die eine Verbindung zur Figur des Flaneurs erlauben. Einen zentralen Ansatz zur Rechtfertigung dieser Verbindung liefert Florian Rötzer, indem er sich
32 Walter Benjamin: »Der Flaneur«, in: ders.: Charles Baudelaire. Ein Lyriker im Zeitalter des Hochkapitalismus, Frankfurt/M.: Suhrkamp 1998, S. 14. 33 Ebd., S. 54. 34 Harald Neumeyer: Der Flaneur. Konzeptionen der Moderne, Würzburg: Königshausen und Neumann 1999, S. 16f. 35 Angela Hohmann: »Der Flaneur. Gedächtnis und Spiegel der Moderne«, in: Die Horen, 45/4, Bremerhaven: Verl. für Neue Wiss. 2000, S. 127. 36 Vgl. Steve Goldate: »The Cyberflaneur. Spaces and Places on the Internet«, in: Art Monthly, July (1997) oder http://www.ceramicstoday.com/articles/050498.htm (Zugriff am 20. August 2004). 37 Vgl. Stephan Porombka: »Der elektronische Flaneur als Kultfigur der Netzkultur«, Vortrag, gehalten auf dem Symposium Softmoderne 2. Literatur im Netz, Berlin, 5. Mai 1996. 38 Vgl. Florian Rötzer: Flanieren in den Datennetzen, in: http://www.heise.de/tp/ deutsch/inhalt/co/2029/1.html 1995 (Zugriff am 20. August 2004).
Der Raum des Theaters
255
auf den erwähnten Vergleich zwischen der Großstadt und dem Internet beruft. »Waren die schnell wachsenden Städte des 19. Jahrhunderts die neu entdeckten Dschungel der Moderne, waren sie der Schauplatz, auf dem sich neue Verhaltens- und Wahrnehmungsweisen vorbildhaft einschrieben und in dem die Technik und die von ihr erforderte Lebensweise am deutlichsten zu Tage trat, so haben die miteinander vernetzten Computer am Ende des 20. Jahrhunderts einen Raum hervorgebracht, der viele Merkmale der Urbanität besitzt und einen neuen Typus des Flaneurs hervorbringt.«39
Inkonsequenterweise ignorieren die hier erwähnten Autoren die von Angela Hohmann in ihrem Text Der Flaneur. Gedächtnis und Spiegel der Moderne40 erwähnte Doppelbegabung, die letztlich Voraussetzung für den Typ des Flaneurs ist. Denn kaum ein Bildschirmnutzer vor dem Computer oder auch dem Fernseher, so wird schnell deutlich, verfolgt den Anspruch, Erlebtes und Gesehenes literarisch oder gar künstlerisch zu verarbeiten, noch daß er sich selbst als Künstler oder gar Genie beschreiben würde. Ihnen allen entgeht die Differenz, die zwischen dem Flaneur und seiner Tätigkeit, dem Flanieren, besteht. Aus dieser Sicht könnte man die aufgebrachten Vergleiche als zwar ergiebige Ähnlichkeiten bezeichnen, aber letztlich als in zentralen Punkten nur wenig tragfähig. Dieser Vergleich, der ja nicht nur als schicker Einzelfall auftaucht, bezieht seine Berechtigung aus der Tätigkeit des Flaneurs, dessen Erleben von Stadt auf anschauliche Weise Kongruenzen zum Erleben hypertextueller Strukturen aufweist. Und doch kommt es auch hier zu weiteren, nicht zu unterschätzenden Unstimmigkeiten zwischen dem Flaneur und dem Computernutzer. Erfährt der Flaneur den Raum der Stadt doch vor allem, indem er in ihm leiblich anwesend ist. Der Raum des Computers aber ermöglicht diese leibliche Anwesenheit nicht. So unterscheidet Gernot Böhme zwischen unterschiedlichen Raumbegriffen und auch unterschiedlichen Anwendungsszenarien in Bezug zu einer leiblichen Anwesenheit im Raum des Computers. Böhme macht in seinem Text Der Raum leiblicher Anwesenheit und der Raum als Medium von Darstellung explizit 39 Ebd. 40 A. Hohmann: »Der Flaneur.«
256
Christoph Rodatz
darauf aufmerksam, daß man wohl kaum Hyperraumstrukturen in Form von vernetzten Teilräumen, »als Ausdifferenzierung des Raums leiblicher Anwesenheit verstehen [kann]. Meine These demgegenüber ist, dass beide Raumtypen sich von Fall zu Fall überlagern und quasi miteinander verfilzt sind – und dass gerade diese Verfilzung oder Überlagerung es rechtfertigt, in beiden Fällen von Räumen zu reden.«41
Diese Verfilzung spielt sich nicht auf der Ebene der konkreten leiblichen Anwesenheit ab, dafür aber im Empfinden dessen, was man als Nutzer vernetzter Strukturen erfährt. Beispiele, die er nennt, sind Avatare, die im World Wide Web als körperliche Stellvertreter eines Nutzers handeln. Er führt auch apparativ geschaffene Handlungsumgebungen wie Caves oder Hilfsmittel wie Datenhandschuhe auf.42 Mit ihnen ist man als Nutzer körperlich und sinnestechnisch komplex mit dem virtuellen Geschehen verwoben. Ich gehe noch weiter als Böhme und gestehe auch der ComputerMaus oder der Tastatur zu, abgeschwächte Formen leiblicher Erfahrung zu ermöglichen. Sind sie doch nicht nur technische Extensionen des Körpers, sondern können auch leibliche Erfahrung generieren. Sie vermitteln zwischen der virtuellen und meiner Welt und erzeugen dabei eine Erfahrung, die der virtuellen Welt zugeschrieben wird. Dies geschieht nicht umfassend und auch nicht in der Intensität, wie es der menschliche Leib selbst im Raum erfährt, aber eben doch ausreichend, um bei Computerspielen wie Tomb Raider Formen leiblicher Anwesenheit zu suggerieren. Es ist nicht mehr allein die Illusion, die einen in das Geschehen suggestiv hineinzieht, sondern jene apparativ vermittelte leibliche Anwesenheit und die dadurch generierte sinnliche Erfahrung. Damit erfahren Bildschirmmedien eine Wahrnehmungserweiterung, die sie von einer ausschließlich semiotisch ausgerichteten Rezeption befreien. Denn was für den Raum gilt, müßte dann auch in Anteilen für Bildschirmmedien gelten. So schreibt Böhme,
41 Gernot Böhme: »Der Raum leiblicher Anwesenheit und der Raum als Medium von Darstellung«, in: Sibylle Krämer (Hrsg.): Performativität und Medialität, München: Fink 2004, S. 136. 42 Vgl. Böhme 2004, S. 138.
Der Raum des Theaters
257
»daß Wahrnehmung sich zwischen den Polen einer atmosphärischen oder synästhetischen Wahrnehmung auf der einen Seite und einer Zeichenwahrnehmung auf der anderen Seite abspielt.«43
Für die Figur des Flaneurs scheint das eine Selbstverständlichkeit zu sein. Er als Literat verbindet diese zwei für die menschliche Wahrnehmung zentralen Aspekte. Er wird immer wieder als Lesender und Interpretierender der Stadt vorgestellt, um aus dem Erlebten Geschichten zu generieren. In der Figur des wesensverwandten Detektivs kommt diese erste, semiotische Ausrichtung sehr direkt zum Ausdruck.44 Gleichzeitig erlebt der Flaneur aber auch die Weite und Enge der Stadt und die Unmöglichkeit, alles darin Existente lesen und entziffern zu können. Exemplarisch für diese zwei Ebenen kann Edgar Allen Poes Kurzgeschichte The Man of the Crowd45 herangezogen werden, die Benjamin als früheste Schilderung des Flaneurs hervorhebt.46 Der Ich-Erzähler der Geschichte beobachtet von einem Café in London aus die am Fenster vorbeitreibende Menschenmenge. Aus Begeisterung darüber, wie lesbar die im Abendlicht der Laternen vorübereilende Menge ist, entziffert er, geordnet nach gesellschaftlichem Rang, die einzelnen Personen. Gleichzeitig wird der Erzähler aber auch als jemand vorgestellt, der Stimmungen und Atmosphären der Stadt ausfindig macht. Gleich zu Beginn des Textes macht er deutlich, daß seine Sinne befreit seien von einem Schleier, der die innere Anschauung trübe.47 Stellt er aber anfangs seine erhöhte Aufmerksamkeit als eine ihm eigene Stimmung vor, wird er sich später im Text ganz auf diese Gabe des Spürens verlassen müssen und von der Stimmung der Stadt eingefangen werden. Etwa in der Mitte des Textes stößt er dann auf eine Figur, die für ihn nicht mehr lesbar ist. Weil dem so ist, kommt er zu der Schlußfolgerung, daß es sich hier um das ausgemachte Böse handeln muß. Aus Neugierde heftet er sich an die Fersen dieses einen Mannes. Er verfolgt ihn eine komplette Nacht hindurch. Er gibt erst auf, nachdem es inner43 Gernot Böhme: »Technisierung der Wahrnehmung. Zur Technik- und Kulturgeschichte der Wahrnehmung«, in: Jost Halfmann (Hrsg.): Technische Zivilisation, Opladen: Leske und Budrich 1998, S. 45. 44 Vgl. W. Benjamin: »Der Flaneur«, S. 39. 45 E. A. Poe: »The Man of the Crowd«, New York, London 1845. 46 Vgl. W. Benjamin: »Der Flaneur«, S. 53. 47 Vgl. E. A. Poe: »The Man of the Crowd«, S. 219.
258
Christoph Rodatz
halb dieses Zeitraums zu keiner Gewalttat, zu keinem Verbrechen gekommen ist und er noch immer keinerlei Chance sieht, diesen Mann in vorhandene Muster einzugliedern. »He is the man of the crowd. It will be in vain to follow; for I shall learn no more of him, nor of his deeds. […] and perhaps it is but one of the great mercies of God that ›er lässt sich nicht lesen.‹«48
In Poes Text kommt es zu einer raffinierten Dopplung der Flaneurfigur. Auf der einen Seite gibt es den Erzähler, der sich als Lesender der Stadt sicher in der Welt bewegt, bis er den Umherirrenden verfolgt. Auf der anderen Seite gibt es den suspekten Mann in der Menge, der sich im Verlauf der Geschichte als ziellos Umherirrender entpuppt. Die Not des Erzählers, nicht lesen zu können, führt zu Beschreibungen, die nicht mehr hierarchisch linear geordnet sind, sondern vom Umherirren des Verfolgten geprägt werden. Je mehr er sich zwischen Menschen bewegt, umso wohler fühlt und umso sicherer bewegt er sich. Die durch Menschen erzeugte Enge scheint für ihn Weite zu schaffen. Weite menschenleere Plätze hingegen erzeugen Unsicherheit und Enge. Er nimmt den Stadtraum nicht als gesellschaftlich geordnete Hierarchie, sondern ausschließlich als Raum leiblicher Anwesenheit wahr, als »Atmosphäre«49, wie Böhme es überschreibt. Böhme bringt den Begriff der Atmosphäre als Erweiterung zur Semiotik ins Spiel. Dieser Ansatz beruht auf der Feststellung, wie schwierig es mittlerweile ist, mit den vorhandenen Zeichen einen adäquaten Umgang zu finden. So beschreibt er beispielsweise den Hang der Stadtästhetik, »alles, was man nicht in Strukturen fassen konnte«, in die Bedeutung zu verlagern. »Man folgt aber damit nur der Konjunktur der Semiotik und verkennt, daß das Zeitalter der Repräsentation längst an sein Ende gekommen ist.« Deshalb – so Böhme – tut sich die Semiotik heutzutage auch so schwer. »Anders ausgedrückt: die multikulturelle Welt unserer großen Städte enthält zwar mehr und mehr allgemeinverständliche Piktogramme, aber keine von der Allgemeinheit verstandene Symbolik mehr. D. h. aber, was einen anspricht in einer Stadt, lässt sich nicht als Sprache deuten, vielmehr geht es als Anmutungscharakter in das Befinden mit ein.«50 48 Ebd., S. 228. 49 G. Böhme: »Leibliche Anwesenheit im Raum«, S. 96.
Der Raum des Theaters
259
Für seine Betrachtung der Stadt geht es ihm nicht darum, unter ästhetischen oder kunsthistorischen Gesichtspunkten ihren Charakter zu benennen, »sondern darum, wie man sich in ihr fühlt«51 und was man spürt. »Wir spüren Weite oder Enge, wir spüren Erhebung oder Gedrücktsein, wir spüren Nähe oder Ferne, wir spüren Offenheit oder Geschlossenheit, wir spüren Bewegungssuggestion.«52
Böhme stellt also das Subjekt als wahrnehmendes und befindliches in den Vordergrund seiner Betrachtungen. Es geht ihm um »Befindlichkeiten«, um Befindlichkeiten im doppelten Sinne des Wortes. Sich befinden in einem Raum spielt eine genauso wichtige Rolle, wie sich fühlen und gestimmt sein. Mit diesem sowieso gegebenen Gestimmtsein und Durch-denRaum-gestimmt-Werden kann man nun ganz unterschiedlich umgehen. Jeder Zuschauer, der den Raum des Theaters betritt, egal, welche Anordnung er vorfindet, begibt sich als im Raum des Theaters leiblich Anwesender in einen gestimmten Raum: Atmosphäre. Diese kann von Seiten der Theaterproduzenten bewußt beeinflußt und verstärkt werden.53 Geht man vom klassischen Theater aus, gerät dies zwar nicht in den Hintergrund, aber wird dann doch auf zwei wesentliche Elemente, nämlich Licht und Klang, reduziert. Thomas Fuchs zeigt dies in seinem Artikel Leibliche und virtuelle Realität54 auf. Da das Subjekt als handelnder Mensch, phänomenologisch betrachtet, seine Wahrnehmung an der eigenen Leiblichkeit ausrichtet, stehen Wirklichkeitserfahrungen mit der sensorischen und motorischen Wahrnehmung des Subjekts in Verbindung. Der Leib ist Garant für Wirklichkeit. »Was wirklich ist, steht in gegenwärtiger Beziehung zu meinem Leib, er ist das Zentrum aller Orientierung. Um eine Attrappe als solche zu 50 Gernot Böhme: »Die Atmosphären einer Stadt«, in: Von innen nach außen. Stadtentwicklung ohne Stadt? Weimar: Bauhaus-Universität 1997, S. 17. 51 Ebd. 52 G. Böhme: »Leibliche Anwesenheit im Raum«, S. 96. 53 Gernot Böhme: Aisthetik. Vorlesung über Ästhetik als allgemeine Wahrnehmungslehre, München: Fink 2001, S. 125. 54 Thomas Fuchs: »Leibliche und virtuelle Realität«, in: Scheidewege. Jahresschrift für skeptisches Denken 27, Baiersbronn: Max-Himmelheber-Stiftung 1997, S. 182-203.
260
Christoph Rodatz
erkennen, müssen wir mit unserem Körper um sie herumgehen, auf ihre Rückseite gelangen oder sie betasten.«55
Wollen wir uns also einer Illusion hingeben, wollen wir nicht wissen, wie real die Dinge sind, denen wir begegnen, müssen »wir unsere Leiblichkeit umgehen, unterlaufen, außer Kraft setzen«56. Dafür scheint die Anordnung, wie sie im klassischen Theater, im Kino oder vor dem Fernseher tradiert ist, ideal zu sein. Ein körperlich auf einen Ort fixiertes Subjekt sitzt vor einem offenen bzw. geschlossenen Schirm und blickt in bzw. auf einen ›anderen Raum‹. Wo besser als in solch einer Konstellation kann man sich in eine fremde Welt entführen lassen, kann man sich einer auf Illusion ausgerichteten Präsentation hingeben, kann man sich auf eine fiktive und illusionäre Wirklichkeit einlassen, ohne sich tatsächlich leiblich in etwas hineinzubegeben? Es kommt zu einer Distanzierung, die mit den Mitteln Klang und Licht überwunden werden soll. Sie sind es, die atmosphärisch in den verdunkelten Raum des Zuschauers vorzudringen vermögen. Das Seh- und Hörbare, wie es Balme in seiner Intermedialitätsdefinition beschreibt, scheint hier wieder durch. Wenn man also nicht gerade liest und entziffert, dann konsumiert man. Bezieht man sich aber auf den Computer und das Surfen durch vernetzte Strukturen, so geht es hier nicht mehr allein um Illusion und Entziffern. Gerade in Computerspielen wie Tomb Raider steht neben dem Aspekt der Illusion vor allem die Möglichkeit, aktiv das Geschehen und das eigenen Schicksal zu beeinflussen. Mit der leiblichen Anwesenheit, sei sie nun im Theater tatsächlich oder im Computer als Stellvertreter gegeben, verändert sich der Umgang mit Bildschirmmedien. Das Theater reagiert auf diesen Wandel. Seine spezifische Medialität, weil es sich um eine Raumkunst handelt, eröffnet sehr viel mehr Optionen, als nur das Seh- und Hörbare sinnlich erfahrbar zu machen. Grundsätzlich können alle Sinne angesprochen und somit ein sehr hoher Grad an synästhetischen und atmosphärischen Wirkungen erzeugt werden. Umso erstaunlicher ist es, daß die Theaterwissenschaft den Begriff der Atmosphäre nicht schon seit jeher für ihre Zwecke instrumentalisiert. Der prominenteste Ansatz ist noch recht jung und 55 Ebd., S. 184. 56 Ebd.
Der Raum des Theaters
261
stammt von Erika Fischer-Lichte.57 Aber auch die Theatermacher halten sich erstaunlich zurück. Obwohl der Begriff im Sprachrepertoire enthalten ist, verläßt sich die Praxis der institutionellen Inszenierung zu einem Großteil auf die semiotische Wirkung. Das Atmosphärische wird als Unterstützung herangezogen, aber nur selten wie im Falle von Parsifal zum Fundament einer Aufführung. Selbst die Oper, in deren Klang der Zuschauer eindringt, räumt den Zeichen und deren Bedeutung einen sehr hohen Stellenwert ein. Wenn aber der Raum des Theaters zum (Bühnen-)Bild verflacht und in diesem die Zeichen sich als Text einschreiben und ausdrücken, kommen die räumlichen Ereignisse deutlich zu kurz. Selbst, wenn der Zuschauer nicht als Flaneur in Bewegung gerät, so ist er nicht, wie Poes Erzähler am Anfang der Geschichte, durch eine Glasscheibe vom Geschehen getrennt. Die Etablierung der Mattscheibe im Theater, sei sie auch nur durch einen offenen Schnitt erzeugt, widerspricht der spezifischen Medialität des Theaters. Das scheint gegenwärtig dadurch noch einmal virulenter zu werden, weil der Computer seine ihm integrierte Mattscheibe mit Erfolg zu überwinden versucht. Sein Raum wird mit Stellvertretern begeh- und erlebbar. Sein Raum wird als erfahrbar wahrgenommen, man kann beinahe in ihm flanieren. Sein Raum wird eigenständig erkundbar und zum Feld selbstbestimmter Narration. Das Bildschirmmedium wird somit zu einem beinahe »Raum-Schirm-Medium«.
Resümee Ob nun Parsifal seine konzeptionellen Bezüge einem Umgang seiner Autoren mit Computern zu verdanken hat oder nicht, ist hier nicht die Frage. Es geht auch nicht darum, die Behauptung aufzustellen, daß durch Computer die Auflösung der klassischen Ordnung des Theaterraumes vorangetrieben wurde und wird. Dafür sind diese Tendenzen schon viel zu alt. Ziel ist es eher zu zeigen, daß sich im Rahmen solcher Verquickungen innerhalb diverser ähnlich strukturierter Bildschirmmedien eine neue ästhetische Ausrichtung ankündigt. Diese wird nicht nur von vie57 Erika Fischer-Lichte: Ästhetische Erfahrung. Das Semiotische und das Performative, Basel: Francke 2001.
262
Christoph Rodatz
len Präsentationsformen getragen und umgesetzt, sondern sie stellt sich für die potentiellen Zuschauer auch als Selbstverständlichkeit dar, erleben sie sie schließlich nicht nur in Ausnahmesituationen wie im Theater, sondern auch in ihrem alltäglichen Umgang mit Bildschirmmedien. Vielleicht kann man die These aufstellen, daß beim Parsifal durch diesen für die Oper starken Einschnitt nicht der Eindruck einer Provokation erweckt wird, sondern, im Gegenteil, der Umgang mit dem Thema und die Inszenierung des Museums es darauf anlegen, im positiven Sinne gefällig zu sein. Das Konzept verläßt sich auf gewisse Übereinkünfte und Konventionen, die sich durch die intensive Nutzung von Bildschirmmedien über die letzten Jahre herausgebildet haben. Diese sind die hier beschriebenen Aspekte: die Übertragung von Funktionsweisen und Strukturen des Computers ins Realräumliche des Theaters, die Auflösung narrativer, rezeptiver und körperlicher Konventionen und die Konzentration auf ein atmosphärisches Wirken und Erfahren von Theater. Für Bildschirmmedien scheint somit die räumliche Anordnung, das Dispositiv immer stärker an Bedeutung zu gewinnen. Dagegen sind die vermittelten Inhalte nicht mehr stärkster Aspekt der Betrachtung. Vielmehr kommt es zu einer gleichberechtigten Durchmischung von Bedeutung und Stimmung, von Semiotik und Atmosphäre und von Distanzierung und Befindlichkeit.
Epilog Zum Schluß vielleicht noch die Auflösung einer bislang nicht gestellten Frage: Wo und wann fand diese Aufführung von Richard Wagners Parsifal statt? Es hat sie nie gegeben. Hier wurde das schriftlich vorliegende Konzept vorgestellt, das Anja Diefenbach und ich 1999 anläßlich des vom Wagner Forum Graz ausgeschriebenen 2. Internationalen Wettbewerbs für Regie und Bühnenbild entwickelt haben.58 Zur Aufführung kam es bislang nicht, dafür aber ein stark veränderter Ansatz, der am 18. Juni 2000 im Schauspielhaus in Graz Premiere hatte. Die hier vorgestellte Konzeption dient mir aber mittlerweile als Exempel, anhand dessen ich Gedanken meiner theoretischen Arbeit verdeutlichen kann.
58 http://www.ipsi.fhg.de/delite/Projects/Parsifal/index.html (Zugriff am 20. Juni 2003)
Der Raum des Theaters
263
Die Frage nach dem Ereignis und seiner theoretischen Betrachtung stellt sich nun noch einmal in einem etwas anderen Licht. Ist es legitim, seine Reflektionen auf der Basis eines Konzeptes zu erörtern, das niemand je erfahren konnte? Eine Frage, die sich nicht ohne weiteres beantworten läßt, und doch will ich zumindest ein Argument dafür liefern, warum dieses Vorgehen legitim erscheint. Das Stück Parsifal spielt in seiner Konstruktion mit unterschiedlichen Präsentationsweisen. Hierbei beruft es sich auf etablierte Formen, die jeder kennt und mit denen jeder Erfahrungen hat. Und obwohl sich für jede hier beschriebene Situation ein Beleg durch tatsächlich aufgeführte Stücke finden ließe, habe ich mich doch entschieden, meine Ausführungen an einem imaginären Modell zu orientieren. Es wird eine nicht vorhandene Gesamterfahrung konstruiert, die sich aus einer Aneinanderstückelung von Einzelerfahrungen ergibt. Für meine Herangehensweise empfinde ich dies jedoch als gangbar, da Strukturen und Konstellationen im Vordergrund stehen, nicht aber übergreifende und verbindende Zusammenhänge. Hierauf begründet sich meine Motivation, Parsifal als deskriptives Modell heranzuziehen und exemplarisch Fragen der Intermedialität zwischen räumlichen Strukturen des Theaters und des Computers zu erörtern.
264
Christoph Rodatz
Literatur Aristoteles: Poetik, Fuhrmann, Manfred (Übers., Hrsg.), Stuttgart: Reclam 1994. Balme, Christopher B.: »Theater zwischen den Medien: Perspektiven theaterwissenschaftlicher Intermedialitätsforschung«, in: Christopher B. Balme, Markus Moninger: Crossing Media: Theater – Film – Fotografie – Neue Medien, München: epodium 2004. Balme, Christopher B.: Einführung in die Theaterwissenschaft, Berlin: Erich Schmidt 2001. Balme, Christopher B.: »Robert Lepage und die Zukunft des Theaters im Medienzeitalter«, in: Martina Leeker (Hrsg.): Maschinen, Medien, Performances. Theater an der Schnittstelle zu digitalen Welten, Berlin: Alexander 2001. Baudry, Jean-Louis: »Le dispositif: approches métapsychologiques de l’impression de réalité«, in: Communications 23 (1975). Baudry, Jean-Louis: »Ideological Effects of the Basic Cinematographic Apparatus«, in: Rosen 1986, S. 286-198. Benjamin, Walter: »Der Flaneur«, in: ders.: Charles Baudelaire. Ein Lyriker im Zeitalter des Hochkapitalismus, Frankfurt/M.: Suhrkamp 1998, S. 33-65. Böhme, Gernot: Atmosphäre. Essays zur neuen Ästhetik, Frankfurt/M.: Suhrkamp 1995. Böhme, Gernot: »Die Atmosphären einer Stadt«, in: Von innen nach außen. Stadtentwicklung ohne Stadt? Weimar: Bauhaus-Universität 1997, S. 1524. Böhme, Gernot: »Technisierung der Wahrnehmung. Zur Technik- und Kulturgeschichte der Wahrnehmung«, in: Jost Halfmann (Hrsg.): Technische Zivilisation, Opladen: Leske und Budrich 1998. Böhme, Gernot: »Leibliche Anwesenheit im Raum«, in: Egon Schirmbeck (Hrsg.): RAUMstationen. Metamorphosen des Raumes im 20. Jahrhundert, Ludwigsburg: Wüstenrot-Stiftung 2001. Böhme, Gernot: Aisthetik. Vorlesung über Ästhetik als allgemeine Wahrnehmungslehre, München: Fink 2001. Böhme, Gernot: »Der Raum leiblicher Anwesenheit und der Raum als Medium von Darstellung«, in: Sibylle Krämer (Hrsg.): Performativität und Medialität, München: Fink 2004. Coy, Wolfgang: »Aus der Vorgeschichte des Mediums Computer», in: Norbert Bolz/Friedrich A. Kittler/Georg Christoph Tholen (Hrsg.): Computer als Medium, München: Fink 1994. Diefenbach, Anja/Rodatz, Christoph: Parsifal. Eine Oper für Singende, Musizierende und Wandernde, Darmstadt 1999, http://www.ipsi.fraunhofer.de/delite/projects/parsifal/index.html (Zugriff am 20. August 2004). Fiebach, Joachim: »Ausstellen des tätigen Darstellerkörpers als Keimzelle von Theater oder Warum Theater kein Medium ist«, in: Martina Leeker
Der Raum des Theaters
265
(Hrsg.): Maschinen, Medien, Performances. Theater an der Schnittstelle zu digitalen Welten, Berlin: Alexander 2001. Fischer-Lichte, Erika: Ästhetische Erfahrung. Das Semiotische und das Performative, Basel: Francke 2001. Fuchs, Thomas: »Leibliche und virtuelle Realität«, in: Scheidewege. Jahresschrift für skeptisches Denken 27, Baiersbronn: Max-Himmelheber-Stiftung 1997, S. 182-203. Goldate, Steve: »The Cyberflaneur. Spaces and Places on the Internet«, in: Art Monthly, July (1997) oder http://www.ceramicstoday.com/articles/ 050498.htm (Zugriff am 20. August 2004). Hick, Ulrike: Geschichte der Optischen Medien, München: Fink 1999. Hickethier, Knut: »Apparat – Dispositiv – Programm. Skizze einer Programmtheorie am Beispiel des Fernsehens«, in: Siegfried Zielinski/Knut Hickethier (Hrsg.): Medien-Kultur. Schnittstellen zwischen Medienwissenschaft, Medienpraxis und gesellschaftlicher Kommunikation. Knilli zum Sechzigsten, Berlin: Wiss.-Verl. Spiess 1991. Hohmann, Angela: »Der Flaneur. Gedächtnis und Spiegel der Moderne«, in: Die Horen, 45/4, Bremerhaven: Verl. für Neue Wiss. 2000. Krämer, Sybille: »Spielerische Interaktion. Überlegungen zu unserem Umgang mit Instrumenten«, in: Florian Rötzer (Hrsg.): Schöne neue Welten? Auf dem Weg zu einer Spielkultur, München: Boer 1995, S. 225-236. Krämer, Sybille: »Das Medium als Spur und als Apparat«, in: dies. (Hrsg.): Medien, Computer, Realität. Wirklichkeitsvorstellungen und neue Medien, Frankfurt/M.: Suhrkamp 1998, S. 73–94. Krämer, Sybille: Über Medien. Geistes- und kulturwissenschaftliche Perspektiven, Berlin 1998 oder http://userpage.fu-berlin.de/~sybkram/medium/ inhalt.html (Zugriff am 20. August 2004). Krämer, Sybille: »Medien – Körper – Performance. Zwischen Person und ›persona‹. Ein Gespräch«, in: Martina Leeker (Hrsg.): Maschinen, Medien, Performances. Theater an der Schnittstelle zu digitalen Welten, Berlin: Alexander 2001, S. 471-479. Leeker, Martina (Hrsg.): Maschinen, Medien, Performances. Theater an der Schnittstelle zu digitalen Welten, Berlin: Alexander 2001. Lehmann, Hans-Thies: Das postdramatische Theater, Frankfurt/M.: Verlag der Autoren 2001. Manovich, Lev: »Archäologie des Computerbildschirms«, in: Kunstforum International. Die Zukunft des Körpers I, Band 132 (1995). Müller, Jürgen E.: »Intermedialität als poetologisches und medientheoretisches Konzept. Einige Reflektionen zu dessen Geschichte«, in: Jörg Helbig (Hrsg.): Intermedialität. Theorie und Praxis eines interdisziplinären Forschungsgebiets, Berlin: Erich Schmidt 1998, S. 31-40. Neumeyer, Harald: Der Flaneur. Konzeptionen der Moderne, Würzburg: Königshausen und Neumann 1999.
266
Christoph Rodatz
Poe, Edgar Allen: »The Man of the Crowd«, in: Library of American Books, No. II, Tales by Edgar A. Poe, New York, London: Wiley and Putnam 1845, S. 219-228 oder http://www.eapoe.org/works/editions/talesc.htm (Zugriff am 20. August 2004). Porombka, Stephan: »Der elektronische Flaneur als Kultfigur der Netzkultur«, Vortrag, gehalten auf dem Symposium Softmoderne 2. Literatur im Netz, Berlin, 5. Mai 1996. Rötzer, Florian: »Flanieren in den Datennetzen«, in: http://www.heise.de/tp/ deutsch/inhalt/co/2029/1.html 1995 (Zugriff am 20. August 2004). Sandbothe, Mike: »Theatrale Aspekte des Internet«, in: Herbert Willems/Martin Jurga (Hrsg.): Inszenierungsgesellschaft. Ein einführendes Handbuch, Opladen: Westdt. Verl. 1998. Winkler, Hartmut: »Songlines. Landschaft und Architektur als Modell für den Datenraum«, in: Martin Warnke/Wolfgang Coy/Georg Christoph Tholen (Hrsg.): Hyperkult. Geschichte, Theorie und Kontext digitaler Medien, Frankfurt/M.: Stroemfeld 1997, S. 227-239. Alle Fotos sind von Anja Diefenbach, 2000.
Uwe Pirr
Vom Monitor auf die Leinwand
Kurzfassung: Einsatz und Möglichkeiten digitaler Techniken im Filmsowie im Fernseh- und Videobereich werden an Beispielen vorgestellt – der Weg vom Monitor auf die Leinwand. Die Digitalisierung hat auch im Film- und im Fernseh- und Videobereich starke Veränderungen hervorgerufen. Arbeitsabläufe und -techniken in der Filmindustrie wurden drastisch verändert. Viele filmische Effekte, die vorher nicht möglich waren, können jetzt einfach erzeugt werden. Die bekanntesten – und auch die spektakulärsten – Einsatzbereiche sind Computeranimation, Composing und Special Effects.1 Filme wie Terminator, Jurassic Park und Toy Story wurden erst durch digitale Techniken ermöglicht. Neue digitale Techniken werden meist zuerst im Fernseh- und Videobereich eingeführt, da hier geringere Anforderungen an Auflösung und Bildqualität gestellt werden und daher die Bildberechnungen besser beherrschbar sind. Aber auch im Preproduction-Bereich wird der Computereinsatz immer wichtiger: Planung und erste Proben von Aufnahmen sind mit 3D-Software schneller und vor allen Dingen kostengünstiger als mit realen Schauspielern zu realisieren. Beim Filmton hat die Digitalisierung ebenfalls neue Möglichkeiten geschaffen und existierende Techniken verändert. Durch die Digitaltechnik kommt es aber mittlerweile auch zu einer gewissen Angleichung zwischen dem Profibereich der Filmindustrie und dem Low-Cost-Consumer-Bereich, weil die Software immer einfacher zu nutzen und breit verfügbar ist. QuickTime ist ein Beispiel für eine Systemarchitektur für digitalen Film, die sich plattformübergreifend durchgesetzt hat. Bearbeitungsmöglichkeiten für digitalen Film bieten viele auf QuickTime aufbau-
1
Vgl. James Monaco: Film verstehen. Reinbek: Rowohlt Taschenbuch 1995.
268
Uwe Pirr
ende Programme, die so viele hierfür typische Produktionstechniken einem breiten Nutzerkreis zur Verfügung stellen.
Digitale Bildverarbeitungstechniken Die wichtigsten Bereiche für den Einsatz digitaler Bildverarbeitungstechniken in der Filmindustrie sind Computeranimation, Composing und Special Effects. Computeranimationen erzeugen aus zwei- oder dreidimensionalen Modellen Bilder, die dann zum Teil mit real aufgenommenen Bildern gemischt werden. Diese Überlagerung mehrerer Bilder heißt Composing und bildet die Grundlage vieler Special Effects. Composing und Special Effects arbeiten direkt mit den Bilddaten und verändern so herkömmliche Tricktechniken oder schaffen neue, wie zum Beispiel Morphing oder virtuelle Filmelemente. Die Illusion von Realität, also Trickaufnahmen, die man nicht erkennen soll, ist am schwierigsten zu realisieren und erfordert hohen technischen Aufwand. Explodierende Planeten werden dagegen sofort als Trick erkannt und sind daher nicht so kritisch, da es keinen Vergleich mit realen Vorkommnissen gibt. 1972 wurde in dem Science-Fiction-Film Westworld von Michael Crichton zum ersten Mal im Kino eine computeranimierte Hand gezeigt.2 1981 begeisterte Tron von Stephen Lisberger das Publikum mit den für die damalige Zeit brillanten Computeranimationen aus dem Inneren eines Rechners.3 Seit 1985 experimentierte man auch bei Industrial Light & Magic (ILM), einer Firma für die Herstellung von Spezial- und Trickeffekten, mit digitalen 2D-Malprogrammen für Animationen.4 Für perspektivische Veränderungen in Zeichentrickfilmen, wie Kamerabewegungen, reichen 2D-Animationen nicht aus. 3D-Animationen werden notwendig, um realistische räumliche Effekte zu erzeugen. 1991 wurde für die Produktion von Hook Texture Mapping auf 3D-Objekte eingesetzt, um realistische perspektivische Veränderungen 2 Vgl. H.-H. Kotte: »Stars aus der Steckdose. Virtuelle TV-Moderatoren sind Vorboten einer neuen Unterhaltungswelt.«, in: Berliner Zeitung, 8./9.2.1997, S. 8. 3 Vgl. Katholisches Institut für Medieninformation und die Katholische Filmkommission für Deutschland (Hrsg.): Lexikon des internationalen Films. Reinbek: Rowohlt 1995. 4 Vgl. Mark Cotta Vaz/Patricia Rose Duignan: Industrial Light & Magic. Into the Digital Realm. New York: Del Rey 1996.
Vom Monitor auf die Leinwand
269
bei einem Kameraüberflug zu erzielen.5 Hierbei wurde die gleiche Mapping-Software wie für Terminator 2 eingesetzt. Seit 1992 wird in der Animationsabteilung von ILM vollständig mit digitaler Technik gearbeitet.
Abb. 1 – The Big Kiss. Interaktion eines realen Schauspielers mit der Trick-Figur.
Die Interaktion menschlicher Schauspieler mit animierten Figuren stellt eine weitere Schwierigkeit dar. Im Film Who framed Roger Rabbit kam es erstmals zu einer richtigen Interaktion mit Berührungen und korrekter Darstellung von Schatten. Erreicht wurde die Interaktion menschlicher Schauspieler mit animierten Figuren durch Überlagerungen von Blue-Screen-Aufnahmen, dem Composing. »It was a real breakthrough. In a way, we created a new dimension on Roger Rabbit. The animation didn’t look two-dimensional, (although) it didn’t look entirely 3-D, either; we called it 2 and 3/4-D«6. Who framed Roger Rabbit war die letzte aufwendige Produktion, bei der optisches Composing eingesetzt wurde. In den Jahren 1990 bis 1993 wurden bei ILM die fotochemischen Prozesse zur optischen Komposition von Aufnahmen zur Erzeugung von Tricks durch digitale Effekte ersetzt.7 Masken und Blue-ScreenAufnahmen werden seitdem digital erzeugt und verarbeitet. Die einzel5 6 7
Vgl. ebd. Ebd. Vgl. ebd.
270
Uwe Pirr
nen Aufnahmen werden gescannt, digital manipuliert und dann wieder auf den analogen Film gebracht. Der große Vorteil der digitalen Tricktechnik ist die Geschwindigkeit, mit der Ergebnisse vorliegen. Man muß nicht erst auf den entwickelten Film warten. Für die Erzeugung und Veränderung von Hintergrundmasken werden bei ILM auch Standard-Bildverarbeitungsprogramme, wie Photoshop, eingesetzt. Mike Bolles von ILM zu digitaler Tricktechnik: »I’ve never seen such a rapid change in my life anywhere, in anything. … It’s just stunning. But digital-image processing is more powerful and versatile than optical printing was. In optical printing you changed your image by masking, or blanking out, certain areas and replacing them with areas of film from another piece of film, and you can only do that with sections. With the digital-image manipulation you can go in and change any point of an image in any manner you want. It’s a very powerful tool.«8 Morphing wurde erstmals 1988 für den Film Willow eingesetzt. Die Software wurde von Doug Smythe entwickelt. Blue-Screen-Aufnahmen von Puppen, Tieren und Schauspielern wurden digital ineinander überführt und im Film als Metamorphose sichtbar. Referenzpunkte, die auf die entsprechenden Punkte im nächsten Schlüsselbild abgebildet werden sollen, werden interaktiv festgelegt. Die Berechnung der Zwischenbilder geschieht automatisch. Mit Terminator 2 (J. Cameron, 1991) wurde Morphing endgültig einem breitem Publikum bekannt gemacht. Die Morphing-Technik ist mittlerweile weit verbreitet, sie wird im Fernseh- und Videobereich für Werbung eingesetzt, und seit etwa 1993 gibt es auch erschwingliche Morphing-Software für den PC.9 Bei Terminator 2 wurden erstmals die Trickeffekte vollständig digital erzeugt.10 Das 90-Millionen-Dollar-Budget dieses Filmes wurde überwiegend für die digitalen Spezialeffekte ausgegeben. Eine Hardwarevoraussetzung war die Entwicklung eines leistungsfähigen CCDInput-Scanners für die verwendeten Filmformate im Jahr 1990. Die Bewegungen der computergenerierten Figuren wurden für Terminator 2 von realen Schauspielern erzeugt. Sie wurden aufgenommen, und ihre Bewegungen wurden dann auf die computergenerierten Figuren übertragen. Die Schauspieler trugen dafür Kleidung mit einem aufgemaltem
8 Ebd. 9 Vgl. J. Monaco: Film verstehen. 10 Vgl. M. Cotta Vaz/P. R. Duignan: Industrial Light & Magic.
Vom Monitor auf die Leinwand
271
Abb. 2 – Aufnahme eines realen Schauspielers und Übertragung der Bewegung auf die T-1000-Animation in »Terminator 2«.
Raster als Referenzpunkte. Auf diese Art können sehr realistische Bewegungen der computergenerierten Figuren erzeugt werden. Neu war bei Terminator 2 auch der Einsatz einer Software, die die computergenerierten Figuren relativ glatt und geschmeidig und ohne störende Übergänge erscheinen läßt. Auch Projektionen von Live-2D-Bildern auf 3D-Modelle wurden erstmals bei der Herstellung von Terminator 2 verwendet. Ein weiterer viel beachteter Durchbruch der Computeranimation war 1993 Jurassic Park von S. Spielberg.11 Die Technik der inversen Kinematik erleichterte die Animationserstellung aus den 3D-Modellen. Zur Simulation eines Schrittes mußte jetzt nur noch der Fuß bewegt werden, jedes andere damit verbundene Element reagierte entsprechend.12 Es wurden aber auch spezielle Eingabegeräte für die Animation der Computermodelle entwickelt: die DIDs (Dinosaur Input Devices). DIDs werden über Handgriffe wie traditionelle Animationspuppen bewegt. An den Gelenken sitzen Sensoren, die die Gelenkstellung an den Computer übertragen und so die Computermodelle animieren. Auf 11 Vgl. J. Monaco: Film verstehen. 12 Vgl. auch Norman Badler/Dimitri Metaxas/Bonnie Webber/Mark Steedman: The Center for Human Modeling and Simulation. Philadelphia: University of Pennsilvania 1996 (Postscript-Datei im WWW, 20.4.1997, http://130.91.6.8/~hms/badler/pap/ pap.html).
272
Uwe Pirr
Abb. 3 – Dinosaur Input Device.
diese Weise wurde die traditionelle Stop-Motion-Aufnahmetechnik mit der Computergrafik zusammengeführt. Zudem wurden mit Jurassic Park neue Freiheiten der Kamerabewegung bei der Komposition realer Bilder mit computergenerierten Bildern erreicht. Hierzu wurden für die Hintergrundaufnahmen Referenzpunkte, die später digital retuschiert wurden, aufgenommen. Anhand dieser Referenzpunkte konnte die Kamerabewegung rekonstruiert und für die Erzeugung der Computerbilder simuliert nachgefahren werden. Auf diese Art wurde sichergestellt, daß auch bei veränderter Kameraposition Blickpunkt und Perspektive der realen und computererzeugten Aufnahmen übereinstimmen. Außerdem wurden Hintergrundaufnahmen schon beim Modellierungsprozeß auf Wireframe-Ebene mit eingeblendet. Der acht Jahre später in die Kinos gekommene dritte Teil Jurassic Park III13 zeigt deutlich die Weiterentwicklungen der Dinosaurier-Animation. Insbesondere die Muscle- und Flesh-Simulation spielt eine wichtige Rolle für glaubwürdige Bewegungen der Dinos, und die Ambient-occlusion-Technik dient der realistischeren Beleuchtung der Szenen. Zudem wagte man es erstmals, digitale Tiere und Animatronics in einem Shot zu kombinieren, beziehungsweise direkt Überblendungen von einem Modell in das andere einzusetzen. In den ersten beiden Filmen wurde ausschließlich mit harten Schnitten gearbeitet. 13 Vgl. »Jurassic Park III.«, in: digital production 3 (2001), S. 179-185.
Vom Monitor auf die Leinwand
273
1996 kam mit Toy Story der erste vollständig mit dem Computer erzeugte abendfüllende Film in die Kinos.14 Toy Story ist ein dreidimensionaler Zeichentrickfilm, der auch als solcher zu erkennen ist. Weitere Entwicklungsstufen der Computeranimation wurden mit Bug’s Life (1998), Toy Story 2 (1999), Monsters, Inc. (2001), Ice Age (2002) und Finding Nemo (2003) erreicht, für die jeweils technische Neuerungen eingeführt und viele Probleme gelöst werden mußten. Dies beginnt bereits bei der Modellierung: stellten die Figuren in Toy Story noch Plastikmodelle dar und hatten die Insekten in Bug’s Life15 ein hartes Außenskelett, mußten für Monsters, Inc.16 und Ice Age17 organische Charaktere geschaffen werden, die durch Subtilität im Ausdruck überzeugten. Haarige Monster und Steinzeittiere erfordern ein aufwendiges Dynamiksystem, um die Bewegung des Fells – und der Kleidung – zu simulieren. Und auch aufwendige, realitätsnahe Lichtmodelle und Shading-Techniken spielen bei Fellanimationen und Pflanzendarstellungen ebenso wie bei (Unter-)Wasserdarstellungen eine große Rolle. In Ice Age ahmt Ray-Tracing das Umgebungslicht bis ins kleinste Detail nach. Das Sonnenlicht wird auf dem Fell der Tiere gespiegelt, und jedes einzelne Haar wirft einen eigenen Schatten. Massenszenen gehören auch bei computeranimatierten Filmen zu den besonderen Herausforderungen. So wurde in Bug’s Life beispielsweise eine ganze Ameisenarmee animiert, bei der jedes Insekt etwas anderes tut und sich anders bewegt. Möglich wurde dies durch einen Crowd-Simulator, der Einzelteile von Keyframe-Animationen neu mischt und zusammensetzt. Das Verhalten der Ameisen wurde über Formeln kontrolliert. Bei anderen Entwicklungen werden die computergenerierten Bilder immer realitätsnäher, so daß häufig für Betrachter nicht entscheidbar ist, welche Bilder computergeneriert sind. Durch die digitale Technik werden die bewegten Bilder so immer weiter von den Fesseln der Wirklichkeit befreit. Zudem verschmelzen Computerbilder mit realen Bildern immer perfekter. Bei den Special Effects gehen die Möglichkeiten mittlerweile weit über Bildveränderung und Bildverbesserung hinaus. Virtuelle Elemente
14 15 16 17
Vgl. H. H. Kotte: »Stars aus der Steckdose« Vgl. »A Bug’s Life«, in: digital production 1 (1999), S. 51-53 und S. 88-89. Vgl. »Die Monster AG«, in: digital production 1 (2002), S. 26-38. Vgl. »Ice Age. Helden unter Null«, in: digital production 2 (2002), S. 22-31.
274
Uwe Pirr
Abb. 4 – Scrat – eine haarige Mischung aus Eichhörnchen und Ratte.
gewinnen immer mehr an Bedeutung. Virtuelle Sets werden mittlerweile häufig in Kino- und Fernsehproduktionen eingesetzt. Hierbei existieren die Kulissen nur noch im Rechner, oder reale Kulissen werden mit dem Rechner erweitert und dann mit Blue-Screen-Techniken mit den aufgenommenen Szenen gemischt. Viele Produktionen werden durch virtuelle Elemente erst ermöglicht, da die materielle und personelle Ausstattung sonst zu aufwendig wäre.18 Diese Entwicklung führt weiter zum kostensparenden virtuellen Studio.19 Digitale virtuelle Sets wurden mit Young Indiana Jones 1991 erstmals in einer TV-Produktion in Videoauflösung eingesetzt. Bei den Aufnahmen zu Forrest Gump 1994 wurden virtuelle Sets dann auch für hochauflösende Kinoproduktionen angewendet.20 In Forrest Gump wurden ›unsichtbare‹ Trickeffekte, wie beispielsweise die fallende Feder oder, etwas auffälliger, die Begegnung von Gump mit JFK eingesetzt.21 Hierfür wurde aus alten Dokumentaraufnahmen die Figur von Kennedy extrahiert und mit einem neu aufge18 Vgl. auch Kevin Kelly/Paula Parisi: »Beyond Star Wars. What’s next for George Lucas. The Wired Interview«, in: Wired Febuary (1997). 19 Vgl. G. Schlag/B. Wentz: Fernsehen der Zukunft. Berlin: SFB, 1996 (Sendung im Programm von B1 am 3.2.1997, 21.15 bis 22.00 Uhr). 20 Vgl. ebd. 21 Vgl. M. Cotta Vaz/P. R. Duignan: Industrial Light & Magic.
Vom Monitor auf die Leinwand
275
Abb. 5 – Virtuelle Sets für die TV-Produktion »Young Indiana Jones«.
nommenen Hintergrund und einer Blue-Screen-Aufnahme von Gump digital montiert. Anschließend wurden die Aufnahmen digital mit Morphing-Software nachbearbeitet. Auch Mischformen traditioneller Modellbautechnik mit Methoden der Computergrafik werden eingesetzt. Filme, für die Mischformen verwendet wurden, sind beispielsweise Star Trek VII und Jagd auf Roter Oktober (1990). Ein weiteres Beispiel ist der Film Titanic von James Cameron (1997). Hier wird ein 750 Fuß großes Modell der Titanic für die Untergangsszenen digital um das Unterwasserschiff erweitert.22 In Enemy at the Gates (2001) verdrängen 3D-Modelle die traditionellen Modellbau-Shots.23 Virtuelle Darsteller ersetzen Statisten, wie in Titanic (1997) und Star Wars – Episode 1 (1999) oder werden gar in tragenden Rollen, wie erstmals 1985 in Young Sherlock Holmes oder 2001 in Final Fantasy, eingesetzt.24 22 Vgl. Paula Parisi: »F/XTRAVAGANZAS«, in: Wired Juni (1997), S. 124-128. 23 Vgl. M. Hackl: »Gemalte Bilder. Die Geschichte des Matte Paintings«, in: digital production 1 (2004), S. 120-129; A. Happel: »Krieg im Kino. Digitaltechnik als neue Dimension?«, in: digital production 2 (2003), S. 192-197. 24 Vgl. ebd.
276
Uwe Pirr
Abb. 6 – Begegnung Gumps mit JFK.
Für virtuelle Charaktere25 werden derzeit noch häufig die Bewegungen von Schauspielern auf 3D-Modelle übertragen. Hierzu wird, wie bei den Aufnahmen zu Terminator 2 die Bewegung an besonders gekennzeichneten Meßpunkten aufgezeichnet, und das Modell wird 25 Vgl. G. Schlag/B. Wentz: Fernsehen der Zukunft.
Vom Monitor auf die Leinwand
277
über diese Fixpunkte in Realzeit abgebildet. So ist es möglich, virtuelle Charaktere auch in Liveproduktionen einzusetzen, wo die berechnete Bewegungssimulation aus 3D-Modellen wegen der längeren Rechenzeit noch nicht einsetzbar ist. Durch virtuelle Charaktere ist es möglich, den vermeintlichen Geschmack der anvisierten Zuschauergruppe zu treffen: »Should the German Kyoto Date look the same as the Japanese? Is the American version going to be a little taller, a little thinner, may be have a bigger breast? These are the exiting oppertunities of working with a virtual star.« So Daddi Gudbergson von der Firma Oz Interactive, San Francisco, einer Firma, die virtuelle Welten verkauft.26
Abb. 7 – Kyoto Date aus Tokio ist eine virtuelle TV-Moderatorin. Sie altert nicht und arbeitet rund um die Uhr.
Ähnliche Varianten der digitalen Tricktechnik verwendet die virtuelle Werbung.27 Bandenwerbung bei internationalen Sportveranstaltungen wird in Realzeit ausgestanzt und durch Bandenwerbung in der jeweiligen Landessprache ersetzt. Werbung, ein wichtiger Geldgeber, 26 Vgl. Kadrey, Richard: »Importing a virtual star«, in: Wired 6 (2004), S. 60. 27 Vgl. G. Schlag/B. Wentz: Fernsehen der Zukunft.
278
Uwe Pirr
kann so bei ein und derselben Veranstaltung öfter und vor allen Dingen landesspezifisch verkauft werden. Ein wichtiger Meilenstein in Bezug auf digital generierte Effekte war 1999 Star Wars Episode 1 – The Phantom Menace.28 95% aller Frames sind ganz oder teilweise digital bearbeitet. Insgesamt sind zwölf wichtige Rollen des Films mit digitalen Charakteren besetzt. Besonders aufwendig waren auch die Podrace-Szenen. Eine hoch komplexe computergenerierte Landschaft wurde über einen adaptiven Landschaftsgenerator geschaffen. Dieser nutzt die Tatsache, daß in der Nähe der Kamera großer Detailreichtum erforderlich ist, der mit zunehmender Entfernung reduziert werden kann, ohne Kompromisse bei der Bildqualität eingehen zu müssen.
Weiterer Computereinsatz in der Filmindustrie Ein weiteres Beispiel für den Einsatz digitaler Technik im Film sind Motion-Control-Systeme. Kameras und/oder Modelle werden an Roboterarmen befestigt und computergesteuert bewegt. Der wichtigste Vorteil hierbei ist, daß die Kamerabewegung exakt wiederholt werden kann. Computergesteuerte Motion-Control-Systeme wurden bei ILM erstmals 1977 in der Produktion von Star Wars eingesetzt. Computer werden auch bei der Pre-Production eingesetzt. Für die Planung von Szenen ist 3D-Software einfacher zu handhaben und kostengünstiger als die Probe mit realen Schauspielern.29 Der Entwurf von Masken, Kostümen, Bauten und Modellen geschieht mittlerweile computergestützt mit CAD-Software. Zum Teil erfolgt auch die Herstellung computergestützt mit Laser-Cuttern. Immer wichtiger wird auch der Einsatz von Computern zur Kommunikation innerhalb des Teams vor und während der Produktion.30
28 Vgl. »Star Wars Episode 1«, in: digital production 3 (1999), S. 214-218. 29 Vgl. Apple Computer Inc. (Hrsg.): Entering a New Dimension. Macintosh 3D Graphics. Cupertino: Apple Computer, Inc. 1995 (Video); Vgl. M. Cotta Vaz/P. R. Duignan: Industrial Light & Magic. 30 Vgl. auch Apple Computer Inc. (Hrsg.): Apple Helps Batman and Robin Take Flight. Cupertino 1997 (Pressemitteilung im WWW, 23.6.1997, http://product.info.apple.com/ pr/press.releases/1997/q3/970623.pr.rel.batman.html).
Vom Monitor auf die Leinwand
279
Abb. 8 – Die Landschaft für das Podrace wurde mit einem Terrain-Editor »TED« und dem komplexen Terrain-Rendering-System erzeugt.
Dieser Einsatz unterscheidet sich aber nicht wesentlich vom Computereinsatz in anderen Arbeitsumgebungen. Die Verwendung von Chemiefilm wird in Zukunft häufiger durch einen komplett digitalen Arbeitsweg ersetzt werden, da die Laborprozesse teuer und zeitintensiv sind. Ein komplett digital hergestellter Film, inklusive Aufnahme, ist Star Wars – Episode II (2002).31 Der 31 Vgl. M. Hackl: »Gemalte Bilder. Die Geschichte des Matte Paintings.«
280
Uwe Pirr
kosten- und zeitintensive Umweg über das Kopierwerk in den Rechner entfällt so.
Digitaler Filmton Die Digitalisierung betrifft auch den Filmton. Durch den Einsatz von Digitaltechnik ist es möglich, mehr Tonkanäle auf den Filmstreifen zu bannen. Die Firmen Matsushita/Panasonic und Dolby Laboratories32 entwickelten in den achtziger Jahren zwei unterschiedliche Verfahren, um sechs Tonkanäle hörbar zu machen. Die Aufstellung der Lautsprecher ist bei beiden Verfahren dieselbe: Links-, Mitten-, Rechts- und Subbaß-Kanal hinter der Leinwand und für die um das Publikum verteilten Lautsprecher zwei Effektkanäle hinten links und hinten rechts.
Abb. 9 – Anordnung der analogen und digitalen Tonspuren beim Dolby Digital Tonverfahren.
Beim Dolby-Digitalverfahren wird der Platz zwischen den Perforationslöchern der Filmstreifen genutzt, um die digitalen Tondaten dort als winzige Schwarzweißpünktchen niederzulegen. Starke Kompressions- und Fehlerkorrekturverfahren sind notwendig, um Kratzer auf dem Filmstreifen auszugleichen. Da aber die beiden analogen DolbyStereo-Lichttonspuren mit bis zu vier Kanälen beibehalten sind, kann im Notfall automatisch umgeschaltet werden. Dieses Verfahren wurde erstmals 1991 für den Film Batmans Rückkehr eingesetzt. 1999 erschien Dolby Digital Surround EX, das erste Tonformat mit sieben Kanälen.33 Es ist rückwärtskompatibel zum Dolby Digital. Premiere war mit Star Wars Episode 1 – The Phantom Menace. Hinzu kam 32 Vgl. C. Quanz: »You ain't heard nothing yet. Kleine Entstehungsgeschichte des Filmtons«, in: Weltwunder der Kinematographie 3 (1996), S. 8-13.
Vom Monitor auf die Leinwand
281
das THX-Sound-System.34 THX bedeutet in erster Linie ein Qualitätsmerkmal für eine besondere Raum- und Wiedergabepraxis. Die audiovisuelle Präsentation wird durch die Architektur des Kinosaals, die Raumakustik und die technische Ausstattung des Kinos optimiert. »Einem digitalen Soundtrack zu lauschen ist wie das Hören einer CD. Einem THX-Soundsystem zu lauschen, ist wie das Hören einer CD über eine riesige Stereoanlage in einem überaus stillen Raum.« So wirbt eine Broschüre für THX und Digitalsound. »I wanted audiences to be completely encircled by surround, as well as hear sounds played directly behind them«, sagte Gary Rydstrom zu seinen Motiven bei der Entwicklung des neuen Soundsystems. »I wanted to develop a format that would open up new possibilities and place sounds exactly where you would hear them in the real world.« Der Matsushita-Konzern verfolgt mit seinem DTS-Verfahren ein anderes Konzept. Neben den üblichen analogen Lichttonspuren wird eine digitale Steuerspur auf den Film gebracht. Mit dieser Steuerspur wird eine CD-ROM zum Film synchronisiert. Effekte und Subbaßtöne kommen von der CD-ROM. Dieses Verfahren wurde erstmals 1993 für Jurassic Park eingesetzt. Der 1995 in München produzierte Film Schlafes Bruder vereinigt beide Verfahren auf einem Filmstreifen. Sony35 hat 1994 ein achtkanaliges digitales Tonsystem zur Serienreife entwickelt. Hier sind noch zwei zusätzliche Lautsprecher hinter der Leinwand zwischen den Mittel- und Außenboxen aufgestellt und sorgen für eine noch differenziertere Tonwahrnehmung. Dieses SDDS-Verfahren nutzt auf dem Film den Platz zwischen der Perforation und den Außenkanten. Auf beiden Seiten des Films sind identische Toninformationen zu finden, da der Verschleiß an dieser Stelle sehr hoch ist. So kann bei einer Beschädigung oder Verschmutzung auf der einen Seite die andere noch genutzt werden. Die drei Verfahren sind nicht kompatibel, lassen sich aber kombiniert auf einer Filmkopie anwenden. 1998 verfügten nur 27% der europäischen Kinos über digitalen Ton.36 Spitzenreiter war Belgien mit 44%, gefolgt von Deutschland mit 39%, entsprechend 1658 33 Vgl. D. Blitz: »Surround. Vom Kino bis zum Home-Entertainment«, in: digital production 1 (2001), S. 272-277. 34 Vgl. N. A. Rahman: »Was THX Star Wars verdankt«, in: digital production 1 (2003), S. 70-75. 35 Vgl. C. Quanz: »You ain't heard nothing yet. Kleine Entstehungsgeschichte des Filmtons« 36 Vgl. D. Blitz: »Die mehrkanalige Tonreproduktion im Filmtheater«, in: digital production 2 (1999), S. 262-269.
282
Uwe Pirr
Kinos. Anfang 2002 hat Dolby Digital weltweit ca. 34000 Installationen, das DTS-Verfahren ca. 21000 und SDDS ca. 8500 Installationen.37 Im Januar 2004 ist das Dolby Digital-System in 42275 Kinos weltweit installiert und damit weiterhin führend, Dolby Digital Surround EX ist in 9500 Kinos davon installiert.
Digitale Bewegtbilder im Consumer-Bereich Die Erfolge der Special Effects im Kino und auf Video führten zusammen mit der steigenden Hardwareleistung und fallenden Rechnerpreisen zu einem Bedarf an Software für die Bearbeitung digitaler Bewegtbilder auf PCs. Für den Comsumer-Bereich stehen mittlerweile eine ganze Reihe mächtiger und recht einfach zu benutzender Softwarepakete für die Bearbeitung digitaler Bewegtbilder zur Verfügung. Viele dieser Programme bauen auf Apples QuickTime-Architektur für die Bearbeitung zeitvarianter Daten auf. QuickTime ist eine Systemarchitektur von Apple für den Umgang mit zeitvarianten Daten wie Bewegtbildern und digitalem Ton. Ursprünglich für Apple-Computer entwickelt, hat es sich mittlerweile plattformübergreifend durchgesetzt, auch auf Windows-Rechnern ist es weit verbreitet. QuickTime besteht aus einer Systemerweiterung und einer Programmierschnittstelle. Die Systemerweiterung bietet die Voraussetzung für die Eingabe, Speicherung, Veränderung und Ausgabe zeitvarianter Daten in Form von QuickTime-Movies. Die Programmierschnittstelle ermöglicht die Entwicklung von Anwendungen, die zeitvariante Daten abspielen oder diese erzeugen und verändern. Beim Abspielen von Movies können diese positioniert, in der Größe verändert, kopiert und in Dokumente, die die Anwendung erzeugt oder verändert, eingefügt werden. Anwendungen, die Movies erzeugen, können zeitvariante Daten aufnehmen, komprimieren, sie editieren und natürlich wieder speichern. Das nichtlineare Editieren kann bedeuten, daß die Inhalte eines Movies gelöscht, kopiert, ersetzt, anders angeordnet oder die Daten direkt bearbeitet werden. Das Aufnehmen eines Movies kann 37 Vgl. Dolby Laboratories Inc.: Digital Screen Count. Worldwide, WWW-Seite, 13.2.2004 (http://www.dolby.com/movies/SMPTE.Worldwide.html).
Vom Monitor auf die Leinwand
283
von einer externen Quelle erfolgen und ermöglicht über Digitizer den Zugriff auf digitales Video oder digitalisierten Sound. Auch auf Animationen oder MIDI-Daten kann mit Hilfe von QuickTime zugegriffen werden. Sogar der Zugriff und die Steuerung externer Quellen, wie AudioCD und Videoband, ist über QuickTime möglich. Es existieren eine ganze Reihe von Anwendungen, die auf dieser Systemarchitektur aufbauen und so die Erzeugung und Bearbeitung von digitalem Film ermöglichen. Eines der ersten und bekanntesten Programme ist dabei Adobe Premiere. Der Schwerpunkt von Adobe Premiere liegt auf dem Schneiden von Clips. Clips können in diesem Zusammenhang digitalisierte Bewegtbilder, Standbilder oder Ton in verschiedenen Dateiformaten sein. Premiere ist für den Desktop-Video-Bereich ein mächtiges und recht einfach zu benutzendes Programm. Es ist durch ein Plugin-Konzept für Überblendeffekte und Filterungen erweiterbar. Die zu erzielenden Effekte und Filter kommen dabei an die im Profibereich verwendeten Effekte heran, wenn auch die erreichbare Bildgröße und Bildfrequenz durch die zunächst verwendete Hardware beschränkt bleiben mußte. Auch die Verarbeitungsgeschwindigkeit ist natürlich von der Hardware abhängig. Eine Bearbeitung beginnt typischerweise mit dem Anlegen eines Projekts und dem Import der Clips. Die verschiedenen Clips können im Schnittfenster von Premiere angeordnet werden. Hierfür stehen maximal 99 Videospuren und 99 Audiospuren sowie eine Transitionsspur für Überblendeffekte zwischen zwei Videospuren zur Verfügung. Digitale Filter können auf Clips angewendet und Überlagerungen des Films mit Titeln können eingeblendet werden. Premiere bietet die Möglichkeit, eine Vorschau anzuzeigen, bevor die angeordneten Clips zu einem Movie kompiliert und abgespielt werden.38 Premiere gab es lange Zeit für Windows- und MacOS-Systeme. Mittlerweile hat sich Adobe aus dem Macintosh-Markt zurückgezogen, da Apple mit iMovie, Final Cut Express und Final Cut Pro drei unterschiedlich komplexe Produkte für die Videobearbeitung anbietet und so den Markt vom Hobbyfilmer bis zum Profi abdeckt. Technisch beruhen diese Programme natürlich auch auf Quicktime und der Daten-
38 Vgl. Adobe Systems Inc. (Hrsg.): Adobe Premiere 4.0. Mountain View, California 1994 (Manual).
284
Uwe Pirr
übertragung von digitalen Videogeräten durch die Firewire-Schnittstelle. Final Cut Pro kam 1999 auf den Markt und zielte auf den professionellen Einsatz.39 Es war aber zunächst keine ernste Konkurrenz zu professionellen Produkten wie Avid. Dies änderte sich erst mit der Version 3, deren Vorzüge in der intuitiven Benutzungsoberfläche und der Unterstützung von DV-, Offline-RT-, SD- und HD-Formaten lag. Seit 2003 ist die Version 4 auf dem Markt.40 Hierzu gehört ein Tonspur-Editor, ein Kompressions-Utility, eine datenbankgestützte Verwaltungssoftware für analoges Filmmaterial sowie ein Editor zum Erstellen hochwertiger Texteffekte. Die Beliebtheit von Final Cut Pro beruht aber nicht nur auf den Features, sondern auch auf dem relativ günstigen Preis. Dieser ist möglich, da Standardrechner hinreichend leistungsfähig für reine Softwarelösungen zur Videobearbeitung, wie sie Final Cut Pro darstellt, geworden sind. Lösungen aus Hard- und Software – wie bei Avid-Produkten – sind nicht mehr zwingend. iMovie deckt mit seiner einfach zu bedienenden Benutzungsoberfläche den Einsteigermarkt ab. Es ist in die iLife-Produktfamilie integriert und bietet Schnittstellen zu iTunes (Audio) und iDVD (DVD-Authoring). iMovie wird mit Apple-Rechnern kostenlos mitgeliefert. Es ist auf die Verwendung von digitalem DV-Material und die FireWireSchnittstelle ausgerichtet. Gewissermaßen die Zwischenstufe bildet Final Cut Express41, das sich als Schnittwerkzeug mit minimalen Composing-Möglichkeiten und einer professionellen Oberfläche darstellt. Man kann nur mit DVMaterial arbeiten und hat keine Log-Listen für die Aufnahme. Auch Im- und Export-Funktionalitäten sind eingeschränkt. Dadurch ist Final Cut Express eher für Aufsteiger von iMovie interessant als für den professionellen Anwender. Ein wesentlicher Engpaß ist die Übertragung der analogen Videosignale in den Rechner. Durch die Verwendung digitaler Videogeräte (DV) mit schneller Firewire-Schnittstelle (IEEE 1394) entfällt dieser Flaschenhals. Die Digitalisierung der Signale erfolgt bei der Aufnahme in der Kamera. Hierbei werden die Daten auch gleich komprimiert. Die 39 Vgl. »Final Cut Pro«, in: digital production 4 (2000), S. 240-241. 40 Vgl. Filipe Pereira Martins/Anna Kobylinska: »Aufstieg. Final Cut Pro 4.0 spielt in der Profi-Liga mit«, in: digital production 5 (2003), S. 120-127. 41 Vgl. C. Harrer: »Programmvergleich. Final Cut Express vs. Final Cut Pro«, in: digital production 4 (2003), S. 114-117.
Vom Monitor auf die Leinwand
285
Daten werden jetzt digital aufgezeichnet und können auch als digitale Daten in den Rechner übertragen werden. Die Datenrate beträgt dabei ca. 3,6 MB pro Sekunde, eine Stunde DV-Material benötigt also etwa 13 GB Speicherkapazität. Viele kleinere TV-Sender verwenden digitale Videosysteme, die mit dieser Technik kompatibel sind. So kommt es auch auf Hardwareseite zu einer Angleichung zwischen dem Profi- und dem Consumer-Bereich. Mit der Verfügbarkeit dieser Technik kommt es zu einer neuen Qualität der digitalen Videobearbeitung. Leistungen, die noch vor einigen Jahren mehrere hunderttausende Euro kosteten, werden erschwinglich und bleiben nicht mehr nur finanzkräftigen TV-Sendern und Videoproduzenten vorbehalten. Videobearbeitung in hoher Qualität auf dem Schreibtisch ist keine Utopie mehr. Diese Art der Videobearbeitung hält in immer mehr Bereiche Einzug. Beispielsweise werden Produktpräsentationen im WWW recht häufig durch Videos angereichert, oder Web-TV gewinnt an Bedeutung.
Literatur »A Bug’s Life«, in: digital production 1 (1999), S. 51-53 und S. 88-89. »Star Wars Episode 1«, in: digital production 3 (1999), S. 214-218. »Final Cut Pro«, in: digital production 4 (2000), S. 240-241. »Jurassic Park III«, in: digital production 3 (2001), S. 179-185. »Die Monster AG«, in: digital production 1 (2002), S. 26-38. »Ice Age. Helden unter Null«, in: digital production 2 (2002), S. 22-31. Adobe Systems Inc. (Hrsg.): Adobe Premiere 4.0. Mountain View, California 1994 (Manual). Apple Computer Inc. (Hrsg.): Apple Helps Batman and Robin Take Flight. Cupertino 1997 (Pressemitteilung im WWW, 23.6.1997, http://product.info.apple.com/pr/press.releases/1997/q3/970623.pr.rel.batman.html). Apple Computer Inc. (Hrsg.): Entering a New Dimension. Macintosh 3D Graphics. Cupertino: Apple Computer, Inc. 1995 (Video). Badler, Norman/Metaxas, Dimitri/Webber, Bonnie/Steedman, Mark: The Center for Human Modeling and Simulation. Philadelphia: University of Pennsilvania 1996 (Postscript-Datei im WWW, 20.4.1997, http:// 130.91.6.8/~hms/badler/pap/pap.html). Blitz, Dominic: »Die mehrkanalige Tonreproduktion im Filmtheater«, in: digital production 2 (1999), S. 262-269.
286
Uwe Pirr
Blitz, Dominic: »Surround. Vom Kino bis zum Home-Entertainment«, in: digital production 1 (2001), S. 272-277. Dolby Laboratories Inc.: Digital Screen Count. Worldwide, WWW-Seite, 13.2.2004 (http://www.dolby.com/movies/SMPTE.Worldwide.html). Hackl, M.: »Gemalte Bilder. Die Geschichte des Matte Paintings«, in: digital production 1 (2004), S. 120-129. Happel, A.: »Krieg im Kino. Digitaltechnik als neue Dimension?«, in: digital production 2 (2003), S. 192-197. Harrer, C.: »Programmvergleich. Final Cut Express vs. Final Cut Pro«, in: digital production 4 (2003), S. 114-117. Kadrey, Richard: »Importing a virtual star«, in: Wired 6 (2004), S. 60. Katholisches Institut für Medieninformation und die Katholische Filmkommission für Deutschland (Hrsg.): Lexikon des internationalen Films. Reinbek: Rowohlt 1995. Kelly, Kevin/Parisi, Paula: »Beyond Star Wars. What’s next for George Lucas. The Wired Interview«, in: Wired Febuary (1997). Kotte, H.-H.: »Stars aus der Steckdose. Virtuelle TV-Moderatoren sind Vorboten einer neuen Unterhaltungswelt«, in: Berliner Zeitung, 8./9.2.1997, S. 8. Martins, Filipe Pereira/Kobylinska, Anna: »Aufstieg. Final Cut Pro 4.0 spielt in der Profi-Liga mit«, in: digital production 5 (2003), S. 120-127. Monaco, James: Film verstehen. Reinbek: Rowohlt Taschenbuch 1995. Parisi, Paula: »F/XTRAVAGANZAS«, in: Wired Juni (1997), S. 124-128. Quanz, C.: »You ain't heard nothing yet. Kleine Entstehungsgeschichte des Filmtons«, in: Weltwunder der Kinematographie 3 (1996), S. 8-13. Rahman, N. A.: »Was THX Star Wars verdankt«, in: digital production 1 (2003), S. 70-75. Schlag, G./Wentz, B.: Fernsehen der Zukunft. Berlin: SFB, 1996 (Sendung im Programm von B1 am 3.2.1997, 21.15 bis 22.00 Uhr). Vaz, Mark Cotta/Duignan, Patricia Rose: Industrial Light & Magic. Into the Digital Realm. New York: Del Rey 1996. Wetzel, Allan T./Schell, Michael R.: Consumer Application of the IEEE 1394 Serial Bus and a 1394/DV Video Editing System. Dallas: Texas Instruments Inc. 1996, PDF-Datei im WWW, 2.5.1997 (http://www.ti.com/sc/ data/msp/1394/icce96w.pdf).
Ute Holl
Mazzen Fazzen Augenjazzen
Lars von Trier stellt sich in eine schöne Tradition, wenn er ausgerechnet im Kontext eines Films über sinnlich inspirierte weibliche Metaphysik beginnt, die Dramaturgie am Filmmaterial selbst zu exkutieren. Die folgende Skizze verfolgt die Arbeit des technisch Unbewußten einer männlichen Künstlerschaft, wie sie sich in der Materialität der Medien realisiert.
1. Geschichten des Auges handeln vom Rieseln des Lichts, vom Feuer am Grunde einer Schale, von Gefräßigkeiten, seltsamen Attraktionen, von Heliotropismen des Leibes und dem Amorphen jeglichen Organs.
2. Geschichten des Blicks hingegen erzählen von Strahlen, von Optik, vom Anderen, das das Selbst exzentriert. Der Blick setzt ins Verhältnis. (Der Blick setzt mit dem Begehren das große Spiel der Liebe und des Hasses, des ›hainamour‹ ins Bild, das in Konventionen und Agencements seinen Halt verlangt.)
3. Gefühle sind mit Filmtechniken kulturell solidarisch, und verstößt man bewußt und entschieden gegen die Konventionen der Kamera- und
288
Ute Holl
Montagearbeit, lassen sich Gefühle mischen. Godard, der stets versucht, in diesem Sinne die Evidenz des filmischen Raumes zu sprengen und derart gemischte Gefühle zu synthetisieren, stellte nach Une Femme est une Femme fest: »Des comédies sont jamais filmées en gros plan, elles sont toujours filmées en plan général. Et alors lá, quand elles sont filmées en gros plan, elles devenaient pathétiques. Alors qu’il exprimait des sentiments dans une situation comédique, c’est le beau dans le film. Mais pour ça le film n’est pas marché.«1
Godards Kino läßt sich als eines beschreiben, das den Blick, und zwar den eigenen, vom Anderen her gebrochen sieht, wobei er da eine seltsame Kooperation zwischen dem Apparat und der Wunschproduktion sieht: »Das Kino ersetzt unseren Blick durch eine Welt im Einklang mit unseren Wünschen«, heißt es gleich am Anfang seiner »Geschichte des Kinos«, und er beginnt, den Abgrund zwischen Wahrnehmung und Erinnerung im Kino in Anlehnung an Freuds Traumdeutung auszuloten. Kino ist, das zeigt uns Godard in seiner langen, auf Video bearbeiteten Geschichte des Kinos, ein Hin und Her zwischen Übertragungsund Speichermedium, in dem wir leicht in Trance geraten können. Anders als Regentropfen, Wasserpfützen oder Meeresspiegel, von denen sich der menschliche Blick von jeher täuschen und ins Imaginäre befördern ließ, manipulieren optische Instrumente die Wirklichkeit, wie wir sie wahr haben können, gezielt und berechenbar nach den Gesetzen der Reflexion und Refraktion. Seitdem verkennen und verlieren wir uns nicht mehr auf den Oberflächen fließender oder stehender Gewässer, sondern in einer Bilderwelt, die unseren Blick in unmenschliche Brennweiten und Perspektiven mitreißt. Die Beziehungen zwischen diesen Punkten sind dank Speicherung und dann Übertragung auf Video, das die Filme und damit Erinnerungen adressierbar macht, zu rekonstruieren. Vorstellungen werden, ganz wie Freud es für die 1 Godard über Une Femme est une Femme in Janine Bazin und André S. Labarthe (1995) La nouvelle vague par elle-même. La Sept/Arte (1995). »Komödien werden niemals in Großaufnahme gefilmt. Sie werden immer in Totalen aufgenommen. Und wenn man sie dann in Großaufnahmen filmt, werden sie pathetisch. Daß er Gefühle in einer komödienhaften Situation ausdrückte, das war das Schöne an dem Film. Aber genau deshalb ist er auch nicht gut gelaufen.« (meine Übersetzung, U. H.)
Mazzen Fazzen Augenjazzen
289
traumhafte Regression beschrieben hat, in sinnliche Bilder rückverwandelt, allerdings als spezifische Erinnerungen nur insofern, als dem spezifische Arbeit an den Parametern des technischen Apparats Kino oder des technischen Speicher- und Weiterbearbeitungsapparats Video vorausging. Ob Une Femme est une Femme nun gut gelaufen ist oder nicht, die Gefühle des Films liegen als Geschichte vor.
4. Ein Film, der dagegen richtig gut gelaufen ist, weil er Zuschauer und Juroren vieler Festivals rührte, ist Lars von Triers Breaking the Waves. Von Trier hat in diesem Film nicht nur Konventionen der Optik, der Einstellungen, der Lichtverhältnisse und der Montage durchbrochen, sondern versucht, visuelle Muster am Material, am Medium selbst zu brechen. Die Wellen, die es zu brechen gilt, sind nicht nur die prä-ozeanischen der Nordsee und die post-emotionalen der getrennten Liebenden, sondern die Lichtwellen selbst, die das Sehen im Kino bilden. Wavebreaking adressiert Empfindlichkeit. Die calvinistischen Bewohner der schottischen Insel, auf der die Protagonistin Bess lebt, sind unempfindlich. Verletzungen und Kränkungen nehmen sie mit gleichbleibend versteinerten Minen hin. Bess dagegen ist empfindlich, Kummer, Schrecken, Angst greifen sofort ihre Nerven an. Aber nicht nur die Empfindlichkeit der Hauptdarstellerin adressiert der Film. Wie Godard interveniert auch Lars von Trier auf der Ebene der kinematographischen Apparate, die Sichtbarkeit erst geben. Doch während Jean-Luc Godards Interventionen immer noch im signifizierbaren Bereich jeder Filmanalyse liegen, bearbeitet Lars von Trier in Breaking the Waves die Oberfläche des Bildes, das Flimmern, das Rauschen der Bilder selbst.2 Es ist insbesondere der Transfer der Bilder von einem Medium aufs andere, der die Wirkung von Breaking the Waves produziert, das Mazzen und Fazzen, das das Bild vom Flimmern zum Flirren bringt. Lars von Trier erklärt die Postproduktionsprozesse des Films zum Moment, an dem er dessen Romantizismus zu einer Realität hin bricht,
2 Und das ist nicht mehr signifikant oder signifizierbar in der klassischen Filmanalyse. Vgl. z. B. Knut Hickethier, Film- und Fernsehanalyse, Stuttgart/Weimar, 1993.
290
Ute Holl
wirkungsästhetisch. Anders seien die Gefühle des Melodrams nicht zu ertragen.3 Deshalb schickte er die Bilder durch verschiedenen Transformationsprozesse, läßt die Lichtwellen brechen. Läßt die Lichtwellen sich brechen und beobachtet die Turbulenzen im Bild.
5. Beim MAZzen (Magnetische BildAufZeichnung) wird das durch die Optik gebrochene, durch chemische Prozesse gespeicherte und reprojizierte Licht der 24 oder 25 Bilder pro Sekunde, die durch eine Dunkelphase getrennt sind, zunächst in elektronische Signale umgewandelt und diese dann als magnetische Felder gespeichert, wobei die Bildinformation vor der Aufzeichnung in ein frequenzmoduliertes Signal umgewandelt werden muß. Aus dem gerade eben nicht wahrnehmbaren Flackern 24 mal die Sekunde wird ein wandernder punktfömiger Strahl, als der das Videosignal die 625 Zeilen des PAL-Systems in jeweils 50 Halbbildern oder 2 mal 312,5 Zeilen pro Sekunde durchläuft, das in den Rotoren der Hubschrauber von Breaking the Waves in der Tradition seit spätestens Coppola als metonymische Brücke ins Herz menschlicher Phantasmagorie, das heißt ins Imaginäre der Kinowahrnehmung, gepumpt wird. Die Effekte ahnen wir noch im Material, das auf der Leinwand erscheint oder das sich, noch ein weiteres Mal elektromagnetisch prozessiert, auf unseren Mattscheiben zeigt: 1. die Reduktion der Lichtmenge pro Bild – im Laufe der Übersetzung in das Luminanz- und Chrominanzsignal – produziert schwarze Streifen an kontrastreichen Rändern, produziert Lichtinseln und Farbflecken, 2. die Reduktion des Kontrastumfanges generiert ein teilweises Überstrahlen, teilweises Versinken des Bildes ins Schwarze, dem durch die Anhebung des Signals gegengesteuert werden kann, so daß sich ein neues Rauschen über die Bilder legt, das nichts mit dem filmischen zu tun hat,
3 Vgl. Achim Forst, Breaking the dreams: das Kino des Lars von Trier. Marburg: Schüren, 1998, S. 141.
Mazzen Fazzen Augenjazzen
291
3. neue Muster, neue Moirés, Interferenzen, die ein neues Flimmern ins Bild bringen, entstehen durch die Übertragung auf das Videosignal. Rauschen und Interferenzen können sich aber ebensogut beim zweiten Transferprozeß einstellen, wenn nämlich das Videomaterial wieder auf 35-mm-Film überspielt, gefazt wird und die Bildpunkte zuvor interpoliert werden, um eine höhere Dichte auf das Zelluloid zu belichten, um neue Licht- und Farbflächen zu errechnen. Die verschiedenen Zwischenstadien des Prozesses können außerdem digitalisiert und zusätzlich mit elektronischen Bildbearbeitungsverfahren gestört werden. Eine Art künstliche Entropie am Bild. Im Interview mit Stig Björkman erklärt Lars von Trier: »[Wir haben] einen Stil gewählt und ihn wie einen Filter über die Handlung gelegt, als würde man beim Pay-TV ein Signal für das Fernsehen dekodieren müssen. Hier kodieren wir ein Signal für den Film, das die Zuschauer nachher dekodieren müssen.« Diese Feststellung gilt aber eben nur metaphorisch. Lars von Trier, Künstler, Katholik, braucht nicht zu wissen, was er tut. Technisch nämlich können diese Effekte anders als beim Pay-TV nicht mehr dekodiert werden. Im Mazzen und Fazzen rechnen und rendern die Apparate Bilder nach ihrem Bild. Wir können nur noch die Effekte der Empfindlichkeit des Materials als Effekte auf unsere eigene Empfindlichkeit konstatieren. Auf unsere Augen, auf unsere Nerven, unter Umgehung des Blicks. Unbemerkt sind wir dem Anderen unterworfen, was Lacan verschmitzt als Genießen begriffen wissen wollte. Das Flimmern und Rauschens irisiert unser Auge, kurz bevor sich der Blick als Bild einschaltet und die Gestalt uns trifft. Wir sehen bzw. spüren Spuren, aber wir wissen nicht, wer oder was sie hinterläßt: um lineare Formen bilden sich harte Konturen, die Textur der Haut wird irreal, die Bartstoppeln der Männer von der Bohrinsel sehen aus wie schwarze Krümel im Gesicht, in hellen Szenen sehen Hautflächen aus wie die von Porzellanpuppen und in den berühmten dunklen Szenen in der Kirche, in der Bess mit ihrem Gott spricht, wird mit der Luminanz auch das Rauschen verstärkt, so daß der ganze Raum anfängt zu flimmern. Nach dem Rücktransfer aufs Filmmaterial wird aus den überstrahlten und chromatisch zusammengeschobenen Bildern ein neues Leuchten, das sich durch technische Transformation oder Transsubstantiation konstituiert hat. Unschärfen entstehen: im mulmigen Rot des Badezimmers, in dem Bess sich entjungfern läßt, in schlam-
292
Ute Holl
migen Braunflächen der Körper der Männer auf der Bohrinsel, kurz bevor Jan vom Bohrer getroffen wird. Weiße Flächen leuchten hinter den Fenstern auf und Flackern im Brautkleid, a whiter shade of pale, wie es zur Kapitelüberschrift 4 gespielt wird, kurz bevor die ganze Gemeinde mit weißen Gesichtern in der Kirche wie versteinert, vermarmort einer letzten Strafpredigt des Pastors lauscht. Am eindrücklichsten sind die Interferenzen und Moirés an Bess’ Mütze, die wie ein Flimmern um ihren Kopf erscheint, ein Flimmern, das später, wenn sie noch Schal und Fischgrätmantel trägt, die ganze Person umreißt. Das Filmmaterial läßt es eher strahlen, zurück auf Video bzw. Fernsehformat fängt es an zu flirren. Bess als Madonna im Flimmerkranz, im verrauschten Raum, aus dem sich Gott anwesend meldet. Es ist dieser Teil des Films, der den Augenjazz macht, eine Inszenierung des Sounds der Bilder, als Einsatz ihres aus dem Rauschen gewonnenen Geräuschs. Bis hierher korrespondieren auch die Turbulenzen der Filmerzählung mit den im Bild provozierten Turbulenzen der Lichtwellen durch ihre Wandlung in elektro-magnetische Signale. Wie der Auftritt einer Rockgruppe ist der Einbruch der Männer von der Bohrinsel in die calvinistische Gemeinde ins Bild gesetzt. Ein ekstatischer Prozeß, in dem Bess, deren notorische Empfindlichkeit in der Gemeinde pathologisiert worden war, in einer Art sexueller Erwachung und erotischer Erweckung gezeigt wird, ekstatisch, hingerissen, wachgeküßt … Der Film erhält eine Gegenbewegung in dem Maße, wie das Flimmern und Rauschen nicht mehr Effekt dezentrierter Wahrnehmung, sondern als Raum Gottes recodiert wird, in dem Maße, wie der heitere Sex vom Anfang im Namen des Herrn ergehen muß, in dem Maße, wie sich kleinliche theologische Tauschverhältnisse – Schuld, Sühne und Opfer – an die Stelle des Wunsches setzen. Video kann sich zwar zum Mazzen und Jazzen benutzen lassen, ist aber eben nicht einfach Wunschmaschine, sondern auch Apparat zur klaren Ordnung und Adressierbarkeit von Bildern. Zu ihrer Feststellbarkeit. An dieser Stelle erinnert Lars von Triers Gebrauch der Geräte an den reformatorischen Einsatz der Musik. Das Verhältnis zwischen Maschinen-Bauplan und Gestimmtheit, zwischen »Numerus und Affectus« – wie ein schönes Buch des Musikhistorikers Hermann Zenck heißt –, bestimmt, wie göttliche Ordnung nach Maß, Zahl und Gewicht beispielsweise im Barock die Musik im Symbolischen aber
Mazzen Fazzen Augenjazzen
293
auch im Apparativen implementiert hat, um dann erst recht zu ekstatischen Effekten zu führen. Aber wenn der Affekt zu sprechen anfängt, hatte er auch damals nicht viele Optionen. Andreas Werckmeister, der 1691 das gleichmäßig chromatisch durchgegliederte Wohltemperierte Klavier konstruierte, schrieb: »Das Gehör ist nur gleich als ein ›Ja, Herr‹ bewilligt und belustigt sich an dem, was durch ein gut Fundament geschlossen und erbauet ist.«4 Implementierter Gehorsam. In die Wunschmaschine implementierter Gehorsam. Bach unterschrieb seine Werke deshalb eben noch einmal mit »sdg«, soli deo gloria, und integrierte diese Buchstabenfolge in die Kompositionen, eine im Sound nicht mehr hörbare Ordnung, eine verborgene Relation, aber eine anwesende. Aus dem Flimmern des Raumes, in dem sich Gott als calvinistischer entpuppt, als einer, der seine kleinliche Befriedigung aus Buchstabentreue zieht, fragt er, Gott, Bess, als sie sich den Geliebten Jan von der Bohrinsel sofort zurückwünscht, so hinterhältig wie präzise: »Weißt Du genau, daß das wirklich Dein Wunsch ist?« Damit hat dieser Gott zumindest in Godards auf Video erinnerter Kinogeschichte seinen Anspruch auf den einen Ort im Raum des Cinéma verspielt. Im Traum wie im Kino nämlich gilt: Entweder man wünscht, oder man weiß ganz genau. An dieser Stelle will ich noch einen Film erwähnen, den Sie alle gut kennen, Hitchcocks Birds, der auch den Blick mit den Augen hintergeht, der ebenfalls direkt auf die Nerven wirkt, bevor ein Blick uns Vögel sehen läßt. Auch bei Hitchcock gibt es diese Bilder, die Lichtund Bewegungseffekte des Filmischen sind, das vorbeihuschende Weiß auf der Leinwand, das Zucken und Flirren, das noch nichts mit einer Gestalt des Vogels zu tun hat. Ganz am Ende des Films, als Tippie Hedren/Melanie Daniels zum letzten Mal in die Kammer geht, in der die Vögel eingebrochen sind wie unberechenbare Elemente in eine zwangsweise entsinnlichte Umgebung, wird das Weiß auf der Leinwand zu einem flappenden Flackernden, als sei ein Experiment Étienne-Jules Mareys schief gelaufen und als hätten sich die Vögel, deren Flug Marey eigentlich festhalten und vermessen wollte, ins Phantom des Ursprungs vom Kino selbst verwandelt. Auch Hitchcocks Film übrigens handelt 4 Werckmeister zitiert nach Harry Hahn, Symbol und Glaube im I. Teil des Wohltemperierten Klaviers von Joh. Seb. Bach. Beitrag zu einer Bedeutungskunde. Wiesbaden: Breitkopf & Haertel, 1973. S 7.
294
Ute Holl
von einer jungen Frau, die ihre sexuellen Interessen mit Nachdruck und gegen calvinistische Konventionen verteidigt und die damit, wie allerseits unterstellt wird, den Raum von Bodega Bay (wiederum ein kleines Nest am Meer) so kontaminiert, daß die Natur flirrende Rache nimmt. Die Rache ist mein, kann der Regisseur sagen, wenn er die Leinwand bearbeitet. Die Figur Melanie Daniels muß ihre Lust auf Männer zwar nicht mit dem leiblichen Leben bezahlen, jedoch mit einem hysterischen abwehrenden Zucken der Hand, als könne sie das Symptom ihres aus den Bahnen gelaufenen Begehrens nicht mehr anhalten. Sie folgt ihrer Empfindlichkeit, wie unsere Wahrnehmung der Empfindlichkeit des Filmmaterials folgt, das aus hysterisch gewendetem Vogelflug ein Augenflackern macht. Übrigens ist auch die Protagonistin in Une femme est une femme, ich erinnere Sie, eine, die in ihrer sexuellen Unternehmungslust und Forderungen »ich will ein Kind!« »ich will tanzen!« »ich will … !!!« eine Zumutung für ihre beiden Männer wird. Allerdings ist ihre Stripperexistenz weit von dem Klischee entfernt, in das Lars von Trier seine Figur Bess O’Neill hineinprügelt. Dennoch ist es interessant zu bemerken, daß auch Godard gerade hier mit la pellicula, dem Häutchen des Films selbst experimentiert und zum ersten Mal Farbfilm benutzt. Anna Karina/Angela wird in allen Farben beleuchtet, erscheint rot blau lila und ihre ekstatischsten Momente verdanken sich brav dem Materialeffekt. Von JLG, diesem Künstler-Programm, das schweizerfranzösisch dahingehaspelt so etwas wie »Ich-Sie-Ich« oder »Ich-Sie-Gehabt« heißen könnte, zurück zu LvT, der wie ein Turnverein heißt. Dogma 95. LvT’s wildem und ungesteuertem Abhängen in der kombinatorischen Matrix von MAZ und FAZ entsprechen in den Tableaus von Pausenbildern, die er einfügt, äußerst kontrollierte Bildzubereitungen, deren Ausführung er dem Maler Per Kirkeby überließ. Sie erinnern sich, Kirkeby und seine Mitarbeiter generierten in aufwendiger Pixel-für-Pixel-Bearbeitung aus gefilmten Bildern von Hügeln, Wiesen, Wolken und Sonnen künstliche Landschaften im Computer, deren medialer Status, das heißt, deren Realitätsmischcharakter nicht sofort zu begreifen ist, deren Farben an vergangene Zeiten erinnern, deren Räume an vergangene Fluchten, und so mäandern diejenigen, die es zeitlich trifft, in diesen Pausenbildern verblüfft durch eigene Erinnerungsbahnen in die siebziger Jahre – die dank der sinusgereinigten Aufnahmen alter Popsongs natürlich pixelig rekonstruierte
Mazzen Fazzen Augenjazzen
295
Zustände der siebziger Jahre sind und gerade nicht das, was JLG als Erinnerung und genauer mit Freud als Sinnlich-Werden der Vorstellung als Wahrnehmung bezeichnete. Godards high fidelity an den medialen Transfer protokolliert immer auch, wie abhängig wir von der Übertragungsform sind, wenn es um Erinnerungen an und Aktualisierung von Zuständen geht. Von Trier hingegen verzichtet auf Tonaufnahmen von zerkratzten Deep-PurplePlatten, gar nicht zu reden von Bands, die mit komplexeren Mischern und Synthezisern anfingen, Sound durch Rückkopplung zu produzieren. Und er verzichtet auch auf die richtigen Filmaufnahmen von Wellenbrechern mit ihren beruhigenden Turbulenzen. Im letzten Bild des Films, wenn der göttliche Raum sich mit dem Filmischen vereinigt, wenn die Glocken oben am Himmel bimmeln, aber wir, noch höher, von oben herab aus göttlicher Perpektive auf die Bohrinsel schauen, wo das Wunder als Himmelfahrt von Bess bejubelt wird, da vereinigt sich auch computergerechneter Raum mit dem Gemazten und Gefazten zu einer dreieinigen Realität. In diesem Moment erkennen wir jedoch auch, daß dieses Bild nur ein Zitat ist, vom Bild mitten in Birds, in dem Hitchcock eine Standkamera am Himmel anbrachte, von dem aus die Vögel kreisend über Bodega Bay sichtbar werden, während unten das Leben weiter dem Abgrund entgegengeht. Am Ende, als Bess sich geopfert hat, als Lars von Trier Bess O'Neill geopfert hat, als LvT sich seinen Segen von den Apparaten her wieder auf das eigene Künstlerkonto gebucht hat, da schreibt er sich wieder in Filmgeschichte ein. Die Rache ist mein, Ich habe es getan, aber es hat eine eindeutige Tradition: A. H. fecit. Aus s.d.g., »soli deo gloria«, wird s.c.g., »soli cinemam gloria«. JLG kommentierte solches stets mit s.q.p: »sauve qui peut«. (Dieser Text wurde auf der Hyperkult-Tagung 2002 als Vortrag gehalten, der Charakter der [An-]Rede wird nicht verborgen. )
296
Ute Holl
Literatur
Bazin, Janine/Labarthe, André S.: La nouvelle vague par elle-même, 1995. (Film) Forst, Achim: Breaking the dreams. Das Kino des Lars von Trier. Marburg: Schüren 1998. Hahn, Harry: Symbol und Glaube im I. Teil des Wohltemperierten Klaviers von Joh. Seb. Bach. Beitrag zu einer Bedeutungskunde. Wiesbaden: Breitkopf & Haertel 1973. Hickethier, Knut: Film- und Fernsehanalyse, Stuttgart/Weimar: Metzler 1993.
Hans Dieter Huber
Das Cut-Up als Schnittstelle der Intermedialität
I Zwischen Kunst und Kultur besteht ein besonderes Verhältnis. Nicht jeder kulturelle Gegenstand oder jedes Kulturereignis ist auch ein Kunstgegenstand oder ein Ereignis der Kunstwelt. Umgekehrt ist aber jedes Kunstwerk und jedes Kunst-Ereignis automatisch Teil des kulturellen Systems unserer Gesellschaft. Zwischen dem umfassenden Gesamtsystem unserer Kultur und dem Teilsystem der Kunst bestehen zahlreiche Interaktionsmöglichkeiten. So fließen aus dem weiten Bereich nicht-künstlerischer Bildproduktionen immer wieder bedeutende Anregungen in die Kunstproduktion ein. Umgekehrt profitieren aber auch weite Bereiche der kulturellen Warenproduktion von den Neuerungen des Kunstsystems. Das konnte man besonders gut zu Beginn der achtziger Jahre beobachten, als die »Neuen Wilden« zu einem parallelen Innovationsschub im Graphik-, Textil- und Produkt-Design führten. Es ist hier nicht der Ort, dieses Phänomen von Intermedialität, wie man diese Austauschleistungen zwischen Kultur und Kunst auch bezeichnet, historisch auszuleuchten. Vielmehr sollen einige spezifische Formen einer solchen Intermedialität näher untersucht werden, um ein neues Verständnis für das Funktionieren und den gegenseitigen Austausch von Kunst und Kultur in unserer heutigen Gesellschaft zu entwickeln. Die bekannteste Form, in der Medien als Medium verwendet werden, ist die Collage. Sie wurde in der bildenden Kunst vor allem im synthetischen Kubismus bei Picasso sowie im Dadaismus bei Kurt Schwitters, Hanna Höch oder bei Max Ernst entwickelt. In der Literatur lassen sich Formen bis nach England ins 18. Jahrhundert zurückverfol-
298
Hans Dieter Huber
gen, in den sog. cross column readings des Engländers Caleb Whiteford (1734-1810) aus der Zeit von König Georg III.
II Eine der wichtigsten literarischen Methoden, das kulturelle Archiv der Sprache intermedial zu nutzen, ist das sogenannte Cut-Up. Diese literarische Technik wurde Ende der 50er Jahre in Paris von dem amerikanischen Maler Brion Gysin und seinem Freund, dem Schriftsteller William Burroughs, entwickelt. Im Jahre 1958 zog Burroughs, nachdem er sich mit Hilfe einer Apomorphin-Kur von seiner Drogenabhängigkeit befreit hatte, von Tanger nach Paris und ließ sich im legendären Beat Hotel in der Rue Git-le-Coeur 9 nieder. Er brachte einen Koffer voller Manuskripte mit, aus denen nicht nur der Roman Naked Lunch zusammengestellt wurde. Auch The Ticket That Exploded, The Soft Machine und Nova Express wurden in den nächsten Jahren aus einem Konvolut von etwa 1000 Einzelseiten unter der Mithilfe von Jack Kerouac kompiliert. Das Cut-Up ist im wesentlichen eine Anwendung der Montagetechnik auf den Prozeß des Schreibens. Bereits vorhandene Textangebote werden nach bestimmten Regeln zerschnitten oder gefaltet und die dabei entstehenden Textkombinationen neu erfaßt. Burroughs hat sich zur Methode des Cut-Ups in einem Vortrag vor dem Schriftstellerkongress in Edinburgh 1962 geäußert:
Abb. 1 – William Burroughs arbeitet an einem Fold-In (aus Eric Sarner: The Beat Generation II, Frankreich 1993)
Das Cut-Up als Schnittstelle der Intermedialität
299
»Textseiten werden zum Beispiel in 4 Teile zerschnitten, die Teile werden umgestellt, es ergeben sich neue Anordnungen von Wort & Bild Komplexen – Beim Schreiben meiner beiden letzten Bücher […] habe ich eine Variation der Cut-up-Methode verwendet, die ich ›Fold-in‹-Methode nenne: – Eine Textseite […] wird in der Mitte der Länge nach gefaltet und auf eine andere Textseite gelegt – Die beiden Texthälften werden ineinander-›gefaltet‹, d. h. der neue Text entsteht indem man halb über die eine Texthälfte und halb über die andere liest. Die Fold-in-Methode bereichert die Textherstellung um die Möglichkeit der Rückblende, wie sie im Film benutzt wird und gestattet es dem Schriftsteller, sich auf seiner ›Zeitspur‹ vor & zurück zu bewegen – Etwa so: ich nehme Seite 1 und falte sie in Seite 100; den daraus resultierenden Text füge ich als Seite 10 ein – Beim Lesen von Seite 10 blendet der Leser also zeitlich vor zur Seite 100 und zurück zur Seite 1 – Das Deja-vu-Phänomen läßt sich so nach Wunsch und Maß erzeugen.«1
In einem Interview mit Daniel Odier aus dem Jahre 1969, das unter dem Titel The Job veröffentlicht wurde, findet sich ein mögliches Motiv für diese radikale Dekonstruktion von Sprache: »Der Schriftsteller weiß nicht, was Wörter sind. […] Die Fähigkeit des Malers, sein Medium zu berühren und in die Hand zu nehmen, führte vor sechzig Jahren zu Montage-Techniken. Es ist zu hoffen, daß die Ausweitung der Cut-up-Techniken zu präziseren Wortexperimenten führt […] . Diese Techniken können dem Schriftsteller zeigen, was Wörter sind und ihm eine greifbare Kommunikation mit seinem Medium vermitteln. Dies wiederum könnte zu einer präzisen Wissenschaft der Wörter führen und aufzeigen, wie bestimmte Wortkombinationen bestimmte Auswirkungen auf das menschliche Nervensystem haben.«2 Es geht im Cut-Up um die Frage des Kommunizierens des Schriftstellers mit seinem eigenen Medium und um das physische Greifbarmachen der Materialität der Sprache. Im Cut-Up bedient sich der Schriftsteller der schon existierenden Sprache als eines Archivs, das er in seine Einzelteile zerlegt, um sie als Grundelemente zur Konstruktion neuer Hyper-Texte zu benutzen. Die Sprache selbst ist das Rohmaterial, an 1 William Burroughs: »Die Zukunft des Romans«, in: Carl Weissner (Hrsg.): Cut Up. Der sezierte Bildschirm der Worte, Darmstadt: Joseph Melzer Verlag 1969, S. 20. 2 William Burroughs: Der Job. Gespräche mit Daniel Odier, Frankfurt/M., Berlin 1986, S. 11 f.
300
Hans Dieter Huber
dem der Dichter ansetzt und aus dem er seine Formen konstruiert. Mit der Cut-Up-Methode wird das literarische Schreiben ein selbstreferentieller Prozeß. Texte entstehen nur noch aus Texten und aus nichts anderem mehr. Aber der Dichter kann aus der Sprache nicht ausbrechen. Es gibt keinen Ausweg aus dem Gefängnis der Worte, sondern nur den langsamen Umbau. Wie der Philosoph Josef Mitterer gezeigt hat, kann das Zeichensystem der Sprache nur auf andere Zeichen im selben System referieren.3 Aber niemals kann sich Literatur auf eine unabhängig von jeglicher Beschreibung beschreibbare Welt oder Wirklichkeit beziehen. Statt von Realität spricht Burroughs daher konsequenterweise lieber vom Reality studio, in dem der Film der Wirklichkeit in endlosen Schleifen heruntergespult wird. Die Möglichkeit des Schriftstellers besteht darin, in dieses Reality studio einzudringen, am Drehbuch herumzuschnipseln oder dem Film einen neuen Schnitt zu verpassen.
III Zahlreiche Beat-Autoren wie William S. Burroughs, Allen Ginsburg oder Rolf-Dieter Brinkmann arbeiteten daher auch mit dem Tonband, der Fotografie oder dem Film. Sie experimentierten mit dem Ineinanderschneiden verschiedener Soundtracks und der Beschleunigung des Schnittes bis an die Grenzen der Unterscheidungsfähigkeit des kognitiven Systems. Dies bedeutete im Prinzip eine fundamentale Kritik an der Sprache als dem wichtigsten gesellschaftlichen Medium von Wirklichkeitskonstruktion. Sprache war für sie ein Gefängnis der Worte, ein Kontrollinstrument der Gesellschaft, das zerstört werden mußte, um den Virus aus dem Wirtsorganismus zu befreien. Die Kultur war dabei das Kontrollprogramm, das die Unterdrückung von Lust und Freiheit des Menschen im Namen von Sitte und Anstand bewerkstelligte. So hatte Sigmund Freud ihre Funktion in seinem berühmten Aufsatz »Über das Unbehagen in der Kultur« beschrieben. Die Sprache ist aufgrund ihrer massiven kulturellen Kontrollfunktion als ein Medium literarischer Produktion nicht mehr geeignet. Sie ist letztendlich durch die Machtverhältnisse korrumpiert, da sie der Disziplinierung des gesell3 Josef Mitterer: Jenseits der Philosophie. Wider das dualistische Erkenntnisprinzip. Wien: Passagen Verlag 1992.
Das Cut-Up als Schnittstelle der Intermedialität
301
schaftlichen Gesamtkörpers dient, wie Helene Cixous und Julia Kristeva anhand des Umgangs mit dem Weiblichen in Sprache und Psychoanalyse nachgewiesen haben. Die neuen Medien wie Tonband, Film, Video oder Computer stellten dagegen in den 60er Jahren eine noch unbelastetere Möglichkeit dar, die Befreiung des Individuums aus den Fesseln der Gesellschaft in Angriff zu nehmen. Sie waren noch nicht durch kulturelle Normen und Traditionen belastet, wie die Sprache als Hauptmedium der Disziplinierung und Unterdrückung des Subjekts. Schlagwörter wie ›Film als Waffe‹ oder der Begriff der Gegenkultur bildeten wichtige Themen des kulturellen Diskurses der 60er Jahre und 70er Jahre.
IV Um die Geschwindigkeit der Schnitte noch weiter zu beschleunigen und dabei neue Bewußtseinserfahrungen zu machen, experimentierten der englische Mathematiker Ian Sommerville und der amerikanische Maler Brion Gysin bereits Ende der 50er Jahre mit einer sogenannten Flickermaschine. Ein von Gysin auf der Innenseite mit farbigen Kalligraphien bemalter Pappzylinder wurde mit mehreren senkrechten Schlitzen versehen, deren Abstände sich von oben nach unten verringerten. Innen hing auf halber Höhe eine Glühbirne. Das Ganze wurde auf einen Plattenteller gesetzt und mit 78 Umdrehungen pro Minute in Bewegung versetzt. Wenn man den Kopf mit geschlossenen Augen von oben nach unten führte, geriet man an eine bestimmte Stelle der Trommel, an der die stroboskopischen Lichtblitze die Frequenz der sog. Alpha-Hirnwellen perturbierten. Sommerville und Gysin beriefen sich dabei auf das Buch The Living Brain des englischen Neurophysiologen William Grey Walter.4 Beide haben ihre Seh-Erfahrungen mit der Flickermaschine ausführlich beschrieben. Gysin hat darüber hinaus eine Theorie des Flikkers entwickelt, die heute, im Kontext des Radikalen Konstruktivismus und der Neurobiologie Humberto Maturanas gelesen, als ein frühes
4 William Grey Walter: The Living Brain. London: Duckworth 1953. Das heute seltene Buch muß zu seiner Zeit sehr populär gewesen sein. Denn es erlebte zwischen 1953 und 1968 fünf englische und zwei deutsche Auflagen.
302
Hans Dieter Huber
Modell der Perturbation geschlossen operierender Systeme aufgefaßt werden muß. »Die fluktuierenden Elemente der Flickerfolge begünstigen das Entstehen autonomer ›Filme‹ […]. Was ist Kunst? Was ist Farbe? Was ist Sehen? Diese uralten Fragen verlangen neue Antworten, wenn man im Licht der dreamachine die gesamte alte und moderne abstrakte Kunst mit geschlossenen Augen sehen kann. […] dreamachines machen die fundamentale Ordnung sichtbar, die in der Physiologie des Gehirns gegenwärtig ist. Sie selbst sind der Künstler, wenn Sie sich vor eine dreamachine stellen und die Augen schließen. […] Die leuchtenden inneren Visionen, die auf einmal durch Ihren Kopf wirbeln, werden durch die Aktivität Ihres eigenen Gehirns hervorgebracht. […] dreamachine-Visionen beginnen gewöhnlich mit dem meteorschnellen Durchzug nicht abreißender Serien von abstrakten Elementen. Diesen mag sich nach einiger Zeit das deutliche Erkennen von Gesichtern, Figuren und die augenscheinliche Abfolge höchst farbenreicher Pseudo-Ereignisse anschließen.«5 Eine technologische Weiterentwicklung der primitiven Flickermaschinen der sechziger Jahre stellen die so genannten Mind machines der 90er Jahre dar. Es handelt sich dabei um brillenartige Geräte mit Kopfhörern, in denen stroboskopische Lichtreizungen und kurze Tonimpulse verschiedener Frequenzen die sensorischen Oberflächen des neuronalen Systems massiv in Aktivität versetzen. Eine künstlerisch gelungene Umsetzung dieses Flickerprinzips findet man z .B. in James Turrells Change of State, 1991; einem geschlossenen Wahrnehmungsraum, in dem man mittels eines Stroboskops verschiedene sensorische Reizungen des kognitiven Systems hervorrufen kann.
V Im Medium Film hatte sich die Cut-Up-Methode vor allem in den sog. Non-camera-Filmen etabliert, die mit bereits vorgefundenem Filmmaterial arbeiteten. Einer der frühesten Filme der Nachkriegszeit, der ohne jegliche Dreharbeiten entstanden ist und nur vorgefundenes Material (found footage) verwendete, ist der wenig bekanntgewordene 5
Brion Gysin: »Dreammachine«, in: Gasolin 23, Nr. 7, S. 20f.
Das Cut-Up als Schnittstelle der Intermedialität
303
Abb. 2 – Gianfranco Baruchello/Alberto Grifi: La verifica incerta, Italien 1964
Film der italienischen Künstler Gianfranco Baruchello und Alberto Grifi mit dem Titel La verifica incerta aus dem Jahr 1964. Er wurde aus einer riesigen Menge (etwa 150000 m) zur Vernichtung bestimmter amerikanischer Spielfilme der Jahre 1950-1960 zusammengeschnitten. Hier wurde auf ein bereits bestehendes, aber von der Vernichtung bedrohtes Archiv von Filmsequenzen zurückgegriffen, die bereits eine eigene erzählerische Logik enthielten. Die ungeheure Menge des 35-mm-Filmmaterials wurde nach einer ersten Selektion durch Baruchello und Grifi auf 16 mm umkopiert, wobei die horizontal gestauchten Cinemascope-Bilder mit ihrem Originalton beibehalten wurden. Der Eingriff des Cut-Up in das reality studio des Hollywoodfilms erzeugt einen sensorischen Breakthrough into the Grey Room des kognitiven Systems, das durch die neue Montage visuellen und auditiven Irritationen ausgesetzt wird. Bei einer Kurzzeitdarbietung visueller Reize benötigt das kognitive System etwa 80-100 Millisekunden Verarbeitungszeit, um aus der neuronalen Reizung eine kognitive Synthese zu bilden. Wenn innerhalb dieser Zeit ein zweiter Reiz dargeboten wird, beeinflußt er rückwirkend die Konstruktion des ersten. Im Prinzip vermischt sich die kognitive Synthese des ersten mit Elementen des zweiten Reizes. Man nennt dieses Phänomen daher in der Wahrnehmungspsychologie retroaktive Maskierung. In der kognitiven Synthese des Beobachters entsteht also eine Form, die weder eine vollständige Konstruktion des ersten noch des zweiten Reizes ist, sondern ein selbstorganisiertes, emergentes Phänomen, das nicht aus der Summe der beiden Einzelreize erklärt werden kann. Die Technologie des Films macht sich diese Zeitspanne von 80-
304
Hans Dieter Huber
100 Millisekunden, die das kognitive System zur Verarbeitung benötigt, zunutze. Denn bei einer Projektionsgeschwindigkeit von 24 Bildern in der Sekunde ist jedes Bild nur in einer Dauer von 20 Millisekunden zu sehen. Die kognitive Konstruktion aus diesen kontinuierlichen Perturbationen ist keine einfache Summenaddition, sondern sie entsteht in einem Prozeß der Selbstorganisation sensorischer Aktivitäten der Hirnrinde. Man kann das Phänomen der retroaktiven Maskierung sehr gut an der wahrgenommenen Helligkeit des projizierten Filmkaders studieren. Erhöht man die Laufgeschwindigkeit des Projektors auf 30 Bilder/sec, erscheint das Bild heller, obwohl die Darbietungszeit kürzer wird (16 msec) und die Projektionslampe trotzdem mit der gleichen Lichtstärke leuchtet. Setzt man die Projektionsgeschwindigkeit bis auf die untere Grenze von etwa 10 Bildern/sec herab, erscheint das Projektionsbild dunkler, obwohl die Darbietungszeit des einzelnen Bildes wesentlich länger ist (50 msec). Die scheinbar am Objekt wahrgenommene und beobachtete Helligkeitsveränderung ist eine rein kognitive Konstruktion, die aufgrund der retroaktiven Maskierung der Einzelreize zustande kommt. Einer der radikalsten Film in dieser Hinsicht ist Tony Conrads The Flicker aus dem Jahre 1966. Er besteht physikalisch aus einer abwechselnden Folge von Weiß- und Schwarzkadern, die aber aufgrund der kurzen Darbietungszeit von ca. 20 Millisekunden nicht als solche vom Beobachter konstruiert werden können. Der Beobachter nimmt ein schnelles, stroboskopisches Flimmern wahr, welches das kognitive System so stark perturbiert und in einen erhöhten Anregungszustand versetzt, daß man mit der Zeit alle möglichen Farben sieht und alle möglichen Formen wahrnimmt. Viele Experimentalfilmemacher haben sich dieses Phänomen zunutze gemacht, um durch schnelle, hintereinander geschaltete Einzelbildprojektionen neuronale Aktivitäten im Gehirn des Beobachters hervorzurufen, die ein rein mentales Produkt sind und in keinster Weise auch nur in irgendeiner Form auf der Filmschicht selbst existieren. In seinem 1968 entstandenen Film T,O,U,C,H,I,N,G hat der amerikanische Experimentalfilmer Paul Sharits dieses Prinzip der Einzelbildmontage verwendet, um sowohl virtuelle Farben als auch Scheinbewegungen im kognitiven System des Beobachters zu erzeugen. Die Tonspur ist durch eine Schleife endlos geschlossen, so daß sich das Wort
Das Cut-Up als Schnittstelle der Intermedialität
305
Abb. 3 – Paul Sharits: T,O,U,C,H,I,N,G. USA 1968
Destroy ständig wiederholt. In der monotonen Repetition dieses Wortes entstehen autonome, auditive Konstruktionen im Gehirn. Wie ein direkter Kommentar oder eine Transformation ins Medium Video mutet das 15 Jahre später entstandene Charmant-Band des deutschen Videokünstlers Klaus vom Bruch aus dem Jahre 1983 an. Er verwendet für den Schnitt dieselbe Cut-Up-Methode wie Sharits mit dem einzigen Unterschied, daß in die Endlossequenz eines abstürzenden Flugzeugs in jedes 12. Standbild das Porträt des Künstlers selbst einkopiert ist. Die Endlosschleife der Tonspur operiert im Prinzip mit demselben kognitiven Mechanismus wie im Film von Paul Sharits. Statt Destroy lautet die Stimme Charmant, statt Film sehen wir Video. Was Paul Sharits noch auf mechanischem Wege, also durch mühseliges Montieren und Kleben, herstellen mußte, ist hier bereits auf magnetischem Wege kompiliert worden.
VI Während der Beschleunigung der Bilder beim Film und beim Video technologische Obergrenzen gesetzt sind, ist im Bereich der Audioakustik oder Audioelektronik im Prinzip eine fast unendlich große Beschleunigung des Mediums möglich, so daß man statt von einer Flikker-Perturbation von einem permanenten Feedback sprechen kann. Das Feedback kann als ein rekursives Prozessieren des Mediums beschrieben werden. Es beschleunigt den Rückkopplungszyklus derart, daß das System als Durchlauferhitzer wirkt. Durch einen permanenten Wieder-
306
Hans Dieter Huber
eintritt (re-entry) des bereits Unterschiedenen in die Unterscheidung selbst beschleunigt sich das Feedback und stülpt die Materialität des Mediums selbst nach außen. Im weißen Rauschen, in der stehenden Rückkopplung oder im weißblauen Glühen des Monitors wird das Medium selbst zur Form im Hypermedium. Mit der Erfindung des Videosystems entstand das erste Mal in der Geschichte der Bildmedien die Möglichkeit, Aufnahme und Wiedergabe zeitlich so zu beschleunigen, daß sie fast gleichzeitig stattfinden. Man bezeichnet diese Möglichkeit des Videos als Closed Circuit. Wenn man den Kreislauf zwischen Aufnahme und Wiedergabe, also zwischen Kamera und Bildschirm, schließt, erhält man ein visuelles Feedback.
Abb. 4 – Videofeedback, USA, 70er Jahre
Die Formen und Farben des Feedbackzyklus hängen von der technologischen Struktur des Aufnahmesystems, der dazwischen geschalteten Elektronik und des Wiedergabesystems ab. Formen, Farben und Kreislaufzyklen lassen sich durch verschiedene Variablen wie Brennweite, Blende und verschiedene Filter am Farbgeber fast beliebig ändern. Durch das geschlossene, selbstreferentielle Operieren des Feedbackzyklus erzeugt sich das Bild vollständig aus sich selbst heraus. Es entsteht ein sich selbst organisierendes, geschlossenes System autonomer Farben, Formen und Bewegungen, die sich im Closed Circuit ständig re-produzieren. Form reproduziert sich aus Form, Farbe aus Farbe und Bewegung aus Bewegung. Die Möglichkeit der Gleichzeitigkeit begünstigte den Ausbau des Mediums Video zu einem interaktiven System. Eine der frühesten
Das Cut-Up als Schnittstelle der Intermedialität
307
Abb. 5 – Allan Kaprow: Hello, Videodokumentation, USA 1969
Arbeiten, in der die interaktiven Übertragungsmöglichkeiten des Fernsehens künstlerisch genutzt wurden, stellt das Happening Hello von Allan Kaprow aus dem Jahre 1969 dar, welches im Rahmen des Fernsehprogramms The Medium Is The Medium ausgestrahlt wurde. Die interaktiven Formen des Fernsehmediums, die auf der Möglichkeit des closed circuit beruhen, wurden in dieser Arbeit für eine künstlerische Installation genutzt. Mit Hilfe des lokalen Fernsehsenders WGBH in Boston wurden zwei Übertragungsterminals im öffentlichen Stadtraum installiert sowie ein weiterer Terminal im Fernsehstudio des Senders. Die Bild- und Tonkanäle waren jedoch so miteinander verschaltet, daß manche Teilnehmer sich nur hören, aber nicht gleichzeitig sehen konnten. Andere dagegen konnten sich nur sehen, ohne sich gleichzeitig hören zu können. Dritte wiederum konnten nur gesehen und gehört werden, ohne selbst die Möglichkeit zur direkten Interaktion zu haben.
VII Im Bereich der Audioelektronik nennt man das Prozessieren von Formen akustischer Medien Soundsampling. Analog oder digital abgespeicherte Soundsequenzen können beliebig ineinander gemischt, überblendet, rückwärts gespielt, gefiltert, wiederholt, beschleunigt oder verlangsamt werden. Die früheste Musikkomposition, die vorfabrizierte, auf einem Tonband gespeicherte Soundsequenzen in einer Live-Aufführung benutzte,
308
Hans Dieter Huber
ist das Stück Deserts von Edgar Varèse aus den Jahren 1949-54. Neben live gespielten Passagen enthält das Stück drei Brüche, in denen vorfabriziertes Tonmaterial vom Band abgespielt wird. Es ist unter dem unmittelbaren Eindruck des 2. Weltkriegs entstanden. Maschinengewehrgeräusche und Fliegersirenen wechseln mit schwer identifizierbaren, metallischen Schleifgeräuschen ab. Dazwischen gibt es in klassischer Orchesterbesetzung komponierte Passagen, die wie Reste einer heilen, aber nicht mehr möglichen, Welt der Musik anmuten. Das Stück stieß bei seiner Pariser Uraufführung 1954 beim Publikum auf Empörung und Unverständnis. Trotzdem setzte der Komponist damit einen Meilenstein in der Musikgeschichte. Es ist auch heute noch ein radikales, bedrückendes und beunruhigendes Musikstück. Deserts bildet den Höhepunkt einer langen Phase von Experimenten, in der sich Varèse mit multimedialen Projekten für Theater, Kino und Lichtprojektion beschäftigt hatte. Die New Yorker Performance- und Multimediakünstlerin Laurie Anderson ist in den siebziger Jahren mit einer präparierten Violine, einer sog. Tape Bow Violin, aufgetreten. Statt des Roßhaarbezugs des Geigenbogens hatte Anderson ein bespieltes Stück Tonband in den Bogen eingespannt. Auf dem Geigenkorpus war ein Tonabnehmer montiert, der an einen elektrischen Verstärker angeschlossen war. Laurie Anderson konnte nun das vorfabrizierte Tape Ethics is the Aesthetics of the Few-ture (Lenin), 1976 vorwärts und rückwärts abspielen, unterschiedlich schnell und in verschiedenen Teilstücken auf den Tonkopf aufsetzen. Das digitale Soundsampling ist im Prinzip ein Speichermedium dritter Ordnung, da es nur auf analog vorstrukturierte, akustische Formen zurückgreifen kann. Nicholas Collins, ein Schüler des New Yorker Komponisten Alvin Lucier, benutzt in der Arbeit Devils Music, 1985, die im Raum vorhandenen Radiowellen verschiedener Sender als Medium für seine live-elektronischen Performances. Er speichert Fragmente der während der Performance auftretenden Radiosendungen digital ab. Diese Samples können dann von ihm getriggert, gefiltert, in eine Endlosschlaufe eingegeben, rückwärts abgespielt oder in andere Tonlagen und Geschwindigkeiten transponiert werden. Collins spielt bestimmte musikalische Grundmuster, die bereits im Sampling-System selbst gespeichert sind, um ein komplexes, rhythmisches Wechselspiel zwischen den einzelnen Sounds zu erreichen, die dann zusammen die Bestandteile der jeweiligen live-elektronischen Komposition bilden.
Das Cut-Up als Schnittstelle der Intermedialität
309
Von hier aus war der Schritt nicht mehr weit zur Techno- und RaveScene der 90er Jahre, die vor allem die digitalen Samplingmethoden konsequent zur Erzeugung schneller, rhythmischer Beats und Loops verwendete. Hier findet man erstaunlicherweise auch wieder eine enge Kooperation zwischen Literaten, Musikern und Künstlern.
VIII Wenn wir zur Anfangsthese zurückkommen und uns daran erinnern, daß die Kunst nur ein kleiner, aber gewichtiger Teilbereich des kulturellen Gesamtsystems unserer Gesellschaft ist, dann läßt sich gegenwärtig eine besonders starke Auflösung der traditionellen Systemgrenzen beobachten. Künstler wie Laurie Anderson oder Andrea Fraser arbeiten in typischen, als unkünstlerisch geltenden Kontexten, während ein Nicht-Künstler wie Carsten Höller, ein habilitierter Verhaltensökologe, in traditionellen Kunstinstitutionen wie der documenta X präsentiert wurden. Während sich die Grenzlinien zwischen High und Low, E und U, Kunst und Pop gegenwärtig verwischen und auflösen, ist es vor allem ein Künstler, der alle diese Scheinprobleme auf eine souveräne, lockere und absolut spielerische Art und Weise zusammenmixt: nämlich Nam June Paik. Von Geburt Koreaner, ausgebildet in Deutschland in klassischer Komposition und europäischer Philosophie, zuhause im Schmelztiegel von New York, zeigt gerade er in seinem Arbeiten, wie das repressive Kontrollprogramm der Kultur und die Innovationen der Kunst dazu benutzt werden können, ein Amalgam zu schaffen, bei dem es letztlich egal ist, ob man es als Kunst oder als Unterhaltung bezeichnet. Denn beide sind längst identisch geworden. Kunst ist zur Freizeitunterhaltung geworden, und gute Unterhaltung ist eine große Kunst, die nur wenige beherrschen. In einer Live-Satelliten-Übertragung aus dem Jahre 1988, die von Paik anläßlich der Eröffnung der Olympischen Spiele in Seoul realisiert wurde, tritt unter vielen anderen der New Yorker Tänzer und Choreograph Merce Cunningham zu den elektronischen Computerklängen des Komponisten David Tudor auf. Zeitgleich spielt Ryuichi Sakamoto in Tokio das Stück Chisagu No Hanaya, in dem drei, in Kimonos gekleidete Japanerinnen ein Volkslied auf einem traditionellen, japanischen Musikinstrument spielen. Es handelt sich um eine sog. Shanshin, ein banjoartiges Saiteninstrument, des-
310
Hans Dieter Huber
Abb. 6 – Nam June Paik: Live-Satelliten-Übertragung anläßlich der Eröffnung der 26. Olympischen Spiele in Seoul, Korea, 1988
sen Resonanzfell aus einer Schlangenhaut besteht. Paik amalgamiert mit Hilfe der Satellitenübertragungstechnik und modernsten elektronischen Schnittverfahren beide Bild- und Tonkulturen auf eine so beeindrukkende Weise, daß man sich sehr gut vorstellen kann, wie eine fortschreitende Intermedialisierung von Kunst und Kultur aussehen könnte. (Der leicht überarbeitete und an einigen Stellen veränderte Text ist ursprünglich erschienen in: Kunibert Bering/Werner Scheel [Hrsg.]: Ästhetische Räume. Facetten der Gegenwartskunst. Oberhausen: Athena-Verlag 2000, S. 90-103. Mein Dank geht an Carl Weissner, Mannheim, für seine inspirierenden Anregungen und Literaturhinweise zu William Burroughs und an Gianfranco Baruchello, Rom, für sein großzügiges Zur-Verfügung-Stellen einer Video-Kopie seiner Experimentalfilme.)
Das Cut-Up als Schnittstelle der Intermedialität
311
Literatur Baruchello, Gianfranco/Grifi, Alberto: La verifica incerta. Italien 1964 (Film). Burroughs, William: Der Job. Gespräche mit Daniel Odier, Frankfurt/M., Berlin 1986. Burroughs, William: »Die Zukunft des Romans«, in: Carl Weissner (Hrsg.), Cut Up. Der sezierte Bildschirm der Worte, Darmstadt: Joseph Melzer Verlag 1969. Gysin, Brion: »Dreamachine«, in: Gasolin 23, Nr. 7, S. 20f. Kaprow, Allan: Hello, Videodokumentation, USA 1969 (Film). Mitterer, Josef: Jenseits der Philosophie. Wider das dualistische Erkenntnisprinzip. Wien: Passagen Verlag 1992. Paik, Nam June: Live-Satelliten-Übertragung anläßlich der Eröffnung der 26. Olympischen Spiele in Seoul, Korea, 1988 (Film). Sarner, Eric: The Beat Generation II. Frankreich 1993 (Film). Sharits, Paul: T,O,U,C,H,I,N,G. USA 1968 (Film). Walter, William Grey: The Living Brain. London: Duckworth 1953.
Claus Pias
Die Pflichten des Spielers Der User als Gestalt der Anschlüsse
»Aus Bildschirm-Figuren werden zum Beispiel Unterseeboote, aus dem Ball wird ein Torpedo; oder die Bildschirmfiguren stellen Skiläufer dar. Daher nochmals der Hinweis: spielen Sie nur nach der beiliegenden Spielanleitung.« – Handbuch der Spielkonsole Odyssey, 1973
Als 1793 ein unbesoldeter, 34 Jahre alter Professor seinem Drittmittelgeber dankte, gab er dem Begriff des »Spiels« eine Wendung, welche die Theorie desselben für zwei Jahrhunderte maßgeblich prägen sollte. Für Schiller und im Anblick der Französischen Revolution bezog sich das Spiel zugleich aufs Größte, nämlich den »ästhetischen« als »wirklichen« Staat, und aufs unteilbar Kleinste, nämlich die »Einheit der menschlichen Natur«1. Dabei erwiesen sich die Fragen von Staatskunst und Anthropologie als solche einer medialen Kultur des Spiels: Denn vermittelnd zwischen »Leben« und »Gestalt«, zwischen »Kraft« und »Gesetz«, zwischen dem »Wirklichen« und dem »Problematischen«, »Naturstaat« und »Vernunftstaat« usw. ereignet sich etwas, das, je nachdem, »Kultur«, »Mensch« oder »Spiel« heißt. Kultur, Mensch oder Spiel fallen also schon deshalb zusammen, weil sie allesamt einen Aboder Ungrund auffüllen, einen Graben zwischen aufragenden Dichotomien schließen, und (je nachdem, welches Bild man benutzen will) Passagen herstellen, »Wechselwirkungen« vermitteln, »Urteile« ermöglichen oder »Gleichgewichte« tarieren. Als Füllung sind sie aber zugleich das, was immer einer Fassung bedarf; das, was die Figur einer Frage erhalten muß, um Antwort auf sie sein zu können; das, was die Polaritäten erzeugen muß, um oszillierend und produktiv zwischen ihnen vermitteln zu können. Oder (mit Schiller) der Ort, »wo die Wirksamkeit des einen die Wirksamkeit des andern zugleich begründet und 1
Friedrich Schiller: Sämtliche Werke, Bd. 5, München 1962, S. 607.
314
Claus Pias
begrenzt, und wo jeder einzelne für sich gerade dadurch zu seiner höchsten Verkündigung gelangt, daß der andere tätig ist.«2 Als »Spiel« erscheint damit eine Art umfassender Regelungstechnik, die ihre Urteile nicht nur im Ästhetischen vorbereitet, sondern auch nach Kriterien der Effizienz fällt, die sowohl das Funktionieren von Kunst wie auch beispielsweise die Funktionen von ›Policey‹ beschreibt.3 Daß dafür der Begriff des »Spiels« einstehen kann, ist – bei aller Kantschen Vorbereitung – immerhin noch so überraschend, daß Schiller sich zu einigen rechtfertigenden Worten bemüßigt sieht. Erniedrige es nicht die Ästhetik (so fragt er), sie mit »den frivolen Gegenständen […gleichzustellen], die von jeher im Besitz dieses Namens waren« und unter »Ausschließung alles Geschmackes« bestehen können?4 Nein, so die Antwort, man dürfe sich nur »nicht an die Spiele erinnern, die in dem wirklichen Leben im Gange sind und die sich gewöhnlich nur auf sehr materielle Gegenstände richten«.5 Es geht also nicht um zeitgenössische ›Frivolitäten‹ wie Faro oder Whist und nicht um ›geschmacksneutrale‹ Kalküle wie Schach, nicht um Spiele oder »games«, sondern um das, was im Englischen »play« heißt, also um spielerisches Verhalten. Vom Gewinn dieser Ausgrenzung des ›Wirklichen‹ und ›Materiellen‹ zehren seither, so scheint mir, weiteste Teile der Spieltheorie. Sei es als naturgemäßes Erziehungsmittel (J. J. Rousseau ff.), als Aktivität zwischen innerer Welt und äußerer Realität (D. W. Winnicott), als Akt der Selbst-Distanz (R. Schechner), als Transzendierung von Ordnung und Unordnung (B. Sutton-Smith), als gemeinschaftsstiftende Kraft (C. Geertz), als Ventil für Energieüberschüsse (K. Groos), als Sozialisationsfunktion (G. H. Mead), als kulturschaffende Lebensäußerung (J. Huizinga) usw. Aus solchen Versuchen konsistenter und allgemeiner Spieltheorien läßt sich (neben historischen und systematischen) auch eine methodische Frage gewinnen. Es ist die Frage nach den Dingen – nach dem, was man Spieledesign oder Materialität der Spiele nennen könnte. Die anthropologische Theorie seit Schiller schlägt das Spiel ›dem Menschen‹ zu, und zwar in einer (oder seiner) Allgemeinheit, die jedes lokalisierbare Spielen nur zum Sonderfall herunterspielt und damit alle konkre2 Ebd., S. 611. 3 Joseph Vogl, »Staatsbegehren. Zur Epoche der Policey«, in: DVjs, 74(2000), S. 600626. 4 Ebd., S. 616. 5 Ebd., S. 617. (Hervorh. C. P.)
Die Pflichten des Spielers
315
ten Spiele degradiert. Mir scheint es daher lohnend, den Blick auch und gleichberechtigt auf all die seltsamen Dinge, Gerätschaften, QuasiObjekte, Symboliken, Körper oder Institutionen zu richten, die hier plötzlich auftauchen, die gebastelt, gerechnet, konstruiert, eingerichtet und zu Spielmaschinen (im Deleuzianischen Sinn) verschaltet werden. Ihr Entstehen und Funktionieren in einen medien- und technikhistorischen Blick zu nehmen (anstatt dem pananthropischen einfach zu vertrauen), scheint mir mehr als aussichtsreich. In diesem Sinne werde ich eine Reihe historischer Miniaturen aufreihen. Für diese gilt jedoch sämtlich Hans Blumenbergs schöner Satz, daß es in Anekdoten nichts Zufälliges gibt, und in diesem Sinne halte ich sie für durchaus theoriefähig. Allesamt ranken sie sich um Frage und Antwort, um einen Befehl namens Ping und ein Spiel namens Pong. Computerspiele verschieben jedoch das Schiller’sche Diagramm, in dem ›der Mensch‹ in der Mitte stand und – seiner vermeintlich eigensten Natur nach – spielend verschiedenste Widersprüche in seiner Figur verband und löste. In die Mitte rückt vielmehr das Medium eines Interface, das zwischen dem Widerspruch von Menschen und Maschinen, hardware und wetware, vermittelt und dabei zugleich erst erzeugt und formatiert, was der Mensch als User sei. Am Interface verhalten sich Spieler nicht nur, sondern werden auch verhalten. Ich werde dabei im wesentlichen drei Dinge herausstellen: Erstens, daß Computerspiele auch ganz gut ohne Menschen auskommen; zweitens, daß der Mensch oder User, der solche Spiele spielt, gerade von seiner unmenschlichsten Seite her entworfen ist; drittens, daß diese Konstellation von Mensch und Maschine ein wechselseitiger Test ist, der einen ganz banalen Begriff von Pflicht und Zur-Stelle-Sein implementiert, der durchaus gesetzesförmig und im Kantschen Sinne ›technisch‹ ist.
Ping Auf der Seite »Modemzugang zum Uni-Netz« unseres Rechenzentrums findet sich folgende denkwürdige Passage: »Einfachster Test auf Funktionsfähigkeit Starten Sie in einem DOS-Fenster den TCP/IP-Client Ping mit ping fossi oder ping 141.54.1.1
Ping testet, ob Verbindung zu einem Zielrechner besteht. Dazu schickt
316
Claus Pias
das Programm Testpakete an den Zielrechner und wartet auf Antwort. Die Antwortzeit in Millisekunden (ms) wird ausgegeben. Bei einem erfolgreichen Test sehen Sie vier Zeilen der Art Reply from 141.54.1.1: bytes=32 time=152ms TTL=253
Sie können nun andere TCP/IP-Clients (Netscape, usw.) benutzen.«
Ping ist ein sehr schlichtes Programm: Es sendet ein einzelnes Datenpaket an eine bestimmte IP-Adresse und wartet auf die Rückkehr desselben. Ping testet also die basale Funktion jedes Netzwerks und kann einige Antworten geben. Die erste und einfachste Antwort ist die, daß es Antwort gibt, daß also ein Kanal existiert. Ping gibt darüber hinaus jedem Paket eine eindeutige Nummer und kann folglich zweitens an den zurückkehrenden Paketen feststellen, ob welche auf dem Postweg verlorengingen, sich verdoppelt haben oder nicht zugestellt werden konnten. Ping gibt drittens jedem Paket eine Prüfsumme, so daß Beschädigungen festgestellt werden können. Und Ping gibt viertens jedem Paket ein Absenderdatum (Timestamp), anhand dessen errechnet werden kann, wie lange es auf dem Postweg war (Round Trip Time oder RTT). Ping kann jedoch nicht darüber Auskunft geben, warum Kommunikation fehlschlägt und auch nicht, wo Kommunikation fehlschlägt, sondern es kann nur sagen, daß Kommunikation fehlschlägt. Es berichtet nur, daß etwas zu langsam antwortet, daß etwas nicht antwortet oder daß etwas unzuverlässig antwortet, kurz gesagt: es protokolliert Unverantwortlichkeiten oder Verantwortungslosigkeiten, ohne sich um die Gründe zu scheren. Das haben Verfahrenswege, die sich ja (getreu Max Weber) von Individuen unabhängig machen müssen, um diese Individuen dann erst zu prozessieren, so an sich, und ich erinnere nur an das literarische Ping Heinrich von Kleists: Das »Gefild der Schlacht«, wie der Kurfürst seinem Homburg klarmacht, ist durch geregelte Manöversequenzen zeitlich gerastert. Doch bekanntlich erweist sich der Prinz als unfähig, dem »Control Message Protocol« eines in Befehle, Mitteilungen und Signale zerlegten prä-napoleonischen Schlachtplans zu folgen. Angesichts des sonnigen Wetters wählt er eigenmächtig den Augenblick, »die schwedsche Macht in Staub« zu legen.6 Doch Kurfürsten und Paket-Trans-
6 Heinrich von Kleist: Werke und Briefe in vier Bänden, Bd. 2, Berlin, Weimar 1978, S. 396.
Die Pflichten des Spielers
317
porte in Netzwerken brauchen keine Clausewitz’schen Genies, deren Taten erst Regeln setzen, sondern termingerechte Verantwortlichkeit. Doch zurück zu Ping. Laut The Ping Page7 handelt es sich dabei um ein Akronym für »Packet Internet Groper«, und »grope« bedeutet soviel wie »tasten«, so wie man beispielsweise im Dunkeln nach einem Lichtschalter tastet. Ping schickt also ein Signal in die Nacht des Netzes hinaus, wartet auf seine Rückkehr und wertet Verzerrungen und Laufzeit des Echos aus. Das führt geradewegs zu der anderen (und hübscheren) Entstehungsgeschichte des Befehls Ping, die sein Programmierer, der jung vertorbene Michael John Muuss, berichtet.8 Muuss, der zuletzt für das Army Research Laboratory arbeitete, beschäftigte sich in den frühen 80ern mit Echolot-Verfahren und den Modellierungsproblemen von Sonar- und Radar-Systemen. Und dieses Paradigma applizierte er einfach auf ein anderes Problem, indem er die im ICMP festgelegten echo_request- und echo_reply-Funktionen benutzte, um – nach eigenen Worten – »the ›distance‹ of the target machine« zu ermitteln. Ping ist also kein Akronym und kein Substantiv, sondern ein Verb, das eine Handlung beschreibt. RTT heißt bei Radartechnikern nichts anderes als die Laufzeit des Signals, und »to ping« meint im US-Navy-Jargon, einen Sonarimpuls zu senden. Und passenderweise heißt es auch unter Netzwerktechnikern »ping a server to see if its up«. Wenn’s zurückhallt, gibt es ein Ziel.
Abb. 1 – Von der ›Ontologie des Feindes‹ zu Ping: Screenshot aus einer Forschungsarbeit von Muuss
7 8
Vgl. The Ping Page: http://www.ping127001.com/pingpage.htm. Vgl. The Story of the PING Program: http://ftp.arl.army.mil/~mike/ping.html.
318
Claus Pias
Im Sinne solcher Feind-Ortung mag man sich an eine Anekdote erinnern, die ein gewisser Steve Hayman 1991 an eine USENETGruppe schickte. Hayman war mit dem Problem beschäftigt, ein defektes Kabel in einem TCP/IP-Netzwerk zu finden. Müde davon, an jedem Kabel zu rütteln, zu seiner Maschine zurückzukehren und ein Ping abzuschicken, schrieb er ein kleines Script, das immer wieder Ping schrieb. Da sein NeXT-Rechner gute Sound-Fähigkeiten hatte, ließ er jedes Echo durch ein akustisches, gesampletes »ping« quittieren. Unter dem lauten »ping, ping, ping…« der hin und her prallenden Datenpakete konnte Hayman anschließend durch das Gebäude gehen, an allen Kabeln rütteln und hatte den Feind aufgespürt, als der Ton aussetzte. Ping wurde durch ›interaktive‹ Mobilisierung des Beobachters zu einem digitalen, monophonischen Ortungsverfahren auf der Differenz von Ton/Nicht-Ton oder auch von anwesend/abwesend.
Whirlwind / SAGE 1944 übernahm Jay Forrester das Projekt eines »Airplane Stability and Control Analyzer« (ASCA) aus den Händen des späteren CIA-Wissen-
Abb. 2 – Der Whirlwind-Rechner mit Bildschirmarbeiterin (rechts)
schaftschefs Louis de Florez und taufte es in Whirlwind um.9 Was einmal als analog messender Flugsimulator begann, wurde 1945 zum Projekt eines digital rechnenden Flugsimulators und ab 1948 zu einem 9 Nicholas Metropolis/Jack Howlett/Gian-Carlo Rota (Hrsg.): A History of Computing in the Twentieth Century, New York/London 1980, S. 365-384.
Die Pflichten des Spielers
319
Echtzeit-Frühwarnsystem umgewidmet. 1950 visualisierte dann erstmals eine Kathodenstrahlröhre die einlaufenden Radarsignale von Cape Cod. Dieser Vektorbildschirm konnte nicht nur Punkte, sondern auch Linien darstellen und damit Text (wie cartesische Zielkoordinaten) in einem gewissermaßen kartographischen Zustand darbieten (nämlich Buchstaben als Graphen anschreiben). Bemerkenswert ist jedoch, daß mit der Umschaltung von analoger auf digitale Echtzeit und der Temporalisierung von Komplexität das Problem der Interaktion und damit auch die Frage nach Anwesenheit oder Abwesenheit auftrat. Und diese galt gleichermaßen für die vom Radar erfaßten Freunde und Feinde, als auch für die vom Computer erfaßten Benutzer. So mußte sich der Rechner während der Datenverarbeitung immer wieder unterbrechen, um beide Seiten abfragen zu können. Obwohl Radarobjekte und Benutzer also den gleichen logischen Status hatten, stellte sich dieses Problem der Unterbrechung zunächst nicht als eines der Mensch-Maschine-, sondern als Möglichkeitsbedingung der Maschine-Maschine-Kommunikation dar. Die aus den Radaranlagen über Telefonleitungen in den Whirlwind einlaufenden Signale beanspruchten, in Echtzeit verarbeitet zu werden, und verlangten nach einem diskreten Scheduling von Input und Prozessierung. Wir haben es also erst einmal mit einem Polling zu tun, also der zeitlich regelmäßigen Erhebung von Daten. Das Zentrum dieser neuen Macht ist ein Schalter namens Interrupt, also eine Hardware-Leitung, die die Prozessierung zu regelmäßigen Zeitpunkten unterbricht und den Sprung zu einer Subroutine auslösen kann, die dann z. B. ›Umwelt‹ wahrzunehmen in der Lage ist. Keine (Inter-)Aktion also ohne Unterbrechung. Die Kommunikation zwischen Eingabe-, Rechen- und Ausgabeeinheiten wurde damit zu einer zeitkritischen Frage, zur Angelegenheit eines gemeinsamen und zugleich lokal differenzierten systemischen Rhythmus. Das Triggern der Kommunikation durch einen Interrupt ist der effizienteste gemeinsame Nenner für jeweilige Peripherie mit unterschiedlichen Bandbreiten. Und was an einer bestimmten Systemstelle zum Zeitpunkt der Abfrage nicht vorliegt oder nicht zwischenzeitlich gebuffert wurde, existiert folglich auch nicht. Der Whirlwind schließt seinen Benutzer also als ein Device unter vielen an und lokalisiert, ver-ortet ihn in bestimmten Zeitfenstern. Wenn er nicht zur Stelle steht, findet keine Eingabe statt. Der Whirlwind-Nachfolger IBM AN/FSQ 7 im SAGE-Projekt vervollkommnete dieses Prinzip des Interrupt. Nur so war es möglich, daß der mit 75000
320
Claus Pias
32-Bit-Instruktionen pro Sekunde bislang schnellste Rechner auf seinen langsamsten Systembestandteil Rücksicht nehmen konnte, nämlich den Benutzer der Lightgun. Und dieser erwies seine verantwortliche Anwesenheit durch Antwort auf die Frage, wer der Feind sei. Der Bildschirm zeigte leuchtende, sich bewegende Punkte, die mit einem Eingabegerät ›getroffen‹ werden mußten. Klickte der Operator daneben oder war nicht schnell genug, handelte er unverantwortlich und verlor im schlimmsten Fall ein (nicht nur symbolisches) ›Leben‹, denn SAGE konnte dank der Duplex-Architektur seiner Hardware beides: Spiele spielen und Ernstfälle steuern.10 Dabei lassen sich zwei Arten von rhythmischen Ereignissen unterscheiden: diejenigen, die ein völlig vorhersehbares Ergebnis haben, und die, deren Ergebnis unsicher sind. Einfache Beispiele sind die Ereignisse »Uhr« und »Tastatur«, die beide über Interrupts gesteuert werden. Das Register der Systemzeit wird mit an Sicherheit grenzender Wahrscheinlichkeit jede Sekunde um 1 erhöht, die Tastatur gibt aber nicht bei jeder Abfrage auch ein Zeichen zurück, und wenn sie eines zurückgibt, ist ungewiß, welche der 102 Tasten gedrückt wurde. Uhren sind also völlig redundant, Tastaturen hingegen höchst informativ. Aristotelisch möchte man auch sagen, daß Uhren in die Kategorie des willensfreien automaton fallen, Tastaturen hingegen die paradoxe Kausalität einer tyche implementieren, in der sich zwei in sich völlig durchbestimmte Kausalketten treffen und unerwartete Ergebnisse zeitigen. Computerspiele sind Schicksale oder Geschicke – Ereignisserien, die durch ein Zusammentreffen entstehen, das im nachhinein gar nicht anders als notwendig zu denken ist. Und damit komme ich zu etwas konkreteren Ping- und Pong-Spielen.
Higinbotham Schon auf dem Whirlwind-Bildschirm war dank Jay Forrester ein hüpfender Ball zu sehen. Um Geschwindigkeit und Grafikfähigkeiten des Rechners zu demonstrieren, zauberte er einen leuchtenden Punkt in die linke obere Ecke, der dann, als sei er fallengelassen worden, in der Echt10 J. T. Rowell/E. R. Streich: »The SAGE system training program for the Air Defense Command«, in: Human Factors, October 1964, S. 537-548; Les Levidow/Kevin Robins (Hrsg.): Cyborg Worlds. The Military Information Society, London 1989, S. 13-41.
Die Pflichten des Spielers
321
zeit eines hüpfenden Tennisballs eine gedämpfte Reihe von Parabeln leuchtend auf den Bildschirm schrieb. Nach den ballistischen Großrechenaufgaben des Krieges nahm der ideale Tennisball die systematische Stelle eines sich absurd bewegenden Feindes ein und wurde zum Agenten des vielleicht ersten Demo-Programms. 11
Abb. 3 – Ein hüpfender ›Feind‹ auf dem Vektorbildschirm des Whirlwind
Knapp zehn Jahre später las der Physiker William Higinbotham das Handbuch seines Rechners am Brookhaven National Laboratory.12 Und Higinbotham – einst Entwickler des Eagle Radar Display der B28Bomber, dann Mitkonstrukteur des Zündmechanismus der Bombe in Los Alamos und inzwischen mit der Konstruktion von Meßgeräten beschäftigt – fand darin als Programmierbeispiel(!), wie man eine Flugbahn auf dem angeschlossenen 5-Inch-Oszilloskop darstellen kann. Und da der Tag der offenen Tür nahte, an dem es sonst wieder nur die inkommensurable Geschwindigkeit und die systemische Unsichtbarkeit von Computern zu sehen (oder nicht zu sehen) gegeben hätte, baute Higinbotham ein Tennisspiel um den hüpfenden Ball herum. Das Oszilloskop zeigte ein Tennisfeld in seitlicher Ansicht: ein Ausschlag in der Mitte als Netz, zwei Schläger-Striche links und rechts und in der Mitte der bekannte, hüpfende Ball. Über Potentiometer konnte der Abschlagwinkel bestimmt werden, und mit einem Taster wurde der Schlag ausgelöst. Selbstredend übersahen die Besucher den ChaseHiginbotham Linear Amplifier und standen vor Tennis for Two Schlange, so daß im nächsten Jahr eine erweiterte Version erschien, die 11 Und laut Benjamin Woolley sogar zum ersten Spiel, denn der Ball sollte in ein »Loch« auf der Abszisse »fallen« (Die Wirklichkeit der virtuellen Welten, Basel/Boston/ Berlin 1994, S. 46). 12 Zum 50jährigen Jubiläum wurde das Spiel rekonstruiert und ist unter http:// www.pong-story.com/tennis1958.htm zu sehen.
322
Claus Pias
Abb. 4 – William Higinbothams Tennis for Two von 1958. Links das 5”-Oszilloskop mit den beiden Steuerknöpfen
die Gravitationskonstante ändern konnte, so daß Tennis unter den Bedingungen von Mond oder Jupiter möglich war. Doch das ist eine andere Geschichte. Bemerkenswert ist jedoch, daß bei Tennis for Two keine direkte Selektion des bewegten Punktes stattfindet (wie bei SAGE), sondern ein Rendezvous von Schläger und Ball. Ballistik und Timing, Higinbothams alte Probleme, fanden im Schläger zusammen, der so bewegt werden muß, daß er vom Ball getroffen wird. Ziel des Spielers muß es sein, als Ziel zur Stelle zu sein und sich dem Ball zu stellen, denn seine Anwesenheit zu einem bestimmten Zeitpunkt wird abgefragt und als erfolgreiche Kommunikation quittiert. Ping. Und wie alle frühen computergestützten Spiele vor dem Computerspiel funktioniert auch Tennis for Two nur mit zwei Spielern, die sich abwechselnd stellen müssen. Ping – Pong. »Ping a server to see if its up« heißt hier »ping the other player to see if he’s present«. Und man mag sich zugleich an Haymans Suche nach defekten Kabeln erinnern: Der einzige Sinn von Ping besteht darin, keinen Sinn zu haben, sondern immer nur zu versichern, daß es einen Kanal gibt. Die Kommunikation der Spieler besteht nur darin, Meldung zu machen: Ich bin da. Ich bin zur Stelle. Ich konnte gestellt werden. Tennisspielen heißt, sich ins ›Rasende des Bestellens‹ (Heidegger) zu fügen. Es heißt aber auch und zugleich: Abfrage eines anderen Device und »einfachster Test auf Funktionsfähigkeit«. Und da der Computer vorerst nur zwei Spieler moderiert, geht es vorrangig um
Die Pflichten des Spielers
323
eine Einmessung von zwei Körpern aufeinander: Tennisspielen ist (um ein Wort Gumbrechts anzuverwandeln) »das Gelingen von Form unter den erschwerenden Bedingungen der Zeitlichkeit«.13
Pong Zwei Jahre später, an einem anderen Tag der offenen Tür (und diesmal am MIT) sind drei andere interessante Demonstrationen zu beobachten.14 Dort stand nämlich – mit einem Satz Friedrich Kittlers – ausgedientes Heeresgerät zum Mißbrauch bereit,15 und zwar in Form des Whirlwind-Rechners und des TX-0 aus dem Lincoln Lab, die nun über Systemadministratoren auch Studenten zugänglich waren. Auf dem Whirlwind-Bildschirm war nur der bekannte, hüpfende Ball Forresters zu sehen. Auf dem TX-0 hingegen hatte Peter Samson Musik erzeugt. Dieser Rechner besaß einen Lautsprecher zur Kontrolle des laufenden Programms, der ein gesetztes Bit 14 im Akkumulator akustisch quittierte, so daß erfahrene Programmierer sogar hören konnten, welcher Teil des Programms gerade abgearbeitet wurde. Jedenfalls hatte Samson den Rechner in sinnlose Schleifen verwickelt, deren Ziel es nur war, Bit 14 zu setzen oder nicht zu setzen und damit Töne zu erzeugen. Während also die Kontrolltöne eines effizient laufenden Programms nur Geräusch produzierten, ermöglichte Samsons geballter Einsatz von Redundanz, die sinnlose Rekursion von Datenmassen bis an die Wahrnehmungsgeschwindigkeit menschlicher Sinne heran, so etwas wie Ton. Gestalt entsteht durch Verschwendung, wie Benutzer noch heute merken, wenn das frisch erworbene Spiel anschließend den Kauf eines neuen Rechners erfordert. Die dritte Sinnlosigkeit anno 1960 bestand darin, den IBM 704 des Shannon-Schülers John McCarthy in eine Art Lichtorgel zu verwandeln. Es war ein früher und reiner Hack: technisch virtuos, spärlich vorhandene Hochsprachen meidend und proprietäre Hardwareeigen13 Hans Ulrich Gumbrecht/Ludwig Pfeiffer (Hrsg.): Materialität der Kommunikation, Frankfurt/M. 1988, S. 714-729. 14 Dazu ausführlich Steven Levy: Hackers. Heroes of the Computer Revolution, London 1984. 15 Friedrich A. Kittler: »Rockmusik. Ein Mißbrauch von Heeresgerät«, in: Charles Grivel (Hrsg.), Appareils et machines a répresentation, MANA. Mannheimer Analytica 8 (1988), S. 87-102.
324
Claus Pias
schaften ausnutzend. Der IBM 704 besaß eine Kette von Kontrollämpchen, und der ganze Hack bestand darin, die einzelnen Gerätekomponenten so anzusprechen, daß die aufleuchtenden Kontrollämpchen eine Gestalt bekamen. Es entstand ein Programm, das nur darin bestand, die Lämpchen hintereinander aufleuchten zu lassen und so einen wandernden Lichtpunkt zu erzeugen, der rechts verschwand, um links wieder zu erscheinen. Drückte man dann pünktlich beim Aufleuchten des letzten Lämpchens eine Taste, so kehrte der Lichtpunkt seine Laufrichtung um, schien abzuprallen und zurückzuwandern. Ein Signal wird also ins Dunkel des Realen gesandt, in die Welt des Users, der durch Tastendruck quittiert, daß er zur Stelle ist. Tyche waltet und schaltet. Der Computer trifft etwas an und er trifft etwas, wenn er auf einen antwortenden User trifft. (Und man mag sich an Gilles Deleuzes Satz erinnern, daß alles, was geworfen wird, eine Waffe ist.) Etwas echot »I’m up«. – Ping funktioniert. Oder vielleicht auch Pong, denn die Kontrolltafel des 704 ist zu einer Art eindimensionalem Tennisspiel geworden. Jedenfalls scheiden sich hier und jetzt, Anfang der 60er Jahre, die Meinungen über Ping und Pong. Das Militär entscheidet sich für Ping und definiert bald darauf im US Army Dictionary of Military Terms ein Computerspiel als ein Spiel, das Computer in und unter sich und nicht mit Menschen spielen.16 Die Hacker des MIT entscheiden sich für Pong und präsentieren zwei Jahre ihr berühmtes Spacewar!-Spiel für Menschen an Computern.17 Und da es zur Zeit dieses Computerspiels keine Computerspiele gab, landete Spacewar! auf den Bändern der ServiceTechniker von DEC, und zwar als Diagnosetool für PDP-1-Rechner. Immerhin fand Spacewar! einen aufmerksamen Spieler, nämlich den Ivan Sutherland-Schüler und späteren Atari-Gründer Nolan Bushnell.18 Kaum fertig mit dem Studium und durch einen Job bei AMPEX finanziell abgesichert, begann Bushnell ab 1970 mit dem Re-Engineering von Spacewar!, nur um wenig später zu der Erkenntnis zu kommen, daß Diskursbegründungen nicht nur über die Aufnahme vorhandener Elemente funktionieren, sondern auch einer gewissen Eleganz und eines emergenzhaften Mehrwertes bedürfen. Oder, mit Bushnells Worten: »Um erfolgreich zu sein, mußte ich ein Spiel herausbringen, das so ein16 Dictionary of U. S. Army Terms, AR 320-5, Department of the Army 1965. 17 J. Martin Graetz: »The origin of Spacewar«, in: Creative Computing, August (1981), www.wheels.org/spacewar/creative/SpacewarOrigin.html; Claus Pias: »Spielen für den Weltfrieden«, in: Frankfurter Allgemeine Zeitung, 8. August 2001. 18 Robert Slater: Portraits in Silicon, Cambridge, Mass. 1987, S. 296-307.
Die Pflichten des Spielers
325
fach ist, daß jeder Betrunkene in irgendeiner Bar es spielen kann.«19 Drei der Elemente waren den drei Demo-Programmen des MIT geschuldet: ein programmierbarer Punkt auf einem Bildschirm, Klangerzeugung mittels Computern und zeitkritische Verantwortlichkeit eines Users. Drei weitere kamen aus dem Kontext von Spielhallen und Vergnügungsparks, nämlich: 1. daß Geräte unbeaufsichtigt sein müssen, d. h. alle Spielmittel in einem Apparat vereint sind; 2. daß Geräte nicht zwei Spieler verschalten, sondern einen Single-Player-Modus haben; und 3. daß Spiele ein Ende haben, es also eine Ökonomie von Investition, Preis und Dienstleistungszeitraum gibt. Ein siebtes Element kam aus einem ganz anderen Kontext und bestand in dem Patent des Chefingenieurs des Rüstungslieferanten Sanders Associates, Ralph Baer, der 1968 vorgeschlagen hatte, Fernseher an Computer anzuschließen und damit die Kartographie von Vektorbildschirmen durch das Pixelweben von Rasterbildschirmen zu ersetzen. Und die eine Gestalt, die mehr als sieben Elemente ist, hieß bekanntlich Pong.
Abb. 5/6 – Der erste Versuchsautomat von PONG: Von hinten ist der verbaute Fernseher gut erkennbar (1972, © The Atari Historical Society)
Pong bewegte Lichtpunkte auf einem Bildschirm, gab Töne von sich, stellte seine Spieler, bedurfte keiner externen Spielmittel, hatte einen Single-Player-Modus, eine Punktestands-Rechnung und lief auf ausgeschlachteten Hitachi-Fernsehern. Das ›Punctum‹ dieses Computerspiels, das sich schon deshalb so nennen durfte, weil es nicht mehr aus analoger Fernsehtechnik gebaut war,20 war natürlich das onomatopoetische »Pong«. (Übrigens offenbart eine Lektüre des Schaltplans, 19 Scott Cohen: Zap! The Rise and Fall of Atari, New York 1984, S. 23.
326
Claus Pias
daß dieses »Pong« nichts anderes war, als das extrem verstärkte Knakken im Zeilenzähler – wir hören also, wenn wir uns synchronisieren, die Synchronisation des Gerätes selbst.) Bushnell, der den ersten, namenlosen Spieler der Computerspielgeschichte in Andy Capp’s Bar in Sunnyvale in einer warmen Augustnacht des Jahres 1972 studiert hat, erinnert sich: »Der Punktestand war 4-5, sein Vorteil, als sein Schläger den ersten Ballkontakt hatte. Es gab ein wunderbar volltönendes ›Pong‹-Geräusch, als der Ball zurück auf die andere Seite des Bildschirms prallte.«21
First contact also – erstes »Pong«, das zugleich ein Ping ist. Ein »Pong«, das wie ein Ping quittiert, daß der Kanal steht und echo_reply funktioniert. Und wenn das Datenpaket oder der Ball dann auf der anderen Seite ankommt, gibt es wieder ein »Pong«, und Rhythmus stellt sich ein, wie gesagt, als »Gelingen von Form unter den erschwerenden Bedingungen der Zeitlichkeit«. Rhythmus signalisiert – ich erinnere nochmals an Haymans wacklige Kabel – daß Kommunikation kommuniziert.
Abb. 7/8 – Screenshots von Pong und Gunfight (1975), bei dem das Ziel der Abwesenheit durch das der Anwesenheit ersetzt wurde
20 Die Odyssey-Spielkonsole des Fernsehtechnikers Baer war analog aufgebaut und gebar die Tennisspiel-Grafik aus der Logik des Testbildgenerators. Der Pong-Automat des Informatikers Bushnell rekonstruierte diese Ästhetik mit digitalen Mitteln so wissentlich und präzise, daß er anschließend einen Rechtsstreit verlor. Zu den Details dieser ›heimlichen‹ Digitalisierung vgl. Claus Pias: »›Children of the Revolution‹. Video-SpielComputer als Kreuzungen der Informationsgesellschaft«, in: ders.: Zukünfte des Computers, Zürich 2004, S. 217-240. 21 Übers. nach Claus Pias, ComputerSpielWelten, München 2002, S. 113.
Die Pflichten des Spielers
327
Rhythmus ist aber auch, wie es bei Nietzsche heißt, »ein Zwang; er erzeugt eine unüberwindliche Lust, nachzugeben, mit einzustimmen; nicht nur der Schritt der Füße, auch die Seele geht dem Takte nach – wahrscheinlich, so schloß man, auch die Seele der Götter!«22 Darüber, welche Seele und welche Götter dies beim Tennis sind, gibt eine archäologische Koinzidenz Auskunft. Gleichzeitig zu Pong erschien nämlich ein Buch des ehemaligen Tennistrainers von Harvard, Timothy Gallwey. Nach fernöstlichen Erweckungserlebnissen hatte besagter Gallwey das »yoga tennis« erfunden und sein Inner Game Institute gegründet. Im zugehörigen Lehrbuch ist zu lesen: »Wir haben nun einen entscheidenden Punkt erreicht, nämlich die andauernde ›Denk‹-Aktivität des Ersten Selbst, des Ich-Geistes, der Interferenzen mit dem natürlichen Verlauf der Tuvorgänge [doing processes] des Zweiten Selbst verursacht. [...] Erst wenn dieser Geist schweigt, erreicht jemand seine höchste Leistung. Wenn ein Tennisspieler ganz ›in seinem Spiel‹ ist, denkt er nicht mehr darüber nach, wie, wann oder auch wohin er den Ball schlägt. Er versucht nicht, den Ball zu treffen, und wenn er ihn getroffen hat, denkt er nicht darüber nach, wie schlecht oder wie gut er ihn getroffen hat. Der Ball scheint durch einen automatischen Vorgang getroffen zu werden, der kein Denken erfordert.«23
»Das Glück des Thieres«, hätte Nietzsche solchen Intuitionismus wohl genannt. Doch die kalifornische Gemengelage von hippiesker Esoterik und Computertechnik zu Beginn der 70er Jahre macht zumindest deutlich, um welche Art von Programmierung es sich handelt, wenn Computerspiel sich ereignet. Denn erst einmal verhält sich nicht der Spieler zur Maschine, sondern der Spieler ist der fleischgewordene Sonderfall von Gerätekommunikation. Und daher muß er sich zweitens an die Kommunikationsstandards für Peripherie akkomodieren. Deshalb bedeutet das Bewußtlos-Werden (das Gallwey »Zweites Selbst« nennt) lediglich das gelungene Peripherie-Werden und damit die Möglichkeitsbedingung von Computerspielen, worauf dann auch die nietzscheanische Zeitvergessenheit von Computerspielern gründet. Pong ist ein Synchronisationsproblem und reformuliert damit nur die Frage, die John Stroud schon 1949 den erstaunten Teilnehmern der 6. 22 Friedrich Nietzsche: Werke in drei Bänden, München 1954, Bd. 2, S. 93. 23 W. Timothy Gallwey: The Inner Game of Tennis, New York 1974, S. 31ff. (Übers. nach Pias 2002, S. 115).
328
Claus Pias
Macy-Conference on Cybernetics vorgelegt hatte, nämlich die nach einer gemeinsamen Trägerfrequenz von Mensch-Maschine-Kommunikation.24
Ping of Death Die Homepage des 3D-Shooter-Clans Ping of Death, gegr. 1997, erinnert allerdings daran, daß seit Bushnell das Computerspiel einen Haltepunkt namens Spiel-Ende hat, einen symbolischen Tod des Spielers und ein Ende aller Kommunikation. Dieses Problem des Todes liegt – bei Schieß- wie bei Tennisspielen – nicht im Treffen oder Getroffenwerden, sondern in der Verantwortung zur Pünktlichkeit. Wie die Todesangst Homburgs, der zur falschen Zeit am richtigen Ort war, resultiert die Todesdrohung des Computerspiels aus einer temporalen Deplazierung. Im Computerspiel zu gewinnen heißt, den anderen zum Homburg zu machen. Daß ich da bin, wo ein Schuß fällt oder nicht da bin, wo der Ball eintrifft, ist ein Fehler in meiner Akkomodation an den Rhythmus des Spiels. Pong ist also (an Deleuze erinnernd) auch ein Spiel mit Waffen, eine Frage der Projektion. Daß eine bildversessene wie technikvergessene Pädagogik dies übersieht, verwundert nicht, denn Ziel meines Gegners ist es, nicht mich zu treffen, sondern meine Abwesenheit anzutreffen.25 Der feindliche Tennisschläger hat eine Virtualität, eine bewegliche Leerstelle im Visier: den Ort, an dem ich sein müßte, aber aller Wahrscheinlich nach nicht pünktlich sein kann. Sein Ziel ist meine unwahrscheinliche Aktualität. Sein Bemühen ist es, mich in die Unverantwortlichkeit zu manövrieren, und die Flugbahn des Balls ist die Projektion einer Frage, auf die ich nicht werde antworten können. Kein Ping, kein Pong: Spielende. Ich erinnere nur daran, daß der Mathematiker T. J. Bromwich 1956, in Band 4 der World of Mathematics, einen Aufsatz veröffentlicht hatte, der sich mit der Trefferwahrscheinlichkeit im Tennis auseinandersetzt.26 24 John Stroud: »The Psychological Moment in Perception«, in: Claus Pias (Hrsg.): Cybernetics/Kybernetic. The Macy-Conferences 1946-1953, Berlin/Zürich 2003, Bd. 1, S. 41-65. 25 Der Spielehersteller Midway sollte wenige Jahre später die Verhältnisse umkehren. Das Spiel Gunfight ersetzte nur Abwesenheit durch Anwesenheit und die Schläger durch pixelige Cowboys, um ein umstrittenes Schießspiel herzustellen. Der Tennisball mußte nicht neu programmiert werden, sondern konnte nun einfach als Kugel gesehen werden.
Die Pflichten des Spielers
329
Bromwich versuchte genau diese Unzustellbarkeit des Balles zu ermitteln: In Abhängigkeit von maximaler und aktueller Ballgeschwindigkeit, von aktueller Position, Laufrichtung und -geschwindigkeit des Gegenspielers und seiner maximalen Laufgeschwindigkeit läßt sich nämlich recht einfach errechnen, daß es eine Ökonomie gibt, die bestimmt, wie man den Gegner mit geringstem Kraftaufwand in die Antwortlosigkeit treibt.
Abb. 9 – Ausweichmanöver eines U-Boots vor einem Torpedo auf einer Karte virtueller Ereignisse
Das Spielfeld wird damit zu einer Wahrscheinlichkeitslandschaft. Jeder Schlag projiziert gewissermaßen ein Netz statistischer Höhenlinien auf das Zielgebiet und kerbt es stochastisch. Bromwich bedient sich dazu jener Operations Research-Methoden, die sich gegen Ende des zweiten Weltkriegs in Amerika etabliert hatten. Als Vergleich mag das ›klassische‹ Beispiel eines Torpedos, das auf ein U-Boot zurast, dienen, für das es nun verschiedene Möglichkeiten des Ausweichens gibt.27 Die statistischen Feldlinien sind die gleichen wie bei Bromwichs Ten26 Thomas John Bromwich: »Easy Mathematics and Lawn Tennis«, in: James R. Newman (Hrsg.): The World of Mathematics, Bd. 4. New York 1956, S. 2450-2545.
330
Claus Pias
nis-Analyse, und man darf wohl bedenkenlos das U-Boot gegen den zweiten Tennisschläger und den Torpedo gegen den Ball ersetzen. Der einzige Unterschied ist, daß man beim Torpedobeschuß Punkte durch (An-)Treffen des Gegners, beim Tennisspielen jedoch durch dessen Nicht-(An-)Treffen macht. Und die Frage nach dem U-Boot führt wieder zurück zu Ping. Denn der Kommunikationsabbruch des Nicht-Antreffens ist auch der Sinn des »Ping of Death«, von dem die computergerüstete Schützengilde ihren Namen bezogen hat. Nach dem RFC-791-Standard kann ein IP-Package nur eine Länge von 65535 Bytes haben, also 216-1. Davon sind 20 Bytes für den Header und 8 für den echo_request abzuziehen, so daß 65507 Bytes bleiben.28 Man schicke daher versuchsweise ein Ping mit einem 65510 Bytes langen Datenblock. ping -l 65510 eine.beliebige.ip.addresse
Der entsprechende Standard schreibt vor, daß ein solches Paket fragmentiert, daß jedes Fragment mit einem Offset versehen und am Zielrechner wieder zu einem Paket zusammengesetzt wird. Die schlichte Folge ist, daß das letzte Fragment zwar an einem gültigen Offset (also kleiner als 216) angesetzt wird, seine Länge aber einen Overflow herbeiführt. Und der traf noch 1997 nicht nur 18 Betriebssysteme (wie Windows 95, NT, Linux, Solaris, Irix, NeXTStep usw.) mit Reboot, Crash, Hangup oder Kernel Panic, sondern beförderte auch Router und Laserdrucker sicher zum Abgrund.29 Nicht nur auf der Ebene der Mensch-Maschine-Kommunikation von Pong, sondern auch auf der Ebene der Maschine-Maschine-Kommunikation von Ping liegt der symbolische Tod in der Unverantwortlichkeit. Man bringt den anderen in die Lage, nicht mehr antworten zu können, und zwar indem man seinen Adreßraum übersteigt, indem man ihn also auf einen Ort verweist, der nicht mehr seiner Kontrolle untersteht. Unzustellbarkeit heißt, jemanden oder etwas an einen unmöglichen Ort zu bestellen. Dies oft genug eine medientheoretische brisante Frage, denn die Angabe unmöglicher Orte führt meist dazu,
27 Philipp E. Morse/George E. Kimball: Methods of Operations Research, New York 1951. 28 Vgl. The Ping o’ Death Page (http://www.dfm.dtu.dk/netware/pingod/ping.html). 29 Gesammelt auf http://www.insecure.org/sploits/ping-o-death.html
Die Pflichten des Spielers
331
daß das Medium selbst angeschrieben wird. Post beispielsweise – verstanden als das, was selbst keine Adresse hat, aber alle Adressen verwaltet – erscheint erst und genau dann, wenn etwas unadressierbar ist. Wenn Ping aussetzt, müssen wir uns wohl unseren Computer ansehen.
Schlümpfe und Filibustern Da wir aber normalerweise nicht das Medium sehen möchten, komme ich (zuvorletzt) vom allgemeinen Problem des Rhythmus zum besonderen Aspekt der optimalen Geschwindigkeit dieses Rhythmus. Die in der Emulatorszene wiederauferstandenen Spiele des letzten Vierteljahrhunderts zeigen in ihrer nostalgischen Langsamkeit nicht zuletzt, daß die Akkomodation auch ein historischer Prozeß ist, und ein Kulturdiagnostiker mag anhand solcher Spiele wohl behaupten, daß wir schneller geworden sind. Ich möchte jedoch nur – und noch einmal zwischen Ping und Pong – darauf hinweisen, daß es eine Ökonomie der Synchronisation gibt. Und diese besagt – getreu aller Arbeitswissenschaft – daß Normalität die auf Dauer größtmögliche zu erwartende Arbeit pro Zeiteinheit ist und daß eine massive Überschreitung derselben Gefährdungen in sich birgt, die Sache eines Arbeitsschutzes sind. Solche Arbeitsüberlastungen kennt man seit einigen Jahren als Denial Of Access-Attacken, und einer der einfachsten Wege, den Arbeitsschutz zu alarmieren, basiert – wie könnte es anders sein – auf Ping. Das Verfahren nennt sich Smurfing (also Schlumpfen) und ist sehr einfach.30 Man sendet einfach ein Ping-Paket an die zentrale Directbroadcast-Adresse eines Netzwerkes, die dieses Paket an alle maximal 255 angeschlossenen Maschinen des Netzwerks weiterleitet. Diese antworten allesamt brav mit einem Echo, das aber selbstverständlich nicht an den Absender zurückgeht, sondern an eine im Header fingierte Return-Adresse des Opfers. Von einem billigen 28.8-K-Modem lassen sich pro Sekunde 42 Pakete zu je 64 Byte ›pingen‹, so daß (mal 255 gerechnet) 10 626 Pakete beim Opfer ankommen, d. h. 5.2 MBit pro Sekunde, womit eine T1-Leitung (1.5 MBit/sec.) schon tot ist. Hacker haben es geschafft, mehr als eine Broadcast-Adresse gleichzeitig zu 30 Vgl. http://www.governmentsecurity.org/articles/THELATESTINDENIALOFSERVICEATTACKSSMURFING.php
332
Claus Pias
adressieren, so daß sich beispielsweise bei 50 Adressen schon ein Antwortstrom von über 530 000 Paketen über das Opfer ergießt, also aus 28.8 Kbit/s nicht weniger als 260 MBit/s werden können. Maschinen treiben also Maschinen durch rein quantitative Überforderung in den Kollaps der Symbolverarbeitung. Zu viele Pakete – zu viele Tennisbälle. Joseph C. R. Licklider, Psychoakustiker, Teilnehmer der legendären Macy-Conferences, Mitentwickler des Interface-Design von SAGE und manches mehr, war Leiter des Information Processing Techniques Office bei ARPA,31 als er 1968 seinen Aufsatz über »The Computer as a Communication Device« veröffentlichte.32 Dort, in der Light-Version des Konzepts eines zukünftigen Internet, findet sich eine Serie von kleinen Randzeichnungen, die von einer organisch geprägten Formensprache plötzlich in eine Comiczeichnung umschlägt. Das Handshaking zwischen zwei Message Processors erscheint hier trotz der Hände nicht als Händeschütteln, sondern als Fangen eines Balls, der dann dem nächsten Knoten zugeworfen wird. Auch im Labyrinth des Netzes finden also Ballspiele statt.
Abb. 10 – Illustrationen zu Lickliders Netzwerkplanungen 31 Katie Hafner/Matthew Lyon: Where Wizards Stay Up Late. The Origins of the Internet, New York 1996, S. 24-39. 32 Joseph C. R. Licklider: »The Computer as a Communication Device«, in: Science and Technology, April (1968) (Reprint digital, Systems Reseach Center, Palo Alto 1990).
Die Pflichten des Spielers
333
Doch Licklider interessiert gar nicht so sehr die MaschineMaschine-, sondern die Maschine-Mensch-Kommunikation. Schließlich hatte er aller Kapp-, Freud- oder McLuhanschen Prothesentheorie zum Trotz die Situation sogenannter ›Computerbenutzung‹ einmal umgekehrt begriffen und von der »humanly extended machine« gesprochen, um damit – konsequent kybernetisch – diese Hierarchie kollabieren zu lassen. 1968, während Douglas Engelbart und seine Kollegen schon verschiedene Eingabegeräte streng arbeitswissenschaftlich durchtesteten und damit das Subjekt auf die alltägliche Normalität von Bildschirmarbeit zu eichen begann,33 fragte sich Licklider, wie diese ›kollektiv‹ aus menschlichen und nicht-menschlichen Anteilen beschaffen sein müsse. Und er faßte dies – wie könnte es anders sein – ins (Denk-)Bild des Ping-Pong-Spiels. Gelingende Kommunikation zwischen Maschine und Mensch ist das abwechselnde Antwortgeben, scheiternde Kommunikation hingegen die Antwortlosigkeit der Überforderung – eine Art Denial Of Access-Attacke auf den Menschen. Wir haben es also mit einem »Switching« der Extensionen zu tun, mit einem Oszillieren des Begriffs zwischen Technik- und Anthropozentrismus, und also mit dem, was man – philosophischer – seine »Dekonstruktion« nennen könnte. Damit dies nicht alles im Anekdotischen bleibt, sei zumindest erwähnt, daß es Licklider nicht bloß um das althergebrachte Zeitstudium einer Fabrikarbeit ging, sondern daß er seit 1961 das Department of Defense von der Notwendigkeit eines Forschungsprogramms zu überzeugen suchte, das sich einer »Time and Motion Analysis of Technical Thinking« widmet.34 Und das Hauptargument lautet selbstredend, daß nur in einem optimierten Zusammenspiel von Computer und Entscheidungsträger der letztere nicht zum Homburg wird: »Den morgigen Tag verbringen Sie mit einem Programmierer. Nächste Woche braucht der Computer fünf Minuten, um Ihr Programm zu kompilieren, und 47 Sekunden, um die Antwort auf Ihr Problem zu berechnen. Sie bekommen ein sechs Meter langes Stück Papier voller Zahlen, das, statt eine endgültige Lösung zu geben, bloß eine Taktik vorschlägt, 33 William K. English/Douglas C. Engelbart/Melvyn L. Berman: »Display Selection Techniques for Text Manipulation«, in: IEEE Transactions on Human Factors in Electronics, HFE-8,1 (1967). S. 5-15. 34 Joseph C. R. Licklider: »Man-Computer Symbiosis«, in: IRE Transactions on Human Factors in Electronics, HFE-1 (1960) (Reprint digital, Systems Research Center, Palo Alto 1990).
334
Claus Pias
Abb. 11 – Illustrationen zu Lickliders optimiertem Zusammenspiel
die in einer Simulation untersucht werden müßte. Es ist offensichtlich, daß die Schlacht schon geschlagen wäre, ehe der zweite Schritt Ihrer Planung auch nur begonnen hätte. […] Andererseits ist der militärische Befehlshaber mit einer höheren Wahrscheinlichkeit konfrontiert, kritische Entscheidungen in kurzen Zeitintervallen treffen zu müssen. Die Vorstellung des Zehnminuten-Krieges läßt sich nur allzu leicht über Gebühr dramatisieren, aber es wäre gefährlich, sich darauf zu verlassen, daß man mehr als zehn Minuten hat, um eine kritische Entscheidung zu treffen.«35
35 Licklider 1960, ebd., S. 4/14 (Übers. nach Pias 2002, S. 93).
Die Pflichten des Spielers
335
Nach der kybernetischen Einheitshoffnung einer gemeinsamen Sphäre von Menschen und Maschinen, nach der kognitionspsychologischen Wende Chomskys und nach dem Dartmouth-Proposal on Artificial Intelligence ging es um das zeitkritische Denken an und mit Computern selbst, um eine – wie Licklider es nennt – »Man-Computer-Symbiosis«. Der Mensch hat demzufolge einige gravierende Nachteile gegenüber Computern, besitzt dafür aber an anderen Stellen unschlagbare Vorteile. Von der Maschine her gedacht, heißt dies, daß er bestimmte Lücken füllen muß, damit ein symbiotisch-mehrwertiges Denken statthaben kann: »men will fill in the gaps«, wie es bei Licklider heißt. Das Tennisspiel beschreibt also die Möglichkeitsbedingung dafür, daß Mensch und Maschine zusammen mehr sind als alleine. Die Maschine adressiert den Benutzer, also ihre Extension, deren Programm geschrieben steht, und dieser spielt etwas zurück. Der Benutzer adressiert eine Maschine, deren Programm er nicht lesen kann, die sich aber durch Sichtbarkeit und Langsamkeit kommensurabel gemacht hat, und diese spielt etwas zurück. Ping-Pong west also überall dort, wo Menschen mit Computern zu tun haben, in den Spielen der Feuerleitsysteme ebenso wie in Word, im ›Igloo White‹ von Saigon ebenso wie an der Steuerung von Sim City, im Browsen durchs Internet ebenso wie im Navigieren durch Tomb Raider. Die Medienkunst der 90er mit all’ ihren vermeintlich ›kritischen‹ Interaktivitäts-Experimenten ist daher (nebenbei bemerkt) nicht nur verspätet, sondern reproduiziert nur die militärische Logik von Ping bzw. die industrielle Effizienz von Pong. Stelarcs Ping Body von 1996 beispielsweise, das vom Künstler als »powerful inversion of the usual interface«36 apostrophiert wird, dreht die Verhältnisse inzwischen alltäglich gewordener Benutzeroberflächen bloß herum und endet damit wieder auf dem Stand Whirlwind-Ära, als Menschen explizit als devices angesprochen wurden. Sender und Empfänger zu vertauschen ist – wie Baudrillard (trotz fragwürdiger Konsequenzen) so großartig gezeigt hat – eine »strategische Illusion«, die sich völlig »solidarisch zur herrschenden Praxis« verhält.37 Ping Body ist nicht provozierend posthuman, sondern verdoppelt einen Alltag, der die Kunst schon überholt hat.
36 http://www.stelarc.va.com.au/pingbody/index.html 37 Jean Baudrillard: »Requiem für die Medien«, in: Claus Pias/Lorenz Engell/Joseph Vogl (Hrsg.): Kursbuch Medienkultur, Stuttgart 1999, S. 291.
336
Claus Pias
Abb. 12 – Der durch Ping bewegte Künstlerkörper
Die einzige Lösung gegen das unvermeidliche Spielen könnte daher ˘ – im Anschluß an Slavoj Zi˘ zek – Interpassivität heißen: Ich lasse spielen, ich delegiere das Ping-Pong, ich entlaste mich von der Interaktivität und nehme damit die libidinöse Struktur des Perversen an, d. h. die Position eines reinen Instruments für das Genießen des Anderen. Ich finde ein Subjekt, dem ›Spielen unterstellt werden‹ kann. Dafür gibt es beispielsweise kleine Programme, die nichts anderes tun als InternetProvidern wie AOL oder T-Online, die mit Ping meine Anwesenheit testen, zu suggerieren, daß ich noch im Netz bin. Während ich schon ganz woanders bin, senden solche kleinen Helfer ab und zu ein Ping an den Server des Providers zurück und ermahnen ihn in meinem Namen, immer zur Stelle zu sein.
Schluß Erstens: An Ping und Pong habe ich zu zeigen versucht, daß sowohl den Spielen zwischen Mensch und Maschine als auch zwischen Maschine
Die Pflichten des Spielers
337
und Maschine eine bestimmte Weise der Verantwortlichkeit gemeinsam ist. Diese Verantwortlichkeit heißt (in unserem Beispiel) »Pünktlichkeit« oder auch »zur Stelle sein«.38 Diese Pünktlichkeit kann (so das Beispiel des Prinzen von Homburg) keine Sache der Subjektivität sein. Man kann Computerspiele nicht so spielen, wie es z. B. das »Gefühl« eingibt – das wäre so absurd, wie sich in Zeiten der Stechuhr auf sein Zeitgefühl zu verlassen. Sie, die Pünktlichkeit, ist vielmehr (und mit Kant gesprochen) eine Sache der »Pflicht«. Die Pflicht (so Kant in der Grundlegung der Metaphysik der Sitten) hat aber nichts mit Neigung zu tun.39 Die Pflicht hat ihren Wert auch nicht in der Absicht, welche durch sie erreicht werden soll. Pflicht bemißt sich ausschließlich an der Maxime, nach der sie beschlossen wird, und leitet die Notwendigkeit einer Handlung aus der Achtung für das Gesetz her. Zu dieser Achtung verpflichte ich mich einmalig, wenn ich in ein Spiel eintrete. Jede Pflichtverletzung wird mit einem symbolischen Tod, dem Spielende, bestraft. Ein Spielprogramm ist also nicht nur eine Vor-Schrift, eine Art Gesetzestext für die Welt des jeweiligen Spiels, nach der ich pflichtgemäß zu handeln habe, wenn ich mich in die Gesellschaft von Computern begebe, sondern zugleich auch eine Polizei, die meine Handlungen genauestens kontrolliert. Es gibt kein falsches Computerspiel im richtigen. Diese Pflichterfüllung unterliegt den »Regeln der Geschicklichkeit«40 wie Kant es nennt, also dem sog. hypothetisch-problematischen Imperativ. Der hypothetisch-problematische Imperativ ist »technisch« und gehört damit (so Kant) in den Bereich der »Kunst«.41 Und er besagt, daß alle Geschicklichkeit (darin der Pflicht verwandt) indifferent gegenüber ihren Zielen ist: Ärzte können ebenso geschickt Leben retten wie Mörder sie geschickt vernichten können. Spielend seine Pflicht zu erfüllen, hat also erst einmal kein anderes Ziel, als das Spielende herauszuzögern, d. h. sich keine Pflichtverletzung zuschulden kommen zu lassen. Es gibt also gute Gründe für die Annahme, daß bspw. die gesamte pädagogische Debatte um böse Computerspiele und ihre Folgen an der 38 Die Frage der Pünktlichkeit betrifft hauptsächlich »zeitkritische« Actionspiele. Adventure- und Strategiespiele hingegen sind dagegen »entscheidungskritisch« bzw. »konfigurationskritisch«. Zu dieser Unterscheidung Pias 2002. 39 Immanuel Kant: Werke in zwölf Bänden, Frankfurt/M. 1977, Bd. 7, S. 26. 40 Kant, ebd., S. 45. 41 Kant, ebd., S. 46.
338
Claus Pias
falschen Stelle ansetzt, nämlich nicht bei der »Technik« und der »Pragmatik« des Spielens und seiner Apparate, sondern erst bei der Ikonographie der Grafik und dem Inhaltismus von Erzählungen. Der Splatter indizierter Spiele sagt letztlich genauso viel oder wenig über die Pflichten des Spielers wie die bonbonfarbenen Niedlichkeiten pädagogischer Korrektheiten, weil wir uns nicht im Reich des Gewissens und der Moralität, sondern im Bezirk der Pflicht und des Gesetzes aufhalten. Die Diskurselemente des Computerspiels heißen nicht »Menschen töten« oder »Goldtaler fangen«, sondern Pünktlichkeit, Rhythmus oder Kontrolle. Und diese werden ununterbrochen an einer symbolischen Identität des Spielers abgefragt. Zweitens: Digitalrechner sind völlig inkommensurabel für menschliche Sinne – sie sind definitiv zu klein und zu schnell. Es gibt daher gar keine (Zusammen-)Spiele ohne Verfahren des Visuellen und Haptischen – der Computer muß »vermenschlicht« werden. Andererseits kann die Koppelung des Realen und des Symbolischen, die Verschränkung von Menschenkörpern und Maschinenlogiken, nur auf der Ebene des Symbolischen kommuniziert werden – der Mensch muß notwendigerweise »maschinenförmig« werden. Spiele erweisen sich als Tests dieser Kompatibilität. Ich würde also statt der »Hardware« (die ja immer eine Grenze zu Soft- und Wetware impliziert) einen eher deleuzianischen Maschinenbegriff ansetzen, der zu beschreiben vermag, wie Maschinen dadurch gebildet werden, daß verschiedenste heterogene Dinge (Menschen, Bilder, Töne, Computer usw.) durch Rekursion und Kommunikation vernetzt und funktionsfähig und dabei zu Maschinenteilen werden. Die Traditionslinien des Computerspielens sind daher nicht nur in Bild- und Literaturtraditionen zu finden, sondern stärker noch in Experimentalpsychologie und Arbeitswissenschaft, in den Theorien von »Scientific management«, Operations Research und Kybernetik. Dies soll nicht noch einmal (und mit zwei Jahrzehnten Verspätung) dazu aufrufen, an Computerspielen nur die Schaltpläne als das zu lesen, ›was einzig zählt‹ (so notwendig und gewinnbringend dieser (Auf-) Bruch auch war und bleibt). Mir liegt vielmehr daran, die Technik im weiteren Sinne ins Zentrum zu rücken und sie dabei nicht auf Extensionen, Apparate, Handlungsanweisungen oder funktionierende Trivialisierungen zu reduzieren, wie es Technikphilosophie, Technikhistoriker, Technikanthropologen oder Konstruktivisten gerne tun. Statt dessen würde ich Technik als eine
Die Pflichten des Spielers
339
Kraft oder Figur begreifen, die Relationen organisiert und dadurch innerhalb eines strategischen Dispositivs Neues und Unerwartetes produziert. Diesen Sachverhalt könnte man ihre Unruhe nennen. Technik ist demnach ein transversales Phänomen – etwas, in dem die benannten Aspekte zwar allesamt virulent sind, das sich aber nicht in einem von ihnen erschöpft. Technik ist ein Relais zwischen technischen Artefakten, ästhetischen Standards, kulturellen Praxen und wissenshistorischen Ereignissen. In diesem Sinne geht Technik weder in einer wechselvollen Apparatewelt noch im weiteren Begriff der Kulturtechniken, weder in einer Geschichte der Ingenieursleistungen noch in einer der Handlungsweisen, weder in ihren ästhetischen Produkten noch in ihren sozialökonomischen Folgen auf. Technik ist nicht etwas, sondern tut etwas, und dies zugleich an mehreren Stellen: Sie stiftet ästhetische, praktische, apparative und epistemische Zusammenhänge, deren ästhetische, praktische, apparative und epistemische Folgen wiederum unbestellt und nicht präjudizierbar sind. In diesem Sinne war die Technik – seit sie sich aus den Künsten und Gewerben herauslöste und in den Ingenieurswissenschaften zu einem eigenständigen Diskursprogramm wurde – auch eine Herausforderung anthropologischer und kulturkritischer Reflexion. Mir scheint, daß es dieses Denken über ›die Technik‹ selbst zu historisieren und in die Gegenwart bestimmter Technologien zu bringen gälte. Das Computerspiel eignet sich als Musterfall, weil es sich gegen jene hegemonialen Ansprüche eines menschlichen ›play‹ sträubt, die das von Schiller einst eröffnete anthropologische Operationsfeld ›des Spiels‹ beherrschen. Computerspiele sind ein Plädoyer für den materialen Eigensinn der Konkreta von ›games‹ und für die Rehabilitation der ausgeschlossenen ›Perversionen‹ und ›Korruptionen‹ (Caillois) des Spiels und damit die Chance zu einer Kritik der Genealogie anthropologischer Spieltheorien, deren Spielbegriff nur verschleiert, daß sie Theorien zur Entparadoxierung der Sozialorganisation sind, gegen die es gälte, die Spiele ernst zu nehmen.
340
Claus Pias
Literatur Bromwich, Thomas John: »Easy Mathematics and Lawn Tennis«, in: James R. Newman (Hrsg.): The World of Mathematics, Bd. 4. New York: Simon & Schuster 1956, S. 2450-2545. Cohen, Scott: Zap! The Rise and Fall of Atari. New York: Xlibris 1984. Dictionary of U. S. Army Terms, AR 320-5, Department of the Army 1965. English, William K./Engelbart, Douglas C./Berman, Melvyn L.: »Display Selection Techniques for Text Manipulation«, in: IEEE Transactions on Human Factors in Electronics, HFE-8,1 (1967). S. 5-15. Gallwey, W. Timothy: The Inner Game of Tennis. New York: Random House 1974. Graetz, J. Martin: »The origin of Spacewar«, in: Creative Computing, August (1981), Online: www.wheels.org/spacewar/creative/SpacewarOrigin. html (15.2.2005). Gumbrecht, Hans Ulrich/Pfeiffer, Ludwig (Hrsg.): Materialität der Kommunikation. Frankfurt/M.: Suhrkamp 1988. Hafner, Katie/Lyon, Matthew: Where Wizards Stay Up Late. The Origins of the Internet. New York: Simon & Schuster 1996. Levidow, Les/Robins, Kevin (Hrsg.): Cyborg Worlds. The Military Information Society, London: Free Assn. Books 1989. Levy, Steven: Hackers. Heroes of the Computer Revolution. London: Penguin Press 1984. Kittler, Friedrich A.: »Rockmusik. Ein Mißbrauch von Heeresgerät«, in: Charles Grivel (Hrsg.): Appareils et machines a répresentation. MANA, Mannheimer Analytica 8 (1988), S. 87-102. Licklider, Joseph C. R.: »Man-Computer Symbiosis«, in: IRE Transactions on Human Factors in Electronics, HFE-1 (1960). (Reprint digital, Systems Research Center, Palo Alto 1990). Licklider, Joseph C. R.: »The Computer as a Communication Device«, in: Science and Technology, April (1968). (Reprint digital, Systems Research Center, Palo Alto 1990). Metropolis, Nicholas/Howlett, Jack/Rota, Gian-Carlo (Hrsg.): A History of Computing in the Twentieth Century. New York, London: Academic Press 1980. Morse, Philipp E./Kimball, George E.: Methods of Operations Research. New York: Wiley, Technology Press MIT 1951. Nietzsche, Friedrich: Werke in drei Bänden. München: Carl Hanser Verlag 1954. Pias, Claus: »Spielen für den Weltfrieden«, in: Frankfurter Allgemeine Zeitung, 8. August 2001. Pias, Claus: ComputerSpielWelten. München: sequenzia 2002.
Die Pflichten des Spielers
341
Pias, Claus: »Video-Spiel-Computer. Episoden der Informationsgesellschaft«, in: Irmela Schneider/Christina Barz/Isabell Otto (Hrsg.): Medienkultur der 70er Jahre. Information/Kommunikation. Wiesbaden: Westdeutscher Verlag 2003. Rowell, J. T./Streich, E. R.: »The SAGE system training program for the Air Defense Command«, in: Human Factors, October 1964, S. 537-548. Schiller, Friedrich: Sämtliche Werke, Bd 5. München 1962. Slater, Robert: Portraits in Silicon. Cambridge: MIT Press 1987. Stroud, John: »The Psychological Moment in Perception«, in: Claus Pias (Hrsg.): Cybernetics/Kybernetic. The Macy-Conferences 1946-1953. Berlin: Berliner Wissenschafts-Verlag 2003. The Story of the PING Program: http://ftp.arl.army.mil/~mike/ping.html (15.2.2005). Vogl, Joseph: »Staatsbegehren. Zur Epoche der Policey«, in: DVjs, 74 (2000). von Kleist, Heinrich: Werke und Briefe in vier Bänden, Bd. 2. Berlin, Weimar 1978. Woolley, Benjamin: Die Wirklichkeit der virtuellen Welten, Basel/Boston/Berlin 1994.
Britta Schinzel
Das unsichtbare Geschlecht der Neuen Medien
Einleitung Informatik und die Computerkultur einschließlich der Open-SourceCommunity bilden eine weitgehend männliche Lebenswelt, die sich immer noch nahezu unter Ausschluß der Frauen konstituiert. Dies bringt einseitige Prägungen des Fachs und der informationstechnischen Artefakte mit sich, die aber gerade durch die Verschlossenheit in der Technik als Black box meist unsichtbar bleiben. Doch sind die Wirkungen der anschließend vergesellschafteten Informationstechnik groß: neue Regelungen bilden sich hier heraus, bereits bestehende Ordnungen werden neu strukturiert (e-Governance1), auch zum Vor- oder Nachteil der einen oder anderen gesellschaftlichen Gruppe. Vergeschlechtlichungen können sich, vermittelt über die definierenden und entwickelnden Subjekte, in Strukturen der Profession und der Wissenschaft, durch symbolische Zuordnungen und durch Software, hier wieder auf symbolischer und struktureller Ebene, und durch den informell entstehenden »Code«2 als e-Governance in der Gesellschaft herausbilden. Als selbstverständlich angenommene Strukturen und symbolische Zuordnungen in der Informatik und ihren Institutionen, wie Entwicklung (militärische Verwicklung) und Selbstdefinitionen der Disziplin 1 Mit dem Begriff e-Governance wird der Blick auf die Informationstechnik sowohl als Auslöser von Regulierungsproblematiken als auch als zentrales Regulierungsinstrument gerichtet. So kommt zu den traditionellen sozialen Regulierungsinstitutionen: Recht, Markt und soziale Normen, die technische Architektur, kurz der Code (Lessig 2001), hinzu, insofern diese spezifische soziale Ausgestaltungen der Techniknutzung nach sich zieht. Vgl. Lawrence Lessig: The Future of Ideas. The Fate of the Commons in a Connected World, N. Y.: Vintage Books 2001. 2 Ebd.
344
Britta Schinzel
(als Ingenieursdisziplin, die auf Männlichkeit anspielt), Arbeitsstrukturen in DV-Berufen oder die Repräsentationen im Internet verschleiern ihre »Genderlast«3. Die Sichtweisen der Herstellenden von Software finden in deren Produkte Eingang, ohne daß diese für die Nutzenden offensichtlich werden. Es ist gerade eine Eigenschaft von Technik, daß in ihr sozial wirksame Entscheidungen sowohl verfestigt als auch gleichzeitig unsichtbar werden. Mit überwiegend männlichen Entwicklern werden deren Weltsichten in Software eingebacken und dort versteckt. Umgekehrt finden auch Realitäts- oder Handlungsausschnitte, die üblicherweise unsichtbar sind, und daher in der rationalen Rekonstruktion nicht expliziert werden, keinen Eingang in Spezifikation und damit nicht in die Softwareendprodukte, was u. U. katastrophale Folgen für deren Funktionsfähigkeit haben kann oder als inadäquate eGovernance weiterwirkt. Das gilt gerade und in besonderem Maße für Software, die menschliche Arbeit unterstützt. Frauenarbeit ist typischerweise unsichtbar, nicht nur die unbezahlte Hausarbeit, sondern auch die bezahlte Sekretariatsarbeit, innerhalb derer beispielsweise die, ebenso wie die in allen Professionen und tagtäglichen Arbeiten verborgenen, sogenannten soft skills, welche in Arbeitsbeschreibungen immer noch kaum expliziert, folglich nicht nur nicht honoriert werden, sondern auch bei der Aufgabenanalyse für die Spezifikation nicht auffallen. Unsichtbares Geschlecht, sei es einem technizistischen Gestaltungswillen in androzentrischen Strukturen und Nutzbarkeiten und fehlenden entsprechenden ›weiblichen‹ bzw. diversifizierten Anteilen der Artefakte und des Codes gedankt, oder reproduziere es sich stets neu über diese Artefakte in der geschlechtsspezifischen Arbeitsteilung und den Habitus der Computerkultur, charakterisiert also die Informationstechnik und den mit verbreiteten ›Code‹ auf vielen Ebenen. Obgleich auch zum Thema gehörig, sollen hier virtuelle Identitäten, virtuelle Körper, i.e. bewegte oder unbewegte Körperdarstellungen im Netz, oder die Cyborgdiskurse nicht dargestellt werden. Stattdessen zielt der Beitrag auf die Profession Informatik und Softwareentwicklung, ihre Ausbildungsstrukturen und Methoden. Insbesondere befaßt sich der Beitrag mit unsichtbaren Barrieren des Faches für Frauen in Schule und Studium, im Internet und in der Open-Source-Community. Es werden Auswirkungen auf die hergestellte Software, auf Normie3 Cecile Crutzen: Interactie, en wereld von verschillen. Een visie op informatica vanuit genderstudies. Dissertation, Heerlen: Open Universität Niederlande 2000.
Das unsichtbare Geschlecht der Neuen Medien
345
rungen und Benutzung demonstriert. Umgekehrt werden Frauen zugeschobene Bereiche und Verantwortung in Informatik und Softwareentwicklung gezeigt. Dabei werden die Mechanismen der Steroetypisierung dargestellt und die Möglichkeiten, sie aufzubrechen, zu dekonstruieren und zu verändern.
1. Unsichtbare Schranken für Frauen durch Strukturen in Schule und Studium der Informatik Frauen studieren – anders als vordem – zunehmend nur dann Informatik, wenn ihnen schulische Kontakte mit dem Fach erspart bleiben, wenn ihnen also das Fach mit seiner Aneignung durch eine dominante Gruppe von Jungen unsichtbar bleibt. In unserer StudentInnen-Studie4 zeigte sich, daß von den jüngeren Studenten erheblich mehr einen Informatik-Kurs an der Schule besucht haben als von denen aus dem achten Semester, ein Trend, der möglicherweise auch mit dem erhöhten Angebot an Schulunterricht in Informatik zusammenhängt. Aber bei den Studentinnen war diese Tendenz nicht zu verzeichnen, ja umgekehrt, die Studentinnen gaben je jünger, desto häufiger an, kein Interesse am Informatikunterricht gehabt und das Fach auch nicht gewählt zu haben, und studieren dennoch Informatik. Tatsächlich wagen 80% der Erstsemesterinnen den Hechtsprung ins Informatik-Studium, und dies war vielleicht bei manchen die Bedingung dafür, keine Aversionen aus dem Informatik-Schulunterricht ins Studium zu tragen. Denn weil der Computer für Jungen ein Mittel zur Stabilisierung von Männlichkeit geworden ist, scheint der Informatik-Unterricht mancherorts ein früher Austragungsort für den Geschlechterkampf zu sein. In der gleichen Studie fand sich, daß auch die Lehrformen in der Informatik unsichtbare Androzentrismen beinhalten: Hinsichtlich der Vermittlungsformen erscheinen Vorlesungen und Übungen (letztere vor allem gelten den Studierenden als effektivste) im Grundstudium als adäquat, aber besonders im 2. Studienabschnitt wünschten sich vor 4 Vgl. Britta Schinzel/Karin Kleinn/Andrea Wegerle u. a.: »Das Studium der Informatik aus der Sicht der Studentinnen und Studenten«, in: Zeitschrift für Frauenforschung, 16, 3 (1998), S. 76-93; Vgl. Britta Schinzel: »Normative Verwendung feministischer Ethik in der Technik«, in: Barbara Mettler-v.-Meibohm (Hrsg.): Alltagswelten. Erfahrungen – Sichtweisen – Reflexionen. Festschrift zum 50. Geburtstag von Doris Janshen, 1996, S. 159-169.
346
Britta Schinzel
allem die Studentinnen eher Seminare, Projektgruppen und Praktika, wie sie überhaupt positive Lernerfahrungen stärker in Seminaren und in Gruppenarbeit sammeln können, die aber kaum angeboten werden. Ihre Kommilitonen hingegen ziehen auch gerne aus Vorlesungen5 im Hauptstudium Wissen, welche die Hauptvermittlungsform darstellen, die Frauen aber eher langweilen. Daß interdisziplinäre Inhalte und Zugangsweisen den Interessen von Mädchen entgegenkommen, wurde wiederholt dargestellt6 und zeigt sich deutlich an der Frauenbeteiligung in Bindestrich-InformatikStudiengängen in Deutschland.7 Auch die positive Wirkung von Kontextualisierung der Studieninhalte von Beginn des Studiums an konnte in den USA wiederholt gezeigt werden.8 Auch die Hacker-Kultur reicht auf zwei Ebenen ins Studium hinein, einmal als vorgestellte Werthaftigkeit eines Typus und Habitus, zum anderen über die Pausengespräche. Weibliche Studierende unserer Studie beschreiben sich weiterhin häufig in Kontrast zu Hackern und Hakker-Werten, sie sind eher interessiert an Gebrauch und Anwendung von Computer- und Informationstechnologie, an einordnenden strukturierenden Inhalten, Theorie, weniger aber an der Maschine selbst. Die Botschaft der dominanten Gruppen in dieser Disziplin, die definiert, was wichtig und was marginal ist innerhalb des Studiums, bringt die Frauen leider dazu, sich selbst als marginal zu definieren. Auf diese Weise wird die männliche Dominanz erneut bestätigt durch die Frauen, die sich selbst in marginalen Positionen positionieren und sich der dominanten Gruppe unterordnen. Die weiblich codierte Kultur hingegen, die die Komplexität von Rechnern in der Gesellschaft, die Relatio5 Allgemein ist bekannt, daß die Vorlesung die am wenigsten nachhaltige Vermittlungsform im Studium ist. 6 Z. B. Anne-Francoise Gilbert/Fabienne Crettaz de Roten/Elvita Alvarez: »Promotion des Femmes dans les formations supérieures techniques et scientifiques. Rapport de recherche et recommandations«, in: Observatoire EPFL Science, Politique et Société, online http://osps.epfl.ch/Fra/Recherche/promotion.html (20.10.2003); Gerdi Stewart: Die Motivation von Frauen für ein Studium der Ingenieur- und Naturwissenschaften, München: Bayerisches Staatsinstitut für Hochschulforschung und Hochschulplanung 2003, http://www.ihf.bayern.de/dateien/monographien/Monographie_67.pdf (30.8.2004). 7 Vgl. Birgit Huber/Esther Ruiz Ben/Isabelle Reiff u. a.: »Frauen in IT- und ausgewählten technischen Ausbildungen und Berufen in Baden-Württemberg«, Arbeitsbericht der Akademie für Technikfolgenabschätzung in Stuttgart, Nr. 213 (Januar 2002), S. 111. 8 Vgl. Kimberly Dawn Blum: »Gender Differences in CMC-based distance education«, in: Feminista, Vol. 2 (1998), S. 5. Online: http://www.feminista.com/archives/v2n5/ blum.html (22.8.2004); Vicky Alstrum: »What is the Attraction to Computing?« Communications of the ACM, 46, 9 (2003), S. 51-55.
Das unsichtbare Geschlecht der Neuen Medien
347
nen zu den Endbenutzenden und die menschliche Seite der SoftwareEntwicklung betont, wird eher als davon abweichend oder als Randerscheinung gewertet. Indem sie jedoch diese männliche Kultur zurückweisen und sich auf ihre eigenen Interessenfelder zurückziehen, werden die Studentinnen auch von außen her marginalisiert. Sie protestieren aber leider nicht gegen diese Marginalisierung, sondern akzeptieren sie als unausweichlich und führen sie individuell auf ihre anderen Interessen, Werte und Wahlen zurück. Die weiblichen Studierenden sehen nicht die Widersprüche und opponierenden Ideen zwischen den sehr verschiedenen Gruppen innerhalb der Informatik. Sie sehen nur ihre Ähnlichkeiten, sehen sie als einen geschlossenen Block, an dem sie nicht teilhaben können. Sie sehen nicht die wettstreitenden Alternativen und Perspektiven, sind meist auch nicht vertraut mit der Kritik und der Diskussion unter Informatikerinnen oder unter Informatikern im Allgemeinen.9 Dieser Mangel an Einsicht in die Feinstrukturen der Disziplin macht es schwierig, Strategien zu entwickeln, mittels derer die Situation der Frauen verändert werden könnte. Ihre augenblicklichen Strategien sind vor allem ihre individuellen Wahlen. Aber die Sichten und Interessen der Studentinnen müßten als Ressource in die Veränderung und Neudefinition der Informatikkultur eingebracht werden. Wie unsere Untersuchung zur Situation von Informatikstudentinnen im Zeitraum 1993-199510 ergab, vermissen Studentinnen innerhalb ihres Studiums Praxisbezüge und Integrationsleistungen der Fächer sowie die Zusammenhänge von Informatik und Gesellschaft. Auf Seiten der Lehrformen tragen das Übergewicht an Vorlesungen und der Mangel an Projektund Seminarformen dazu bei, daß die Eigenaktivität der Studierenden eher wenig angesprochen wird und so gerade die Studentinnen wenig Gelegenheit finden, ihre eigene, von der dominanten Kultur abweichende Haltung zur Geltung zu bringen und zu erproben. So wird die eigene Haltung weiterhin als abweichende erlebt, wenn nur in Vorlesungen die herrschende Lehrmeinung konsumiert wird, anstatt Gelegenheit zum Austausch und zur gegenseitigen Kritik von Sichtweisen auf die Informatik und den Computer zu bieten. 9 Vgl. Towe Hopness/Bente Rasmussen: »The Production of Male Power in Computer Science«, in: Inger V. Eriksson/Barbara A. Kitchenham/Kea G. Tijdens (Hrsg.): Women, Work and Computerization, Amsterdam: Elsevier-North Holland 1991. 10 Vgl. B. Schinzel: »Normative Verwendung feministischer Ethik in der Technik«, in: Barbara Mettler-v.-Meibohm (Hrsg.): Alltagswelten. Erfahrungen – Sichtweisen – Reflexionen. Festschrift zum 50. Geburtstag von Doris Janshen, 1996, S. 159-169.
348
Britta Schinzel
Ein sehr wichtiger Faktor bei der Frage des akademischen Einflusses von Frauen ist der Zusammenhang zwischen Selbstwahrnehmung und realer akademischer Leistung, worauf Aspekte wie soziale Schicht und Geschlecht in manchen Studien einen wichtigen Einfluß gezeigt haben.11 Die Sichtbarmachung von Perspektiven und Interessen der Studentinnen und Wissenschaftlerinnen wäre demnach eine wichtige Ressource für eine ausgeglichenere, Humanfaktoren integrierende Informatik und Softwaregestaltung, zum Vorteil auch der Wirtschaftlichkeit der informatischen Produkte.
2. Unsichtbarkeit der Frauen im Internet Trotz ihrer heute paritätischen Teilnahme an der Nutzung sind Frauen im Internet als Akteurinnen wenig präsent: das gilt sowohl für die Anzahl von Homepages und deren Umfang und Aufwand als auch für die Präsenz in Newsgroups, Foren, Chatrooms oder Mailinglists. Nach B. Becker12 gilt der im Internet verbreitete Kommunikationsstil als Bedingung des Ausschlusses von Frauen. Bei der elektronischen Kommunikation im Internet werden traditionelle geschlechtsspezifische Kommunikationsstile reproduziert: jene Männer, die im Netz auffallen, neigen zur Darstellung der eigenen Position, nehmen mehr Ressourcen für sich in Anspruch und zielen mit ihren Beiträgen auf Widerspruch und Auseinandersetzung; Frauen dagegen halten sich häufiger mit Beiträgen zurück, reagieren stärker auf die Positionen anderer und zielen auf Verständigung. Der prononciert männliche Kommunikationsstil trägt Züge des Kampfes um das bessere Argument, der der meisten Frauen hat eher die Tendenz zur Relativierung der eigenen Position oder des Ausgleichs zwischen konträren Positionen. Im Internet hat dieses Ungleichgewicht die Verdrängung von Frauen aus Kommunikationssituationen zur Folge. Damit setzt sich ein altes Muster fort und wird sogar noch verschärft, insofern von Frauen im Netz nicht einmal mehr eine physische Existenz übrig bleibt, der Ausschluß gleichsam total wirksam wird.13 11 Vgl. Einar M. Skaalvik /Knut A. Hagvet: »Academic achievement and Self-concept. A analysis of causal predominance in a developmental perspective«, in: Journal of Personality and Social Psychology, 58, 2 (1990), S. 292-307. 12 Barbara Becker: Frauen im Internet. Zwischen Partizipation und Ausgrenzung, unveröffentlichtes Manuskript, 1996.
Das unsichtbare Geschlecht der Neuen Medien
349
Die neuen Kommunikations- und Kooperationsmöglichkeiten werden androzentrisch überformt, etwa indem sich männliche Kommunikationsstile in beruflichen Chats und Mailinglists herausgebildet haben, die Frauen aus den Diskussionen herausdrängen und sie mangels körperlicher Präsenz noch unsichtbarer machen als in realen fachlichen Diskursen.14 Owen weist hierzu auf das Gendering in Online-Diskussionen hin, das Frauen an der Partizipation und am Lernen hindert, zeigt aber auch erste Wege, um Frauen eine gleichberechtigte Partizipation zu ermöglichen (z. B. bei Listenmanagement, -moderation, Webdesign und Providern).15 Als weiteres Moment zur Erklärung der weitgehenden Unsichtbarkeit von Frauen gilt die im Netz zu beobachtende Tendenz zur Ästhetisierung von Information, der Frauen in diesem Kontext tendenziell weniger aufgeschlossen gegenüber stehen als Männer. Im Zeitalter der Überflutung mit Information, in der die Individuen kaum mehr in der Lage sind, die Fülle von Informationen aufzunehmen und zu verarbeiten, tritt eine Art Konkurrenz um die Aufmerksamkeit der Zielgruppen ein. Dies hat den Effekt, daß die Präsentation von Information an Bedeutung gewinnt und daß man durch Strategien des ästhetischen Stylings von Information die Aufmerksamkeit der Individuen zu fesseln versucht. Im Internet zeigt sich dies etwa in der Gestaltung von Homepages, die – oftmals über den Grad des Notwendigen und Sinnvollen hinaus – die technischen Möglichkeiten der ästhetischen Gestaltung zum Einsatz bringen, im Sinne eines ästhetischen Spiels. Mit einer individualisierten informatischen Kultur geht generell eine Tendenz zum Design, zur Inszenierung des Besonderen, zur Performance einher, ja dies wird charakteristisch für den Umgang mit Information im Multimedia-Zeitalter. Insofern die narzißtisch-stilisierte Präsentation von Informationen in der Öffentlichkeit traditionell eher männlich kodiert ist und der weibliche Umgang mit Information demgegenüber dazu neigt, nach 13 Vgl. ebd. 14 Vgl. B. Becker: Frauen im Internet; K. D. Blum: »Gender Differences in CMC-based distance education«; Margit Pohl/Greg Michaelson: »I don’t think that’s an interesting dialogue. Computer-Mediated Communication and Gender«, in: Frances Grundy/Doris Köhler/Veronika Oechtering/Ulrike Petersen (Hrsg.): Women, Work and Computerization: Spinning a Web from Past to Future, Berlin, Heidelberg, New York: Springer 1997, S. 137-145. 15 Vgl. Christine Owen: »Women in Computer Mediated Discussions«, in: Ellen Balka/ Richard Smith (Hrsg.): Women, Work and Computerization. Charting a Course to the Future, Dodrecht, Boston: Kluwer Academic Pub 2000, S. 182-190.
350
Britta Schinzel
Kriterien der Brauchbarkeit und Nützlichkeit in den Anwendungskontexten zu fragen, stehen Frauen dem im Netz geübten ästhetisierenden Umgang mit Information eher kritisch gegenüber und ziehen sich zurück. Da dies auch für Frauen aus der Profession Informatik und Softwareentwicklung zutrifft, verstärkt sich der, durchaus falsche, Eindruck einer geschlossenen männlichen IT-Kultur und -profession.
3. Die Open-Source-Community In der Informatik wie in der Hackerkultur werden kommandoorientierte Sprachen und Anweisungen, etwa in Betriebssystemen wie UNIX und LINUX, gegenüber graphischen Nutzungsoberflächen und auf Maus und Fenstern basierten Techniken der kommerziellen Standardsoftware bevorzugt. Dies hat gute Gründe, und der offene Programmcode der Open-Source-Software ist auch offen für Fehlerbereinigungen, individuelle Anpassung und Modifikationen, die GNU Public Licence garantiert kostenfreien Zugang und Gebrauch. Demgegenüber ist kommerzielle Software anwendungsstarrer und teuer und erlaubt Firmen über deren entsprechend gestaltete Lizenzverträge die Kontrolle von Benutzenden (Microsoft). Unverständlich bleibt deshalb, warum nicht alle Menschen offene Software nutzen. Dies hängt, so meine These, mit einem hoch narzißtisch besetzten unsichtbaren Code (im Sinne von e-Governance) von ethischen Ansprüchen und solchen an Computerkompetenz, bei gleichzeitiger Abwertung der der OSCommunity fernen Nutzenden (die sich in Ausdrücken, wie DAU = dümmster anzunehmender User, äußern) zusammen, der Alltagstauglichkeit und Nutzungsfreundlichkeit für alle, nicht nur für die OSCommunity, zurückstellt und das Feld damit den großen Firmen überläßt. Integrierte Software und intuitiv zugängliche bzw. durch WIMP(Windows, Icons, Menue, Pointer)-Erfahrungen bereits vorgeprägte Nutzungsgestaltungen bleiben daher in kommerzieller Hand, werden durch Patente als solche verfestigt und werden trotz Kosten, trotz Fehlerhaftigkeit, Starre und Inadäquatheit der Benutzung von der breiten Masse genutzt. Die Abgrenzungsmechanismen der OS-Community sind in mehrfacher Weise mit Genderlast beladen: einmal da Computerkompetenz und Hackertum, die in dieser Community über Kommando-basierte Programmierung und Benutzung symbolisch werthaft aufgeladen und
Das unsichtbare Geschlecht der Neuen Medien
351
real als Mittel der Exklusion eingesetzt werden, mehr noch über die Tatsache, daß es sich bei der Entwicklung von OS weitgehend um Freizeitarbeit handelt, wofür Frauen wegen ihrer zusätzlichen Familienarbeit wenig Zeit (und auch wegen der hoch narzißtischen Besetzung wenig Lust) haben. Werthaltungen und Narzißmus bleiben ihren Trägern oft verborgen, und so geriert sich hier eine männliche Freizeitberufskultur, die NutzerInnen außerhalb ihrer selbst abqualifiziert und weitgehend unter sich bleibt. Will die OS-Community einen größeren Verbreitungserfolg ihrer Produkte erreichen, so wird sie auch bei der Entwicklung andere Sichtweisen und Kompetenzen integrieren müssen, die dann wirklich nützlich für die gesamte Gesellschaft und für den Kampf gegen die kommerziellen Marktführer wären.
4. Gendering in informatischer Produktentwicklung und deren Auswirkungen: Gender inadäquate Übergeneralisierung, Normierung, Standardisierung Nach Judy Wajcman ist auch in den ›harten und objektiven‹ Fächern der Einfluß androzentrischer Denkmuster nachweisbar, verfolgbar insbesondere dann, wenn nicht nur das fertige Produkt betrachtet wird, sondern der Gesamtverlauf der Entwicklung. Diese kann in der Informatik sehr abstrakt sein, hat aber dennoch ihre Wirkungen auf das Geschlechterverhältnis.16 Die Annahme, die durch Abstraktion und Technisierung erreichte ›Objektivität‹ garantiere Wertfreiheit, verstellt jedoch dafür den Blick. Aber tatsächlich interpretieren InformatikerInnen Verhältnisse und schreiben sie in Software fest. Ihr Vorverständnis zeigt sich im Beobachten, Vergleichen, Erfragen, Einschätzen und in den auf diesen Beurteilungen basierenden Formalisierungen und Modellen und schließlich den daraus entstehenden Technofakten. Die Kategorienbildung zur Formalisierung basiert immer auf Generalisierungen, die meist Übergeneralisierungen oder Unterspezifizierungen sind. Das sind die Einfallstore für Gender- und andere Biases und entsprechende Festschreibungen und Normierungen. Das im Entwurf und
16 Vgl. Judy Wajcman: Technik und Geschlecht. Die feministische Technikdebatte, Frankfurt/M.: Campus 1994; Eileen Green/Den Pain/Jenny Owen: Gendered by Design, Washington D. C., London: Taylor and Francis 1993; Keith Grint/Rosalind Gill: The Gender-Technology Relation, Washington D. C., London: Taylor and Francis 1995.
352
Britta Schinzel
den Modellierungen von IT-Produkten eingeschriebene Gendering konnte in verschiedenen Untersuchungen nachgewiesen werden. Robertson17 konnte Übergeneralisierungen als eine Ursache von Gendering ausmachen. Auch Sherron18 zeigt die Marginalisierung von Minderheitenmeinungen und -ansichten durch deren Exklusion bei der Übergeneralisierung in KI-Systemen. Alison Adam19 wies androzentrische Strukturen in den rationalistischen Paradigmen und daraus folgend in der Rigidität von Systemen der Künstlichen Intelligenz nach. Auch eine kognitionswissenschaftlich orientierte Usability und Software-Ergonomie standardisiert Benutzungsmöglichkeiten und verschließt sie so der Diversity. Unter vielen anderen untersuchten Paul de Palma und Karasti Benutzungsschnittstellen und fanden ein Gendering mit schlechtem, frauenunfreundlichem Design und Inhalt.20 Androzentrisches Design wird in vielen Webpräsentationen festgestellt, so etwa im Interface der ersten digitalen Stadt Amsterdam21. Für den Erfolg von elektronischem Kommerz allerdings ist es notwendig, im Webdesign auch Gender-Aspekte zu berücksichtigen.22 Mit androzentischem Design und Funktionalität schließt sich der Kreis von Anziehung und Ausschluß. Da in Software organisatorische Strukturen und Wissen objektiviert und in formale Strukturen gegossen 17 Toni Robertson: »›And it’s a genderalisation. But no, it’s not‹. Women, Communicative Work and the Discourses of Technology Design«, in: Frances Grundy/Doris Köhler/ Veronika Oechtering/Ulrike Petersen (Hrsg.): Women, Work and Computerization: Spinning a Web from Past to Future, Berlin, Heidelberg, New York: Springer 1997. 18 Catherine Sherron: »Constructing Common Sense«, in: Ellen Balka/Richard Smith (Hrsg.): Women, Work and Computerization. Charting a Course to the Future, Dodrecht, Boston: Kluwer Academic Pub 2000, S. 111-118. 19 Alison Adam: Artificial Knowing. Gender and the Thinking Machine, London, New York: Routledge 1998. 20 Vgl. Paul De Palma: »Why Women Avoid Computer Science. The numbers prove that women embrace the ›precision‹ of mathematics. Could it be the ill-defined nature of computing is what drives them away?«, in: Communications of the ACM, 44, 6 (2001), S. 27-30; Helena Karasti: »What’s different in gender oriented ISD? Identifying Gender oriented Systems Development Approach«, in: Alison E. Adam/Judy Emms/Eileen Green/Jenny Owen (Hrsg.): Women, Work and Computerization. Breaking old Boundaries. Building New Forms, Amsterdam: Elsevier-North Holland 1994, S. 45-58. 21 Vgl. Els Rommes: »Gendered User Representations«, in: Ellen Balka/Richard Smith (Hrsg.): Women, Work and Computerization. Charting a Course to the Future, Dodrecht, Boston: Kluwer Academic Pub 2000, S. 137-145; dies./Ellen van Oost/Nelly Oudshoorn: »Gender in the Design of the Digital City of Amsterdam«, in: Information, Communication and Society 2, 4 (1999), S. 476-495. 22 Vgl. Julie Fisher/Annemieke Craig: »Considering the Gender of Your Web Audience«, in: Ellen Balka/Richard Smith (Hrsg.): Women, Work and Computerization. Charting a Course to the Future, Dodrecht, Boston: Kluwer Academic Pub 2000.
Das unsichtbare Geschlecht der Neuen Medien
353
werden, kann man von der Konstituierung vermeintlich objektiver Ordnungen der dabei formalisierten Realitätsausschnitte sprechen. Daß dabei allerdings nur eine von vielen möglichen Sichtweisen expliziert wird und alternative ways of knowing, also andere Wissensarten, ausgeschlossen werden, wird durch die rigide Schließung im Formalen unsichtbar gemacht.23 Inadäquate Normierungen entstehen auch durch den »pictorial turn«24, d. h. über die zunehmenden bildlichen Darstellungen in der Wissenschaft. Ein Grund dafür ist die heute erfaßbare und verarbeitbare Komplexität von Datenmengen, die u. a. durch informationstechnische Verfahren ermöglicht wurde, und die oft die kognitiven Möglichkeiten des Menschen übersteigen und deshalb einer Rückholung in die Anschauung bedürfen. Die gegenwärtige Re-Visualisierung naturwissenschaftlicher und Medizin-technischer (und auch mathematischer) Ergebnisse bedeutet allerdings nicht unbedingt eine Rückkehr der Anschauung des Natürlichen, sondern einer visuellen Perzeption von Virtuellem, von kompliziert konstruierten Artefakten. Die Korrespondenz mit dem Gegebenen, wie sie etwa bei medizinischen bildgebenden Verfahren, wie CT, PET, SPEC, MRI und fMRI insinuiert wird, beruht nur mehr auf Plausibilitätserwägungen und (noch) nicht auf empirischer Evidenz.25 Die verschiedenen Verfahren zum Blick in den Körper sind keine abbildenden, also keine Produkte elektromagnetischer Strahlen auf elektrochemisch präparierten Flächen wie bei der Röntgenphotographie26, sondern von auf langen, komplexen und kontingenten Wegen hergestellten Daten kompliziert errechneten Konstrukten und deren Visualisierungen. Die Invasion in den menschlichen Körper wird mit verschiedenen Problemkomplexen erkauft: Die bild23 Vgl. S. Willis: »The Moral Order of an Information System«, in: Frances Grundy/ Doris Köhler/Veronika Oechtering/Ulrike Petersen (Hrsg.): Women, Work and Computerization: Spinning a Web from Past to Future, Berlin, Heidelberg, New York: Springer 1997. 24 William John T. Mitchell: »Der Pictorial Turn«, in: Christian Kravagna (Hrsg.): Privileg Blick. Kritik der visuellen Kultur, Berlin: ID Verlag 1997, S. 15-40. 25 Vgl. Jürgen Hennig: »Chancen und Probleme bildgebender Verfahren für die Neurologie«, in: Britta Schinzel (Hrsg.): Interdisziplinäre Informatik. Neue Möglichkeiten und Probleme für die Darstellung komplexer Strukturen am Beispiel neurobiologischen Wissens, Freiburger Universitätsblätter, 3/01, Rombach, Freiburg 2001. 26 Röntgenstrahlen, die Gewebe durchdringen und Absorptionsmuster projizieren, bieten das Problem, daß sich auf dem zweidimensionalen Bild verschiedene Gebietsstrukturen überlappen oder unter dichtem Knochen verborgen sind (weiß) und so einzelne Strukturen nur sehr schwer erkennbar sind.
354
Britta Schinzel
gebenden Verfahren arbeiten mit riesigen Datenmengen und führen höchst komplexe Transformationsalgorithmen zum Segmentieren, Glätten, Entschmutzen u.s.w. durch, die das Material auch fehldeuten können. Die zunehmende Entfernung des Bildes von dem Abzubildenden, d. h. der abstrakte Charakter solcher über komplizierte Prozesse hergestellten Bilder, erhöhen mit jedem Abstraktionsschritt, jedem Ableitungsschritt und jedem Integrationsschritt die Fehleranfälligkeit, d. h. die Möglichkeit von Bild-Artefakten, die keine physiologischen Entsprechungen haben. In paradoxer Umkehrung dieser Tatsachen suggerieren die eindrucksvollen Darstellungen und weitere bildgebende Prozesse, wie Kartographierungen des Körpers, die nicht nur auf Reproduktion, sondern auch Verarbeitung, Interpretation und folgender Erzeugung basieren, einen objektiven Blick auf den Körper und damit Normierungen, die, da aus Momentaufnahmen ausgewählter Subjekte erzeugt, der zeitlichen Veränderung, z. B. der Plastizität des Gehirns, und den enormen individuellen und sonstigen Unterschieden nicht gerecht werden. Überdies gehen immer schon – und je komplizierter und abgeleiteter desto mehr – Elemente ein, die für das ›lebendige Original‹ nicht konstitutiv sind. Welche Konstrukte nun eingehen, ist nicht nur technisch bedingt, sondern auch kulturell, kontingent, beginnend mit der Anwendung und der Auswahl technischer Mittel, wie hier bei den bildverarbeitenden Methoden und Visualisierungstechniken. Daß sie Komplexität reduzieren, verstärkt die Gefahr der inadäquaten Normierung.27 Untersuchungen zum Gendering im Internet haben z. B. männliche Normierungen in medizinischer Visualisierung gezeigt.28 Die in vielen Projekten (z. B. dem Human Brain Project) durch Mittelung und Kartographierung angestrebte Herstellung des Standardkörpers geht auf Kosten der Darstellung von Unterschieden 27 Vgl. Sigrid Schmitz: »Neurowissenschaftliche Informationssysteme. Chancen und Grenzen in Datenmanagement und Wissensrepräsentation«, in: Britta Schinzel (Hrsg.): Interdisziplinäre Informatik. Neue Möglichkeiten und Probleme für die Darstellung und Intergration komplexer Strukturen in verschiedenen Feldern der Neurologie, Freiburger Universitätsblätter 153/3 (2001), S. 51-65; dies.: »Körperbilder in der Biomedizin«, in: Franziska Frei Gerlach/Annette Kreis-Schinck/Claudia Opitz/Béatrice Ziegler (Hrsg.), Körperkonzepte, Münster, New York, München, Berlin: Waxmann 2003. 28 Vgl. Carmen Masannek: »Das Human Brain Project. Hirnforschung im 21. Jahrhundert«, in: Britta Schinzel (Hrsg.): Interdisziplinäre Informatik. Neue Möglichkeiten und Probleme für die Darstellung und Intergration komplexer Strukturen in verschiedenen Feldern der Neurologie, Freiburger Universitätsblätter 153/3, 2001; Sigrid Schmitz: »Neurowissenschaftliche Informationssysteme. Chancen und Grenzen in Datenmanagement und Wissensrepräsentation«, in: ebd.
Das unsichtbare Geschlecht der Neuen Medien
355
und ist in Gefahr, inadäquate – meist männliche weiße westliche – Normierungen herzustellen und Abweichungen zu problematisieren, wenn nicht zu pathologisieren.29
5. Frauen zugeschobene Verantwortung für chaotische, verbindende, unsichtbare Arbeit in Informatik und Softwareentwicklung In verschiedenen Studien wird gezeigt, wie auch innerhalb der Informatik eine Marginalisierung von Frauenarbeit hergestellt wird, indem das ›Reine‹ – inhaltlich und methodisch streng und eng definierte Gebiete – im Zentrum der Informatik verbleiben und ›männlich‹ bewohnt und kontrolliert sind, während die marginalisierten Randbereiche Frauenarbeit sind. Letztere sind dadurch charakterisiert, daß sie näher an der realen Welt verortet sind und damit chaotische und diskontinuierliche Anteile enthalten, kombinierte Methoden (z. B. Middleware) erforderlich machen, interdisziplinäre Kompetenzen und Soft skills erfordern, gleichzeitig aber nicht wahrgenommen werden, obgleich sie das letztendliche Funktionieren und die Akzeptanz der Artefakte durch die EndbenutzerInnen sichern. Frances Grundy30 demonstriert am Beispiel ihrer eigenen Erfahrungen bei der Software- und Datenbank-Entwicklung im Bereich der Gesundheitsfürsorge, wie Unordentliches, methodisch nicht sauber zu Behandelndes, undankbare und aufwendige Arbeit und Chaotisches in Händen von Frauen verbleibt. Sie übernehmen Verantwortung für die Sicht der Nutzerinnen, kommunizieren mit ihnen und übernehmen interdisziplinäre Arbeit. Lucy Suchman31 bemerkt dazu, daß die verschiedenen Arbeitspraktiken der Beschäftigten im allgemeinen unsichtbar sind. Auch ist es ein Vorteil, daß wir uns um die Arbeit der anderen keine Gedanken machen müssen, uns aber trotzdem auf sie verlassen können. Vor allem bei Jobs im Service-Bereich gilt, daß die Arbeit umso unsichtbarer ist, je besser 29 Vgl. C. Masannek: »Das Human Brain Project«. 30 Frances Grundy: Women and Computers, Exeter: Intellect 1996. 31 Lucy Suchman: »Supporting articulation work. Aspects of a feminist practice of technology production«, in: Alison E. Adam/Judy Emms/Eileen Green/Jenny Owen (Hrsg.): Women, Work and Computerization. Breaking old Boundaries. Building New Forms, Amsterdam: Elsevier-North Holland 1994, S. 7-22.
356
Britta Schinzel
sie ausgeführt wird. Ähnliches wird auch für die Expertise durch Experten bemerkt. Beim Process engineering und Reengineering aber wird üblicherweise eine explizite Organisations-orientierte Vorgehensweise bevorzugt, welche v. a. offensichtliche Methoden und Prozeduren mit einer Anzahl vorgegebener Arbeiten enthalten, während die Ausführung der Arbeit in der Praxis vernachlässigt wird. Am Beispiel eines Organisations-Systems fand Patricia Sachs heraus, daß bei Betriebsfehlern die angestrebte Arbeitseinsparung nicht eintritt, da die menschliche Kommunikation, die als Nicht-Arbeitszeit angesehen wird, fehlt und so die Lösung des Problems verzögert wird. In der betrachteten Firma wurden schließlich Gruppentreffen eingeführt, um so die fehlende Kommunikation mit all ihren positiven Auswirkungen wieder herzustellen. Infrastrukturelles Design muß also den sozialen und formalen Gesichtspunkten Rechnung tragen. In unserer von der DFG geförderten Studie »Professionalisierung der Informatik – Chance oder Hindernis für die Beteiligung von Frauen (PROFI)« zeigte sich, daß Frauen häufig in die unbeliebten, wenn auch in großen Firmen zunehmend wichtigeren Bereiche Projektmanagement32 und Qualitätsmangement,33 das für die Zertifizierung nach ISO 9000 notwendig ist, abgedrängt werden. Die Gründe für die Allokation von Frauen in solch spezifischen Bereichen beziehen sich u. a. auf die Einstellungen, Interessen, Stereotypen und Rollenbilder, die in der alltäglichen Interaktion zwischen den Mitgliedern der Softwarefirma produziert und reproduziert werden.34 Unsere Ergebnisse zeigen trotz meist explizierter Leugnung klare Indizien dafür, daß bestimmte Teilgebiete der noch nicht abgegrenzten Profession Softwareentwicklung stereotypisiert, d. h. mit Technik und Männlichkeit konnotiert, werden und dadurch Frauen schwerer zugänglich sind, während andere Bereiche der Softwareentwicklung eher als ›sozialorientiert‹ und damit als ›geeigneter für Frauen‹ gelten, daß also ein Prozeß im Gange ist, in dem solche Stereotype und Habituskonzepte sich bilden und in dem sie sich in verschiedenen Organisationskulturen kristallisieren.
32 Stefan Berndes/Klaus Kornwachs/Uwe Lünstroth: Softwareentwicklung, Erfahrung und Innovation, Berlin: Springer 2002. 33 Wolfgang Conrad: Modernes Softwarequalitätsmanagement – Kostensenkung durch innovative Strategien. in: Geldinstitute, Nr. 3, 1998. S. 22-25. 34 Angelika Wetterer: Arbeitsteilung und Geschlechterkonstruktion. Konstanz: UVK Verlag 2002.
Das unsichtbare Geschlecht der Neuen Medien
357
Gemäß den Äußerungen der Softwareentwickler wird als ›Kern des Erfolgs‹ in der Praxis die Umsetzung im Produkt als Ingenieurs-Aufgabe, mit analytischen und systematischen Vorangehensweisen, betrachtet. Für die befragten Frauen ist hierbei entscheidend, die ›Übersetzungsarbeit‹ so zu leisten, daß der Kunde auch wirklich das bekommt, was er möchte. Für sie sind Rückfragen bzw. die Einbindung der AuftraggeberInnen oder BenutzerInnen während des gesamten Entwicklungsprozesses selbstverständlich, es werden weniger eigene Ideen durchgesetzt als vielmehr den KundInnen entsprechende entwikkelt. Die geschlechterstereotypen Selbst- bzw. Fremdbilder stimmen überein und entsprechen auch den Erwartungen der Personalverantwortlichen: Frauen werden von diesen als »strukturierter, organisierter und methodischer« und als »sozial kompetenter« bezeichnet, wodurch sie »besonders geeignet« seien für Aufgaben in der Projektleitung35, einem Bereich, der mit Moderations-, Verwaltungs- und Führungstätigkeiten in Zusammenhang gebracht wird. Solche Vergeschlechtlichung der Tätigkeiten ist auch im Zusammenhang mit dem Selbstverständnis der Branche als Dienstleistungssektor von Interesse: Wie B. Stiegler feststellt, ist es für den Einsatz sozialer Kompetenzen im Dienstleistungssektor charakteristisch, daß diese unhonoriert bleiben. Sie »gelten immer noch als im Prozess der Sozialisation oder durch Haus- und Familienarbeit erworben, werden als Bestandteil des so genannten weiblichen Arbeitsvermögens angesehen und brauchen deswegen nicht durch gezielte, strukturierte Lernprozesse hervorgebracht, gestützt oder weiter entwickelt zu werden«.36 Statt sie als objektivierbare und damit erlernbare Fähigkeiten anzusehen, werden sie in den individuellen Bereich abgeschoben. So wird die Wichtigkeit des und der Einzelnen (Persönlichkeit und Charakter) betont, seiner oder ihrer individuellen Eigenschaften für den Einfluß auf das Softwareteam, das er oder sie leiten soll.
35 Albert Endres: »Professionalität und Verantwortung in der Informatik«, in: Informatik Spektrum 26, 4 (2003), S. 261-266; Dirk Stelzer: Möglichkeiten und Grenzen des prozeßorientierten Software-Qualitätsmanagements. Habilitationsschrift vorgelegt an der Wirtschafts- und Sozialwissenschaftlichen Fakultät der Universität zu Köln. Köln 1998, S. 18. 36 Barbara Stiegler: »Berufe brauchen kein Geschlecht. Zur Aufwertung sozialer Kompetenzen in Dienstleistungsberufen«, Bonn: Forschungsinstitut der Friedrich-Ebert-Stiftung, Abt. Arbeits- und Sozialforschung 1994.
358
Britta Schinzel
Die Korrespondenz zwischen geschlechtsspezifischer Stereotypisierung und Trennung der Sichtweisen zwischen Produkt und Prozeß, Orientierung auf Code versus auf NutzerInnen bis hin zur Trennung der Aufgaben bei der Softwareentwicklung wird dadurch manifest, daß die Beteiligten sie in ihren Habitus übernehmen. Solche37 Manifestation von Stereotypen im Habitus erleichtert also deren Naturalisierung. Soziokommunikative Fähigkeiten werden dann als ›natürlich‹ weiblich betrachtet, und entsprechend sind weiblichen Arbeitskräfte in Tätigkeiten zu finden, in denen sie ihre angeblich ›natürlichen Ressourcen‹ umsetzen können. Überdies werden nach Kanter38 Personen mit Minderheitenstatus (tokens) leichter stereotypisiert, weil sie durch die fehlende Gruppenzugehörigkeit einer Ausnahmerolle zugeschrieben werden, d. h. daß Frauen in ihrer Minderheitssituation als Softwareentwicklerinnen ›Objekt der Stereotypie‹ bzw. Ziel geschlechtsstereotypischer Vorstellungen in der Gruppe werden.39 Für diese ›tokens‹ ist es auch umgekehrt wesentlich wahrscheinlicher, da einfacher, sich bestehenden Stereotypen anzupassen, als ihnen zu widerstehen und sich ›erwartungsgemäß‹ zu verhalten, um Konflikte zu vermeiden. Frühere Untersuchungen haben belegt, daß Frauen ambivalente Selbstüberzeugungen bewältigen müssen, wenn sie in männlich geprägten Berufen tätig sind, denn das dominierende Bild in solchen Berufen ist mit dem traditionellen Frauenbild bzw. mit den geschlechtsspezifischen Rollenerwartungen in diesen Kontexten nicht harmonisierbar.40 Ansprüche an die Weiblichkeits- und die Berufsrolle widersprechen sich und lassen sich daher nur als dauernde Gratwanderung bewältigen bzw. erscheinen von außen als doppelte Nichterfüllung im Rahmen der »Habitusambivalenz«, gegen die Frauen 37 Pierre Bourdieu: »Die männliche Herrschaft«, Frankfurt/M.: Suhrkamp, 1997. S. 159. 38 Rosabeth Moss Kanter: »Some effects of proportions on group life. Skewed sex ratios and responses to token women«, in: American Journal of Sociology. Vol. 82, Nr. 5 (1977), S. 965-990. 39 Über die Möglichkeit einer ausgewogenen Gruppenstruktur kommentieren Janshen und Rudolph: daß »Menschen […] mit der Verankerung in einer Anteilsgruppe von mindestens 15% ein ›normales‹ und solidarisches Gruppenverhalten« entwickeln. Doris Janshen/Hedwig Rudolph: Ingenieurinnen. Frauen für die Zukunft, Berlin/New York: Walter de Gruyter 1987, S. 13. 40 Ulrike Teubner: Neue Berufe für Frauen. Modelle zur Überwindung der Geschlechterhierarchie im Erwerbsleben. Frankfurt/M. 1989; D. Janshen und H. Rudolph 1987; Renate Kosuch: Beruflicher Alltag in Naturwissenschaft und Ingenieurswesen. Eine geschlechtsvergleichende Untersuchung des Konflikterlebens in einer Männerdomäne. Weinheim: Deutscher Studienverlag 1994.
Das unsichtbare Geschlecht der Neuen Medien
359
in solchen Situationen verschiedene Strategien zwischen Überanpassung an den technischen Habitus und Übererfüllung der weiblichen Rollenansprüche entwickeln.41 Diese Habitusambivalenzen zeigen sich auch bei den Befragten der genannten DFG-Studie klar. Mit deutlich abwertendem Unterton bezeichnet einer der Personalverantwortlichen Frauen, die in der Softwareentwicklung, also Männern zugeschriebenen Bereichen, arbeiten, als ›männlich‹, und ›unweiblich‹. Doch auch unsere Softwareentwicklerinnen inkorporieren diese Ambivalenzen, und zwar im Bezug auf ›Technik‹ auf jeweils ähnliche Weise. Erleichtert durch einen diffusen Technikbegriff42 und die damit verbundenen unklaren Vorstellungen darüber, was ›technisch‹ sei und was nicht, distanzieren unsere befragten Informatikerinnen ihre eigene Tätigkeit von einer technischen und äußern die Diskrepanzen zwischen ihrer Selbstdefinition und der Außensicht beispielsweise so: »… finde ich meinen Beruf relativ untechnisch […], wenn ich aber meinen Beruf erklären soll, würde ich relativ viel von Technik sprechen.« Im Zusammenhang mit den als Selbstverständlichkeit angenommenen »neuen Grundformen der Arbeit«, die Anpassung an stets wechselnde Anforderungen, beliebige Verfügbarkeit und Selbstausbeutung als individuelles Schicksal nimmt43, entpuppt sich auch das aktuelle Credo der Flexibilität in der IT-Branche, v. a. in kleinen Softwarefirmen, als Maskierung von Differenzierungsprozessen, die sich in Bezug auf Geschlecht, Alter, Qualifikation und die Lebenssituation der MitarbeiterInnen ausbilden. Die Vereinbarkeit von Familie und Beruf erscheint somit als überflüssig, ebenso wie Investitionen in die Weiterbildung der MitarbeiterInnen, weil sie deren individuellen Möglichkeiten überlassen wird. So kommt Acker zu dem Schluß: es »wird mit der neuen Ökonomie, die einigen Frauen Zutritt zu ihren Reihen erlaubt, insgesamt eine neue hegemoniale Vorstellung von Männlichkeit entwikkelt, so wie es eine faktische Männerdominanz in den Bereichen Informationstechnologien, Computer und Finanzen gibt«.44 41 D. Janshen und H. Rudolph 1987 229 ff.; U. Teubner 1989; Ulrike Erb: Frauenperspektiven auf die Informatik. Informatikerinnen im Spannungsfeld zwischen Distanz und Nähe zur Technik. Westfälisches Dampfboot: Münster 1996; Janine Berg-Peer: Ausschluß von Frauen aus den Ingenieurwissenschaften. Berlin 1981, S. 107 ff; R. Kanter 1977. 42 U. Erb 1996. 43 Vgl. Andrea Baukrowitz/Andreas Boes: Neue Arbeitskrafttypen in der IT-Industrie. Vortrag am 21.06.2000 an der TU Chemnitz. In: http://staff-www.uni-marburg.de/boes/ texte/ARB-IT4.html (17.06.2002).
360
Britta Schinzel
Als Vermeidungsstrategien gegen eine Feminisierung der Profession sind somit paradoxe und widerspruchsvolle Strategien erkennbar, ausgedrückt nach dem oft in einem Atemzug geäußerten Motto mancher männlichen Personalverantwortlichen: ›Soft skills sind das Wichtigste überhaupt! Aber man hat sie von Natur aus oder man hat sie nicht! Wir wählen unsere Beschäftigten natürlich nur nach Fähigkeiten im Bereich von Formalisierung und Technik aus (und nicht nach integrierten formal-technischen und sozialen Kompetenzen). Gut wäre jedoch, Soft skills zusätzlich zu trainieren!‹ Die Betonung der Priorität formal-technischer Kompetenzen (und Habitus, denn sie gehören immer mit zum kompetenten Eindruck) paßt zum männlichen Habitus in der Informatik, und die Naturalisierung sozialer Kompetenzen erlaubt die Abwehr solcher Anforderungen an Männer.
6. Sichtbarkeit verhilft zu Degendering Vorgeschlagene Auswege für ein Degendering von Software und Informationssystemen setzen an folgenden Punkten an. Der Gefahr der Schließung können Systeme einmal durch die Erhebungsmethoden entgehen. Untersuchungen von Arbeits- und Organisationspraktiken zeigen, daß die unterschiedlichen Vorgehensweisen bei der Aufgabenermittlung Auswirkungen auf die Qualität und Adäquatheit des Designs haben:45 einmal eine explizite organisationsorientierte Vorgehensweise, die vor allem die offensichtlichen Methoden und Prozeduren berücksichtigt, die Serien vorgegebener Arbeiten enthalten, und auf der anderen Seite die stillschweigende tätigkeitsorientierte Vorgehensweise, eine holistische Sichtweise, die die tatsächlichen Arbeitspraktiken und das stillschweigende Wissen (Tacit knowledge) mit untersucht. Die Ausführung in der Praxis, die die tätigkeitsorientierte Analyse untersucht, wird beim Business Process Reengeneering meist außer Acht gelassen, die konkret durchzuführende Arbeit nicht untersucht (wie z. B. anfallende 44 Joan Acker: Jenseits von Geschlecht? Diskurse zur Zukunft der Arbeit in den USA. in: Gottschall, K./Pfau-Effinger, B. (Hrsg.): Zukunft der Arbeit und Geschlecht. Diskurse, Entwicklungspfade und Reformoptionen im internationalen Vergleich, Opladen 2002. 45 Vgl. Patricia Sachs: Transforming work. Collaboration, Learning, and design. Communications of the ACM, 38, 9 (1995), S. 36-44. Die diesem Artikel zugrunde liegenden Daten wurden aus der Umstrukturierung einer Telefongesellschaft gewonnen.
Das unsichtbare Geschlecht der Neuen Medien
361
Probleme, die auch mit Hilfe informeller menschlicher Netzwerke gelöst werden), da die organisationsorientierte Seite im Vordergrund steht. So sind negative Auswirkungen auf Konzeption und Realisierung von Design vorprogrammiert. Infrastrukturelles Design, das den sozialen und formalen Gesichtspunkten Rechnung trägt, muß Arbeitspraktiken etwa nach Beziehungen und Wissen aufschlüsseln. Das Design von Technologien hat in diesem Prozeß der Umstrukturierungen eine Schlüsselstellung, es sollte sich auf die Entwicklung solcher Systeme konzentrieren, die ein Lernumfeld schaffen und sich auch auf die tätigkeitsorientierte Seite konzentrieren. Lucy Suchman46 bemerkt, daß die Selbst-Präsentation auch eine Form von ›Empowerment‹ ist. Die Darstellung von Arbeit aber ist immer eine Interpretation, die von Interessen und Zwecken der internen oder externen Beobachter geleitet ist. System-Designer sollten deshalb reflexiv mit den Bildern und Berichten über Arbeitspraktiken umgehen. Die Darstellung umfaßt je nach Zweck eine bestimmte Auswahl an Gesichtspunkten, andere, irrelevant erscheinende werden vernachlässigt, was nicht geleugnet werden sollte. Auch die Darstellung selber kann verschiedenen Deutungen je nach Position und Interesse der Betrachtenden unterliegen. Dies gilt sogar für – vermeintlich – objektive Darstellungen wie Videoaufnahmen, Fotos und andere bildgebende Verfahren. Zentrales Moment für das System-Design in der Darstellung von Arbeitsabläufen ist die Entwicklung von Technologien zur Koordination und Kontrolle von komplexen, aufgeteilten Tätigkeiten. Je weniger ein System das Verhalten der Benutzenden berücksichtigt, desto weniger Funktionalität bietet es real. Neuere Studien zeigen so auch den Zusammenhang zwischen Koordination und Kontrolle in computerbasierten Informationssystemen. Mit der Entfernung zur beobachteten Arbeit, den Orten, Tätigkeiten und Endnutzenden steigt gleichzeitig auch das stereotype Bild, das man sich von ihr macht, auch erscheint sie einfacher. Um dies zu umgehen, berücksichtigen praxisorientierte Arbeitsdarstellungen vermehrt die Besonderheiten der angewandten Praktiken und den sozialen Charakter des stillschweigenden expliziten Arbeitswissens, das von den durch Normen vorgeschriebenen Verhaltensweisen abhängt. Die normativen Berichte über Arbeitspraktiken sind gegenüber den Tätigkeiten Idealisierungen und Typifizierungen, die aller Zufälle und Unregelmäßigkeiten beraubt sind. Die 46 L. Suchman: »Supporting articulation work«.
362
Britta Schinzel
Stärke solcher normativen Darstellungen liegt jedoch darin, daß sie die oft machtabhängigen Dialoge, in denen Design entsteht, thematisieren und sich verschiedenen Stimmen widmen. Die Anforderungsanalyse für die Repräsentation von Arbeitspraktiken kann von der Ethnologie lernen, die sich nicht als wertfrei auffaßt, sondern als historisch und politisch geprägt. Auch sollte der Dialog zwischen Benutzenden und Forschenden dadurch verstärkt werden, daß die unterschiedlichen Standpunkte berücksichtigt und Kategorien wie wahr oder falsch nicht mehr gebraucht werden. Artikulationsarbeit (Articulation work) ist wichtig, um eine Theorie des Unsichtbaren zu entwickeln, die z. B. die Unsichtbarkeit von Frauen in der Technologie-Branche untersucht. Artikulationsarbeit bedeutet, verschiedene Elemente, wie Technologien und berufliche Praktiken, zusammenzubringen. System-Design soll sich demnach an der Praxis, der Anwendung orientieren. Angesprochen werden die Kategorien geistige und manuelle Arbeit, Wissen und Routine, Management und Produktion, die meist geschlechtspezifisch angewendet werden. Fähigkeiten lassen sich so als ideologische und soziale Zuschreibung erkennen, nicht allein als eine fachliche. Anhand der Artikulationsarbeit von Flughafen-Angestellten und den (meist weiblichen, teilzeitangestellten) Beschäftigten in einer Anwaltskanzlei, die für das Überführen von Prozeßakten in eine Datenbank verantwortlich sind, wurde gezeigt, daß die geleistete Arbeit unsichtbar bleibt und als geistlos und mechanisch völlig unterschätzt und nicht anerkannt wird.47 Ina Wagner48 hat die Computerisierung in der Pflege, also eine typische Frauenarbeit mit vielen unsichtbaren Anteilen, untersucht. Die Folgen sind nicht nur Rationalisierung durch effizientere Arbeitsübergabe und Verwaltung, sondern auch Kontrollierbarkeit und Standardisierung von sehr individueller und emotiver Arbeit und Pflegebedürfnissen, die sich einer Explikation und Normierung im Grunde entziehen. In allen Bereichen sollten nicht automatisch nur Anordnungen von höherer 47 Vgl. Christel Kumbruck: »Anwendergerechtheit in der Rechtspflege. Eine empirische Studie«, Arbeitspapier Nr. 1o5, Projektgruppe Verfassungsverträgliche Technikgestaltung. Darmstadt 1993. 48 Ina Wagner: »Hard Times. The politics of women’s work in computerized environments«, in: Alison E. Adam/Judy Emms/Eileen Green/Jenny Owen (Hrsg.): Women, Work and Computerization. Breaking old Boundaries. Building New Forms, Amsterdam: Elsevier-North Holland 1994, S. 23-34.
Das unsichtbare Geschlecht der Neuen Medien
363
Stelle ausgeführt werden, es müssen im Gegenteil selbst Einschätzungen getroffen werden. In Zusammenarbeit mit den Beschäftigten wurde ein Prototyp entwickelt, der die eintönigen Arbeiten abnimmt, so daß die Beschäftigten sich vermehrt den anspruchsvollen Seiten der Erstellung der Datenbank widmen konnten. Auf diese Weise wurden neue Technologien und Arbeitspraktiken integriert. In der Analyse der Gender-Technologie-Beziehung sollte Technologie nicht als etwas Gegebenes, Invariantes angesehen werden. Nicht der Zugang zu Wissen kann das Ziel sein, sondern die Schaffung des Wissens selbst, die Theoriebildung, um die Situation von Frauen zu verbessern. Eine Design-Praxis, die auf der Anerkennung von Artikulationsarbeit beruht, setzt eine Thematisierung derselben im Design-Diskurs voraus. Außerdem könnte so die erfolgreiche Funktionsweise von Technologie in der Anwendung sichergestellt werden. Andererseits kann die von Peter Wegner49 geforderte Interaktivität auch ohne Explizierung von Tacit knowledge und unsichtbaren Arbeitsanteilen die Schließung von Systemen verhindern. Cecile Crutzen weist darauf hin, daß auch die Software-Ergonomie Vorstellungen, es gäbe ein optimales Design für die Benutzung, vortäuschen und untermauern. Sie kritisiert, daß durch im Entwurf festgelegte Entscheidungen, wie ein Handeln interpretiert und welches Handeln formal repräsentiert wird, die Interpretationsvarianz der BenutzerInnen und damit sowohl deren Subjektivität als auch die der DesignerInnen vernachlässigt wird. Erst eine Öffnung von Software-Produkten zur Mitgestaltung und zum Mit-Entwerfen auf NutzerInnenseite kann umgekehrt neue Diskursräume schaffen. Crutzen sieht die geringe Beteiligung von Frauen in der Informatik als Symptom eines tieferliegenden Machtphänomens, das in hierarchischen binären Biases sichtbar wird, z. B. im Gebrauch von Objekten zur Modellierung von Menschen und sozialen Beziehungen.50 Anhand der Begriffspaare ›ObjektSubjekt‹ und ›Entwerfen-Benutzen‹ sowie der OOD-Methode (objektorientierte Analyse und Design) zeigt sie die Geschlossenheit und damit Unbeweglichkeit in vielen Methoden der Systementwicklung auf, die auf der Illusion von Objektivität, Neutralität und der Negierung 49 Peter Wegner: »Why Interaction is More Powerful than Algorithms«, in: Communications of the ACM, 40, 5 (1997), S. 81-91. 50 Cecile Crutzen/Jack F. Gerrisen: »Doubting the Object World«, in: Ellen Balka/ Richard Smith (Hrsg.): Women, Work and Computerization. Charting a Course to the Future, Dodrecht, Boston: Kluwer Academic Pub 2000.
364
Britta Schinzel
von Macht beruhen. Die dekonstruktivistischen Ansätze der GenderForschung können hier nicht nur einen kritischen Beitrag zur Sichtbarmachung und Auflösung starrer Dichotomien leisten, sondern auch konstruktiv durch Öffnung der Benutzung, durch von Nutzenden gestaltbare Interaktivität zu adäquaterer und damit auch besser verkäuflicher Software führen.
Literatur Acker, Joan: Jenseits von Geschlecht? Diskurse zur Zukunft der Arbeit in den USA. in: K. Gottschall,/B. Pfau-Effinger (Hrsg.): Zukunft der Arbeit und Geschlecht. Diskurse, Entwicklungspfade und Reformoptionen im internationalen Vergleich, Opladen 2002. Adam, Alison: Artificial Knowing. Gender and the Thinking Machine, London, N. Y.: Routledge 1998. Alstrum, Vicky: »What is the Attraction to Computing?«, in: Communications of the ACM, 46, 9 (2003), S. 51-55. Balka, Ellen: »Sometimes Texts Speak Louder Than Users. Locating Invisible Work Through Textual Analysis«, in: Frances Grundy/Doris Köhler/ Veronika Oechtering/Ulrike Petersen (Hrsg.): Women, Work and Computerization. Spinning a Web from Past to Future, Berlin, Heidelberg, New York: Springer 1997, S. 163-175. Balka, Ellen: »Participatory design in women’s organizations. The social world of organizational structure and the gendered nature of expertise«, in: Gender, work and organizations, Vol. 4, Nr. 2, April (1997), S. 99-115. Baukrowitz, Andrea/Boes, Andreas: Neue Arbeitskrafttypen in der IT-Industrie. Vortrag am 21.06.2000 an der TU Chemnitz, in: http://staffwww.uni-marburg.de/boes/texte/ARB-IT4.html (17.06.2002). Becker, Barbara: Frauen im Internet. Zwischen Partizipation und Ausgrenzung, unveröffentlichtes Manuskript 1996. Berg-Peer, Janine: Ausschluß von Frauen aus den Ingenieurwissenschaften. Berlin 1981. Berndes, Stefan/Kornwachs, Klaus/Lünstroth, Uwe: Softwareentwicklung, Erfahrung und Innovation, Berlin: Springer 2002. Blum, Kimberly Dawn: »Gender Differences in CMC-based distance education«, in: Feminista, Vol. 2 (1998), S. 5, online: http://www.feminista.com/archives/v2n5/blum.html (22.8.2004). Bourdieu, Pierre: »Die männliche Herrschaft«, Frankfurt/M.: Suhrkamp, 1997. Clement, Andrew: »Looking for the designers. Transforming the ›invisible‹ infrastructure of computerized office work«, in: Artificial Intelligence and Society, 7 (1993), S. 323-344.
Das unsichtbare Geschlecht der Neuen Medien
365
Conrad, Wolfgang: Modernes Softwarequalitätsmanagement – Kostensenkung durch innovative Strategien. in: Geldinstitute, Nr. 3, 1998. S. 22-25. Crutzen, Cecile: Interactie, en wereld von verschillen. Een visie op informatica vanuit genderstudies. Dissertation, Heerlen: Open Universität Niederlande 2000. Crutzen, Cecile/Gerrisen, Jack F.: »Doubting the Object World«, in: Ellen Balka/Richard Smith (Hrsg.): Women, Work and Computerization. Charting a Course to the Future, Dodrecht, Boston: Kluwer Academic Pub 2000. De Palma, Paul: »Why Women Avoid Computer Science. The numbers prove that women embrace the ›precision‹ of mathematics. Could it be the illdefined nature of computing is what drives them away?«, in: Communications of the ACM, 44, 6 (2001), S. 27–30. Endres, Albert: »Professionalität und Verantwortung in der Informatik«, in: Informatik Spektrum 26, 4 (2003), S. 261-266. Erb, Ulrike: Frauenperspektiven auf die Informatik. Informatikerinnen im Spannungsfeld zwischen Distanz und Nähe zur Technik. Westfälisches Dampfboot: Münster 1996. Fisher, Julie/Craig, Annemieke: »Considering the Gender of Your Web Audience«, in: Ellen Balka/Richard Smith (Hrsg.): Women, Work and Computerization. Charting a Course to the Future, Dodrecht, Boston: Kluwer Academic Pub 2000. Funken, Christiane/Hammerich, Kurt/Schinzel, Britta: Geschlecht, Informatik und Schule. Oder: Wie Ungleichheit der Geschlechter durch Koedukation neu organisiert wird, St. Augustin: Academia Verlag 1996. Gilbert, Anne-Francoise/Crettaz de Roten, Fabienne/Alvarez, Elvita: »Promotion des Femmes dans les formations supérieures techniques et scientifiques. Rapport de recherche et recommandations«, in: Observatoire EPFL Science, Politique et Société, online http://osps.epfl.ch/Fra/ Recherche/ promotion.html (20.10.2003). Green, Eileen/Pain, Den/Owen, Jenny: Gendered by Design, Washington D. C., London: Taylor and Francis 1993. Grint, Keith/Gill, Rosalind: The Gender-Technology Relation. Washington D. C., London: Taylor and Francis 1995. Grundy, Frances: Women and Computers, Exeter: Intellect 1996. Hennig, Jürgen: »Chancen und Probleme bildgebender Verfahren für die Neurologie«, in: Britta Schinzel (Hrsg.): Interdisziplinäre Informatik. Neue Möglichkeiten und Probleme für die Darstellung komplexer Strukturen am Beispiel neurobiologischen Wissens, Freiburger Universitätsblätter, 3/01, Rombach, Freiburg 2001. Hopness, Towe/Rasmussen, Bente: »The Production of Male Power in Computer Science«, in: Inger V. Eriksson/Barbara A. Kitchenham/Kea G. Tij-
366
Britta Schinzel
dens (Hrsg.): Women, Work and Computerization, Amsterdam: Elsevier-North Holland 1991. Huber, Birgit/Ruiz Ben, Esther/Reiff, Isabelle/Schinzel, Britta: »Frauen in ITund ausgewählten technischen Ausbildungen und Berufen in BadenWürttemberg«, Arbeitsbericht der Akademie für Technikfolgenabschätzung in Stuttgart, Nr. 213 (Januar 2002), S. 111. Janshen, Doris/Rudolph, Hedwig: Ingenieurinnen. Frauen für die Zukunft, Berlin/New York: Walter de Gruyter 1987. Kanter, Rosabeth Moss: »Some effects of proportions on group life. Skewed sex ratios and responses to token women«, in: American Journal of Sociology. Vol. 82, Nr. 5 (1977), S. 965-990. Karasti, Helena: »What’s different in gender oriented ISD? Identifying Gender oriented Systems Development Approach«, in: Alison E. Adam/Judy Emms/Eileen Green/Jenny Owen (Hrsg.): Women, Work and Computerization. Breaking old Boundaries. Building New Forms, Amsterdam: Elsevier-North Holland 1994, S. 45-58. Kosuch, Renate: Beruflicher Alltag in Naturwissenschaft und Ingenieurswesen. Eine geschlechtsvergleichende Untersuchung des Konflikterlebens in einer Männerdomäne. Weinheim: Deutscher Studienverlag 1994. Kumbruck, Christel: »Anwendergerechtheit in der Rechtspflege. Eine empirische Studie«, Arbeitspapier Nr. 1o5, Projektgruppe Verfassungsverträgliche Technikgestaltung. Darmstadt 1993. Kuosa, Tarja: »Masculine World disguised as gender neutral«, in: Ellen Balka/ Richard Smith (Hrsg.): Women, Work and Computerization. Charting a Course to the Future, Dodrecht, Boston: Kluwer Academic Pub 2000, S. 119-126. Lessig, Lawrence: The Future of Ideas. The Fate of the Commons in a Connected World, N. Y.: Vintage Books 2001. Markussen, Randi: »Constructing easiness. Historical perspectives on work, computerization, and women«, in: Susan Leigh Star (Hrsg.): The Cultures of Computing, Oxford: Blackwell 1995, S. 159-180. Masannek, Carmen: »Das Human Brain Project. Hirnforschung im 21. Jahrhundert«, in: Britta Schinzel (Hrsg.): Interdisziplinäre Informatik. Neue Möglichkeiten und Probleme für die Darstellung und Intergration komplexer Strukturen in verschiedenen Feldern der Neurologie, Freiburger Universitätsblätter 153/3, 2001. McDonald, Sharon/Spencer, Linda: »Gender Differences in Web Navigation«, in: Ellen Balka/Richard Smith (Hrsg.): Women, Work and Computerization. Charting a Course to the Future, Dodrecht, Boston: Kluwer Academic Pub 2000, S. 174-181. Mitchell, William John T.: »Der Pictorial Turn«, in: Christian Kravagna (Hrsg.): Privileg Blick. Kritik der visuellen Kultur, Berlin: ID Verlag 1997, S. 15-40.
Das unsichtbare Geschlecht der Neuen Medien
367
Owen, Christine: »Women in Computer Mediated Discussions«, in: Ellen Balka/Richard Smith (Hrsg.): Women, Work and Computerization. Charting a Course to the Future, Dodrecht, Boston: Kluwer Academic Pub 2000, S. 182-190. Pohl, Margit/Michaelson, Greg: »I don’t think that’s an interesting dialogue. Computer-Mediated Communication and Gender«, in: Frances Grundy/ Doris Köhler/Veronika Oechtering/Ulrike Petersen (Hrsg.): Women, Work and Computerization: Spinning a Web from Past to Future, Berlin, Heidelberg, New York: Springer 1997, S. 137-145. Robertson, Toni: »›And it’s a genderalisation. But no, it’s not‹. Women, Communicative Work and the Discourses of Technology Design«, in: Frances Grundy/Doris Köhler/Veronika Oechtering/Ulrike Petersen (Hrsg.): Women, Work and Computerization: Spinning a Web from Past to Future, Berlin, Heidelberg, New York: Springer 1997. Rommes, Els: »Gendered User Representations«, in: Ellen Balka/Richard Smith (Hrsg.): Women, Work and Computerization. Charting a Course to the Future, Dodrecht, Boston: Kluwer Academic Pub 2000, S. 137–145. Rommes, Els/van Oost, Ellen/Oudshoorn, Nelly: »Gender in the Design of the Digital City of Amsterdam«, in: Information, Communication and Society 2, 4 (1999), S. 476-495. Sachs, Patricia: »Transforming work. Collaboration, Learning, and design«, in: Communications of the ACM, 38, 9 (1995), S. 36-44. Schinzel, Britta: »Körperbilder in der Biomedizin«, in: Franziska Frei Gerlach/ Annette Kreis-Schinck/Claudia Opitz/Béatrice Ziegler (Hrsg.): Körperkonzepte, Münster, New York, München, Berlin: Waxmann 2003. Schinzel, Britta (Hrsg.): Interdisziplinäre Informatik. Neue Möglichkeiten und Probleme für die Darstellung und Integration komplexer Strukturen in verschiedenen Feldern der Neurologie, Freiburger Universitätsblätter Heft 149, 3. Heft (2001), S. 180. Schinzel, Britta: »Women’s ways of Tackling the Specification Problem«, in: AISB Quarterly. Nr. 100 (Sommer 1998), S. 18-23. Schinzel, Britta/Kleinn, Karin/Wegerle, Andrea/Zimmer, Christine: »Das Studium der Informatik aus der Sicht der Studentinnen und Studenten«, in: Zeitschrift für Frauenforschung, 16, 3 (1998), S. 76-93. Schinzel, Britta: »Normative Verwendung feministischer Ethik in der Technik«, in: Barbara Mettler-v.-Meibohm (Hrsg.): Alltagswelten. Erfahrungen – Sichtweisen – Reflexionen. Festschrift zum 50. Geburtstag von Doris Janshen, 1996, S. 159-169. Schmidt, Kjeld/Bannon, Liam J.: »Taking CSCW seriously. Supporting articulation work«, in: Computer Supported Cooperative Work, The Journal of Collaborative Computing, 1 (1992), S. 7-40. Schmitz, Sigrid: »Neurowissenschaftliche Informationssysteme. Chancen und Grenzen in Datenmanagement und Wissensrepräsentation«, in: Britta
368
Britta Schinzel
Schinzel (Hrsg.): Interdisziplinäre Informatik. Neue Möglichkeiten und Probleme für die Darstellung und Intergration komplexer Strukturen in verschiedenen Feldern der Neurologie, Freiburger Universitätsblätter 153/3 (2001), S. 51-65. Sherron, Catherine: »Constructing Common Sense«, in: Ellen Balka/Richard Smith (Hrsg.): Women, Work and Computerization. Charting a Course to the Future, Dodrecht, Boston: Kluwer Academic Pub 2000, S. 111– 118. Skaalvik, Einar M./Hagvet, Knut A.: »Academic achievement and Self-concept. A analysis of causal predominance in a developmental perspective«, in: Journal of Personality and Social Psychology, 58, 2 (1990), S. 292-307. Star, Susan Leigh: »Invisible Work and silenced dialogues in knowledge representation«, in: Inger V. Eriksson/Barbara A. Kitchenham/Kea G. Tijdens (Hrsg.): Women, Work and Computerization, Amsterdam: ElsevierNorth Holland 1991, S. 81-94. Stelzer, Dirk: Möglichkeiten und Grenzen des prozeßorientierten SoftwareQualitätsmanagements. Habilitationsschrift vorgelegt an der Wirtschafts- und Sozialwissenschaftlichen Fakultät der Universität zu Köln. Köln 1998. Stewart, Gerdi: Die Motivation von Frauen für ein Studium der Ingenieur- und Naturwissenschaften, München: Bayerisches Staatsinstitut für Hochschulforschung und Hochschulplanung 2003, online: www.ihf.bayern.de/dateien/monographien/Monographie_67.pdf (30.8.2004). Stiegler, Barbara: »Berufe brauchen kein Geschlecht. Zur Aufwertung sozialer Kompetenzen in Dienstleistungsberufen«, Bonn: Forschungsinstitut der Friedrich-Ebert-Stiftung, Abt. Arbeits- und Sozialforschung 1994. Suchman, Lucy: »Supporting articulation work. Aspects of a feminist practice of technology production«, in: Alison E. Adam/Judy Emms/Eileen Green/Jenny Owen (Hrsg.): Women, Work and Computerization. Breaking old Boundaries. Building New Forms, Amsterdam: Elsevier-North Holland 1994, S. 7-22. Suchman, Lucy: »Making Work Visible«, in: Communications of the ACM, 38, 9 (1995), S. 56-64. Teubner, Ulrike: Neue Berufe für Frauen. Modelle zur Überwindung der Geschlechterhierarchie im Erwerbsleben. Frankfurt/M. 1989. Van Oost, Ellen: »Making the Computer masculine«, in: Ellen Balka/Richard Smith (Hrsg.): Women, Work and Computerization. Charting a Course to the Future, Dodrecht, Boston: Kluwer Academic Pub 2000, S. 9-16. Wagner, Ina: »Hard Times. The politics of women’s work in computerized environments«, in: Alison E. Adam/Judy Emms/Eileen Green/Jenny Owen (Hrsg.): Women, Work and Computerization. Breaking old Boundaries. Building New Forms, Amsterdam: Elsevier-North Holland 1994, S. 23-34.
Das unsichtbare Geschlecht der Neuen Medien
369
Wajcman, Judy: Technik und Geschlecht. Die feministische Technikdebatte, Frankfurt/M.: Campus 1994. Wegner, Peter: »Why Interaction is More Powerful than Algorithms«, in: Communications of the ACM, 40, 5 (1997), S. 81-91. Wetterer, Angelika: Arbeitsteilung und Geschlechterkonstruktion. Konstanz: UVK Verlag 2002. Willis, S. »The Moral Order of an Information System«, in: Frances Grundy/ Doris Köhler/Veronika Oechtering/Ulrike Petersen (Hrsg.): Women, Work and Computerization: Spinning a Web from Past to Future, Berlin, Heidelberg, New York: Springer 1997.
Zu den Autorinnen und Autoren
Wolfgang Coy, 1947 geboren, studierte Elektrotechnik, Mathematik und Philosophie an der Technischen Hochschule Darmstadt. Nach seinem Abschluß als Diplomingenieur der Mathematik promovierte Coy in Informatik. Er übte verschiedene wissenschaftliche Tätigkeiten unter anderem an den Universitäten Dortmund, Kaiserslautern und Paris VI aus, bis er 1979 eine Professur für Informatik an der Universität Bremen übernahm. Heute am Institut für Informatik der Humboldt-Universität zu Berlin, forscht er unter anderem zu den Gebieten Digitale Medien, Informatik und Gesellschaft, Theorie der Informatik, Sozial- und Kulturgeschichte der Informatik und zu philosophischen und theoretischen Fragen der Informatik. Wolfgang Coy ist Fellow der Gesellschaft für Informatik, Mitherausgeber der Zeitschrift Informatik-Spektrum, deutscher Delegierter in der Sektion Computers and Society der International Federation for Information Processing, Mitglied der Grünen Akademie der Heinrich Böll Stiftung, Vorsitzender der zentralen Medienkommission der Humboldt-Universität und Sprecher des DFG-Forschungsverbundes »Bild-Schrift-Zahl« im Hermann v. Helmholtz-Zentrum für Kulturtechnik. Zu seinen Veröffentlichungen zählen neben vielen fachlichen Arbeiten unter anderem: Industrieroboter – Archäologie der Zweiten Schöpfung; zusammen mit L. Bonsiepen: Erfahrung und Berechnung – Zur Kritik der Expertensysteme und der von Wolfgang Coy zusammen mit Martin Warnke und Georg Christoph Tholen herausgegebene Sammelband HyperKult. Geschichte, Theorie und Kontext Digitaler Medien. http://waste.informatik.hu-berlin.de/Coy Susanne Grabowski ist wissenschaftliche Mitarbeiterin der AG Grafische Datenverarbeitung und interaktive Systeme an der Universität Bremen. Als interdisziplinär arbeitende Person in Sachen »Gestaltung digitaler Medien für Studienumgebungen« orientiert sich ihr Interesse am Wechselspiel zwischen informatischen, ästhetischen und pädagogischen Aspekten. Exemplarisch forscht sie im Projekt compArt am Gegenstand der Computerkunst und an der Gestaltung einer Studienumgebung: Das
372
Zu den Autorinnen und Autoren
Ästhetische Labor. Stichworte, die ihre Arbeit kennzeichnen, sind: Algorithmik, Ästhetik, Computerkunst, Semiotik, Hypermedien, Bildung, Didaktik, Lernen, Studienumgebungen. F. Nake/S. Grabowski: The Interface as Sign and as Aesthetic Event, in: P. Fishwick (Hrsg.): Aesthetic Computing, MIT Press 2004; S. Grabowski/M. Krauß: Vom Anschauen zum Hinschauen. Zum Lernen mit digitalen Medien am Beispiel der Computerkunst, in: B. Bachmair/C. de Witt/P. Diepold (Hrsg.): Jahrbuch Medienpädagogik 4, Leverkusen, Leske + Budrich 2004; F. Nake/S. Grabowski: Human-computer interaction viewed as pseudo-communication, in: Knowledge Based Systems 14 (2001) 441-447; M. Krauß/F. Nake/S. Grabowski: Chinese whispers. Semiotically mediating between idea and program, Proc. Symposia on Human-Centric Computing, Los Alamitos, CA: IEEE Computer Society 2001, 165-172; F. Nake/S. Grabowski: Bringing Design to Software. Bericht über eine Arbeitsgruppe der MMK 99, in: A. Heinecke (Hrsg.): Abschlußbericht der MMK’99, Gelsenkirchen 2003, 13-55 (CDROM); Multimediale Seminargestaltung. Schwerpunkt Management, Band 4, München, Sandmann 1995. Rolf Großmann, leitet zur Zeit die Kompetenzzentren »Digitale Kommunikations- und Publikationstechniken (.dok)« und »Ästhetische Strategien in Multimedia und digitalen Netzen (Schwerpunkt Audio)« an der Universität Lüneburg. Geb. 1955; Studium der Musikwissenschaft, Germanistik, Philosophie, Physik an den Universitäten Bonn, Siegen und Gießen; Promotion über »Musik als Kommunikation«, von 1990-1997 Mitarbeit im Sonderforschungsbereich 240 »Bildschirmmedien« an der Universität-GH-Siegen; Lehraufträge zur digitalen Musikproduktion, -ästhetik und Medienkunst seit 1992 an der Kunsthochschule für Medien Köln sowie den Universitäten Siegen, Hamburg und Lüneburg. Arbeitsschwerpunkte: Ästhetik der digitalen Medien; Neue Medien als Kulturtechnik; Sampling. Publikationen zur Ästhetik und Technikkultur der digitalen Medien. http://kulturinformatik.uni-lueneburg.de/grossmann/grossmann.php. Michael Harenberg, geboren 1961 in Bad Wildungen, studierte systematische Musikwissenschaft in Gießen und Komposition bei Toni Völker in Darmstadt. Er beschäftigt sich kompositorisch wie theoretisch mit computergenerierter Musik im Rahmen instrumentaler, installativer und improvisierter Musik. Diverse Preise und Stipendien, internationale Vorträge und Publikationen zum Schwerpunkt »Musik und digitale Medien«. Harenberg ist Professor für Musikalische Gestaltung und Medientheorie sowie Leiter des Studiengangs »Musik und Medienkunst« an der Hochschule der Künste in Bern. Publikationen (Auswahl): »Neue Musik durch neue Technik?«, Reihe Bärenreiter Hochschulschriften, Kassel Basel London New York, 1989;
Zu den Autorinnen und Autoren
373
»Entre art et commerce: l’ordinateur dans la musique rock et pop«, in: Contrechamps 11 »Musiques Électroniques«, Editions l’age d’homme, Genève 1990; »Die Rationalisierung des Virtuellen in der Musik«, in: Konfigurationen zwischen Kunst und Medien, S. Schade/G. C. Tholen (Hrsg.), Buch und CD-ROM, Kassel 1999; Multimediales, interaktives Künstlerportrait mit Werkbeispielen und theoretischen Schriften sowie der virtuellen Klanginstallation »Persimfans«, in: »Klangkunst in Deutschland«, CD-ROM Dokumentationsreihe der DEGEM 01, Schott/Wergo 2000; »Virtuelle Instrumente im akustischen Cyberspace«, in: Bildungswerk des Verbandes Deutscher Tonmeister (Hrsg.), Bericht der 21. Tonmeistertagung Hannover 2000, München 2001, S. 970-991. Mit CD-ROM; »Virtuelle Instrumente zwischen Simulation und (De-) Konstruktion«, in: M. S. Kleiner/ A. Szepanski (Hrsg.), »Soundcultures. Über elektronische und digitale Musik«, Frankfurt/M. 2003, S. 69-94. Ute Holl, derzeit wissenschaftliche Mitarbeiterin an der Bauhaus-Universität Weimar, forscht über Wahrnehmungsgeschichte des Kinos und mediale Historiographie, Wissenschaftsgeschichte und Film. Laufendes Filmprojekt zur Kultur medizinischer Bildgebung. Publikationen: Kino, Trance und Kybernetik. Berlin, 2002. Herausgabe der Schriften Maya Derens. Choreographie für eine Kamera (zusammen mit J. Hercher), Hamburg, 1995; Suchbilder (Hrsg. mit W. Ernst und S. Heidenreich), Berlin, 2003; Textauswahl: »Space Oddity 1926: Faust. Film. Flug.« In: FAKtisch. P. Berz, A. Bitsch, B. Siegert (Hrsg.). FinkVerlag, München 2003. S. 123-135; »Beziehungsweise Zeit. Das Unbewußte anthropologischer Filme« in: Electric Laocoon. B. Siegert/R. Stockhammer (Hrsg.). Fink Verlag, München 2004; »It’s (not) an Intervention.« Anthropologische Kybernetik bei Gregory Bateson and Margaret Mead. in: Cybernetics/Kybernetik. Die Macy-Konferenzen 19461953, Bd. 2, Berlin/Zürich, diaphanes 2004. Thomas Hölscher, geb. 1944, Studium der Kunstgeschichte, Musikwissenschaft, Philosophie und Soziologie. Lehrtätigkeit an den Universitäten München und Innsbruck. Arbeitsschwerpunkte: Kunst und Musik des 20./21. Jhs., Ästhetik, Bildtheorie, elektronische und digitale Medien, Philosophie und Therapietheorie. Veröffentlichungen in diesen Bereichen, u. a.: Bild und Exzeß. Näherungen zu Goya. München 1988; The State of the Art. Zur politischen Ökonomie des Marktes für zeitgenössische Kunst (mit R. Kreissl und H. Truelzsch), Hamburg 1992 (Reemtsma); George Spencer Brown. Eine Einführung in die »Laws of Form« (mit T. Schönwälder-Kuntze und K. Wille), Wiesbaden (im Druck); Art, Nature, Artificiality–The Artificiality of Nature in Western Art. Th. Bargatzky/R. Kuschel (Hrsg.): The Invention of Art. Frankfurt/M. 1994; Logical Solipsism–Reading Wittgenstein’s Notebooks. Acta Analytica 21, 1998; »Bild« und »Gramma-
374
Zu den Autorinnen und Autoren
tik« bei Wittgenstein. K. Sachs-Hombach (Hrsg.): Bildgrammatik. Magdeburg 1999; Was ist bildnerisches Denken, Denken in Bildern? Wort und Bild bei Magritte. I. Rentschler/E. Madelung/P. Fauser (Hrsg.): Bilder im Kopf, Seelze-Velber 2003; Goodman und die Kunstgeschichte. J. Steinbrenner/O. R. Scholz/G. Ernst (Hrsg.): Systeme, Strukturen, Welten. Untersuchungen zur Philosophie Nelson Goodmans. Heidelberg 2004. Hans Dieter Huber, geb. 1953, lebt in Stuttgart. Nach einem Studium der Malerei und Graphik an der Akademie der bildenden Künste in München von 1973-1977 sowie der Kunstgeschichte, Philosophie und Psychologie in Heidelberg promovierte er 1986 im Fach Kunstgeschichte mit der Arbeit System und Wirkung. Interpretation und Bedeutung zeitgenössischer Kunst (München 1989). Danach war er als Assistent für Neuere und Neueste Kunstgeschichte am Kunsthistorischen Institut der Universität Heidelberg tätig sowie als Wissenschaftlicher Mitarbeiter an der Städtischen Kunsthalle Mannheim. 1994 habilitierte er sich mit der Arbeit Paolo Veronese. Kunst als soziales System. Von Oktober 1997 bis September 1999 Professor für Kunstgeschichte an der Hochschule für Grafik und Buchkunst, Leipzig; seit Oktober 1999 Professor für Kunstgeschichte der Gegenwart, Ästhetik und Kunsttheorie an der Akademie der Bildenden Künste Stuttgart. Von April 2000 bis März 2004 Projektleiter des Modellprojektes »Visuelle Kompetenz im Medienzeitalter« im Rahmen des von der Bund-Länder-Kommission geförderten Programms »Kulturelle Bildung im Medienzeitalter«. Von November 2001 bis Juli 2003 wissenschaftlicher Berater des EU-Projektes »404 Object Not Found. Was bleibt von der Medienkunst? Fragen der Produktion, Präsentation und Konservierung von Medienkunst«. Seit Juni 2003 Mitglied des Zentrums für interdisziplinäre Bildforschung, Magdeburg. Zu seinen wichtigsten Publikationen zählen: System und Wirkung. Interpretation und Bedeutung zeitgenössischer Kunst, 1989; Dan Graham. Interviews, Ostfildern 1997; Kunst des Ausstellens, 2002; Bild Medien Wissen, 2002; Bild, Beobachter, Milieu. Entwurf einer allgemeinen Bildwissenschaft, 2004; Paolo Veronese. Kunst als soziales System, 2005. Jochen Koubek studierte Mathematik, Informatik und Philosophie an der TUDarmstadt. Anschließend promovierte er im Fach Kulturwissenschaften bei Prof. Hartmut Böhme an der Humboldt-Universität zu Berlin. Heute arbeitet er als wissenschaftlicher Assistent bei Prof. Wolfgang Coy am Institut für Informatik der Humboldt-Universität zu Berlin. Der Schwerpunkt seiner Arbeit liegt in der Fachdidaktik der Informatik, d. h. in Fragen nach Zielen und Inhalten informatischer Bildung sowohl für Schule, Universität als auch für berufliches und privates lebenslanges Lernen. Weitere Forschungsinteressen umfassen kulturelle und gesellschaftliche Auswirkungen von Informationstechnologien sowie Mög-
Zu den Autorinnen und Autoren
375
lichkeiten interdisziplinärer Kommunikation. http://waste.informatik. hu-berlin.de/koubek Frieder Nake ist Professor für Grafische Datenverarbeitung und Interaktive Systeme an der Universität Bremen, Studiengang Informatik. Er hat Beiträge zur frühen Computerkunst geleistet. Seine Arbeiten liegen in Computergrafik, Interaktivität, Theorie der Informatik, Hypermedien und Computerkunst. Seine akademischen Stationen waren Stuttgart, Toronto, Vancouver, Bremen. Er war Gastprofessor in Wien, Oslo, Aarhus, Lübeck und Boulder (Colorado). Bibliographisches: F. Nake/A. Rosenfeld (Hrsg.): Graphic Languages. Proc. of the IFIP Working Conference on Graphic Languages. Amsterdam: North-Holland Publ. Co., 1972; Ästhetik als Informationsverarbeitung. Wien, New York: Springer-Verlag 1974; Graphik in Dokumenten (Hrsg.). Berlin, Heidelberg, New York: Springer-Verlag 1986; W. Coy/F. Nake et al. (Hrsg.): Sichtweisen der Informatik. Braunschweig, Wiesbaden: Vieweg, 1992; F. Nake/D. Stoller (Hrsg.): Algorithmus und Kunst. »Die präzisen Vergnügen«. Hamburg, Sautter & Lackmann, 1993; Die erträgliche Leichtigkeit der Zeichen. Ästhetik, Semiotik, Informatik. (Hrsg.) Baden-Baden, Agis-Verlag 1993; P. B. Andersen/F. Nake: Computing Science and Semiotics. A Fundamental Approach, im Druck. Jörg-Martin Pflüger, geb. 1948, Studium der Elektrotechnik, Mathematik und Philosophie, Promotion und Habilitation in Theoretischer Informatik. Oberingenieur an der Universität Bremen, ab 1998 Vertragsprofessor am Institut für Gestaltungs- und Wirkungsforschung der Fakultät Informatik an der TU Wien, seit Mitte 2004 Privatier. Forschung, Lehre und Publikationen in den Fachgebieten Theoretische Informatik und ›Theorie der Informatik‹, zur Kulturtheorie, Sozialpsychologie und Geistesgeschichte der Informatik, zur medialen Funktion des Computers und kulturgeschichtlichen Aspekten der Informationsvisualisierung. Neuere Publikationen: Language in Computing, in M. Dörries (Hrsg.): Experimenting in Tongues, Stanford University Press 2002; FAQ: Microsoft (zusammen mit P. Purgathofer), in A. Roesler/B. Stiegler (Hrsg.): Microsoft. Medien Macht Monopol, Suhrkamp 2002; Writing, Building, Growing. Leitvorstellungen der Programmiergeschichte; Konversation, Manipulation, Delegation. Zur Ideengeschichte der Interaktivität, beide in H. D. Hellige (Hrsg.): Geschichten der Informatik. Visionen, Paradigmen, Leitmotive, Springer 2003. Claus Pias, geb. 1967, Studium der Elektrotechnik in Aachen, der Kunstgeschichte, Germanistik und Philosophie in Bonn. Professor für »Medientechnik und Medienphilosophie« am Institut für Medienwissenschaften der Ruhr-Universität Bochum. Arbeitsgebiete: Medientheorie, Technikgeschichte, Bildwissenschaft. Veröffentlichungen u. a.: Anna Oppermann in der Hamburger Kunsthalle (mit M. Warnke/C. Wedemeyer), Ham-
376
Zu den Autorinnen und Autoren
burg 2004; Hrsg.: Hermann Bahr, Die Überwindung des Naturalismus, Weimar, VDG 2004; Hrsg.: Hermann Bahr, Zur Kritik der Moderne, Weimar, VDG 2004; Hrsg.: Zukünfte des Computers, Zürich, diaphanes 2004; Hrsg.: Cybernetics/Kybernetik. Die Macy-Konferenzen 1946-1953, 2 Bände, Berlin/Zürich, diaphanes 2003/04; ComputerSpielWelten, München, sequenzia 2002; Hrsg.: neue vortraege zur medienkultur, Weimar, VDG 2000; Hrsg. mit L. Engell/J. Vogl: Kursbuch Medienkultur, Stuttgart, DVA 1999 (2. Aufl. 2000; 3. Aufl. 2000; 4. Aufl. 2002; 5. Aufl. 2004); Hrsg.: dreizehn vortraege zur medienkultur, Weimar, VDG 1999. Uwe Pirr, geb. 1963, Informatikstudium an der Universität Bremen, 1991 Diplom, 1991-1992 wissenschaftlicher Mitarbeiter am Institut für Medienwissenschaften und Film der Hochschule für Bildende Künste Braunschweig, 1992-1996 wissenschaftlicher Mitarbeiter im Studiengang Informatik der Universität Bremen, 1996-1998 wissenschaftlicher Mitarbeiter am Institut für Informatik der Humboldt-Universität zu Berlin, seit 1998 Leiter der Abteilung Multimediaservice im Computer- und Medienservice (bis 2002 Rechenzentrum) der Humboldt-Universität zu Berlin. Veröffentlichungen (Auswahl): Zur technischen Geschichte des Rundumblicks, in: M. Warnke/W. Coy/G. C. Tholen (Hrsg.): Hyperkult – Geschichte, Theorie und Kontext digitaler Medien. Basel, 1997; Multimedia, in: Biste, Hohls (Hrsg.): Historical Social Research, Supplement No. 12. Köln, 2000. Christoph Rodatz, geb. 1968, studierte zunächst Bauingenieurwesen an der TUDarmstadt und wechselte nach dem Vordiplom 1992 an das Institut für Angewandte Theaterwissenschaft der Justus-Liebig-Universität Gießen. Dort entstanden diverse experimentelle Theaterprojekte, die unter anderem unter Anleitung von Heiner Goebbels zur Aufführung kamen. Neben seiner Theaterarbeit erstellte er vor allem auch Videokunstfilme und Videoinstallationen. Seine Arbeiten Waldgang (1994) und Hallo (1997) wurden für den Internationalen Videokunstpreis des ZKM nominiert. 2000 erhielten er und Anja Diefenbach im Rahmen des 2. Internationalen Wettbewerbs für Regie und Bühnenbild Graz den zweiten Preis für ihre Inszenierung von Parsifal – Eine Oper für Singende, Musizierende und Wandernde. Zwischen Dezember 1998 und Dezember 2001 war er Doktorand am Darmstädter Fraunhofer Institut Integrierte Publikations- und Informationssysteme. Er erforscht die Einwirkungen neuer Technologien auf Theater. 2002 erhält er ein einjähriges DFG Stipendium des Graduiertenkollegs Technisierung und Gesellschaft in Darmstadt. Auswahlbibliographie: K. Evert/C. Rodatz: Tele-Präsenz: Theater als Hyperraum, in: M. Leeker: Maschinen, Medien, Performances. Theater an der Schnittstelle zu digitalen Medien, Berlin: Alexander 2001; Simulating Net-Structures in Theatre. The Cyberstaging of Richard Wagner’s »Parsifal«, Tagungsband CAST01. Living in Mixed Realities, Birlingho-
Zu den Autorinnen und Autoren
377
ven/Bonn 2001; Theaterraum als realräumliche Hyperstruktur, in: C. Balme/M. Moninger (Hrsg.): Crossing Media: Theater – Film – Fotografie – Neue Medien, München: Epodium 2004; Navigieren, Surfen, Flanieren und das Netz, in: M. Hård/A. Lösch/D. Verdicchio (Hrsg.): Transforming Spaces. The Topological Turn in Technology Studies, Online-Publikation der internationalen Konferenz in Darmstadt, 22.24.3.2002, http://www.ifs.tu-darmstadt.de/gradkoll/Publikationen/trans formingspaces.html (Zugriff am 24.8.2004). Britta Schinzel stieg nach ihrem Studium der Mathematik und Physik in die Compilerentwicklung in der deutschen Computerindustrie ein. Von dort wechselte sie in die Theoretische Informatik an der TH Darmstadt und habilitierte sich. Im Rahmen ihrer Professur für Theoretische Informatik an der RWTH Aachen arbeitete sie in verschiedenen Gebieten der Künstlichen Intelligenz, initiierte eine Reihe interdisziplinärer Projekte mit Linguistik, Soziologie, Biologie und Medizin und begann sich im Rahmen der Lehre mit Informatik und Gesellschaft zu beschäftigen. Im Rahmen ihrer Professur für Informatik und Gesellschaft an der Universität Freiburg befaßt sie sich mit verschiedenen Themen von Informatik und Gesellschaft, der Theorie der Informatik, Grundlagen, Begriffsklärungen, Rechtsinformatik, TA, u.s.w. Ihr besonderes Augenmerk gilt einerseits den Gender Studies in Informatik und Naturwissenschaft, andererseits den Neuen Medien in der Hochschullehre in Forschung, Entwicklung und Anwendung. Veröffentlichungen aus Informatik und Gesellschaft, Genderforschung Informatik, feministischer Computerethik, E-Learning und Gender, zur theoretischen Informatik und Theorie des Lernens: B. Schinzel/J. Taeger/P. Gorny/Th. Dreier/B. Holznagel (Hrsg.): E-Learning im Hochschulverbund, Wiesbaden 2004; S. Schmitz/B. Schinzel: Grenzgänge. Genderforschung in Informatik und Naturwissenschaften, Königsdorf 2004; Gendered Views on the Ethics of Computer Professionals, International Journal of Information Ethics IJIE: http://www.ijie.org; Digitale Bilder: Symbolische Repräsentation oder offene Konstruktion? http:// www.inst.at/trans/15Nr/10_1/schinzel15.htm; Cultural differences of female enrollment in tertiary education in Computer Science, in K. Brunnstein/J. Berleur (Hrsg.): Human Choice and Computers, Boston, Dordrecht, London 2002. http://mod.iig.uni-freiburg.de/publikationen/ publikationen_schinzel. html Martin Warnke ist 1955 in Berlin geboren, hat Physik und Mathematik studiert und 1984 in theoretischer Physik promoviert. Er verantwortet das Rechen- und Medienzentrum der Universität Lüneburg, forscht und lehrt im Fach Kulturinformatik und ist einer der Veranstalter der »HyperKult«-Workshops seit 1991. Er war Sprecher der Fachgruppe »Computer als Medium« im Fachbereich »Informatik und Gesellschaft«,
378
Zu den Autorinnen und Autoren
dessen Sprecher er z. Zt. ist, in der »Gesellschaft für Informatik«. Er ist seit 2003 Kollegiat der Alcatel-Stiftung für die Informationsgesellschaft. Seine Arbeitsschwerpunkte sind: Dokumentation Bildender Kunst mit digitalen Medien, Theorie und Geschichte digitaler Medien. Er hat u. a. veröffentlicht: Das Medium in Turings Maschine, in: M. Warnke/W. Coy/C. G. Tholen (Hrsg.): HyperKult. 69-82. Basel: Stroemfeld/nexus 1997; Digitale Schreibzeuge, in: H. Kohle (Hrsg.): Kunstgeschichte digital. 171-191. Berlin: Dietrich Reimer Verlag 1997; Chr. Terstegge/M. Warnke/C. Wedemeyer: PeTAL – A Proposal of an XML Standard for the Visual Arts, in: V. Cappellini/ J. Hemsley/G. Stanke (Hrsg.): EVA 2002 Florence. 94-99. Florenz: Pitagora Editrice Bologna 2002; Digitale Archive, in: H. Pompe/L. Scholz (Hrsg.): Archivprozesse, Dumont Verlag, 2003; Virtualität und Interaktivität, in: U. Pfisterer (Hrsg.): Metzler Lexikon Kunstwissenschaft. 369-372. Weimar: J. B. Metzler 2003; U. M. Schnede/M. Warnke (Hrsg.): Anna Oppermann in der Hamburger Kunsthalle, Hamburg: Hamburger Kunsthalle 2004 (mit einer DVD von M. Warnke/C. Wedemeyer/Chr. Terstegge). Annett Zinsmeister ist seit 2003 Gastprofessorin an der Kunsthochschule Berlin-Weißensee. Sie studierte Kunst und Architektur, Diplom an der Hochschule der Künste Berlin. Seit 2001 Lehre und Promotion an der Bauhaus-Universität in Weimar und an der Kunsthochschule BerlinWeißensee. Ausstellungen und Vorträge im In- und Ausland, Veröffentlichungen u. a. in ARCH+, bauwelt, Portal-Kunstgeschichte. Ausstellungen (Auswahl): Museutopia, Karl Ernst Osthaus Museum Hagen, 2002; Urban drift – night space, Berlin, 2002; UIA – XXI World Congress of Architecture, Berlin, 2002; mediale Module, DGB – Deutscher Gewerkschaftsbund Hattingen, 2003; Designers Saturday, Galerie der Backfabrik Berlin, 2003. Publikationen (Auswahl): Plattenbau oder die Kunst, Utopie im Baukasten zu warten (Hrsg.), Hagen 2002; contructing utopia. Konstruktionen künstlicher Welten (Hrsg.), Zürich 2004; »Virtual Constructions. The standards of Utopia«, in: Thesis, Band 4, Medium Architektur. 9.internationales Bauhaus-Kolloquium, Weimar 2003; »Lebens(t)raum im Bausatz« in: G. Zimmermann (Hrsg.): Neue Rundschau: Standards. Über Bedeutung, Nutzen und Grenzen der Norm in Technik, Kunst und Gesellschaft, Frankfurt/M. 2004.
HyperKult Geschichte, Theorie und Kontext digitaler Medien
herausgegeben von Martin Warnke, Wolfgang Coy und Georg Christoph Tholen Wolfgang Coy: [email protected] II Wolfgang Hagen: Der Stil der Sourcen Martin Warnke: Das Medium in Turings Maschine Friedrich Kittler: Farben und/oder Maschinen denken Georg Christoph Tholen: Digitale Differenz Knud Böhle: Inkunablenzeit: Theoreme, Paratexte, Hypertexte Heiko Idensen: Hypertext – Fröhliche Wissenschaft? Peter Bøgh Andersen: Multimediale Phasen-Räume Hartmut Winkler: Songlines Peter Gendolla: Text-Tänze, Anagramme und Adaptionen Arnold Dreyblatt: Hypertext und Erinnerung als Performance und Installation Uwe Pirr: Zur technischen Geschichte des Rundumblicks Joachim Paech: Paradoxien der Auflösung und Intermedialität Hubertus von Amelunxen: Fotografie nach der Fotografie Rudolf Wille: Mutabor – ein Medium für musikalische Erfahrungen Rolf Großmann: Vom Klavier zum Hyperinstrument? Peter Schefe: Prolegomena zu einer Agentologie Jörg Pflüger: Distributed Intelligence Agencies Hans-Joachim Metzger: Genesis in Silico
Stroemfeld/Nexus Basel 1997 520 Seiten, zahlreiche Abbildungen, frz. Broschur ISBN 3-86109-141-0 39,00 €
Die Neuerscheinungen dieser Reihe:
F. T. Meyer Filme über sich selbst Strategien der Selbstreflexion im dokumentarischen Film
Michael Manfé Otakismus Mediale Subkultur und neue Lebensform – eine Spurensuche
Juli 2005, ca. 220 Seiten, kart., zahlr. Abb., ca. 25,80 €, ISBN: 3-89942-359-3
Juli 2005, ca. 250 Seiten, kart., ca. 10 z.T. farbige Abb., ca. 27,80 €, ISBN: 3-89942-313-5
Georg Mein, Franziska Schößler (Hg.) Tauschprozesse Kulturwissenschaftliche Verhandlungen des Ökonomischen Juli 2005, ca. 300 Seiten, kart., ca. 28,00 €, ISBN: 3-89942-283-X
Elke Bippus, Andrea Sick (Hg.) IndustrialisierungTechnologisierung von Kunst und Wissenschaft Juli 2005, ca. 250 Seiten, kart., ca. 50 Abb., ca. 26,80 €, ISBN: 3-89942-317-8
Veit Sprenger Despoten auf der Bühne Die Inszenierung von Macht und ihre Abstürze
Martin Warnke, Wolfgang Coy, Georg Christoph Tholen (Hg.) HyperKult II Zur Ortsbestimmung analoger und digitaler Medien
Juli 2005, ca. 330 Seiten, kart., ca. 28,80 €, ISBN: 3-89942-355-0
Juni 2005, 380 Seiten, kart., zahlr. Abb., 28,80 €, ISBN: 3-89942-274-0
Christina Bartz, Jens Ruchatz (Hg.) Mit Telemann durch die deutsche Fernsehgeschichte Kommentare und Glossen des Fernsehkritikers Martin Morlock
Stephan Trinkaus Blank Spaces Gabe und Inzest als Figuren des Ursprungs von Kultur Juni 2005, 352 Seiten, kart., 28,80 €, ISBN: 3-89942-343-7
Juli 2005, ca. 220 Seiten, kart., ca. 25,80 €, ISBN: 3-89942-327-5
Leseproben und weitere Informationen finden Sie unter: www.transcript-verlag.de
Die Neuerscheinungen dieser Reihe: Kai Lehmann, Michael Schetsche (Hg.) Die Google-Gesellschaft Vom digitalen Wandel des Wissens
Kay Sulk »Not grace, then, but at least the body« J.M. Coetzees Schriften 1990-1999
Mai 2005, 410 Seiten, kart., 26,80 €, ISBN: 3-89942-305-4
Mai 2005, 204 Seiten, kart., 24,80 €, ISBN: 3-89942-344-5
Uta Atzpodien Szenisches Verhandeln Brasilianisches Theater der Gegenwart
Christa Brüstle, Nadia Ghattas, Clemens Risi, Sabine Schouten (Hg.) Aus dem Takt Rhythmus in Kunst, Kultur und Natur
Mai 2005, 382 Seiten, kart., 29,80 €, ISBN: 3-89942-338-0
Holger Schulze Heuristik Theorie der intentionalen Werkgenese. Sechs Theorie Erzählungen zwischen Popkultur, Privatwirtschaft und dem, was einmal Kunst genannt wurde Mai 2005, 208 Seiten, kart., ca. 10 Abb., 24,80 €, ISBN: 3-89942-326-7
Mai 2005, ca. 330 Seiten, kart., ca. 28,00 €, ISBN: 3-89942-292-9
Birgit Bräuchler Cyberidentities at War Der Molukkenkonflikt im Internet Januar 2005, 402 Seiten, kart., 28,90 €, ISBN: 3-89942-287-2
Trias-Afroditi Kolokitha Im Rahmen Zwischenräume, Übergänge und die Kinematographie Jean-Luc Godards Mai 2005, 254 Seiten, kart., 26,80 €, ISBN: 3-89942-342-9
Leseproben und weitere Informationen finden Sie unter: www.transcript-verlag.de