Code: Zwischen Operation und Narration 9783034609333, 9783034601160

A key concept of the current theoretical discussion The process of coding is a systematic experimentation with signs,

180 73 2MB

German Pages 120 Year 2010

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
EDITORIAL
VORLÄUFIG ODER GRUNDLEGEND? - DIE CODE-METAPHER IN DER MOLEKULARBIOLOGIE
STORY TELLING WITH CODE
CODE UND MASCHINE
ARCHITEKTONISCHE CODES AUS SEMIOTISCHER SICHT
GROPIUS’ FRAGE ODER ÜBER DAS OFFENLEGEN UND VERDECKEN VON CODE IN ARCHITEKTUR UND KUNST
STIL ODER CODE - VON DEN PARADIGMEN DES ARCHITEKTONISCHEN AUSDRUCKS IN DER GEGENWART
Appendix:
Ausgewählte Literatur
Abbildungsnachweis
Biografien der Autorinnen und Autoren
Recommend Papers

Code: Zwischen Operation und Narration
 9783034609333, 9783034601160

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Code

Kontext Architektur – Grundbegriffe zwischen Kunst, Wissenschaft und Technologie Die Digitalisierung hat den Diskurs der Architektur verändert: Dieser wird mittlerweile von einer Fülle neuer Begriffe bestimmt, die bislang entweder keine oder andere Bedeutungen im Kontext der Architekturtheorie und des architektonischen Entwurfs belegten. Seine Begrifflichkeiten und Strategien werden zunehmend durch Einflüsse geprägt, die an der Schnittstelle zu wissenschaftlichen und kulturellen Vorstellungen der modernen Informationstechnologie entstehen. Vor diesem Hintergrund stellt sich die Frage: Mit welchen praktischen und vor allem auch theoretischen Konzepten kann sich die Architektur mit diesen neuen Technologien auseinandersetzen und in einen fruchtbaren, aber ebenso kritischen Dialog treten? Kontext Architektur stellt eine Auswahl jener Begriffe zur Debatte, die im aktuellen Diskurs eine zentrale Rolle spielen. Kontext Architektur ist eine Kooperation der Zürcher Hochschule der Künste ZHdK und der Professur Hovestadt für Computer-Aided Architectural Design, ETH Zürich.

In der Reihe Kontext Architektur sind bisher erschienen:

Simulation. Präsentationstechnik und Erkenntnisinstrument ISBN 978-3-7643-8685-6

Komplexität. Entwurfsstrategie und Weltbild ISBN 978-3-7643-8687-0 Muster. Ornament, Struktur und Verhalten ISBN 978-3-7643-8953-6

Code. Zwischen Operation und Narration ISBN 978-3-0346-0116-0

Kontext Architektur Eine Zusammenarbeit der ZHdK und der ETH Zürich

Code Zwischen Operation und Narration

KONTEXT ARCHITEKTUR

Herausgegeben von Andrea Gleiniger und Georg Vrachliotis

Birkhäuser Basel

Umschlag- und Layoutkonzept: Bringolf Irion Vögeli GmbH, Zürich Redaktion: Karoline Mueller-Stahl, Leipzig Reproduktion und Satz: weissRaum visuelle Gestaltung, Basel Dieses Buch ist auch in englischer Sprache erschienen: Code. Between Operation and Narration ISBN 978-3-0346-0117-7.

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechts.

© 2010 Birkhäuser GmbH Basel Postfach 133, CH-4010 Basel, Schweiz

Gedruckt auf säurefreiem Papier, hergestellt aus chlorfrei gebleichtem Zellstoff. TCF ∞ Printed in Germany ISBN 978-3-0346-0116-0

987654321

www.birkhauser-architecture.com

7 Andrea Gleiniger & Georg Vrachliotis EDITORIAL 13 Karim Bschir VORLÄUFIG ODER GRUNDLEGEND? – DIE CODE-METAPHER IN DER MOLEKULARBIOLOGIE 29 Gabriele Gramelsberger STORY TELLING WITH CODE 41 Georg Trogemann CODE UND MASCHINE 55 Claus Dreyer ARCHITEKTONISCHE CODES AUS SEMIOTISCHER SICHT 75 Georg Vrachliotis GROPIUS’ FRAGE ODER ÜBER DAS OFFENLEGEN UND VERDECKEN VON CODE IN ARCHITEKTUR UND KUNST 91 Andrea Gleiniger STIL ODER CODE – VON DEN PARADIGMEN DES ARCHITEKTONISCHEN AUSDRUCKS IN DER GEGENWART Appendix: 109 Ausgewählte Literatur 117 Abbildungsnachweis 119 Biografien der Autorinnen und Autoren

EDITORIAL Der Philosoph Friedrich Kittler hielt im Rahmen der Ars Electronica 2003 einen Vortrag mit dem Titel «Code oder wie sich etwas anders schreiben lässt».1 Darin machte er auf eine grundlegende, durch die Dominanz technowissenschaftlicher Forschungszweige jedoch zunehmend in den Hintergrund gedrängte Bedeutung des Codebegriffs aufmerksam: Codes seien – obwohl vielfach behauptet – keinesfalls nur eine «Eigenheit von Computertechnik oder Gentechnologie», sondern gehörten vielmehr «zu jeder Nachrichtentechnik, jedem Übertragungsmedium»2. Zwar betrachtete Kittler in diesem Vortrag den Codebegriff hauptsächlich aus begriffsgeschichtlicher Perspektive, doch sensibilisierte er seine damaligen Zuhörer und uns heutige Leser für das komplexe Bedeutungsspektrum einer Begrifflichkeit, die in besonderer Weise zwischen dem Technischen und dem Kulturellen oszilliert. In der Mitte des 20. Jahrhunderts und damit im Schatten der aufkommenden Computerwissenschaften hatte sich um den Philosophen Max Bense, maßgeblich beeinflusst durch Norbert Wieners Kybernetik und Claude Shannons mathematische Theorie der Kommunikation, die sogenannte Informationstheorie, ein semiotischer Diskurs gebildet, in dessen Zentrum die Begriffe «Zeichen», «Sprache», «Code», aber auch der des «Ästhetischen» standen. Die Auseinandersetzung mit dem Computercode war nicht mehr nur Mittel zum Zweck mathematischer Operationen, sondern wurde auch zu einem künstlerischen Experimentierfeld. Die Standorte der Großrechner begannen, sich in interdisziplinäre Laboratorien zu verwandeln, in denen sich vermehrt auch Künstler, Musiker und Architekten trafen, obgleich – und das war eine Besonderheit dieser Epoche – es ursprünglich Mathematiker wie Frieder Nake und Georg Nees waren, die mit dem Anspruch antraten, einen neuen Künstlertypus zu verkörpern. Mit Kittler gesprochen, lassen sich ihre auf der Grundlage von Zufallsgeneratoren entworfenen Computergrafiken als ästhetische Spuren «technischer Schriften»3 verstehen.

1 Friedrich Kittler: «Code oder wie sich etwas anders schreiben lässt», Vortrag auf der Ars Electronica, Linz, 6.–11. September 2003. Abgedruckt im Ausstellungskatalog Code. The Language of our Time, herausgegeben von Gerfried Stocker und Christine Schöpf, Linz 2003, S. 15–19, hier: S. 15. 2 Ebenda. 3 Vgl. Friedrich Kittler: Draculas Vermächtnis. Technische Schriften, Leipzig 1993.

7

Wenig später, als Antwort auf die Reduktionsanstrengungen von Funktionalismus und Internationalem Stil und maßgeblich beeinflusst durch Robert Venturi und Denise Scott Brown, wird Architektur als «Bedeutungsträger» wiederentdeckt. In den Architekturdiskursen der Postmoderne wurde der Begriff des Codes, vor allem unter dem Einfluss der Semiotik, als eine semantische Kategorie verwendet. Die Frage nach der Form wurde zu einer Frage nach Bedeutung. Der Begriff des Codes gewann für die Architektur eine neue kulturelle Mehrdeutigkeit. Mit dem Projekt für das Institut für Biochemie in Frankfurt aus dem Jahre 197 von Peter Eisenman beispielsweise wird «Code» als eine biologische Metapher für ein architektonisches Konzept adaptiert. Eisenman ist es auch, der seitdem versucht, die verschiedenen Bedeutungsfacetten des Codierens (und Codifizierens) zusammenzudenken, etwa wenn er in der City of Culture of Galicia für Santiago de Compostela einerseits auf die vor allem religiösen Traditionen der Codici im Sinne eines weltbilderschaffenden Regelwerkes rekurriert und andererseits in seiner Entwurfsstrategie mit einem informationstechnologischen Instrumentarium operiert und experimentiert.4 Im Gegensatz dazu ist «Code» heute in seiner operationalisierenden Funktion als Computercode allgegenwärtig wie nie zuvor, und das gilt in ganz besonderer Weise für die zunehmend von Algorithmen bestimmten architektonischen Entwurfsstrategien.5 Gleichzeitig tritt damit das Oszillieren des Codebegriffs zwischen den beiden Polen der Funktion und der Bedeutung in der Architektur besonders deutlich zutage. Die Frage, was diese Entwicklung im Einzelnen bedeutet, bildete für uns den Ausgangspunkt, die unterschiedlichen begrifflichen Gravitationsfelder von «Code» hinsichtlich ihrer Relevanz für die Architektur zu untersuchen. Der Architekturtheoretiker Claus Dreyer gibt in seinem Beitrag einen Überblick über das Spektrum und die historische Entwicklung jener sogenannten «design codes», die zur Grundlage vor allem der postmodernen Architekturtheorie, insbesondere der von Charles Jencks geworden sind. Mit diesem durch die Semiotik geprägten Codebegriff wird das heterogene Feld all jener zeitgenössi-

4 Vgl. Cynthia Davidson (Hrsg.): Code X. The City of Culture of Galicia, New York 2005. Luca Galofaro (Hrsg.): Digital Eisenman. An Office of the Electronic Era, Basel, Boston, Berlin 1999. 5 Vgl. Kostas Terzidis: Algorithmic Architecture, Amsterdam 2006.



Editorial

schen Konventionen der architektonischen Gestaltung beschrieben, die den unterschiedlichsten kulturellen Praktiken folgen und somit eher selten streng codifiziert vorliegen. Dreyer zeichnet dabei wesentliche Stationen der Verwendung des Codebegriffs in einem semiotisch orientierten Diskursfeld der Architekturtheorie nach und verdeutlicht, wie aus technischen, sozialen, aber auch wissenschaftlichen Entwicklungen neue Codes für die Architektur generiert und zum Ausdruck für das plurale Welt- und Selbstverständnis der jüngsten Vergangenheit, aber auch unserer derzeitigen kulturellen Befindlichkeiten werden. Diese Art der Diskussion um den Begriff des Codes und seine vielfältigen Erscheinungsformen wirft indessen ein Schlaglicht auf eine Begrifflichkeit, die seit dem frühen 19. Jahrhundert grundsätzlich zur Disposition und immer wieder zur Diskussion gestellt wurde und wird: der Begriff des Stils. Dieser wurde zwar nie ganz aus dem architekturtheoretischen Diskurs verbannt. Er war jedoch immer wieder einer ähnlichen grundsätzlichen Infragestellung und dem damit verbundenen Bedeutungsschwund ausgesetzt wie etwa der Begriff des Ornaments. In welchem Verhältnis die Begriffe «Code» und «Stil» zueinander stehen, untersucht der Beitrag von Andrea Gleiniger. Wenn es in diesem Zusammenhang um die Frage geht, inwieweit der Begriff des Codes den Begriff des Stils zu ersetzen versucht hat, dann ist damit auch die Frage verbunden, welche Art der definitorischen Tauglichkeit, die beiden Begriffe jeweils entfaltet haben und weiterhin entfalten, und welcher Art die Diskurse waren und sind, in denen diese Tauglichkeit sich zu bewähren hatte. Einen aufschlussreichen Zusammenhang liefert dabei der Paradigmenwechsel, dem ein auf die Architektur bezogener Codebegriff im Spannungsfeld von semantischer Bedeutung und algorithmischer Funktion zurzeit ausgesetzt ist. Die Postmoderne hatte «Code» programmatisch mit der Funktion des Erzählens in Verbindung gebracht; gemeint waren Konzepte der Fiktionalisierung, in denen auf je unterschiedliche Weise Geschichte und Geschichten als kontextstiftende Bezüglichkeiten architektonisch gestaltet und ganz bewusst in Szene gesetzt wurden. Gegenüber dem eher statischen Begriff von Fiktion, eröffnet der Begriff der Narration eine Perspektive auf das Prozesshafte eines Erzählvorgangs, der sich weniger über Bilder als vielmehr über Einflüsse architektonisch materialisiert. Diese neue Qualität des Narrativen hat die Philosophin Gabriele Gramelsberger im Visier, wenn sie in ihrem Beitrag der Frage nachgeht, wie aus den Tiefen des Computercodes immer neue Erzählweisen von Natur, Umwelt, Technik und Architektur möglich werden. «Story Telling with Code», wie Gramelsberger diese

9

Art des Erzählens nennt, lässt also nicht nur die Vorstellung von Narration, sondern auch die der digitalen Architekturproduktion in einem neuen Licht erscheinen. Doch bedarf es zu diesem neuen Verständnis des Geschichtenerzählens nicht auch eine neue Art des Lesens, ja sogar ein grundsätzlich neues Verständnis davon, wie Architektur wahrgenommen und entworfen werden kann? Wird, so sei an dieser Stelle durchaus kritisch formuliert, dem Computercode und somit auch der (ent)mythologisierenden Tätigkeit des Programmierens auf diese Weise nicht Allgegenwärtigkeit zugesprochen? Fest steht, so diagnostiziert der Computerwissenschaftler Georg Trogemann in seinem Aufsatz, dass Computerprogramme längst zu unverzichtbaren Assistenten avanciert sind, die maßgeblich an der Produktion neuer Erkenntnisse und Methoden beteiligt sind, etwa bei der Erfindung neuer Werkstoffe, bei komplexen Beweisführungen in der Mathematik oder bei Simulationen des Klimas. Trogemann geht deshalb den zentralen Fragen nach, wie es zur Allgegenwart der Codes kommt und welchen versteckten Einfluss sie auf die Ergebnisse unserer Arbeitsprozesse und damit auch auf die Praxis der Architektur haben. Wirft man einen kurzen Blick in die knapp 50-jährige Geschichte von Architektur und Computer, wird deutlich, wie sehr zu Beginn der 1960er Jahre der Computer für Architekten noch technologisches Neuland war und in erster Linie als ein Artefakt von Technikern für Techniker galt. Es eröffnete sich den Architekten eine ihnen fremde Welt aus Codes und Programmen, die gleichzeitig, da ihr der geheimnisvolle und verführerische Glanz des Technischen anhaftete, befremdete und faszinierte. Es stellte sich vor diesem Hintergrund jedoch zunächst die Frage nach der Bedienung und konkreten Anwendung dieser neuen Maschinen innerhalb des Entwurfsprozesses. Georg Vrachliotis geht daher von der Annahme aus, dass diese Fragestellung in der Architektur selbst eine gewisse Historizität aufweist. Er zeigt, dass sich hinter der scheinbar simplen Frage wie man einen Computer in der Architektur bedient, nicht nur zwei unterschiedliche Diskurse der Nachkriegszeit, sondern auch zwei grundverschiedene kulturelle Auffassungen von Architektur, Kunst und Technik verbergen. Angesichts des von Kittler eingangs zitierten Hinweises auf die Bedeutungsvielfalt und der von Eisenman versuchten Verschränkung unterschiedlicher Aspekte des Codebegriffs, wird deutlich, dass die grundlegende Frage, was ein Code sei, immer auch die Frage nach seiner Metaphorik beinhaltet. Über die Rolle und damit also auch über die spezifische Funktion von Metaphern «für die Erschließung und das Verständnis von Welt und als konstitutiver Bestandteil des

10

Editorial

Denkens»6 hat vor allem der Philosoph Hans Blumenberg nachgedacht. In seinen 1960 erschienenen Paradigmen zu einer Metaphorologie tut Blumenberg dies im Rahmen einer Begriffsgeschichte der Philosophie, er ist also an den Metaphern der philosophischen Sprache interessiert. Es lassen sich allerdings auch analoge Fragen hinsichtlich der Sprache anderer Disziplinen formulieren. So etwa, wenn der Philosoph Karim Bschir im Hinblick auf die Molekularbiologie, die sich den Begriff des Codes im Sinne des «genetischen Codes» ja in besonderer Weise zu eigen gemacht hat, den Gebrauch von Metaphern in den Naturwissenschaften hinterfragt. Bschir diskutiert in seinem Beitrag zwei Perspektiven auf diese Frage: Die eine geht von der Vermutung aus, dass wir Metaphern überall dort gebrauchen, «wo unser Vokabular noch nicht reif genug ist, um alle Erkenntnisse in positiver und streng rationaler Weise zu formulieren», Metaphern hier also lediglich als «sprachliche Hilfsmittel» fungieren. Die andere dagegen postuliert – mit Referenz an Blumenberg –, dass Metaphern «Grundbestände der Sprache» sind, die eine eigene Aussagefunktion besitzen und eigene Bedeutungen generieren. Und so ist es vor allem die zweite Perspektive, die sich unserer Meinung nach architekturtheoretisch fruchtbar machen lässt. Eine zentrale Aufgabe von Architekturtheorie könnte demnach sein, fortwährend an der begriffsgeschichtlichen Sichtung und Klärung, aber auch an der kritischen Revision und zugleich der Kontextualisierung dieser bedeutunggenerierenden Funktion von Metaphern zu arbeiten. Den Autorinnen und Autoren sei für ihre fundierten und speziell für dieses Buch verfassten Beiträge gedankt. Doch auch dieser Band der Reihe Kontext Architektur konnte nur aufgrund der ideellen, wie auch materiellen Unterstützung realisiert werden, die wir seitens der Zürcher Hochschule der Künste und ihrem Gründungsrektor Hans-Peter Schwarz auf der einen und der Professur für Computer-Aided Architectural Design (CAAD) an der ETH Zürich, vertreten durch Ludger Hovestadt, auf der anderen Seite erfahren durften. Wir danken beiden auf das Herzlichste. Dass die Realisierung eines solchen Projektes ohne die Unterstützung eines fach- und sachkundigen Lektorates nicht denkbar ist, versteht sich von selbst: Karoline Mueller-Stahl hat diese Aufgabe in ebenso kompetenter und geduldiger wie engagierter Weise wahrgenommen. Dass die Reihe Kontext Architektur eine so gute Aufnahme im Birkhäuser Verlag fand, verdanken wir Robert 6 Vgl. Hans Blumenberg: Paradigmen zu einer Metaphorologie, Frankfurt am Main 199 (Originalausgabe 1960).

11

Steiger, Senior Editor in der Architekturabteilung. Ihm und dem Birkhäuser Verlag gilt ebenfalls unser Dank. Wir hoffen, dass wir diese fruchtbare Kooperation, die einiges über die Potenziale eines Dialoges zwischen Architektur, Kunst, Wissenschaft und Technologie aber auch über den transdisziplinären Willen zweier Institutionen aussagt, mit weiteren Bänden der Reihe Kontext Architektur werden fortsetzen können. Andrea Gleiniger & Georg Vrachliotis

12

Karim Bschir VORLÄUFIG ODER GRUNDLEGEND? – DIE CODE-METAPHER IN DER MOLEKULARBIOLOGIE Die Frage, was genau ein Code ist, ist angesichts der großen Anzahl an unterschiedlichen Codes nicht leicht zu beantworten. Es gibt Morsecodes und Codes für Computerprogramme. Mit PIN-Codes schützen wir unsere Kreditkarten und mit geheimen Zugangscodes unsere Email-Konten. Es gibt soziale Codes und Codes, die zum Abschuss von Atomwaffen benötigt werden. Und seit rund fünfzig Jahren gibt es einen weiteren Code: den genetischen Code! Als «genetischen Code» bezeichnet man den Übersetzungsschlüssel, mit dem in Zellkernen biologischer Organismen eine Sequenz von Basen auf der DNA in eine Sequenz von Aminosäurebausteinen eines Proteins übertragen wird. Der genetische Code ordnet jeder möglichen Dreiergruppe (Triplett oder Codon) aus den vier Nukleinsäure-Basen Adenin, Thymin, Cytosion und Guanin eine der zwanzig Aminosäuren zu, aus denen die Proteine aufgebaut sind. Bei der Proteinsynthese wird also eine lange Kette von Nukleinsäure-Basen (die Bausteine der DNA) in eine lange Kette von Aminosäuren (die Bausteine der Proteine) übersetzt, und der genetische Code gibt die Regeln vor, nach denen diese Übersetzung zu geschehen hat. Inzwischen gehören die Vorstellungen, dass auf der DNA in der Sprache des genetischen Codes der Bauplan des Lebens verfasst ist und dass es eine genetische Information gibt, die jedes Individuum in zahlreichen seiner Eigenschaften determiniert, nicht mehr bloß zum Bestand irgendeines wissenschaftlichen Spezialwissens, sondern sie bestimmen zu einem erheblichen Teil unser alltägliches Bild des Menschen. Man könnte sogar sagen, dass sich der genetische Code heute als das Paradigma eines Codes etabliert hat. Das ist äußerst bemerkenswert, denn der genetische Code besitzt gerade jene Eigenschaften nicht, die wir üblicherweise einem Code zuschreiben. Wir stellen uns einen Code meistens als etwas vor, das sich Menschen ausdenken, um eine Information zu verschlüsseln oder vor ihrer unkontrollierten Weiterverbreitung zu schützen. Die verschlüsselte Weitergabe von Information steht dabei immer in einem Kontext menschlicher Absichten und Zwecke, wobei uns insbesondere der Gehalt einer Information, beziehungsweise ihre Bedeutung als schützenswert erscheint. Das wirft im Zusammenhang mit dem genetischen Code einige interessante Fragen auf: Wer hat sich den genetischen Code ausgedacht? Dient der genetische Code einem

13

Verschlüsselungszweck? Wenn ja, welchem? Und was genau ist der Gehalt oder die Bedeutung der genetischen Information? Muss man sich das Verhältnis von DNA und Protein als ein semantisches denken? Weil es in gewisser Hinsicht durchaus legitim erscheint, den für (fast) alle Organismen universell gültigen Zusammenhang zwischen den Basentripletts der DNA und den Aminosäurebausteinen der Proteine als einen «Code» zu bezeichnen, in einer anderen Hinsicht aber diesem Code wesentliche Eigenschaften dessen fehlen, was wir üblicherweise einen «Code» nennen, wird nicht selten gesagt, die Redeweise von einem «genetischen Code» oder von «genetischer Information» sei eine bloße Metapher. Wenn es jedoch zutrifft, dass es sich bei diesen Begriffen nur um Metaphern handelt, dann wäre zu erwarten, dass sie ausschließlich in populären Darstellungen der Genetik anzutreffen wären, und dass an der vordersten Front der biologischen Forschung ein weniger bildhaftes Vokabular verwendet würde. Dem ist jedoch bei weitem nicht so! Ausdrücke wie «Erbinformation», «genetischer Code», «Codon», «codierender Strang», «Translation», «Transkription», «Palindrom», «genomische Bibliothek», oder «open reading frame», welche alle auf die eine oder andere Weise einen sprachmetaphorischen Bedeutungskern in sich tragen, gehören heute zum festen Bestand der molekularbiologischen Sprache.1 Es scheint geradezu so, als hätten die zahlreichen aus der Informations- und Sprachwissenschaft entliehenen Metaphern in der Biologie eine besondere Resistenz gegen ihre Eliminierung entwickelt. Im Folgenden soll beleuchtet werden, wie diese Begriffe ihren Weg in die Sprache der Biologie gefunden haben und wie die Übertragung von Begriffen aus einer wissenschaftlichen Disziplin in eine andere – im Falle der Code-Metapher aus der mathematischen Informationstheorie in die Biologie – zur Etablierung eines innovativen Forschungsprogramms und zur Ausbildung eines eigenständigen Vokabulars geführt hat, das auch heute noch, selbst nach der vollständigen Entschlüsselung des genetischen Codes und der Sequenzierung des menschlichen Genoms, in regem Gebrauch ist.2 1 Wer an einer Erläuterung dieser Ausdrücke interessiert ist, wirft am besten einen Blick ins Stichwortverzeichnis von Jeremy M. Berg, John L. Tymoczko und Lubert Stryer: Biochemie, Heidelberg 62007. 2 Diese Übertragungsgeschichte ist von Lily Kay bereits in hervorragender Weise erzählt worden, und vieles von dem, was folgt, lässt sich bei Kay nachlesen. Sie schreibt beispielsweise: «In that postwar world order, the material, discursive, and social practices of molecular biology were transformed. Information theory, cybernetics, systems analyses, electronic computers, and simulation technologies fundamentally altered the representations of animate and inanimate phenomena. […] It is within this information

14

Karim Bschir | Vorläufig oder grundlegend? – Die Code-Metapher in der Molekularbiologie

Die Geschichte beginnt in den 40er Jahren des 20. Jahrhunderts. 194 veröffentlichte Claude Shannon seine Mathematical Theory of Communication und begründete damit die sogenannte «Informationstheorie», die Vorgängerin der Informatik.3 Das Bemerkenswerte an Shannons Theorie ist, dass sie «Information» ausschließlich als eine statistische Größe auffasst. Unter «Information» wird im Kontext der Theorie prinzipiell immer nur das Maß an Informationsgehalt verstanden, welches ein Zeichen, beziehungsweise eine Zeichenfolge, aufweist. Der Informationsgehalt eines Zeichens korreliert dabei logarithmisch mit der statistischen Wahrscheinlichkeit seines Auftretens. Je häufiger ein Zeichen vorkommt, desto geringer ist sein Informationsgehalt und umgekehrt. Die semantische Dimension, also das, wofür ein Zeichen steht, seine Bedeutung, spielt für Shannon explizit keine Rolle. Dadurch, dass sie Information als statistische Größe behandelt, hebt sich die Shannonsche Informationstheorie deutlich von anderen Theorien und alltagssprachlichen Auffassungen des Informationsbegriffes ab. Shannon entwickelte seine Theorie in den Bell Telephone Laboratories, einem industriellen Forschungsinstitut, das sich auf die Entwicklung von Anwendungen im Bereich der Elektronik, der Physik und Chemie, der Radio- und Magnetentechnik sowie der Mathematik spezialisiert hatte. Die Mathematisierung, also die statistische Quantifizierung und die damit verbundene «Entsemantisierung» des Informationsbegriffs durch Shannon stand unverkennbar im Dienste der anwendungsorientierten Forschung in den Bell Labs; und die Theorie

discourse that the genetic code was constituted as an object of study [...].» Lily E. Kay: Who Wrote the Book of Life. A History of the Genetic Code, Stanford 2000, S. 5; «In jener Nachkriegsweltordnung wurden die stofflichen, diskursiven und sozialen Praktiken der Molekularbiologie transformiert. Die Informationstheorie, die Kybernetik, die Systemanalyse, elektronische Computer und Simulationstechnologien veränderten die Repräsentationen belebter und unbelebter Phänomene auf grundlegende Weise […] Innerhalb dieses Informationsdiskurses konstituierte sich der genetische Code als ein Objekt der Forschung […].» (Übersetzt durch den Autor). 3 Claude E. Shannon: «The Mathematical Theory of Communication», in: Bell System Technical Journal, Band 27, 194, S. 379–423 und S. 623–656. Shannons Publikation fällt nebenbei bemerkt in dasselbe Jahr, in dem Norbert Wiener seine Cybernetics veröffentlichte (Norbert Wiener: Cybernetics. Or Communication and Control in the Animal and the Machine, Cambridge 194. Deutsche Ausgabe: Kybernetik, Regelung und Nachrichtenübertragung im Lebewesen und in der Maschine, Düsseldorf 21963.) Obwohl Shannon und Wiener unabhängig voneinander gearbeitet haben, sind die Parallelen in ihren theoretischen Ansätzen unverkennbar. Es ist sehr wahrscheinlich, dass Wiener als Professor für Mathematik am MIT einen bedeutenden Einfluss auf Shannon ausgeübt hat, der dort seine Doktorarbeit verfasst hat. Siehe hierzu auch: Kay (2000), S. 93.

15

selbst verdankt ihren Erfolg wohl nicht zuletzt dieser pragmatischen Anbindung an konkrete technische Forschungsinteressen. Mit dem Aufkommen der Informationstheorie war die Grundlage für eine breite und äußerst anknüpfungsfähige Forschungspraxis in den Gebieten der Kommunikationstechnologie, der Kryptologie und der Informationsverarbeitung geschaffen. Ihr Erfolg führte zur Etablierung eines selbstständigen informationstheoretischen Vokabulars mit einigen schlagkräftigen Topoi, die sich für eine Übertragung in andere Wissenschaftsbereiche bestens eigneten. Ein solcher Topos war der des «Codes». Die wohl erste Verwendung der Code-Metapher zur Beschreibung von biologischen Prozessen findet sich in einem bemerkenswerten kleinen Buch, das der Physiker Erwin Schrödinger ebenfalls in den 40er Jahren des 20. Jahrhunderts verfasst hat und das den schönen Titel Was ist Leben? trägt. Schrödinger setzt sich darin unter anderem mit genetischer Vererbung auseinander und widmet dem «Code der Vererbung» ein eigenes Kapitel. Er schreibt: «It is these chromosomes […] that contain in some kind of code-script the entire pattern of the individual's future development and of its functioning in the mature state. Every complete set of chromosomes contains the full code […]. In calling the structure of the chromosome fibres a code-script we mean that the all-penetrating mind, once conceived by Laplace, to which every causal connection lay immediately open, could tell from their structure whether the egg would develop, under suitable conditions, into a black cock or into a speckled hen, into a fly or a maize plant, a rhododendron, a beetle, a mouse or a woman.»4 Diese Textpassage illustriert den konzeptuellen Übergang, welcher sich in der Biologie der ersten Hälfte des 20. Jahrhunderts anbahnte, auf sehr anschauliche Weise. Seit dem Aufkommen der modernen Biologie im 19. Jahrhundert standen die Klassifizierung von Organismen und die Untersuchung ihrer phänotypischen Strukturen im Zentrum des biologischen Interesses. Weil sich das Lebende 4 Erwin Schrödinger: What Is Life? The Physical Aspect of the Living Cell, Cambridge 1944, S. 21; «In diesen Chromosomen [...] ist in einer Art Code das vollständige Muster der zukünftigen Entwicklung des Individuums und seines Funktionierens im Reifezustand enthalten. Jeder vollständige Chromosomensatz enthält den ganzen Code. [...] Wenn wir die Struktur der Chromosomen einen Code nennen, so meinen wir damit, dass ein alles durchdringender Geist, dem jegliche kausale Beziehung sofort offenbar wäre – wie Laplace ihn sich einmal vorgestellt hat –, aus dieser Struktur voraussagen könnte, ob das Ei sich unter geeigneten Bedingungen zu einem schwarzen Hahn, einem gefleckten Huhn, zu einer Fliege oder Maispflanze, einer Alpenrose, einem Käfer, einer Maus oder zu einem Weibe entwickeln werde.» Erwin Schrödinger: Was ist Leben? Die lebende Zelle mit den Augen des Physikers betrachtet, München 1999, S. 56.

16

Karim Bschir | Vorläufig oder grundlegend? – Die Code-Metapher in der Molekularbiologie

durch den hohen Grad an Organisation vom Nicht-Lebenden unterscheiden ließ, strebte die Biologie in erster Linie nach einem Verständnis biologischer Organisationsphänomene. Innerhalb dieses Organisationsdiskurses war der Begriff der «Spezifität» von großer Bedeutung. Man nahm an, dass es genuin biologische Faktoren geben muss, welche die spezifische phänotypische Ausprägung der Organismen festlegen. So fand beispielsweise Gregor Mendel in seinen Kreuzungsexperimenten heraus, dass bestimmte phänotypische Eigenschaften nach bestimmten Gesetzen und mit hoher Regelmäßigkeit an die Nachkommen weitergegeben werden.5 Es drängte sich also die Frage auf, wie es der Natur gelingt, das hohe Maß an Spezifität und Organisation über mehrere Generationen aufrechtzuerhalten. Auch für Darwin war im Zusammenhang mit der Fortpflanzung die Frage nach der Aufrechterhaltung von Spezifität von großem Interesse. Nach seiner Auffassung musste eine gute Theorie der Vererbung erklären, wie die spezifischen organischen Strukturen der unterschiedlichen Lebewesen von Generation zu Generation weitergegeben werden. Das Fehlen einer guten Theorie der Vererbung zu seiner Zeit veranlasste Darwin, selbst eine äußerst interessante und innovative, wenngleich auch hoch spekulative Vererbungstheorie zu entwickeln, die sogenannte «theory of pangenesis».6 Eine der zentralen Fragestellungen der Biologie des späten 19. Jahrhunderts lautete also: Wie wird Spezifität aufrechterhalten? Wie werden Eigenschaften vererbt? Wie kann es sein, dass eine bestimmte phänotypische Struktur wieder dieselbe hervorbringt? 194 formulierte der deutsche Chemiker Emil Fischer die sogenannte «Schlüssel-SchlossHypothese», mit welcher er die Bindungsspezifität zwischen einem Enzym und seinem Substrat beschrieb, sodass fortan die Frage der Spezifität nicht nur auf der phänomenalen, organischen, sondern auch auf der molekularen Ebene eine Entsprechung fand: Wie gelangt ein Enzym zu der Eigenschaft, sich mit hoher Spezifität an sein Substrat binden zu können und so die Katalyse einer ganz bestimmten chemischen Reaktion zu ermöglichen? Eine Reminiszenz an das Spezifitäts-Problem ist auch in Schrödingers Zitat noch enthalten: Wie kann es sein, dass ein Huhn wieder ein Huhn, eine Fliege wieder eine Fliege, eine Maispflanze wieder eine Maispflanze und so weiter 5 Gregor Johann Mendel: Versuche über Pflanzen-Hybriden, Separatdruck aus dem IV. Bande der Verhandlungen des Naturforschenden Vereines, Brünn 166. 6 Charles Darwin: Variation of Animals and Plants under Domestication, London 213, Kap. 27. Siehe hierzu auch: Eva Jablonka und Marion J. Lamb: Evolution in Four Dimensions. Genetic. Epigenetic, Behavioral, and Symbolic Variation in the History of Life, Cambridge/Mass. 2006, Kap. 1.

17

hervorbringt? Was aber Schrödingers Äußerungen aufschlussreich macht, ist weniger ihre Anbindung an die zentralen Fragestellungen der Biologie des 19. Jahrhunderts, als vielmehr die konzeptuelle Verschiebung weg von der Frage nach der Aufrechterhaltung von «Spezifität» hin zur Frage der Weitergabe von «Information».7 Schrödinger schlägt erstmals vor, sich die Aufrechterhaltung von Spezifität als ein Phänomen der Weitergabe von Information zu denken. Diese semantische Verlagerung der Fragestellung zeigt sich in obigem Zitat darin, dass Schrödinger von «einer Art Code» spricht, welcher die Information auf den Chromosomen enthalten könnte. Wenngleich sich sowohl der Begriff der «Spezifität» als auch der Begriff der «Information» hervorragend eignen, um die komplexe Organisation von biologischen Strukturen zu beschreiben, weisen beide Begriffe eine entscheidende Differenz in ihrer Konnotation auf, die sich wie folgt beschreiben lässt: Mit dem Begriff der «Spezifität» hatte man stets die aristotelische Materialursache im Blick, die erklärt, woraus, aus welcher Materie, etwas wieder zu derselben Materie wird, eben Fliege zu Fliege, Huhn zu Huhn und so weiter. Auch Darwin fasste «Vererbung» als ein Wachstumsphänomen auf, bei dem Nachkommen aus kleinen, in den Körpern der Eltern gereiften Partikeln («gemmules») heranwachsen. Im Gegensatz dazu wird mit dem Informationsbegriff die aristotelische Formursache angesprochen, also jener nicht-materielle Faktor, der etwas Materielles erst zu dem bestimmten Etwas macht, das es ist. In der aristotelischen Vorstellung muss jede materielle Struktur in-formiert werden. Erst durch die Form wird das Wesen einer jeweiligen materiellen Struktur festgelegt.9 7 Die These, dass «Information» an die Stelle von biologischer «Spezifizität» getreten ist, findet sich auch bei Lily Kay: «My thesis is that molecular biologists used ‹information› as a metaphor for biological specificity.» Vgl. Anm. 2, S. 2.; «Meine These lautet, dass die Molekularbiologen ‹Information› als Metapher für biologische Spezifität gebrauchten.» (Übersetzt durch den Autor).  «Inheritance must be looked at as merely a form of growth.»; «Vererbung muss als eine Form von Wachstum betrachtet werden.» (Übersetzt durch den Autor.) Mit diesem Satz fasst Darwin die Essenz seiner eigenen Theorie zusammen. Siehe Anm. 6, Band 2, S. 39. 9 Die Erwähnung von Aristoteles an dieser Stelle ist kein weit hergeholter Anachronismus. Die in die Entschlüsselung des genetischen Codes involvierten Wissenschaftler selbst betrachteten ihr Projekt als eine Suche nach den die Organismen bestimmenden Formfaktoren. Max Delbrück, der 1969 zusammen mit Salvador Luria und Alfred Hershey für seine Forschung an Bakteriophagen den Nobelpreis erhalten hatte, unterhielt einmal anlässlich eines Vortrags sein Publikum mit einem ernst gemeinten Witz, indem er das Nobelpreis-Komitee darauf aufmerksam machte, dass es eigentlich Aristoteles war, der als erster das Formprinzip der DNA vorgeschlagen hatte, und dass man ihn doch bei der Vergabe des Preises bei Gelegenheit mitberücksichtigen solle. Siehe hierzu Max Delbrück: «Aristotle-totle-totle», in: Of Microbes and Life, hrsg. von Jacques Monod und Ernest Borek, New York 1971.

1

Karim Bschir | Vorläufig oder grundlegend? – Die Code-Metapher in der Molekularbiologie

Wenn allerdings biologische «Information» als Formfaktor aufgefasst wird, so bedingt diese Redeweise – und Schrödinger war sich dessen offensichtlich bewusst –, dass es auch so etwas wie ein Speichermedium geben muss, auf welchem die Information materiell eingeprägt ist. Obwohl er die DNA als Molekül noch nicht kannte, lag für Schrödinger die Vermutung nahe, dass es die Chromosomen sind, die als potenzielle Informationsträger infrage kommen. Im selben Jahr, in dem Schrödinger sein Was ist Leben? publizierte, identifizierte Oswald Avery die Nukleinsäuren und nicht, wie viele bis dahin angenommen hatten, die Proteine, als das Trägermolekül der genetischen Information.10 Wenige Jahre später klärten James Watson und Francis Crick die dreidimensionale, doppelhelikale Struktur der DNA mithilfe der Röntgenkristallographie auf11 [Abb. 1]. Die Idendifikation der DNA als Speicher für genetische Information, die Kenntnis ihrer Struktur sowie Schrödingers Inspiration, sich die Weitergabe dieser Information als Code mit einer linearen Sequenz und einer kleinen Anzahl an Einheiten zu denken, waren die entscheidenden Faktoren, welche das Bewusstsein für die Relevanz eines nun anstehenden, äußerst reizvollen wissenschaftlichen Projektes schärften: die Entschlüsselung des genetischen Codes. Einer jener Wissenschaftler, die von der Vorstellung sehr angetan waren, dass die vor kurzem entdeckte DNA einen Code enthalte, den es, ähnlich wie den Code eines fremden Nachrichtendienstes, zu entschlüsseln gelte, war der Physiker George Gamow, ein Russe im amerikanischen Exil, der unter anderem auch wesentlich an der Entwicklung der Urknall-Theorie beteiligt war. Gamow hatte zusammen mit Francis Crick und James Watson den sogenannten «RNA-Tie-Club» gegründet. Dieser Club von Wissenschaftlern (sie trugen bei ihren Treffen meist Krawatten mit einem Doppelhelix-Muster) hatte es sich zum Ziel gesetzt, den «RNA-Aminosäure-Code» zu knacken.12 In einem Brief an Watson und Crick schreibt Gamow: «If your point of view is correct each organism will be characterized by a long number written in quadrucal (?) system with figures 1, 2, 3, 4

10 Siehe hierzu Oswald T. Avery, Colin M. MacLeod und Maclyn McCarty: «Studies on the Chemical Nature of the Substance Inducing Transformation of Pneumococcal Types», in: Journal of Experimental Medicine, Band 79, Februar 1944, S. 137–15. 11 James D. Watson und Francis H. C. Crick: «Molecular Structure of Nucleic Acids», in: Nature, Band 171, April 1953, S. 737–73. 12 Die RNA ist ebenfalls eine Nukleinsäure und strukturell der DNA sehr ähnlich. Bei der Proteinsynthese wird aus einem Abschnitt der DNA zuerst ein komplementäres RNA-Molekül synthetisiert, welches schließlich als Vorlage für die Synthese der Aminosäurekette dient.

19

Abb. 1: Die schematische Darstellung der DNA-Doppelhelix aus dem Artikel von Watson und Crick von 1953.

20

Karim Bschir | Vorläufig oder grundlegend? – Die Code-Metapher in der Molekularbiologie

standing for different bases […]. This would open a very exciting possibility of theoretical research based on combinatorix and the theory of numbers! […] I have the feeling this can be done. What do you think?»13 Gamow stellt hier das Problem der Weitergabe von genetischer Information nicht etwa als eines dar, das alleine mit den Methoden der experimentellen molekularen Biologie gelöst werden könnte. Er war offenbar vielmehr der Ansicht, dass es sich dabei ausschließlich um ein kryptlogisches Problem handelte, welches mit den Methoden der Kryptologie und der Informationstheorie angegangen werden sollte. Das Jahr 1953, in dem Watson und Crick die Doppelhelix-Struktur veröffentlichten, war auch in politischer Hinsicht ein bedeutendes Jahr. Im März war Stalin gestorben, am 17. Juni fand in Ostberlin und anderen größeren Städten der DDR der Aufstand gegen die Regierung statt, im Juli ging der Koreakrieg zu Ende, und die Sowjetunion testete in jenem Jahr ihre erste Wasserstoffbombe. In den USA stand die nationale Sicherheit an oberster Stelle der politischen Tagesordnung. Kryptoanalytische Technologien und computergestützte mathematische Informationstheorien, vor allem für militärische Zwecke, boomten. Die militärisch-akademische Zusammenarbeit lief auf Hochtouren. Gamow steht beispielhaft für diese Zusammenarbeit, indem er neben seiner Professur an der George Washington Universität unter anderem auch beratend tätig war für das U.S. Navy Bureau of Ordnance, für das Air Force Scientific Advisory Board oder für das Los Alamos Scientific Laboratory. Dadurch, dass Physiker wie Gamow ein Interesse an biologischen Fragestellungen und insbesondere an der Code-Thematik entwickelten, begannen sich die Topoi der Informationstheorie, der Linguistik und der Kryptologie in der Molekularbiologie auszubreiten und trugen so zu einer «Rekonfiguration» (Kay) der Biologie bei. Die Speicherung und Weitergabe von Information wurde zu einem zentralen Gegenstand der biologischen Forschung.14 13 Zitiert nach Kay, vgl. Anm. 2, S. 131. «Wenn Ihre Sichtweise korrekt ist, dann kann jeder Organismus als eine lange Nummer in einem vierstelligen System aus den Zahlen 1, 2, 3, 4, welche für die unterschiedlichen Basen stehen, dargestellt werden. Dies würde die aufregende Möglichkeit theoretischer Forschung auf der Grundlage der Kombinatorik und der Zahlentheorie eröffnen. Ich glaube, das wäre möglich. Was denken Sie?» 14 Auch für Gamow stand, nebenbei bemerkt, der Begriff der «Information» im Dienst der Frage, wie biologische Spezifität aufrechterhalten wird. «We use the term ‹information› in the sense of a molecular specificity, that which distinguishes one protein from another.» «Wir verwenden den Begriff ‹Information› im Sinne der molekularen Spezifität, also für das, was ein Protein von einem anderen

21

Abb. 2: Gamows Diamondcode. George Gamow: «Possible Relation between Deoxyribonucleic Acid and Protein Structures», in: Nature, Band 173, Februar 1954, S. 318.

22

Karim Bschir | Vorläufig oder grundlegend? – Die Code-Metapher in der Molekularbiologie

Das sogenannte «coding problem» bestand konkret in der Frage, wie eine lange Sequenz von vier Basen eine Proteinsequenz aus zwanzig Aminosäuren festlegen kann. Gamows erster Lösungsvorschlag erschien 1954 in Nature. Der sogennannte Diamondcode war ein überlappender Triplett-Code, überlappend deshalb, weil die jeweils letzte Base eines Tripletts gleichzeitig die erste des darauffolgenden ist [Abb. 2]. Die Bezeichnung Diamondcode erklärt sich durch die Tatsache, dass Gamow sich den Zusammenhang zwischen DNA- und Aminosäuresequenz als Schlüssel-Schloss-Beziehung vorstellte. Die Furchen in der DNA-Helix weisen die Form eines Tetraeders auf. Je nachdem, welche Basen die Furche begrenzen, würde laut Gamow aus geometrischen Gründen jeweils eine andere Aminosäure in die Lücke passen und so die Komplementarität von Basentriplett und Aminosäure sicherstellen. Obwohl sich Gamows Vorschlag in empirischer Hinsicht rasch als unhaltbar erwies, wurde mit den Bemühungen, eine formale Lösung für das «coding problem» zu finden, der konzeptuelle Hintergrund geschaffen, vor dem sich die Entzifferung des genetischen Codes im Laufe der 1950er Jahre als das zentrale Thema der Biologie etablieren konnte.15 Die zweite entscheidende Phase der Erforschung des genetischen Codes begann, als man versuchte, den Code nicht mehr bloß mit theoretisch-kombinatorischen, sondern vermehrt auch mit biochemisch-experimentellen Mitteln zu entschlüsseln. 1961 erzielten Marshall Nirenberg und Heinrich Matthaei den entscheidenden Durchbruch. Es gelang ihnen, mithilfe von synthetischer poly-URNA (eine lange RNA-Kette, die nur Uracil-Bausteine enthält) in einem zellfreien In-vitro-System eine Aminosäurekette, die ausschließlich aus Phenylalanin bestand, zu synthetisieren.16 Damit war das erste Basentriplett (UUU) eindeutig einer Aminosäure (Phenylalanin) zugeordnet. Weitere experimentelle Erfolge führten schließlich zur eindeutigen Zuordnung aller möglichen Tripletts und damit zur Vervollständigung des genetischen Codes [Abb. 3].

unterscheidet.» (Übersetzt durch den Autor). George Gamow, Alexander Rich und Martynas Ycˇas: «The Problem of Information Transfer from Nucleic Acids to Proteins», in: Advances in Biological and Medical Physics, Band 4, 1956, S. 23–6. 15 Zur Bedeutung der «formalistischen Phase» in der Geschichte des genetischen Codes siehe Anm. 2, Kap. 4. 16 Siehe hierzu die Nobelpreis-Rede von Marshall Nirenberg: The Genetic Code. Nobel Lecture, 196, online: www.nobelprize.org.

23

Abb. 3: Der genetische Code. Lesebeispiel: die Basenfolge UUU auf der RNA (von innen gelesen) codiert für die Aminosäure Phenylalanin (Phe). Diesen Zusammenhang haben Nirenberg und Matthaei in ihrem Poly-U-Experiment entdeckt. Die drei Codons UGA, UAG und UAA codieren keine Aminosäure, sondern signalisieren den Abbruch der Proteinsynthese. Jeder codierende Abschnitt auf der DNA wird durch eines dieser drei Codons beendet.

24

Karim Bschir | Vorläufig oder grundlegend? – Die Code-Metapher in der Molekularbiologie

Handelt es sich nun aber bei der Rede vom «genetischen Code» bloß um eine Metapher oder nicht? Muss man sich das Verhältnis von DNA- und Aminosäuresequenz nicht als ein kausales denken, das genauso gut ohne intentionalistisch gefärbte Begriffe wie «Code», «Information» oder «Übersetzung» beschrieben werden könnte? In seinen Paradigmen zu einer Metaphorologie umreißt Hans Blumenberg zwei Perspektiven, die im Blick auf Metaphern eingenommen werden können: Gemäß der einen sind Metaphern «Restbestände [...], Rudimente auf dem Wege vom Mythos zum Logos [.]»17 In dieser Perspektive wird der Gebrauch von Metaphern überall dort verortet, wo unser Vokabular noch nicht reif genug ist, um alle Erkenntnisse in positiver und streng rationaler Weise zu formulieren. So gesehen sind Metaphern sprachliche Hilfsmittel, die eingesetzt werden, solange wir noch nicht in der Lage sind, alle Begriffe in einem nicht übertragenen, eigentlichen Sinne zu verwenden. Dabei «indizieren [Metaphern] die cartesische Vorläufigkeit der jeweiligen geschichtlichen Situation [...], die sich an der regulativen Idealität des puren Logos zu messen hat.»1 Jeder kritischen Auseinandersetzung mit Metaphern käme in dieser ersten Perspektive eine entlarvende Funktion zu. Immer wieder «das Uneigentliche der übertragenen Aussage aufzudecken» und als solches bloßzustellen, müsste demnach als die Aufgabe einer jeden Metaphorologie angesehen werden. In der anderen Perspektive erscheinen Metaphern als «Grundbestände der [...] Sprache.»19 Wer diese Perspektive einnimmt, geht davon aus, dass die durch Metaphern geleisteten Übertragungen nicht ins Eigentliche und in eine eindeutige Sprache über- oder zurückgeführt werden können. In dieser Sichtweise muss sich die Sprache nicht am Ideal oder an der Zweckvorstellung einer reinen Logizität messen. Solche Metaphern (Blumenberg nennt sie «absolute Metaphern») besitzen eine «begrifflich nicht ablösbare Aussagefunktion». Der Gebrauch von absoluten Metaphern ist also nicht mit dem Makel der uneigentlichen Rede behaftet, sondern die durch eine Metapher geleistete Übertragung von Bedeutung generiert einen selbstständigen Modus der Eigentlichkeit. Jede begriffsgeschichtliche Analyse von Metaphern müsste sich dann um die Offenlegung der eigenständigen Aussagefunktion einer jeweiligen Metapher kümmern. Die

17 Siehe Hans Blumenberg: Paradigmen zu einer Metaphorologie, Frankfurt am Main 199, Einleitung. 1 Ebenda. 19 Ebenda.

25

entscheidende Konsequenz der zweiten Perspektive ist, dass in ihr «die Gleichsetzung von übertragener und uneigentlicher Redeweise fragwürdig» wird, was letzten Endes auf die Einsicht hinausläuft, dass die Unterscheidung zwischen einer uneigentlichen, übertragenen und einer eigentlichen, wörtlichen Weise zu sprechen als solche nicht länger haltbar ist. Blumenberg ist in seiner Metaphorologie vor allem an den Metaphern der philosophischen Sprache interessiert. Es lassen sich allerdings auch analoge Fragen hinsichtlich der naturwissenschaftlichen Sprache formulieren: Hat der Gebrauch von Metaphern in den Naturwissenschaften eine bloß heuristische Funktion am Beginn eines neuen wissenschaftlichen Paradigmas, und verschwinden Metaphern im Fortlauf einer theoretischen Entwicklung mehr und mehr aus dem Vokabular einer Theorie? Sind alle Metaphern einer reifen Theorie prinzipiell durch eindeutiges, technisches Vokabular ersetzbar? Ist eine reife Theorie eine, die ohne Metaphern auskommt? Oder aber: Spielen Metaphern in der Wissenschaft eine grundlegende und nicht ersetzbare Rolle? Könnte es sein, dass die Eliminierung einer Metapher immer einen substanziellen Verlust im Gehalt einer Theorie zur Folge hat, dass also eine Theorie nach einer Übersetzung aller ihrer Metaphern nicht mehr dieselbe Theorie wäre? Auch im Hinblick auf die Code- und Informationsmetaphern der Molekularbiologie stellt sich die Frage, welche der beiden Blumenbergschen Perspektiven angemessener ist. Wenn die Rede vom genetischen Code eine metaphorische ist, lässt sie sich dann allenfalls durch eine wörtliche Rede ersetzen? Oder besitzt der Ausdruck «genetischer Code» eine eigenständige, nicht ablösbare Bedeutung, die nicht darauf angewiesen ist, dass sie mit anderen Bedeutungszusammenhängen, in denen von «Codes» die Rede ist, zur Deckung gebracht werden muss? Angesichts der Tatsache, das der Begriff «Code» einerseits zahlreiche nichtbiologische Bedeutungen besitzt, andererseits aber auch den Zusammenhang zwischen DNA- und Proteinsequenz sehr treffend beschreibt, sind solche Fragen nur sehr schwer zu beantworten. Wenn man aber die Blumenbergsche Alternative nicht bloß zum Anlass nimmt, interessante theoretische Fragen aufzuwerfen, sondern sie als reale Alternative auffasst, die eine Entscheidung einfordert, und wenn man sich überdies dazu entscheidet, die zweite Alternative tatsächlich anzunehmen und die Unterscheidung von eigentlicher und uneigentlicher Redeweise mit Blick auf die Code-Metapher in der Biologie von Anfang an außer Betracht zu lassen, so rückt die wissenskatalytische Funktion der Code-Metapher als einem autonomen und nicht-reduzierbaren Bedeutungsträger in den Vorder-

26

Karim Bschir | Vorläufig oder grundlegend? – Die Code-Metapher in der Molekularbiologie

grund. Unter dieser Voraussetzung verlieren die obigen Fragen ihre Brisanz. Wenn man sich nicht fragt, wie die Metapher des genetischen Codes und die Rede von genetischer Information heute, da der Code geknackt und das menschliche Erbgut entschlüsselt ist, am besten in eine nicht länger metaphorische Redeweise überführt werden könnten, sondern die eigenständigen Bedeutungshorizonte in den Blick nimmt, die diese «absoluten» Metaphern in ihrer langen Geschichte generiert haben, so wird man unweigerlich feststellen, dass sie in den betroffenen Bereichen der Wissenschaft eine überaus inspirierende und innovative Wirkung entfalten konnten. Hätte Gamow so hartnäckig versucht, das «coding problem» der Biologie zu lösen, wenn er sich nicht als Physiker schon mit den Problemen der Informationstheorie und der militärischen Kryptologie auseinandergesetzt hätte? Und hätten Nierenberg und Matthaei die entscheidenden experimentellen Bemühungen zur vollständigen Darstellung des genetischen Codes und zur Entdeckung der Mechanismen der Proteinsynthese überhaupt angestellt, wenn nicht zuvor Gamow und andere das Problem schon theoretisch vorbereitet hätten? Was wäre geschehen, wenn die Informationsmetaphorik nie ihren Weg in die Molekularbiologie gefunden hätte? Die Kontrafaktizität dieser Art von historischen Fragen mag ernüchternd wirken, denn sie ist immer auch ein Zeichen für die Unmöglichkeit ihrer Beantwortung. Wir können schlechthin nicht wissen, was gewesen wäre. Dennoch lässt sich festhalten, dass, selbst wenn die theoretischen Entschlüsselungsbemühungen und die ausgiebige Verwendung des informationstheoretischen Vokabulars seinerzeit nicht direkt zu einer Entzifferung des genetischen Codes geführt haben, dadurch dennoch ein wichtiger Beitrag zur Konzeption der entscheidenden Experimente am Beginn der 1960er Jahre geleistet wurde, welche schließlich den Weg zu dem vielfach bestätigten und äußerst umfangreichen Wissensstand von heute ebneten. Vielleicht wäre der ausgiebige Gebrauch von Sprach- und Informationsmetaphern dazu nicht notwendig gewesen. Hilfreich war er auf alle Fälle.

27

Gabriele Gramelsberger STORY TELLING WITH CODE Eine Kaffeemaschine oder einen Trockner zu bedienen, bedarf wenig mehr als des richtigen Knopfdrucks zur rechten Zeit. Wir kämen wohl kaum auf die Idee, mit diesen Geräten zu sprechen oder ihnen Anweisungen geben zu wollen. Der Knopfdruck setzt die Mechanik oder Elektronik der Maschine in Gang. Ganz anders verhält es sich da mit den Computern. Auch wenn es uns oft nicht bewusst ist, wir kommunizieren beständig mit diesen Maschinen, egal ob wir nun im Internet surfen, ein Bild herunterladen oder einen Text schreiben. Permanent geben wir Anweisungen und hoffen, dass der Computer verstanden hat, was wir meinen. Was nicht immer der Fall ist. Misslungene Kommunikation und eigenwillige Interpretationen gehören zur Alltagserfahrung. Spätestens dann versehen wir die drögen Maschinen mit allerlei Schimpfnamen und schreien sie an. Doch wie kann es sein, dass wir uns so umstandslos daran gewöhnt haben, mit Maschinen zu sprechen – sowohl leise, über die Tastatur, als auch laut mit unserer Stimme? Wie weit reicht diese Kommunikation zwischen Mensch und Maschine, zwischen Sinn und Signal, Wunsch und Code? Welche neuen Möglichkeiten eröffnen sich aus dieser Kommunikation? Um diesen Fragen nachzugehen, ist es hilfreich, sich die Beschaffenheit von Computern zu verdeutlichen. Die wenigsten von uns haben wohl je das Gehäuse eines Computers aufgeschraubt, um einen Blick in sein Inneres zu werfen. Doch selbst wenn man es täte, würde man nur einige wenige aufschlussreiche Hinweise finden. Ein Grund dafür liegt in der Miniaturisierung der wichtigsten Bauteile, ein anderer in dem, was diese Maschine produziert, nämlich gerade nichts Handfestes wie Kaffee oder trockene Wäsche. Lediglich Symbole werden generiert, gespeichert und auch gelöscht. Genau genommen handelt es sich um ungeheuerliche Mengen von Nullen und Einsen, von Taktungen des Stromflusses, die wir tagtäglich auslösen. Von diesen basalen Vorgängen bekommen wir heute aber kaum noch etwas mit. Eine kurze Geschichte des Programmierens Plug'n'play Zu Beginn der Computerentwicklung in den 1940er Jahren war dies ganz anders. Man musste sich damals mitten in den Computer hineinbegeben, wenn man ihn zum Laufen bringen wollte. ENIAC (Electronic Numerical Integrator and Computer) beispielsweise, einer der ersten elektronischen Computer, war ein hallengroßes

29

Ungetüm bestehend aus gut 1 000 Vakuumröhren. Trotz aller Größe konnte der Speicher aber nur einige hundert Zeichen umfassen. Diesen Computer zu bedienen, bedeutete hunderte von Steckverbindungen zu verbinden. «Plug'n'Play» war damals schweißtreibende Arbeit und es dauerte Tage bis ENIAC eingerichtet war, die gewünschten Berechnungen auszuführen: «Setting up the ENIAC meant plugging and unplugging a maze of cables and setting arrays of switches. In effect, the machine had to be rebuilt for each new problem it was to solve.»1 Maschinenkommunikation bedeutete, die Instruktionen als Anordnung von Verschaltungen direkt umzusetzen: Eine neue Aufgabe führte zu einer neuen Konfiguration der Maschine. Dazu wurde eine mathematische Aufgabe in Abfolgen von Instruktionen zerlegt, die den Steckverbindungen entsprachen.2 Um jedoch die Unmengen an Verbindungen richtig zu stecken, notierten sich die Instrukteure diese vorher auf Papier in Form einfacher Befehle, wie: «S(x) → Ac: Clear accumulator and add number located at position x in the Sceletrons into it.»3 Auch wenn von «Programmieren» noch nicht die Rede sein konnte, so markiert diese konzeptuelle Handarbeit mit Bleistift und Papier den Beginn des Erstellens von Codes. 1947 definierten John von Neumann und Herman Goldstine, beide waren in die Entwicklung von ENIAC involviert, in dem Report Planning and Coding Problems for an Electronic Computing Instrument erstmals was unter «coding» zu verstehen sei: Die Zerlegung einer Aufgabe in Teilschritte und die Übersetzung dieser Teilschritte in eine Abfolge maschinentauglicher Befehle. Dabei galt es zu überprüfen, dass die Befehle der Aufgabe tatsächlich entsprachen und dass sich jeder Befehl aus dem vorhergehenden zwangsläufig ergab. Eine Lücke in der Befehlskette hätte den Computer zum Absturz gebracht. Um das Konzept der Abfolge der Befehle zu vereinfachen, schlugen sie eine graphische Methode vor: «Coding begins with the drawing of the flow diagrams. This is the dynamic or macroscopic stage of coding. [...] It has been our invariable experience, that once 1 Paul E. Ceruzzi: A History of Modern Computing, Cambridge/Mass. 199, S. 21; «Das Einrichten des ENIAC bedeutete das Ein- und Ausstöpseln eines Labyrinths von Kabeln und das Anordnen von Schalterreihen. Die Maschine musste praktisch für jedes neue Problem, das sie lösen sollte, neu gebaut werden.» (Übersetzung Nikolaus Schneider). 2 Die ersten Computer waren reine Rechenmaschinen. Das Zeitalter der Informationsverarbeitung begann erst, als die Computer und Speicher leistungsfähiger wurden. 3 Herman H. Goldstine, John von Neumann: «Planing and Coding Problems for an Electronic Computing Instrument», Part II, Vol. 1, 1947, in: John von Neumann: Collected Works, Vol. 5, Oxford u.a. 1963, S. 0–151, hier: S. 5; «S(x) → Ac: Akkumulator leeren und ihm die Zahl auf Position x in den Skeletronen hinzufügen.» (Übersetzung Nikolaus Schneider).

30

Gabriele Gramelsberger | Story Telling with Code

the problem has been understood and prepared [...], the drawing of the flow diagram presents little difficulty.»4 Diese «flow diagrams» gaben an, welche Berechnungen in welcher Reihenfolge stattfinden, in welchen Speicherarealen die Resultate abgelegt werden sollten und welche Routinen wiederholt wurden. Dabei entstand eine komplexe Choreographie dieser Anweisungen mit sich verzweigenden Pfaden und Schleifen. Der Code war dabei die symbolische Anweisung an die Maschine, welche diesen dann in konkreten Operationen ausführte. Da die ersten Computeranweisungen direkt dem Prinzip der grundlegenden Rechnerarchitektur folgten, welche komplexere mathematische Funktionen in einfache Grundfunktionen auflöste, handelte es sich um reine und für Menschen schwer zugängliche Maschinencodes: beispielsweise entsprach der Maschinencode 00 W0 03 W0 01 Z1 dem mathematischen Ausdruck i = i-1.5 Daher waren die Aufgaben, welche die ersten Computer lösen konnten, reine Berechnungsaufgaben. Doch das vermochte ENIAC sehr gut, sobald er einmal für die Lösung eines bestimmten mathematischen Problems verdrahtet war. Er führte eine Berechnung, für die ein menschlicher ‹Computer› sieben Stunden benötigte, in zwei Sekunden aus. Das Geschäft mit diesen Ungetümen und die Mühsal der Kommunikation mit ihnen lohnten sich also bereits in den 1940er Jahren. Vor allem das Militär war an diesen neuen, automatischen Rechenmaschinen interessiert, um beispielsweise ballistische Berechnungen für Bomben, später auch für Raketen und andere Bereiche durchzuführen. Codieren statt Instruieren Codierung, wie Goldstine und von Neumann es 1947 beschrieben, war bis in die 1950er Jahre Handarbeit mit Bleistift und Papier in Form von Maschinencodes. Dabei musste jede kleinste Anweisung für jede neue Aufgabe einzeln neu aufgeschrieben werden. Ein Großteil der Codierung bestand jedoch auch aus Standardroutinen, die dieselben Abläufe wiederholten und sowohl die Instrukteure wie den Computer viel Zeit kosteten. Daher lag der entscheidende Schritt zum

4 Ebenda, S. 100; «Das Codieren beginnt mit dem Zeichnen der Flussdiagramme. Dies ist die dynamische oder makroskopische Stufe des Codierens. [...] Wir haben durchgängig die Erfahrung gemacht, dass das Zeichnen des Flussdiagramms kaum Schwierigkeiten bereitet [...], hat man das Problem erst einmal verstanden.» (Übersetzung Nikolaus Schneider). 5 Vgl. Donald E. Knuth, Luis Trabb Pardo: «The Early Development of Programming Languages», in: A History of Computing in the Twentieth Century, hrsg. von N. Metropolis, J. Howlett, Gian-Carlo Rota, New York u.a., 190, S. 197–273, hier: S. 214.

31

Programmieren in der Automatisierung und Mechanisierung der Codierung selbst. Anstatt jede mathematische Operation per Hand in Teilschritte zu zerlegen und als Anweisung in Maschinensprache zu formulieren, sollte ein Programm die gewünschten Operationen automatisch in Maschinencodes übersetzen. Der erste Schritt in diese Richtung bestand in der Entwicklung von Compilern, das waren Programme, welche die Befehle in Maschinencodes übersetzten.6 Allerdings dauerte es eine Weile, bis Compiler und andere Programmierhilfen benutzt werden konnten: «At that time [1954], most programmers wrote symbolic machine instructions exclusively [...] they firmly believed that any mechanical coding method would fail to apply the versatile ingenuity which each programmer felt he possessed and constantly needed in his work.»7 Die erste, tatsächlich realisierte Programmiersprache war FORTRAN (Formula Translation), die 1954 von John Backus vorgestellt wurde und bis heute in den Naturwissenschaften verwendet wird. Hinter der Entwicklung von FORTRAN stand laut Backus die Frage, «what could be done now to ease the programmer’s job? Once asked, the answer to this question had to be: Let him use mathematical notations. But behind that answer [...] there was the really new and hard question: Can a machine translate a sufficiently rich mathematical language into a sufficiently economical machine program to make the whole affair feasible?» Letztere Frage ist nicht trivial gewesen, denn es musste sichergestellt sein, dass der Computer tatsächlich die programmierte Berechnung ausführte. Solange der Programmierer seine Berechnungen direkt in maschinentaugliche Befehle überträgt, kann er dies selbst überprüfen. Wird die Übersetzung jedoch an eine Programmiersprache oder einen Compiler delegiert, muss er sich auf

6 Halcomb Laning und Neal Zierler entwickelten 1954 am Massachusetts Institute for Technology den ersten algebraischen Compiler für WHIRLWIND. 7 John Backus, W. P. Heising: «FORTRAN», in: IEEE Trans. Electron. Comp. 13, 1964, S. 32–35, hier: S. 32; «Damals [1954] schrieben die meisten Programmierer ausschließlich symbolische Maschinenbefehle [...]; sie waren der festen Überzeugung, dass keine mechanische Codiermethode imstande sei, den versatilen Scharfsinn aufzubringen, den jeder Programmierer zu besitzen und bei seiner Arbeit ständig zu benötigen meinte.» (Übersetzung Nikolaus Schneider).  John Backus: «Programming in America in the 1950s», in: siehe Anm. 5, 190, S. 125–135, hier: S. 131; «Was ließ sich nun machen, um die Aufgabe des Programmierers zu erleichtern? Einmal gestellt, musste die Antwort auf diese Frage lauten: Man lasse ihn mathematische Notationen benutzen. Doch hinter dieser Antwort [...] verbarg sich die wirklich neue und schwierige Frage: Kann eine Maschine eine hinreichend reichhaltige mathematische Sprache in ein hinreichend ökonomisches Maschinenprogramm übersetzen, sodass die ganze Sache funktioniert?» (Übersetzung Nikolaus Schneider).

32

Gabriele Gramelsberger | Story Telling with Code

diese Programmierhilfen verlassen können. FORTRAN erlaubte es nun, die bis dahin per Hand codierten maschinentauglichen Befehle mathematischer Berechnungen bequem und zuverlässig in den gewohnten mathematischen Notationen darzustellen wie das Addieren von Zahlen (SUM) oder die Berechnung von Funktionen (COS, SIN etc.). Obwohl damals auch andere Programmiersprachen entwickelt wurden, beispielsweise MATH-MATIC von Grace Hopper für UNIVAC, setzte sich FORTRAN, die seit 1957 auch mit den IBM 704-Computern ausgeliefert wurde, in den Natur- und Ingenieurswissenschaften durch. Programmieren Der entscheidende Fortschritt der 1950er Jahre lag nicht nur in der Automatisierung des Codierens mit der Hilfe von Compilern und ersten Programmiersprachen, sondern in der Einführung einer mathematischen Sprechweise mit den Maschinen. Mit diesem Übersetzungsschritt vom Programmiercode zum Maschinencode – in Form höherer Programmiersprachen – wurde der Weg von der Hardware hin zur Software beschritten. Diese ersten Programmiersprachen dienten dem Zweck, mathematische Problemlösungen zu formulieren. Doch es zeigte sich schnell, dass Computer, vor allem als sie leistungsfähiger wurden, mehr konnten, als nur Berechnungen auszuführen.9 Denn Computer können in zweifacher Weise eingesetzt werden: Sie können rechnen, aber auch logische Operationen ausführen; sie vollziehen Prozeduren und verarbeiten Daten. Vor allem die Datenverarbeitung von Informationen, Texten und Bildern gewann seit den 1970er Jahren zunehmend an Bedeutung. Unter diesen Umständen mag die «mathematische» Sprache zwar eine einfachere sein als ein Maschinencode, doch Programmieren, wie es heute üblich ist, basiert auf alltagssprachlichen Codes,

9 1960 wurde mit dem PDP-1 von Digital Equipment der erste Computer gebaut, der weniger als eine Million Dollar kostete. 1961 kam der erste integrierte Schaltkreis auf den Markt und läutete damit die Miniaturisierung ein. 196 wurde in Xerox Parc die Computermouse entwickelt. 1969 wurden die ersten Großrechner vernetzt (ARPANET). Es entstanden die ersten Datenkommunikationssysteme. 1971 präsentierte Intel den ersten Mikroprozessor und Texas Instruments baute den ersten Ein-ChipComputer. 1972 erfand Nolan Bushnell mit Pong das erste Computerspiel. 1977 brachte Xerox den ersten PC heraus, gefolgt von Apple 197. Damit begann der Einzug der Computer in Privathaushalte mit Maschinen wie dem C64 von Commodore im Jahr 192, Lisa von Apple 193 oder, ebenfalls 193, XT von IBM (Homecomputer kosteten damals zwischen 1.500 und 2.000 DM, Großrechner für Wissenschaft und Industrie zwischen 30 und 50 Mio. DM). Ab 1993 wurde das ARPANET, das in Internet umbenannt wurde, verstärkt von Firmen genutzt. 1994 wurde das World Wide Web eingeführt. Vgl. Hans H. Hiebel: Kleine Medienchronik, München 1997.

33

welche nicht nur Berechnungen, sondern zunehmend komplexere Aufgaben der Informationsverarbeitung ausführen. Dabei verschiebt sich der «Fokus vom Entwurf von Programmen hin zur Organisation von Daten.»10 Heute erleichtern vorgefertigte Computerprogramme den Umgang mit den Rechnern und machen sie massentauglich. Der durchschnittliche Computerbenutzer bewegt sich nun nicht mehr auf der Ebene des Codes – weder des Maschinen- noch Programmcodes – sondern auf der Oberfläche der Programme, um bereits vorcodierte Anwendungen auszuführen. Damit wurde ein weiterer Übersetzungsschritt vollzogen, der vom Maschinencode über den Programmcode zur Anwendung führt und zurück. Denn jede Anwendung muss wieder in Programm- und schließlich Maschinencode zurückübersetzt werden. Durch diesen letzten Übersetzungsschritt zur reinen Anwendung verschwindet nicht nur die eigentliche Maschine, sondern auch die logische und mathematische Funktionsweise dieser Maschine hinter der bunten Funktionalität der Anwenderprogramme, und der Computer dringt in die Büros und Wohnzimmer ein. Mit dieser Eroberung zahlreicher Arbeits- und Lebensbereiche, den verbesserten Visualisierungstechnologien und der Vernetzung der Rechner hat sich die Logik der Computer weltweit durchgesetzt und die Organisation von Arbeitsvorgängen, Kommunikationsbedingungen und Denkweisen normiert. Diese Normierung nennen wir heute «Programmierung». Und es scheint fast so, dass nur das, was programmierbar ist – sich also in ein System von Funktionen und Daten zwängen lässt – noch Relevanz besitzt. Das Kuriose daran ist, dass je einflussreicher die Logik der Computer wird, desto mehr verschwindet sie aus unserer direkten Wahrnehmung, zum einen durch die Miniaturisierung, zum anderen durch die vorgegebenen Funktionalitäten der Programme. Der Blick in die Geschichte der Computer- und Softwareentwicklung macht jedoch deutlich, dass Computer immer noch in erster Linie Maschinen sind, in zweiter Linie mathematische Maschinen und erst dann die Text- und Bildmaschinen, so wie wir sie heute kennen und nutzen. Diese Überlagerung verschiedener Schichten maschineller Dimensionalität ist jedoch von Bedeutung für das Verständnis, was «Code» ist, also was programmierbar und somit kreierbar ist. Solange man sich nur auf der Oberfläche der Anwendungen tummelt, wird man die Möglichkeiten dieser Maschine nicht begreifen können.

10 Georg Trogemann, Jochen Viehoff: CodeArt – Eine elementare Einführung in die Programmierung als künstlerische Praktik, Wien, New York 2005, S. 161.

34

Gabriele Gramelsberger | Story Telling with Code

Digitale Narrationen Eine dieser Möglichkeiten zeigt sich verstärkt in den letzten Jahren. Es ist die Möglichkeit, mit Code «Geschichten» zu erzählen. Eine sehr spezielle und neue Art von Geschichten, aber angesichts der Allgegenwart der Computer mittlerweile eine mächtige Narrationsform moderner Gesellschaft. Dabei sind weniger die virtuellen Welten der Computerspiele oder sonstiger immersiver Umgebungen gemeint, welche ebenfalls eine neue Form von Erzählungen darstellen. Oder die Fluten an Hypertexten oder das Internet als narratives Gewebe. Sondern es ist eine neue Form der Erzählung unserer Lebenswelt gemeint, die unseren Alltag und unser Verhältnis zur Welt zunehmend verändert. Gemeint ist die in die Realität eindringende Logik der Computer, sie modifiziert diese in neuer Weise und schafft so eine neue Erzählung. Die Möglichkeit, mit Code «Geschichten» zu erzählen, wird aus dem Computer in die Umwelt exportiert und schafft damit ungeahnte neue Möglichkeiten und Horizonte. Ein Beispiel für diese neue Verwendungsweise von Computern ist das molekulare Design neuer Materialien, neuer Formensprachen 11, wie in der Architektur, oder zukünftig gar neuer Lebewesen. Diese neue Verwendungsweise wird dann möglich, wenn nicht nur das Design computerbasiert ist, sondern auch sämtliche Produktionsweisen zur Manipulation materieller Entitäten, seien dies Zellen, Materialien oder Bauteile. Spätestens in dem Moment, in dem sich die digitale Kette schließt, greift die Logik der Computer in die materiale Welt aus und gestaltet sie im Rahmen dieser Logik um. In der Architektur lässt sich die Nutzung dieser digital chain beispielsweise in Frank O. Gehry’s Arbeitsweise wiederfinden. Allerdings findet hier in erster Linie eine Übertragung der klassischen Entwurfspraktiken ins Digitale mithilfe des Programms CATIA statt, um die komplexen, zuvor klassisch am Modell und auf Papier entworfenen Formen bautechnisch realisieren zu können. Doch die Logik des Digitalen verspricht mehr, wie die unterschiedlichen Arbeitsweisen von Frank O. Gehry und Peter Eisenman zeigen. «Während sich Gehry pragmatisch dem Computer zugewendet hat, dient Eisenman der Computer als konzeptueller Ausgangspunkt für seine jüngsten Projekte. In der Absicht, sich vom kartesischen Absoluten als a priori schönen Formen frei zu machen, setzt Eisenman den Computer ein, um dynamischere, unvorhersagbare

11 Diese Verwendungsweise war den Computern aufgrund ihrer mathematischen Natur von Beginn an in die Wiege gelegt, aber sie kommt erst mit der unglaublichen Steigerung der Rechen- und Visualisierungsleistungen seit den 1990er Jahren zum Tragen.

35

Organisationssysteme zu erforschen. Er will die Architektur von den Restriktionen der Objektfixierung lösen, um zu einer textuellen Architektur zu kommen.»12 Diese Überwindung des kartesischen Absoluten motiviert die neue Erzählung der Welt und erlaubt, in neuer Weise mit der materialen Umwelt zu kommunizieren. Dabei lassen sich verschiedene Typen dieses story telling with code unterscheiden: Eine indirekte Version, welche nicht die materielle Struktur selbst, sondern ihre Form verändert. Architektur und Technik liefern hier gute Beispiele. Sowie eine sehr direkte Version, die den «natürlichen» Code, die DNA, verändert. In der synthetischen Biologie, aber auch in der Nanotechnologie lassen sich hierfür Beispiele finden. Interessant wird es, wenn beide Versionen zusammenkommen, wenn beispielsweise neue Materialien mit neuen architektonischen Formensprachen interagieren. Parametric Design Anhand des parametrischen Design soll diese neue Form der Narration genauer betrachtet werden. Der Computer wird hierbei gemäß seiner ursprünglichen Natur als mathematische Maschine und nicht als digitales Zeichenbrett benutzt. Diese Rückbesinnung auf den Computer als mathematische Maschine erlaubt neue Freiheitsgrade in der Generierung neuer Formensprachen. Denn das digitale Zeichenbrett imitiert das traditionelle Entwerfen auf Papier mit Zirkel, Lineal und anderen Werkzeugen und dessen kartesisches Koordinatensystem. Es gibt zwar funktionale Erweiterungen, doch die grundlegenden Prinzipien des Entwerfens auf dem Papier, sowohl der euklidischen als auch der projektiven Geometrie, werden übernommen: Objekte werden aus Linien und Flächen konstruiert und füllen so den leeren Raum, der sich im Koordinatensystem aufspannt. Je nach errechnetem Betrachtungswinkel wird aus den zweidimensionalen Elementen eine dreidimensional anmutende Darstellung auf dem Flachbildschirm kreiert. Mithilfe des Rapid Prototyping kann diese Darstellung mittlerweile problemlos als dreidimensionales Modell ausgedruckt werden. Die Orientierung am traditionellen Entwerfen schränkt die Formensprache aber unnötig ein. Die Transformation ins Digitale fügt nicht wirklich etwas Neues hinzu und unterliegt mehr der Logik der Papierfläche, als der Logik des Computers und seines n-dimensionalen, relationalen Datenraums. Michael Silver 12 Anette LeCuyer: «Entwerfen am Computer: Frank Gehry und Peter Eisenman», in: arch+ 12, 1995, S. 26–29, hier: S. 2.

36

Gabriele Gramelsberger | Story Telling with Code

beschreibt diesen ambivalenten Zustand zwischen Papier und Computer so: «Aside from its visual complexity, the resulting work shows little evidence of the computer’s role in the creation of underlying principles. […] Because the tools themselves offer little surprise, information [...] is defined as a disembodied content that travels unchanged between different media (from physical models to scanned data sets, to built forms, etc.). […] Materials are understood as passive receptors of a code that reflects as closely as possible a sculptural idea formulated in advance.»13 Entwerfen in der Logik des Computers bedeutet etwas ganz anders, nämlich auf Basis algebraischer und arithmetischer Operationen neue Formen zu generieren. Im Unterschied zur Geometrie des klassischen architektonischen Entwerfens, die maßgeblich auf Linie und Fläche beruht, generiert sich jegliche algebraische Form aus dem Punkt und seiner Trajektorie (Entwicklungsbahn des Punktes in der Zeit). In anderen Worten: Die Welt wird nicht mehr aus der Perspektive der Fläche oder der Objekte nacherzählt, sondern aus dem Punkt heraus generiert. Und diese neue Erzählweise birgt die Möglichkeit neuer Narrationen in sich, denn wenn Gebäude und Objekte zu Punktmassen und Bündeln von Trajektorien werden, lässt sich die Relation zwischen diesen Punkten, als auch der Entwicklungsverlauf der Trajektorien immer wieder neu definieren. Genau hier kommt der Computercode ins Spiel, indem er neue, nicht aus der Geometrie resultierende Gestaltungsprinzipien auf die Punkte und Trajektorien wirken lassen kann. Dabei wird das Objekt als System aus Elementen, auf die Kräfte wirken, verstanden. Je nach den gewählten Parametern und Vorschriften, wie die Kräfte oder Produktionsregeln wirken, lassen sich neue Formen generieren. Bestimmte Arrangements kreieren dabei ihre jeweils eigene Formensprache: Fraktale, L-Systeme, Schwarmalgorithmen oder mechanische Kräftesimulationen sind Beispiele hierfür.

13 Michael Silver: «Matter/in-formation», in: Evan Douglis: Autogenic Structures, New York 2009, S. 152– 191, hier: S. 154; «Abgesehen von seiner visuellen Komplexität liefert das hieraus resultierende Werk kaum Hinweise auf die Rolle des Computers bei der Generierung der zugrunde liegenden Prinzipien. […] Da die Werkzeuge selbst kaum Überraschungen bieten, wird Information [...] als ein körperloser Inhalt definiert, der unverändert zwischen verschiedenen Medien hin- und herwandert (von physikalischen Modellen zu gescannten Datenmengen, zu gebauten Formen usw. […] Materialien werden als passive Rezeptoren eines Codes begriffen, der eine vorab formulierte skulpturale Idee so genau wie möglich widerspiegelt.» (Übersetzung Nikolaus Schneider).

37

Eine solche Art des Entwerfens delegiert zwar die Autorenschaft ein Stück weit an die Maschine, doch sie gewinnt an Freiheitsgraden in der Formensprache. Dabei nutzt sie die Eigenheit der Computer. Algebra und Arithmetik sorgen für die Aufhebung geometrischer Vorstellungen. Denn selbst wenn Objekte oder Kurven aus Punktmassen generiert werden, ein mathematischer Punkt ist etwas anderes als ein gezeichneter. Im Grunde ist ein mathematischer Punkt nur ein dimensionsloser Zahlenwert an einer bestimmten Stelle einer Matrix. Indem Manipulationen dieser Zahlwerte durchgeführt werden, lassen sich optisch gesehen Kurven, Objektoberflächen und damit Formen verändern. Dies stellt den zeitlichen Charakter dieser Art des Entwerfens in den Mittelpunkt. Formen werden nicht durch vorgegebene Schablonen wie Linien, Kreise oder Rechtecke konstruiert, sondern durch einen Wirkprozess evolviert. Je nachdem, zu welcher Zeit das Programm angehalten wird, entsteht eine temporäre Form. Komplettiert wird dies durch die Art und Weise, wie Informationen in Form von Parametern in die temporäre Form einfließen, darin gespeichert werden. Jegliche Information, die sich als Zahlenwert darstellen lässt, kann auf die temporäre Form als Parameter einwirken. Dies können Informationen über die Umgebung eines geplanten Gebäudes sein, wie Verkehrsaufkommen, Schwerkraft oder die Form anderer Gebäude. Oder, um ein Beispiel von Peter Eisenman aus den 1990er Jahren aufzugreifen, die Turbulenz eines Flusslaufs um ein Haus. «Ausgangspunkt ist ein durch sogenannte ‹Solitons› verformter Würfel; ein dynamisches System an der Grenze zum Chaos. Einzelne Wellen sind physikalische Phänomene, die in scheinbar zufälliger Weise, aber tatsächlich durch messbare physische Faktoren, wie plötzliche Änderungen in der Tiefe oder unterirdische seismographische Vorgänge im Wasser auftreten. Durch Verdopplung von einzelnen Wellen entstehen ‹Solitons›, Energieimpulse, die durch Festkörper, Flüssigkeiten oder Gase hindurchgehen; es ergeben sich nichtlineare Interaktionen.»14 Diese Interaktionen wirken als Deformationen auf den Würfel und generieren eine neue Form, welche nicht vorhersagbar war. Man kann sie nur durch den Computer entdecken. Die so generierte Form erzählt dann von der kontextuellen Umgebung. Auf diese Weise wird die Geschichte der Umgebung in der Form gespeichert. Diese Art des Geschichtenerzählens illustriert den neuen und in Zukunft weit reichenden Einfluss der Computer auf die Lebenswelt als story telling with code. 14 Siehe Anm. 12, 1995, S. 2. Anette LeCuyer bezieht sich auf Eisenmans Projekt «Haus Immendorf» in Düsseldorf.

3

Gabriele Gramelsberger | Story Telling with Code

Sollten solchermaßen entworfene Gebäude gebaut werden, dann bedarf es einer neuen Lesart und Rezeption dieser Bauten. Ihr Code lässt sich nicht so leicht entschlüsseln, wie dies für klassisch konstruierte Gebäude anhand des tradierten Formenkanons der Fall sein mag. Neue Materialien und neue Kommunikationstechnologien aber werden es in Zukunft erlauben, die Kontextualität und damit Narration dieser neuen Objekte lesbar zu machen. Neue Materialien werden aber auch die Evolution der Form als dynamisches Gebilde in die gebaute Realität fortsetzen. Denkt man die Möglichkeiten weiter, dann wird das gebaute Objekt kein auf ewig verfestigter Momentzustand der temporären Form sein, dann werden Gebäude in Zukunft wohl in Echtzeit sogar ihre Form verändern können. Naturwissenschaftliche Computerlabore Computer im Sinne des parametrischen Design zur Generierung neuer Formen und Formensprachen zu nutzen, verweist auf Arbeitspraktiken, wie man sie allenthalben in naturwissenschaftlichen Computerlabors findet. Tatsächlich wird dort seit einigen Jahren das parametrische Design der Natur, basierend auf Computersimulationen in Form von Klima-, Zell- oder Molekülsimulationen, erprobt. Dabei kann die Naturwissenschaft auf ein mächtiges Gestaltungsprinzip zurückgreifen, das sie bereits im 17. Jahrhundert entschlüsselt hat: die Mechanik und Dynamik physikalischer Prozesse. Beispielsweise ist das Simulationsmodell der Atmosphäre in Wetter- oder Klimamodellen eine programmierte, mechanische Atmosphäre tausender von Fluiden (ausdehnungslose Masseteilchen). Die Simulation besteht darin, die Kräfte, welche auf die Fluide wirken, gemäß den dynamischen und physikalischen Prinzipien zu simulieren. Dabei wirken sich die in das simulierte System einwirkenden Messdaten auf die Ergebnisse aus. Da es der Naturwissenschaft weniger um Formen als um Prozesse geht, ist das Resultat einer solchen Simulation eine Prognose, wie sich die Prozesse entwickeln werden, beispielsweise um das Wetter vorherzusagen. Man könnte sie aber auch als Verformungskräfte auf die Atmosphäre darstellen, wie dies Wetterberichte tun, wenn sie Turbulenzen, Luftmassenformationen oder Wetterlagen anschaulich visualisieren. Interessanterweise bestand die wissenschaftliche Leistung des 17. Jahrhunderts nicht nur in der Entschlüsselung der physikalischen Gestaltungsprinzipien durch Isaac Newton. Der eigentliche Durchbruch dieser neuen Physik gelang mit der Erfindung einer mathematischen Methode, welche es ermöglichte, Prozesse in Raum und Zeit darzustellen. Die Rede ist vom Differentialkalkül, welches

39

Vorgänge infinitesimal handhabbar machte. Mit dem Differentialkalkül überwand die neuzeitliche Wissenschaft die geometrische und damit statische Naturdarstellungsform der antiken Mathematik, die mithilfe von Lineal und Zirkel Prozesse von der Linie aus konzipierte, und damit als geometrische Objekte konstruierte. Beispiele dieser Art der Naturkonzeption finden sich in mittelalterlichen Darstellungen des Kosmos mit Planetenbahnen entsprechend den platonischen Körpern. Mit dem Differentialkalkül wurde Natur vom mathematischen Punkt aus konzipiert, auf welchen verschiedenste Kräfte wirken. Diese Wirkungen generieren die Trajektorien eines Systems, welche sich ausschließlich als Bahnen oder Kurven vom Punkt aus entwickeln. Der Punkt trägt die Codierung seiner Entwicklung quasi in sich und entfaltet diese im Laufe der Berechnung oder Simulation. «Die anschauliche geometrische Linie löst sich kraft dieses Verfahrens in eine reine Wertfolge von Zahlen auf, die durch eine bestimmte arithmetische Regel miteinander verknüpft sind.»15 Die Naturwissenschaft hat diesen Schritt vom Objekt, oder wie Ernst Cassirer es nennt: der «Substanz», hin zur Funktion im Laufe des 17. Jahrhunderts vollzogen. Da die Ablösung der Geometrie durch Algebra und Arithmetik eine rechenaufwendige Substitution ist – bereits eine einzige Linie oder Kurve besteht aus unendlich vielen Punkten – brauchte es automatische Rechenmaschinen, um Systeme, aufgelöst in Millionen von Punkten, effektiv berechnen zu können. Hier liegt sowohl der Ursprung des Computers als rein mathematische Maschine als auch die Motivation in den 1940er Jahren, automatische Rechenmaschinen zu bauen. Der enorme Anstieg der Leistungs- und Visualisierungsfähigkeit der Computer seit den 1970er, aber verstärkt seit den 1990er Jahren, trägt nun diese Transformation des klassischen Formenkanons der Geometrie in mathematische Punkte und Trajektorien in Bereiche außerhalb der Naturwissenschaften, wie eben der Architektur. Damit werden neue Erzählweisen von Natur, Umwelt, Technik und Architektur möglich.

15 Ernst Cassirer: Substanzbegriff und Funktionsbegriff. Untersuchungen über die Grundfragen der Erkenntniskritik, Berlin 1910, S. 95.

40

Georg Trogemann CODE UND MASCHINE Codes sind in der Informatik eng verbunden mit dem Begriffsdreieck Kommunikation – Nachricht – Information. Gemeinsame Basis dieser Begriffe ist die semiotische Betrachtung von Kommunikationsabläufen, die davon ausgeht, dass alle Kommunikation als Sendung von Nachrichten aufgefasst werden kann. Jede Darstellungsform einer Nachricht ist in diesem Zusammenhang eine «Codierung» und jedes System von Zeichen – das durch vorherige Übereinkunft dazu bestimmt ist, die Information zu repräsentieren und sie zwischen Sender und Empfänger zu übertragen – heißt «Code». Im engeren mathematischen Sinn ist ein Code eine Vorschrift für die eindeutige Zuordnung der Zeichen eines Zeichenvorrats zu denjenigen eines anderen Zeichenvorrats. Ziel der Codierungstheorie innerhalb der Informatik ist es, Methoden bereitzustellen, um Nachrichten unterschiedlichster Herkunft mit geeigneten Zeichensystemen möglichst schnell, fehlerfrei und effizient zu speichern und zu übertragen. Der Begriff «Code» wird dabei in doppelter Weise verwendet, einmal für die mathematische Abbildungsvorschrift, zum anderen für die durch die Codierung entstehenden Zeichenketten. Die innere Struktur der Zeichen, also die Beziehung der Zeichen zueinander, wie auch die Abbildungsvorschriften zwischen Zeichenvorräten sollen nicht Gegenstand der hier angestellten Überlegungen sein. Wir wollen nicht einzelne Codierverfahren oder formale Sprachen und ihre Vor- und Nachteile betrachten, sondern die Frage stellen, wie Codes innerhalb der Gesamtkonfiguration gegenwärtiger Rechnerarchitekturen ihre Wirkmacht entfalten. In der Computerpraxis vor 1970 war einzig die teure Hardware von wirtschaftlichem Interesse und Programme wurden als kostenlose Zugabe betrachtet. Heute haben sich die Verhältnisse umgekehrt. Die Welt des Rechnens ist bestimmt von flottierenden Codes, die sich frei durch die Netze bewegen und die billige Hardware nur noch als wählbare Umgebung betrachten. Beim cloud computing, der kommenden Stufe der Rechnervernetzung, werden wir nicht mehr wissen, wo die Programmcodes gerechnet und wo die Daten gespeichert werden. Das weltumspannende Netz prägt bereits heute nicht nur die globale Ökonomie, sondern zunehmend auch unsere Wahrnehmung und Erkenntnis, ja die Wirklichkeit insgesamt scheint durch Computer hindurch konstruiert zu werden. Die Codes im Sinne von Quellcode oder Programmcode, das heißt die nach den Regeln konkreter Programmiersprachen abgefassten Algorithmen, spielen hierbei eine entscheidende Rolle.

41

Code und Erkenntnis «Am Ende verfällt alles dem algorithmischen Zugriff.»1 Frieder Nake Programme avancieren zu unverzichtbaren Assistenten, die maßgeblich an der Produktion neuer Erkenntnisse und Methoden beteiligt sind, zum Beispiel bei der Erfindung neuer Werkstoffe, bei komplexen Beweisführungen in der Mathematik oder bei der Simulation des Klimas. Aber nicht nur die Natur- und Ingenieurswissenschaften, auch klassische Entwurfsdisziplinen wie Design und Architektur stützen ihre Arbeit auf die verschiedensten Software-Werkzeuge. Wie kommt es zu dieser Allgegenwart der Codes und welchen versteckten Einfluss haben sie auf die Ergebnisse der Arbeitsprozesse? Mit der durchgreifenden Axiomatisierung und Formalisierung in der Mathematik und ihrer konsequenten Anwendung in den Naturwissenschaften ging unvermeidlich die Verselbständigung der Zeichen einher. Bis zu David Hilbert hatten die Zeichen noch einen – wenn auch bereits gelockerten – Bezug zur Welt gehabt. Während die Euklidische Geometrie noch Definitionen des Punktes und der Geraden versucht hatte, ging der Göttinger Mathematiker David Hilbert in seiner Axiomatik der Geometrie ganz formal vor. Einzig und alleine die Verknüpfungen waren für ihn von Interesse, die Objekte selbst blieben undefiniert und wurden nur noch gewohnheitsmäßig mit Worten aus dem Sprachgebrauch der Geometrie belegt. Hilbert selbst forderte: Man muss jederzeit anstelle von «Punkt», «Gerade» oder «Ebene» auch «Tisch», «Stuhl» und «Bierseidel» sagen können. Mit seinem strikt formalen Ansatz wollte er die gesamte Mathematik auf der Grundlage eines konsistenten Axiomsystems aufbauen und die Zweifel an der Sicherheit mathematischer Schlussfolgerungen ein für alle Mal aus der Welt schaffen. In Hilberts Programm waren die Zeichen noch mit den Wahrheiten in der Welt verbunden. Die Postmoderne verzichtete dagegen vollständig auf den Wahrheitsanspruch semiotischer Repräsentationen. Codes bildeten nun eine eigene Realität, sie standen nicht mehr für die Welt, sondern für sich selbst. Sie wurden zu Platzhaltern für beliebige Inhalte, und der Umgang mit ihnen beschränkte sich auf ein schematisches Operieren mit Zeichen. Beziehungen zwischen den Zeichen und den beobachtbaren Phänomenen beanspruchten keine Allgemeingültigkeit mehr, sondern unterlagen ausschließlich der Zweck1

Aus dem Vortrag «WolkenBilder, wolkig», gehalten auf der HyperKult 18 in Lüneburg am 4. Juli 2009.

42

Georg Trogemann | Code und Maschine

mäßigkeit – Pragmatismus statt Wahrheit. Doch diese Einschränkung des Wahrheitsanspruchs ist nur die eine Seite der Medaille, unterschätzt wird die Realitätsbildung, die von den Zeichen selbst ausgeht. Obwohl formale Systeme in der Mathematik gründen, wirken sie auf einer Ebene, auf der sich die Mitglieder einer Gemeinschaft, trotz all ihrer Verschiedenheit, aufeinander beziehen können. Jedem denkenden Subjekt ist diese allgemeine Rationalität zugänglich. Rationales Denken ist, sobald es von hinreichend Vielen angewandt wird, immer auch öffentliches und gesellschaftliches Denken. Voraussetzung für die Teilnahme an dieser Form des öffentlichen Denkens ist Abstraktionsfähigkeit, sie ist die individuelle Basis. Rationales Wissen, das in codierter Form vorliegt, wird insofern öffentliches und objektiviertes Wissen, als es von jedem nachvollzogen werden kann, der in der Lage ist, die formalen Codes zu lesen. Rationale Prozesse, die in Maschinen ausgelagert werden, sind in dieser Sichtweise eine Form von objektivierter Handlungstheorie. Holling und Kempin2 bezeichnen sie als «implementierte Theorie», wobei sie unter einer «Implementierung» generell die Umsetzung eines formalen Verfahrens in eine Maschine verstehen. Damit sind implementierbare Theorien eine Teilmenge der möglichen Theorien, die sich dadurch auszeichnen, dass sie operationalisierbar sind. Die beiden Autoren weisen an gleicher Stelle darauf hin, dass die Unterschätzung des Formalen eine lange Tradition hat, und dies nicht nur in den Geisteswissenschaften, die Formalismen für ein begrenztes Hilfsmittel der Naturwissenschaften halten, sondern auch in der Mathematik selbst, die ihren Zeichensystemen ebenfalls keinerlei gesellschaftliche Bedeutung beimisst. Die eigentliche Bedeutung des Formalen als gesellschaftliche Integrationsinstanz und als implementierte Theorie, wird von beiden Seiten übersehen. Mit der Verbreitung von Computern ist auch die Verbreitung der formalen Codes noch einmal explosionsartig angewachsen, dennoch bleiben sie weiterhin nahezu unsichtbar und unbeachtet. Wir wollen etwas genauer auf die Frage eingehen, wie es überhaupt möglich ist, Denkprozesse auf Maschinen zu übertragen. Die Antwort lautet: Der Denkprozess muss lediglich in einen maschinellen Handlungsprozess übersetzt werden. Hierbei kommt der Formalisierung die entscheidende Vermittlerrolle zu. Formalismen dienen der exakten symbolischen Beschreibung von Methoden, 2 Eggert Holling, Peter Kempin: Identität, Geist und Maschine – Auf dem Weg zur technologischen Gesellschaft, Hamburg 199, S. 2.

43

wobei Methoden unter dem Gesichtspunkt der Formalisierung nichts anderes sind, als Regeln für unser Handeln, die es gestatten, aus unendlich vielen Handlungsalternativen eine bestimmte auszuwählen. Bereits geleistete Verständnisarbeit wird mit Hilfe formaler Strukturen funktionalisiert und damit zu erlernbarem Erkenntnisbesitz und zum übertragbaren Verfahren. «Formalisierung ist nichts anderes als die handlichste Art solcher Funktionalisierung des einmal Geleisteten; aber sie ist eben auch potenziell schon Technisierung, denn was formalisiert werden kann – das heißt: was seine Anwendbarkeit unabhängig von der Einsichtigkeit des Vollzuges gewinnt –, das ist im Grunde auch schon mechanisiert, auch wenn die realen Mechanismen zu seiner Speicherung und geregelten Assoziation nicht bereit gestanden haben. Alle Methodik will unreflektierte Wiederholbarkeit schaffen, ein wachsendes Fundament von Voraussetzungen, das zwar immer mit im Spiele ist, aber nicht immer aktualisiert werden muss.»3 Wir erleben derzeit, wie die Algorithmisierung unserer Lebenswelt immer weiter ausgreift und – im Diktum Frieder Nakes – am Ende alles dem algorithmischen Zugriff verfällt. Die eigentliche Bedeutung der Codes liegt dabei in ihrer Funktion als gesellschaftliche Integrationsinstanz. Was codiert, auf tausende Maschinen übertragen und durch permanente Widerholung Teil unserer Alltagswelt wird, stabilisiert sich selbst und wird schließlich zum kulturellen, unhinterfragten Sediment. Als implementierte und lauffähige Theorie, gehen die formalen Codes dabei mit der Maschine eine neuartige und mächtige Verbindung ein. Computer sind nicht nur passive Träger von Zeichen, sondern aktive Erzeuger – Zeichen erzeugen Zeichen. Doch wäre es ein Fehler zu glauben, wir bekämen genau jene Phänomene zurück, die wir in der Entwurfsphase der Programme schon hineingesteckt haben. Der Abstraktionsprozess, der notwendig ist, um zu Algorithmen und operierenden Zeichen zu kommen, läuft während der Ausführung der Codes zwar gewissermaßen rückwärts ab, aber nicht identisch. Wenn Abstraktion ein Zurücktreten, Generalisieren und Reinigen der Phänomene von Unwesentlichem und Zweideutigem ist, dann laden die analogen Interfaces in der Programmausführung die Ergebnisse wieder mit Unbeabsichtigtem, Unschärfen und Mehrdeutigkeiten auf, zum Beispiel beim Übergang vom bildgenerierenden Algorithmus zum Bild selbst. Aber aufgeladen wird nun natürlich Anderes als das, was vorher durch Abstraktion, also auf dem Weg zum Algorithmus, weggeworfen wurde. 3

Hans Blumenberg: Wirklichkeiten, in denen wir leben, Ditzingen 191, S. 41.

44

Georg Trogemann | Code und Maschine

Universalität durch Codierung «Die Bedeutung der universalen Maschine ist klar. Wir brauchen nicht unzählige unterschiedliche Maschinen für unterschiedliche Aufgaben. Eine einzige wird genügen. Das technische Problem der Herstellung verschiedener Maschinen für verschiedene Zwecke ist ersetzt durch die Schreibarbeit, die Universalmaschine für diese Aufgabe zu programmieren.»4 Alan Mathison Turing In seinem berühmten Aufsatz «On Computable Numbers, with an Application to the Entscheidungsproblem» beschreibt Alan Turing das Prinzip der universellen Maschine wie folgt: «Es ist möglich, eine einzige Maschine zu erfinden, die dazu verwendet werden kann, jede berechenbare Folge zu errechnen. Wenn diese Maschine U mit einem Band gespeist wird, dessen Anfang mit der D.N.5 irgendeiner rechnenden Maschine M beschriftet ist, so wird U dieselbe Funktion wie M errechnen.»6 Praktisch umgesetzt heißt das, man codiert die Liste von Instruktionen für eine spezielle Turingmaschine M und schreibt diese auf den vorderen Teil des Bandes. Codieren heißt, dass wir im Falle einer binären universellen Maschine nicht nur die Daten, sondern auch das Programm als Folge von Nullen und Einsen darstellen. Dieser Bandabschnitt ist nun der erste Teil des Inputs für die universelle Turingmaschine U. Sie bearbeitet den restlichen Teil des Bandes, indem sie die Instruktionen auf dem vorderen Teil des Bandes ausführt und so die spezielle Maschine M exakt imitiert. Heutige programmierbare Computer funktionieren im Prinzip genauso. Sie simulieren das Verhalten einer speziellen Maschine dadurch, dass der Programmcode zusammen mit den Daten im Speicher der Maschine steht. Die Universalmaschine ist ohne Software zwar offen für alle denkbaren Verhaltensweisen, für sich alleine ist sie allerdings handlungsunfähig. Erst bei Programmstart verhält sich die Universalmaschine dann wie die spezielle Maschine, die durch das Programm definiert ist. Universelle Rechner bestehen damit aus zwei maschinellen Schichten: 1. einer Hardware, die an die Gesetze des klassischen Materials gebunden ist, 2. den Programmcodes, die nur noch algorithmischen Gesetzen unterliegen. 4 Alan Mathison Turing: Intelligente Maschinen, zitiert nach: Bernhard Dotzler, Friedrich Kittler (Hrsg.): Alan Turing, Intelligence Service. Ausgewählte Schriften, Berlin 197, S. . 5 D.N. = description number (Beschreibungszahl). 6 Ebenda, Beitrag: «Über berechenbare Zahlen mit einer Anwendung auf das Entscheidungsproblem», S. 31.

45

Die erste Schicht – die Hardware – ist naturgebunden und gehorcht den Gesetzen unserer physikalischen Welt. Sie verbraucht Energie, unterliegt Alterungsprozessen, die irgendwann zu Fehlfunktionen führen, sie kann durch einwirkende Kräfte (mechanische Stöße, Magnetismus, Überspannung etc.) beschädigt werden. Diese materielle Maschine kann auf der Basis physikalischer Prinzipien logische Elementaroperationen realisieren. Auf dieser elektronischen (mechanischen, optischen etc.) Maschine sitzt eine zweite Schicht, die den physikalischen Gesetzen nicht mehr unterliegt, sondern nur noch der menschlichen Rationalität und den Grenzen des Formalen verpflichtet ist. Diese codebasierte Maschine kennt keine materiellen Schwächen mehr, sondern nur Ausfälle, die auf logische Fehler des Programmierers zurückgehen. Die codebasierte Maschine realisiert die Welt der Algorithmen, sie steuert das Verhalten der unteren Schicht und ist dabei strikt an formale Sprachen und an die Gesetze der menschlichen Logik gebunden. Auf dieser algorithmischen Ebene der Maschine lassen sich zum Beispiel neue physikalische Welten beschreiben und simulieren, in der ganz neue und andersartige Naturgesetze gelten. Wir können unsere Reflexion über die physikalische Welt in Form von Algorithmen an die Maschine abgeben, diesem logischen Konstrukt in der Simulation aber auf vollkommen neue Weise wieder begegnen, nicht mehr als formallogische Beschreibung, sondern als Erfahrungswelt. Die Grenzen dieser zweiten Maschine liegen also nicht in unserer physikalischen Welt, sondern den Begrenzungen der Codes und dem menschlichen Vermögen, algorithmische Welten zu erfinden. Reflexivität der Codes In der programmierbaren Maschine werden sowohl Daten als auch Programme auf der Grundlage identischer Zeichen codiert. Die Zeichen können deshalb, anders als in der Arithmetik, welche strikt zwischen Operanden und Operatoren trennt, in neue Verhältnisse zueinander treten. Im Rechner können nicht nur Daten maschinell verarbeitet werden, sondern auch Programme. Während in der Architektur Gebäude von Architekten entworfen werden, sind es in der Architektur der Rechner vor allem andere Rechner, die aktiv die nächste Generation von Rechnern mitentwickeln. Möglich ist das durch das Umschlagen der Codes. Wir können Codes als Daten behandeln aber auch aktiv manipulieren, das bedeutet, im nächsten Moment können diese selbst zu rechnenden Einheiten werden. Jedes Herunterladen und starten eines Programms aus dem Netz ist ein Beispiel

46

Georg Trogemann | Code und Maschine

für diesen Wechsel zwischen Code als Operand und Code als Operator. Während des Transfers durch das Netz ist der Programmcode passiv und wird von der Netzwerksoftware selbst als Daten behandelt. Durch das Starten des Programms auf dem Rechner schlägt der Code vom Status des Operanden um in den Modus des Operators. Als Operator wird der Code nun selbst Daten manipulieren. Erst durch die Reflexivität des Codes erhält die Maschine ihre praktische Bedeutung. Ohne selbstbezügliche Verarbeitungsmechanismen wäre die Arbeit am Rechner bis heute ein Umgang mit Nullen und Einsen. Zur Verdeutlichung der reflexiven Beziehungen, die zwischen den Codes als Operanden und den Codes als Operatoren herstellbar sind, wollen wir zwei etwas komplexere Beispiele anführen: die Compiler und die Genetische Programmierung. Compiler sind Programme, die als Eingabe Zeichen erhalten (ein Programm a) und daraus neue Zeichen (Programm a’) erzeugen. Wichtig an der Funktion des Compilers ist, dass er seine Arbeit im ersten Schritt so ausführt, dass im zweiten Schritt ein Umschlag des Programms vom Status des Operanden in den Status des Operators stattfinden kann. Compiler müssen, um von der Maschine ausgeführt werden zu können, als Maschinenprogramme vorliegen. Ihre Erstellung ist eine sehr aufwendige Entwicklungsaufgabe. Da sich jeder Compiler auf eine bestimmte Programmiersprache und eine bestimmte Maschinensprache bezieht, müssen für n Programmiersprachen und m Maschinensprachen n x m Compiler geschrieben werden, was einen mit der Anzahl n und m quadratisch wachsenden Aufwand bedeutet. Durch geschickte Ausnutzung von Code-Reflexivitäten besteht auch hier die Möglichkeit, Compiler bis zu einem gewissen Grad durch sich selbst zu übersetzen. Das unter dem Begriff «bootstrapping» in der Compilerentwicklung schon sehr früh verwendete Verfahren, erstellt bei Vorliegen eines Compilers a für eine bestimmte Implementierungssprache und eine Rechenanlage A mit geringem Aufwand einen Compiler b für diese Implementierungssprache und eine Maschine B. 1. Im Compiler a, der als Code in der Implementierungssprache vorliegt, werden an allen Stellen, an denen Maschinensprache für die Maschine A erzeugt wird, die entsprechenden Befehle der Maschine B eingesetzt. Durch diesen Vorgang erhält man a’. 2. Man übersetzt a’ mit Hilfe von A und a in die Maschinensprache von A und erhält a’’. 3. a’’ ist ein lauffähiges Programm für die Rechenanlage A. Dieses Programm erhält als Input wiederum a’ und erzeugt ein Maschinenprogramm b, das auf der

47

Rechenanlage B lauffähig ist. B ist der gewünschte Compiler, der auf B lauffähig ist und Programme erzeugt, die ebenfalls auf b laufen. Die Genetische Programmierung gehört zur Klasse der Evolutionären Algorithmen, die als heuristische Optimierungsverfahren auch dann noch gute Ergebnisse für eine Problemstellung liefern, wenn geschlossene Lösungen nicht zur Verfügung stehen. Sie arbeiten nach dem Vorbild der biologischen Evolution auf Basis von Populationen von Individuen, die von Generation zu Generation ihren genetischen Code vererben. Die Eigenschaften der einzelnen Individuen sind als Genotypen codiert. Sie repräsentieren das Erbgut der Individuen und liefern Baupläne für die Individuen. Die Reproduktion einer Population von einer Generation in die nächste erfolgt durch identisches Kopieren, die Mutation einzelner zufällig gewählter Positionen des Codes sowie den Austausch von Teilstrukturen zwischen zwei Individuen (crossover). Veränderungen der Merkmale eines Individuums können ausschließlich am Genotyp (den Zeichenketten) vorgenommen werden, die Selektion der Besten gemäß Fitness-Funktion erfolgt dagegen am Phänotyp. Der Phänotyp ist die physikalische Manifestation des Genotyps, also die Merkmalsausprägung eines Individuums in seiner Umwelt. In der Genetischen Programmierung werden spezielle Genotypen behandelt, nämlich Computerprogramme. Der Genotyp ist hier der Programmcode und der Phänotyp die Performance des Programms, wenn es auf einem Rechner ausgeführt wird. Auch hier erkennen wir wieder den Mechanismus des Umschlagens zwischen Code als Operator und Code als Operand. Für den genetischen Basisalgorithmus fungiert der Genotyp als Operand, der Phänotyp dieses Codes dagegen als Operator. Maschinelle Selbstreproduktion Das skizzierte Prinzip der Genetischen Programmierung ist gleichzeitig ein Beispiel für die oben beschriebene Aufspaltung des Universalrechners in zwei Maschinen. Mittels evolutionärer Algorithmen erhalten wir Codes, die in der Lage sind, sich selbst zu manipulieren und in ihrer Performanz weiterzuentwickeln. Die untere Schicht der Maschine, die Hardware, auf der das genetische Programm läuft, bleibt davon vollkommen unberührt. Im Folgenden wollen wir zeigen, dass die Ausweitung der Selbstmanipulationsstrategien von Codes auf die physikalische Welt in der klassischen Variante ebenfalls Codes verwendet. Hierzu müssen wir allerdings eine scharfe Unterscheidung zwischen «Selbstreplikation» und «Selbstreproduktion» treffen. «Selbstreplikation» ist ein

4

Georg Trogemann | Code und Maschine

Prozess, durch den ein Objekt eine Kopie von sich selbst herstellt. Im Falle maschineller Replikation lässt sich dies als deterministischer Prozess realisieren, bei dem es vor allem darauf ankommt, dass keine Fehler passieren. Codes, die als explizite Beschreibungen der Maschine vorliegen, sind dafür nicht erforderlich. «Selbstreproduktion» enthält im Unterschied dazu eine Aufwärtsbewegung zur Vielfalt, sie implementiert einen Entwicklungsprozess, bei dem Abweichungen und Unterschiede zur Vorgängergeneration nicht nur zulässig sind, sondern erwünscht. Die Selbstreproduktion ist damit ein selbsterhaltendes System, das dem Darwinschen Evolutionsgedanken folgt. Für die Simulation des Lebens würde die Selbstreplikation nicht genügen, weil sie keine vererbbaren Mutationen kennt. Um maschinelle Selbstreproduktion zu realisieren, scheint es aber vorteilhaft zu sein, dass Maschinen nicht nur Material ihrer Umgebung verarbeiten, um daraus Kopien ihrer Selbst zu bauen, sondern gleichzeitig mit expliziten Informationen umgehen, die als Codes vorliegen. Dabei handelt es sich nicht um irgendwelche Codes, sondern um reflexive Informationen, also Beschreibungen ihrer eigenen Konstruktion. Der erste Prozess dieser Art, der nicht nur die einfache Selbstreplikation erlaubt, sondern das evolutionäre Problem der Selbstreproduktion löst, geht auf den Mathematiker John von Neumann zurück. Auf den ersten Blick erscheint diese Fähigkeit wie ein Circulus vitiosus, da wir erwarten würden, dass die Kompliziertheit von Systemen, die andere Systeme bauen, von den Eltern zu den Nachkommen abnimmt. Damit ein Automat A einen Automaten B bauen kann, muss er schließlich nicht nur eine vollständige Beschreibung von B enthalten, sondern auch noch verschiedene Vorrichtungen besitzen, um die Beschreibung interpretieren und die Bauarbeit ausführen zu können. Die plausibel erscheinende Annahme, die Kompliziertheit von sich selbst bauenden Automaten müsste von Generation zu Generation abnehmen, steht aber im Widerspruch zur offensichtlichen Selbsterhaltungsfähigkeit der Natur. Organismen pflanzen sich fort und produzieren neue Organismen, die mindestens genauso kompliziert sind wie sie selbst. Im Laufe langer Evolutionsperioden kann die Kompliziertheit, wie wir wissen, sogar zunehmen. Wie aber sehen die allgemeinen logischen Prinzipien aus, die Automaten zur Selbstfortpflanzung befähigen und sogar eine Steigerung an Kompliziertheit ermöglichen? Von Neumanns Schlussfolgerung lautet: Es gibt ein minimales Niveau von Kompliziertheit, auf dem Automaten möglich sind, die sich selbst fortpflanzen oder sogar höhere Gebilde bauen. Unterhalb dieses Niveaus sind Automaten

49

degenerativ, das heißt Automaten, die andere Automaten bauen, sind nur in der Lage, einen weniger komplizierten zu erzeugen. Insgesamt betrachtete John von Neumann fünf verschiedene Modelle der Selbstreproduktion. Burks nennt sie: das kinematische Modell, das zellulare Modell, das Erregungs-SchwellwertErmüdungs-Modell, das kontinuierliche Modell und das probabilistische Modell.7 Für das Problem der kinematischen Selbstfortpflanzung, das wir im Folgenden näher betrachten wollen, reicht das Konzept der Turingmaschine nicht aus, da sie nur Zeichen auf einem Stück Band produzieren. Von Neumann zielt mit dem kinematischen Modell aber auf Automaten ab, die Automaten bauen, die also nicht nur Zeichen manipulieren, sondern auch Hardware bauen. Das Grundprinzip des kinematischen Systems, über das von Neumann seit mindestens 194 nachdachte, lässt sich leicht skizzieren. Von Neumanns selbstreproduzierender Automat ist ein Aggregat aus drei Automaten und ihren jeweiligen Beschreibungen (Bauplänen). Erstens einem Konstruktionsautomat A, der in der Lage ist, jeden beliebigen Automaten X zu bauen, wenn er mit einer Beschreibung des Automaten F(X) gefüttert wird, zweitens einem Kopierautomat B, der von jeder Beschreibung eine identische Kopie herstellen kann, und drittens einem Kontrollautomat C der das Zusammenspiel der Automaten A und B kontrolliert. Zunächst aktiviert dieser den Automaten A, der sofort beginnt, den Automaten X gemäß der Beschreibung F(X) zu bauen. Anschließend aktiviert er den Automaten B, der daraufhin eine Kopie von F(X) herstellt. Diese Kopie setzt C in den neuen Automaten X ein, der gerade von A gebaut wurde. Als letztes trennt C die neu entstandene Konstruktion X + F(X) vom Konstruktionsautomaten ab. Wir können nun das Gesamtaggregat A + B + C mit D bezeichnen und erhalten den gesuchten Selbstreproduktionsautomat D + F(D), wobei F(D) wieder eine Beschreibung des Automaten D ist. Wichtig am Von-Neumannschen-Prinzip der Selbstreproduktion ist, dass es nicht ohne Codierung auskommt. Die Maschinen müssen den Umweg über die Codierung ihrer eigenen Konstruktion gehen, um reproduktionsfähig zu sein. Doch dadurch repliziert sich der Automat D + F(D) nicht einfach nur, sondern besitzt weitere wichtige Eigenschaften. Wir sehen

7 Vgl. John v. Neumann: Theory of Self-Reproducing Automata, herausgegeben und vervollständigt von Arthur W. Burks, Urbana 1966.  Vgl. Georg Trogemann, Jochen Viehoff: CodeArt – Eine elementare Einführung in die Programmierung als künstlerische Praktik, Wien, New York, 2005, S. 443ff.

50

Georg Trogemann | Code und Maschine

zum Beispiel, dass zufällige Änderungen an F(D) Merkmale aufweisen, die in der Biologie in Verbindung mit Mutationen auftreten. Die meisten willkürlichen Änderungen an F(D) werden dazu führen, dass der Automat nicht mehr funktionsfähig ist. Bei einer genügend großen Zahl von Änderungen werden jedoch einige dabei sein, die zu neuen funktionsfähigen Automaten führen. Diese neuen Automaten besitzen andere Eigenschaften als ihre Vorgänger. Kleine Änderungen in der Beschreibung des Automaten erlauben Konstruktionsprozesse, die nicht nur den Automaten reproduzieren, sondern auch noch Nebenprodukte herstellen. Sei E ein Automat mit zugehöriger Beschreibung F(E); wenn wir obigen selbstreproduzierenden Automaten D = (A + B + C) mit F(A + B + C + E) füttern, wird ein neuer Automat (A + B + C + D) + F(A + B + C + E) erzeugt. Der neue Automat stellt nicht nur eine Kopie seiner selbst her, sondern produziert auch noch den Automaten E. Dieses Spiel der Automaten benötigt keinen Benutzer mehr, ihre Vervielfältigung und Weiterentwicklung läuft, sobald der Prozess einmal angestoßen ist, ohne weiteres Zutun ab. Abgesehen von den Gefahren, die eine vollständige Aufgabe der menschlichen Kontrolle birgt, ist diese Form maschineller Autonomie auch sonst für die meisten Arbeitsprozesse überhaupt nicht erstrebenswert. Viel interessanter sind Werkzeuge, die die Handlungsmöglichkeiten ihrer Benutzer erweitern, nicht die der Maschinen. In diesem Zusammenhang stellt sich dann die Frage, wie weit die Entscheidungen des Programmierers und die deterministisch ablaufenden Codes die erzielbaren Arbeitsergebnisse mitbestimmen. Welche kreativen Spielräume erlauben Softwarewerkzeuge ihren Nutzern? Die Offenheit der Codes Ein Vorgang ist dann formal beschreibbar, wenn er die Bedingungen der Schriftlichkeit, der Schematisierbarkeit und der Interpretationsfreiheit erfüllt.9 Schriftlichkeit bedeutet, dass wir den Vorgang mit Hilfe von Zeichen ausdrücken können. Schematisierbarkeit heißt, der Ablauf lässt sich als festes Schema und allgemeines Verfahren (also algorithmisch) beschreiben, und Interpretationsfreiheit meint, dass wir vollkommen frei in der Wahl der Zeichen und Bezeichnungen sind, da wir bei der Ausführung der Operationen keinen Bezug mehr darauf nehmen, wofür die Zeichen stehen. Durch den Vorgang der Formalisierung entledigen wir uns auf der Ebene der Zeichen jeder Bedeutung. Der 9

51

Vgl. Sybille Krämer: Symbolische Maschinen, Darmstadt 19, S. 1–4.

Außenstehende kann nur dann die Bedeutung aus den Zeichen lesen, wenn er den Schlüssel der Codierung kennt. Alle drei Bedingungen der Formalisierung sind automatisch erfüllt, wenn es gelingt, einen Ablauf in einer maschinenlesbaren Programmiersprache auszudrücken. Formale Strukturen, so die damit einhergehende Vorstellung, lassen der Imagination keinen Raum. Durch die Formalisierung sollen Gegebenheiten ja gerade möglichst exakt erfasst und jede Missdeutung und Unschärfe ausgeschaltet werden. Es stellt sich die Frage, wo beim Umgang mit dem Computer die Freiräume für die Partizipation und die Imagination des Nutzers liegen. Erlauben die formalen Grundmuster des Computers und seiner Programmierung lediglich starre unkreative Ergebnisse? Wie weit ist der Architekt, der mit Programmen arbeitet, überhaupt noch frei in seinen Entwürfen und Entscheidungen. Sind nicht in jeder Software lange vor der Einzelproduktion alle Entscheidungen bereits im Werkzeug festgelegt, die einstmals im freien Ermessen des Architekten lagen. Gibt es dennoch Spielräume, die freie Entwürfe jenseits der Setzungen durch den Programmierer zulassen? Unter Offenheit eines Programmcodes wollen wir ganz allgemein die Eigenschaft verstehen, dem Benutzer jeweils neue Handlungs- und Interpretationsspielräume zu eröffnen und in der Arbeit mit dem Programm eine gewisse Flexibilität und Durchlässigkeit für seine Intentionen zu schaffen. Der Programmtext ist aber immer das explizit und unzweideutig Gegebene. Auf dieser Beschreibungsebene können Freiheiten nur erreicht werden, indem wir die bereits oben diskutierten Selbstveränderungsstrategien für Codes einsetzen wie Lernverfahren, Selbstreferenzen oder allgemein Code-Reflexivitäten. Nur indem der Code sich selbst fortschreibt, kann auf der performativen Ebene des Codes wirklich Neues entstehen, das auch aus der Sicht des Programmierers als unvorhergesehen gewertet werden muss. Tatsächlich kann Offenheit einer Applikation aber sehr viel einfacher ohne explizite Änderung des Codes in jeder gewöhnlichen Anwendung erreicht werden. Um Offenheit zu erhalten – so die hier vertretene These – dürfen genau die Qualitäten, die offen gehalten werden sollen, nicht formalisiert werden. Hierzu ein Beispiel aus der Architektur. Umberto Eco klassifiziert die architektonischen Codes in syntaktische und semantische.10 Syntaktische Codes bilden dabei das Wissen von den Konstruk10 Umberto Eco: Einführung in die Semiotik, München 1994 (ital. Originalausgabe 196, dt. Erstausgabe 1972), S. 329.

52

Georg Trogemann | Code und Maschine

tionen nach. Hierzu gehören nach Eco zum Beispiel Balken, Decken, Gewölbe, Auflager, Bögen, Pfeiler, Platten, Betontragwerke. Diese syntaktischen Codes besitzen noch keinen Bezug zur Funktion oder zum denotierten Raum, darauf verweisen erst semantischen Codes. Zu den semantischen Kategorien gehören beispielsweise primäre Funktionen wie Dach, Terrasse, Treppe und Fenster aber auch Wohnideologien (Gemeinschaftssaal, Tages- und Nachtzonen, Esszimmer, Aufenthaltsraum), soziale typologische Gattungen (Krankenhaus, Villa, Schule, Schloss, Bahnhof) und räumliche typologische Gattungen (runde oder kreuzförmige Grundrisse, Labyrinthe). Eine Architektur, die mit solchen Codes arbeitet, kann nach Eco ihren Nutzern aber nichts liefern, worauf sie nicht schon gefasst wären. «Der Gesichtspunkt, auf den man in all diesen Codifizierungen stößt, ist der, dass sie schon ausgearbeiteten Lösungen eine Form geben. Das heißt, es sind Codifizierungen von Botschaftstypen. [...] Die Codes [...] wären also nichts anderes als ikonische, stilistische oder rhetorische Lexika. Sie bieten keine generativen Möglichkeiten, sondern fertige Schemata, nicht offene Formen, über die man reden könnte, sondern verhärtete Formen, allgemeine Beziehungen unerwarteter Art. [...] Es stimmt nicht, dass einige leere und rein differentielle Formen des architektonischen Bedeutens (Pfeiler und Balken) jede mögliche architektonische Kommunikation erlauben: sie erlauben die Art von architektonischer Kommunikation, an die uns die westliche Kultur gewöhnt hat, nach dem Modell gewisser statischer und dynamischer Kriterien und gewisser Regeln der Euklidischen Geometrie, die auch wenn sie stabiler und gegen Verschleiß widerstandsfähiger zu sein scheinen als andere Regelsysteme, uns zwingen, uns innerhalb einer gewissen Grammatik des Bauens zu bewegen. Zumindest findet man sie codifiziert unter der Bezeichnung Baukonstruktionslehre.»11 Vor der Herausforderung, die Eco beschreibt, steht nicht nur die Architektur, sondern jeder Entwickler von Werkzeugen für offene Entwurfsprozesse. Die implementierten syntaktischen und semantischen Codes – die Informatik nennt diese Ontologien – entscheiden bereits über die zu erwartenden Ergebnisse. Wer also Überraschendes in Bezug auf bestimmte Konzepte, Begriffe und Ästhetiken erreichen will, darf diese nicht schon in den Formalismus seines Systems stecken. Wer keine Gebäude aus Balken, Decken, Pfeilern und Wänden bauen will, darf diese nicht als Grundelemente seines Entwurfssystems implementieren. 11 Ebenda, S. 329ff.

53

Was hier als Trivialität erscheint, wird dennoch in verfügbaren Werkzeugen wenig reflektiert oder gar überwunden. Die Schwierigkeit liegt sicher nicht darin, altbekannte Kategorien und Konzepte aufzugeben, sondern diese auf eine andere Ebene der Abstraktion zu verlagern. Die offen zu haltenden Kategorien müssen durch abstraktere Konzepte ersetzt werden, aus denen sie als Spezialfälle rekonstruiert werden können. Sie bleiben selbst dabei unformalisiert, können im Arbeitsprozess aber erzeugt und reflektiert werden.

54

Claus Dreyer ARCHITEKTONISCHE CODES AUS SEMIOTISCHER SICHT Obwohl der Begriff «Code» in der Architekturtheorie erst seit kürzerer Zeit auftaucht, hat er eine lange Tradition für die Konstitution und Konkretion von Architektur überhaupt. In der französischen und angloamerikanischen Kultur bezeichnet er das Gesetz- und Regelwerk, den «Kodex», der die verbindlichen Normen, Richtlinien und Vorschriften für jegliches Bauen im Gültigkeitsbereich der jeweiligen Gesetze festlegt. Wenn man im englischen Sprachraum von «building codes» spricht, ist fast immer diese Bedeutung gemeint. Demgegenüber stehen die «design codes», die die vielfältigen Regeln und Konventionen der architektonischen Gestaltung meinen, die nur selten streng codifiziert sind, und sowohl traditionellen, kulturellen, konventionellen wie auch individuellen Praktiken folgen.1 Nur um diese Art von Codes geht es im Folgenden, denn sie sind es, die in der Architektur und Architekturtheorie der zweiten Hälfte des 20. Jahrhunderts eine bedeutende Rolle spielen und die ihre Auswirkungen bis in die Gegenwart haben. In der Semiotik wird mit dem Begriff «Code» meistens ein jeweils besonderes, begrenztes Zeichensystem bezeichnet, das im Rahmen umfangreicherer Zeichenprozesse und -systeme zum Einsatz kommt und dabei durch seine speziellen Eigenschaften definierbar und operationalisierbar ist, wobei Zuordnungs-, Ersetzungs- und Transformationsregeln eine große Rolle spielen.2 Insbesondere wird von einem als «Code» bestimmten Zeichensystem angenommen, dass die Beziehungen zwischen seinem Zeichenrepertoire und den zugehörigen Bedeutungen, wenn schon nicht institutionalisiert, wenigstens durch bewährte Konventionen geregelt sind, so dass die Mechanismen der Encodierung und Decodierung sowie

1 Zu dieser Unterscheidung vgl. Stephan Trüby: «5 Codes. Über Architektur, Paranoia und Risiko», in: 5 Codes. Architektur, Paranoia und Risiko in Zeiten des Terrors, hrsg. von Gerd de Bruyn u.a. (IGMADE), Basel, Boston, Berlin 2006, S. 17f.; da die Schreibweise uneinheitlich ist, wird im folgenden Text immer die englische Variante «Code» benutzt, während in den Zitaten gelegentlich auch die deutsche Version «Kode» auftaucht. 2 Umberto Eco gibt für den Begriff «Code» die folgende Definition: «Er stellt die Regel für die Korrelation von Ausdruckselementen zu Inhaltselementen auf, nachdem er vorher beide Ebenen zu einem formalen System organisiert oder sie in bereits organisierter Form von anderen Kodes übernommen hat. [...] Ein Kode liegt nur dann vor, wenn es eine konventionalisierte und sozialisierte Korrespondenz gibt, wobei es unwichtig ist, mit welcher zwingenden Kraft, in welchem Umfang und für welchen Zeitraum sie gilt». Umberto Eco: Segno, Mailand 1973. Hier zitiert nach der deutschen Übersetzung von Günther Memmert: Zeichen. Einführung in einen Begriff und seine Geschichte, Frankfurt am Main 1973 (1977), S. 170.

55

des Codewandels beschrieben und erklärt werden können. Auf diesem Hintergrund ist es zu einer großen Vielfalt in der Bestimmung von Codes gekommen, die mit der Gleichsetzung mit «Sprache» überhaupt beginnen und sich dann unendlich differenzieren in formale, funktionale, operationale, habituelle, soziale, historische, regionale, typologische, mediale Codes und andere mehr. Da es bisher weder eine einheitliche Definition noch eine konsistente Terminologie gibt,3 werden im Folgenden einige wesentliche Stationen der Verwendung des Codebegriffs in der neueren semiotisch orientierten Architekturtheorie dargestellt und abschließend ein Blick auf die gegenwärtige Situation geworfen.4 In der Diskussion über den Zusammenhang zwischen moderner Architektur und Informationstheorie war in den 1960er Jahren immer wieder von dem Begriff «Code» die Rede, der aus der allgemeinen Kommunikationstheorie übernommen worden ist und auf die Architektur übertragen werden musste. Sehr früh wurde dieses Thema von italienischen und französischen Theoretikern aufgegriffen und in verschiedenen Ansätzen verfolgt. Einer von ihnen ist Gillo Dorfles, der 1967 von einem «ikonologischen Code» spricht, wenn ein Gebäude auf der Grundlage einer «feststehenden, institutionalisierten Semantizität» errichtet wird.5 Verschiedene solcher Codes sieht er in unterschiedlichen historischen Sakralarchitekturen (Pyramide, griechischer Tempel, Basilika, Moschee und so weiter) angewandt, in denen mit einem fest umrissenen Formenkanon festgelegte Bedeutungen in immer neuen Variationen repräsentiert werden. Solche «symbolisch-ikonologischen» Codes sieht Dorfles allerdings nur für bestimmte Bauaufgaben und Perioden der historischen Architektur (wie eben den Sakralbau in unterschiedlichen Kulturen und Epochen) als gegeben an; in der Gegenwartsarchitektur kann Dorfles vor allem «typologisch-ikonologische» Codes erkennen, 3 Zur semiotischen Auseinandersetzung mit dem Begriff «Code» vgl. Winfried Nöth: Handbuch der Semiotik, 2. Auflage, Stuttgart 2000, S. 216ff.; eine umfassende Übersicht geben Gavin T. Watts und William C. Watts: «Codes», sowie Rudi Keller und Helmut Lüdtke: «Kodewandel», in: Semiotik. Ein Handbuch zu den zeichentheoretischen Grundlagen von Natur und Kultur, Bd. 1, hrsg. von Roland Posner u.a. Berlin, New York 1997, S. 414–435. 4 Vgl. hierzu Claus Dreyer: «Semiotische Aspekte der Architekturwissenschaft. Architektursemiotik», in: Posner, siehe Anm. 3, Bd. 3 (2003), S. 3234–327, S. 3256ff. 5 Gillo Dorfles: «Ikonologie und Semiotik in der Architektur», in: Architektur als Zeichensystem, hrsg. von Alessandro Carlini und Bernhard Schneider, Tübingen 1971, S. 91–9, hier: S. 97; ein größerer Überblick über den architektursemiotischen Diskurs der 1960er Jahre findet sich in Claus Dreyer: «Semiotik und Ästhetik in der Architekturtheorie der sechziger Jahre», in: Kulturtechnik Entwerfen. Praktiken, Konzepte und Medien in Architektur und Design Science, hrsg. von Daniel Gethmann und Susanne Hauser, Bielefeld 2009, S. 179–201, hier: S. 179ff.

56

Claus Dreyer | Architektonische Codes aus semiotischer Sicht

die vom entwerfenden Architekten oft ohne Intention und Wissen aufgrund von Gewohnheit, Tradition und Normierung angewandt werden, und die deshalb erst in der Analyse erhellt werden können. Die Identifizierung von Codes hat hier also eine eher kritische und epistemologische Funktion, für eine praktische Orientierung ist sie kaum geeignet [Abb. 1]. Dagegen hat sich Umberto Eco auch mit der Pragmatik der architektonischen Codes auseinandergesetzt und dabei viele vorausgehende Überlegungen aus der italienischen Diskussion verarbeitet.6 Vorausgesetzt wird von Eco, dass Architektur als Vehikel in einem Prozess kultureller Kommunikation eine wichtige Rolle spielt: «Signifikante Formen; Codes, die aus Ableitungen aus den Gewohnheiten erarbeitet werden, vorgestellt als strukturale Modelle gegebener Kommunikationsbeziehungen; denotative und konnotative Signifikate, welche sich auf die Signifikanten auf der Grundlage der Codes anwenden lassen: das ist das semiotische Universum, in dem eine kommunikative Lektüre der Architektur rigoros vorgehen kann.»7 Die architektonische Denotation bezieht sich nach Eco hauptsächlich auf den Zweck und den Gebrauch eines Bauwerks («erste Funktion»), die architektonische Konnotation auf die Art der Auffassung und die Interpretation beziehungsweise die «Ideologie» des Zwecks und Gebrauchs («zweite Funktion»). Mit diesen Bestimmungen kann Eco die architektonischen Codes genauer untersuchen. Zunächst unterscheidet er zwischen dem «Entwurfs-Code», der Darstellung und Ausarbeitung des architektonischen Plans, und dem «Konstruktions-Code» für die Realisierung des architektonischen Objekts. Beide Codes beinhalten einen «Anwendungs»- und einen «Lektüre»-Teil, wobei der Letztere für die Beschreibung und Analyse architektonischer Objekte, also auch für den Betrachter und Kritiker, vorausgesetzt wird. Grundsätzlich unterscheidet Eco zwischen syntaktischen und semantischen Codes. Die «syntaktischen Codes» betreffen die herkömmlichen Regeln und Bestimmungen der Bauelemente- und Baukonstruktionslehre wie etwa Wand, Decke, Stütze, Balken, Platten, Tragwerke, Bogen und Gewölbe: «Hier gibt es keinen Bezug zur Funktion, noch zum denotierten Raum, es gibt nur eine strukturale Logik: das sind die strukturalen Bedingungen für die Denotation von Räumen.» 6 Umberto Eco: La struttura assente, Milano 196; hier zitiert nach der deutschen Übersetzung von Jürgen Trabant: Einführung in die Semiotik, München 1972, S. 293ff. 7 Ebenda, S. 306.  Ebenda, S. 329.

57

Abb. 1: Ikonologisch-symbolischer Code – Spanische Kathedralen 12.–14. Jh., Schema aus: Jencks und Baird, 1970.

5

Claus Dreyer | Architektonische Codes aus semiotischer Sicht

Die «semantischen Codes» gliedern sich in zwei Sorten: Erstens, die Artikulation architektonischer Elemente, die «erste Funktionen» denotieren wie Dach, Fenster, Treppe, Terrasse, Wand; Elemente, die «symbolische zweite Funktionen» konnotieren wie Giebel, Säule, Kuppel, Tympanon; und schließlich Elemente, die Raumprogramme denotieren und «Ideologien des Wohnens» konnotieren wie Esszimmer, Salon, Entrée, Gemeinschaftssaal. Zweitens, die Artikulation typologischer Gattungen, die «soziale Typen» wie Villa, Wohnblock, Bahnhof, Krankenhaus, Schule, Kirche oder «räumliche Typen» wie Labyrinth, offener Grundriss, Zentralbau, Rotunde, Halle und dergleichen bezeichnen.9 Die semantischen Codes beziehen sich für Eco vor allem auf Invarianten des Gebrauchs und stereotype Verwendungsmuster, die mit der Organisation bestimmter Orte und Funktionen verbunden sind und auf konventionelle und traditionelle Arten der Verwendung und Aneignung verweisen. Wegen derartiger Einschränkungen hält Eco die Potenziale der Architektur zur innovativen und Verhalten modifizierenden Gestaltung für sehr gering: sie ist für ihn weniger Kunst als Dienstleistung, die einen sozialen Bedarf im Rahmen bekannter und vorhersehbarer Lösungen befriedigen kann. «Die Codes, von denen die Rede war, wären also nichts anderes als ikonologische, stilistische oder rhetorische Lexika. Sie bieten keine generativen Möglichkeiten, sondern fertige Schemata, nicht offene Formen, über die man reden könnte, sondern verhärtete Formen, allgemeine Beziehungen unerwarteter Art. Die Architektur ist also eine Rhetorik [...]»10, das heißt, sie arbeitet mit feststehenden, codifizierten Lösungen, die nur immer wieder neu kombiniert und modifiziert werden müssen, um den Nutzern den Eindruck zu vermitteln, ihre Bedürfnisse seien mit Hilfe architektonischer Maßnahmen befriedigt worden. Hier sieht Eco auch die Nähe zwischen Architektur und Massenkommunikation: die «Sprache der Architektur» ist für ihn überredend und beschwichtigend, sie ist allgegenwärtig und wirkt unterschwellig; sie ist schnellem Wechsel der Bedeutungen und raschem Verschleiß unterworfen, sie bewegt sich «zwischen einem Maximum an Zwang (du musst so wohnen) und einem Maximum an Verantwortungslosigkeit (du kannst diese Form gebrauchen, wie du willst)»11 und funktioniert damit wie jede Ware in der Gesellschaft des Massenkonsums. Bei aller Skepsis zieht Eco daraus den Schluss, dass Architektur die 9 Ebenda, S. 329. 10 Ebenda, S. 331. 11 Ebenda, S. 333.

59

Abb. 2: Rhetorischer Code – Charles Moore: Piazza d’Italia, New Orleans 1976–1979.

60

Claus Dreyer | Architektonische Codes aus semiotischer Sicht

Grenzen ihrer eigenen Codes überschreiten muss, um sozialen und kulturellen Ansprüchen auf Veränderung gerecht zu werden: «Der Architekt muss variable erste Funktionen und offene zweite Funktionen entwerfen.»12 Die Semiotik kann dabei helfen, indem sie Art und Wirkungsweise der verschiedenen architektonischen Codes bewusst und dem praktizierenden Architekten die Überschreitung und Dekonstruktion der tradierten Codes und auch die Erfindung neuer Codes leichter macht (das wird ein Anliegen der Postmoderne, vgl. unten) [Abb. 2]. Man kann sagen, dass Charles Jencks mit seiner Analyse der «Sprache der postmodernen Architektur»13 diese Grenzüberschreitung eingeleitet und popularisiert hat und damit den Anstoß zu einem weltweiten Paradigmenwechsel in der architektonischen Kommunikation gegeben hat: statt Funktionen (oder zumindest zusätzlich zu ihnen) sollten nun auch «Fiktionen» vermittelt und architektonisch repräsentiert werden.14 Dazu bedarf es spezifischer Codes, auf die der Architekt zurückgreifen kann, um sein Gebäude zu einem signifikanten Zeichen(-komplex) zu machen. Diese Codes, die von Jencks nicht genauer definiert wurden, aber an vielen Beispielen veranschaulicht und beschrieben worden sind, können als «Sub-Sprachen» mit jeweils begrenztem Zeichenvorrat verstanden werden, die nicht scharf gegeneinander abgegrenzt sein müssen: traditionalistische, avantgardistische, technologische, naturanaloge, regionalistische, kommerzielle, historizistische und andere Codes werden von ihm dargestellt. Besonderen Wert legte Jencks auf Codes, die als Metaphern wahrgenommen und interpretiert werden können, weil sie assoziative Bezüge zu außerarchitektonischen Bereichen herstellen, zum Beispiel durch anthropomorphe oder organische Formen.15 In einer pluralistischen und multikulturellen Gesellschaft erscheint Jencks diese Art von architektonischer Kommunikation als besonders angemessen. Als Grundprinzip für die postmoderne Architektur fordert Jencks deshalb eine «doppelte Codierung»16, die die architektonische Botschaft einmal in den avantgardistischen und elitären Code der Kenner und Insider und zusätzlich in den 12 Ebenda, S. 353. 13 Charles Jencks: The Language of Post-Modern Architecture, London 1977. 14 Diese These vertritt explizit zuerst Heinrich Klotz 194, sie wird allerdings von Jencks 1977 gedanklich vorweggenommen. Vgl. Anm. 13 und Heinrich Klotz: Moderne und Postmoderne. Architektur der Gegenwart 1960–1980, Braunschweig, Wiesbaden 194. 15 Vgl. die metaphorischen Interpretationen von Le Corbusiers Kapelle in Ronchamp bei Jencks, siehe Anm. 13, S. 57. 16 Charles Jencks: «Post-Modern History», in: Architectural Design 1/197, S. 11–5, hier: S. 13ff.

61

Abb. 3: Eklektizistischer Code – Charles Jencks, Terry Farrell: Thematic House, «Frühlingszimmer» (Wohnraum), London 1984.

62

Claus Dreyer | Architektonische Codes aus semiotischer Sicht

konventionellen und populären Code der Durchschnittsnutzer und Betroffenen kleidet, um sie aus möglichst unterschiedlichen Perspektiven lesbar zu machen. Der «elitäre Code» bezieht sich vor allem auf die historische Baukunst im allgemeinen, auf die klassische Moderne im besonderen sowie auf die zeitgenössische Kunst und Kultur und die ästhetischen Standards der einschlägigen Theorien; er kann nur durch Erziehung, Bildung und umfangreiches Training angeeignet und verfügbar gemacht werden und ist daher vor allem im akademisch professionellen Bereich der Produzenten und Rezipienten von Architektur verbreitet. Der «populäre Code» bezieht sich dagegen auf die Alltagswelt der ‹Normalverbraucher›, auf ihre Konventionen und praktischen Schemata für komfortables Bauen, die Vorbilder aus Mode, Werbung und Medien sowie die ästhetischen Standards der Pop-Kultur; er gehört als Alltagserfahrung zur Grundausstattung der meisten Menschen in unserer Zeit und muss deshalb als Erwartungshorizont vorausgesetzt werden. Als ideale Realisierung für dieses Konzept erscheint Jencks dabei eine Architektur des «radikalen Eklektizismus» oder «Adhocismus», die heterogene Elemente in einer kreativen Synthese vermischt, um einer pluralistischen Gesellschaft möglichst viele Lesarten anzubieten. Unter dem Credo: «Anything goes!» hat die postmoderne Architektur von diesem Rezept reichlich Gebrauch gemacht und gelegentlich der rhetorischen Willkür bis zur völligen Unübersichtlichkeit freien Lauf gelassen. Gleichwohl hat dieser Ansatz die «Re-Semiotisierung» der Architektur in den 70er und 0er Jahren des vorigen Jahrhunderts entscheidend stimuliert [Abb. 3]. Das universelle Phänomen der Postmoderne, das alle Bereiche der westlichen Kultur erfasst,17 hat in der Architektur seit Mitte der 1970er Jahre zu einem umfassenden Wandel im Erscheinungsbild geführt, der als eine praktische Recherche zur Semiotik der gebauten Form beschrieben werden kann1 und ganz besonders die Rolle und die Potenziale der klassischen und der aktuellen Codes der Architektur neu definiert. Als besonders auffallend wurden beispielsweise das Wiederauftauchen historischer und typologischer Formen, die Einbeziehung regionaler, kontextueller und situativer Elemente, die Mischung von populären und elitären, von «eigenen» und «fremden» oder exotischen Ausdrucksweisen, 17 Vgl. Jürgen Habermas: Der philosophische Diskurs der Moderne, Frankfurt am Main 195; Andreas Huyssen, Klaus Scherpe (Hrsg.): Postmoderne. Zeichen eines kulturellen Wandels, Reinbek 196; Wolfgang Welsch: Unsere postmoderne Moderne, Weinheim 197. 1 Vgl. Anm. 14, sowie Jürgen Habermas: «Moderne und postmoderne Architektur», in: ders: Die neue Unübersichtlichkeit, Frankfurt am Main 195.

63

das «inszenierte» Arrangement und die ironische Verfremdung, die Fragmentierung und Diversifizierung sowie die Fiktionalisierung und «Poetisierung» angesehen. Vorherrschende Methoden zur Realisierung dieser Erscheinungen sind die Bebilderung, das Zitat, die Nachahmung, die Montage, die Trivialisierung und die Theatralisierung,19 und bei all diesen Methoden handelt es sich durchaus um Prozesse der Codierung im oben beschriebenen Sinne von Eco und Jencks. Sowohl die entstehenden Einzelformen wie auch die zugehörigen Formprozesse verweisen auffallend auf mögliche Bedeutungen, die ihnen zukommen können: sei es durch die direkte Bezugnahme auf historische Bauformen (z. B. Charles Moores Piazza d’Italia in New Orleans, 1977–7, vgl. Abb. 2) oder durch die Anspielung auf künstlerische und exotische Vorbilder (z. B. Hans Holleins Österreichisches Verkehrsbüro in Wien, 1976–7, inzwischen zerstört), durch metaphorische Überhöhung typologischer Motive (z.B. Charles Jencks’ und Terry Farrells Thematic House in London, 1979–4, vgl. Abb. 3), formalistische Stilisierung geometrischer Muster (z. B. Oswald Mathias Ungers’, Deutsches Architekturmuseum in Frankfurt am Main, 1979–4) oder «historisierende Verfremdung» klassischer Themen (z. B. Michael Graves’ Verwaltungszentrum in Portland, 190–2).20 Die Arten der Bezugnahme auf Bedeutungen durch die Verwendung verschiedener Codes können im konkreten Fall semiotisch genauer analysiert und charakterisiert werden, um damit eine anschließende Interpretation zu fundieren.21 Entscheidend bleibt jedoch bei diesem Ansatz, dass die Architekten die architektonischen Codes unter dem Gesichtspunkt neu definieren, dass die alten und konventionellen Zeichen mit neuen Bedeutungen erfüllt und mit zeitgemäßen Aussagen kombiniert werden können. Dieses können und sollen nach dem zugrunde liegenden Selbst- und Zeitbild keine eindimensionalen, klaren und widerspruchsfreien Botschaften sein, sondern sie müssen plural zusammengesetzt, mehrdeutig, «doppelt-codiert», aber dialogfähig sein, um der aktuellen Zeit zu entsprechen.

19 Vgl. Claus Dreyer: «The Performance of Space in recent Architecture», in: Signs of Humanity – L’homme et ses signes, hrsg. von Michael Balat und Janice Delledale-Rhodes, Berlin, New York 1992, Bd. 2, S. 949– 961, sowie ders: «Zitat und Zitieren in zeitgenössischer Architektur», in: Zeitschrift für Semiotik, 14/1–2, 1992, S. 41–59. 20 Entsprechende Abbildungen und weitere Beispiele in Klotz, siehe Anm. 14, S. 60ff. 21 Zur Bedeutung der Bestimmung von Codes für die Analyse und Interpretation von Architektur vgl. Claus Dreyer: «Interpretation von Architektur als semiotisches Programm. Zu Gregor Schneiders ‹Cube› in Hamburg 2007», in: Wolkenkuckucksheim 1/200.

64

Claus Dreyer | Architektonische Codes aus semiotischer Sicht

Besonders eingehend hat sich Wolfgang Welsch mit der Rolle der architektonischen Codes in der postmodernen Architektur auseinandergesetzt.22 In seiner Analyse werden die Begriffe «Code», «Sprache» und gelegentlich auch «Stil» weitgehend synonym gebraucht, was durch seine Fokussierung auf die kommunikative Kapazität der Architektur in einer pluralen Kultur zu erklären ist.23 Ein «Paradebeispiel expliziter Mehrsprachigkeit»24 ist für Welsch James Stirlings Neue Staatsgalerie in Stuttgart (197–4) [Abb.4], die zahlreiche Merkmale des Konzepts der «Doppel- oder Mehrfachcodierung» zeigt und nach seiner eingehenden Analyse so gelesen werden kann, dass «sein Bau [... ] eklatant mehrsprachig» erscheint und «nicht bloß Stile kombiniert, sondern gegenwärtige Weltentwürfe und Lebensformen ins Verhältnis gesetzt werden.»25 Ein wichtiger Punkt in dem Plädoyer von Welsch für die Leistung von unterschiedlichen Codes in der architektonischen Gestaltung ist die Kohärenz des Differenten: Trotz aller Kontraste sollen Zusammenhänge entstehen, die zu einer, wie auch immer fragilen Einheit führen und so Kommunikation möglich machen.26 Ein Patentrezept für die Herstellung einer solchen Dialogfähigkeit gibt es nicht, sondern ein «faktisches Gelingen gilt es im Einzelfall zu finden und zu beurteilen».27 Es ist nicht zu übersehen, dass Welsch hier ein sehr extensives Verständnis von Sprache und Code in der Architektur zugrunde legt: Man könnte sagen, dass es hauptsächlich um formale Vokabulare aus den unterschiedlichsten Provenienzen geht, die nach einer künstlerischen Logik und Grammatik miteinander verknüpft und zu einem komplexen Ganzen komponiert werden, und die nur in einer aufwändigen Analyse mit immensem fachlichen Hintergrund dechiffriert und gedeutet werden können. Es bleibt der Eindruck einer sehr elitären architektonischen Codierung, der den von Jencks reklamierten populären Gegenpart vernachlässigt. Dass das für den Erfolg des Gebäudes als Museum kein Nachteil ist, beweist das 2009 mit großer öffentlicher Resonanz begangene fünfundzwanzigjährige Jubiläum der neuen Stuttgarter Staatsgalerie. Man könnte eine Konventionalisierung und Popularisierung der elitären Codes durch Gebrauch und 22 23 24 25 26 27

65

Welsch, siehe Anm. 17, S. 7ff. Ebenda, S. 20. Ebenda, S. 21. Ebenda, S. 117f. Ebenda, S. 119. Ebenda, S. 120.

Abb. 4: Plurale Codierung – James Stirling: Neue Staatsgalerie Stuttgart, 1977–84.

66

Claus Dreyer | Architektonische Codes aus semiotischer Sicht

Gewöhnung unterstellen, was durchaus als gelungene Kommunikationsstrategie anzusehen wäre. Mit dem weltweiten Erfolg der postmodernen Architektur und der massenhaften Ausbreitung ihrer Codierungsstrategien, besonders auch in der Konsum-, Event- und Fertighausarchitektur, kam es zu einer massiven Kritik am «ubiquitären Applikationsdesign»2 der Säulchen, Giebelchen, Türmchen und Ornamente, welche das Konzept und die Praxis architektonischer Codierungen erheblich diskriminierte. «Code» und «Postmoderne» wurden zu Schimpfworten, die jegliche Ansätze zu einer Verwendung expliziter Formensprachen in der architektonischen Gestaltung betrafen und einerseits der Rückbesinnung auf die ureigene, abstrakte und «ewige» Sprache der Architektur Vorschub leisteten,29 andererseits gerade dadurch das Aufblühen einer neohistoristischen und rekonstruktiven Architektur beflügelten, die bewusst gegen die elitäre Kritik entsteht und beim Publikum sehr erfolgreich ist.30 Aus semiotischer Sicht ist damit das Thema der Codes und Codierungen nicht erledigt, weil es nie bloß auf bestimmte einzelne Codes fixiert war, sondern immer auch als methodisches Instrumentarium zur Analyse und Interpretation unterschiedlichster Zeichensysteme angesehen und verwendet wurde, die man als begrenzte im Zusammenhang größerer Zeichenprozesse identifizieren kann (die Postmoderne war nur ein besonders geeignetes und bereitwilliges Anwendungsfeld). Die Zeichenrepertoires der Codes und vor allem ihre Bedeutungen haben sich geändert, aber auch die «Codierungsstrategien» sind unter dem Einfluss der digitalen Medien im Architekturentwurf erheblich verändert worden. Erst kürzlich haben die beiden oben ausführlicher dargestellten Autoren Jencks und Welsch einen Rückblick auf ihre früheren Arbeiten geworfen und versucht, ihre Positionen neu zu bestimmen. Welsch konstatiert eine neue semantische Orientierung der architektonischen Codes in der gegenwärtigen Umweltgestaltung, die auch ein neues Zeichenrepertoire erfordert und schon generiert. Er meint eine Abwendung von den anthropozentrisch artifiziellen und elitär hochkulturellen Codierungen und eine Hinwendung zu einer naturnahen, organischen und kosmologischen 2 Hubertus Adam: «Zwischen Banalität und Extravaganz. Postmoderne Architektur – und ihre (Nach)Wirkungen», in: Die Revision der Postmoderne, hrsg. von Ingeborg Flagge und Romana Schneider, Frankfurt am Main 2004, S. 62–73, hier: S. 63. 29 Vgl. Oswald Mathias Ungers: «Wir stehen am Anfang», in: ebenda, S. 10–119, hier: S. 10ff. 30 Vgl. Werner Sewing: Bildregie. Architektur zwischen Retrodesign und Eventkultur, Basel, Boston, Berlin 2003.

67

Abb. 5: Biomorpher Code – Peter Cook und Colin Fournier: Kunsthaus Graz, 2005.

6

Claus Dreyer | Architektonische Codes aus semiotischer Sicht

Formensprache zu beobachten, die zu einer «transhumanen» Gestaltung führt und die «grundlegende Weltzugehörigkeit» des Menschen betont.31 «Die Stadt sollte nicht als ausschließlich humaner Raum konzipiert werden – nur dann wird sie die menschliche Existenz in all ihren Dimensionen zu entfalten erlauben. Wir sollten, kurz gesagt, nicht von innen nach außen, sondern von außen nach innen denken und planen. Transhumane Aspekte sollten nicht erst nachträglich zur Geltung gebracht werden, sondern von vornherein die Form der Architektur mitbestimmen.»32 Beispiele für diese neuen Codierungen sieht Welsch auch bei den computergenerierten Entwürfen, in denen «biomorphe Architekturvorstellungen Platz greifen, [...] die nach einer Gestaltungsweise suchen, die unserem biologischen, motorischen und sensorischen In-der-Welt-Sein besser Rechnung trägt, als die dezidiert rationalistische Architektur dies je vermochte.»33 Die pluralen Codes würden dann nicht nur den Dialog zwischen den Kulturen unterstützen, sondern auch die Natur und den Kosmos in das kommunikative Universum einbeziehen [Abb. 5]. Dieser Ansatz wurde von Jencks noch weiter entwickelt, der ebenso wie Welsch am Konzept der Mehrfachcodierung festhält, aber noch stärker das Aufkommen neuer Paradigmata betont und dabei die Grenzen zur Spekulation nicht unwesentlich überschreitet. Unter dem Einfluss von Evolutionstheorie, Kosmologie und Komplexitätstheorie sowie den expandierenden Möglichkeiten der Computerprogramme entstehen mit der «Falte» und dem «Blob» (eigentlich «Tropfen») neue Leitbilder, die die Vielfalt architektonischer Codes vermehren und einem neuen Weltverständnis Ausdruck geben. Nach der Diskreditierung expliziter formaler Codes sind es diese abstrakten Formen, die einen eher «allusiven Symbolismus»34 ermöglichen, der nach dem Verschwinden der «großen Erzählungen» offene Deutungen und Interpretationen auf dem Hintergrund zeitgemäßer Erfahrungen herausfordert. In den verschiedenen Variationen der Codes können unterschiedliche Gestalten und Motive erkannt und interpretiert werden, die einerseits abstrakt und offen bleiben, andererseits in Verbindung mit expliziten Zeichen naheliegende Deutungen evozieren. Damit wäre dem 31 Wolfgang Welsch: «Was war die Postmoderne – und was könnte aus ihr werden?», in: Flagge, Schneider, siehe Anm. 2, S. 32–39, hier: S. 3. 32 Ebenda. 33 Ebenda, S. 39. 34 Charles Jencks: «Die Meta-Erzählung der Postmoderne», in: Flagge, Schneider, siehe Anm. 2, S. 12– 31, hier: S. 22.

69

Abb. 6: Abstrakter Code («Faltung») – Frank Gehry: Guggenheim Museum, Bilbao 1993–1997.

70

Claus Dreyer | Architektonische Codes aus semiotischer Sicht

älteren Konzept von der Mischung populärer und elitärer Codes immer noch Genüge getan. Als Beispiel nimmt Jencks Frank O. Gehrys Guggenheim Museum (1997) in Bilbao, wo er das Prinzip der variantenreichen Faltung exemplarisch verwirklicht sieht, indem es «einerseits für das Geschmeidige, Sich-Faltende und Sich-Bewegende der Faltungstheorie und andererseits für selbstorganisierte Systeme und fraktale Ordnungen der Komplexitätstheorie»35 steht [Abb. 6]. Dass unter den mehrfachen Codierungen dieses Gebäudes eine individuelle Ordnung möglich ist, die bei aller Unterschiedlichkeit der Teile und Segmente ein Ganzes möglich macht, liegt, wie Jencks ausdrücklich betont, am virtuosen Einsatz von Computerprogrammen in der Entwicklung des Design: Sie ermöglichen nach dem Prinzip der «Selbstähnlichkeit» Verschiedenheit aus der Einheit und Einheit aus der Verschiedenheit der Ausgangscodes.36 Das ist auch entscheidend für das Konzept der «Blobs», die eine andere variantenreiche Codierung in der gegenwärtigen architektonischen Gestaltung verkörpern. Hierbei geht es um regulär oder irregulär vielfach gekrümmte Formen, die an biomorphe und organische Gestalten erinnern, aber auch eine Nähe zu kosmologischen Modellen suggerieren können. Jencks nennt die Produkte dieses Codes (wie auch die der «Faltungen») «Enigmatische Signifikanten»37 (was man als ‹rätselhafte Zeichen› übersetzen könnte), die dem Paradigma der Komplexität verhaftet sind und sie zu bedeutungsvollen skulpturalen ikonischen Bauwerken von hoher Expressivität machen können. Als Beispiel für diese Codierung wählt Jencks die Swiss Re – Hauptverwaltung (2003) von Norman Foster in London [Abb. 7]. Jencks hat, wie zuvor schon Welsch, keinen Zweifel daran, dass die Bedeutung der neuen Codes (mit ihren Paradigmata «Falte» und «Blob») auf die Geschichte des Universums, die Kosmologie sowie die Evolutions- und Komplexitätstheorie referieren und dabei mit Hilfe der «Computerproduktion individualisierter Elemente [...] eine Reihe von Ausdrucksweisen, die sich der Natur annähern (zum Beispiel fraktale Grammatiken, fremdartige oder chaotische Attraktoren, flüssige Morphologien etc.)»3, einbeziehen wird. Dass diese neuen 35 Ebenda, S. 24. Vgl. auch meine Versuche, das Gebäude zu lesen und zu interpretieren: Claus Dreyer: «Über das Interpretieren von Architektur», in: Architektur – Sprache. Buchstäblichkeit, Versprachlichung, Interpretation, hrsg. von Eduard Führ, Hans Friesen und Anette Sommer, Münster 199, S. 33–4. 36 Siehe Anm. 34, S. 25. 37 Ebenda. 3 Ebenda, S. 30.

71

Abb. 7: Enigmatischer Code («Blob») – Norman Foster: Swiss Re – Hauptverwaltung, London 2001–2003.

72

Claus Dreyer | Architektonische Codes aus semiotischer Sicht

Codes sich erst noch entwickeln, differenzieren, konventionalisieren und in die architektonischen Praktiken einbetten müssen, steht außer Frage, aber dass das Programm der «Versprachlichung», Mediatisierung, Mehrfachcodierung aus der aktuellen Architekturentwicklung nicht mehr wegzudenken ist, kann durchaus als gegeben angesehen werden. Das zeigen die in den letzten Jahren immer auffälliger werdenden Entwürfe und Projekte computergenerierter Architekturen, deren Erscheinung das Ergebnis aufwändiger Anwendungen von Computerprogrammen und den zugrunde liegenden Programmcodes ist. Die Codes sind hier die in speziellen «Sprachen» formulierten Regeln, die oft in algorithmischer Weise festlegen, wie die projektspezifischen Daten verarbeitet werden sollen. Die Bedeutungen der codierten Zeichen betreffen bei diesen Programmen vor allem die programminternen Strukturen, die beispielsweise durch Logik oder Mathematik festgelegt werden; aus semiotischer Sicht kann man daher von vorwiegend «syntaktischen Codes» reden. Dabei werden große Freiräume in der Gestaltung entdeckt, die für eine gegebene Datenbasis eine große Menge von programmgerechten formalen Strukturen hervorbringen können, die als mögliche Lösungen für räumliche Konfigurationen infrage kommen. Bei der Auswahl und Entscheidung für die endgültigen Ergebnisse dieser Entwicklungsprozesse kommen neben einem erheblichen Maß an Intuition auch wieder die «semantischen Codes» der modernen und postmodernen Architektur zur Anwendung, die, so könnte man meinen, nicht nur für die Lektüre und Interpretation, sondern auch für die kreative Anwendung eine kulturelle Verankerung besitzen. Abschließend lässt sich über die architektonischen Codes aus semiotischer Sicht feststellen, dass die Konzeption und Produktion von Architektur immer mit Codierungsprozessen verbunden ist, die sowohl im Entwurf wie in der Rezeption und Interpretation zum Einsatz kommen. Im weitesten Sinne kann man sagen: es gibt keine nicht-codierte Architektur.39 Die Codes der Architektur sind vielfältig, komplex, different und in sehr unterschiedlicher Deutlichkeit bestimmt. Manchmal haben sie den Status von formalen «Sprachen» (etwa stilistischer oder geometrischer Art), manchmal bilden sie unvollständige oder sogar völlig offene Zusammenhänge, in denen es Signifikanten ohne klare Signifikate gibt (Jencks: «Enigmatische Signifikanten»), und oft sind sie Mischungen von beidem.

39 Vgl. Ingeborg M. Rocker: «When Code Matters», in: Architectural Digest, Vol. 76, Nr. 421, 2006, S. 21.

73

Die bildhaften («ikonischen») und symbolischen («semantischen») Codes der historischen und der postmodernen Architektur konkurrieren mit den abstrakten («syntaktischen») Codes der Geometrie, Mathematik und digitalen Programme, die in der klassischem Moderne oder der gegenwärtigen «Falten»- und «Blob»-Architektur zur Anwendung kommen und oft miteinander kombiniert sind. Die Beschreibung und Analyse setzt ebenso wie die kreative Verwendung der Codes eine gewisse Professionalität voraus, die erworben werden muss. Missverständnisse, Ratlosigkeit und Fehldeutungen wird es dabei immer wieder geben, aber es überwiegt die Chance der offenen und neuartigen Deutungen von unbestimmten oder komplexen Zeichen. Viele architektonische Codes sind kulturell und sozial mehr oder minder stark verankert und werden durch Gewohnheit und Bildung erworben und tradiert. Schließlich haben die Codes der Architektur eine lange Tradition und Geschichte (wenn man die historischen Stile zu den Codes zählt, ist diese Geschichte sogar sehr lang), und sie unterliegen einem ständigen Wandel, der gelegentlich auch zum Verschwinden führen kann. Es entstehen aufgrund der kulturellen, technischen und sozialen Entwicklung aber auch immer neue Codes, die Ausdruck für ein neues und weiterentwickeltes Weltund Selbstverständnis einer jeweiligen Epoche sind. Die Architektursemiotik versucht, diese Entwicklungen zu beschreiben und zu interpretieren und damit einen Beitrag zum besseren Verständnis unserer kulturellen Befindlichkeit in der gebauten Umwelt zu leisten.

74

Georg Vrachliotis GROPIUS’ FRAGE ODER ÜBER DAS OFFENLEGEN UND VERDECKEN VON CODE IN ARCHITEKTUR UND KUNST «Will it [...] be necessary to educate a new profession of architectural assistants for the purpose of articulating the problems to be solved into the proper language of the computer?»1, lautete die Frage an das Publikum der First Boston Conference on Architecture and the Computer. Derjenige, der diese Frage stellte, war kein Geringerer als Walter Gropius. Und er sprach aus, was zahlreiche Architekten im Festsaal des vornehmen Sheraton Plaza Hotels dachten. Die Besucher waren neugierig und das nicht nur, weil mit dem Bauhaus-Gründer einer der berühmtesten Architekten des 20. Jahrhunderts auf der Teilnehmerliste der ersten Architekturkonferenz zum Thema Computer stand. Vielmehr war Gropius – er befand sich zu der Zeit mitten in seiner Bauplanung für die nach ihm benannte Satellitenstadt in Berlin – mit seinen 1 Jahren zugleich auch der älteste Gastredner dieses historischen Kolloquiums, bei dem man erstmals im großen Stil die Frage diskutieren wollte, wo die Potenziale, aber auch die Grenzen des Computers für die Architektur lägen. «Our topic, the computer, seems the most timely, the most urgent, the most serious subject that we could bring to the profession,»2 begrüßte H. Morse Payne, Präsident des Bostoner Architekturzentrums und Mitarbeiter von Gropius, das Publikum und diagnostizierte im Anschluss: «Our profession is steeped in timehonored traditional methods of approaching architectural assignments, but this machine, a product of our day and our time, might require us to change and approach our task in some new manner. So, we must begin to explore the subject immediately.»3 Paynes kurze Begrüßungsrede war mehr als nur eine Aufforderung 1 Walter Gropius: «Computers for Architectural Design», in: Architecture and the Computer. Proceedings of the First Boston Architectural Center Conference, (Boston, 5. Dezember 1964), Bibliothek des Dept. Architektur, MIT, Boston 1964, S. 41; «Wird es [...] erforderlich sein, eine neue Berufsgruppe von Architekturassistenten auszubilden, um die zu lösenden Probleme in der dem Computer eigenen Sprache zu formulieren?» (Übersetzung Nikolaus Schneider). 2 H. Morse Payne: «Welcome», in: ebenda, S. 1; «Unser Thema, der Computer, scheint der zeitgemäßeste, dringlichste, ernsthafteste Gegenstand zu sein, den wir unserem Beruf entgegenbringen können.» (Übersetzung Nikolaus Schneider). 3 Ebenda; «Unser Beruf ist durchtränkt von altehrwürdigen traditionellen Methoden im Umgang mit Architekturaufträgen, doch diese Maschine, ein Erzeugnis unserer Tage und unserer Zeit, könnte es erforderlich machen, dass wir unsere Aufgabe verändern und auf neue Weise mit ihr umgehen. Wir müssen also sofort beginnen, uns mit diesem Gegenstand auseinanderzusetzen.» (Übersetzung N. Schneider).

75

an die im Saal versammelten Architekten. Sie hatte den Charakter eines öffentlichen Appells, der an die Architektur als gesamte Disziplin gerichtet war. Man sollte endlich auf den Zug des technischen Fortschritts aufspringen und damit beginnen, den Computer und seine Möglichkeitsräume für die Architektur zu erkunden.4 Doch inmitten dieser Aufbruchsstimmung, die Payne an diesem Abend im Architekturzentrum zu inszenieren versuchte, war noch keinem so richtig klar, wie man sich diesen neuen Maschinen wirklich nähern sollte. Zu Beginn der 1960er Jahre war der Computer für Architekten technologisches Neuland. Er galt in erster Linie als ein Artefakt von Technikern für Techniker. Aus der Praxis von großen Planungs- und Baufirmen war der Computer zwar als verwaltungstechnische Rechenmaschine bekannt. Doch die Vorstellung, damit auch zeichnen oder sogar einen «Dialog» führen zu können, musste für viele wie ein fremder Vorbote auf eine noch in ferner Zukunft liegende Architekturpraxis geklungen haben. Die meisten Architekten konnten sich noch kein Bild davon machen, wie und besonders wo der Computer in die Vielschichtigkeit der schöpferischen Entwurfs- und Planungsprozesse der architektonischen Praxis integriert werden sollte. Die Vorstellung davon, was ein Computer sei oder wie er aussah, wurde überwiegend durch Fotos geprägt, auf denen raumgreifende, in grelles Licht getauchte Großrechner zu sehen waren, stilisiert zu Repräsentanten einer nüchternen und rationalen Welt der angewandten Mathematik. Es war eine fremde Welt aus Codes und Programmen, die jedoch, da ihr der geheimnisvolle und verführerische Glanz des Technischen anhaftete auch faszinierte. Als Architekt konnte man sich nicht vorstellen, einen Computer im Entwurfsprozess jemals selber bedienen, geschweige denn programmieren zu können – nicht nur, da das nötige Wissen fehlte, sondern auch, – und dies war für viele der eigentliche Grund – weil man das Bedienen von Computern nicht als Aufgabe eines entwerfenden Architekten verstand. Es standen sich zwei getrennte Welten gegenüber: die des schöpferischen und intuitiv gestaltenden Universalisten und die des ausführenden Technikers und Spezialisten. Letzterer schien sich aus der Welt der Codes nicht nur selbst hervorgebracht zu haben, er trat zugleich als Verwalter des Wissens über diese neue Welt auf. Wie sollte also das von Payne geforderte exploring des Computers in der Architektur aussehen? Ein konkreter Nutzen des Computers wurde lediglich den ingenieurwissen4

Ebenda.

76

Georg Vrachliotis | Gropius’ Frage oder Über das Offenlegen und Verdecken von Code in Architektur und Kunst

schaftlichen oder verwaltungstechnischen Bereichen der Bauplanung zugesprochen. In Boston fragte man deshalb skeptisch: «But what about us, the designers?»5 Gropius’ Antwort fiel kurz und knapp aus: «Still I believe, if we look at those machines as potential tools to shorten our working processes, they might help us to free our creative power.»6 Der Glaube an die entlastende und zugleich die Kreativität befreiende Funktion der Maschine war – und so sollte man besser sagen: ist – eine in der Architektur vielerorts anzutreffende Einstellung. Der für die vorliegende Diskussion aufschlussreiche Aspekt, findet sich dagegen in seiner eingangs zitierten Frage. Gropius sprach darin von einer «proper language of the computer» sowie dem «architectural assistent». Um also den Computer in der Architektur adäquat einsetzen zu können, schien ein Übersetzer erforderlich. Dieser sollte sowohl die Sprache des Architekten als auch die der Maschine sprechen können. Wollten sich die Architekten, wie von Payne in seiner Begrüßungsrede gefordert, dem Computer nicht weiter verschließen, so musste man zukünftig der Gropiusschen Vorstellung dieses «Architekturassistenten» eine entscheidende Funktion zusprechen. Es ist darüber zu diskutieren, ob man in der Architekturpraxis nicht auch heute, knapp vier Jahrzehnte später und in Anbetracht immer komplexer werdender Computerprogramme nicht noch immer von Spezialisten, Übersetzern und Architekturassistenten umgeben ist – oder ob das überwiegend an den Universitäten entstandene Tätigkeitsfeld der Architekten, die selbst zu Algorithmen-Schöpfern geworden sind, an Gewicht gewinnt. Es ist, als wären wir Gropius noch immer eine Antwort schuldig. Über das Zeichnen als Geste Architekturgeschichtlich betrachtet gilt die Zeichnung als das Leitmedium des Architekten und Ingenieurs. Ob als Skizze, Grundrissplan oder Perspektive, als Präsentations- oder Entwurfszeichnung – mittels Zeichnungen materialisiert der Architekt nicht nur die unscharfen Konturen seiner imaginären Welten, der Akt des Zeichnens bedeutet vielmehr auch, die medialen Spuren der eigenen

5 Natalie Jaffe: «Architects Weigh Computer’s Uses», in: New York Times, Ausgabe vom 6. Dezember 1964. 6 Ebenda; «Dennoch glaube ich, dass uns diese Maschinen, wenn wir sie als potenzielle Werkzeuge zur Verkürzung unserer Arbeitsprozesse betrachten, dabei helfen können, unsere Gestaltungskraft zu entfalten.» (Übersetzung Nikolaus Schneider).

77

Reflexion intersubjektiv sichtbar werden zu lassen. Durch «Geometrie und Linie»7 wird implizites Wissen artikuliert, kommuniziert und geschärft. Vom Instrument her gedacht hat der Prozess des Zeichnens viel mit der Geste des Schreibens zu tun – durch den freien Zug der Hand, im Verdichten der eigenen Gedanken oder im individuellen Charakter der Handschrift. Der Akt des Zeichnens ist eine Geste, in dem Sinne, wie Vilém Flusser das Schreiben als Geste verstanden wissen will.9 Ganz allgemein definiert Flusser diese zunächst als «eine Bewegung des Körpers oder eines mit ihm verbundenen Werkzeugs, für die es keine zufriedenstellende kausale Erklärung gibt.»10 Schreiben und Zeichnen sind verwandt. Letzteres ist ebenso eine «Phänomenologisierung des Denkens»11, wie es das Schreiben ist. Erst die in der Epoche der Kybernetik einsetzende Algorithmisierung des Zeichenprozesses löste in der Architektur konzeptionelle und methodische Unsicherheiten aus und veränderte das Genre der Architekturzeichnung und darüber hinaus die Architektur als gesamte Disziplin: Der intuitive Dialog zwischen ausführender Hand und schöpferischem Auge wurde empfindlich gestört. Die tradierten Vorstellungen über die Kopplung von Zeichnen und Sehen, aber eben auch vom Zeichnen als Sehen, wurde mit dem Eindringen des Computers der Überprüfung durch ein neuartiges technisches Wissen und dem damit einhergehenden Kriterium der Operationalität ausgesetzt.12 Der verdeckte Code: Zeichnen statt Programmieren Nur wenige Jahre nach der historischen Konferenz in Boston gründete der junge Architekt Nicholas Negroponte – als hätte er Gropius und Payne beim Wort nehmen wollen – die Architecture Machine Group, das erste Zentrum für architektonische Computerforschung und spätere MIT Media Lab. Untrennbar sind damit jene Fotos verbunden, auf denen Architekten in karierten Hemden zu sehen sind,

7 Werner Oechslin: «Geometrie und Linie. Die Vitruvianische ‹Wissenschaft› von der Architekturzeichnung», in: Daidalos, Nr. 1, 191, S. 20ff. Vgl. Auch Winfried Nerdinger (Hrsg.): Die Architekturzeichnung. Vom barocken Idealplan zur Axonometrie. Zeichnungen aus der Architektursammlung der Technischen Universität München, (Ausstellungskatalog Deutsches Architekturmuseum Frankfurt), München 197.  Vgl. Walter Koschatzky: Die Kunst der Zeichnung: Technik, Geschichte, Meisterwerke, München 1999. 9 Vgl. Vilém Flusser: Gesten. Versuch einer Phänomenologie, Frankfurt am Main 1997, S. 32–41. 10 Ebenda, S. . 11 Ebenda, S. 35. 12 Vgl. Georg Vrachliotis: Geregelte Verhältnisse. Architektur und technisches Denken in der Epoche der Kybernetik, Wien, New York (erscheint 2010).

7

Georg Vrachliotis | Gropius’ Frage oder Über das Offenlegen und Verdecken von Code in Architektur und Kunst

die in einer Welt aus Schaltkreisen und Zeichenplottern sitzen und konzentriert auf die leicht gewölbten Glasoberflächen ihrer kleinen Bildschirme blicken. Mit ernster Miene wurden an den heute unvorstellbar teuren Computern einfache Strichzeichnungen erstellt oder mittels einer Sammlung von vorgefertigten Zeichenelementen zusammengesetzt. Der ernsthafte Umgang mit diesen technischen Geräten war – und daran scheint sich auch heute kaum etwas geändert zu haben – ein Suchen nach den Werkzeugen für die Architekturproduktion von morgen: «imagine an architect [...] seated at a computer console of the future».13 Dass dies zunächst keinesfalls einfach war, veranschaulicht eine Bildsequenz aus Negropontes erstem gleichnamigen Buch über die Architecture Machine Group. Auf der Bildsequenz sind die Hände eines Mannes zu sehen, der vor einem schreibmaschinenähnlichen Eingabegerät sitzt und gestikulierend versucht, es zu bedienen. In der Bildunterschrift ist zu lesen: «In these few seconds the user of this terminal has said more to the machine in hand-movement language than in any string of text, but it is all unheard. This particular person has never used a machine before; he does not know what a language is without gestures.»14 [Abb. 1] Mit Blick auf Flusser fällt besonders die letzte Formulierung auf: «a language without gesture». Dass das Schreiben durchaus als eine Geste beschrieben werden kann, geht aus der Bildsequenz deutlich hervor. Bemerkenswert ist jedoch, wie Negroponte den Umgang mit dem Computercode interpretiert, nämlich als eine Sprache ohne Geste. Damit benennt er jene Hürde, welche man bis heute in der Architektur zu überwinden versucht – nämlich dass das Programmieren, also das Arbeiten mit Code, im Gegensatz zum Zeichnen – eine Arbeit ohne Gesten ist. Dieser Hürde war sich wohl auch der Mathematiker Ivan Sutherland, ein Doktorand von Claude Shannon bewusst, als er zwischen 1961 und 1963 ein computergraphisches Programm entwickelte, das unter der simplen Bezeichnung Sketchpad15 Epoche machte. Der Benutzer sollte in Sutherlands Vorstellung einen 13 Steve A. Coons: «Computer Aided Design», in: Architecture and the Computer. Proceedings of the First Boston Architectural Center Conference (Boston, 5. Dezember 1964), Boston 1964, S. 26. 14 Nicholas Negroponte: The Architecture Machine Group, Cambridge 1970, S. 13; «In diesen wenigen Sekunden hat der Benutzer dieses Terminals der Maschine mehr in der Sprache seiner Handbewegung gesagt als in irgendeiner Textreihe, aber es bleibt alles ungehört. Diese spezifische Person hat noch nie zuvor eine Maschine benutzt; sie weiß nicht, was eine Sprache ohne Gesten ist.» (Übersetzung Nikolaus Schneider). 15 Ivan E. Sutherland: Sketchpad. A man-machine graphical communication system, Lincoln Laboratory Technical Report Nr. 296, Massachusetts Institute of Technology, Januar 1963.

79

Abb. 1: Bildsequenz aus The Architecture Machine, 1970.

80

Georg Vrachliotis | Gropius’ Frage oder Über das Offenlegen und Verdecken von Code in Architektur und Kunst

Rechenautomaten nicht wie üblich auf einer mathematisch-logischen, sondern auf einer visuellen und damit anschaulichen Ebene bedienen können. Die ursprünglich rein schriftlichen, das heißt im Programmcode vorliegenden Maschinenbefehle, wurden bei der Benutzung von Sketchpad durch «gezeichnete» Anweisungen ergänzt und ersetzt. Negropontes «Sprache ohne Gesten» wurde zu einer «Sprache mit Gesten»: dem Zeichnen. Sutherland machte sich dafür eine Technologie zunutze, welche in der militärischen Radarforschung entwickelt worden war: den sogenannten «light pen». Dieser erlaubte es – vergleichbar mit einem gewöhnlichen Stift – direkt auf dem kleinen Bildschirm zu «zeichnen» und diese Zeichnung auch auf unterschiedlichen Ebenen verändern zu können. Zwei Jahre nachdem Sutherland sein Programm fertiggestellt hatte, wurde der «light pen», mit dem man bis dahin auf den Bildschirm tippte, mit einem neuartigen optischen Eingabegerät ergänzt. Der Mathematiker Douglas C. Engelbart hatte das «pointing device» entwickelt. Dies war zu Beginn noch ein kleines mit der Hand zu bewegendes Holzkästchen, das später als «optische Maus», besser bekannt als «Computermaus» geläufig wurde [Abb. 2]. Engelbarts Erfindung wurde in der Architektur schnell aufgenommen. 196, wenige Jahre später, stellte der Architekt David Evans Engelbarts Erfindung auf der First International Conference on Architecture and Computer Graphics vor.16 Es zeigte sich, dass man als Architekt damit wesentlich eleganter und präziser eine Zeichnung erstellen und verändern konnte, als mit dem etwas unhandlichen Stift, der an einem Kabel hing und mit dem man auf das Glas des Bildschirms tippen musste. «If the use of computers by architects is inevitable, then, clearly the problem must be faced of how architects are to ‹talk› to the computers,»17 lautete 196 eine der zentralen Herausforderungen der Konferenz Computer Graphics in Architecture and Design in Yale. Steve Coons, Computerpionier und Förderer des jungen Negroponte, verkündete dort selbstbewusst: «No architect wants to become or should want to

16 Vgl. David Evans: «Augmented Human Intellect», in: Murray Milne (Hrsg.): Computer Graphics in Architecture and Design. Proceedings of the Yale Conference on Architecture and Computer Graphics, Proceedings of the Yale Conference (April 196), Yale, New Haven 1969, S. 62ff. 17 Computer Graphics and Architecture. Program Statement: On the Relevance of Computer Processes, specially Computer Graphics, to Architecture. Unveröffentlichtes Dokument, Warren McCulloch Archive, American Philosophical Society; «Wenn der Einsatz von Computern durch Architekten unvermeidbar ist, dann muss man sich natürlich dem Problem stellen, wie Architekten mit Computern ‹sprechen› sollen.» (Übersetzung Nikolaus Schneider).

1

Abb. 2: Bildsequenz The Architecture Machine, 1970 (Bildfolge vom Autor zusammengefügt).

2

Georg Vrachliotis | Gropius’ Frage oder Über das Offenlegen und Verdecken von Code in Architektur und Kunst

become an expert computer programmer. Architects want to do architecture. City planners want to do city planning. They don’t want to have to invent and manufacture the pencils they use. They want to have them at hand. The computer is a tool. We want to arrange matters so that the computer can be used as naturally and easily as a pencil [...].»1 In der Architektur fand eine solche Aussage erwartungsgemäß großen Anklang, gilt doch besonders der Architekt traditionell als ein mittels der Zeichnung kommunizierender Gestalter. Coons ging es demnach um eine Anpassung der Technologie an den entwerfenden Architekten. Dieser sollte sich in seinem technischen Selbstverständnis seinen Werkzeugen gegenüber nicht verändern müssen. Er sollte, mit Blick auf Negroponte, die «language without gesture» nicht lernen müssen. Der offengelegte Code: Programmieren statt Zeichnen Zeitgleich zur amerikanischen Strömung des «tool building», blühte im Nachkriegseuropa ein künstlerischer und philosophischer Zweig der Computergrafik auf, der sich in vielerlei Hinsicht von den Ansätzen eines Coons oder Negroponte unterschied. Computergrafiken wurden diesmal nicht gezeichnet, sondern programmiert. Im produktiven Zwielicht von Kybernetik, Kunst und Philosophie entstand eine experimentelle Kultur des Programmierens, aus der sich ein vollkommen neuer Künstlertypus bilden sollte.19 Die drei zentralen Figuren dieser «Codekultur» waren die beiden jungen Mathematiker Frieder Nake und Georg Nees sowie – gleichsam als ihr philosophischer Pate – Max Bense. Mit Nake und Nees wurde das Programmieren zu einer modernen Form des ästhetischen Handwerks erklärt20 [Abb. 3]. Bense hob dieses Handwerk auf ein neues theoretisches Niveau. Dabei bestand zwischen ästhetischem Handwerk und ästhetischer

1 Steve A. Coons: «Computer Aided Design», in: Milne, s. Anm. 16, S. 9; «Kein Architekt möchte ein Spezialist für Computerprogrammierung werden und sollte dies auch nicht werden wollen. Architekten wollen Architektur machen. Stadtplaner wollen die Stadt planen. Sie wollen nicht die Bleistifte erfinden und herstellen müssen, die sie benutzen. Sie wollen, dass sie ihnen zur Verfügung stehen. Der Computer ist ein Werkzeug. Wir wollen dafür sorgen, dass sich der Computer so natürlich und einfach wie ein Bleistift benutzen lässt [...].» (Übersetzung Nikolaus Schneider). 19 Vgl. Frieder Nake: «Informatik als Gestaltungswissenschaft: Eine Herausforderung an das Design», in: Algorithmik, Kunst, Semiotik. Hommage für Frieder Nake, hrsg. von Karl-Heinz Rödinger, Heidelberg 2003, S. 142–165. 20 Vgl. Hans Dieter Hellige: «Zur Genese des informatischen Programmbegriffs: Begriffbildung, metaphorische Prozesse, Leitbilder und professionelle Kulturen», in: ebenda S. 42–75.

3

Abb. 3: Beitrag Frieder Nakes zur Ausstellung Cybernetic Serendipity. The Computer and the Arts, 1968 im Institute of Contemporary Arts London.

4

Georg Vrachliotis | Gropius’ Frage oder Über das Offenlegen und Verdecken von Code in Architektur und Kunst

Theorie eine enge Wechselwirkung: einerseits wirkten Nakes und Nees’ Strichzeichnungen wie Spuren von Benses Kunsttheorie. Andererseits lesen sich viele von Benses Essays als philosophische Decodierungshilfen, ohne die man die abstrakte Ästhetik von Nakes und Nees’ programmierten Störbildern und Zufallsgrafiken kaum begreifen kann. Während des Spiels mit der Maschine entstanden kleine Zeichnungen, auf denen mal geordnete, mal unregelmäßige und irreguläre Muster zu sehen waren. Es waren zufällig wirkende Anhäufungen, Überlagerungen, Texturen und feine Muster aus Punkten, Linien oder Kreisen [Abb. 4]. Einige dieser Maschinenzeichnungen gingen auf eine fehlerhafte Programmierung zurück und so entstanden Zufallsmuster. Die visuellen Resultate der fehlerhaften Programme erstaunten die jungen Mathematiker in den Rechenzentren. Gleichzeitig wurde sehr schnell deutlich, welche kunsttheoretische Sprengkraft sich in ihren kleinen schwarz-weißen Zeichnungen verbarg. Eine Zeichnung zu programmieren bedeutet in diesem Zusammenhang, auf der Ebene des Maschinencodes zu denken, ganz gleich, was die Zeichnung darstellen soll, und ganz gleich, welche Programmiersprache verwendet und welches Regelwerk codiert wird. Auf der Ebene von Computercodes zu arbeiten bedeutet, in der Logik der Maschine zu denken.21 Ein Code besteht in diesem Fall aus symbolischen Zeichen und ist doch, so betont Nake selbst, nichts weiter als «Text, wesentlich Text».22 Der Computer wird zu einem technischen Artefakt semiotischer Natur – oder mit den Worten des Informatikers Wolfgang Coy: zu einer «semiotischen Maschine» erklärt.23 Eine Computergrafik kann so gesehen als ästhetische Spur eines Textes betrachtet werden, deren Besonderheit darin liegt, dass sie aus Zeichen besteht, die aus zwei Richtungen gelesen werden können: einerseits durch den Menschen, wenn auch nicht ohne gewisse Schwierigkeiten, und andererseits durch die Maschine, also als operationaler Code. Mit Code zu zeichnen heißt, mit Text zu operieren. Mit dem Aufkommen der ersten Computergrafiken von Nees und Nake wurde die Frage der Methodologie auch zu einer Frage der Technologie. Der Akzent verschob sich und die Klangfarbe des Programmbegriffs verfärbte sich.

21 Vgl. Gabriele Gramelsberger in diesem Buch, S. 29–40. 22 Frieder Nake, Brief an den Autor, vom 5. Mai 200. 23 Vgl. Wolfgang Coy: «Aus der Vorgeschichte des Computers als Medium», in: Computer als Medium, hrsg. von Norbert Bolz, Friedrich A. Kittler und Christoph Tholen, München 1994, S. 19.

5

Abb. 4: Georg Nees, Grafik Schotter (links) und der Computercode, der die Grafik generiert hat, 1968. Aus: Georg Nees: Generative Computergraphik, München 1969.

6

Georg Vrachliotis | Gropius’ Frage oder Über das Offenlegen und Verdecken von Code in Architektur und Kunst

Dies wurde in einer bereits 1965 organisierten Ausstellung mit dem Titel Computergrafik – Programme24 deutlich. Nake und Nees stellten dort einige ihrer frühen Arbeiten aus. Doch zeigten sie nicht nur ihre Grafiken, vielmehr – und das war etwas vollkommen Neues – präsentierten sie auch den Programmcode, der zu den jeweiligen Grafiken geführt hatte. Man zeigte also nicht nur das Ergebnis, sondern legte auch seinen strukturellen Ursprung frei. Das Bild hing neben seinem Code sowie der Code neben seinem Bild. Die Form, also das Bild, war von seiner Struktur, also dem Code getrennt. Einen Code auf diese Weise offen zur Schau zu stellen, ja sogar wie ein Kunstwerk an die Wand zu hängen, bedeutete mehr als nur das didaktische Bemühen, eine zu diesem Zeitpunkt neuartige Maschine allgemeinverständlich zu vermitteln. Das konsequente Offenlegen der Zusammengehörigkeit von Kunstwerk und Methodik, von Computergrafik und Programmcode war zu einer Grundbedingung dessen geworden, was in Kunst und Architektur zu einem neuen künstlerischen Glauben an die Mathematik der Maschine führen sollte. Als könne man die innere und verborgene Struktur eines Kunstwerks und des Computers gleichermaßen nach außen stülpen, bediente man sich einer doppelten Entmythologisierung: der des künstlerischen Schaffensprozesses einerseits und der der Logik der Maschine andererseits. Dass in dem Offenlegen der maschinellen Funktionslogik paradoxerweise auch ein Teil der Provokation lag, die von den Computergrafiken ausging, wird erst verständlich, wenn man bedenkt, dass an die Entmythologisierung der Maschine aus gestalterischer Sicht auch eine Entmythologisierung des Autors geknüpft ist. Der Frage nach der Kreativität in einem Kunstwerk wird die technische Grundlage entzogen, wenn ersichtlich wird, dass der Autor nicht nur eine Maschine, sondern auch noch ein simples Regelwerk ist. Nakes Absicht, die Einfachheit des Programmcodes darzustellen, um damit zu zeigen, wie komplex, aber eben auch wie ästhetisch die daraus generierbaren Strukturen werden können, nahm der damals vielerorts diskutierten Frage nach dem Verhältnis von Kunst, Architektur, Autorenschaft und Technik ihren konservativen Klang und führte sie ad absurdum. Gleichzeitig war die Auseinandersetzung mit Code nicht mehr nur Mittel zum Zweck, um eine große Menge von Daten in möglichst kurzer Zeit zu berechnen, sondern bildete nun auch das 24 Vgl. «computer-grafik», erschienen in der Reihe: edition rot, Text 19, hrsg. von Max Bense und Elisabeth Walther, Stuttgart 1965.

7

konzeptionelle Fundament für eine ästhetische Avantgarde.25 Max Bense, für den sich der erkenntnistheoretische Zugang zur Welt fast ausschließlich im Zeichenhaften befand, erhob die programmierten Grafiken von Nake und Nees zu seinen ersten Augenzeugen jener zukünftigen technischen Welt, die er stets heraufbeschwor. In dem Aufsatz «Projekte generativer Ästhetik», den er 1965 in seiner grundlegenden Schrift Aesthetica veröffentlichte, schrieb Bense: «Im Ganzen [...] unterscheidet sich die ‹künstliche› von der ‹natürlichen› Produktionskategorie durch die Einführung eines Vermittlungsschemas zwischen Schöpfer und Werk, bestehend aus Programm und Programmiersprache, womit eine ungewohnte Arbeitsteilung im ästhetischen Prozess verknüpft ist.»26 Der Mensch, so war Bense überzeugt, müsse sich in die Welt der Wissenschaft und Technik vollständig integrieren, sich diese geistig einverleiben und von ihr zugleich einverleibt werden.27 Eine symbolische Maschine als Erkenntnis produzierendes Objekt für die Architektur? Der Umgang mit Benses «Vermittlungsschema» markierte einen wesentlichen Unterschied zwischen der europäischen und der amerikanischen Herkunft der Computergrafik. Während sich letztere überwiegend als Werkzeuggeschichte ohne dazugehöriges philosophisches Fundament erzählen lässt, also als eine Geschichte des reinen tool building, läuft man in der europäischen und besonders deutschen Herkunftsgeschichte der Computergrafik schnell Gefahr, sich in einem oftmals undurchdringlichen Gewebe aus Philosophie und Semiotik zu verlieren. Was die eine Seite an Theorie vermissen ließ, hatte die andere streckenweise zuviel. Die Leichtigkeit der einen, war das Gewicht der anderen. Heute, da in der Architektur von «buildings without drawings»2 und einer «programming culture in the design arts»29 die Rede ist, mag man darüber diskutieren, welche dieser beiden Umgangsformen sich als effektiver, nützlicher oder, um es plakativ und undifferenziert zu formulieren, in irgendeiner Weise als «besser» für die Architektur erwiesen hat. Einen produktiven Weg aus dieser Gegenüberstellung zeigt uns Nake in seinem 1974 veröffentlichten Buch Ästhetik 25 Vgl. Georg Trogemann und Jochen Viehoff: CodeArt – Eine elementare Einführung in die Programmierung als künstlerische Praktik, Wien, New York 2005. 26 Max Bense: Aesthetica, Baden-Baden 1965, S. 33. 27 Vgl. Max Bense: Technische Existenz. Essays, Stuttgart 1949. 2 Vgl. Mike Silver (Hrsg.): Programming Cultures (Special Issue), Architectural Design, Nr. 76, Ausgabe Juli 2006, S. 46–56. 29 Ebenda, S. 5–11.



Georg Vrachliotis | Gropius’ Frage oder Über das Offenlegen und Verdecken von Code in Architektur und Kunst

als Informationsverarbeitung.30 Darin findet sich ein kurzer Abschnitt, in dem er darüber spekuliert, welchen Einfluss der Computer auf die Architektur haben könnte. Nake stellt darin eine Behauptung auf, die zunächst jeden mit dem Computer entwerfenden Architekten aufhorchen lassen sollte, der sein Tun kontextualisiert und der sich vielleicht stets von Neuem die Frage stellt, wie der Computer sein eigenes Denken von und über Architektur verändert. Nake behauptet, es erginge den Architekten «bei dem Versuch, ihre Probleme mit Computern zu lösen, ähnlich wie den Linguisten. Sie entdeckten, dass ihr Wissen über ihr Gebiet äußerst begrenzt war. Das Eindringen einer neuen Maschine, also eines neuen Produktionsinstrumentes, erweist sich als Anreger und Aufreißer, als Quelle für neue Erkenntnis und neue, adäquate Methoden der Erkenntnisgewinnung.»31 Das sind zwei bemerkenswerte Sätze. Nake präsentiert uns mit ihnen gleich einen ganzen Strauß von Metaphern, mit dem er die Funktion und die Relevanz des Computers für den Architekten zu charakterisieren versucht. Er weist zugleich auf die Linguistik hin, womit höchstwahrscheinlich die epochale Inspirationswelle gemeint ist, die Ende der 1950er Jahre von den Arbeiten des Computerlinguisten Noam Chomsky ausging32 und von der nicht nur Bense, sondern auch einige Architekten, so etwa Christopher Alexander, erfasst wurden. Des Weiteren spricht Nake vom «Eindringen einer neuen Maschine» in die Architektur, vom «Produktionsinstrument», vom «Anreger und Aufreißer» und der «Quelle» nicht nur für «neue Erkenntnisse», sondern – und hier unterscheidet Nake in einer feinen Nuance – auch für «Methoden der Erkenntnisgewinnung». Auf den ersten Blick mag uns diese Metaphernaufzählung beliebig und in ihrer Dichte gar ein wenig aufdringlich und überladen scheinen. Doch ist dies keineswegs der Fall. Denn Nake versucht etwas zu beschreiben, das für das Feld von Architektur und Computer nur äußerst selten zu veranschaulichen gelingt. Er produziert begriffliche Stimmungsbilder des Forschens. Nake geht mit seiner Bezeichnung «Produktionsinstrument» von einer interessanten Prämisse aus. Er behauptet, durch den Computer hätten Architekten entdeckt, dass «ihr Wissen über ihr Gebiet äußerst begrenzt war»33. Eine 30 Frieder Nake: Ästhetik als Informationsverarbeitung. Grundlagen der Informatik im Bereich ästhetischer Produktion und Kritik, Wien, New York 1974. 31 Ebenda, S. 332. 32 Vgl. Noam Chomsky: Syntactic Structures, Den Haag, Paris 1957. 33 Frieder Nake: Ästhetik als Informationsverarbeitung. Grundlagen der Informatik im Bereich ästhetischer Produktion und Kritik, Wien, New York 1974, S. 332.

9

symbolische Maschine als Erkenntnis produzierendes Objekt für die Architektur? Ist das lediglich eine provokante Behauptung oder aber die scharfe Beobachtung eines Mathematikers, den sich die Studenten im Stuttgart der 1960er Jahre sogar als Professor für Architektur wünschten?34 Was wird also in der Architektur mit oder durch den Computer eigentlich produziert? Und welche Rolle spielt dieses sogenannte Produktionsinstrument für den Prozess des Forschens, auf den Nake in seinem Statement metaphorisch hinweist? Es scheint, so ließe sich an dieser Stelle resümieren, als befände sich die Architektur in einer paradoxen Situation, einer Situation, in deren Richtung Gropius mit seiner Frage zwar bereits vorausahnend blickte, deren konkrete Konturen er sich jedoch kaum vorzustellen vermochte. Einerseits widerspricht das Operieren mit Code dem Gestenreichtum des Zeichnens in seiner Funktion als kulturelles Leitmedium. Andererseits eröffnet gerade die Abwesenheit der Geste, also die «language without gesture», einen facettenreichen und womöglich provokanten Blick auf die Architektur. Indem Nake diesen Blick metaphorisch zu umschreiben versucht, formuliert er zwar keine Antwort auf Gropius’ eingangs zitierte Frage. Vielmehr kehrt er die Blickrichtung um: Nicht die Architektur blickt auf den Code, sondern der Code blickt auf die Architektur. Wenn man Architekturgeschichte, traditionell als Bau- und Stilgeschichte verstanden, auch als Geschichte technischer Verfahren und Praktiken erzählen möchte, wenn man also die in den derzeitigen Medien- und Kulturwissenschaften betonte Akzentverschiebung – vom «Sinnprodukt»35 zur «Sinnproduktion» – nicht nur als beiläufige und sekundäre, sondern als grundlegend anders akzentuierte und durchaus gleichbedeutende Lesart von Architektur verstehen möchte, so bietet das bisher noch nicht untersuchte Spannungsfeld von Zeichnen, Programmieren und Geste, verstanden als das Verdecken und Offenlegen von Code, einen aufschlussreichen Ausgangspunkt dafür. Die von Bense als «Vermittlungsschema» bezeichnete Zwischeninstanz des Codes kann aufgriffen und durch eine kritische Gegenüberstellung der beiden Praktiken – dem Natürlichen und dem Künstlichen, dem Zeichnen und dem Programmieren – sowohl zu einer architektur-, als auch zu einer mediengeschichtlichen Lesart von Architektur werden.

34 Frieder Nake, Brief an den Autor, vom 2. April 200. 35 «Editorial», in: Zeitschrift für Medien- und Kulturforschung, hrsg. von Lorenz Engell und Bernhard Siegert, Hamburg (im Druck).

90

Andrea Gleiniger STIL ODER CODE – VON DEN PARADIGMEN DES ARCHITEKTONISCHEN AUSDRUCKS IN DER GEGENWART Mit welchen Codes wollen wir bauen? So könnte eine Aktualisierung jener Überlegung lauten, die der deutsche Architekt Heinrich Hübsch vor bald 200 Jahren anstellte: «In welchem Style sollen wir bauen?».1 Rhetorisch wirkungsvoll als Buchtitel formuliert, vergegenwärtigte sie, was die Architektur in den ersten Jahrzehnten des 19. Jahrhunderts vordringlich beschäftigte und ihren Diskurs das gesamte 19. Jahrhundert hindurch bestimmen wird: die Suche nach dem adäquaten architektonischen Ausdruck der neuen, im Zeichen von Industrialisierung, Kommerzialisierung und Globalisierung stehenden Zeit, ihrer neuen Bauaufgaben, ihrer neuen Materialien und ihrer neuen Konstruktionstechnologien. Die eingangs vorgenommene Anverwandlung der Hübsch’schen Formulierung impliziert die Unterstellung, der Begriff des «Codes» sei geeignet, den Stilbegriff zu ersetzen. Und die Postmoderne legte uns diese Möglichkeit auch nahe. Charles Jencks, der den Konfigurationen und Konzepten der aktuellen Architekturentwicklung und ihren Erfindungen immer neue Codes abtrotzt, agiert aus diesem Geiste.2 Jencks trauten wir eine solche Frage zu, auch wenn seine Sache weniger die Suchbewegung des Fragenden als die Selbstsicherheit des programmatisch Antwortenden ist. Denn ganz beiläufig hat Jencks in seinem unermüdlichen Bemühen, immer neue Codes zu identifizieren und zu proklamieren, seinen Argumentationen auch jenen Paradigmenwechsel einverleibt, der einem eher semiotisch konnotierten Codebegriff einen informationstechnologischen an die Seite gestellt hat. Damit hat er dem «Code» im Sinne einer technologischen Konkretion als algorithmische Entwurfsgrundlage zu einer neuen und – wie zu

1 Heinrich Hübsch: In welchem Style sollen wir bauen? (12), Karlsruhe 194. 2 Zur Darstellung und Kommentierung des Codebegriffs bei Charles Jencks siehe den Beitrag von Claus Dreyer in diesem Band, S. 55–74. Mittlerweile hat die Semiotik, die sich ursprünglich so ausgeprägt auf den Begriff des Codes kapriziert hatte, auch den Stildiskurs entdeckt. So war der 11. Internationalen Kongress der Deutschen Gesellschaft für Semiotik (DGS) vom 24.–26. Juni 2005 an der Europa-Universität Viadrina unter dem Motto «In welchen Stilen sollen wir bauen» dem Thema Stil als Zeichen. Funktionen – Brüche – Inszenierungen gewidmet. Die Beiträge dieses Kongresses sind in Form einer CD-Rom (Universitätsschriften – Schriftenreihe der Europa-Universität Viadrina, Band 24, CD-ROM, ISSN 0941-7540, Frankfurt/Oder 2006) bzw. unter http://www.sw2.euv-frankfurt-o.de/downloads/dgs11/index.htm veröffentlicht.

91

vermuten ist – auch überaus folgenreichen Bedeutung für die Architektur und den architektonischen Entwurf verholfen. Interessanterweise taucht der Codebegriff der Postmoderne in jenem Stildiskurs, der mittlerweile auch wieder Gegenstand von Architekturtheorie geworden ist, nicht (mehr) oder kaum noch auf.3 Das ist deshalb ein wenig überraschend, weil der Begriff des Codes doch zweifellos im Aufwind von Informationstheorie, Linguistik und Semiotik einen Versuch darstellte, nicht nur die Dilemmata eines Stilbegriffs zu beheben, der sich sui generis permanent selbst infrage stellen musste; er schien auch deshalb so geeignet, weil er in besonders zeitgemäßer Weise das zur Geltung brachte, was den verschiedenartigen, unter dem Dach der Postmoderne sich tummelnden architektonischen Ansätzen auf je unterschiedliche Weise zu thematisieren ein Anliegen war: Komplexität und Kommunikation, oder auch anders ausgedrückt: Bedeutung. Im Lichte des semiotischen Zugriffs auf die plurale und komplexe Beschaffenheit von Welt wurde Code zu einer zentralen Metapher4 – auch und gerade im Kontext der Architektur. Dabei ist die anfangs vor allem linguistisch geprägte Metapher des Codes nicht nur eine Möglichkeit Komplexität zu fassen. Sie erscheint auch das probatere Mittel zu sein, soziale und kulturelle Differenz zu benennen, als dies der in die Jahre gekommene Begriff des Stils zu leisten vermag. Mit der sozialen Differenzierung der Codes ging eine neue Legitimation der verschiedenen gesellschaftlichen Sphären und Öffentlichkeiten als ästhetisches Referenzsystem einher. Gleichzeitig lag in der Begrifflichkeit des Codes – etwa in der Weise wie Roland Barthes sie versteht – auch ein Mittel der Kritik gegen die alten, redundant gewordenen idealistischen Setzungen eines normativen, auf Kennerschaft und elitärem Stilbewusstsein beruhenden Geschmacksurteils.5 Wenn wir nun im Folgenden den Versuch unternehmen, uns – wenn auch nur schlaglichthaft – mit dem Verhältnis dieser beiden Begriffe im Kontext der Architektur zu beschäftigen, dann wird deutlich, dass auch in dieser wie in unse3 Siehe Anm. 2, sowie Ákos Moravánszky (Hrsg.) unter Mitarb. von Katalin M. Gyöngy: Architekturtheorie im 20. Jahrhundert. Eine kritische Anthologie; Wien 2003 und Achim Hahn: Architekturtheorie. Wohnen, Entwerfen, Bauen, Konstanz 200. 4 Eco definiert die Semiotik als eine Disziplin, die «alle Kulturphänomene als Kommunikationsprozesse untersucht». Also auch die der Architektur, für die durch Eco erstmals der Begriff des «Codes» so explizit zur Anwendung kommt. Umberto Eco: Einführung in die Semiotik, München 1972. 5 Siehe Roland Barthes: Das semiologische Abenteuer, Frankfurt am Main 19. Sowie: ders.: Kritik und Wahrheit, Frankfurt am Main 2006 (1. Auflage dt. 1967).

92

Andrea Gleiniger | Stil oder Code – Von den Paradigmen des architektonischen Ausdrucks

ren vorangegangenen begrifflichen Untersuchungen6 der gegenwärtige Befund seine Vorgeschichte(n) hat. Eine Vorgeschichte allerdings, die uns auch hinsichtlich des Codebegriffs in einen Zustand versetzt, den der Anglist und Komparatist K. Ludwig Pfeiffer schon im Hinblick auf das diskursive Oszillieren des Stilbegriffs so beschrieben hat: «Wer sich heute (noch) mit dem Stilbegriff beschäftigt, gerät schnell in einen eigentümlichen Schwebezustand.» Und er wird sich mit seiner «diffusen Allgegenwart [...] herumplagen [und] die Undurchsichtigkeiten seiner Implikationen beklagen.» Vergleichbares gilt auch für den Codebegriff. Und wenn Pfeiffer hinzufügt: «Theoretisch immer wieder totgesagt, von permanenten Definitionsschwierigkeiten bedrängt, hat sich der Stilbegriff praktisch zäh gehalten [...]»7, dann kann hinsichtlich des Codebegriffs festgestellt werden, dass es seine so wechselvolle Bedeutungsgeschichte in den unterschiedlichsten Kontexten ist, die ihn lebendig hält und gehalten hat. Der Gültigkeitsanspruch von Stil als ästhetische und gesellschaftliche Übereinkunft «Noch nie war in Deutschland so viel über Architektur geschrieben worden wie in der zweiten Hälfte des 1. Jahrhunderts. [...] Zentrale Begriffe dieser lebhaften Diskussion, an der sich nicht nur Architekten beteiligten, waren Ordnung und Verzierung, Geschmack und Charakter in der Baukunst. [...] Besondere Bedeutung gewann hier mit einer Verspätung von einigen Jahrzehnten gegenüber den anderen Künsten die seit dem Jahrhundertbeginn geführte Geschmacksdebatte.» In dieser Debatte am Übergang vom Absolutismus zur bürgerlichen Gesellschaft ging es darum, Kriterien und Orientierungen für eine neue gesellschaftliche Ordnung zu entwickeln: «Geschmack ist nicht nur das Ideal, das eine neue Gesellschaft aufstellt, sondern erstmals bildet sich im Zeichen dieses Ideals des ‹guten Geschmacks› das, was man seither die ‹gute Gesellschaft› nennt. Sie erkennt sich und legitimiert sich nicht mehr durch Geburt und Rang, sondern 6 An dieser Stelle sei auf die vorangegangenen Titel der Reihe Kontext Architektur zu den Begriffen Simulation, Komplexität und Muster hingewiesen. 7 Hans Ulrich Gumbrecht, K. Ludwig Pfeiffer (Hrsg.) unter Mitarbeit von Armin Biermann, Thomas Müller, Bernd Schulte und Barbara Ullrich: Stil. Geschichte und Funktionen eines kulturwissenschaftlichen Diskurselements, Frankfurt am Main 196, S. 65–725, hier: S. 65 und S. 693.  Klaus Jan Philipp: «‹Von der Wirkung der Baukunst auf die Veredelung der Menschen›. Anmerkungen zur deutschen Architekturtheorie um 100», in: Revolutionsarchitektur. Ein Aspekt der europäischen Architektur um 1800. Ausstellungskatalog Deutsches Architekturmuseum Frankfurt, hrsg. von Winfried Nerdinger, Klaus Jan Philipp und Hans-Peter Schwarz, München 1990, S. 43–47, hier: S. 47.

93

grundsätzlich durch nichts als die Gemeinsamkeit ihrer Urteile oder besser dadurch, dass sie sich überhaupt über die Borniertheit der Interessen und die Privatheit der Vorlieben zum Anspruch auf Urteil zu erheben weiß.»9 Dieser Begriff des Geschmacks verweist auf eine höhere Übereinkunft, die nicht nur nichts mit dem später in Relation zum Geschmack gebrachten Begriff der Mode zu tun hat. Geschmack wird, im Gegenteil, zur zentralen Kategorie einer idealistischen, normativen Ästhetik: Indem er auf ein Allgemeines verweist, «dem er zu subsumieren» ist. Im «Hinblick auf ein Ganzes», dessen Bestimmungen er unterliegt, verbindet sich der Begriff des Geschmacks mit dem des Stils, auf dessen Vereinbarungen er sich bezieht.10 Der mit dem Stil verbundene Gültigkeitsanspruch bildet das Referenzsystem der ästhetischen Beurteilungen und Entscheidungen, die auf Bildung und Kennerschaft beruhen. Wenn es also so wichtig war, Geschmack und Stil als normgebende und bedeutungsgenerierende Orientierungen angesichts der mit dem Aufbruch der industrialisierten Moderne einhergehenden Verunsicherungen zu etablieren, dann hatte das einerseits zwar viel mit den Gewichtsverlagerungen und Übergangserscheinungen von der höfischen zu einer bürgerlichen Gesellschaft zu tun. Es hatte andererseits aber auch damit zu tun, dass die im Zuge der Industrialisierung aufstrebende Zunft der Ingenieure die Architekten als Baukünstler zunehmend infrage stellte. Über die Stilentscheidung den mühsam etablierten Kunstanspruch von Architektur zu bekräftigen und eine Deutungshoheit über den «Geschmack» zu bekräftigen, darin lag eine der Chancen für die Zunft der Architekten, ihren Anspruch auf künstlerische Autorschaft aufrechtzuerhalten. Und nicht nur das: Auch der Baukünstler wurde zu einem «ästhetischen Erzieher der Menschen». Sein Schaffen zielte ab auf «die Veredelung des Menschen durch die Baukunst»11. In der Adaption der von Friedrich Schiller entworfenen idealistischen Ästhetik postulierte der Architekt den programmatischen Gegenentwurf zum Ingenieur, dessen Fähigkeiten zuerst einmal allein in den Dienst innovativer Funktionserfüllung gestellt waren. 9 Hans-Georg Gadamer: Wahrheit und Methode. Grundzüge einer philosophischen Hermeneutik, Tübingen 61990 (Erstauflage 1960), S. 41. 10 Ebenda, S. 43: «[...] Geschmack wie Urteilskraft sind Beurteilungen des Einzelnen im Hinblick auf ein Ganzes, ob es mit allem zusammenpasst, ob es also ‹passend› ist.» Und mit Hinweis auf die dazugehörige Anmerkung Nr. 67: «Hier hat der Begriff ‹Stil› seinen Ort.» 11 Siehe Anm. , S. 44.

94

Andrea Gleiniger | Stil oder Code – Von den Paradigmen des architektonischen Ausdrucks

Es ging also auch um eine Art «medialer» Öffentlichkeitswirksamkeit von Architektur als einem Instrument ästhetischer und ideologischer Orientierung. Die Besonderheit dieser Wirkungsintention war es, nicht nur auf jene kulturellen und gesellschaftlichen Eliten zu zielen, die traditionell über die Möglichkeiten verfügten, ästhetische Entscheidungen im Einzelnen zu verfolgen und zu verstehen. Sie galt am Ende auch jener immer breiter werdenden Masse, die sich auch ohne Detailkenntnisse an den Vorgaben der Eliten orientierte. Wie bedeutsam und folgenreich die Stilentscheidung war, demonstriert exemplarisch die berühmte Versuchsanordnung, die Karl Friedrich Schinkel im Laufe der 120er Jahre mit seinen divergierenden Entwürfen für den Bau der Friedrichswerderschen Kirche in Berlin vorlegte.12 Die unterschiedlichen stilistischen Ausrichtungen repräsentierten dabei weniger die zwei Seelen in der Brust des einen Architekten, der sich an unterschiedlichen ästhetischen Paradigmen orientierte. Sie standen vielmehr für ein jeweils anderes Programm.13 Mit dem gewählten «Stil» verbanden sich – so könnte man sagen – gewisse Codes, die unterschiedliche Aussagen hinsichtlich der politischen, gesellschaftlichen und künstlerischen Positionierungen des architektonischen Entwurfs machten. Seit Heinrich Hübschs programmatischer Frage nahm die Stildiskussion einen breiten Raum im architekturtheoretischen Diskurs ein. Und wenn sie einerseits gleichbedeutend wurde mit der Suche nach den grundsätzlichen Definitionen und Positionsbestimmungen der Architektur und der Kunst, etwa bei Gottfried Semper14 oder dem Kunsthistoriker Alois Riegel, dann wurde die Stilfrage – zumindest in Deutschland – andererseits auch mehr und mehr politisiert. Mit der Entscheidung für einen Stil wurde eine Weltanschauung manifestiert.15 12 «Klassisch» oder «gotisch» lauteten die divergierenden stilistischen Prämissen seiner Entwürfe für den Bau der Kirche, die als gemeinsames Gotteshaus für die deutsche und die französische Gemeinde in Berlin dienen sollte und seit 124 entstand. 13 Auf der einen Seite steht die archäologisch fundierte Hinwendung zur Antike und ihrer architektonischen Rezeption in den Bauwerken der italienischen Renaissance als Grundlage eines neuen Klassizismus. Auf der anderen Seite steht die Bedeutung, die das Mittelalter in Gestalt der Gotik als Ideal und Wunschbild einer Gegenwart gewann, die nach neuen und eigenen nationalstaatlichen Identifikationen suchte. 14 Siehe Gottfried Sempers unvollendetes opus magnum: Der Stil in den technischen und tektonischen Künsten, oder Praktische Aesthetik. Ein Handbuch für Techniker, Künstler und Kunstfreunde, Frankfurt am Main 160–163. 15 Siehe hierzu auch Hanno-Walter Kruft: Geschichte der Architekturtheorie. Von der Antike bis zur Gegenwart, München 195, S. 359ff.

95

Auch in den an der Schwelle zum 20. Jahrhundert immer nachdrücklicher formulierten reformerischen Antworten auf die Desorientierungen und Herausforderungen der Modernisierung ging es darum, die reformerischen Konzepte in einen umfassenden kulturellen Anspruch einzubetten und in neue ästhetische und kulturelle Verbindlichkeiten zu überführen.16 Gleichzeitig allerdings differenzierte sich die Sichtweise auf das Phänomen des Stils in einer Weise aus, die entscheidend zur zukünftigen Sicht des Stilbegriffs beitragen sollte: Neben den vor allem in der Philosophie reklamierten «Denkstilen» war es eine sich kultursoziologisch profilierende, moderne Gesellschaftswissenschaft, die angesichts der gesellschaftlichen Dynamik der modernen Urbanisierungsprozesse «Lebensstile»17 diagnostizierte und damit schlussendlich auch das schillernde Phänomen der «Mode» und – ohne dass dies schon so benannt wurde – die damit verbundenen «Codes» ins Blickfeld geraten ließ. Umberto Eco, dem wir es Jahrzehnte später zu verdanken haben, dass der Begriff des Codes in den 1970er Jahren zu einem Schlüsselbegriff des Architekturverständnisses avanciert, wird diesen Zusammenhang zuspitzen, in dem er vom «styling» als Eigenschaft des Codes spricht: «Die wirbelnde Spirale, in der unsere Zeit Formen mit Signifikanten füllt und entleert, entdeckt Codes neu und vergisst sie wieder und ist im Grunde nichts anderes als eine ständige Styling-Operation.»18 Die Paradoxie bestand nun darin, dass Stil als «Metaprogramm» einerseits immer wieder infrage gestellt wurde, gleichzeitig aber die Sehnsucht nach dem einen, den verloren gegangenen Zusammenhang wiederherstellenden Epochenstil (noch immer) nicht erloschen war: Und so steht auch «hinter der Absage an die Stile»19, welche die Moderne so programmatisch durchzieht, gleichzeitig ein Wille zum Stil im Sinne jenes umfassenden Konzepts, das «im systematischen, 16 Etwa bei Otto Wagner, Hermann Muthesius, Adolf Loos oder Hendrik Petrus Berlage. Eine diesbezügliche Sichtung und Zusammenfassung der wichtigsten Positionen zum Thema Stil findet sich bei: Ákos Moravánszky: «Vom Stilus zum Branding», in: siehe Anm. 3, S. 7–120. 17 Siehe hierzu vor allem Georg Simmel, zum Beispiel: «Der Bilderrahmen. Ein ästhetischer Versuch» (1902), in: Aufsätze und Abhandlungen 1901–1908, Band I, Georg Simmel: Gesamtausgabe, hrsg. von Otthein Rammstedt, Band 7, hrsg. von Rüdiger Kramme, Angela Rammstedt und Otthein Rammstedt, Frankfurt am Main 1995, S. 101–108, hier: S. 105. Sowie ders.: «Das Problem des Stils» (1908), in: Aufsätze und Abhandlungen 1901–1908, Band II, Georg Simmel: Gesamtausgabe, hrsg. von Otthein Rammstedt, Band 8, hrsg. von Alessandro Cavalli und Volkhard Krech, Frankfurt am Main 1993, S. 374–384, hier: S. 382. 18 Siehe Anm. 4, S. 314, hier: S. 321. 19 Werner Oechslin: Stilhülse und Kern. Otto Wagner, Adolf Loos und der evolutionäre Weg der modernen Architektur, Zürich, Berlin 1994, S. 37.

96

Andrea Gleiniger | Stil oder Code – Von den Paradigmen des architektonischen Ausdrucks

auf das Wesentliche, auf begründete Zusammenhänge und Gesetzmäßigkeiten gerichtete Suchen [jedoch] die allein richtige ‹moralische› Haltung des Architekten erkennt»20 und so nicht nur eine Art idealistischen Erziehungsanspruch postuliert. Es soll auch dafür sorgen, dass die disparaten, entfremdeten Bereiche von Kunst, Technik und Leben (wieder) zusammengeführt werden. Und auch wenn die von Henry-Russel Hitchcock und Philip Johnson21 getroffene Auswahl, die 1932 unter dem Titel «International Style» als Ausstellung in Szene gesetzt wurde und als Buch ihre nachhaltige Wirkung entfaltete, keineswegs auf die uneingeschränkte Zustimmung der sich auf unterschiedliche Weise in den Entwicklungen der (Klassischen) Moderne positionierenden Architekten stieß, so änderte das doch nichts daran, dass die verschiedenen Avantgarde-Konzepte jeweils unter diesem sämtliche Bereiche des Lebens ästhetisch und gedanklich durchdringenden Gestaltungsanspruch angetreten waren. In diesem noch einmal so nachdrücklich vorgetragenen Gestaltungsanspruch, in dem sich «praktische Kultur» und «ästhetische» Kultur vereinen sollten, erhebt sich noch einmal ein Stilwille von «idealistischem» Ausmaß: «Das von der Avantgarde getragene Programm der viel zitierten Aufhebung der Kunst in das Leben trägt in seinem Kern immer noch weiter diese idealistische Haltung auf eine doch mögliche Einheit des in Teilbereiche auseinanderdifferenzierten, entfremdeten Lebens: dass die lebenspraktisch gestaltete Architektur zur praktischen Kultur würde, in der die theoretische bereits mitverarbeitet und auch weiter vorangetrieben wird.»22

20 Ebenda. 21 Johnson, im Laufe seines Lebens vom jugendlichen Propagandisten der Moderne zur Galeonsfigur einer stellenweise besonders plakativen Postmoderne avanciert, ist sich der Sensibilität des Stilbegriffs auch und gerade im Hinblick auf die eigene Biografie sehr wohl bewusst, wenn er 19 anlässlich der von ihm organisierten Ausstellung Deconstructive architecture betont: «It is now about sixty years since Henry-Russell Hitchcock, Alfred Barr and I started our quest for a new style of architecture which would, like Gothic or Romanesque in their day, take over the discipline of our art. The resulting exhibition of 1932, ‹Modern Architecture›, summed up the architecture of the twenties (...) and prophesied an International Style in architecture to take the place of the ‹romantic› styles of the previous half century. With this exhibition, there are no such aims.» Philip Johnson, Mark Wigley: Deconstructive Architecture, Ausstellungskatalog New York, New York, London 19, S. 7. (dt. Philip Johnson und Mark Wigley: Dekonstruktivistische Architektur, Stuttgart 19.) 22 Michael Müller: «Die Versöhnung der ‹theoretischen Kultur› mit der ‹praktischen Kultur› – eine Vision der Moderne», in: Vision der Moderne. Das Prinzip Konstruktion, hrsg. von Heinrich Klotz unter Mitarbeit von Volker Fischer, Andrea Gleiniger und Hans-Peter Schwarz, München 196, S. 33–45, hier: S. 34.

97

Vom Internationalen Stil zur Guten Form Dieser ‹idealistische› Gestus hält sich nicht nur bis in die 1950er und 1960er Jahre, in Deutschland erhält er angesichts der Erfahrungen des Dritten Reiches auch eine neue Bedeutung: Aus einer über Normierung und Abstraktion vereinheitlichten Formensprache generiert sich ein neues Pathos von Geschmack und Moral, die «Gute Form»23! Von dem potenziellen Absolutheitsanspruch einer an die «Moral der Gegenstände»24 appellierenden «Guten Form» zur Idee der «Programmierung des Schönen» ist es dann nur noch ein kleiner Schritt. Und es ist wohl keine Überraschung, dass sich dieser Schritt unter dem Dach oder doch im geistigen Einzugsbereich jener legendären Ausbildungsinstitution vollzog, die sich nach dem Zweiten Weltkrieg der zeitgemäßen Anverwandlung des Bauhaus-Erbes in besonderer Weise verpflichtet fühlte: der Hochschule für Gestaltung in Ulm, die mit Max Bill einen unerbittlichen ästhetischen Erzieher und mit Max Bense einen Philosophen an ihrer Spitze wusste, der aus der Synthese von Ästhetik und Technik den Schritt von der normativen Ästhetik der Moderne im Sinne einer «Programmierung des Geschmacks» zur «Programmierung des Schönen» aus dem Geist der Informationstheorie zu vollziehen gedachte.25 Wenn Bense und seine künstlerisch ambitionierten Mitstreiter, etwa die Mathematiker Frieder Nake und Georg Nees, von der ästhetischen Energie des Codes als Grundlage der Programmierung des Schönen träumten, dann erhofften sie sich aus der Allianz von Ästhetik und Code keineswegs explizit einen neuen Stil. Eher zielten sie wohl auf das Gegenteil: nämlich auf eine von allen ideologischen Implikationen befreite und in der techn(olog)ischen Produktion sich «objektivierende» Ästhetik. Gleichzeitig jedoch resultierte aus dieser Objektivierung eine Art Gewissheit, jedweder Stildiskussion ein für alle Mal ein Ende zu

23 Initialisiert wurde der Begriff «Gute Form», der seit den 1950er Jahren zum Inbegriff für modernes, sachliches Design geworden ist, durch die Ausstellung im Zürcher Kunstgewerbemuseum im Jahre 1949 und die daraus resultierende Publikation von Max Bill: Die gute Form. Wanderausstellung des Schweiz. Werkbundes, Zürich 1949. Sowie: Die gute Form. 6 Jahre Auszeichnung «Die gute Form» an der Schweizer Mustermesse in Basel, hrsg. von der Direktion der Schweizer Mustermesse in Basel [et al.], Winterthur 1957. 24 So lautete der Titel einer 197 gezeigten Ausstellung zu Geschichte und Nachwirkungen der Hochschule für Gestaltung Ulm. Herbert Lindinger (Hrsg.): Hochschule für Gestaltung Ulm. Die Moral der Gegenstände. (Ausstellung Ulm, 197), Berlin 197. 25 Vgl. Georg Vrachliotis: Geregelte Verhältnisse. Architektur und technisches Denken in der Epoche der Kybernetik, Wien, New York (erscheint 2010).

9

Andrea Gleiniger | Stil oder Code – Von den Paradigmen des architektonischen Ausdrucks

setzen und damit letztendlich einen neuen moralischen Gültigkeitsanspruch zu etablieren, der weniger auf das plurale Nebeneinander (unendlich) vieler Möglichkeiten abzielte – eine Option, die heute die eigentliche Faszination des Codes darstellt. Die Absicht war vielmehr eine Optimierung der Komplexität in der Abstraktion, aus der als eine Art kultureller Nebenwirkung am Ende eine neue ästhetisch-stilistische Apodiktik hervorgegangen wäre (und in Teilen ja auch hervorgegangen ist). In dieser Hinsicht trafen sich Bense und seine Mitstreiter mit mancher Position im vielstimmigen Chor der Proteste und architektonischen Absetzbewegungen, die sich gegen die Vereinfachungsstrategien und den ebenso «restriktiven» wie redundanten (noch von den Leitbildern des Industriezeitalters geprägten) architektonischen «Code» der Nachkriegsmoderne erhoben hatten. Etwa wenn, über das Paradigma der Struktur, das Augenmerk auf eine neue nicht nur konstruktiv-funktionale, sondern auch kulturelle Grundlagenforschung der Architektur gelenkt wurde, wie das im Strukturalismus, theoretisch begleitet vor allem von Christian Norberg-Schulz, der Fall war oder wenig später in der Archetypen-Forschung des Italienischen Rationalismus und hier besonders bei Aldo Rossi in transformierter Form seine Fortsetzung fand. Die Begriffe der «Struktur» und des «Archetypus» haben in diesem Fall einige Gemeinsamkeiten mit dem Begriff des Codes, der im Sinne einer umfassenden und essenziellen künstlerischen Aussage eingesetzt wird. Wenn der ästhetisch ambitionierte Codebegriff der Informationstechnologie darauf abzielte, den Umgang mit Komplexität zu optimieren, dann beabsichtigte jener fast gleichzeitig in die Diskussion eingeführte Codebegriff aus Linguistik und Semiotik in gewisser Weise das Gegenteil. Der ästhetisch ambitionierte Codebegriff war auf Diversifizierung und Differenzierung angelegt, die der sozialen, gesellschaftlichen und kulturellen Komplexität und Pluralität in besonderer Weise Rechnung tragen sollten. Vor diesem Hintergrund erhielt der Code auch für die Architektur eine neue Relevanz. Und so entdeckten all jene Architekten, die auf der Suche nach über den funktional-ökonomischen Zweckrationalismus hinausweisenden architektonischen Sinn- und Bedeutungszusammenhängen waren, im Zeichen von Kommunikations- und Zeichentheorien die Relationen zwischen Code und Komplexität auf eine neue und andere Weise. Indem die Krise der funktionalistischen Architektur und ihr Bedeutungsverlust die verschiedensten Disziplinen auf den Plan gerufen hatte, wird das Problem der Architektur in einer Weise interdisziplinär, wie das bis dahin nie der

99

Abb. 1: Robert Venturi und John Rauch: GuildHouse, Philadelphia, 1960–63. So prallten etwa in dem Spannungsverhältnis der zu diesem Zeitpunkt schon wieder abmontierten goldenen Fernsehantenne und den rundbogigen Thermenfenstern unterschiedliche Codes von Gemeinschaftlichkeit aufeinander.

100

Andrea Gleiniger | Stil oder Code – Von den Paradigmen des architektonischen Ausdrucks

Fall gewesen war, zumindest nicht in dieser auf die Gesellschaft hin orientierten Weise. Wenn also Disziplinen wie Soziologie und Psychologie, Semiotik und Kommunikationstheorie ins Gravitationsfeld des architektonischen Diskurses geraten, dann hat das sehr viel damit zu tun, Referenzsysteme für die Architektur zu (er)finden, die auf eine andere als die traditionell ästhetische Weise dazu beitragen, architektonische Bedeutung zu generieren und legitimieren. So zieht Werner Durth in seiner 1977 publizierten Untersuchung zum Zustand zeitgenössischer Stadtgestaltung nicht nur Eco heran, sondern auch Manfred Kiemles Versuch die «Ästhetischen Problemen der Architektur» mit den Mitteln der Informationstheorie zu lösen.26 Durth wirft einen soziologischsemiotischen Blick auf Stadt und Architektur und macht die Rolle des Codes zum Bestandteil seiner Diagnose der «Inszenierung der Alltagswelt»: «Auf der individuellen ‹Suche nach Identität› ist daher in der unüberblickbaren Vielzahl von unterschiedlichen Wertsystemen, Lebensformen und Situationsgefügen jedes Indiz von Wichtigkeit, das die Identifizierung von Erlebnis- und Handlungsfeldern erlaubt. Dabei bilden die durch umgangssprachlich vermittelte Alltagserfahrungen geprägten visuellen Codes und kognitiven Kompetenzen den Filter, durch den auch die Vorstellungsbilder und Eindrücke von städtischen Umwelten subjektiv verarbeitet, entsprechende Images geprägt und Situationen definiert werden.»27 Doch noch ehe sich unter dem Einfluss von Ecos Semiotik neue Perspektiven auf die semantischen Dimensionen von Architektur eröffneten, setzte Robert Venturi mit seinem ebenso unbefangen wie intelligent aus dem Fundus des architekturhistorischen Tiefenraumes argumentierenden Plädoyer für Komplexität, das sowohl mit den Codes der Vergangenheit als auch der Gegenwart argumentierte, Mitte der 1960er Jahre ein Zeichen [Abb. 1]. Durch Denise Scott Brown erhielt dieses Plädoyer dann seine soziologische und urbanistische Dimension.

26 Zu Eco, vgl. Anm. 4. Tatsächlich verschwendet Eco keinerlei Überlegungen an eine Begriffsdifferenzierung: so setzt er Code sehr beiläufig in einen Atemzug mit Kunststil und Manier: «Man konnte im vergangenen Jahrhundert Zeuge eines typischen Phänomens der Kunstgeschichte sein, nämlich dass in einer gegebenen Zeit ein Code (ein Kunststil, eine Manier) eine Ideologie konnotiert [...].» Siehe Anm. 4, S. 314. Siehe auch Manfred Kiemle: Ästhetische Probleme der Architektur unter dem Aspekt der Informationsästhetik, Quickborn 1967. 27 Werner Durth: Inszenierung der Alltagswelt. Zur Kritik der Stadtgestaltung (Reihe Bauwelt Fundamente), Braunschweig 1977, S. 177.

101

Das Experiment dieser auf die Grundlage eines pluralen Referenzsystems gestellten «Revision der Moderne», findet – wie wir wissen – in einem Spannungsfeld der Extreme statt: zwischen «E- und U-Architektur», zwischen Hightech und Arte povera, zwischen Las Vegas und Levittown2, Gian Lorenzo Bernini und Le Corbusier. Nicht zuletzt in diesem Spannungsfeld suchen Architekten weiterhin nach ihrem disziplinären Eigensinn und nach neuer (bau-)künstlerischer Selbstvergewisserung. Doch, ob es dabei um ein neues Konzept von Stil(en) geht oder ob es der Begriff des Codes ist, der die Suche nach den verschiedenen Lesarten von Architektur und architektonischem oder auch städtebaulichem Kontext grundiert, ist für den akut werdenden Diskurs der Postmoderne zunächst uninteressant. Entscheidend ist vielmehr, dass es – auf die eine oder andere Weise – wieder um eine über die reine Funktion hinausweisende Bedeutung geht. Dabei geht es nicht nur um das wohlfeile Wortspiel, das sich aus dem Louis Sullivan abgetrotzten Motto des «form follows function» ableiten lässt und aus «function» «fiction» macht. Vor allem im europäischen Kontext der Postmoderne geht es auch um eine Wiedergewinnung (und Ehrenrettung) der Architektur als (Bau-)Kunst und nicht nur als soziale, funktionale und konstruktive Technik. «Schöner Schein» versus «Information» Das wird besonders deutlich in der Perspektive, die Heinrich Klotz in der Einleitung des Kataloges zur Eröffnungsausstellung des Deutschen Architekturmuseums in Frankfurt am Main im Jahr 194 entwirft. Angesichts der dort versammelten Bauten und Projekte von Charles Moore und Robert Venturi, von Aldo Rossi und O. M. Ungers stellte er fest: «All die hier genannten Architekten, Moore und Venturi, Rossi und Ungers, haben indessen trotz aller Unterschiede das gemeinsame Ziel, die symbolischen und typologischen Formen nicht allein vordergründig auf dem Niveau bloßer Information einzusetzen, also Inhalte mitzuteilen, sondern sie als den fiktionalen Stoff zu gebrauchen, aus dem das Bauwerk

2 Für Denise Scott Brown und Robert Venturi spielte der an der University of Pennsylvania in Philadelphia lehrende Soziologe Herbert J. Gans eine große Rolle. Nicht zuletzt durch seine Sichtweise auf die soziologische Konstellation der amerikanischen Suburbs am Beispiel von Levittown geriet für Scott Braun und Venturi nicht nur die Vorstadt, sondern auch die Phänomenologie der «mainstreet», von ihnen exemplarisch behandelt am Strip von Las Vegas (1972), ins Visier. Vgl. Herbert J. Gans: Die Levittowner: Soziographie einer «Schlafstadt», Braunschweig, Wiesbaden 1969 (engl.: The Levittowners: Ways of Life and Politics in a New Suburban Community, New York 1967).

102

Andrea Gleiniger | Stil oder Code – Von den Paradigmen des architektonischen Ausdrucks

als ein Kunstwerk, als ein Werk des ‹Schönen Scheins›, wieder möglich wird. Sie haben wesentlichen Anteil am Zustandekommen – nicht eines Gehäuses der Funktion, sondern einer erdichteten Fiktion.»29 Das überraschende an Klotz’ Plädoyer für die Postmoderne war in diesem Zusammenhang nicht der Begriff der Fiktion, mit dem er hier – wie auch an anderer Stelle – gegen den Begriff der Funktion und für neue Bedeutungshorizonte in der Architektur argumentierte; das überraschende war, dass er den Begriff der «Information» aufgriff und ihm den idealistischen Topos des «Schönen Scheins» entgegensetzte. Denn in dieser Gegenüberstellung liegt, zumindest indirekt, ein Plädoyer für den Stil und gegen den Code.30 Die Deklaration dieses «Schönen Scheins» hat im Kontext der Postmoderne zu vielen Missverständnissen geführt. Doch bei seinem Plädoyer hatte Klotz sicher nicht jene oberflächliche Fassadenkosmetik im Sinn, mit der sich die konzeptionellen Ursprünge der «Postmoderne» so schnell desavouierten. Eher vielleicht doch jenen «Karnevalskerzendunst», den Gottfried Semper einst als die wahre Atmosphäre der Kunst deklariert hatte.31 Denn das Bau(kunst)werk als Werk des «Schönen Scheins» implizierte die Forderung, dass sich eine Idee zur ästhetischen Form verdichtet hat oder umgekehrt: keine ästhetische Form ohne Idee auskommt. In einer solchen Vorstellung wird das idealistische Konzept von Stil wieder lebendig. Die Fragen, ob die Postmoderne neue Stile generiert hat oder neue Codes, ob sie selber ein Stil ist oder nur der ominöse Rahmen für ein ebenso umtriebiges wie beliebiges «styling» (Eco) – sie sind bis heute nicht ausdiskutiert. Und vielleicht ist das auch gar nicht so wichtig. Im Hinblick auf einen gewandelten Codebegriff allerdings könnten sich neue Impulse ergeben. Denn anders als in seinen metaphorischen Vereinnahmungen im Hinblick auf die postmodernen Sprachregelungen des architektonischen Ausdrucks ist er

29 «Das Bauwerk soll Mittel der Darstellung sein, nicht nur Instrument des Nutzens. [...] In diesem Bemühen, das Bauwerk wieder als ein Werk des ‹Schönen Scheins› zu verstehen, konvergieren alle die unterschiedlichen Tendenzen der postmodernen Architektur.» Heinrich Klotz in der Einführung zu: Die Revision der Moderne. Postmoderne Architektur 1960–1980, hrsg. von Heinrich Klotz. Mit Beiträgen von Volker Fischer, Andrea Gleiniger, Heinrich Klotz und Hans-Peter Schwarz, München 194, S. 10. 30 Wir haben Anlass zu der Annahme, dass Heinrich Klotz sich damit bewusst im Gegensatz zu Charles Jencks verstand. 31 Siehe hierzu u.a. Moravánszky, Anm. 3, S. 9.

103

Abb. 2: Peter Eisenman: Institut für Biochemie, Projekt für das Rebstockgelände, Frankfurt 1987.

104

Andrea Gleiniger | Stil oder Code – Von den Paradigmen des architektonischen Ausdrucks

nun zu einem operativen Schlüsselbegriff des Entwurfs geworden. In seiner informationstechnologischen Auslegung gewinnt der Begriff des Codes eine neue Energie. Von der Metapher zur Operation Eine Art Scharnierfunktion in dieser Entwicklung kommt der Arbeit von Peter Eisenman zu. Schon 197 hatte der amerikanische Architekt, der ursprünglich zu den New York Five32 zählte, für das Projekt des Instituts für Biochemie in Frankfurt den Begriff «Code» als biologische Metapher des architektonischen Konzepts adaptiert [Abb. 2]. Eisenman ist es auch, der seitdem versucht, die verschiedenen Bedeutungsfacetten des Codierens (und Codifizierens) zusammenzudenken, etwa wenn er in seinem Projekt für Santiago de Compostela einerseits auf die vor allem religiösen Traditionen der Codici im Sinne eines Weltbild erschaffenden Regelwerks rekurriert und andererseits in seiner Entwurfsstrategie mit einem informationstechnologischen Instrumentarium operiert und experimentiert.33 Fiktion versus Narration Die Postmoderne brachte «Code» programmatisch mit der Funktion des Erzählens in Verbindung; gemeint waren Konzepte der Fiktionalisierung, in denen auf je unterschiedliche Weise Geschichte und Geschichten als kontextstiftende Bezüglichkeiten architektonisch gestaltet und ganz bewusst in Szene gesetzt wurden. Gegenüber dem eher statischen Begriff von Fiktion, eröffnet der Begriff der «Narration» eine Perspektive auf das Prozesshafte eines Erzählvorgangs, der sich weniger über Bilder als vielmehr über Einflüsse architektonisch materialisiert. Wenn heute also von einem «Story Telling with Code» die Rede ist, dann geht es hier um eine neue Qualität der architektonischen Narration,34 die eben nicht mehr (nur) aus einem semantisch-metaphorischen Verständnis von Code, sondern aus seinem operationalen und operativen Möglichkeitsraum entsteht. 32 Die Bezeichnung geht auf die 1967 in New York gezeigte Ausstellung Five Architects zurück, in der Eisenman, Michael Graves, Charles Gwathmey, John Hejduk und Richard Meier ihre architektonische Kritik an der Architektur der 1960er Jahre verbunden mit einer programmatischen Referenz an Le Corbusier vorbrachten. Eine entsprechende Publikation erschien erst 1975: Five Architects: Eisenman, Graves, Gwathmey, Hejduk, Meier, New York 1975. 33 Vgl. Cynthia Davidson (Hrsg.): Code X. The City of Culture of Galicia, New York 2005. Luca Galofaro (Hrsg.): Digital Eisenman. An Office of the Electronic Era, Basel, Boston, Berlin 1999. 34 Vergleiche den Beitrag von Gabriele Gramelsberger: «Story Telling with Code» in diesem Band, S. 29–40.

105

Abb. 3: Neue Monte-Rosa-Hütte SAC mit Matterhorn, Blick von Südost.

106

Andrea Gleiniger | Stil oder Code – Von den Paradigmen des architektonischen Ausdrucks

Der Code wird zur Quelle und zum Fokus einer komplexen architektonischen Versuchsanordnung, auf die Natur, Umwelt, Technik, Kultur und Geschichte auf vielfältigste Weise Einfluss nehmen können – wie etwa im Projekt der 2009 fertiggestellten Berghütte im Monte-Rosa-Massiv [Abb. 3], deren zwischen Zelt und Blechhütte, Kristall und Gesteinsblock changierende Gestaltung sich einer hochkomplexen Überlagerung funktionaler und kontextueller Bedingungen verdankt.35 Insofern das Bedürfnis vorhanden ist, die architektonischen Konzepte der Gegenwart nicht (nur) nach einem vor allem semantisch begründeten Codebegriff zu sortieren, sondern aus dem Möglichkeitsraum des operativen Codes neue definitorische Energie zu gewinnen, in deren Licht auch ein kulturell so kontaminierter Begriff wie der des Stils wieder Sinn machen könnte, könnte Stil heute einmal mehr bedeuten, «im systematischen, auf das Wesentliche, auf begründete Zusammenhänge und Gesetzmäßigkeiten gerichtete(n) Suchen die [...] Haltung des Architekten»36 zu erkennen. Angesichts des Umstandes, dass der Codebegriff von vielen Architekten als Angriff auf ihre Autorschaft verstanden wird, ist das eine Herausforderung. Sie anzunehmen würde bedeuten, Stilbewusstsein nicht im Sinne des «branding», sondern als eine Haltung zu verstehen, als eine künstlerische und kulturelle Spur, die einen architektonischen Werkund Lebenszusammenhang markiert.

35 Die Neue Monte-Rosa-Hütte ist ein Gemeinschaftsprojekt von ETH Zürich, SAC, Hochschule Luzern – Technik & Architektur und EMPA. Zu den zahlreichen Faktoren, die den Entwurf an diesem exponierten Ort beeinflussten gehörten: das Ökosystem und die Energieautarkie, die Witterungsbedingungen, die inneren und äußeren Funktionsbedingungen, Produktionsbedingungen der Hütte und ihre Materialtechnologie und vieles mehr. Siehe u.a.: http://www.neuemonterosahuette.ch. 36 Siehe Anm. 19.

107

AUSGEWÄHLTE LITERATUR Die vorliegende bibliografische Auswahl greift auf Literatur zurück, welche von den Autoren dieses Buches verwendet wurde. Darüber hinaus wurde sie mit Titeln ergänzt, die für dieses Thema relevant sind. Die Literaturangaben sind chronologisch geordnet. In der zeitlichen Einordnung wurde nach Möglichkeit das Datum der Erstausgabe bzw. Originalausgabe berücksichtigt.

— Heinrich Hübsch: In welchem Style sollen wir bauen? (12), Karlsruhe 194. — Gottfried Semper: Der Stil in den technischen und tektonischen Künsten, oder Praktische Aesthetik. Ein Handbuch für Techniker, Künstler und Kunstfreunde, Frankfurt am Main 160–163. — Georg Simmel: «Der Bilderrahmen. Ein ästhetischer Versuch» (1902), in: Aufsätze und Abhandlungen 1901–1908, Band I, Georg Simmel: Gesamtausgabe, hrsg. von Otthein Rammstedt, Band 7, hrsg. von Rüdiger Kramme, Angela Rammstedt und Otthein Rammstedt, Frankfurt am Main 1995, S. 101–10. — Ernst Cassirer: Substanzbegriff und Funktionsbegriff. Untersuchungen über die Grundfragen der Erkenntniskritik, Berlin 1910. — Claude E. Shannon: «The Mathematical Theory of Communication», in: Bell System Technical Journal, Band 27, S. 379–423 und S. 623–656, Juli und Oktober 194. — Norbert Wiener: Cybernetics. Or Communication and Control in the Animal and the Machine, Cambridge 194. Deutsche Ausgabe: Kybernetik, Regelung und Nachrichtenübertragung im Lebewesen und in der Maschine, Düsseldorf 21963. — Erwin Schrödinger: What is Life? The Physical Aspect of the Living Cell, Cambridge 1944. Deutsche Ausgabe: Erwin Schrödinger: Was ist Leben? Die lebende Zelle mit den Augen des Physikers betrachtet, München 1999. — Max Bense: Technische Existenz. Essays, Stuttgart 1949.

109

— Noam Chomsky: Syntactic Structures, Den Haag, Paris 1957. — Hans-Georg Gadamer: Wahrheit und Methode. Grundzüge einer philosophischen Hermeneutik (1960), Tübingen 1990 (6. Aufl.). — Ivan E. Sutherland: Sketchpad. A man-machine graphical communication system, Lincoln Laboratory Technical Report Nr. 296, Massachusetts Institute of Technology, Januar 1963. — John Backus, W. P. Heising: «FORTRAN», in: IEEE Trans. Electron. Comp. 13, 1964, S. 32–35. — «computer-grafik», erschienen in der Reihe: edition rot, Text 19, hrsg. von Max Bense und Elisabeth Walther, Stuttgart 1965. — John v. Neumann: Theory of Self-Reproducing Automata, Urbana 1966, hrsg. und vervollständigt von Athur W. Burks. — Roland Barthes: Kritik und Wahrheit (1966), Frankfurt am Main 2006 (1. Auflage dt. 1967). — Manfred Kiemle: Ästhetische Probleme der Architektur unter dem Aspekt der Informationsästhetik, Quickborn 1967. — Nobelpreis-Rede von Marshall Nirenberg: The Genetic Code. Nobel Lecture, 196, abrufbar unter: www.nobelprize.org. — Charles Jencks, George Baird (Hrsg.): Meaning in Architecture, London 1969. — David Evans: «Augmented Human Intellect», in: Computer Graphics in Architecture and Design. Proceedings of the Yale Conference on Architecture and Computer Graphics, (April 196), hrsg. von Murray Milne, New Haven/Connecticut 1969, S. 62ff.

110

Ausgewählte Literatur

— Steve A. Coons: «Computer Aided Design», in: Computer Graphics in Architecture and Design. Proceedings of the Yale Conference on Graphics in Architecture (April 196), hrsg. von Murray Milne, New Haven/Connecticut 1969, S. 9 ff. — Nicholas Negroponte: The Architecture Machine Group, Cambridge 1970. — Gillo Dorfles: «Ikonologie und Semiotik in der Architektur», in: Architektur als Zeichensystem, hrsg. von Alessandro Carline und Bernhard Schneider, Tübingen 1971, S. 91–9. — Umberto Eco: Einführung in die Semiotik, München 1972. — Frieder Nake: Ästhetik als Informationsverarbeitung. Grundlagen der Informatik im Bereich ästhetischer Produktion und Kritik, Wien, New York 1974. — Werner Durth: Inszenierung der Alltagswelt. Zur Kritik der Stadtgestaltung (Reihe Bauwelt Fundamente), Braunschweig 1977. — Charles Jencks: The Language of Post-Modern Architecture, London 1977. — Charles Jencks: «Post-Modern History», in: Architectural Design 1/197. — John Backus: «Programming in America in the 1950s», in: A History of Computing in the Twentieth Century, hrsg. von Nicholas Metropolis, J. Howlett, Gian-Carlo Rota, New York 190, S. 125–135. — Geoffrey Broadbent, Richard Bunt, Charles Jencks (Hrsg.): Signs, Symbols, and Architecture, Chichester 190. — Paul E. Ceruzzi: A History of Modern Computing, Cambridge 199.

111

— Donald E. Knuth, Luis Trabb Pardo: «The Early Development of Programming Languages», in: A History of Computing in the Twentieth Century, hrsg. von Nicholas Metropolis, J. Howlett, Gian-Carlo Rota, New York 190, S. 197–273. — Werner Oechslin: «Geometrie und Linie. Die Vitruvianische ‹Wissenschaft› von der Architekturzeichnung», in: Daidalos, Nr. 1, 191, S. 20ff. — Heinrich Klotz: Moderne und Postmoderne. Architektur der Gegenwart 1960–1980, Braunschweig, Wiesbaden 194. — Hanno-Walter Kruft: Geschichte der Architekturtheorie. Von der Antike bis zur Gegenwart, München 195. — Jürgen Habermas: «Moderne und postmoderne Architektur», in: ders: Die neue Unübersichtlichkeit, Frankfurt am Main 195. — Charles Jencks: Towards a Symbolic Architecture. The Thematic House, New York 195. — Roland Barthes: Das semiologische Abenteuer (195), Frankfurt am Main 19. — Heinrich Klotz (Hrsg.) unter Mitarbeit von Volker Fischer, Andrea Gleiniger und Hans-Peter Schwarz: Vision der Moderne. Das Prinzip Konstruktion, München 196. — Andreas Huyssen, Klaus Scherpe (Hrsg.): Postmoderne. Zeichen eines kulturellen Wandels, Reinbek 196. — Hans Ulrich Gumbrecht, K. Ludwig Pfeiffer (Hrsg.) unter Mitarbeit von Armin Biermann, Thomas Müller, Bernd Schulte und Barbara Ullrich: Stil. Geschichte und Funktionen eines kulturwissenschaftlichen Diskurselements, Frankfurt am Main 196. — Wolfgang Welsch: Unsere postmoderne Moderne, Weinheim 197.

112

Ausgewählte Literatur

— Sybille Krämer: Symbolische Maschinen, Darmstadt 19. — Klaus Jan Philipp: «‹Von der Wirkung der Baukunst auf die Veredelung der Menschen›. Anmerkungen zur deutschen Architekturtheorie um 100», in: Revolutionsarchitektur. Ein Aspekt der europäischen Architektur um 1800. Ausstellungskatalog Deutsches Architekturmuseum Frankfurt, hrsg. von Winfried Nerdinger, Klaus Jan Philipp und Hans-Peter Schwarz, München 1990, S. 43–47. — Claus Dreyer: «Zitat und Zitieren in zeitgenössischer Architektur», in: Zeitschrift für Semiotik, 14/1–2, 1992, S. 41–59. — Werner Oechslin: Stilhülse und Kern. Otto Wagner, Adolf Loos und der evolutionäre Weg der modernen Architektur, Zürich, Berlin 1994. — Claus Dreyer u.a. (Hrsg.): Lebenswelt – Zeichenwelt. Life World – Sign World. Festschrift für Martin Krampen, Lüneburg 1994. — Norbert Bolz, Friedrich A. Kittler, Christoph Tholen (Hrsg.): Computer als Medium, München 1994. — Roland Posner, Klaus Robering, Thomas A. Sebeok (Hrsg.): Semiotik. Ein Handbuch zu den zeichentheoretischen Grundlagen von Natur und Kultur/Semiotics. A Handbook on the Sign-Theoretic Foundations of Nature and Culture, Bd. 1, Berlin, New York 1997. — Eduard Führ, Hans Friesen, Anette Sommer (Hrsg.): Architektur – Sprache. Buchstäblichkeit, Versprachlichung, Interpretation, Münster 199. — Hans Blumenberg: Paradigmen zu einer Metaphorologie, Frankfurt am Main, 199. — Walter Koschatzky: Die Kunst der Zeichnung. Technik, Geschichte, Meisterwerke, München 1999.

113

— Luca Galofaro (Hrsg.): Digital Eisenman. An office of the electronic era, Basel, Boston, Berlin 1999. — Winfried Nöth: Handbuch der Semiotik, 2. Auflage, Stuttgart 2000. — Lily E. Kay: Who Wrote the Book of Life. A History of the Genetic Code, Stanford 2000. — Ákos Moravánszky: «Vom Stilus zum Branding», in: Architekturtheorie des 20. Jahrhunderts, hrsg. von A. Moravánsky, Wien, New York 2003, S. 7–120. — Hans Dieter Hellige: «Zur Genese des informatischen Programmbegriffs: Begriffbildung, metaphorische Prozesse, Leitbilder und professionelle Kulturen», in: Algorithmik, Kunst, Semiotik. Hommage für Frieder Nake, hrsg. von Karl-Heinz Rödinger, Heidelberg 2003, S. 42–75. — Ingeborg Flagge, Romana Schneider (Hrsg.): Die Revision der Postmoderne, Frankfurt am Main 2004. — Elijah Huge (Hrsg.): Building codes. Perspecta 35: the Yale architectural journal, Cambridge/Mass. 2004. — Cynthia Davidson (Hrsg.): Code X. The City of Culture of Galicia, New York 2005. — Georg Trogemann, Jochen Viehoff: CodeArt – Eine elementare Einführung in die Programmierung als künstlerische Praktik, Wien, New York 2005. — Ingeborg M. Rocker: «When Code Matters», in: Architectural Design, Vol. 76, No. 421, 2006, S. 16–25. — Mike Silver (Hrsg.): Programming Cultures (Special Issue), Architectural Design, Nr. 76, Juli 2006, S. 46–56.

114

Ausgewählte Literatur

— Eva Jablonka, Marion J. Lamb: Evolution in Four Dimensions. Genetic. Epigenetic, Behavioral, and Symbolic Variation in the History of Life, Cambridge/Mass. 2006. — Achim Hahn: Architekturtheorie. Wohnen, Entwerfen, Bauen, Konstanz 200. — Michael Silver: «Matter/in-formation», in: Evan Douglis: Autogenic Structures, New York 2009, S. 152–191. — Claus Dreyer: «Semiotik und Ästhetik in der Architekturtheorie der sechziger Jahre», in: Kulturtechnik Entwerfen. Praktiken, Konzepte und Medien in Architektur und Design Science, hrsg. von Daniel Gethmann und Susanne Hauser, Bielefeld 2009, S. 179–201. — Zeitschrift für Medien- und Kulturforschung, hrsg. von Lorenz Engell und Bernhard Siegert, Hamburg (im Druck). — Georg Vrachliotis: Geregelte Verhältnisse. Architektur und technisches Denken in der Epoche der Kybernetik, Wien, New York (erscheint 2010).

115

ABBILDUNGSNACHWEIS

Bschir Abb. 1 Abb. 2

Dreyer Abb. 1 Abb. 2 Abb. 3 Abb. 4 Abb. 5 Abb. 6 Abb. 7

Reprinted by permission from Macmillan Publishers Ltd: Nature, Vol. 171, S. 737, copyright (1953). Reprinted by permission from Macmillan Publishers Ltd: Nature, Vol. 173, S. 318, copyright (1954).

Quelle: Charles Jencks und George Baird: Meaning in Architecture, New York 1970, S. 143. © Heinrich Klotz, aus: Heinrich Klotz: Moderne und Postmoderne. Architektur der Gegenwart 1960–1980, Braunschweig, Wiesbaden 1984, S. 136. Quelle: Charles Jencks: Towards a Symbolic Architecture. The Thematic House, New York 1985, S. 130. Quelle: Wolfgang Amsoneit: Contemporary European Architects, Vol. 1, o. O. 1991, S. 89. © Andrea Gleiniger. Florathexplora (Toronto), flickr.com, creative commons. Torcello Trio (London), flickr.com, creative commons.

Vrachliotis Abb. 1 Nicholas Negroponte, The Architecture Machine, Cambridge 1970, S. 12. Abb. 2 Nicholas Negroponte, The Architecture Machine, Cambridge 1970, S. 18, 20 (vom Autor Abb. 3 Abb. 4

zusammengefügt). © Frieder Nake, aus: Jasia Reichardt (Hrsg.): Cybernetic Serendipity. The Computer and the Arts, Ausstellungskatalog, London 1968, S. 77. © Georg Nees, aus: Georg Nees, Generative Computergraphik, Erlangen 1969, S. 241, 242.

Gleiniger Abb. 1 © Heinrich Klotz, aus: Heinrich Klotz: Moderne und Postmoderne. Architektur der Abb. 2 Abb. 3

117

Gegenwart 1960–1980, Braunschweig, Wiesbaden 1984, S. 153. Philip Johnson, Mark Wigley: Deconstructive Architecture, Ausstellungskatalog New York, New York, London 1988, S. 61. © ETH-Studio Monte Rosa/Toniatiuh Ambrosetti.

BIOGRAFIEN DER AUTORINNEN UND AUTOREN — Karim Bschir ist wissenschaftlicher Assistent am Lehrstuhl für Philosophie der ETH Zürich. Nach dem Abschluss seines Biochemiestudiums an der Universität Zürich hat er sich einer Dissertation in Philosohie zugewandt. Seine Forschungsinteressen liegen im Bereich der allgemeinen Wissenschaftstheorie, insbesondere in der Frage des wissenschaftlichen Realismus. Karim Bschir ist außerdem assoziierter Mitarbeiter am Collegium Helveticum und Research Fellow am Center for Philosophy and the Natural Sciences (CPNS) der California State University Sacramento.

— Claus Dreyer Studium der Philosophie, Germanistik, Kunstgeschichte und Kunsterziehung in Marburg, Berlin und Stuttgart. Promotion in Philosophie über «Semiotische Grundlagen der Architekturästhetik» (Stuttgart 1979). 1982–2009 Professor für Grundlagen des Gestaltens, Räumliches Gestalten und Gestaltungstheorie am Fachbereich Architektur und Innenarchitektur der Hochschule Ostwestfalen-Lippe in Detmold. Zahlreiche Publikationen insbesondere zum Verhältnis Architektur und Semiotik.

— Andrea Gleiniger Dr. phil., Kunst- und Architekturhistorikerin. Seit 2007 Dozentin Zürcher Hochschule der Künste, Schwerpunkt Geschichte und Theorie des Raumes/Szenografie. Studium der Kunstgeschichte, Vergleichende Literaturwissenschaft und Archäologie in Bonn und Marburg; 1988 Promotion im Fach Kunstgeschichte mit einer Arbeit über städtebauliche Leitbilder in Großsiedlungen der Nachkriegszeit, 1983–93 Kuratorin am Deutschen Architektur Museum in Frankfurt/Main; seit 1983 Lehraufträge und Gastprofessuren an Hochschulen in Karlsruhe, Stuttgart und Zürich. 2002–07 Lehre und Forschung an der ETH Zürich/Professur für CAAD. Publizistische Tätigkeit vor allem im Bereich Architektur, Städtebau, Kunst und neue Medien im 20. und 21. Jahrhundert.

— Gabriele Gramelsberger Seit 2004 Wissenschaftliche Mitarbeiterin am Institut für Philosophie an der Freien Universität Berlin. Studium der Philosophie, Politikwissenschaften und Psychologie in Berlin und Augsburg. Stipendiatin des Departments für Theorie/Philosophie an der Jan van Eyck Akademie, Maastricht. Promotion in Philosophie an der FU Berlin mit einer wissenschaftsphilosophischen Arbeit zur numerischen Simulation und Visualisierung. Ausgewählte Publikation: Computerexperimente. Zum Wandel der Wissenschaft im Zeitalter des Computers, Bielefeld 2009.

119

— Georg Trogemann Seit 1994 Professor für Experimentelle Informatik an der Kunsthochschule für Medien Köln. Studium der Informatik und Mathematik an der Universität Erlangen-Nürnberg. Vorher Gesellenprüfung als Schreiner. 1986–1990 wissenschaftlicher Mitarbeiter der Universität Erlangen-Nürnberg im SUPRENUM-Projekt, einem Forschungsvorhaben zur Entwicklung eines Superrechners für numerische Anwendungen, 1990 Promotion. Ausgewählte Publikation: CodeArt – Eine elementare Einführung in die Programmierung als künstlerische Praktik, Wien 2005.

— Georg Vrachliotis lehrt und forscht als Wissenschaftlicher Mitarbeiter am Institut für Geschichte und Theorie der Architektur der ETH Zürich und hat einen Lehrauftrag für Architekturtheorie am Institut für Architekturtheorie der TU Wien. Bis 2009 Forschungsassistenz an der Professur für CAAD, 2009 Promotion in Architektur an der ETH. Forschungsaufenthalte an den Universitäten Freiburg und Bremen sowie an der University of California at Berkeley. Sein Buch Geregelte Verhältnisse. Architektur und technisches Denken in der Epoche der Kybernetik wird 2010 bei Springer erscheinen.

120