Kulturtechnik Entwerfen: Praktiken, Konzepte und Medien in Architektur und Design Science [1. Aufl.] 9783839409015

Bedient sich das Entwerfen nur bestimmter Kulturtechniken oder ist es selbst als eine eigene Kulturtechnik aufzufassen,

278 111 19MB

German Pages 376 Year 2015

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
INHALT
Einleitung
I. TECHNIKEN
Weiße Flecken und finstre Herzen.Von der symbolischen Weltordnung zur Weltentwurfsordnung
Aufstieg und Fall der identischen Reproduzierbarkeit. Zu Leon Battista Albertis unzeitgemäßer Entdeckung digitaler Technologien in der Frührenaissance
Vom Modul zur Zelle zum Raster. Entwurfsparameter und ihre Veranschaulichung vor dem 19. Jahrhundert
Zum Entwurfsverständnis bei Hermann Ludwig Heinrich Fürst von Pückler-Muskau
II. VERFAHREN
Entwerfen zwischen Raum und Fläche
Le Corbusiers »Traktat über das Entwerfen«
Projektion der künftigen Architektur. Zu László Moholy-Nagy: »von material zu architektur«
Halbwertzeiten. Utopien von gestern als Stadtstrukturen von morgen?
III. REGELN
Erste Schritte zu einer Theorie des Ganzen und die »Notes on the Synthesis of Form«
Semiotik und Ästhetik in der Architekturtheorie der sechziger Jahre
Architekturmaschinen und wissenschaftliches Entwerfen. Entwurfspraktiken und -theorien Ende der sechziger Jahre
Maschinelle Entwurfshilfen. Was lehren Künstliche Intelligenz und Künstliche Kreativität über das architektonische Denken?
IV. PROZESSE
Berechneter Zufall. Max Benses Informationsästhetik
Jenseits des Werkzeugs. Kybernetische Optionen der Architektur zwischen Informationsästhetik und ›design amplifier‹
A Non-Sentimental Argument. Die Krisen des Design Methods Movement 1962-1972
›Augmented Architecture‹. Wie digitale Medien die Entwurfsarbeit der Architekten erweitern
V. PRAKTIKEN
Die Kreativität des Lebendigen und die Entstehung des Neuen
Prozesse gestalten – Zeit als Entwurfsmaterial
Zeichnerisches Wissen
Interaktionen. Zur medialen Konstitution des Entwerfens
Autorinnen und Autoren
Recommend Papers

Kulturtechnik Entwerfen: Praktiken, Konzepte und Medien in Architektur und Design Science [1. Aufl.]
 9783839409015

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Daniel Gethmann, Susanne Hauser (Hg.) Kulturtechnik Entwerfen

2009-04-06 13-20-52 --- Projekt: transcript.titeleien / Dokument: FAX ID 02d1206919080024|(S.

1

) T00_01 schmutztitel - 901.p 206919080032

2009-04-06 13-20-52 --- Projekt: transcript.titeleien / Dokument: FAX ID 02d1206919080024|(S.

2

) T00_02 seite 2 - 901.p 206919080040

Daniel Gethmann, Susanne Hauser (Hg.) Kulturtechnik Entwerfen. Praktiken, Konzepte und Medien in Architektur und Design Science

2009-04-06 13-20-53 --- Projekt: transcript.titeleien / Dokument: FAX ID 02d1206919080024|(S.

3

) T00_03 titel - 901.p 206919080048

Die Publikation wurde gefördert durch:

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

© 2009 transcript Verlag, Bielefeld Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen. Umschlaggestaltung: Kordula Röckenhaus, Bielefeld Innenlayout & Satz: Heiko Haberle, Berlin Druck: Majuskel Medienproduktion GmbH, Wetzlar ISBN 978-3-89942-901-5 Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff. Besuchen Sie uns im Internet: http://www.transcript-verlag.de Bitte fordern Sie unser Gesamtverzeichnis und andere Broschüren an unter: [email protected]

2009-04-06 13-20-53 --- Projekt: transcript.titeleien / Dokument: FAX ID 02d1206919080024|(S.

4

) T00_04 impressum - 901.p 206919080056

INHALT

Daniel Gethmann und Susanne Hauser Einleitung

9

I. TECHNIKEN Bernhard Siegert Weiße Flecken und finstre Herzen Von der symbolischen Weltordnung zur Weltentwurfsordnung

19

Mario Carpo Aufstieg und Fall der identischen Reproduzierbarkeit Zu Leon Battista Albertis unzeitgemäßer Entdeckung digitaler Technologien in der Frührenaissance

49

Michael Bollé Vom Modul zur Zelle zum Raster Entwurfsparameter und ihre Veranschaulichung vor dem 19. Jahrhundert

65

Gert Gröning Zum Entwurfsverständnis bei Hermann Ludwig Heinrich Fürst von Pückler-Muskau

85

II. VERFAHREN Wolfgang Pircher Entwerfen zwischen Raum und Fläche

103

Bruno Reichlin Le Corbusiers »Traktat über das Entwerfen«

121

Susanne Hauser Projektion der künftigen Architektur Zu László Moholy-Nagy: »von material zu architektur«

131

Frank Werner Halbwertzeiten Utopien von gestern als Stadtstrukturen von morgen?

149

III. REGELN Christian Kühn Erste Schritte zu einer Theorie des Ganzen Christopher Alexander und die »Notes on the Synthesis of Form«

161

Claus Dreyer Semiotik und Ästhetik in der Architekturtheorie der sechziger Jahre

179

Gernot Weckherlin Architekturmaschinen und wissenschaftliches Entwerfen Entwurfspraktiken und -theorien Ende der sechziger Jahre

203

Georg Franck Maschinelle Entwurfshilfen Was lehren Künstliche Intelligenz und Künstliche Kreativität über das architektonische Denken?

227

IV. PROZESSE Ingeborg M. Rocker Berechneter Zufall Max Benses Informationsästhetik

245

Claus Pias Jenseits des Werkzeugs Kybernetische Optionen der Architektur zwischen Informationsästhetik und ›design amplifier‹

269

Jesko Fezer A Non-Sentimental Argument Die Krisen des Design Methods Movement 1962-1972

287

Urs Hirschberg ›Augmented Architecture‹ Wie digitale Medien die Entwurfsarbeit der Architekten erweitern

305

V. PRAKTIKEN Elisabeth List Die Kreativität des Lebendigen und die Entstehung des Neuen

319

Maria Auböck und János Kárász Prozesse gestalten – Zeit als Entwurfsmaterial

333

Gert Hasenhütl Zeichnerisches Wissen

341

Daniel Gethmann Interaktionen Zur medialen Konstitution des Entwerfens

359

Autorinnen und Autoren

372

Einleitung DANIEL GETHMANN und SUSANNE HAUSER

Der Prozess des Entwerfens gilt gemeinhin als geheimnisumwitterte Technik zur Konzeption von zukunftsweisenden Gestaltungsvorschlägen in Architektur und Design. Eher selten wird er mit einer umfassenderen Perspektive auf gedanklich-strukturelle Konzepte zur Problemlösung in Verbindung gebracht und im Hinblick auf die Techniken, Verfahren, Regeln, Prozesse und Praktiken untersucht, die für das Entwerfen konstitutiv sind. Aus dieser erweiterten Perspektive fragen die Beiträge dieses Bandes nach der Rolle von Kulturtechniken in exemplarischen architektonischen Entwurfsprozessen von der Renaissance bis heute. In den Beiträgen wird die architektonische Entwurfspraxis in ihrer historischen Entwicklung und in ihren kultur- und erkenntnistheoretischen Grundlagen diskutiert, wobei die Situierung der Praktiken in Entwurfstraditionen, ihre speziellen Erkenntnisformen und ihre Funktionen in jeweils zeitgenössischen Wissensordnungen thematisiert werden. Den Ausgangspunkt bildet die Annahme, dass die dem Entwerfen zugrunde liegenden Kulturtechniken als technische Basis kultureller Praktiken und damit auch die sie operationalisierenden Medien keine dem Entwurfsprozess äußerlichen »Mittel« oder »Werkzeuge« der Architektur sind: Eine Trennung zwischen entwerferischer Tätigkeit und ihren Medien verfehlt die Erkenntnis der eigentlichen kulturtechnischen Produktivität auf dem Feld des Entwerfens, verfehlt auch ihre adäquate Diskussion im Zeitalter digitaler Technologien. Es stellt sich vielmehr der Akteursstatus von Kulturtechniken beim Entwerfen heraus. Kulturtechniken und Entwerfen konstituieren sich in den Bereichen der Architektur wechselseitig und definieren sich deshalb auch jeweils neu. Anstatt von Präsentationen der Pläne, Visualisierungen und Modellen und damit von einer ergebnisorientierten Betrachtung architektonischer Entwürfe als traditioneller Verständigungsform über architektonische Leistungen auszugehen, steht in den Beiträgen dieses Bandes die Frage nach den architektonischen Entwurfsprozessen und Verfahren, ihrer Konzeption, ihren Regeln und dem Stellenwert der beim Entwerfen verwendeten Techniken zur Debatte. Grundlegend ist dabei die These, dass sich das Wissen der Architektur in die 9

Daniel Gethmann und Susanne Hauser

Verwendung bestimmter Medien und Kulturtechniken einschreibt – in Schrift und Buchdruck, Architekturzeichnung, Architekturmodell, Diagramm, digitale Raumsimulations- und Visualisierungstechniken, etc. – wie es sich auch in Auseinandersetzung mit Kulturtechniken bildet und formt. Eine solche Verschränkung ist in Einzelstudien bereits thematisiert worden, beispielsweise in den Arbeiten des Architekturtheoretikers Robin Evans zur Geschichte der Perspektive, die er in ihren Beziehungen zur handwerklichen Baupraxis untersucht. Evans interessiert sich für den Umstand, dass sich die – ihrerseits an Architekturstudien geschulten – perspektivischen Zeichnungen über die Entwicklung der projektiven und darstellenden Geometrie an räumliche Gesetze anpassen und damit auch den Entwurf realer Bedingungen von möglichen Raumverhältnissen und gestalteten Objekten erlauben. So kann er die Produktivität dieser Kulturtechnik für architektonische Arbeitsformen und damit verbundene innovative architektonische Konzepte bestimmen.1 Die durch sie ermöglichte Entstehung einer eigenen entwerferischen Ordnung hängt damit zusammen, dass mit der Kulturtechnik der Perspektive und den ihr nachfolgenden Darstellungsverfahren ein neuer Standort eingeführt wird. Dieser ist nicht nur ein neuer Standort des Blicks und der Repräsentation, sondern ein Standpunkt, von dem aus die Dinge anders gedacht und in eine neue Ordnung gebracht werden können. Was die Kulturtechnik der perspektivischen Betrachtung also im Zusammenhang mit dem Entwerfen verändert, ist keineswegs nur die Darstellung, sondern viel grundsätzlicher die Art »of looking at things mentally.«2 Sowohl ältere wie auch erst neuerdings verfügbare Kulturtechniken führen insofern nicht nur zu unterschiedlichen Darstellungen,3 sondern zu grundlegend unterschiedlichen Entwurfsverfahren und -ergebnissen. Ein besonderes Potential des Entwerfens besteht in seiner Eigenart, sich selbst ständig mit und in unterschiedlichen Entwurfstechniken neu zu entwerfen. Ihre Vielfalt ermöglicht offene, prinzipiell unabgeschlossene Entwurfspraktiken, die ihre Fortsetzung nicht determinieren. Die besondere Dynamik des Entwerfens basiert auf immer wieder erneuerten Techniken, Verfahren, Regeln, Prozessen und Praktiken des Entwerfens. In diesem Sinne lässt sich das Entwerfen selbst als eine Kulturtechnik verstehen, die das Kreativitätspotential des Menschen mit Notations- und Bildtechniken, allgemeiner mit 1. Vgl. Robin Evans: The Projective Cast. Architecture and Its Three Geometries. Cambridge, Mass. 1995; eine kulturtechnische Bedingtheit der unterschiedlichen Methoden, die Welt in Bildern zu erfassen, konstatiert im Jahre 1924 bereits Erwin Panofsky in seinen Analysen der Perspektive als kulturell erzeugter symbolischer Form von der Antike bis zur Renaissance. Vgl. Erwin Panofsky: »Die Perspektive als ›symbolische Form‹«, in: Ders.: Deutschsprachige Aufsätze, Bd. 2, hg. von Karen Michels und Martin Warnke, Berlin 1998, S. 664-756. 2. Peter Jeffrey Booker: A History of Engineering Drawing. London 1979, S. 34. 3. Vgl. Bruno Latour: »Drawing Things Together«, in: Michael Lynch/Steve Woolgar (Hg.): Representation in Scientific Practice. Cambridge, Mass. 1990, S. 19-68.

10

Einleitung

technischen, ästhetischen und symbolischen Praktiken verbindet. Eine weiterführende Fragestellung des Bandes ist daher, inwiefern das Entwerfen selbst als Kulturtechnik im Sinne einer Technik, die Kulturen zu ihrer Weiterentwicklung anwenden, rekonstruiert und modelliert werden kann: Das architektonische Entwerfen wird als heterogene ästhetisch-symbolisch-technische Praxis zur Konzeption imaginärer Welten aufgefasst, in der sich kulturelle und soziale Projektionen artikulieren. In dieser Hinsicht kann das Entwerfen als kulturelle Basistechnik für Zukunftsgestaltungen verstanden werden. Die Beiträge sind in fünf Abschnitten zusammengefasst. Die Beiträge des ersten Teils zu Techniken sind zeitlich zwischen Renaissance und frühem 19. Jahrhundert situiert, die des zweiten Teils zu Verfahren zwischen der Mitte des 19. Jahrhunderts und den 1960er Jahren. Die Abschnitte zu Regeln und Prozessen konzentrieren sich auf Entwurfsdebatten der 1960er Jahre und ihre Folgen bis heute, ein inhaltlicher Schwerpunkt dieses Bandes. Der letzte Abschnitt stellt einige grundsätzliche Beiträge zu Praktiken des Entwerfens zusammen. Techniken: Gegen ein Entwurfsverständnis, das von einem voraussetzungslosen schöpferischen Schaffen ausgeht, bestimmt der Beitrag von Bernhard Siegert das Entwerfen als eine Kulturtechnik, die sich spezifischen Zeichenpraktiken verdankt. Die Fragestellungen seines Beitrags richten sich in Auseinandersetzung unter anderem mit der Arbeitsweise Leonardo da Vincis und kartografischen (Welt-)Entwürfen in der frühen Neuzeit auf konkrete Arbeits- und Materialbedingungen wie auf die verwendeten Techniken, Codes und medialen Visualisierungsstrategien. Siegerts Analysen arbeiten den Zusammenhang von »Experimentalsystemen des Entwerfens« heraus und rekonstruieren deren Zusammenspiel von Menschen, Dingen, Medien und Codes. – Mario Carpo sieht die Erfassung, Speicherung und Übertragung von visuellen Informationen als grundlegende Techniken, um Dinge zu entwerfen und zu konstruieren. In seiner Fallstudie über die Erfindungen Leon Battista Albertis zur Sicherung der identischen Reproduzierbarkeit jedweden Phänomens in Kunst und Natur zeigt Carpo, dass Albertis Konzepte zwischen der handwerklichen Variabilität der Vormoderne und der heutigen digitalen Variabilität der neuen Non-Standard-Technologien einen Modus der identischen Reproduzierbarkeit bestimmen, der heute als unzeitgemäße Vorgeschichte digitaler Maschinen gelesen werden kann. – Der Beitrag von Michael Bollé reflektiert den strukturellen Gehalt von Darstellungsmethoden des Entwurfs in ihrer kulturtechnischen Relevanz. Er geht der historischen Entwicklung von Entwurfsparametern zwischen Renaissance und Aufklärung nach, dem Modul, der Zelle und dem Raster. Ihre Entwicklung hat einerseits mit einer Orientierung an Konstruktionstechnik zu tun, andererseits verursacht die Verwendung der Parameter im Entwurf paradoxerweise eine Ablösung der architektonischen Entwürfe vom Gebauten und unterstützt den Entwurf imaginärer 11

Daniel Gethmann und Susanne Hauser

Welten. – In einer biographisch angelegten Fallstudie zeichnet Gert Gröning die Entwicklung des Entwurfsverständnisses von Hermann Ludwig Heinrich Fürst von Pückler-Muskau nach, das sich im Muskauer Park in der heutigen deutsch-polnischen Grenzregion an der Neiße manifestiert. Gröning zeigt unter anderem, mittels welcher Techniken sich das velum Albertis über das Entwurfsterrain legt: Sie ermöglichen es, polyperspektivische Landschaftsansichten vorzuzeichnen sowie Strukturen innerhalb der Entwurfslandschaft zu reflektieren und zu konstruieren. Verfahren: Anhand der Geschichte der technischen Zeichnung, die Wolfgang Pircher in seinem Beitrag untersucht, wird die im 18. Jahrhundert etablierte Funktionsteilung zwischen Architekt und Ingenieur als direkter Effekt von Entwurfsparametern im Gefolge der Durchsetzung der Darstellenden Geometrie verständlich. Die weitere Entwicklung seit Anfang des 20. Jahrhunderts, als technische Zeichnungen von elektrotechnischen Maschinen in Form von Schaltplänen entstehen, bedeutet nun einen Bruch. Das Prinzip besteht nicht mehr in der räumlichen Darstellung von Funktionsweisen, die dreidimensionale Referenz der Darstellenden Geometrie wird zur zweidimensionalen des Schaltplans. – Bruno Reichlin rekonstruiert in seinem Beitrag den nie geplanten und nie geschriebenen Traktat Le Corbusiers zu seinen Entwurfsverfahren. Sechs bewusst entwickelte Strategien werden identifiziert: Die Entautomatisierung der Wahrnehmung, die intensive Schulung durch experimentelle Zeichnungen, die kritische Orientierung an der Funktionalität technischer Objekte, die Entwicklung kombinatorischer Verfahren, die Übertragung von Strukturen und Konzepten unterschiedlichster Provenienz auf architektonische Fragestellungen sowie die Orientierung an dynamischen Konzepten des Raumes erlauben es Le Corbusier, seine Wahrnehmung und seine Kreativität von instrumentellen, kulturellen, psychologischen wie epistemologischen Grenzen zu befreien: Mit diesen Verfahren entsteht eine neue Qualität des Entwerfens. – Susanne Hauser analysiert die heuristische Rolle fotografischer Verfahren für den Entwurf eines zeitgemäßen Entwerfens in László Moholy-Nagys »von material zu architektur«. Die damals innovativsten Medien Film, Fotografie und Fotobuch werden von Moholy als »produktiv« verstanden, sie erlauben, Wahrnehmung und Gestaltung zu analysieren, neu zu konstruieren und kurzzuschließen. Fotografische Verfahren und Bilder können so als Vorzeichen der neuen Raumgestaltung und Architektur fungieren, die es noch nicht gibt. – Wie am Anfang des 20. Jahrhunderts stehen auch in den 1960er Jahren alle Parameter der Architektur, darunter auch Konzepte und Verfahren des Entwerfens, zur Disposition. Frank Werner gibt einen Überblick über utopische Architektur- und Stadtkonzepte der 1960er Jahre, in denen sich ein euphorisches Vertrauen in neue Kommunikationstechnologien mit dem grundlegenden Zweifel an der Fähigkeit der Architektur, gesellschaftlichen Wandel reflektieren oder gar stimulieren zu können verbindet. Selten 12

Einleitung

sind so grundlegend wie in den 1960er Jahren die Fragen nach dem Stellenwert der Entwürfe der Architektur für die Entwürfe der Gesellschaft gestellt worden. Regeln: Von diesem Impetus ist auch Christopher Alexanders »Pattern Language« getragen, mit der sich Christian Kühn auseinandersetzt. Die vage an linguistischen Konzepten orientierte Sammlung der Patterns von als universell verstandenen Architekturelementen und basalen Verknüpfungsregeln war ein Versuch, die professionalisierte Form der Architekturproduktion zu erübrigen und den Nutzern die Macht über die Gestaltung ihrer Umwelt zurückzugeben. Während die Pattern Language im Entwerfen wie im Bauen kaum Folgen hinterlassen hat, zeichnet sie für die Informatik das Konzept der Design Patterns vor, die mit bewährten vernetzten Problemlösungsmustern das Programmieren unterstützen können. – An linguistischen und informationstheoretischen Paradigmen ist auch die Architektursemiotik orientiert, die in den 1960er Jahren zur prominenten Grundlage postmoderner Theorien und Entwürfe wird. Claus Dreyer zeichnet die Entwicklung nach, in der Beschreibungen synatktischer, semantischer und pragmatischer Regeln neuer Architektur zu Instrumenten des Entwerfens mutieren. Die Redefinition der Architektur als Sprache, Text oder Massenmedium unterstützt eine bildhafte, ästhetisch aufgeladene, dem Fiktiven und Narrativen offene Architekturproduktion. – Gernot Weckherlin fragt nach den Beziehungen zwischen der Entwicklungsgeschichte des Computers als Entwurfswerkzeug für die Architektur und den Anstrengungen der deutschen Architekturtheorie am Ende der 1960er Jahre, das Entwerfen zu »verwissenschaftlichen«. Er diskutiert das Konzept der intelligenten Architekturmaschine der von Nicholas Negroponte geleiteten »Architecture Machine Group« am MIT und das Konzept der auf regelgeleiteten Entscheidungstheorien basierenden »Anwendungswissenschaft« Architekturtheorie durch Jürgen Joedicke an der Universität Stuttgart im Kontext früherer Verwissenschaftlichungsversuche der Architektur. – Die Reduktion inhaltlicher auf syntaktische Stimmigkeit ist die Grundidee der Künstlichen Intelligenz, die über Formengrammatiken in die Architektur Eingang gefunden hat und bis heute weiterentwickelt wird. Unter Hinweis auf die Geschichte dieser Grammatiken diskutiert Georg Franck die Konsequenzen, Potentiale und Grenzen von Entwurfshilfen der Künstlichen Intelligenz für die Architektur. Er verweist darauf, dass Formengrammatiken, die Symbole und syntaktische Regeln enthalten, ergänzt werden können durch genetische Algorithmen, mit deren Hilfe sich auch Aufgaben lösen lassen, deren Analyse keine deduktive Lösung ergibt. Prozesse: Die Zusammenhänge zwischen Medien, Entwurfsprozessen und Resultat stehen seit dem fundamentalen Bruch außer Frage, den die digitalen Medien seit den 1960er Jahren innerhalb der architektonischen Wissensordnungen hervorgerufen haben. In diesem Zusammenhang setzt sich Ingeborg 13

Daniel Gethmann und Susanne Hauser

M. Rocker mit Max Benses Informationsästhetik auseinander, die davon ausgeht, dass antizipierbare mathematisch informierte, programmierte Welten zu einer Erweiterung menschlicher Möglichkeiten führen werden: Das Muster der zugrunde liegenden generativen Prozesse findet Bense in der stochastischen Selektion. Rocker untersucht Konsequenzen dieser Auffassungen für Arbeiten im Umfeld Max Benses, unter anderem in der Architekturtheorie (Manfred Kiemle) und der frühen Computergraphik (Georg Nees, Frieder Nake). Diese Arbeiten übersetzen informationsästhetische Aspekte in spezifischer Weise in die damals verfügbare Hard- und Software und weisen dem Künstler oder Entwerfer die Rolle des Organisators von Prozessen zu. – Claus Pias konfrontiert wie Gernot Weckherlin eine Stuttgarter Position, die Manfred Kiemles, mit der Negropontes, führt die Diskussion allerdings aus einer anderen, medientheoretischen und an der Geschichte der Kybernetik interessierten Perspektive. Die beiden verhandelten Positionen entfalten die Beziehungen von Kybernetik und Architektur in extrem unterschiedlicher Weise: Eine experimentell verifizierbare Ästhetik steht dem Entwurf technischmaterieller Infrastrukturen für kreative Prozesse gegenüber, vorgängige Repertoires stehen gegen prozessuale Komplexierung, dem axiomatischen topdown der mathematischen Informationstheorie antwortet das heuristische bottom-up von gebastelter Hard- und Software. Geht es auf der einen Seite um eine Verwissenschaftlichung und die Ideologie der Ideologiefreiheit, so geht es auf der anderen Seite um Demokratisierung und die Ideologie der Partizipation. – Jesko Fezer stellt das »Design Methods Movement« (1962 bis 1972) vor, das zuerst euphorisch die Suche nach rationalen, mathematisch und technisch fundierten Entwurfsmethoden aufnahm, um schließlich festzustellen, auf welch komplexe Weise der Prozess des Entwerfens in die Dynamiken politischer und sozialer Diskurse eingebunden war. Die Diskussion um Methodiken des Entwerfens verschob sich in dem hier thematisierten Diskurs Ende der 1960er Jahre zu prozessorientierten, politisch-soziologischen Ansätzen. – Urs Hirschberg thematisiert den heutigen Stand der Informationsvisualisierungen, Simulations- und generativen Verfahren, die seit Ivan Sutherlands Entwicklung von Sketchpad für Architekten in vielfältigster Weise relevant sind: Seitdem erlauben digitale Medien prinzipiell, Abstraktionen und intellektuelle Konstrukte sinnlich erfahrbar zu machen. In Verbindung mit Vernetzungsstrukturen, mit digital gesteuerter Fertigung und der Möglichkeit von Mass Customization haben sich die Bedingungen des individuellen wie kollektiven Entwerfens entscheidend verändert. Simulationslabore erlauben, in diesem Bereich prozessorientiert zu arbeiten und zu forschen. Praktiken: Praktiken des Entwerfens gestalten Interaktionen zwischen Menschen und Dingen, auch bringen sie die Körper der Entwerfenden in unterschiedlicher Weise ins Spiel. Elisabeth List versteht Kreativität als eine Fähigkeit, vermittels Symbolsystemen jenseits des Bestehenden zu denken. Statt 14

Einleitung

das Entwerfen, das sich in medialen Prozessen manifestiert, auf eine creatio ex nihilo zurückzuführen, vertritt sie die These, dass sich das Entwerfen als Produkt eines immer auch physischen Tätigseins, aus Praktiken, Mustern, Formen und deren Bezogenheit auf die eigene Leiblichkeit verstehen lässt. – Die Landschaftsarchitekten Maria Auböck und János Kárász sehen das Prozesshafte nicht nur als spezielles Kennzeichen des Entwurfsvorgangs, sondern als Bedingung jeder Garten- oder Landschaftsgestaltung. Der Umstand, es mit einem Gegenstand zu tun zu haben, der wächst und sich in nicht völlig vorhersehbarer Weise verändert, hat Konsequenzen für die eigene Entwurfstätigkeit: Die eigentliche entwerferische Herausforderung liegt in der Einübung ins Ungewisse. – Der Beitrag von Gert Hasenhütl befasst sich mit der offenen Produktivität zeichnerischer Wissensformen und stellt ihre Formen und Effekte aus designtheoretischer Sicht dar. Hasenhütl unterscheidet einerseits den Prozess der zeichnerischen Vergewisserung als reflexive Handlung beim Entwerfen und andererseits die Zeichenpraktiken der Entwurfszeichnung. Damit bestimmt er in Bezug auf Zeichnungen und ihre Erstellung den Referenzrahmen, in dem sich neues Wissen entfalten kann. – Daniel Gethmann geht davon aus, dass die im Entwurfsprozess verwendeten Medien als konstitutiv für den modernen Entwurfsbegriff anzusehen sind. Die in Entwurfsprozessen entstehenden Wechselwirkungen zwischen Intentionen, Materialien, technischen und symbolischen Darstellungsverfahren erzeugen Wissensordnungen eigener Art und ermöglichen die spezifische Offenheit und Undeterminiertheit der Erkenntnisse beim Entwerfen. Wir bedanken uns für die Förderung der Publikation bei der Universität der Künste Berlin, der Technischen Universität Graz und der Abteilung Wissenschaft und Forschung des Landes Steiermark. Heiko Haberle, Berlin, danken wir für die Layoutgestaltung.

15

I. TECHNIKEN

Weiße Flecken und finstre Herzen Von der symbolischen Weltordnung zur Weltentwurfsordnung BERNHARD SIEGERT

1. Kulturtechnik Entwerfen Wenn Architekten vom »Entwurf« reden, so verwenden sie das Wort gewöhnlich in ungefähr derjenigen Bedeutung, die ihm die Renaissance und genauer der von Florenz her kommende kunsttheoretische Diskurs gegeben hat: Entwurf als »disegno«. Wie Wolfgang Kemp gezeigt hat, hat sich die Bedeutung des disegno-Begriffs zwischen den 1540er und den 1570er Jahren in Florenz von der Zeichnung (oder Vorzeichnung) als dem Produkt der geschulten Hand verschoben zum reinen Imaginationsakt, bis es schließlich bei Benvenuto Cellini zur Zweiteilung des disegno in einen ersten und einen zweiten oder einen inneren und einen äußeren kam, wobei der zweite eindeutig supplementären Charakter besaß. Gemäß dieser Herkunft und gemäß dieses Diskurses ist der Begriff des Entwerfens von zwei Seiten her zu verstehen, von der Seite der forma und von der Seite der idea (oder des concetto). Der Entwurf ist zum einen lineamento und zum anderen die Erfindung (invenzione), das Ins-Werk-Setzen der invenzione und die »speculazione di menta« selbst.1 Dementsprechend konnte das substantiierte Tätigkeitswort »Entwerfen« in der kunsthermeneutischen Rezeption schließlich synonym werden mit dem »künstlerischen Schaffensprozess« selbst.2 Im Entwerfen meint man, der geistigen Vermögen und Prozesse im künstlerischen Subjekt habhaft zu werden, des Ursprungs des schöpferischen Tuns, der Quelle der Gottebenbildlichkeit des Künstlers. 3 Das Entwerfen (im Sinne des disegno-Diskurses) ist daher Legitimationsgrund aller neuzeitlicher Autonomiedelirien und Selbstherrlichkeitsphantasien des Künstlersubjekts. 1. Wolfgang Kemp: »Disegno. Beiträge zur Geschichte des Begriffs zwischen 1547 und 1607«, in: Marburger Jahrbuch für Kunstwissenschaft XIX (1974), S. 219-240, hier S. 225. Vgl. auch: Uwe Westfehling: Zeichnen in der Renaissance. Entwicklung, Techniken, Formen, Themen, Köln 1993, S. 75ff. 2. Vgl. etwa den Titel des Sammelbandes: Entwerfen und Entwurf. Praxis und Theorie des künstlerischen Schaffensprozesses, hg. v. Gundel Mattenklott und Friedrich Weltzien, Berlin 2003. 3. Vgl. Uwe Westfehling: Zeichnen in der Renaissance, S. 77.

19

Bernhard Siegert

Dagegen zielt der Begriff der Kulturtechnik auf ganz anderes, weil auch die Rede von den Kulturtechniken ganz woanders herkommt. Zu ermessen ist also, was mit dem Begriffspaar »Kulturtechnik Entwerfen« auf dem Spiel steht. Der Begriff der »Kulturtechniken« ist um die Wende zum 21. Jahrhundert im Rahmen der kulturwissenschaftlichen und wissenschaftsgeschichtlichen Erweiterungen des Horizonts der historischen Medienwissenschaft wiederentdeckt worden und mittlerweile zu einem allgegenwärtigen Begriff der deutschsprachigen Medientheorie avanciert.4 Im Sinne eines ingenieurwissenschaftlichen Verständnisses von Agrikultur hat es den Begriff »Kulturtechnik« allerdings schon seit dem Ende des 19. Jahrhunderts in Deutschland gegeben. 5 Das den Jäger vom Beutetier trennende Gatter, das im Zuge der koevolutionären Domestizierung die anthropologische Differenz von Mensch und Tier hervortreibt, die mit dem Pflug in den Boden gezogene Linie und der Kalender sind die archaischen Kulturtechniken der Hominisierung des Raumes und der Zeit. Der Begriff der Kulturtechniken wendet sich folglich vehement gegen jede Ontologie philosophischer Begriffe: Es gibt nicht Den Menschen unabhängig von Kulturtechniken der Hominisierung, es gibt nicht Die Zeit unabhängig von Kulturtechniken der Zeitrechnung und -messung, und es gibt nicht Den Raum unabhängig von Kulturtechniken der Raumbeherrschung. Es gibt auch nicht den Entwurf unabhängig von der Kulturtechnik des Entwerfens. Der Begriff der Kulturtechnik stellt die Begriffe Medien, Kultur und Technik aufs Neue gemeinsam zur Disposition,6 indem er eine medienanthropologische Kehre vollzieht, in der es jedoch beileibe nicht um die Wiedereinführung »Des Menschen« als voraussetzungslose Grundgegebenheit kultureller Produktion geht, sondern um Prozesse der Hominisierung. Er bewerkstelligt dies, indem er Operationen bzw. Ketten von Operationen als das historisch und logisch Primäre den Medienbegriffen, die aus ihnen hervorgehen, vorausgehen lässt. »Kulturtechniken – wie Schreiben, Lesen, Malen, Rechnen, Musizieren – sind stets älter als die Begriffe, die aus ihnen generiert werden. Geschrieben wurde lange vor jedem Begriff der Schrift oder des Alphabets; Bilder und Statuen inspirierten erst nach Jahrtausenden einen Begriff des Bildes; bis heute kann gesungen und musiziert werden ohne Tonbegriffe oder Notensysteme. Auch das Zählen ist älter als die Zahl. Zwar haben die meisten be4. Vgl. dazu Erhard Schüttpelz: »Die medienanthropologische Kehre der Kulturtechniken«, in: Archiv für Mediengeschichte 6 (2006), S. 87-110. 5. Vor hundert Jahren ist das Fach »Kulturtechnik« an agrar- oder geowissenschaftlichen Instituten angesiedelt gewesen. Kulturtechnik, so definiert Meyers Großes Konversationslexikon 1904, sind »alle im Interesse der Bodenkultur auszuführenden technischen Arbeiten, die auf den Gesetzen der Ingenieurswissenschaft basieren, im engeren Sinne das landwirtschaftliche Meliorationswesen« (Meyers Großes Konversations-Lexikon. Leipzig-Wien 6. Aufl. 1904 ff., Bd. 11, S. 793), das heißt Ent- und Bewässerungsprojekte, Flussbegradigungen und Flurbereinigung. 6. Vgl. Erhard Schüttpelz: »Die medienanthropologische Kehre«, S. 90.

20

Weiße Flecken und finstre Herzen

kannten Kulturen gezählt oder bestimmte Rechenoperationen durchgeführt; aber sie haben daraus nicht zwangsläufig einen Begriff der Zahl abgeleitet.«7 Um das Entwerfen als Kulturtechnik in seiner historischen Bedingtheit zu beschreiben, muss es aus dem anthropozentrischen Ursprung herausgerückt werden, an den es der florentinische kunsttheoretische Diskurs versetzt hat. Statt das Entwerfen als unhintergehbaren »fundamentalen Akt künstlerischen Schaffens« zu definieren8 und als anthropologische Konstante der Geschichte zu entziehen, wäre eben diese Definition als historisches Resultat von diskursiven, technischen und institutionellen Praktiken zu befragen. Matteo Burioni hat in seiner Einleitung zu Vasaris Einführung in die drei Künste des disegno beispielsweise die These begründet, dass die Zeichnung zum Medium der Erfindung künstlerischer Autorschaft erst durch das medientechnische Apriori der Druckgraphik werden konnte, die die Trennung zwischen Bilderfindung (›invenit‹) und technischer Ausführung (›fecit‹) einbürgerte.9 Jenseits solcher diskursanalytischer Aufräumarbeit aber wäre das Entwerfen als rekursive Operationskette zu beschreiben. Ausdrücke, die nichts anderes sind als den Künstler in seiner imaginären autonomen Handlungsmacht feiernde Ideologismen, wie das »aktiv schöpferische Prinzip«, der »eigentliche Freiraum der Kunst« oder die »wahrhafte Autonomie der Zeichnung«10 und so weiter müssten in einer Analyse des Entwerfens als Kulturtechnik Platz machen einer minutiösen Untersuchung der Materialkulturen und der Praktiken, der Werkstattbedingungen, der Fragen, auf welche memoria und welche Speichermedien zurückgegriffen wird, welche Archivierungsstrategien angewendet werden, welcher Untergrund (Papier) und welche Zeichenmittel (Tinte, Kohle, Kreide?), welche Operationen der Fehlerkorrektur zum Einsatz kommen (Überzeichnen, Abwaschen, Radieren?). Weiterhin wäre zu untersuchen, in welcher Weise der Freiheits- und Autonomiediskurs, der die Spuren der Tätigkeit der Handzeichnung umgibt und feiert, Diskursregeln folgt, die in der Institutionalisierung des »disegno« als Disziplin gründen und in einem noch weiteren Ausgriff in der Entstehung der Techniken des frühmodernen Staates.11 7. Thomas Macho: »Zeit und Zahl. Kalender- und Zeitrechnung als Kulturtechniken«, in: Sybille Krämer/Horst Bredekamp (Hg.): Bild – Schrift – Zahl, München 2003, S. 179-192, hier S. 179. 8. Gundel Mattenklott/Friedrich Weltzien: »Einleitung«, In: Dies. (Hg.), Entwerfen und Entwurf, S. 7. 9. Vgl. Matteo Burioni: »Gattungen, Medien, Techniken. Vasaris Einführung in die drei Künste des disegno«, in: Giorgio Vasari: Einführung in die Künste der Architektur, Bildhauerei und Malerei, übers. v. Victoria Lorini, hrsg. von Matteo Burioni, Berlin 2006, S. 8 und 22. 10. Alle Zitate aus: Michael Glasmeier: »Ansichten von Zeichnungen«, in: Gundel Mattenklott/Friedrich Weltzien (Hg.): Entwerfen und Entwurf, S. 76 und 83. 11. Vgl. Karen-Edis Barzman: The Florentine Academy and the early modern state. The discipline of »disegno«, Cambridge u. a. 2000.

21

Bernhard Siegert

Die Freiheit der Handzeichnung, das Offene des Entwurfs, wäre – hegelianisch gesprochen – also nicht als das Unvermitteltste, sondern als das Vermitteltste zu begreifen, nicht als das, was unmittelbar am Anfang der Herstellung von Bildern, Bauwerken oder Maschinen steht, sondern was am Ende eines langwierigen Prozesses der Disziplinierung, Diskursivierung und Codierung der Beziehung zwischen Hand und Auge steht. Die Rede vom unhintergehbaren fundamentalen Akt des künstlerischen Schaffens, der die Handlungsmacht (agency) allein dem menschlichen Akteur zuschreibt, ist ganz ähnlich ignorant wie die Rede vom »scientific mind« als Agent der wissenschaftlichen Revolution in der Frühen Neuzeit. Beide Prozesse weisen unübersehbare Parallelen auf. Was Bruno Latour für die Wissenschaftsgeschichtsschreibung an Neuzuschreibungen eingefordert hat, gilt mutatis mutandis auch für die Kunst- und Architekturgeschichte: Erstens muss das, was dem »scientific mind« (respektive der künstlerischen Imagination) zugeschrieben wird, der »Hand, dem Auge und den Zeichen« zugeschrieben werden, zweitens sind Zeichen nicht als Zeichen zu behandeln, sondern als Medien.12 Dadurch öffnet sich der Weg in eine andere Geschichte des Entwerfens, eine Geschichte, die nicht von der Ermächtigung und Feier des Schöpfer-Ichs handelt, sondern von der Exteriorität des Denkens, Bildens und Gestaltens. Nach Latour verdankt sich die Möglichkeit, auf dem Papier Unvollendetes und sogar Unmögliches zu entwerfen, sogenannten »immutable mobiles«. Fasst man den Entwurf auf als »immutable mobile«, dann treten an die Stelle einer Semiotik der Selbstpräsenz (»hier ist der Künstler ganz bei sich«13) Qualitäten wie Mobilisierbarkeit, Kombinierbarkeit, Skalierbarkeit, Überlagerbarkeit, Geometrisierbarkeit usw. Warum war z. B. die Zentralperspektive eine so wichtige Erfindung? Weil Objekte nun gedreht und verschoben werden konnten und dennoch dieselben blieben. Perspektive erzeugt optische Konsistenz. So können auf den Drucken von Georg Agricola Objekte in separaten Teilen dargestellt werden oder in Explosionszeichnungen oder auf demselben Blatt Papier in verschiedenen Maßstäben, Winkeln und Perspektiven. Die »optische Konsistenz« erlaubt es, die Teile miteinander zu mischen.14 In dieser Hinsicht wäre auch der Befund Wolfgang Kemps zur Begriffsgeschichte des disegno anders, nämlich nicht entwicklungsgeschichtlich, zu interpretieren. Aufschlussreich sind in dem von Kemp untersuchten Zeitraum zwischen 1540 und 1570 vor allem die verschiedenen widersprüchlichen Äußerungen, wie zum Beispiel die Vasaris. In ihnen wird nicht etwa ein Zwischenstadium in der teleologisch auf den Begriff des geistigen Entwurfs hinaus12. Vgl. Bruno Latour: »Drawing Things Together«, in: Michael Lynch/Steve Woolgar (Hg.), Representation in Scientific Practice, Cambridge, Mass., London 1990, S. 19-68, hier S. 52. 13. Michael Glasmeier: »Ansichten von Zeichnungen«, S. 77. 14. Vgl. Bruno Latour: »Drawing Things Together«, S. 28.

22

Weiße Flecken und finstre Herzen

laufenden Geschichte des disegno greifbar, sondern in ihnen manifestiert sich das unter dem Druck der Akademisierung zunehmend problematisch werdende Wissen davon, dass die Zeichnung nicht bloß äußeres Supplement der im Geist gefundenen Idee ist. So ist für Vasari der disegno einerseits so etwas wie ein synthetisches Urteilsvermögen, zweitens das Erkenntnisvermögen der Maßverhältnisse in natürlichen und künstlichen Körpern (Pflanzen, Gebäuden, Skulpturen, Gemälden) und drittens die »anschauliche Gestaltung und Darlegung jener Vorstellung, die man im Sinn hat.« In diesem dritten Sinne bedarf der disegno »einer flinken Hand, die dank vieler Jahre Studium und Übung in der Lage ist, jedwede Schöpfung der Natur mit Feder, Griffel, Kohle, Stift oder anderem treffend zu zeichnen und wiederzugeben.«15 Vasaris Schwanken zwischen einer klaren Trennung zwischen invenzione und disegno und einer Identifizierung der invenzione mit dem disegno könnte als Indiz dafür gewertet werden, dass Vasari der Begriff einer inventiven Potenz, einer Operativität, die in den Codes und Medien der Zeichnung selber liegt, noch nicht abhanden gekommen ist. Für den Entwurf einer solchen auf selbsttätigen Zeichen (Charakteren) beruhenden ars inveniendi sollte Leibniz hundert Jahre später große Anstrengungen unternehmen.16 Die Praxis des Entwerfens als Kulturtechnik aufzufassen, heißt also, sie den historischen Aprioris von Techniken, Materialitäten, Codes und Visualisierungsstrategien zu unterstellen statt einem unbegreiflichen Schöpfungsakt. Nicht der Demiurgos ist das Urbild des Architekten, der aus einem übermenschlichen Willens- und Kraftakt heraus die Welt aus dem Urchaos dadurch formt, dass er die apollinische Linie von der dionysischen Nacht, die Ästhetik vom Triebhaften, trennt,17 sondern der Künstler-Ingenieur. Wenn man den disegno in seiner Doppelnatur als lineamento und als geistigen Entwurf (speculazione di menta, invenzione) einer Geschichte der Kulturtechniken zurückerstattet, dann findet man an der Stelle der hohlen Rede vom »künstlerischen Schöpfertum« ein Feld konkreter Zeichenpraktiken.

15. Giorgio Vasari: Einführung in die Künste der Architektur, Bildhauerei und Malerei, S. 98f. 16. »Das Ziel unserer Charakteristik ist, so beschaffene Sinnzeichen anzuwenden, daß alle Folgerungen, die aufgestellt werden können, sogleich aus den Wörtern oder Charakteren selbst hervorgehen.« Gottfried Wilhelm Leibniz: Fragmente zur Logik, hg. v. Franz Schmidt, Berlin 1960, S. 93. Zur Characteristica universalis bzw. scienzia generalis als einer maschinal operierenden ars inveniendi vgl. Bernhard Siegert: Passage des Digitalen. Zeichenpraktiken der neuzeitlichen Wissenschaften 1500-1900, Berlin 2003, S. 171-175. 17. Vgl. Jörg Gleiter: Peter Eisenman oder wie man abschafft, was man wird, Typoskript 2003, S. 7.

23

Bernhard Siegert

2. Entwerfen als Experimentalsystem bei Leonardo Grundsätzlich ist vor allem anderen die Unterscheidung zwischen technischem und künstlerischem Entwerfen in Frage zu stellen. Ist dies eine Unterscheidung, die sich an der Technik des Entwerfens festmachen lässt oder ist dies eine Unterscheidung, die sich durch die Institutionalisierung von Ausdifferenzierungen des disegno (durch Akademiegründungen etc.) durchsetzt? Am Beispiel von Leonardo da Vincis Wasserstudien lässt sich nicht nur zeigen, wie unhaltbar die Trennung zwischen technischer Zeichnung und künstlerischem Entwurf sein kann, sondern auch und vor allem, dass die Zeichnung, die Hervorbringung, die invenzione des Entwurfprozesses in der Macht eines Experimentalsystems liegt, das aus verschiedenartigen Dingen, Medien der Inskription und Codes besteht. Wasser ist für Leonardo nicht etwa wie für Leon Battista Alberti ein in der Natur gegebener Topos der Mimesis als imitatio,18 sondern »ein Körper, der fortwährend seine Gestalt wechselt«,19 ein dynamisches Element, das pausenlos Formen erzeugt, vor allem Wirbel. Indem er diese Turbulenzen des glatten Raumes mithilfe von Feder und Tinte in seinem Skizzenbuch aufzeichnet (Abb. 1) übersetzt er das, was durch keine Linie zu kerben ist, in den Code mehr oder weniger starker Linien. Die Linie ist nicht ohne die Nicht-Linie; so kann die Linie dem Wasser die Gestalt eines festen Körpers geben und dort, wo sie keinen diskreten Zwischenraum mehr lässt, die Form des geschlossenen Körpers ausfransen lassen. Durch den Akt des Zeichnens kommt das erfinderische Potential des strömenden Wassers zum Vorschein: Leonardos Darstellungen von Wasser in Bewegung verwandeln sich in seinen Vorstudien zu Haartrachten (Abb. 2). Leonardo hat dieses Entwurfsverfahren in Form einer Vorschrift in seinen Notizen zum Wasserbuch beschrieben: »Achte auf die Bewegung des Wasserspiegels, er ist wie das Haar, das zweierlei Bewegungen hat, die eine folgt dem Gewicht der Mähne, die andere den Linien der Wellen. So hat das Wasser die Wellen seiner Wirbel [...]«20 Die Zeichnung wird zum Medium zwischen Wasser und Haar. Haare, die Dinge sind, die in der dreidimensionalen Welt den Linien auf dem Papier am nächsten kommen, naturalisieren gewissermaßen die Federdarstellung des ungekerbten Elementes Wasser. Wo in dieser Operationskette kann man den Moment der Erfindung bezeichnen? Welchem der an dieser Operationskette beteiligten Dinge, Wahrnehmungsund Ausführungsorganen soll man die Erfindung zuschreiben? Dem Auge, 18. Vgl. Leon Battista Alberti: »De Pictura/Die Malkunst«, in: Ders.: Das Standbild. Die Malkunst. Grundlagen der Malerei, hrsg. von Oskar Bätschmann und Christoph Schäublin, Darmstadt 2000, S. 236f. 19. Leonardo da Vinci: Das Wasserbuch. Schriften und Zeichnungen, ausgew. und übers. v. Marianne Schneider, München 1996, S. 45. 20. Ebd. , S. 35.

24

Weiße Flecken und finstre Herzen

der Hand des Zeichners? Dem Wasser, der Feder, der Tinte und dem Papier? Die Antwort ist: keinem von allen diesen, die indes allesamt an diesem Entwurfsprozess beteiligt sind. Die Erfindung entsteht vielmehr aus den Übertragungsvorgängen, die Übertragung der im Wasser gesehenen Form in das Medium der Zeichnung und die Entbergung einer spezifischen Stofflichkeit, einer spezifischen Materialität aus diesem lineamento.

Abb. 1 (links): Leonardo da Vinci: 4 Studien wirbelnden Wassers, das an locker geflochtenes Haar erinnert. 152 x 213 mm, um 1513 (W. 12579r). Tuschzeichnung auf weißem Papier. - Aus: Leonardo, Das Wasserbuch. Schriften und Zeichnungen, ausgew. und übers. v. Marianne Schneider, München 1996, Tafel 26. Abb. 2 (rechts): Leonardo: Skizzen eines weiblichen Kopfes für »Leda«, ein Gemälde, das verloren gegangen ist. 200 x 162 mm. Datierung umstritten (W. 12516). Feder mit Tinte über schwarzer Kreide auf weißem Papier. - Aus: Leonardo: Das Wasserbuch, Tafel 22.

Das alles geschieht nicht zufällig: Das Entwerfen gehorcht seinerseits einem Entwurf. Bevor der Künstler-Ingenieur zur Feder greift, packen seine Hände schwerere Dinge. In den Skizzenblättern des Codex Leicester erkennt man deutlich die Bemühungen Leonardos um ein zeichnerisches Vokabular der Wasserbewegung, die stets von einem Geometriegrundkörper artikuliert wird: flacher Kubus, Zylinder, Quader, Kegel (Abb. 3). Am Anfang steht also nicht der singuläre und schon gar nicht der geniale Einfall, sondern die Serie. Die Serie macht deutlich, dass wir es hier mit einem Experimentalsystem zu tun haben. Wasser artikuliert sich nicht selbst. Leonardo insistiert darauf,

25

Bernhard Siegert

dass Wasser, wenn es sich selbst überlassen bleibt, stets einen Ruhezustand anstrebt, der als Meer realisiert ist. Das Meer ist die maximale Entropie aller Artikulationen, der Grund, der alle Figuren in sich aufgenommen hat.

Abb. 3 (links und mitte): Leonardo: Studie der verschiedenen Wirbel, die von verschieden geformten Gegenständen in strömendem Wasser erzeugt werden. - Aus: Codex Leicester, Carta 14A, fol 14r. Abb. 4 (rechts): Leonardo: 3 Studien einer Strömung, die um eine Säule herumfließt. - Aus: Codex Leicester, Carta 15B, fol. 22r.

Die Geometriegrundkörper, die Leonardo in seinem Experimentalsystem verwendet, um elementare Wirbelformen auf dem Papier zu erhalten, sind nicht Elemente der Artikulation, sondern Medien der Artikulation. Die ornamentale Figuration des Wassers artikuliert sich stets an etwas anderem: Hierbei zeigt sich Leonardos unentwegtes Interesse an den Kulturtechniken der Wasserbaukunst: an Brückenpfeilern in Flüssen (Abb. 4), Kanälen, Maueröffnungen, durch die Wasser in Becken strömt und zahlreiche Studien von durch Wasser umströmten Mauerstücken oder Steinplatten, die in verschiedensten Winkeln zur Strömung stehen. Was Leonardo interessiert, sind Grenzflächen. Wie seine vorsintflutlich anmutenden Landschaften belegen, sind für Leonardo Oberflächen niemals aus euklidischen Flächen gebaute Polygone, sondern stets Resultat der Ausformung von Grenzflächen durch die Einwirkung der sich bewegenden Elemente aufeinander, Grenzflächen, die die Spur oder Gra-

26

Weiße Flecken und finstre Herzen

phie eines formenden oder deformierenden geologischen oder klimatischen Vorgangs sind. Eine ebene Fläche ist bei Leonardo Spur einer Einebnung, eine konvexe Fläche Spur einer Auffüllung, eine konkave Fläche Spur einer Aushöhlung durch bestimmte Strömungs- oder Wirbelformen des Wassers. Nicht selten scheinen dabei zeichnerische Technik und Kulturtechnik zusammenzufallen; so zum Beispiel, wenn Leonardo Studien dazu anstellt, wie Wasserwirbel, die von einer konkaven Oberfläche ausgehen, den Grund modellieren (Abb. 5). Unter jeder Skizze steht eine Beschriftung (von links nach rechts): »füllt den Grund auf / ebnet den Grund ein / höhlt den Grund aus.«

Abb. 5: Leonardo da Vinci: 3 Studien von Wasserwirbeln, die von einer konkaven Oberfläche ausgehen, unter jedem einzelnen eine Beschriftung (von links nach rechts): »füllt den Grund auf / ebnet den Grund ein / höhlt den Grund aus.« Rechts: eine große Studie desselben Phänomens. 88 x 101 mm, nicht datiert (W. 12666 r.). Feder mit Tinte auf körnigem weißem Papier. - Aus: Leonardo: Das Wasserbuch, Tafel 24.

Wenn Leonardo Wasser in Bewegung zeichnet, dann zeichnet er also nicht allein ornamentale Formen des Wassers, sondern er beobachtet den Vorgang des Entwerfens selbst als einen Vorgang, der sich innerhalb eines Experimentalsystems abspielt (nicht in der freien Natur!). Aufgrund seiner Flüssigkeit und aufgrund der unzähligen Gestalten, die es in ewigem Wandel und andauernder Veränderung annehmen kann, ist Wasser ein Ding, das mehr als jedes andere Ding der Einbildungskraft ähnelt – es ist ein entwerfendes, ein erfinderisches Ding. Der Ingenieur setzt dem proteushaften Spiel der Gestalthervorbringungen durch verschiedene Anordnungen Grenzen, mit dem die Wirbelformen zwar nicht fest-, aber auf Dauer gestellt werden: der Zeichner entreißt daraufhin diesem flüssigen Geist ein Bild. Da ist nicht erst der Grund, von dem sich Figuren der körperlichen Dinge abheben; es sind die Figurationen des Ornamentalen und Grotesken, die den Grund allererst schaffen; und es ist der Grund, aus dem die ornamentalen Figurationen wiederum hervorgehen. Sehr 27

Bernhard Siegert

gut zu sehen ist dies an Leonardos Skizzen von Wasser, das aus einer Öffnung in ein Becken stürzt, in dem sich bereits eine Wasserfläche befindet (Abb. 6). An der Grenzfläche zweier Wassermassen, einer ruhigen und einer bewegten, entstehen am Rande ornamentale Artikulationen – die typischen schnörkelförmigen Kräusel –, aus deren Mitte pflanzenartige Formen entstehen. Im Codex Leicester (1506-08) schreibt Leonardo über den bei einem solchen Vorgang (Wasser, das aus der Höhe in ein Becken mit Wasser hinabfällt) entstehenden Schaum: »Die Luft, die zusammen mit dem auf das übrige Wasser schlagenden Wasser untergetaucht ist, kehrt wieder an die Luft zurück, indem sie das Wasser in geschmeidiger Bewegung durchdringt und dabei die mannigfachsten Gestalten annimmt.«21 Vergleicht man diese Skizze mit verschiedenen Blättern aus der Serie der »Diluvi«, erkennt man, wie dieses Verfahren hier wiederkehrt, nun aber in umgekehrter Richtung: In der Skizze geht es um die Artikulation von Figuren durch eine aufnehmende und eine einschreibende Wassermasse/ Tintenmasse, in den »Diluvi« geht es um die Desartikulation von Figuren, um ihre Auflösung in den Wirbeln und Turbulenzen, die an der Grenzfläche von Sintflut und Erde gebildet werden (Abb. 7).

Abb. 6 (links): Leonardo: Aus einer rechteckigen Öffnung in ein Becken fließendes Wasser. 290 x 202 mm (untere Hälfte), 1507 oder 1509 (W. 12660v.). Feder mit Tinte. - Aus: Leonardo: Das Wasserbuch, Tafel 32. Abb. 7 (rechts): Diluvi. 270 x 480 mm. Ecke links unten abgeschnitten, um 1514. Feder mit Tinte über schwarzer Kreide und Spuren von weißer Kreide, auf grau grundiertem Papier. - Aus: Leonardo, Das Wasserbuch, Tafel 36.

3. Symbolische Weltordnungen Jede Kultur beginnt mit der Einführung von Unterscheidungen: innen/außen, heilig/profan, rein/unrein, männlich/weiblich, Sprache/Sprachlosigkeit, Signal/Rauschen. Ihre weltstiftende Kraft ist der Grund dafür, dass die Kultur, in der man lebt, als Wirklichkeit erlebt wird und oft genug als »natürlicher« Kosmos. Nehmen wir zum Beispiel das kabylische Haus, so wie es Pierre Bour21. Leonardo: Das Wasserbuch, S. 28 (Codex Leicester, fol. 25r.).

28

Weiße Flecken und finstre Herzen

dieu beschrieben hat (Abb. 8).22 Was wir hier vor uns haben, ist der Traum eines Strukturalisten: Der Raum des Hauses ist aus einem Gefüge homologer Oppositionen aufgebaut: Feuer/Wasser, gekocht/roh, oben/unten, Licht/Schatten, Tag/Nacht, männlich/weiblich, befruchtend/zur Befruchtung bereit, Kultur/Natur. Die strukturale Differenzierung und Semantisierung des inneren Raumes wiederholt überdies noch einmal die Differenz zwischen innen und außen insgesamt. Der Gegensatz zwischen dem Kosmos und dem Haus erhält seine Bedeutung daraus, dass das eine Glied dieses Gegensatzes, das Haus, in sich noch einmal nach dem Prinzip dieses Gegensatzes artikuliert ist (a : b / b1 : b2). Die Geschlechterdifferenz, die zugleich eine kosmische Differenz ist, spiegelt sich unmittelbar in der Architektur des Hauses. Für einen Entwurfsprozess ist hier kein Platz. Das kabylische Haus kann nicht entworfen werden, denn es ist immer schon entworfen. Es ist Spiegel der kosmischen Ordnung von Natur und Kultur, Mann und Frau, Innen und Außen usw. und zugleich Spiegel dieser Spiegelung.

Abb. 8: Kabylisches Haus. - Aus: Pierre Bourdieu: Entwurf einer Theorie der Praxis auf der ethnologischen Grundlage der kabylischen Gesellschaft, übers. von Cordula Pialoux und Bernd Schwibs, Frankfurt/Main 1979, S. 49.

22. Vgl. Pierre Bourdieu: Entwurf einer Theorie der Praxis auf der ethnologischen Grundlage der kabylischen Gesellschaft, übers. v. Cordula Pialoux und Bernd Schwibs, Frankfurt/Main 1979, S. 48-65.

29

Bernhard Siegert

Abb. 9: Ebstorfer Weltkarte, 13. Jhd. - Aus: Ute Schneider: Die Macht der Karten. Eine Geschichte der Kartographie vom Mittelalter bis heute, Darmstadt 2004, S. 24f.

In Analogie zum kabylischen Haus stellen auch die mittelalterlichen mappaemundi symbolische Weltordnungen dar, die im Grunde nichts anderes als räumliche Codierungen von Narrativen sind (Abb. 9).23 Die mittelalterlichen mappaemundi basieren mehr oder weniger grob auf dem T-O-Schema; es sind piktorale Karten, wo der Raum ein Geflecht oder Kalkül von Topoi ist. Ihre Topographie ist eine Art »Örter-Schrift«, die kein geographisches Wissen vermittelt, sondern heilsgeschichtliche Narrative verräumlicht. Heilsgeschichte, mythologische und biblische Geschichten finden im T-O-Schema die Möglichkeit multipler Subjektpositionen, die Möglichkeit zum simultanen Erzählen von Geschichten, zur Herstellung eines Reisens in und zwischen Texten. So wird nicht nur eine, sondern werden endlos viele Geschichten generierbar,

23. Vgl. David Woodward: »Medieval Mappaemundi«, in: John B. Harley/David Woodward (Hg.): The History of Cartography, Bd. I: Cartography in Prehistoric, Ancient and Medieval Europe and the Mediterranean, Chicago, London 1987, S. 286-370.

30

Weiße Flecken und finstre Herzen

die nichtsdestoweniger dem einen großen Narrativ der Heilsgeschichte unterstehen. Auch in einer solchen Welt wäre die Rede vom Entwurf unsinnig. Die Welt der mappaemundi ist schon eine entworfene und der Mensch immer schon geworfen in eine bereits ausgelegte, durchsymbolisierte und codierte Welt. Weiße Flecken, auf die hin sich das Subjekt entwerfen könnte, gibt es hier nicht.

4. Kartographischer Selbstentwurf Das neuzeitlich-europäische Subjekt entwirft sich als vom Entwurf Entworfenes. Sein Entwurf hat planetarische Dimensionen. Gemalte Porträts haben diese Geste der Selbstprojektion wieder und wieder dargestellt: Wie das europäische Subjekt dem Betrachter selbstbewusst entgegenblickt und mit dem Finger auf eine Karte von – sagen wir – Neuseeland zeigt (Abb. 10).24 Das funktioniert auch noch am Ende des 19. Jahrhunderts, kurz vor dem Verschwinden der letzten weißen Flecken auf den Landkarten. Ein europäisches Subjekt, das um 1900 vormacht, wie das Sich-Selbst-Entwerfen als kartographischer Entwurf geht, trägt den Namen Joseph Conrad. Am Anfang von Heart of Darkness (1899) erzählt Marlow, der Binnenerzähler, eine Kindheitserinnerung: »Nun, als kleiner Junge hatte ich eine große Passion für Landkarten gehabt. Stundenlang konnte ich Südamerika oder Afrika oder Australien betrachten und mich in die Herrlichkeiten des Entdeckerlebens verlieren. Zu jener Zeit gab es noch viele weiße Flecken auf der Erde, und wenn ich auf der Landkarte einen erblickte, der besonders einladend aussah (doch das tun sie schließlich alle), pflegte ich mit dem Finger darauf zu weisen und zu sagen: Wenn ich einmal groß bin, gehe ich dorthin.«25 In seinem »Personal Record« von 1908 und dann noch einmal im Jahre 1923 schrieb Conrad diese Erinnerung Marlows um in seine eigene Kindheitserinnerung: »One day, putting my finger on a spot in the very middle of the then white heart of Africa, I declared that some day I would go there.« 26 Es ist die Codierung des Unbekannten im kartographischen Raum, die den Polen Josef Korzeniowski ein literarisches Ich entwerfen lässt, das diesen leeren Fleck als eigene offene Zukunft in sein Leben inkorporiert und auf es hin projiziert. Zunächst die Karte als Entwurf eines literarischen Ich; dann das literarische 24. Die Ausstellung »Cartes et Figures de la Terre« widmete unter der Überschrift »Au doigt et à l’oeil« eine ganze Abteilung Gemälden und Fotografien, die europäische Chef-Subjekte zeigen, die mit dem Finger auf Karten oder Globen zeigen. Vgl. Cartes et figures de la terre. Exposition réalisée par le Centre de Création Industrielle … au Centre George Pompidou (Ausstellungskatalog), Paris 1980, S. 354-357. 25. Joseph Conrad: Herz der Finsternis, Zürich 1977, S. 15f. 26. Joseph Conrad: »Geography and some Explorers«, in: Ders.: Last Essays, London, Toronto 1926, S. 24.

31

Bernhard Siegert

Ich als Entwurf für das eigene Ich.27 Das sind die zwei exemplarischen Operationen der entwurfstechnischen Recodierung des abendländischen Subjekts als Entwurf oder »Projektil«. Das Entscheidende an der Zeichnung, die zum disegno wird, sind Techniken der Projektion und der Projektierung.

Abb. 10: Nathaniel Dance: Portrait Captain James Cook, 1776. National Maritime Museum, Greenwich, United Kingdom.

5. Entwurf als Projekt(ion) Das Entwerfen als Kulturtechnik zu beschreiben, hieße also, es von seiner florentinischen Lesart als disegno zu distanzieren und stattdessen als Projekt, Projektion und Projektierung aufzufassen. Martin Heidegger hat in »Zeit des Weltbildes« (1938) den Entwurf als Grundvorgang neuzeitlicher wissenschaftlicher Forschung bestimmt.28 Forschung seinerseits – als das »Wesen dessen, was man heute Wissenschaft nennt«29 – ist näher bestimmt als »Vorgehen«.30 Dieses »Vorgehen« ist nicht nur als Methode zu verstehen, sondern auch ganz buchstäblich als Vorwärtsgehen, als ein Sich-Aufmachen ins Ungewisse, als Entdeckungs-, Eroberungs- und Forschungsreise, die darauf aus ist, das Unbekannte zu erfassen, und zwar im Bild. »Der Grundvorgang der Neuzeit ist die Eroberung der Welt als Bild.«31 Dieses Vorgehen aber, dieses Sich-Entwerfen auf 27. Vgl. dazu: Cristopher Gogwilt: The Invention of the West. Joseph Conrad and the Double-Mapping of Europe and the Empire, Stanford, Calif. 1995, S. 109f. 28. Vgl. Martin Heidegger: »Zeit des Weltbildes«, in: Ders.: Holzwege, 6. Aufl. Frankfurt/ Main 1980, S. 75. 29. Ebd. 30. Ebd. 31. Ebd., S. 92.

32

Weiße Flecken und finstre Herzen

etwas hin, das noch unbekannt ist, bedarf seinerseits einer Vorzeichnung, und diese Vorzeichnung nennt Heidegger den Entwurf. Erfindung, Entdeckung, Erfassung und Aneignung entwirft sich ausgehend von einem Entwurf, den Heidegger genauer als »ein[en] bestimmte[n] Grundriß der Naturvorgänge«32 bezeichnet. Die Frage ist, wie Heideggers Begriff des Entwurfs im einzelnen auf die Künste des disegno zu übertragen wäre, auf Architektur, Malerei und Skulptur. Deutlich ist, dass Heideggers »Entwurf« nicht den Entwurf einer konkreten Komposition meint, sondern das, von dem aus sich jede Komposition entwerfen muss. Heideggers Begriff des Entwurfes und seine Spezifizierung als »Grundriß« erinnert insofern sehr an Leon Battista Albertis zentralperspektivisches »Grundraster«, das heißt an die Einteilung eines Fußbodens auf dem Papier oder der Leinwand in Orthogonale und Transversale nach den Regeln der geometrischen Verkürzung. Wichtig in unserem Zusammenhang ist, dass Alberti die Bedeutung des Grundrasters gar nicht so sehr in der korrekten Progression der Verkürzung der Abstände zwischen den Transversalen sieht, sondern in seinem gründenden Bezug zur Komposition: »Diese ganze Methode, einen Fußboden einzuteilen, hat insbesondere mit demjenigen Teil der Malerei zu tun, den wir [...] ›Komposition‹ nennen werden.«33 »Compositio« ist ein Begriff aus der Rhetorik, der von Alberti erstmalig auf die Malerei angewendet wird.34 Alberti zergliedert ein Bild wie ein Rhetor einen Satz. Auch die circonscriptio, das disegno im Sinne des lineamento, die bei Alberti das Umreißen der Konturen eines Körpers meint, ist ein Begriff aus der Rhetorik, der die Periode bezeichnet. Zusammen mit der luminum receptio, der richtigen Verteilung von Licht und Schatten, bildet die circonscriptio die compositio.35 Weil man das Grundraster nicht korrekt habe konstruieren können, so Alberti, könne man kaum eine »historia« der Alten finden, die richtig »komponiert« sei.36 Bätschmann und Schäublin übersetzen »historia« an dieser Stelle mit »Vorgang« und schließen damit (gewollt oder ungewollt) an Heideggers Begriff des »Vorgehens« an. Forschendes Entdecken und zeichnerisches Erfinden konvergieren in der Sache und im Begriff eines von einem Grundraster/ Grundriss (»Entwurf«) entworfenen Vorgehens/Vorgangs. Damit legt sich eine systematische wie historische Beziehung zwischen dem Grundraster in der Zentralperspektive und dem Raster aus Breiten- und Längengraden in der Ptolemäischen bzw. Mercatorschen Kartenprojektion 32. Ebd., S. 75. 33. Leon Battista Alberti: »De Pictura/Die Malkunst«, 21, S. 230f. 34. Vgl. hierzu Michael Wiemers: Bildform und Werkgenese. Studien zur zeichnerischen Bildvorbereitung in der italienischen Malerei zwischen 1450 und 1490 (= Kunstwissenschaftliche Studien, Bd. 67), München, Berlin 1996, S. 21. 35. Vgl. Leon Battista Alberti: »De Pictura/Die Malkunst«, 31, S. 246f. 36. Vgl. Leon Battista Alberti: »De Pictura/Die Malkunst«, 21, S. 230.

33

Bernhard Siegert

nahe. Tatsächlich hat schon 1975 Samuel Edgerton Jr. versucht, die These zu begründen, dass die Prinzipien der Albertischen Linearperspektive bereits in der dritten Projektionsmethode in Ptolemäus’ Geographia enthalten seien, insbesondere die Aug- oder Distanzpunktmethode.37 Nachdem der byzantinische Griechischlehrer Manuel Chrysoloras um 1400 herum Ptolemäus’ Atlas nach Florenz eingeschleppt hatte, wurde Florenz im frühen Quattrocento ein Zentrum für kartographische und geographische Studien. Der Bruder von Heinrich dem Seefahrer, Dom Pedro, hielt sich 1428 in der Stadt auf, vermutlich um Karten zu kaufen. Um 1412 schrieb Kardinal Pierre d’Ailly zwei Kommentare zu Ptolemäus’ Geographie, die ihren Weg in Kolumbus’ Bibliothek fanden.

6

:

P

Abb. 11: Ptolemäus’ dritte Projektionsmethode nach Samuel Y. Edgerton Jr.

Ptolemäus’ dritte Projektionsmethode stellt die Oikumene dar, wie sie von einem individuellen menschlichen Augpunkt aus gesehen wird. Die Erde erscheint als Kreis; ein senkrecht durch den Mittelpunkt verlaufender Durchmesser (Π-P) stellt die Verbindung zwischen den beiden Polen dar, ein horizontal durch den Mittelpunkt verlaufender Durchmesser den Äquator. Ein Punkt Σ stellt den Punkt dar, an dem der Breitengrad von Syeme oberhalb des Äquators die vertikale Achse schneidet (Die Breite von Syeme – dem heutigen Assuan in Ägypten – markierte die Mitte zwischen den nördlichen und südlichen Grenzen der Oikumene). Dieser Punkt liegt dem Aug- oder Distanzpunkt (Ω) direkt gegenüber, markiert also zugleich den Mittelpunkt des Gesichtsfeldes und das Zentrum der Oikumene. Der Meridian, der Nord- und Südpol verbindet, wie auch der Breitengrad auf dem Syeme (Albertis punctus centricus) liegt, erscheinen daher als gerade Linien. Die anderen Breitengrade hingegen erscheinen als konkave Linien, die zusammen mit den rückseitigen 37. Vgl. Samuel Y. Edgerton, Jr.: The Renaissance Rediscovery of Linear Perspective, New York 1975, S. 97-104 und vor allem Kapitel VIII, S. 106-123.

34

Weiße Flecken und finstre Herzen

Halbkreisen Ellipsen bilden. Die Breitengradringe oberhalb von Syeme erscheinen so wie von unten gesehene perspektivisch verkürzte Ringe (das heißt als Ellipsen), die Breitengradringe unterhalb von Syeme wie von oben gesehene verkürzte Ringe (Abb. 11).38 Man erhält also ein Bild vom Globus, wie es von einem Gegenstand in einem Konvexspiegel erschiene. Eben diese Projektionsmethode findet sich in Parmigianinos »Selbstbildnis im Konvexspiegel« (Abb. 12). Möglicherweise verweist die runde Form dieses nach den Gesetzen der Ptolemäischen dritten Projektionsmethode konstruierten Bildes, das die Ptolemäische Projektion als »nichteuklidischen« Sonderfall der Albertischen Linearperspektive zeigt, nicht auf einen Barbierspiegel,39 sondern auf den Globus. Das Selbstbildnis des Parmigianino zeigte uns dann den planetarischen Selbstentwurf des neuzeitlichen Subjekts.

Abb. 12: Parmigianino: Selbstbildnis im Konvexspiegel. 1524. Öl auf Holz. Kunsthistorisches Museum, Wien.

Projektion heißt den Schritt vom Körper zum Bild tun (»pitture« hießen die ptolemäischen Karten in Florenz). Dieser Schritt vollzieht sich in den kartographischen Projektionsverfahren, in der Architektur, im Werkstattbetrieb der italienischen Renaissancekünstler auf je und je verschiedene, möglicherweise auch miteinander zusammenhängende Weisen. All diesen Praktiken ist 38. Vgl. Samuel Y. Edgerton, Jr.: The Renaissance Rediscovery of Linear Perspective, S. 107-109. 39. Vgl. Gottfried Boehm: Bildnis und Individuum. Über den Ursprung der Porträtmalerei in der italienischen Renaissance, München 1985, S. 240; (mit Dank an Helga Lutz).

35

Bernhard Siegert

als Grundzug gemeinsam die Eroberung der Welt als Bild mittels projektiver graphischer Operationen, die das Subjekt zur Bühne der Repräsentation machen. Für Leonardo ist das Auge handelndes Prinzip des Entwurfs, der die Künstlerwerkstatt mit dem Globus der Navigatoren verbindet. »Das Auge ist der Herr der Astronomie. Es erschafft die Kosmographie. Es berät die menschlichen Künste. Es trägt die Menschen in die verschiedenen Teile der Welt. Es ist der Fürst der Mathematik. Es hat die Architektur erschaffen und die Perspektive und die göttliche Malerei [...] Es hat die Navigation entdeckt.«40 Das Auge ist Ursprung der Sehstrahlen und zugleich das Schiff, das die Entdecker in die fernsten Teile der Welt trägt. »Heute die Malerei und morgen die ganze Welt.«41 Albertis Imprese war ein geflügeltes Auge. Die spezifisch neuzeitlich-europäische Dynamik des Begriffs des Erfindens wird am Schnittpunkt von Zentralperspektive und Navigation freigesetzt. Im Kontext der transatlantischen Entdeckungen wird vorzugsweise deutlich, welche Bedeutungsdimensionen das Wort invenzione/invenire im 16. Jahrhundert besitzt. Invenire bedeutet zwar einerseits das »Auffinden« im Sinne der antiken Rhetorik und das »Erfinden« im Sinne des disegno-Diskurses, es bedeutet aber andererseits auch »Entdecken«, und zwar ein auf ein Erfassen zielendes Entdecken. Entdecken heißt in Hugo Grotius berühmter Schrift über die Freiheit der Meere, nicht nur mit den Augen, sondern mit zufassender Gewalt ergreifen. Invenire und occupare sind gleichbedeutend.42 Das zweidimensionale Medium triumphiert über das dreidimensionale und ipso facto das Bild über den Körper. Imperialismus ist angewandte Planimetrie. »Souverän ist, wer über die Verflachung entscheidet.«43 Was diese Medien der Projektion, die in der Lage sind, das Unvollendete, das Unbekannte anzuschreiben, generieren und ins Bild setzen, sind »enthemmte Subjekte«, das heißt Subjekte, in denen das Lebensziel vom himmlischen Jenseits in ein terrestrisches Drüben geklappt worden ist. 44 Der Begriff der speculazione di mente, als welche der Florentiner Antonfrancesco Doni 1549 den disegno charakterisiert hatte,45 ist daher nicht nur in seiner philosophischen, sondern auch in seiner ökonomischen Bedeutung aufzufassen. Der Entwurf setzt spekulatives Handeln frei, und Entwerfen ist selbst spekulatives Handeln, ist Risikohandeln: die Entbindung der Subjektivität aus den Operationen des Kreditnehmens, Investierens, Planens, Erfindens, Wettens, Sich40. Samuel Y. Edgerton, Jr.: The Renaissance Rediscovery of Linear Perspective, S. 92. 41. Ebd., S. 90. 42. Vgl. Hugo Grotius: Von der Freiheit des Meeres, übers. v. Richard Boschan (= Phil. Bibl. 97), Leipzig 1919, S. 29. 43. Peter Sloterdijk: Im Weltinnenraum des Kapitals. Für eine philosophische Theorie der Globalisierung, Frankfurt/Main 2006, S. 161. 44. Vgl. ebd., S. 124-127. 45. Vgl. Wolfgang Kemp: Disegno, S. 225.

36

Weiße Flecken und finstre Herzen

Rückversicherns, Risiken Streuens. Man spekuliert auf die Rückkehr des in die Zukunft und ins transatlantische Drüben investierten Kapitals. Die weißen Flecken, das Unbekannte, das die Karten ab 1500 verzeichnen, lassen sich umrechnen in Spekulationsgewinne. Die 1602 gegründete Vereinigte Ostindische Kompanie (VOC) war die erste Aktiengesellschaft der Welt. Die Kompanie durfte Bündnisse schließen, eine Handels- und Kriegsflotte ausrüsten und über ihre Arbeitskräfte Recht sprechen. Es wurden Anteile im Wert von fast 6,5 Millionen Gulden ausgegeben. Auf die erste Einlage wurden in zweihundert Jahren sage und schreibe 3600 Prozent Dividende ausgeschüttet. Karten werden zu Vorzeichnungen von Risikohandeln.

6. Loxodrome Wie Edgerton unterstreicht, ist Ptolemäus’ dritte Projektionsmethode nachweislich nie praktisch zum Einsatz gekommen. Das hat einen einfachen Grund. Da im Mittelmeer die Entfernungen zwischen den verschiedenen Küsten nicht sonderlich groß sind, ist die Abweichung zwischen gezeichnetem Kompassstrich und Schiffskurs unbedeutend. Bei der Übertragung dieser Darstellungsart auf den Atlantik und den Indischen Ozean muss man aber auf die Krümmung der Erdoberfläche Rücksicht nehmen. Eine weiterhin plane Seekarte mit geradlinig eingezeichneten Kompassstrichen wird diesen Verhältnissen nicht gerecht. Man musste also die dritte Dimension in die zweite Dimension projizieren.46 Gerard Mercator fiel der Grund dafür auf, dass Seeleute ihm oftmals falsche Daten lieferten; die Seeleute nahmen an, dass, wenn sie einem bestimmten Kompasskurs auf einer Rhombenlinie folgten, sie dadurch eine gerade Linie fahren würden, was indes nicht stimmt. Er bemerkte, dass ein Schiff, das immer auf ein und denselben Punkt des Kompasses zuhält, eine Kurve beschreibt, die man Loxodrome nennt (oder sphärische Helix). Um den Schiffskurs geradlinig einzeichnen oder darstellen zu können, benötigt man ein spezielles Projektionsverfahren: die winkeltreue Zylinderprojektion. Der Abstand zwischen den Breitenparallelen wächst hier in demselben Verhältnis wie sich der Abstand der Meridiane auf der Erdkugel verkleinert. Dadurch lässt sich der Schiffskurs bzw. die Loxodrome als gerade Linie darstellen.47 Die Reise wird zum Projekt, Welt begegnet im Modus des Entwurfs. Das Schiff wird ein Projektil: es hält seinen Kurs aufgrund einer in der graphischen Oberfläche der gerasterten Karte operativ gewordenen Berechnung. Die Mercator-Projektion 46. Vgl. Uwe Granzow: Quadrant, Kompass und Chronometer. Technische Implikationen des euro-asiatischen Seehandels von 1500 bis 1800, Stuttgart 1986, S. 296f. 47. Vgl. Mark Monmonier: Rhumb Lines and Map Wars. A Social History of the Mercator Projection, Chicago, London 2004, S. 1-16, 57-61. Vgl. auch Uwe Granzow: Quadrant, Kompass und Chronometer, S. 297.

37

Bernhard Siegert

der Karte rechnet sich ein in die Operationen, die das Schiff auf »geradem« Kurs halten. Das Raster wird zu einem »fundamental tool« (Bambach) für die Visionen der Entdecker.

7. Optische Konsistenz zwischen Werkstatt und Globus Auf Ptolemäus geht nicht nur das Problem der Projektion der Kugeloberfläche auf die plane Oberfläche der Karte zurück, sondern auch die Methode der Einteilung der Fläche in ein Raster von Breiten- und Längengraden, das die traditionelle Heterogenität und Lokalität der Weltoberfläche auf eine vollständige geometrische Einförmigkeit reduzierte.48 Wenn auch Ptolemäus’ Weltkarte nur die Oikumene, also die bekannte Welt, zeigte, so implizierte das Raster, dass die Oikumene nur einen Teil der gesamten Sphäre der Erde einnahm. Es gibt Längengrade jenseits der Säulen des Herakles und jenseits der Kanarischen Inseln, die den westlichsten Rand der bekannten Welt und der Ptolemäischen Karte markieren (Abb. 13). Ptolemäus’ Weltkarte, ganz anders als den mittelalterlichen mappaemundi, unterliegt ein Begriff von Kadrierung. Bald wird das, was Karten zeigen, immer nur ein kontingent gewählter Ausschnitt sein. Natürlich war das Raster in Europa schon seit der Antike bekannt. Landvermesser seit den römischen Agrimensoren hatten es verwendet, um Siedlungen zu planen oder – wie Brunelleschi in Rom – um Gebäude zu vermessen.49 Aber das ptolemäische Raster wird nach seiner Wiederentdeckung im frühen 15. Jahrhundert in Terms der Sicherung und Fixierung von Proportionalität – in diesem Fall der Proportionalität von Distanzen – artikuliert, also in denselben Terms, in denen sich auch die Entbergung der Zentralperspektive artikuliert. Wie auch immer man eine gerasterte Oberfläche schrumpfen lässt, vergrößert, verdreht, biegt, verwindet oder von einer Kugel herunterpellt und plättet: der Beobachter verliert nie das Verständnis dafür, wie die einzelnen Teile der Oberfläche artikuliert sind. Die Kontinuität der gesamten Oberfläche bleibt so lange klar, wie er sie auf ein unverzerrtes Quadratraster zurückrechnen kann.50 Mit anderen Worten: das ptolemäische Raster entdeckt die Kulturtechnik der optischen Konsistenz. Und es ist genau diese Kulturtechnik der optischen Konsistenz, die die Zeichnung als Entwurfswerkzeug in den Künstlerwerkstätten der italienischen Renaissance mobilisiert. 48. Vgl. Samuel Y. Edgerton, Jr.: The Renaissance Rediscovery of Linear Perspective, S. 113. 49. Vgl. hierzu: Bernhard Siegert: »(Nicht) Am Ort. Zum Raster als Kulturtechnik«, in: Thesis 49 (2003), 3. Heft: 9. Internationales Bauhaus-Kolloquium Weimar 2003: Medium Architektur. Zur Krise der Vermittlung, hg. v. Gerd Zimmermann, Bd. 1: Plenarvorträge, S. 92-104; sowie: Bernhard Siegert: Passagiere und Papiere. Schreibakte auf der Schwelle zwischen Spanien und Amerika, München, Zürich 2006, S. 142-158. 50. Vgl. Samuel Y. Edgerton, Jr.: The Renaissance Rediscovery of Linear Perspective, S. 114.

38

Weiße Flecken und finstre Herzen

Abb. 13: Kartenausschnitt aus Ptolemäus Geographia. Bibliotheca Laurenziana, Florenz, spätes 14. Jhd. - Aus: Samuel Y. Edgerton Jr., The Renaissance Rediscovery of Linear Perspective, S. 112.

Ist es bloßer Zufall, dass genau in dem Moment, in dem die Geographia des Ptolemäus in den florentinischen scriptoria kopiert und verbreitet wurde, Masaccio offenbar die alte Technik der sinopia für die Vorzeichnung seines Trinitätsfreskos in Santa Maria Novella aufgab?51 Um das Gesicht der Jungfrau Maria von einer Zeichnung auf die Wand zu übertragen, verwendete Masaccio ein Raster, das er direkt in die frisch verputzte Oberfläche einbrachte. Carmen C. Bambach hat in ihrer großen Studie über die italienischen Renaissance-Werkstätten die Techniken rekonstruiert, in denen die Zeichnung sich mit dem Entwurf, dem Plan, der Skizze verbunden hat. Indem sie 15 Jahre auf den Gerüsten der Fresken-Restauratoren herumgeklettert ist, hat sie auf zahllosen Fresken der italienischen Renaissance, darunter einige der berühmtesten, die Spuren mechanischer Übertragungsvorgänge nachweisen können, und zwar vor allem die Anwendung des »velo«, des »spolvero« und des »calco« (auch calcare, ricalcare oder incisione indiretta). Das »velo« oder »velum«, dessen Erfindung bekanntlich Alberti sich selbst zuschrieb (eine Behauptung, die später von Vasari bestätigt wurde), besteht aus einem dünnen Tuch, das der Künstler zwischen sich und dem Objekt, das er zu kopieren wünschte, anbrachte. Nach Alberti lehrte das »velo« den Künstler die Subtilitäten des Reliefs, der Perspektive, der Proportionen und der Umrisse 51. Zur Technik der sinopia vgl. Michael Wiemers: Bildform und Werkgenese, S. 31-58.

39

Bernhard Siegert

wahrzunehmen;52 es ist für ihn also ein Disziplinierungsmittel von Auge und Hand. Wie Carmen Bambach indes nicht nur im Fall von Masaccios Trinità, sondern auch in einer Reihe anderer Studien und Modelle (z. B. von Sandro Botticelli, Michelangelo, Raffael, Jacopo Tintoretto und Paolo Ucello) nachweisen konnte, war das Raster wohl ab 1420 als Übertragungsmedium bei der Arbeit der »prospectivi« (der Perspektivmeister nach Cristoforo Landinos Wort von 1481) im Einsatz.53 Edgerton bezeichnete das »velo« kühn als eine »adaptation of Ptolemaic ›space structuration‹ to the practice of painting«. 54 Ein Holzschnitt von Cesare Vecellio aus dem Jahre 1600 zeigt zwei Quadratraster, die man benötigte, um Kleidermuster zu vergrößern oder zu verkleinern, und das spitze Instrument, das man verwendete, um die Umrisse zu perforieren (Abb. 15). Leonardo und Dürer konstruierten Maschinen, in denen das »velo« als Medium der perspektivischen Darstellung zum Einsatz kam.55 Das »spolvero« war eine weit verbreitete Technik, deren Spur, winzige punktförmige Ablagerungen von Kohle, auf zahlreichen Fresken nachweisbar ist. Diese punktierten Linien sind das Ergebnis eines Verfahrens, das darin bestand, die Linien einer Zeichnung mit einer Nadel zu durchlöchern (was die alten Niederländer das »Griffeln« nannten), danach die Zeichnung direkt auf den noch feuchten Putz zu kleben und mit einem mit feinem Kohlepulver gefüllten Leinensäckchen zu betupfen. Auf diese Weise gelangte der Kohlenstaub durch die Perforation der Zeichnung auf die Wand und erzeugte dort eine Art mechanischen Abdruck des Entwurfs, der dann den »maestri« vorschrieb, wie das Gemälde auszuführen sei. Beim »calco« wird die Zeichnung mit einem spitzen Stylus direkt in den noch weichen Putz eingeritzt. Spuren solcher Inzisionen sind u. a. auch auf Masaccios Trinität zu finden. Die »Erfindung« selbst wird erst lesbar als Spur von mechanischen Übertragungsvorgängen, an denen als Ausführende des »Werkes« eine Vielzahl von Handlangern (manouali), Freskenmalern (maestri pratichi a lavorare a fresco) und Malermeistern (maestri pictori), die auf einzelne Bildelemente (Vorhänge, Himmel, Wolken, Ornamente, Hintergründe, Wachsmodelle) spezialisiert waren, sowie Maestri, die Kartons übertrugen, beteiligt waren. Um 1540 sahen italienische Künstler in der Herstellung von Kartons die wichtigste Phase beim vorläufigen 52. Vgl. Leon Battista Alberti: »De Pictura/Die Malkunst«, S. 248-251. 53. Vgl. Carmen C. Bambach: Drawing and Painting in the Italian Renaissance Workshop. Theory and Practice, 1300-1600. Cambridge, New York, Melbourne 1999, S. 128-133 und 189-194. Das eingeritzte Übertragungsraster in Masaccios Trinität oder die gerasterte Entwurfszeichnung von Paolo Ucello für das Denkmal von Sir John Hawkwood stellen strikte Analogien zu Albertis »velum« dar. 54. Samuel Y. Edgerton, Jr.: The Renaissance Rediscovery of Linear Perspective, S. 118. 55. Vgl. Albrecht Dürer: »Unterweisung der Messung« (1525), in: Ders.: Schriften und Briefe, hg. v. Ernst Ullmann, Berlin 1984, S. 255f.; vgl. auch: Uwe Westfehling: Zeichnen in der Renaissance, S. 263-266; vgl. auch: Carmen C. Bambach: Drawing and Painting, S. 132.

40

Weiße Flecken und finstre Herzen

Entwurf einer Komposition. Die künstlerischen Praktiken, so Bambachs Prämisse, können rekonstruiert werden aus der »material culture pertaining to the workshop.«56 Die Enthüllung der Techniken, die den Entwurfsprozess der großen italienischen Renaissancemeister »ausgelöst« haben, bedeute nicht, ihr Genie zu verleugnen, sondern zu begreifen, »how fundamental a tool drawing was to their vision.«57 In Abwandlung von Nietzsches berühmt-berüchtigtem Satz: Das Entwurfswerkzeug arbeitet mit an unseren Visionen.

Abb. 14: Masaccio, Trinität. Fresko. 1425-1427. Santa Maria Novella, Florenz. Detail.

So relativiert sich auch der Selbsterfindungsgestus in Albertis Traktat »De pictura«. Offenbar greift Alberti in seinem Traktat auf Techniken und Verfahren zurück, die sich seit dem Trecento in den Werkstätten herausgebildet hatten. Das »velo«, dessen Erfindung er sich rühmt, scheint zum Zeitpunkt der Niederschrift des Malereitraktats schon angewendet worden zu sein. Francis Ames-Lewis vermutet, dass Albertis Rat an die Künstler, ein »velo« zu verwenden, eine »akzeptierte technische Praxis in den Zirkeln von Brunelleschi und Masaccio« zitiert.58 Zumindest ist es auf Masaccios »Trinità«, dem ersten bekannten zentralperspektivisch korrekt konstruierten Gemälde, 56. Carmen C. Bambach: Drawing and Painting, S. 10. 57. Ebd., S. 11. 58. Francis Ames-Lewis: Drawing in Early Renaissance Italy, 2. Aufl., New Haven, London 2000, S. 25.

41

Bernhard Siegert

bereits nachweisbar. Außerdem rät Alberti, Entwurfsskizzen (modelli) stets auf gerasterten Oberflächen anzufertigen, »damit alles ordentlich von unseren privaten Papieren an seinen richtigen Platz im öffentlichen Werk übertragen werden kann.«59 Für den angeblichen Vater des disegno war also die Entwurfszeichnung noch in erster Linie ein »immutable mobile«, ein Übertragungsund Projektionswerkzeug. Albertis Erwähnung von concetti und modulos60 markiert die Umcodierung von mechanischen Werkzeugen und rhetorischen exempla zu Manifestationen der kreativen Einbildungskraft. Wesentlich bleibt indes, dass die Zeichnung zum Dokument für die Erfindung werden konnte, weil sie das vollendete Werk als bloß mechanische Ausführung und die Zeichnung als ein auf mechanischen Abdruck oder Einritzung (incisione) ausgerichtetes Medium trennt. Der Entwurf wird freigeschaltet, allein gestellt im Zuge eines Ausdifferenzierungsprozesses handwerklicher Medien. Bevor die Linie als Ausdruck der idea gelten kann, ist sie Vorschrift für die Tätigkeit des stylus, der sie für das spolvero durchstechen wird. Indem Linie und Durchlöcherung, die Perforation des Blattes, einen Bewandtniszusammenhang bilden, ist die Linie Teil einer kulturtechnischen Operationskette. Weil ihr Worumwillen die Reproduzierbarkeit ist, kann sie zur Spur des Originären, des Individuellen werden – ein Individuelles und Schöpferisches, das sich im Unvollendeten, dem Offensein für Künftiges, dokumentiert.

Abb. 15: Cesare Vecellio: Corona delle nobile virtuose donne. Venedig 1600, fol. 30. - Aus: Carmen C. Bambach: Drawing and Painting, S. 13. 59. Leon Battista Alberti: »De Pictura/Die Malkunst«, 61 (S. 309). 60. Vgl. Leon Battista Alberti: »De Pictura/Die Malkunst«, 61 (S. 308/309).

42

Weiße Flecken und finstre Herzen

Die Zeichnung mit dem Entwurf, der Vorzeichnung oder dem Plan zu verbinden, hieß, die Zeichnung offen zu machen für Künftiges, durch die Zeichnung die Möglichkeit einer zukünftigen Vollendung zugleich einzuräumen und vorauszuplanen. Aber die Zeichnung ist nicht nur ein Raum optischer Konsistenz, der der zukünftigen Vollendung einen berechenbaren, vorab entworfenen Ort gibt. Die Zeichnung entfaltet als Medium Mobilisierungseffekte in der künstlerischen Werkstatt, ja sie ermöglicht überhaupt erst das Aufkommen von Künstlerwerkstätten, in denen Künstler sich auf das Entwerfen beschränken konnten und die Ausführung ihren Mitarbeitern überließen. Die Zeichnung ist ein Leitungs- und Kontrollinstrument, weil über sie Fehler nachprüfbar sind und Korrekturen vorgeschrieben werden können.61

8. Ausstieg aus dem Projekt Keineswegs also versteht es sich von selbst, dass »der skizzenhafte Charakter, das noch Unausgearbeitete, das Lineare, immer auf etwas Unvollendetes, auf etwas, das noch werden kann«,62 verweist, wie es die anthropozentrische und künstlerverehrende Kunstwissenschaft in ihrer Medienblindheit unterstellt. Das Unvollendete, das, was noch werden kann, als das Zukunftsoffene, auf das hin das Subjekt (als vom Raster entworfenes) sich entwirft, entsteht aus dem mechanischen Übertragungs- oder Projektionsvorgang, zu dem die Zeichnungen in den italienischen Werkstätten dienten. Wie schwer sich dieses Unvollendete als Unvollendetes am Beginn der Neuzeit durchsetzen kann, davon zeugt der Portolan von Juan de la Cosa aus dem Jahre 1502 (Abb. 16). Im Westen zeigt diese Weltkarte den Atlantik und Teile des neu entdeckten Kontinents. Die Karibik ist schon einigermaßen vollständig kartiert, Teile Brasiliens ebenfalls. Das Unbekannte, der Bereich zwischen dem westlichen Rand des Kartierten und dem Bildrand ist mit grüner und brauner Farbe angefüllt. Dieser unvollendete Entwurf ist ein Entwurf mit Kartenausstieg und Bildeinstieg. Denn eben dort, wo am westlichsten Rand des kartographisch Gesicher61. Vgl. Uwe Westfehling: Zeichnen in der Renaissance, S. 79; vgl. auch: Michael Wiemers: Bildform und Bildgenese, S. 185-191 über die Funktion der modello bei Ghirlandaio. In dieser Hinsicht sind die Funktionen der Zeichnung in den Künstlerwerkstätten völlig äquivalent zu den Funktionen der Entwurfszeichnung zum Beispiel im Büro von Matthew Baker, dem englischen Schiffbaumeister, der um 1586 als erster anfing, Schiffe auf dem Papier zu entwerfen. Eine wichtige Leserschaft erwuchs säuberlich angefertigten Zeichnungen von Schiffen im Marineamt (Navy Board) und darüber hinaus in der Schatzkanzlei. Entwürfe auf Papier erlauben die Integration des Schiffbauhandwerks in die Marineadministration. Hier zeigt sich das von Latour herausgestellte Mobilisierungspotential von »immutable mobiles«. Entscheidungen der administrativen Kammern des Staates und seiner Bürokratie hören jetzt nicht mehr auf mit der Entscheidung über den Bau von Schiffen, sie setzen sich nun fort in Bezug auf Details der Ausführung. Vgl. Stephen Johnston: Making mathematical practice: gentlemen, practitioners and artisans in Elizabethan England. Ph.D. Cambridge 1994, S. 135. 62. Michael Glasmeier: »Ansichten von Zeichnungen«, S. 76.

43

Bernhard Siegert

ten und auf der mit kräftiger roter Farbe eingezeichneten Linie des Äquators das Unbekannte beginnt, dort hat de la Cosa eine Kartusche eingelassen, die den Heiligen Christophorus mit dem Jesuskind beim Einstieg in einen Fluss zeigt, dessen gegenüberliegendes Ufer hinter dem Horizont liegt. Christophorus’ Einstieg in den Fluss ohne anderes Ufer – in den Okeanos – ist der Ausstieg aus dem durch den Entwurf Gesicherten, und zwar genau an der Stelle, an der die Karte im modernen Sinne sich als unvollendete bezeichnen oder zu erkennen geben müsste; an dieser Grenze bietet die Portolankarte einen Ausstieg aus ihr selbst und einen Wiedereinstieg in die alten mappaemundi. Aus der Weltentwurfsordnung zurück in die symbolische Weltordnung, anstatt ins Offene, ins Unvollendete des Linearen.

Abb. 16: Reproduktion der Weltkarte von Juan de la Cosa, 1502. - Aus: Donald Wigal: Historische Seekarten. Entdeckungsfahrten zu neuen Welten 1290-1699, New York 2000, S. 54.

9. Welt im permanenten Entwurfsstadium Das Offene, das Unvollendete, erscheint mit Techniken, die die Möglichkeit operationalisieren, das Nichtrealisierte, das bloß Mögliche zu schreiben. Es sind mit anderen Worten Medien, deren Codes mit Variablen arbeiten. Daher traten die großen Seereiche des 16. Jahrhunderts, Portugal und Spanien, ins Zeitalter einer kartographischen Datenverarbeitung ein, in dem allen Karten, die auf den portugiesischen und spanischen Schiffen verwendet wurden, eine

44

Weiße Flecken und finstre Herzen

Master-Karte zugrunde gelegt wurde, die sich in einem permanenten und per definitionem unabschließbaren Entwurfsstadium befand: dem padrón real. Mit dem padrón real wurde die ständige Verbesserung des Entwurfs der Welt zum Seinsgrund für jede aktuale Repräsentation der Welt. »Um alles in eine Ordnung zu bringen [...], ist es unser Wille und Befehl, dass man eine Generalkarte (padron general) anfertigt, und damit diese sehr genau gemacht wird, befehlen wir unseren Beamten der Casa de la Contratación in Sevilla, dass sie alle unsere geschicktesten Steuerleute [...] versammeln, und dass man [...] in Gegenwart von Euch, dem genannten Amerigo Vespuche, unserem Piloto Mayor, eine Karte von allen Ländern und Inseln der Indien zeichnet, die man bis heute entdeckt hat, [...] und dass man mit dem Einverständnis von Euch unseres genannten Piloto Mayor eine Generalkarte zeichne, die Königliche Karte (padrón real) genannt werden soll, durch welche alle Steuerleute regiert und geleitet (regir e gobernar) werden sollen, [...] und dass kein Steuermann eine Karte benutzen soll, außer einer, die von jener kopiert worden ist (que fuese sacado por el)«.63 »America is a cartographic revolution, the cartographic revolution is America.«64 Oder anders gesagt: Amerika ist das ontologische Resultat einer planetarischen Entwurfsordnung. Mit dem padrón real wurde ein Wissensmedium geschaffen, wie es das Mittelalter nicht gekannt hatte. Es ist die Entfesselung der Entwurfspraktiken, die in Florenz durch die Kurzschließung des ptolemäischen Rasters und des »velo« in Anschlag gebracht wurden. Der padrón real ist eine virtuelle Karte, die nie selber als Karte verwendet wird, weil sie sich in einem permanenten Entwurfsstadium befindet, weil die mediale Praxis, in die sie eingebunden ist, als geheimer Standard aller aktualer Seekarten des hispano-amerikanischen Reiches, sie als unvollendet definiert.65 Was der padrón real verzeichnet, ist der Stand eines immer vorläufig bleibenden, eines der ständigen Verbesserung preisgegebenen Wissens. Es sind (virtuelle) Daten. Der padrón real ist ein Steuermedium, das nicht nur die einzelnen kybernetischen Maschinen (die Schiffe), die mittels einer Navigation genannten Schlaufe von Positionsbestimmung, Kartenabgleich, Befehlen an Ruder und Takelage ihren Kurs halten, steuert, sondern mittels dieser Steuerung auch noch ihre 63. Real provision a Amérigo Vespucio, Valladolid, 6. August 1508. Archivo General de Indias (Sevilla), Indiferente, 1961, L. 1, fol. 66r; vgl. auch: »Título de Piloto Mayor para Amerigo Vespuche«, in: José Pulido Rubio: El Piloto mayor de la Casa de la Contratación de Sevilla. Pilotos mayores, Catedraticos de Cosmografia y Cosmografos, Sevilla 1950, S. 462f.; vgl. auch: »Real Cédula al Piloto mayor Amérigo Despuches [!], dandole poder para examinar, empadronar e rexir a los demas pilotos, e declarallos ábiles o ynábiles para su ofycio, Cadiz, 8. Aug. 1508«, In: Colección de documentos inéditos relativos al descubrimiento, conquista y organización de las posesiones españolas en América y Occeanía, Primera serie. Madrid 1864-84, Bd. 36, S. 253f. 64. William Boelhower: »Inventing America: A Model of Cartographic Semiosis«, in: Word and Image. A Journal of verbal/visual Enquiry 4 (1988), Nr. 2, S. 477. 65. Vgl. José Pulido Rubio: El Piloto mayor, S. 257.

45

Bernhard Siegert

eigene Vervollkommnung steuert. Denn wo immer die Fahrten der vom Piloto Mayor geprüften und vom padrón real regierten pilotos auch hinführten, ihr Rückweg hatte nur eine Adresse, die Casa de la Contratación in Sevilla, Sitz des Piloto Mayors. Sevilla ist das Auge, das die ganze Welt sieht. »Ferner befehlen wir allen Steuerleuten unserer Königreiche und Herrschaften, [...] dass sie, wenn sie neue Länder, Inseln, Buchten oder neue Häfen oder irgendetwas anderes finden, das es wert ist, in den genannten padrón real eingetragen zu werden, wenn sie in Castilla ankommen, Dir, dem genannten Piloto Mayor, und den Beamten der Casa de la Contratación zu Sevilla einen Bericht geben (dar su relacion a vos), damit alles an seinem Ort in den genannten padrón real eingetragen wird.«66 Der padrón real ist das »mutable immobile« am Grund aller »immutable mobiles« des hispano-amerikanischen Imperiums. Die Weltentwurfsordnung des padrón real beruht auf dem ptolemäischen Raster aus Breiten- und Längengradkreisen, das den Globus gleichförmig überzieht und das absolut Unbekannte mit a priori bekannten Adressen ausstattet. Die weißen Flecken sind das Ergebnis einer Kulturtechnik, die allem was ist – und nicht vielmehr nicht – seine Adressierbarkeit vorausgehen lässt. Fortan sind Daten Geschicke ihrer Adressen.

10. Schlussfolgerung zur Genese des »Entwerfens« Auch wenn Edgerton seine These von 1975 über den Ursprung der Zentralperspektive aus der dritten ptolemäischen Projektionsmethode später revidiert hat, bleibt doch die historische Tatsache kaum bestreitbar, dass es zu Beginn des Quattrocento in Florenz zu einem folgenreichen Kurzschluss zwischen Papieroberfläche und Erdoberfläche kommt, der dem Begriff der »invenzione« einen radikal neuen Sinn gibt. Das ptolemäische Raster, das das noch Unbekannte, das Unentdeckte, Unvollendete als Geschick von Adressen ontologisch formatiert und in den spekulativen Blick nimmt, ist das auf planetarische Dimensionen hochskalierte Rasterprojektionsverfahren, das für Alberti entscheidend für die Komposition des Vorgangs (»historia«) ist, und das durch das »velo«, das Übertragungs- und Skalierungsraster, ersetzt werden kann, das sich seit dem Quattrocento in der Praxis der italienischen Künstlerwerkstätten findet (zum Beispiel in der Werkstätten von Ghirlandaio oder Raffael). Nach Edgerton stellte das ptolemäische Raster einen »geometrischen Schlüssel dar zu der Verbindung zwischen der Kartographie des Quattrocento und den Malereien, die der Linearperspektive zur Geburt verhalfen.« 67 Für das Entwerfen als eine Kulturtechnik heißt das: Dass die zeichnerische com66. Real provision a Amérigo Vespucio, fol. 66r; vgl. auch: »Título de Piloto Mayor para Amerigo Vespuche«, S. 463; sowie: »Real Cédula al Piloto mayor Amérigo Despuches«, S. 254. 67. Samuel Y. Edgerton, Jr.: The Renaissance Rediscovery of Linear Perspective, S. 95.

46

Weiße Flecken und finstre Herzen

positio sich mit dem Entwurf verbinden konnte, wird bedingt durch die Überblendung der ptolemäischen Rasterung der Welt mit den Rastertechniken der Freskenmaler, von denen wir wissen, dass sie mit der Erfindung der Zentralperspektive durch Brunelleschi und ihrer Theorie bei Alberti in Verbindung stehen. Der Entwurf nimmt seinen Ausgang also nicht von einem genialen »uomo universale«, der in einem Kraftakt des Willens das Entwerfen entworfen hätte,68 sondern von einer Konvergenz zweier Kulturtechniken zu Beginn des Quattrocento in Florenz: der Kulturtechnik des Längen- und Breitengradrasters und der Kulturtechnik der Rasterung in den Kontexten von Skalierung, Proportion und Übertragung, wie sie in den Künstlerwerkstätten verwendet wurde. Die Bedeutung, die das Entwerfen im Sinne des viel späteren disegnoBegriffs bekam, lässt sich folglich historisch zurückführen auf die Amalgamierung der unterschiedlichen Konzepte des »Offenen«, die zusammen mit den beiden genannten Kulturtechniken in die Zeichnung introduziert wurden. Insofern die Entwurfszeichnung im Spannungsfeld zwischen Projektions techniken der Werkstatt und Projektionstechniken der Kartographie entsteht, verbindet sich in ihr einerseits das Offene als das räumlich Unbekannte oder Ungewisse (wie es vom ptolemäischen Raster adressierbar gemacht wird) und das Offene als das zeitlich Vorläufige, Unvollendete (wie es vom »velo« vorausplanbar gemacht wird).

68. So die Heldengeschichtsschreibung bei Friedrich Kittler: »Leon Battista Alberti«, in: Ders.: Unsterbliche. Nachrufe, Erinnerungen, Geistergespräche, München 2004, S. 14.

47

Aufstieg und Fall der identischen Reproduzierbarkeit Zu Leon Battista Albertis unzeitgemäßer Entdeckung digitaler Technologien in der Frührenaissance 1 1

MARIO CARPO

An einem Sonntagabend, dem des 15. August 1971, kündigte der amerikanische Präsident Richard Nixon eine Reihe drastischer ökonomischer Maßnahmen an, unter anderem die Aufhebung der Goldbindung des Dollars. Das Ende des Goldstandards, der durch das Bretton Woods-Abkommen von 1944 wieder in Kraft gesetzt worden war, hatte einschneidende ökonomische Folgen. Aus Sicht der Bildwissenschaft machte es eine der erstaunlichsten und wunderbarsten Fähigkeiten zunichte, die Bilder in der abendländischen Geschichte je besessen haben, eine Fähigkeit, die von Kunsthistorikern häufig ignoriert wurde. Mit Blick auf die britische Geschichte lässt sich das Phänomen über einen längeren Zeitraum analysieren, als es die Geschichte des Dollars allein ermöglichen würde. Seit 1704, als Banknoten in England und Wales für handelbar erklärt wurden, konnte mit kürzeren Unterbrechungen bis zum Jahre 1931, als die Bank of England faktisch zahlungsunfähig war, eine von dieser Bank ausgestellte Banknote zu einem festgelegten Wechselkurs in Gold oder Sterling Silber getauscht werden: Papier stand für Metall und das eine konnte in das andere jederzeit zum gleichen Kurs gewechselt werden. Nach Bretton Woods wurde das britische Pfund an den Dollar gebunden und der Dollar wiederum an das Gold – wenn man diese Geschichte in einem englischen Buch lesen 1. Dieser Text bezieht sich auf folgende frühere Publikationen von Mario Carpo: Architecture in the Age of Printing: Orality, Writing, Typography, and Printed Images in the History of Architectural Theory. Cambridge, MA., London 2001, vgl. insbesondere S. 16-42, 119-124, dort auch weitere bibliographische Hinweise; »Ecphrasis géographique et culture visuelle à l’aube de la révolution typographique«, in: Leon Battista Alberti: Descriptio Urbis Romae, édition critique, traduction et commentaire, hg. von Martine Furno und Mario Carpo, Geneva 2000, S. 65-97; »Pattern Recognition«, in: Metamorph. Katalog der 9. Internationalen Architektur Biennale, Venice 2004, Bd. III: Focus, hg. von Kurt W. Forster, Venice und New York 2004, S. 44-58; »Alberti’s Media Lab«, in: Mario Carpo/Frédérique Lemerle (Hg.): Perspective, Projections and Design. Technologies of Architectural Representations, London, New York 2007, S. 47-64; (eine frühere Version ist auf Französisch erschienen in: Mario Carpo and Frédérique Lemerle-Pauwels (Hg.): Perspective, projections, projet. Technologies de la représentation architecturale, Konferenzvorträge Tours, Centre d’études supérieures de la Renaissance, 12.-14. Juni 2003, in: Cahiers de la Recherche Architecturale et Urbaine, Bd. 17 (2005), Paris, S. 39-49).

49

Mario Carpo

würde, war das Pfund wieder auf dem Niveau von Gold, in amerikanischen Büchern hieße es, das britische Pfund würde durch den Dollar gestützt. In beiden Fällen bedeutete der Satz, der noch immer in kleinen Buchstaben auf britischen Banknoten erscheint: »Ich verspreche, dem Überbringer auf Anfrage die Summe von 10 £ zu zahlen« vor 1971, dass dem Überbringer auf Anfrage Metall im Gegenwert der Summe von 10 £ Sterling Silber ausbezahlt worden wäre; nach 1971 und bis zum heutigen Tag bedeutet die gleiche Formulierung etwas tautologisch, dass die Bank of England diese Banknote auf Anfrage durch eine andere, ganz ähnlich gedruckte ersetzt. Die magische Kraft, die Papier in Gold verwandeln konnte, verschwand an diesem ereignisreichen Spätsommerabend des Jahres 1971 scheinbar für immer. Vor Nixons Intervention wurde diese alchemistische Tauschqualität des Geldes jahrhundertelang durch die Bonität des emittierenden Instituts gewährleistet, bedingt und ermöglicht wurde sie jedoch von einem Druckvorgang auf Papier. Die wundertätige Kraft eignet somit nicht jedem, sondern nur ganz bestimmten Bildern, die identisch nachgebildet werden und als solche in dieser Eigenschaft auch erkennbar sind. Darin besteht die Kraft der gedruckten Bilder beziehungsweise die Kraft des Identischen: in einem klar erkennbaren visuellen Zeichen des mechanischen Zeitalters, einem Zeichen, das mechanisch reproduzierbar ist. Das Identische und seine sofortige visuelle Erkennbarkeit konnten Papier in Gold verwandeln; vor allem diese Eigenschaft der Reproduktion solcher »identicals« ermöglicht bis heute, dass gesetzliche Zahlungsmittel als solche funktionieren. Wenn eine Banknote nicht mit allen anderen der gleichen Produktionsserie (mit Ausnahme der einmaligen Seriennummer) identisch ist, ist sie keine gute Banknote. Da wir ja bereits zahlreiche identische Banknoten gesehen haben, wurde, zumindest bis vor kurzer Zeit, von uns erwartet, dass wir auf den ersten Blick eine anders aussehende Banknote auch als solche erkennen. Vor dem Zeitalter der Banknoten betraf das gleiche Identifikationsmuster Münzen und (Amts-)Siegel, wobei Wert, Authentizität und Identifikation von der reinen Indexikalität eines mechanischen Abdrucks und seiner identischen Reproduktionsfähigkeit abhängig waren. Solche Fälle des ›indexikalisch‹ Identischen – ein essentielles und sogar grundlegendes Merkmal der mechanischen Ära – stehen in direktem Kontrast zu den Paradigmen visueller Zeichen, die der Ära der mechanischen Reproduktion sowohl vorausgingen als auch folgten. Um beim gleichen monetären Thema zu bleiben: Die Variabilität des Handgemachten überlebt gegenwärtig in der Form von persönlichen Schecks, wobei sich die Autorität der Bank in die bedruckten Abschnitte einschreibt, die Gültigkeit des Schecks aber durch die manuelle Signatur der Ausstellers gewährleistet wird. Wie alle handgemachten Dinge ist eine Unterschrift ein visuell variables Zeichen, da alle Unterschriften der gleichen Person mehr oder weniger unterschiedlich sind. Sie müssen aber auch mehr oder weniger gleich sein, andernfalls könnten sie nicht 50

Aufstieg und Fall der identischen Reproduzierbarkeit

als gleichwertig identifiziert werden. Das Muster der Wiedererkennung basiert an dieser Stelle nicht auf Identität sondern auf Ähnlichkeit. Wie die Geschichte der Mimesis im klassischen Sinne sowohl in den visuellen als auch in den sprachlichen Künsten bewiesen hat, sind Ähnlichkeit und Gleichartigkeit äußerst komplexe kognitive Begriffe. Es ist daher keineswegs überraschend, dass sogar die fortschrittlichsten der heutigen optischen Lesegeräte nicht in der Lage sind, persönliche Unterschriften zu identifizieren oder zu authentifizieren; folglich gehören persönliche Schecks weder zu den universellen noch zu den standardisierten Zahlungsmitteln. Kurz gesagt: In der Welt des Handgemachten, die der maschinell hergestellten Kultur vorausging, waren Imitation oder visuelle Ähnlichkeit die Norm, Replikation und visuelle Identität eher die Ausnahme. In der digitalen Welt, die heutzutage die mechanische Welt ersetzt, erscheinen die visuellen »identicals« oft einfach als irrelevant. Standardkreditkarten können wohl die Form eines ›goldenen Rechtecks‹ besitzen (das Verhältnis der Seiten ist ungefähr nach dem Goldenen Schnitt angeordnet; es ist nicht geklärt, ob diese Tatsache ein Produkt des Zufalls oder des Designs ist); sie tragen Logos, Firmenzeichen und manche archaischen maschinenlesbaren Reliefzeichen – eine Erinnerung an die späten 1950er Jahre, in denen sie erfunden wurden. Doch heutzutage wird die Gültigkeit der Karte durch ihre Folge von 16 Zahlen gewährleistet, nicht durch das Format, noch die Farbe, noch das Material der Karte. Daher ist für die Mehrzahl der Onlinetransaktionen die materielle Existenz der Karte weder erforderlich noch nachzuweisen. Das erste Verfahren zur Überprüfung der Gültigkeit der Kreditkarte ist eine Überprüfung der 16 Ziffern ihrer Zahlenfolge anhand eines einfachen Algorithmus, bekannt als Luhn-Formel, der in den meisten Fällen bereits ausreicht, um Unstimmigkeiten aufzudecken. Niemand würde auf den Gedanken kommen, die Kreditwürdigkeit einer Kreditkarte durch ihr bloßes Betrachten zu beurteilen, also auf die Art und Weise, in der wir eine Banknote überprüfen. Visuelle Identifikation spielt keine Rolle mehr, exakt reproduzierbare optische Druckverfahren werden durch exakt übertragbare unsichtbare Algorithmen ersetzt. Eher anekdotisch erläutern diese monetären Beispiele drei Paradigmen der visuellen Identifizierung, die für drei unterschiedliche Arten, Dinge zu konstruieren, wesentlich sind. Die Unterschrift, die Banknote und die Kreditkarte: Wenn Objekte (wie eine Unterschrift) handgemacht sind, erzeugt deren Variabilität in den vielfachen Produktionsprozessen Unterschiede und Gemeinsamkeiten und die Identifikation basiert auf visueller Ähnlichkeit; wenn Objekte (wie eine Banknote) maschinell hergestellt werden, erzeugen exakt wiederholbare mechanische Druckverfahren standardisierte Produkte und die Identifikation beruht auf visueller Identität; wenn Objekte (wie die aktuellsten maschinenlesbaren oder chipbasierten Kreditkarten) digital her51

Mario Carpo

gestellt werden, erzeugt die differentielle Reproduktion Variationen, die algorithmisch kontrollierbar sind, und ihre Identifikation basiert auf der Erkennung versteckter Muster oder anderer unsichtbarer Merkmale. Der zweite Bruch in der zeitlichen Abfolge dieser Paradigmen, der Übergang vom mechanisch Identischen zum digital Differenzierten, geschieht gegenwärtig. Der erste Bruch jedoch, der Übergang von der handgemachten Variabilität zum mechanisch erzeugten Identischen, hat sich schon vor langer Zeit ereignet. Theoretiker der Neuen Medien tendieren dazu, 2 diesen Bruch im 19. oder 20. Jahrhundert anzunehmen, weil sie das indexikalisch Identische und den mit ihm einhergehenden visuellen Realismus als distinktive Eigenschaft der Fotografie und der Filmkunst begreifen. Theoretiker klassischer Medien setzen den Aufstieg der identisch reproduzierten mechanischen (oder maschinellen) Bilder in Beziehung zur Erfindung der geometrischen Projektionen wie der Zentralperspektive und der fast gleichzeitigen Erfindung von Druckverfahren für Bilder in der Renaissance. 3 Die wohl faszinierendste Fallstudie zur Bedeutung und Reichweite dieser frühmodernen Revolution ermöglicht sicherlich das Leben und Werk von Leon Battista Alberti, der in vielerlei Hinsicht das neue Zeitalter der identischen Reproduzierbarkeit einleitete, aber sie, historisch betrachtet, überwiegend missverstanden hat. Da es sich wahrscheinlich um einen der bedeutendsten Irrtümer im Zusammenspiel von Kunst-, Wissenschafts- und Technikgeschichte handelt, hat dieser Vorgang eine genauere Überprüfung verdient. Am Ende des Mittelalters bemühte sich Leon Battista Alberti, der ›uomo universale‹ der frühen Renaissance, um die identische Reproduktion von Texten und Bildern, von Buchstaben und Ziffern, von Zeichnungen und Entwürfen, von Malerei, Skulpturen und anderen dreidimensionalen Objekten, von architektonischen Details und gelegentlich ganzen Gebäuden; kurz gefasst, von beinahe allen Erscheinungen in Kunst und Natur. Unglücklicherweise waren Albertis Ambitionen der Technologie seiner Zeit weit voraus. Identische Reproduktion war im späten Mittelalter, abgesehen von ein paar Ausnahmen, technisch unmöglich und spielte demzufolge auch kulturell keine Rolle. Ohne brauchbare Technologien war Alberti darauf angewiesen, neue zu erfinden. Einige seiner Ideen waren erfolgreich, die meisten eher weniger – aber alle waren bemerkenswert eigenartig. Alberti war ein Humanist und als solcher mit den verfälschten Überresten antiker Texte vertraut; er wusste also zu genau, dass die Überlieferung von Texten und Bildern in Raum und Zeit mittels Manuskripten ein riskantes Unterfangen war. Kopisten machen Fehler, manchmal interpretieren sie auch 2. Vgl. Lev Manovich: The Language of New Media, Cambridge, Mass., London 2001. 3. Vgl. William Mills Ivins jr.: Prints and Visual Communication, London 1953; Friedrich A. Kittler: »Perspective and the Book«, in: Grey Room 5 (2001), S. 38-53.

52

Aufstieg und Fall der identischen Reproduzierbarkeit

den Text, schieben etwas ein oder erfinden ganze Textteile. Die moderne Philologie hat einen speziellen Ausdruck geprägt, um diesen Zustand der Veränderlichkeit oder Beweglichkeit zu beschreiben, wie er der mittelalterlichen Schriftkultur zugehörig ist: »mouvance«.4 In ihrer Bewegung durch Raum und Zeit verwandeln und ändern sich Texte durch Zufall oder auch absichtlich von einer Manuskriptabschrift zur nächsten. Und seit der klassischen Antike galten Kopien von Handzeichnungen als noch unzuverlässiger als abgeschriebene Buchstaben und Ziffern. Von Ptolemäus über Plinius bis zu Galen warnten viele antike Autoren vor der Entstellung und Verfälschung technischer oder wissenschaftlicher Zeichnungen durch aufeinander folgenden Manuskriptabschriften, die bis zur Unbrauchbarkeit der Zeichnungen führen konnten. Um dieses Risiko zu mindern, schlugen sie geeignete Maßnahmen vor: So instruierten zahlreiche klassische wissenschaftliche Arbeiten – zuerst und vor allem Euklid – den Leser, Diagramme zu zeichnen. Aber solche Zeichnungen waren nicht dazu gedacht, weiterführende oder zusätzliche Informationen zu übermitteln, im Gegenteil enthielt der Text alle notwendigen Informationen, um die Diagramme zu erstellen, so dass deren Bedeutung ausschließlich von Buchstaben und Ziffern übertragen wurde. Zur Zeit Albertis wären sich die meisten Autoren darin einig gewesen, dass die Verlässlichkeit der handgefertigten Kopie einer Manuskriptzeichnung sich umgekehrt proportional zur Komplexität der Zeichnung und zum Abstand vom Archetyp verhält. Albertis fast an Besessenheit grenzende Sorge um die Präzision der Kopien seiner eigenen Manuskripte ist umfangreich dokumentiert. Alberti erfand eine Vielfalt von Tricks und Kunstgriffen – darunter einige recht bizarre – um sicher zu gehen, dass seine Worte und insbesondere seine Zahlen nicht von achtlosen Kopisten entstellt würden. Diese Sorge könnte auch Albertis so drastische wie ungewöhnliche Entscheidung erklären, in allen seinen Büchern auf jegliche visuelle Illustration zu verzichten. So schrieb er einen Traktat zur Bildhauerei sowie einen weiteren zur Malerei, der Regeln zur geometrischen Konstruktion dessen vorgab, was bald die lineare Perspektive werden sollte, sowie einen zehnbändigen Traktat über Architektur – ohne dass ein einziger davon irgendwelche Bilder, Diagramme, Skizzen oder andere Illustrationen enthielt. Abgesehen von ein paar marginalen Ausnahmen, die dem generellen Prinzip nicht widersprechen, ist kein einziges von Albertis Büchern illustriert. Er legte Wert auf die Feststellung, dass es sich dabei um eine bewusste Entscheidung und keineswegs um eine Nachlässigkeit oder gar um mangelndes Interesse an Bildern handelte. Alberti war kein Bilderstürmer. Seine grundsätzliche und durchaus emphatische Ablehnung der Buchillustrationen wurde oft und zu Recht als eine Bevorzugung der rhetorischen Form der Bildbe4.

Vgl. Paul Zumthor: Essai de poétique médiévale, Paris 1972.

53

Mario Carpo

schreibung (Ekphrasis) interpretiert; aber gleichzeitig weist sie auch auf Albertis klare Erkenntnis der Risiken hin, denen die Manuskriptüberlieferung von Zeichnungen ausgesetzt war. Angesichts mancher kritischer Fälle zog Alberti also offensichtlich den Schluss, dass es am besten sei, die Vervielfältigung von Zeichnungen komplett zu vermeiden, wenn sie nicht sicher übertragen werden konnten: Bilder, die nicht als Handzeichnungen weitergegeben werden konnten, mussten in ein zuverlässigeres Format übersetzt werden, und das hieß damals wie heute: in Buchstaben oder Ziffern.

Abb. 1: Liste. - Aus: Leon Battista Alberti: Descriptio urbis Romae. Vatican, Biblioteca Apostolica Chigiana, M.VII.149 (Manuskript, 16. Jahrhundert).

Texte in alphabetischer Schrift besitzen einen Vorteil gegenüber handgefertigten Zeichnungen: das Alphabet besteht aus weniger als dreißig standardisierten Zeichen, die genau wiederholbar sind. Im Gegensatz dazu besteht eine Zeichnung aus einer unendlichen Anzahl von Zeichen, von denen keines standardisiert oder identisch wiederholbar wäre. Hier setzt Albertis Einfall an, der wahrscheinlich auf die Zeit in den späten dreißiger oder vierziger Jahren zurückgeht, als Alberti die Stadt Rom vermessen und einen maßstabsgetreuen Stadtplan gezeichnet hatte. Dies war eine wissenschaftliche Zeichnung, bei der genaue Messungen essentiell waren, die Alberti so genau wie möglich ausführen und in seine Zeichnung des Plans übertragen wollte. Wegen der not54

Aufstieg und Fall der identischen Reproduzierbarkeit

wendigen Präzision der Maße war es für ihn ausgeschlossen, handgezeichnete Kopien des Originals anzufertigen. Diese Tatsache ließ Alberti wenig Spielraum: Da er seine Zeichnungen nicht in Worte übertragen konnte, erfand er ein Verfahren, um sie in Zahlen zu übersetzen. In der »Descriptio Urbis Romae«, einem kurzen lateinischen Werk, erklärt Alberti, wie er zunächst den Plan aufgemessen und anschließend das Bild anhand eines Polarkoordinatensystems »digitalisiert« hat. Albertis Buch besteht im Weiteren aus einer Liste von Zahlen (Abb. 1); und er erwartet von seinen Lesern – vielleicht kann man auch sagen: seinen Kunden – die Bilder identisch oder zumindest proportional identisch zum Original wiederherzustellen, indem ein spezifisches Instrument diese Zahlen verarbeitete, das Alberti ebenfalls beschreibt und das wir heutzutage einen Plotter nennen würden. Offensichtlich war seine Idee, dass sein in hoher Wiedergabequalität erstelltes Bild in digitalisierter Form durch Raum und Zeit überliefert werden sollte, und dass der ursprüngliche Plan von seinen Lesern ausschließlich auf der Basis eines numerischen Zeichensatzes als Wiederholung des Programms – und nicht durch das »analoge« manuelle Abzeichnen einer schon existierenden Kopie – immer wieder neu hervorgebracht und damit gleichzeitig rekonstruiert wurde (Abb. 2). Das Grundprinzip für diesen Prozess ist etwa dreizehn Jahrhunderte früher bereits von Ptolemäus in seiner »Geographia« bzw. »Cosmographia« angegeben worden, mit deren lateinischer Übersetzung Alberti bestens vertraut war.

Abb. 2: Rekonstruktion der Karte und des Zeicheninstruments nach den Angaben und Methoden von Albertis Descriptio urbis Romae. Foto von Bruno Queysanne und Patrick Thépot. - Aus: Bruno Queysanne: Alberti et Raphaël, Descriptio Urbis Romae, ou comment faire le portrait de Rome. Grenoble, Lyon 2000; 2. Aufl. Paris 2002.

55

Mario Carpo

Alberti hat nun das Prinzip seines mutmaßlichen Mentors auch auf dreidimensionale Objekte angewendet: seine Abhandlung »De Statua« handelt weniger von der Bildhauerei, sondern ist eher ein technisches Handbuch, das hauptsächlich einer weiteren phantastischen Maschine gewidmet ist, die die Fähigkeit besitzt, Körper zu scannen und diese dann in eine begrenzte Anzahl von signifikanten Messpunkten aufzulösen, die sich innerhalb eines dreidimensionalen Koordinatensystems identifizieren lassen.

Abb. 3: Messinstrument aus Alberti: De statua. - Aus: John Evelyns Übersetzung von Fréart de Chambrai: Parallèle (1650), basierend auf der ersten italienischen Ausgabe von De statua durch Cosimo Bartoli (Venedig 1568): A parallel of the antient architecture with the modern [... ]written in French by Roland Fréart, Sieur de Chambray [...] To which is added, An account of architects and architecture [...] with Leon Baptista Alberti’s Treatise of Statues, übersetzt von John Evelyn, London 1664.

Wie in »Descripto Urbis Romae« ist die zentrale Apparatur in Albertis »De Statua« ein drehbares Instrument, genauer, ein skaliertes Rad, in diesem Fall etwas unkonventionell auf dem Kopf des zu digitalisierenden Körpers befestigt (Abb. 3). Die daraus resultierende Zahlenreihe schafft durch ihre Notation die Möglichkeit, den originalen Körper unendlich oft zu kopieren und irgendwo und irgendwann maßstabsgetreu oder in anderen Proportionen zu

56

Aufstieg und Fall der identischen Reproduzierbarkeit

reproduzieren. Alberti schlug auch vor, mittels der gleichen Technik verschiedene Teile der gleichen Statue in unterschiedlichen Werkstätten gleichzeitig anfertigen zu lassen: den Kopf in der Toskana, die Füße in Griechenland, und so weiter, so dass diese Teile, wenn sie schließlich irgendwo zusammengefügt würden, perfekt zusammenpassten. Computer – so wie wir sie heutzutage kennen – existierten im fünfzehnten Jahrhundert bekanntlich nicht. Dennoch kommen wir angesichts dieser beiden Beispiele zu dem Schluss, dass Alberti hier etwas entworfen hat, das wir heutzutage eine kompatible Plattform auf der Basis digitaler Technologie nennen würden, auf der Bilder und dreidimensionale Objekte aufgrund ihrer Übersetzung in Zahlenkolonnen aufgezeichnet, übermittelt, verändert und reproduziert werden können. Die signifikante Differenz zwischen Albertis digitalen Maschinen und unseren heutigen besteht einzig darin, dass unsere Maschinen mit Strom betrieben werden. Das ist wahrscheinlich ein Grund dafür, dass niemand jemals versucht hat, Albertis digitale Werkzeuge erneut zu nutzen. Ein weiteres bildgebendes Verfahren Albertis war jedoch im Gegensatz zu seinen digitalen Maschinen durchaus erfolgreich. Im ersten Buch seines Traktats »De Pictura« definiert Alberti bekanntlich die Malerei als das Resultat einer »Schnittfläche durch die Sehpyramide«5 auf der Bildebene. Auf dieser Grundlage entwickelt er die Grundprinzipien der geometrischen Projektionsfläche, die für die Zentralperspektive des 15. Jahrhunderts mit einem Fluchtpunkt so bezeichnend werden sollte. Im zweiten Buch der gleichen Abhandlung allerdings schlägt er auch einige ebenfalls berühmt gewordene Alternativen vor, um das gleiche Ergebnis zu erzielen, die alle auf der Rekonstruktion des physischen dreidimensionalen Prozesses des Sehens beruhen. Das Verfahren ist insbesondere dank Dürers berühmter Abbildungen (Abb. 4) durchaus bekannt: Irgendwo zwischen dem Auge und dem betrachteten Objekt wird die ideale Bildoberfläche – die Alberti im ersten Buch seiner Abhandlung als ›offenes Fenster‹ bezeichnet – durch eine gerahmte, feststehende und halbtransparente Fläche ersetzt, ein velum, durch das alle Sehstrahlen aus dem Auge des Betrachters hindurchgehen, die auf das betrachtete Objekt fallen. Die jeweiligen Schnittpunkte auf der zwischen Auge und Objekt aufgespannten Fläche können exakt festgestellt, markiert, aufgezeichnet oder eingetragen werden. Diese Kennzeichnung ergibt auf dem velum eine Bildmatrix, die dann schließlich auf die Oberfläche des eigentlichen Bildes übertragen, im gleichen Maßstab kopiert, oder falls notwendig proportional vergrößert oder verkleinert werden kann. Um das Bild von einer Oberfläche zur anderen zu übertragen, empfiehlt Alberti den alten Trick des Rasters, den alle Maler seiner Zeit wahr5. Leon Battista Alberti: Über die Malkunst (Della pittura, dt.), hg. von Oskar Bätschmann und Sandra Gianfreda, Darmstadt 2002, S. 85.

57

Mario Carpo

scheinlich kannten und der Schulkindern aller Jahrhunderte sicherlich ein Begriff ist – ausgenommen vielleicht denen der Photoshop©-Generation. Im zweiten Buch seines Traktats »De Pictura« besteht Alberti darauf, dass seine auf dem »offenen Fenster« basierende perspektivische Maschine besser und schneller arbeite und daher der geometrischen Konstruktion von Perspektiven generell vorzuziehen sei, zumal es sich nach der lateinischen Version seines Textes um seine eigene Erfindung handele.6

Abb. 4: Albrecht Dürer: Unterweisung der Messung. - Aus: Albrecht Dürer: Vnderweysung der Messung, mit dem Zirckel vnd Richtscheyt, in Linien Ebnen vn[d] gantzen Corporen, durch Albrecht Dürer zusamen gezogen, vn[d] durch jn selbs (als er noch auff Erden war) an vil Orten gebessert, in sonderheyt mit xxii Figure[n] gemert, die selbigen auch mit eygner Handt auffgerissen, Nuremberg 1538 (fig. 67). Unterweisung der Messung, 1. Aufl., Nuremberg 1525.

Alberti empfiehlt keine spezifische Dichte des Fadengitters für die horizontalen und vertikalen Linien des Rasters, demzufolge besitzt die graphische Auflösung seines Rahmens kein Standardmaß. Aber wenn die Feinheit des Rasters erhöht wird und mit ihr die Größe der einzelnen Quadrate abnimmt, dann wandelt sich das Raster zu einer Matrix, deren Punkte zu Pixeln werden, wie Friedrich Kittler vor kurzem festgestellt hat.7 Ptolemäus’ Beispiel folgend könnte Alberti anhand einer einfachen Kombination von Längen- und Breitenangaben – heute würde man sagen: von Koordinaten auf der x- und der y-Achse – seine Zeichnungen digitalisiert haben – heute würde man eher Sampling und Quantisierung verwenden – aber in beiden Fällen wäre das Endprodukt das gleiche: eine auf Zahlen basierende Matrix beziehungsweise eine digitale Datei. So ist denn auch »Windows 1435«, der scherzhafte Titel eines kürzlich verfassten Essays von Samuel Edgerton, durchaus zutreffend.8 6. Vgl. Leon Battista Alberti: »De Pictura«, in: Ders., Opere volgari, Bd. III, hg. von Cecil Grayson, Bari 1973, S. 7-107, hier S. 55. 7. Vgl. Friedrich A. Kittler: »Perspective and the Book«, S. 44. 8. Vgl. Samuel Y. Edgerton: »Die ideologischen Wurzeln der Zentralperspektive in der

58

Aufstieg und Fall der identischen Reproduzierbarkeit

Albertis windows©-Technologie ist nie über ihr frühes Stadium hinausgekommen, aber das digitale Potential seiner perspektivischen Maschine sollte im Kontext seiner anderen hier bereits erwähnten Projekte gesehen werden, die überraschenderweise tatsächlich digitale Ergebnisse liefern. In allen diesen Fällen waren Albertis Maschinen zu dem Zweck entworfen, Identität oder vielmehr – wie es in der klassischen Tradition üblich war – proportionale oder maßstäbliche Identität (heutzutage auch als Homothetie bekannt) zu erzeugen und zu reproduzieren. Weitere Belege für die zentrale Rolle der Eigenschaft visueller Identität in Albertis Denkweise, in seiner Kunst sowie in seiner Entwurfs- und Architekturtheorie ließen sich hier leicht hinzufügen. Im besonderen Fall des Grabmonuments im Palazzo Rucellai in Florenz beispielsweise, einer Nachbildung des Schreins der Grabeskirche in Jerusalem, wurde Alberti mit dem präzisen Nachbau eines weit entfernten Baus beauftragt, den fast niemand zuvor gesehen hatte – und auch niemand sehen konnte (oder jemals sehen würde, wie Alberti und sein Florentiner Bauherr meinten). Daher erscheint es wenig überraschend, dass sich das Original und die Kopie keineswegs ähneln, doch wer hätte das zu dieser Zeit bemerken können? (Abb. 5 und 6). Wie so häufig ist das technisch Unmögliche auch kulturell irrelevant (und umgekehrt). Auch Albertis zentrale Vorstellung des architektonischen Entwurfs als intellektuelle Konzeptualisierung, die vor jedem Bauen und unabhängig von ihm ausgedrückt wird, beruht ebenfalls auf kleinmaßstäblichen Architekturzeichnungen und Modellen, die schließlich im richtigen Maßstab, proportional vergrößert und doch mit dem Entwurf des Architekten exakt übereinstimmend dreidimensional gebaut werden müssen. Die Reproduktion des Identischen ist also auf zahlreichen Ebenen das vorhschende Motiv. Während die Grabarchitektur des Palazzo Rucellai in vielerHinsicht weiterhin Rätsel aufgibt, die weiterer Untersuchungen bedürfen, wird Albertis Grundgedanke doch unmissverständlich deutlich: die organische Variabilität des Handwerklichen und der Natur selbst sollen durch die rationale und wiederholbare Vorhersehbarkeit identischer Reproduktion ersetzt werden. Einen wichtigen Abschnitt seiner Abhandlung zum Bauen schließt Alberti daher mit der Bemerkung, dass die Kunst mittels dieser Präzision die Natur übertreffen könne, da Künstler identische Statuen reproduzierten, während man in der Natur keine zwei gleichen Nasen finde.9 Abgesehen von ihrem eklatanten Anachronismus ist Albertis Nutzung digitaler Technologien zur Erzeugung identischer Kopien in vieler Hinsicht bedeutend und faszinierend. Jetzt, da wir alle an einer anderen und sich gerade vollziehenden digitalen Revolution teilnehmen, lässt sich das sicherlich Renaissance. Warum Leon Battista Alberti ›Windows 1435‹ erfand«, in: Norbert Bolz/Friedrich A. Kittler/Raimar Zons (Hg.): Weltbürgertum und Globalisierung, München 2000, S. 127-144. 9. Vgl. Leon Battista Alberti: L’architettura (De re aedificatoria, it.), übers. von Giovanni Orlandi, mit einer Einleitung und Anmerkungen von Paolo Portoghesi, Mailand 1966, S. 838.

59

Mario Carpo

noch besser als vor ein paar Jahrzehnten abschätzen. Albertis Drama und ein Grund seines Misserfolges besteht darin, dass er schon zu seiner Zeit moderne Bilder zu entwerfen und sie bis zu einem gewissen Grade sogar zu erzeugen vermochte, sie aber nicht reproduzieren konnte. Albertis Bilder sind häufig als Träger von präzisen quantitativen Informationen konzipiert, die messbare Daten aufnehmen sollen, die man anwenden und nach denen man sich richten kann. Aber diese nützliche Präzision, die Alberti einer Originalzeichnung einzuschreiben vermochte, konnte auf keine brauchbare Weise übermittelt werden und wäre beim Kopieren verloren gegangen. Alberti konnte Malen und Zeichnen als das Lesen von Spuren konzipieren, die von den Sehstrahlen auf einer Bildoberfläche im Querschnitt der Sehpyramide hinterlassen wurden. Aber wenn diese Spuren durch mechanische oder geometrische Verfahren einmal erfasst und aufgezeichnet waren, besaß Alberti so gut wie keine Möglichkeit mehr, um sie zu reproduzieren – auch nicht von einer Oberfläche zur anderen. Seine perspektivische Bilderzeugung bildete ideale indexikalische Einschreibungen von Licht auf einer Oberfläche ab, aber er war noch nicht in der Lage, diese auch auf Papier zu drucken.

Abb. 5 und 6: Schrein der Grabeskirche in der Cappella Rucellai, Kirche von San Pancrazio, Florenz.

Sein Bedürfnis nach exakten Kopien von Texten, Bildern, Objekten der Kunst, Industrie und Natur war damals weit verbreitet und nahm in der neuen Kultur der Renaissance stetig zu. Vieles, was Alberti anstrebte, wurde bald durch eine andere Reproduktionstechnologie zur Verfügung gestellt, die Alberti 60

Aufstieg und Fall der identischen Reproduzierbarkeit

seltsamerweise nicht in Betracht gezogen hatte: die Drucktechniken des Holzschnitts und Kupferstichs, dann auch der Typographie, die bereits zu erster Blüte entwickelt waren. In gewissem Sinne erfüllten gedruckte Bilder und gedruckte Texte einen Teil seines Forschungsprogramms, so dass Alberti sie gut hätte gebrauchen können und vermutlich auch genutzt hätte, wenn er auf die Idee zur Anwendung dieses Verfahrens gekommen wäre. Eigentlich alles, was notwendig gewesen wäre, um seinen gezeichneten Plan von Rom zu drucken (statt ihn zu digitalisieren), wäre in der Zeit von Albertis Publikation technisch bereits verfügbar gewesen, bis auf die Idee eben, dass man den Plan auch drucken könnte. Nur ein paar Jahre später bedeutete die Durchsetzung des Buchdrucks und der gedruckten Bilder das Ende seiner digitalen Experimente: Albertis digitale bilderzeugenden Werkzeuge gerieten für die nächsten fünf Jahrhunderte in Vergessenheit. Aus heutiger Sicht können Albertis Experimente als die falsche technische Antwort auf ein kulturelles Bedürfnis erscheinen, das so allgemein und weit verbreitet war, dass bald eine andere Technologie fast alle seiner Vorhaben besser, schneller und billiger in die Tat umsetzte. Mechanische Technologien ermöglichten kurze Zeit später die massenhafte Erzeugung von identischen Reproduktionen, wie sie weder das Handwerk noch digitale Technologien seinerzeit liefern konnten. Übrigens ging die variable proportionale Maßstäblichkeit in diesem Prozess verloren, aber offensichtlich überwogen dennoch die Gewinne die Verluste. Mechanische Technologien produzierten über fünfhundert Jahre genau wiederholbare Druckreproduktionen aller Arten und Größen, ein Vorgang, der durch die Industrielle Revolution stark beschleunigt wurde und erst heute sein Ende findet. Von unserem heutigen digital versierten Standpunkt aus ist Albertis Scheitern allerdings aus einem anderen und entscheidenden Grund bedeutsam. Alberti versuchte, die moderne identische Reproduktion ohne moderne mechanische Mittel zu erreichen – und antizipierte statt moderner Druckverfahren digitale Technologien. Da Intel noch nicht vor der Tür stand, ist ihm dies misslungen. Aber das Fehlen hinreichender Prozessoren war nicht der einzige Grund für Albertis Scheitern: Denn wie wir heute wissen, sind die Algorithmen, die Alberti für die identische Reproduktion einsetzte, in Wirklichkeit geeigneter, um Mutationen der Reproduktion des Gleichen zu erzeugen, also kontrollierte Variationen derselben allgemeinen Matrix oder Funktion. Selbstverständlich können wir digitale Technologien immer noch dazu nutzen, um identische Nachbildungen zu schaffen. Ein Computer kann eben auch zum Kopierer werden, doch das ist nicht unbedingt die geschickteste Art, mit digitalen Technologien umzugehen, auch keineswegs eine der einfachsten. Unbestreitbar ist jedoch, dass heute die digitale Variabilität sowohl in der Herstellung wie auch in der Übertragung neuer medialer Objekte als eines der Hauptmerkmale der Neuen Medien gilt. Und tatsächlich zeigt sich hier die Art 61

Mario Carpo

und Weise, wie digitale Werkzeuge beim Entwerfen und in der Herstellung heutzutage von zeitgenössischen Architekten und Künstlern genutzt werden.

Abb. 7: Grabeskirche in Jerusalem. - Aus: Bernardino Amico da Gallipoli: Trattato delle piante ed immagini dei sacri edificii di Terrasanta disegnate in Gierusalemme secondo le regole della prospettiva, e vera misura della lor grandezza, Florenz 1620, Abb. 33 (1. Aufl. Rom 1609).

Von der Medienwissenschaft wird häufig betont, dass die neue digitale Umgebung in vieler Hinsicht der Welt der Schrift, die dem Buchdruck vorausging, näher stehe als der Ära der mechanischen Druckverfahren, die heute von den digitalen Technologien ersetzt werden. Aber das gleiche Paradigma könnte ebenso gut auf die Bildproduktion, auf das Entwerfen und die Herstellung wie auf die ganze visuelle Kultur angewendet werden. Während wir uns jetzt aus der Welt des mechanisch hergestellten Identischen heraus und in eine neue Welt digital erzeugter Variationen hinein bewegen, steuern wir auf ein visuelles Universum zu, das letzten Endes vielleicht gar nicht so neu ist. Unsere gerade entstehende Kultur der algorithmisch kontrollierten digitalen 62

Aufstieg und Fall der identischen Reproduzierbarkeit

Variation ist nämlich der Welt der organischen Variabilität des »Flux« oder der »Mouvance«, also den Vorläufern der Ära, die wir allmählich hinter uns lassen, viel näher als der Welt des mechanisch reproduzierten Identischen. Während manuelle Variationen früher individuell angefertigt wurden und häufig zufällig, willkürlich oder unkontrollierbar blieben, kann digitale Variation entworfen, individualisiert und gleichzeitig in Massen produziert werden: ein aufregendes und konzeptionell herausforderndes Charakteristikum der neuen Non-Standard-Technologien. Es ist noch zu früh, um sagen zu können, ob – oder eher wann und wo – das Prinzip der digital betriebenen, variabel zu differenzierenden Reproduktion zuerst die visuellen und sozialen Praktiken des mechanischen Zeitalters demontieren wird, die uns während der letzten vier oder fünf Jahrhunderte mechanischer Standardisierung auferlegt worden sind. Wenn das geschieht, wird die Herrschaft der »identicals« ebenfalls vorbei sein (Abb. 7): während die mechanischen Reproduktionstechniken langsam aus unseren technologischen und kulturellen Umgebungen verschwinden, werden wir bestimmte Fertigkeiten und Praktiken der visuellen Wahrnehmung wieder neu lernen müssen, die vor dem Aufkommen der mechanischen Indexikalität alltäglich waren. Und während wir versuchen, die bevorstehende Wiederaufnahme der Algorithmen und den gleichzeitigen Zerfall des mechanisch erzeugten indexikalisch Identischen vorherzusehen und zu deuten, werden wir vielleicht verwundert feststellen, dass Alberti und sein wahrer Mentor in diesen Angelegenheiten, Thomas von Aquin, uns hierbei vorausgegangen sind. Beide wären sicherlich in der Lage, die heutige digitale Revolution richtig einzuschätzen, was vielen der heutigen Spätmodernisten offensichtlich nicht recht gelingen will.

Übersetzung aus dem Englischen: Daniel Gethmann, Susanne Hauser, Karine Pelouard.

63

Vom Modul zur Zelle zum Raster Entwurfsparameter und ihre Veranschaulichung vor dem 19. Jahrhundert MICHAEL BOLLÉ

Es stellt sich die Frage, ob das Entwerfen in den Jahrhunderten vor der beginnenden Moderne ebenfalls als »Kulturtechnik« zu verstehen sei oder zumindest Aspekte aufweist, die in dieser Hinsicht interpretierbar sind. So unscharf dieser Begriff auch noch sein mag, so könnte man sich doch als Arbeitshypothese darauf verständigen, darunter nicht-verbale Hilfsmittel zur Herstellung und Verdeutlichung von Entwurfsvorgängen und deren Resultaten zu verstehen, deren Existenz sich nicht allein der zwingenden Notwendigkeit von Planung verdankt – modern würde man das Ausführungsplanung nennen. Von Kulturtechnik wäre etwa dann zu sprechen, wenn mit den zur Verfügung stehenden handwerklichen Möglichkeiten etwas über die Realisierung Hinausweisendes vermittelt werden soll, sei es eine virtuelle Vorstellung von noch nicht Realisiertem, sei es die Animierung zu einem noch gar nicht vorgesehenen Projekt. In den meisten Fällen wird dabei der potentielle Auftraggeber ins Spiel kommen, wie beispielsweise die zahlreichen bildnerischen Darstellungen verdeutlichen, in denen der Künstler oder Architekt dem Herrscher Pläne oder Modelle zu einer Kirche oder einem Palast offeriert, in entsprechend demütiger Haltung. Auch die Verbindung von Wort und Bild wäre hier zu nennen, wie Filaretes utopischer Stadtentwurf »Sforzinda« für den Mailänder Herzog aus den 1460er Jahren. In erster Linie wird man es mit zweidimensionalen, also zeichnerischen Darstellungen zu tun haben, aber nicht weniger auch mit dreidimensionalen Modellen, die aber hier aus Platzgründen unberücksichtigt bleiben,1 ebenso Randbereiche wie die Ausgabe von Medaillen und Münzen aus Anlass eines konkreten Projekts, wie beispielsweise jene von Matteo di Pasto für Albertis S. Francesco in Rimini (1450), die uns heute immerhin eine ungefähre komplette Vorstellung von der unfertig gebliebenen Fassade vermittelt. Fokussiert man – zumindest 1. Vgl. Hans Reuther/Ekhart Berckenhagen: Deutsche Architekturmodelle, Projekthilfe zwischen 1500 und 1900, Berlin 1994; Andres Lepik: Das Architekturmodell in Italien, 13351550 (=Römische Studien der Bibliotheca Hertziana, Bd. 9), Worms 1994; Ausstellungs-Kat. »Architekturmodelle der Renaissance, Die Harmonie des Bauens von Alberti bis Michelangelo« (Kunstbibliothek, Staatliche Museen zu Berlin), München, New York 1995.

65

Michael Bollé

für die Zeit vor 1800 – die Frage nach Kulturtechnik auf solche Phänomene, in denen es nicht in erster Linie um Auftragsvergabe, Konkurrenzprojekte oder bloße Realisierung geht, sondern um den bewussten Transport darüber hinausweisender Ideen oder einer sich nachträglich einstellenden nachhaltigen Wirkung, so wird man sich nicht Randgebieten zuwenden dürfen, wenn die Einführung eines solchen Begriffes relevant sein soll. Im Folgenden wird sich auf Beispiele bezogen, die allgemein bekannt sind, sie werden lediglich hinsichtlich der eben umrissenen Problemstellung neu befragt. Das bedeutet folgerichtig, sich zunächst jener Traktatliteratur zuzuwenden, die fast vier Jahrhunderte lang die alleinige Kompetenz architektonischer Judikative beansprucht hat, der vitruvianischen, und diese ungeachtet ihrer textlichen Dominanz zu beleuchten. Dies kann in diesem Zusammenhang nur exemplarisch und thesenhaft geschehen. Der Vitruvtext stellt bekanntlich den mehr oder weniger geglückten Versuch einer umfassenden Beschreibung der antiken Architektur und ihrer entwerferischen Voraussetzungen dar. Er ist sowohl eine summierende Materialsammlung als auch von normativem und normierendem ästhetischem Anspruch. Darüber hinaus enthält er aber auch entwurfstechnische Anweisungen. Diese der Erzielung einer korrekten Darstellungsform dienenden Abschnitte werden zwar in den diversen Vitruv-Ausgaben seit dem 16. Jahrhundert gelegentlich auch zeichnerisch illustriert und textlich kommentiert, verbleiben aber im Handwerklichen, etwa bei der Frage: Wie konstruiert man eine ionische Schnecke (Abb. 1)? Aus der architekturtheoretischen Diskussion selbst aber wurde diese Art handwerklicher Technik weitgehend ausgeblendet. Auch wenn die Darstellungstechnik den Status einer Ideenskizze überschreitet, bleibt sie in der Regel anwendungsorientiert und steht nicht für sich. Das gilt grosso modo für alle Primär- und Sekundärliteratur zur Architekturtheorie bis zur Mitte des 18. Jahrhunderts, soweit sie vitruvianisch ist. Es gibt allerdings auch Ausnahmen, die insbesondere die Problematik der perspektivischen Darstellung betreffen, wobei diese Traktate nicht in jedem Fall architekturspezifisch sind, also nicht auf eine bauliche Realisierung zielen, sondern auf die korrekte Darstellungsform von Räumlichem auf einer Fläche. Natürlich erfolgt auch dies zum Zweck der Anwendung, aber nicht unmittelbar, ist also neben Erörterungen über die ästhetische Relevanz von lehrbuchartigem Charakter. Hierzu existiert eine schwer übersehbare Spezialliteratur seit dem 16. Jahrhundert.2 Unmittelbare Anwendung findet sie etwa in der barocken Deckenmalerei oder bei Theaterprospekten,3 ihre vielfache Verwendungsmöglichkeit ist oft bereits den Titeln zu entnehmen, bis hin zu 2. Etwa Daniele Barbaro: La Pratica della Prospettiva, Venedig 1569. 3. Vgl. Andrea Pozzo: Perspectiva Pictorum et Architectorum, 2 Bde., Rom 1693-98. In vielen Auflagen und Sprachen erschienen.

66

Vom Modul zur Zelle zum Raster

Lamberts »Proportionalzirkel«4 von 1768. Das ist nun zweifellos auch ein Bereich von Kulturtechnik – im Sinne der Konzeption imaginärer Welten wohl noch mehr als im Bereich der Architektur – aber zu umfangreich und zu eigenständig, um hier näher darauf einzugehen. Festhalten kann man wohl aber auch hier: diese Technik ist eine dienende, die perspektivische Darstellung im Traktat ist kein Selbstzweck.

Abb. 1: Konstruktion einer ionischen Schnecke. - Aus: Les dix livres d’architecture de Vitruve, corrigés et traduits en 1684 par Claude Perrault, Paris 1684, Tf. XXI.

Will man thesenhaft festhalten, wann die zeichnerische Darstellung von Architektur sich von ihrem Ziel – dem Gebauten oder zu Bauenden – zu lösen beginnt, so stößt man natürlich unweigerlich auf Andrea Palladio (1508-80). Die in seinen »Quattro libri dell’architettura« (1570) aufgenommenen eigenen Bauten erscheinen dort nicht immer so, wie sie wirklich realisiert wurden, sondern in idealer Form, wie beispielsweise bei der Basilika in Vicenza (1549), deren Darstellung die tatsächlichen Unregelmäßigkeiten des älteren Kernbaus ebenso ignoriert wie die in der Ausführung daraus resultierenden Abweichungen innerhalb der einzelnen Fassadenmotive (Abb. 2). Palladio benutzt die Holzschnitte als Korrektiv, um einen Idealzustand zu vermitteln, nicht wie 4. Vgl. Johann Heinrich Lambert: Kurzgefaßte Regeln zu perspectivischen Zeichnungen vermittelst eines zu deren Ausübung sowie auch zu geometrischen Zeichnungen eingerichteten Proportional=Zirkels, Augsburg 1768.

67

Michael Bollé

das bauliche Ergebnis auf Grund widriger Umstände zustande gekommen ist; thematisiert wird dieses Vorgehen von ihm allerdings nicht. Im Vorwort des ersten Buches findet sich unter dem Hinweis auf die Inhalte des gesamten, ursprünglich wohl auf zehn Bücher angelegten Vorhabens kein Verweis auf eine gesonderte Einführung im Sinne unseres Themas, abgesehen von der üblichen Auflistung der klassischen Säulenordnungen und ihres modularen Aufbaus sowie kurzen Beschreibungen von Baumaterialien. Das heißt mit anderen Worten, weder der Entwurfsprozess selbst, noch seine Darstellung werden gesondert betrachtet.

Abb. 2: Ansicht und Grundriss des oberen Stockwerks der Basilika in Vicenza. - Aus: Andrea Palladio: I quattro libri dell’architettura, Venedig 1570, Buch III, S. 42.

Palladio zielt – wie die übrige Traktatliteratur des 16. und 17. Jahrhunderts – auf die Vermittlung einer Gesamtheit. Eine Vereinzelung der Illustration war nicht vorgesehen, alles verblieb im Verbund des gedruckten Buches. Dass es Sammler von Palladio-Zeichnungen wie Inigo Jones schon früh gab, widerspricht dieser These ebenso wenig wie die Tatsache, dass schon im Verlauf des 16. und erst recht des 17. Jahrhunderts der Textanteil an Umfang 68

Vom Modul zur Zelle zum Raster

gegenüber früheren Traktaten deutlich zurückgeht. Der summierende Charakter der vitruvianischen Traktatliteratur blieb aber weitgehend erhalten, die gezeichneten Beispiele blieben illustrierend innerhalb eines modular verstandenen Systems, das sich aus kleinsten Einheiten additiv zusammensetzte. Abgesehen von Palladios »Quattro libri« erläutert in der Regel nicht der Text die Zeichnung, sondern die Zeichnung den Text. Das gilt auch dann, wenn – wie etwa in der Vitruvausgabe Cesarianos von 1521 – das ganze auf ein aktuelles Beispiel wie den damals noch im Bau befindlichen Mailänder Dom bezogen wird (Abb. 3). 5

Abb. 3: Der Mailänder Dom als Illustration der vitruvschen »Orthographia«. - Aus: Cesare Cesariano: De Lucio Vitruvio Pollione de Architettura libri decem traducti de Latino in Vulgare affigurati [...], Como 1521, Buch I.

5. Vgl. Cesare Cesariano: De Lucio Vitruvio Pollione de Architectura libri decem traducti de Latino in Vulgare affigurati [...], Como 1521. Cesarianos in einer Auflage von 1300 Exemplaren edierte Vitruvausgabe ist die erste in italienischer Sprache und die erste kommentierte. Die Tafel illustriert die Begriffe »Ichnographia« (Grundriss) und »Orthographia« (Aufriss).

69

Michael Bollé

Etwa zeitgleich zu Palladios Traktat publizierte Étienne Dupérac (um 1520-1604) fünf Jahre nach Michelangelos Tod im Jahr 1569 Stiche von dessen Entwürfen für das Kapitol, denen offenbar Kenntnisse der Zeichnungen Michelangelos zu Grunde lagen (Abb. 4). Michelangelos Eingreifen in das Kapitolsprojekt lag bereits 30 Jahre zurück. Über den genauen Anlass der Stiche Dupéracs über die Absicht der Wiederaufnahme des Projekts hinaus ist – soweit ich sehe – nichts bekannt. Sie stehen in Zusammenhang mit der Initiative Pius IV., das Projekt zu Ende zu führen, das wieder einmal fragmentarisch zu bleiben drohte. Um eine entsprechende Initiative zu unterstützen, war Vervielfältigung nützlich. Die Verbreitung hätte dann insofern einen kulturtechnischen Aspekt, als sie gezielt als Mittel zum Zweck eingesetzt worden wäre, um einen eigentlich verloren gegangenen Entwurf zu rekonstruieren, wenn nicht gar ein Projekt Michelangelos in einem Umfang zu suggerieren, das so gar nicht bestanden hat.6 Das scheint eine neue Qualität zu sein, ohne dies überbewerten zu wollen. Es wäre ein früher Fall, bei welchem die Darstellungstechnik auf eine Zukunftsvorstellung abzielte, ohne selbst Entwurf zu sein.

Abb. 4: Étienne Dupérac: Scenographie von Michelangelos Kapitolsentwurf, Kupferstich, 1569.

6. Zur schwierigen Frage des Verhältnisses zwischen Dupéracs Stichen und nicht mehr existierenden Entwurfszeichnungen Michelangelos vgl. Harmen Thies: Michelangelo.Das Kapitol, München 1982, insbesondere S. 24ff: »Die Stiche bilden den Entwurf, nicht das Gebaute ab.« (S. 25). Auf den Anlass der Stichserie geht Thies nicht ein. Vgl. Frank Zöllner/Christof Thoenes/Thomas Pöpper: Michelangelo, 1475-1564. Das vollständige Werk, Hongkong, Köln, London u. a. 2007; Arch.-Kat. Nr. 8, S. 476-479.

70

Vom Modul zur Zelle zum Raster

Auch wenn sich bei Michelangelo die Entwurfsparameter zu verändern beginnen, indem der strenge modulare Aufbau zugunsten individualisierter Lösungen zurückgedrängt wird, ändert sich an der von Vitruv beschriebenen Darstellungsfolge: Ichnographia, Orthographia, Scenographia (Grundriss – Aufriss – Schnitt/Perspektive) nichts. Diese entwerferische Abfolge der zeichnerischen Darstellung eines Entwurfs kann man auch als eine Kulturtechnik auffassen, sie hat sogar im Prinzip bis heute Bestand.

Abb. 5: Francesco Borromini: S. Ivo alla Sapienza. - Aus: Opera del Cav. Francesco Borromini Cavata [...], hg. von Sebastiano Giannini, Rom 1720, Tf. VIII.

Der erste, der das Modul-Schema als entwerferischen Ausgangspunkt verlassen hat, war wohl Francesco Borromini (1599-1667), der zwar die architektonischen Details der Säulenordnungen auch modular aufgebaut hat, aber einer am Anfang stehenden Gesamtidee unterordnete. Bauten wie S. Ivo sind nicht mehr das Ergebnis modularer Additionen wie frühere Raumschöpfungen, die dem Modul vorausgingen, weswegen Borrominis Bauten auch schlecht typologisierbar sind (Abb. 5). Borrominis Räume hat man »pulsierend« genannt, was der Betrachter nachvollziehen kann, wenn er zu sehen in der Lage ist, dass etwa in S. Ivo im Prinzip Triumphbogenmotive gefaltet wurden. Zur Kultur71

Michael Bollé

technik gehört offensichtlich auch das Verstehen seitens des Betrachters und nicht nur die Darstellungsweise. Das seit alters her von der Kunstgeschichte propagierte »Sehen lernen« ist ja doch auch als Kulturtechnik zu verstehen und mehr als das bei einer Beschreibung korrekte Aufsagen terminologischer Fachbegriffe in der richtigen Reihenfolge. Dass sich der zweidimensionalen Darstellungstechnik von dreidimensionalen Sachverhalten auch eine ebenbürtige Lesetechnik hinzugesellen muss, wird spätestens im Barock deutlich, weil dessen gekurvte Räume sich bislang mit keiner Kulturtechnik adäquat darstellen lassen. Die mangelnde Wertschätzung dieser Epoche außerhalb der kunstwissenschaftlichen Fachwelt ist erklärungsbedürftig, hat sie doch hochinteressante Räume wie kaum eine andere hervorgebracht, sich also einem Thema gewidmet, das auch in der heutigen Architektur einen zentralen Stellenwert einnimmt. Die Kulturtechnik des Sehens scheint indes für kompliziertere Gebilde unentwickelt, was sich zu einem nicht geringen Teil aus dem Umstand herleiten dürfte, dass barocke Räume über zweidimensionale Darstellungen nicht vermittelbar sind, was beispielsweise beim ausschließlichen Betrachten von Fotografien zu Irrtümern führen kann. Borrominis Entwurfsmethode beruht nicht auf einer Verfeinerung traditioneller Darstellungstechniken oder einer Weiterentwicklung von Architekturtheorie. In den Handbüchern wird durchgängig konstatiert, dass für die Neuerungen des Barocks des 17. Jahrhunderts eine architekturtheoretische Entsprechung fehle.7 Man darf sicher auch hinzufügen: auch eine kulturtechnische. Von einer Emanzipation des Entwurfs gegenüber seiner Ausführung kann nicht die Rede sein, von einer beginnenden Abkehr vom modularen Aufbau allerdings schon. Mit einer reinen vitruvianischen Säulenordnungstheorie kommt man nicht auf pulsierende Räume. Die beiden von Borromini hinterlassenen Schriften begründen solches aber nicht. Die posthum herausgegebene Publikation zu S. Ivo enthält gar keinen Text,8 die zum Oratorio S. Filippo Neri9 enthält nichts in unserem Sinne Ergiebiges, sondern schließt an Bellori und dessen Auffassung an, Architektur ahme die konstruktiven Prinzipien der Natur nach. Gleichwohl kündigt sich hier etwas Neues an, denn insbesondere die Grundrissfiguration von S. Ivo und ihre zeichnerische Entwicklung aus Dreieck und Kreissegmenten zeigen, dass sich hier so etwas wie »darstellende Geometrie« andeutet, die als Raumeinheit gedacht wird. Das 7. Vgl. Hanno-Walter Kruft: Geschichte der Architekturtheorie. Von der Antike bis zur Gegenwart, München 1985, S. 166f. 8. Opera del Cav. Francesco Borromini cavata da suoi originali cioè La Chiesa, e Fabrica della Sapienza di Roma, hg. von Sebastiano Giannini, Rom 1720. 9. Opera del Cav. Francesco Borromini cavata da suoi originali cioè L’Oratorio, e fabrica per l’abitazione de PP. dell’Oratorio di S. Filippo Neri di Roma, hg. von Sebastiano Giannini, Rom 1725.

72

Vom Modul zur Zelle zum Raster

ist zunächst noch nicht verallgemeinerbar im Sinne einer neuen, allgemein verfügbaren Kulturtechnik. Man kann bestenfalls borrominesk arbeiten (wie auch michelangelesk). Zu einem »Ismus« wie Palladio gelangt im 17. Jahrhundert niemand. Einen bedeutenden Schritt weiter in der Ablösung des klassischen Moduls als entwurfsbestimmende Einheit ging der um die Mitte des 17. Jahrhunderts hauptsächlich in Turin tätige Guarino Guarini (1624-83), zunächst Professor für Philosophie in seiner Heimatstadt Modena (1647), später für Mathematik und Philosophie in Messina (1655). Er gilt als einer der Väter der »darstellenden Geometrie«. Ein Großteil seiner Entwürfe wurde nie verwirklicht, von den ausgeführten ist nur ein Teil erhalten. Guarini hat mehrere Schriften hinterlassen, darunter eine über verwissenschaftlichte Vermessungsmethoden (Bauaufnahme)10 und ein Fragment gebliebenes Traktat, das in zwei Teilen posthum von Bernardo Vittone 1737 redigiert und veröffentlicht wurde und in welchem die meisten seiner Projekte enthalten sind.11 Guarinis Entwurfsverfahren ist als »Raumkombinatorik« (Hager) oder als ein System von »Raumzellen« (Sedlmayr) beschrieben worden. Etwas anschaulicher könnte man auch sagen, dass er das von Borromini entwickelte System des pulsierenden Raums vervielfachte. Guarini begründete dies damit, dass auch die Natur nach dem Prinzip von Ausdehnung und Bewegung funktioniere. Dass es ihm um grundsätzliche Probleme zu tun war, zeigt seine »Chiesa senza nome«, eine Art Idealplan, auf den Guarini allerdings in seinem Traktat nicht weiter eingeht (Abb. 6).12 Er zeigt einen basilikalen Kirchentyp in zwei Varianten, dessen Seitenschiffe im Sinne einer Positiv-Negativ-Vertauschung unterschieden sind. Das linke besteht aus kreisförmigen, abgeschlossenen Raumzellen hinter den Pfeilern, die durch konkav eingeschwungene weitere Raumzellen dazwischen verbunden sind. Im rechten Seitenschiff ist diese Anordnung verschoben, so dass nun umgekehrt die kreisförmigen Zellen zwischen den Pfeilern liegen und die konkav eingezogenen hinter ihnen. Auch das Querschiff zeigt zwei verschiedene Raumzellenanordnungen. Man kann sagen, dass die Seitenschiffe in beiden Varianten in abgeschlossenen Einheiten pulsieren, während im Hauptschiff die drei kreisförmigen Raumzellen einander durchdringen. 10. Guarino Guarini: Modo di misurare le fabriche, Turin 1674. 11. Architettura civile del Padre D. Guarino Guarini, cherico regolare, opera postuma [...], Text- u. Tf.-Bd., Turin 1737. 12. Die Tafel ist auch nicht nummeriert, möglicherweise wurde sie von Vittone nur als letzte Tafel der Vollständigkeit halber beigefügt. Zur Bewertung innerhalb des Werkes Guarinis vgl. Claudia Müller: Unendlichkeit und Transzendenz in der Sakralarchitektur Guarinis (Studien zur Kunstgeschichte, Bd. 38), Hildesheim, Zürich, New York 1986, S. 64f.

73

Michael Bollé

Man kann Guarinis Grundrisse als »Pattern« darstellen, wie das Claudia Müller in ihrer Dissertation getan hat,13 und feststellen, dass die Zellenstruktur unendlich wiederholbar ist. Es ist durchaus wahrscheinlich, dass Guarini auch so entworfen hat, indem er zunächst geometrische Muster entwickelte und diese erst anschließend auf eine konkrete Aufgabe übertrug. C. Müller hat diese Muster als »Infinitesimalstrukturen« bezeichnet. Wenn man sie also ausdehnen würde, so verlören sie ihr Zentrum. Der einzelne Entwurf wäre nur ein Ausschnitt aus einem unendlichen Schnittbogen. Es wäre dabei auch im Prinzip möglich, das eine als Raum, das andere als Stütze oder umgekehrt zu betrachten. Solche Überlegungen hat es zwar auch schon vor Guarini gegeben – etwa bei Baldassare Peruzzi (1481-1536), der aber ausschließlich mit Polygonen operierte – sie sind aber zuvor nie ernsthaft als Entwurfsprinzip diskutiert worden.

Abb. 6: Guarino Guarini: Chiesa senza nome, Grundriss. - Aus: Architettura civile del Padre D. Guarino Guarini [...], Tf.-Bd., Turin 1737 (ohne Nr.). 13. Claudia Müller: Unendlichkeit und Transzendenz in der Sakralarchitektur Guarinis, S. 64f.

74

Vom Modul zur Zelle zum Raster

Bei dem nicht verwirklichten Entwurf für die Kirche S. Filippo Neri in Casale bei Turin wird das Prinzip der unendlich möglichen Raumzellenaddition extrem deutlich (Abb. 7). Der Bau ist als ein Raumsystem gedacht, bei welchem ein Skelett aus freistehenden Säulen vor einer dünnen Außenmembran steht. In diesem Raster wechseln sich kreisförmige Elemente mit konkav geschwungenen ab, die aus den Zwischenräumen der sich berührenden Kreise resultieren. In diesem im Prinzip unendlichen Muster ist lediglich in der Mitte ein solches Element ausgetauscht und durch ein Kreissegment ersetzt worden, das im Entwurf für Casale eine runde Kuppel trägt. Dem pulsierenden unendlichen Grundmuster wurde so eine Mitte gegeben.

Abb. 7: Raumzellenkombinationsschema von S. Filippo Neri in Casale. - Nach: Claudia Müller: Unendlichkeit und Transzendenz in der Sakralarchitektur Guarinis, Hildesheim, Zürich, New York 1986, Abb. 14.

Guarinis Entwurf für Casale ist sicher das radikalste, was bis dahin in dieser Richtung vorgeschlagen worden war. Obwohl Guarini ja nicht eigentlich neue Gebäudetypen geschaffen hat – es sind immer Basiliken, Zentralbauten, griechische oder lateinische Kreuze, Oktogone et cetera – so hat er doch auf eine, im Grundrisslichen fast schematisch zu nennende Art und Weise, ganz neuartige Raumzellenstrukturen geschaffen, für die Norberg-Schulz den Begriff der »ars combinatoria« geprägt hat. Wie seine Entwürfe im räumlichen Aufriss aber zeigen, hat er dabei keineswegs die angestrebte Raumwirkung der reinen Logik, der Geometrie oder Mathematik geopfert, beide waren ihm nur Mittel zum Zweck. Er selbst sagte dazu: »Obgleich sie von der Mathematik abhängt, 75

Michael Bollé

ist Architektur nichtsdestoweniger eine Kunst, die danach strebt zu gefallen und nicht dem Gefühl um des Verstandes Willen mißfallen will.«14 Dennoch muss man sich die Frage stellen, wie ein Kleriker15 die Anwendung solcher mathematisch-geometrischen Entwurfsprinzipien für den Sakralbau begründet? Er tut es eigentlich nicht, denn seine ausführlichen mathematisch-geometrischen Überlegungen münden nicht in einer auf Architektur bezogenen Theorie. Es handelt sich eher um eine verwissenschaftlichte Darstellungsweise, die der Zeichenhaftigkeit solcher Formen wenig Bedeutung beizumessen scheint (Müller). Es sei aber an das Fragmentarische des Textes erinnert. Man muss also ein wenig spekulieren. Die These könnte etwa lauten, dass die Unendlichkeit, die in Guarinis geometrischer Methode zum Vorschein kommt, als eine Analogie zur Unendlichkeit Gottes aufgefasst werden könnte und der Mensch durch sein materielles Werk lediglich zufällige Momentaufnahme herzustellen in der Lage sei. Das ist allerdings nur bedingt erhellend, was in erster Linie an der unklaren Begrifflichkeit Guarinis liegt. Er unterscheidet eine Unendlichkeit, die nur Gott zukomme (infinitum simplex) von einer speziellen Beschaffenheit von Qualität und Quantität (infinitum secundum quid). Nach C. Müller stellt sich für Guarini die Unendlichkeit letztlich als eine theologische Dimension dar. Sie allein entspreche Gottes Wirklichkeit und nicht etwa die Schöpfung, worunter Guarini im weitesten Sinne auch das Menschenwerk, also auch die Architektur zählt. Dem unvollkommenen Menschen stehe somit nur die Möglichkeit offen, diese unendliche Dimension durch unbegrenzte Wiederholbarkeit darzustellen. Ob dies wirklich seinen Entwürfen methodisch zugrunde liegt oder es sich nur um eine angereicherte Analogiebildung handelt, sei dahin gestellt. Um seine Entwürfe zu verstehen, scheint eine Analogie aber durchaus ausreichend, solange sie plausibel ist. Aus heutiger Sicht ist zudem eine Beschäftigung mit Raumzellenstrukturen sicher auch ohne »göttliche Eingebung« von Interesse, es handelt sich ja schließlich um Rastergrundrisse und auch noch um solche ohne rechten Winkel! Bei Guarini begegnen wir in Ansätzen auch einer Position, die die Rolle des Architekten primär auf »formar le idee, o sia disegno« auszurichten beginnt, also auf das Verfertigen der Idee und des zeichnerischen Entwurfs, womit er auf das kommende 18. Jahrhundert hinausweist. Jemand, der das in dann fast ausschließlicher Weise getan hat, war Giambattista Piranesi (1720-78), dessen Bekanntheitsgrad nicht zuletzt einem bestimmten Umstand zu verdanken ist: Er produzierte Einzelblätter, die sich von den gängigen Veduten eines Marco Ricci oder Canaletto dadurch unterscheiden, dass das Vorgefundene in einer 14. Zitiert nach: Christian Norberg-Schulz: Barock, Stuttgart 1985, S. 135. 15. Guarini gehörte dem Theatiner-Orden an.

76

Vom Modul zur Zelle zum Raster

über kompositorische Glättung der Realität hinausgehenden Weise phantasievoll angereichert ist. Schon in seinen ersten bedeutenden Stichfolgen, dem »Prima parte di Architettura« von 1743 oder den »Antichità Romane« (ab 1748), kommt dies zum Ausdruck (Abb. 8).16 Das ist sozusagen »entworfene Antike« oder wie Corinna Höper das treffend formulierte, »kreative Archäologie«.17 Das trifft in ähnlicher Weise auch auf Piranesis römische Veduten zu.

Abb. 8: Giovanni Battista Piranesi: Frontispiz von Bd. 3 der Antichità Romane, Rom 1756.

Es ist gerade diese Doppelbödigkeit zwischen Realität und Illusion, die Piranesis Arbeiten für das Thema »Kulturtechnik« interessant machen, denn bekanntermaßen steht hinter dem merkantilen Aspekt dieser »Touristenblätter« das Anliegen Piranesis, die Größe Roms nicht nur zu veranschaulichen, sondern geradezu zu suggerieren und zwar mittels einer Visualisierungstechnik, wie sie in diesem Ausmaß zuvor nicht existierte, etwa durch nicht real einnehmbare Betrachterstandpunkte und die sich daraus ergebenden irrealen Perspektiven. Das ist zweifellos imaginär, aber eines ist es nicht: ein Entwurf und somit auch

16. Prima parte di architetture e prospettive, inventate ed incise da Gio. Batta. Piranesi architetto veneziano …, Rom 1743; Antichità romane de’tempi della repubblica e de’primi imperatori, disegnate ed incise da Giambattista Piranesi architetto veneziano …, Rom 1748. 17. Corinna Höper: »Giovanni Battista Piranesi (1720-1778)«, in: Corinna Höper, in Zusammenarbeit mit Jeannette Stoschek/Stefan Heinlein: Giovanni Battista Piranesi. Die poetische Wahrheit. Radierungen, Stuttgart 1999, S. 7-30, Zitat S. 12.

77

Michael Bollé

nicht zukunftsgestaltend im Sinne einer angestrebten baulichen Veränderung der Umwelt. Es ist vielleicht bezeichnend für die langsame Herausbildung dessen, was sich in Richtung Kulturtechnik fokussieren lässt, dass sie sich nicht aus einer Ästhetisierung der handwerklich-technischen Seite des Entwurfsvorgangs entwickelt zu haben scheint. Vielmehr müssen übergeordnete Aspekte untersucht werden. Piranesis Haltung ist nur vor dem Hintergrund zu verstehen, dass im Laufe des 18. Jahrhunderts die Rolle Roms als architektonische Referenz verloren zu gehen drohte, was in der Literatur unter dem Begriff »Griechenstreit« firmiert. Piranesis Versuch, diesem Prozess entgegen zu wirken – mit der unhaltbaren These, die Griechen hätten ihre Baukunst den Etruskern entlehnt – war schon deshalb kein Erfolg beschieden, weil er letztlich eine veraltete Position bezog, indem er eine übersteigerte Form der Nachahmung der römischen Antike postulierte. Dass er sich dabei eines neuartigen Mittels bediente, welches in der Theoriebildung des 18. Jahrhunderts die klassische modulare Ordnung zunehmend relativierte, nämlich einer wirkungsästhetischen Absicht, macht den Spagat deutlich, mit dem man sich auf unser Thema zubewegte. Am konsequentesten gelang dies den sogenannten Revolutionsarchitekten. Etienne-Louis Boullée (1728-99) hat ein theoretisches Werk hinterlassen, welches er etwa zwischen 1781 und 1792 verfasst hat. Er vermachte es als Manuskript 1793 der französischen Republik zusammen mit großformatigen Zeichnungen, veröffentlicht wurde es allerdings erst im 20. Jahrhundert von Helen Rosenau.18 Ihm ist in Anspielung auf Correggio das Motto vorangestellt: »Ed io anche son pittore« (Auch ich bin ein Maler). Das hat weniger mit Boullées ursprünglicher Ausbildung als Maler zu tun als mit seiner poetischen, bildhaften Auffassung von Architektur. Er sagt: »Wenn man sie [die Architektur] hingegen in ihrem ganzen Umfang verstehen will, erkennt man, daß Architektur nicht nur die Kunst ist, Bilder durch die Anordnungsweise von Körpern zu schaffen, sondern daß sie auch in dem Können besteht, die gesamte, verstreute Schönheit der Natur zu vereinigen, um sie in ein Kunstwerk umzusetzen. […] Werke der Architektur können nicht geschaffen werden, ohne eine tiefgehende Kenntnis der Natur: ihre Wirkung ist es, die die Poesie der Architektur entstehen läßt.«19 »Tableaux« und »images« (als auf die Sinne wirkende Bilder) sind hierbei zentrale Begriffe, die angesichts seiner reinen Entwurfsarbeit als Architekt im Sinne eines »imaginären Architekturmuseums« (Kruft) zu verstehen sind. Er 18. Etienne-Louis Boullée: Architecture. Essai sur l’art, hg. von Helen Rosenau: Boullée’s Treatise on Architecture, London 1953. Im folgenden wird zitiert nach der von Beat Wyss besorgten Ausgabe: Etienne-Louis Boullée: Architektur. Abhandlung über die Kunst, Zürich, München 1987. 19. Ebd., S. 65.

78

Vom Modul zur Zelle zum Raster

fordert einen poetischen Charakter von öffentlichen Gebäuden und zielt damit auf eine Wirkungsästhetik ab, die ihre Wurzeln in der französischen Architekturtheorie bei Cordemoy (1706), Boffrand (1745) und Laugier (1753) hat, und natürlich in der Aufklärung. Für Boullée ist die Ausführung eines Bauwerkes eine »art secondaire« und nichts, womit der Architekt sich zu befassen hätte (sondern nur der ausführende Baumeister), der Entwurf verselbständigt sich völlig: »Die Kunst zu bauen ist […] zweitrangig, und es erscheint uns angebracht, sie als den wissenschaftlichen Teil der Architektur zu bezeichnen.«20 Der Begriffsapparat Boullées muss sich natürlich bei einer Ausklammerung des tatsächlich Gebauten verändern. Die vitruvianisch-ästhetische Nomenklatur ist in vielen Teilen bereits nicht mehr von Nöten, beispielsweise das »decorum« oder die »distributio«, die angemessene Verteilung und Anwendung von Baumaterialien. Auch ist Boullées Proportionsbegriff nicht mehr jener des 17. Jahrhunderts. Proportion ist kein arithmetisches Zahlenverhältnis mehr, abgeleitet aus musikalischen oder anderen Gesetzen, sondern ein reiner Wirkungszusammenhang.

Abb. 9: Etienne-Louis Boullée: Entwurf zu einer Nationalbibliothek, 1785.

Der von Boullée als »wissenschaftlicher Teil« bezeichnete eigentliche Entwurfsvorgang wird von ihm nicht weiter thematisiert, also spricht er auch nicht von Modulen, Zellen oder Rastern. Unter Hinweis auf die Einfachheit stereometrischer Körper vertritt er den Standpunkt, dass die Musik nicht maßgebend 20. Ebd., S. 45.

79

Michael Bollé

für die Proportionierung derartiger Körper sei. Die bildhafte Wirkung ist bei Boullée aber ausschließlich an stereometrische Körper gebunden, weil diese absolut regelmäßig sind, sie sind eine »image de l’ordre« (Bild der Ordnung), was zur Geltung zu bringen dem Architekten obliegt, der für ihn sozusagen der Maler der reinen Ordnung ist. »Image« ist der gemeinsame Nenner von Architektur, Malerei und Poesie. Seine Entwürfe sind nicht als Bautypologie im Sinne einer zu variierenden Vorbildsammlung zu verstehen, sondern sie geben eine ideale Vorstellung der wichtigsten öffentlichen Bauaufgaben, die Boullée »ins Bild setzt«. Ein Beispiel etwa ist sein Bild einer Bibliothek, die zunächst einmal sehr groß ist, weil die Menge der bedeutenden Bücher auch groß ist (Abb. 9). Außerdem scheint das Tonnengewölbe des Baus sich auf die Regale zu stützen, die Gesamtheit des erworbenen Wissens bildet sozusagen die Grundlage des Baus, bei dem Boullée sich übrigens nach eigenen Worten von Raffaels Schule von Athen hat inspirieren lassen. Es handelt sich – um mit Hanno-Walter Kruft zu sprechen – um »Architektur an sich«.

Abb. 10: Etienne-Louis Boullée: Newton-Kenotaph, Tagvariante, 1784.

»Eine Idee ins Bild setzen« heißt bei Boullée mehr als einem subjektiven Einfall gestalterischen Ausdruck zu verleihen. Der berühmte Newton-Kenotaph ist kein Personendenkmal, sondern stellt den Versuch dar, Newtons Theorie denkmalhaft in Szene zu setzen (Abb. 10). Die Kugel ist so beschaffen, dass am Tage durch die in ihrer Anordnung dem Firmament entsprechenden Öffnungen

80

Vom Modul zur Zelle zum Raster

Licht einfällt, also eine Illusion des Alls erzeugt wird. Den physikalischen Zustand dieses Weltalls und seiner Körper gesetzmäßig beschrieben zu haben, ist das Verdienst Newtons, und das wird von Boullée »ins Bild gesetzt«. Weiter in der Autonomisierung des architektonischen Bildes als eigenständiges Kunstobjekt bei gleichzeitiger Abkopplung von der Praxis ist zuvor niemand gegangen, aber es war eine logische Fortsetzung von Gedanken, die das 18. Jahrhundert geprägt haben. Ob man das aber unter Kulturtechnik subsumieren kann, wäre noch die Frage, es ist ja doch eher eine Entwurfshaltung. Das scheint um so wichtiger, als Boullée seit 1781 an der Académie d’architecture in Paris lehrte und genau zu diesem Zeitpunkt beschloss, nicht mehr als praktizierender Architekt zu arbeiten. Zieht man aber den anderen großen Vertreter der »Revolutionsarchitektur«, Claude-Nicolas Ledoux (1736-1806), heran, der ja gebaut hat, so erkennt man doch, dass am Ausgang dieses Jahrhunderts Architektur auch dazu benutzt werden konnte, Standpunkte zu verorten. Nun waren sowohl Boullée wie auch Ledoux Royalisten, aber eine Kongruenz zwischen politischer Haltung und Entwurf anzunehmen, ist ohnehin fragwürdig. Man darf nicht übersehen, dass Ledouxs Salinenstadt Chaux (Abb. 11) zwar die gebaute Saline in Arc-et-Senans zur Voraussetzung hat, ihre sozialutopisch gefärbte Beschreibung in Ledouxs Traktat jedoch im Nachhinein verfasst wurde.21 Das Werk wurde 1804 publiziert und ist dem russischen Zaren gewidmet.22 Ledouxs »architecture parlante« ist zwar auch zeichenhaft, dient aber auch als Vorwand, stereometrische Körper zu entwickeln. Ein Lehrbuch für eine neue Architektur ist das Werk nicht. Zukunftsweisend ist bei den »Revolutionsarchitekten« die visionäre Selbstüberschätzung der Rolle der Architektur und des Architekten. In ihrer unmittelbaren Wirkung werden die »Revolutionsarchitekten« indes eher überschätzt. Wie mit Ausnahme Palladios alle hier angerissenen Positionen zeigen, bleiben diese an die subjektive Qualität der Personen gebunden. So vielfältig die Entwurfsmethoden im einzelnen sein mögen, stehen sie doch bis zur Mitte des 18. Jahrhunderts in einer relativierten oder modifizierten vitruvianischen Tradition. Es mag bezeichnend sein, dass nur dort, wo das praktische, an konkrete Aufgaben gebundene Entwerfen zugunsten der Position eines Künstlerarchitekten aufgegeben wurde, der Architektur eine neue Rolle hätte zufallen können, die dann auch neue kulturtechnisch unterfütterte Aufgaben hätte wahrnehmen können. Soweit ist es aber nicht gekommen. Eine parallele Entwicklung des Architekten zum antiakademisch ausgerichteten autonomen bildenden Künstler ist bestenfalls in auftragsschwachen Jahren vorstellbar. Als 21. Ledoux war 1793 eingekerkert worden und entging knapp der Guillotine. 22. Claude-Nicolas Ledoux: L’Architecture considerée sous le rapport de l’art, des moeurs et de la législation, Paris 1804.

81

Michael Bollé

Postulat hätte sie die Nichtlehrbarkeit von Architektur zur Folge gehabt, was in der Kunsttheorie des 18. Jahrhunderts ja auch eine viel behandelte Frage war.

Abb. 11: Claude-Nicolas Ledoux: Die Idealstadt Chaux. - Aus: Claude-Nicolas Ledoux: L’architecture considerée sou le rapport de l’art [...], Paris 1804.

Abb. 12: Jean-Nicolas Durand: Leçons d’architecture, Paris 1819, 2. Partie, Tf. 2.

82

Vom Modul zur Zelle zum Raster

Bezeichnenderweise war es ein Schüler Boullées, der einen anderen Weg gegangen ist: Jean-Nicolas Durand (1760-1834). Es ist sicher nicht unerheblich, dass Durand seit 1795 selbst lehrte und zwar an der »École Polytechnique«, das heißt, er hatte es mit angehenden Ingenieuren zu tun. In der Gründung dieser Schule hatte letztlich der Widerspruch zwischen künstlerischer und praktischer Orientierung seinen Niederschlag gefunden. Was Durand dort lehrte, war eine auf rationalistischen Prinzipien beruhende, systematische Kompositionslehre. Sie schlug sich nieder in einer auf dem Raster fußenden Kombinatorik, mit der jedwede Bauaufgabe schnell und ökonomisch in einen Entwurf überführt werden konnte (Abb. 12). Publiziert hat Durand seine Auffassung in zwei Schriften, darunter seine Vorlesungen.23 Die Begrifflichkeit Durands lässt sich unter dem Stichwort »économie« subsumieren, was das Vorherrschen des Quadrats und des rechten Winkels verständlich macht. Vitruvianische Proportionsvorschriften sind für ihn unpraktisch, weil einengend, ebenso überflüssig ist Dekor. »Scenographia« als Darstellungsprinzip entfällt, der Raum ergibt sich aus dem Zusammenfügen von Horizontalen und Vertikalen. Selbst das farbige Lavieren von Entwürfen hält er für entbehrlich. Damit wird vieles, was auch unter Kulturtechnik fallen könnte, radikal entsorgt, gleichwohl Durand durch seine Kompromisslosigkeit selbst eine architektonische Kulturtechnik ins Leben rief, die bis heute fortwirkt, trotz Gottfried Sempers Verdikt, der ihn als »Schachbrettkanzler für mangelnde Ideen« bezeichnet hat.

23. Jean-Nicolas-Louis Durand: Recueil et parallèle des édifices de tout genre anciens et modernes […], Paris 1799-1801; und: Précis des leçons d’architecture données à l’Ecole Polytechnique, 2 Bde., Paris 1802-05.

83

Zum Entwurfsverständnis bei Hermann Ludwig Heinrich Fürst von Pückler-Muskau GERT GRÖNING

Einleitung Im Mittelpunkt meiner folgenden Betrachtung steht das Entwurfsverständnis bei Hermann Ludwig Heinrich Fürst von Pückler-Muskau (1785-1871). Dazu bediene ich mich der einzigen Veröffentlichung, die Pückler unmissverständlich mit seinem Namen verbunden hat, den »Andeutungen über Landschaftsgärtnerei verbunden mit der Beschreibung ihrer praktischen Anwendung in Muskau«.1 In einem Brief an Bettina von Arnim schrieb er darüber einmal, sie sei »ernsthaft und auch eigentlich langweilig« und stünde somit in einem Gegensatz zu seinen sonstigen Schriften.2 Während diese von Pücklers weitgespannter Reisetätigkeit berichten, sind die 1834 veröffentlichten »Andeutungen«3 ganz der »höheren Ausbildung des geniessenden Lebens«4 in seinem Muskauer Park gewidmet. Die dortigen Parkanlagen umfassten nach seinen Angaben »alles zusammen nahe an 4000 Morgen Landes«,5 was ungefähr 1000 ha entspricht. Als Pückler den Park, mit dessen Anlage er 1815 begonnen hatte, 1845 an die Grafen Nostitz und und Hatzfeld verkaufte, waren 257 ha fertiggestellt. 6 Die große Anlage gliedert sich in den wie ein Grüngürtel anmutenden, die Stadt Muskau im Westen umfangenden Oberpark, den großen Bergpark, der südwestlich daran anschließt, sowie den Unterpark, der sich östlich der Stadt erstreckt. Die Neiße teilt diesen Unterpark und ließ, nach 1945 zum Grenzfluß zwischen 1. Pückler, ein damaliger Bestsellerautor, publizierte sonst als »Verstorbener« oder als »Semilasso«, als »Halberschlaffter«. S. u.a. Briefe eines Verstorbenen, Ein fragmentarisches Tagebuch aus England, Wales, Irland und Frankreich, Teil 1 und 2, München 1830; Tutti Frutti, Aus den Papieren eines Verstorbenen, 5 Bände, Stuttgart 1834. 2. Fritz Zahn und Robert Kalwa: Fürst Pückler-Muskau als Gartenkünstler und Mensch, Cottbus 1928, S. 35. 3. Vgl. Hermann Fürst von Pückler-Muskau: Andeutungen über Landschaftsgärtnerei verbunden mit der Beschreibung ihrer praktischen Anwendung in Muskau, Stuttgart 1834. 4. Pückler-Muskau: Andeutungen, S. 13. Ich zitiere hier nach der 1977 in Stuttgart erschienenen Ausgabe. 5. Pückler-Muskau: Andeutungen, S. 84. 6. Helmut Rippl (Hg.): Der Parkschöpfer Pückler-Muskau, Weimar 1985, S. 54.

85

Gert Gröning

Deutschland und Polen geworden, so dessen östlich davon gelegene Flächen zu polnischem Staatsgebiet werden.7 Wenngleich in den vergangenen Jahren beträchtliche Anstrengungen unternommen wurden, diese Anlage wieder ihrer einstigen Gestalt näher zu bringen, so bleibt doch noch sehr viel zu tun. Wieviel das ist, wissen wir recht genau, weil Pückler verschiedene Szenen seines Parks in von August Wilhelm Schirmer (1802-1866) angefertigten Ansichten festhalten ließ.8

Die Grund-Idee In den Jahren 1814 und 1815 bereiste Pückler zum ersten Mal England und war offenbar von dem an der Themse gelegenen Richmond, »nicht etwa« von dem »Greenpark auf dem Hügel, sondern darunter« von der »Naturlandschaft – ohne ein Park zu heißen, nämlich ohne [...] einen Zaun oder eine Einfriedung zu haben«,9 besonders beeindruckt. Er besuchte Richmond auch auf seiner zweiten Reise nach England, nun mit seinem Gärtner Jakob Heinrich Rehder (1790-1852), den er nach England hatte kommen lassen, um mit ihm zusammen einige der englischen Parkanlagen zu studieren. Richmond schien ihm eine »unbeschreiblich schöne(n) Gegend«, die »Einsamkeit und Stille, verbunden mit jeder Bequemlichkeit« biete und »mächtig zum Lebensgenusse«10 einlade. Die kritische Auseinandersetzung vor allem mit den in England gesehenen Parkanlagen unterstützte die Entwicklung eines eigenen Entwurfsverständnisses für den Park in Muskau. »Dies«, so schrieb Pückler, »wird Muskau vor den Englischen Parks auszeichnen: der Abschied von den China-Tempelchen, von den neualten Ruinen, von der demonstrativen Phantasie, von EintrittsVerbot«. Damit waren, wie der Dichter Leopold Schefer (1784-1862),11 Pücklers bürgerlicher Freund und späterer Generalbevollmächtigter in Muskau,12 der 7. Vgl. Ekkehard Brucksch: »Die Entwicklung des Muskauer Landschaftsparkes nach dem Zweiten Weltkrieg, Fürst-Pückler-Park Bad Muskau – ein europäischer Landschaftspark«, in: Beiträge zur Stadt und Parkgeschichte, Nr. 15, (1998), S. 25-28. 8. Vgl. Niederlausitzer Landesmuseum Cottbus (Hg.): ParkTraumPark, A. W. Schirmer, Aquarelle und Zeichnungen zu Pücklers »Andeutungen über Landschaftsgärtnerei«, Berlin 1993. 9. Bettina Clausen/Lars Clausen: Zu allem fähig. Versuch einer Sozio-Biographie zum Verständnis des Dichters Leopold Schefer, 2 Bände, Frankfurt/Main 1985; darin Texte über das Verhältnis von Schefer zu Pückler, abgedruckt und hier danach zitiert unter der Überschrift »Der Park von Muskau oder: Fürst und Dichter« in: Frankfurter Rundschau, Montag 9. Dezember 1985, Nr. 285, S.20-21, hier S. 21. 10. Pückler in einem Brief an Lucie vom 16. Dezember 1826, in: Heinz Ohff (Hg.): Hermann Fürst von Pückler-Muskau, Briefe eines Verstorbenen, Berlin 2006, S. 513. 11. Vgl. das literarisierte Portrait von Schefer, das Pückler unter der Überschrift »Acht Frühlings- und Sommertage aus dem Leben Mischling’s. Eine wahre Geschichte, mit dem Anstrich einer Novelle« auf den Seiten 46-48 sowie 55-79 im vierten Band seines Buchs »Tutti Frutti« liefert, s. Anm. 1. Siehe auch Rudolf Wolkan: »Fürst Pückler-Muskau und Leopold Schefer«, in: Neues Lausitzisches Magazin, 62, (1886), S. 130-148. 12. Vgl. Klaus Völker: »O Mensch, so sei mit Freuden auch ein Mensch. Fürst Pückler und

86

Zum Entwurfsverständnis bei Fürst von Pückler-Muskau

ihn auf dieser Englandreise begleitete, schrieb, »alle bisherigen Grundsätze der schönen Gartenkunst geschlagen: die Gewalt an der Natur – der französische (Park) –; die freiwaltende Phantasie in der Natur – der altenglische (Park) – ci devant (ehemals, G.G.), chinesische Übertragung; und der Grundsatz der Charakteristik, den Schiller an Hirschfeld gutheißt [...]. Nicht der Natur einen Charakter aufdrücken, sondern den ihr eigentümlichen – wie bei einem zu bildenden Menschen – frei zur Schönheit entwickeln, erschien uns das Wahre; dann noch an ihren Gestalten die Wunder des Lichtes und der Schatten, des Frühling und des Herbstes, des Werdens, Dauerns und Vergehens, der Morgen- und Abendröthen usw. recht klar zur Erscheinung zu bringen«.13 Den ihr eigentümlichen Charakter der Natur wollte Pückler, wie bei einem zu bildenden Menschen, frei zur Schönheit entwickeln: Die in seiner persönlichen Ausbildung in vielerlei Weise als Unterdrückung erfahrene Erziehung sollte in der ihm durch Erbschaft zugefallenen Gegend in Muskau gleichsam kompensatorisch zur Entfaltung ihrer Schönheit gewendet werden. Bald nachdem Pückler von seiner ersten Englandreise zurückgekehrt war, machte er im Mai 1815 in Muskau unmissverständlich klar, wie er sich seinen weiteren Lebensweg dachte. Er ließ die Muskauer wissen: »Da ich von nun an entschlossen bin, für mein ganzes zukünftiges Leben meinen festen Wohnsitz in Muskau zu nehmen, um selbst für die Wohlfahrt meiner guten Bürger und Unterthanen mit väterlicher Obhut wachen zu können, und meine Einkünfte lieber Ihnen als fremden Menschen zufließen zu lassen, so zweifle ich nicht, daß jeder Einwohner dieser Stadt es mir gerne gönnen wird, bey ernster Beschäftigung auch eine Lieblingsneigung zu befriedigen, deren Ausführung jedem von ihnen gleichfalls ein Vergnügen, und jetzt sowohl als mehr noch in der Folge zum wahren Nutzen gereichen muß. Ich meyne die Anlegung meines Parks, zu dem ich nothwendig [...] den ganzen Distrikt zwischen der Straße nach Sorau und dem Dorfe Köbeln, der Neisse auf der einen und den Braunsdorfer Feldern auf der anderen Seite eigenthümlich besitzen muß. Ich bitte daher hiermit sämmtliche Bürger und Bewohner der Stadt und Schmelze, welche einzelne Felder oder Wiesen, oder Holz in dem benannten Bezirke haben, mir dieselben gegen vernünftige Bedingungen abzulassen. [...] Erfüllt die Bürgerschaft hierin meine Wünsche, so mache ich mich außerdem noch anheischig, von dem Augenblick an gerechnet, wo ich mich in völligen Besiz sämmtlicher bezeichneten Grundstücke befinde, binsein Generalbevollmächtigter Leopold Schefer in Muskau«, in: Frankfurter Rundschau, 13. Februar 1982, Feuilleton, S. III. 13. Bettina Clausen/Lars Clausen: Zu allem fähig, S. 21. Von Zeitgenossen wird Schefer in einem Atemzug mit Goethe, Schleiermacher, Schiller, Arndt, Kant, Leibniz, Heine, Jacob Böhme, Schelling, Hegel und Strauss genannt, vgl. Theodore Parker: The critical and miscellaneous writings of Theodore Parker ..., Boston, Mass. 1856, S. 32.

87

Gert Gröning

nen 6 Jahren das Rathhaus, das Köbler Thor und das Schiesshaus auf meine Kosten für die Stadt zu bauen. Im Fall aber binnen einem Jahre von dato der Ankauf dieser Grundstücke nicht zustande gekommen ist, gebe ich auch hiermit den Einwohnern Muskaus mein Wort, daß ich unabänderlich entschlossen bin, dann Muskau [...] auf immer zu verlassen und alles und jedes daselbst mit zugehörige, bis aufs Schloss selbst, zu verpachten. Hermann Graf von Pückler-Muskau«.14 Das kam einer Erpressung gleich und war ein Investitionskonzept, auf das, in gewisser Weise ähnlich, Franz von Anhalt (1740-1817) schon im ausgehenden 18. Jahrhundert bei der Anlage des Wörlitzer Gartenreichs zurückgegriffen hatte.15 Nachdem Pückler zuerst an einen Verkauf seines Erbes gedacht hatte, wollte er nun als Standesherr investieren, »den Geldumlauf erhöhen und beschleunigen [...] Lohnarbeit für Viele, Hebung der allgemeinen Kaufkraft; Investitionsanreize beim örtlichen Gewerbe« und in bester Landesverschönerungsmanier das Nützliche mit dem Schönen verbinden, indem er der Stadt ein Naturkunst-Werk geben wollte, das sie aus dem damals weit verbreiteten Schmutz und Elend für lange Zeit herausheben sollte. Als Mann, der von seinen Vorfahren »Jahrhunderte lang besessene Güter ererbt« hatte, meinte er, stehe es ihm nicht wohl an, »ihnen den Rücken zu kehren, um seinen Lebenszweck oder seine Vergnügungen in einer fremden Heimath aufzusuchen«, selbst dann nicht wenn, wie er es empfand, sich »dieses Besitzthum [...] fast von jeder äussern Annehmlichkeit entblösst« zeigte »und die Gegend ihrer ganzen Armuth und Reizlosigkeit sorglos16 überlassen worden«17 war. Das steht ganz offensichtlich Pücklers oben zitierter Drohung entgegen, Muskau zu verlassen, mit der er seine Untertanen zwang, seinem großen Plan zu folgen. Massgeblichen Anteil an dieser Entscheidung scheint sein Freund Leopold Schefer gehabt zu haben, der ihm vorschlug, »seinen trostlosen ländlichen Besitz durch einen Park zu verschönen«.18 »Eine grosse landschaftliche Garten-Anlage [...] muss«, so schreibt Pückler, »auf einer Grund-Idee beruhen. Sie muss mit Consequenz und, wenn sie

14. Bettina Clausen/Lars Clausen: Zu allem fähig, S. 21. 15. Erhard Hirsch: Dessau-Wörlitz. Zierde und Inbegriff des 18. Jahrhunderts, München 1988. 16. Als »ein merkwürdiges Beispiel der Sorglosigkeit« seiner Vorfahren führt Pückler an, »dass auf diesen Bergen, grade dem Schloss gegenüber, 50 Jahre lang die Scharfrichterei stand, deren Nähe sich, jedesmal wenn der Wind aus dem Morgen stand, auf das abscheulichste bemerkbar machte. Es hat mich mehrere Tausende gekostet, diesen ekelhaften Nachbar los zu werden« (Pückler-Muskau: Andeutungen, S. 81, Fußnote). 17. Pückler-Muskau: Andeutungen, S. 76. 18. Rolf Stets: »175 Jahre Landschaftspark Bad Muskau« in: Bad Muskau gestern und heute, 3. Bd. Muskau 1990, S. 26-34, hier S. 27.

88

Zum Entwurfsverständnis bei Fürst von Pückler-Muskau

ein gediegenes Kunstwerk werden soll, so viel als möglich nur von einer Hand angefangen und beendigt werden«.19 Durchaus selbstreferentiell meint er, »der leitende, durchbildende Gedanke« sollte »füglich [...] aus den speciellen Verhältnissen des Künstlers, aus den besonderen Umständen seines Lebens oder der früheren Geschichte seiner Familie entspringen«.20 Er beschreibt seine Grund-Idee recht präzise wie folgt: »Nachdem ich mich also mit dem geschilderten Lokal und den Möglichkeiten der Ausführung meiner Gedanken hinlänglich bekannt gemacht hatte, beschloss ich, ausser den schon bestehenden Gärten, das ganze Flussgebiet mit seinen angränzenden Plateaus und Hügelreihen, Fasanerie, Feldflur, Vorwerk, Mühle, Alaunbergwerk u.s.w., von den letzten Schluchten des sich im Süden abdachenden Bergrückens an, bis zu den Dörfern Köbeln und Braunsdorf auf der Nordseite (alles zusammen nahe an 4000 Morgen Landes) zum Park auszudehnen, und durch Hinzunahme des, sich hinter der Stadt fortziehenden Abhangs, nebst einem Theil des darauf liegenden Dorfes Berg, die Stadt selbst durch den Park so zu umschliessen, dass sie künftig mit ihrer Flur nur einen Theil desselben ausmachen sollte. Da sie eine mir bisher unterthänige, und noch immer abhängige Mediatstadt ist, so gewann ihre Hinzuziehung zu dem projektirten Ganzen eine historische Bedeutung; denn die Hauptidee, welche ich der Fassung des ganzen Planes zum Grunde legte, war eben keine andere als die, ein sinnvolles Bild des Lebens unserer Familie, oder vaterländischer Aristokratie, wie sie sich eben hier vorzugsweise ausbildet, auf eine solche Weise darzustellen, dass sich diese Idee im Gemüth des Beschauers, so zu sagen, von selbst entwickeln müsse«.21 Pückler verlangte »keineswegs, dass auch schon im Voraus der ganz genaue Plan der Ausführung bis in jedes Detail entworfen, und daran streng gehalten werde. Gerade das Gegentheil möchte«er »in gewisser Hinsicht empfehlen; denn sind auch mit der Idee die Hauptzüge des Ganzen vorher bestimmt, so soll doch während der Ausführung der Künstler sich ungezwungen den Inspirationen seiner Phantasie fortwährend überlassen, vielfach Neues auffinden, seinen Stoff im Schaffen immer noch fort studieren [...] und hiernach die früheren, einzelnen Gedanken für das detail motiviren, oder auch theilweise gänzlich verlassen, wenn ihm später bessere Einsicht wird«.22 Das steht, so meine ich, in gewissem Widerspruch zu seiner Vorstellung, man müsse »im Kunst-Interesse des Ganzen« ebenso wie »um Zeit und Geld zu ersparen« gleichsam militärisch vorgehen, »fast so, wie gute strategische Operationen die Truppen von den verschiednenen Enden alle an einem Tage zur Haupt19. 20. 21. 22.

Pückler-Muskau: Andeutungen, S. 18. Ebd. Ebd., S. 84. Ebd., S. 18.

89

Gert Gröning

Schlacht vereinigen«,23 um die Vollendung des Werks zu erreichen. Diese Vollendung »der landschaftlichen Gartenkunst«sah Pückler »nur da erreicht, wo sie wieder freie Natur, jedoch in ihrer edelsten Form, zu seyn scheint«.24 Als er seine »Andeutungen« veröffentlichte, warnte er, »dass, wer in Muskau schon jetzt ein Vollendetes, ich meine Fertiges, zu finden hoffte, sich gänzlich getäuscht sehen würde. Kaum ein Drittheil des Planes ist bis jetzt ausgeführt sichtbar«.25 Einige Jahre vorher, 1828, hatte er seine Schwester Clementine nach mehr als zehnjähriger Arbeit am Park wissen lassen: »Mein Schaffen in Muskau ist das einzige Streben meines Lebens, das ich mit vollem Gemüth umfasst habe. Es ist aber nur eine Skizze, weit, unendlich weit zurück hinter dem Kunstwerk, das in meinem Geist vollendet steht«.26

Das Bild der Landschaft und seine Kritik Kategorisch sagt Pückler von sich »nie etwas bestehen gelassen zu haben, was im Einzelnen früher verfehlt wurde«.27 Die Muskauer haben das, teilweise schmerzhaft, erfahren. So ließ er zur Anlage des Parks »eine ganze Strasse des Städtchens, die unmittelbar an« seinem »Schlosse vorbei führte« abtragen und, um seinem »Plane zu genügen, auf derselben Stelle auch noch ein(en) See« ausgraben ebenso wie »eine Menge« ihm »schon zugehöriger, weitläufiger und zum Theil sogar prächtiger Gebäude [...] so unglücklich lagen, dass ihre fernere Bestehung unzulässig wurde«.28 Auch das ihm bereits gehörende Gelände entsprach nicht überall seinen Vorstellungen. So z.B. »wurde es nöthig, aus dem Flusse, der den Park durchströmt, einen neuen Arm ableiten und ausgraben zu lassen«, um damit »über mehrere und verschiedene Wasseransichten disponieren zu können«.29 Nach dem Vorbild entsprechender Situationen im malerischen Tal des River Wye gruben 1821 die Arbeiter des örtlichen Alaunwerkes den zusätzlichen Neißelauf aus der Auenlandschaft. Pückler hatte im Tal des Wye entsprechende Studien getrieben: »Wenn ich in der Erinnerung aufsuche, was den River Wye so schön gemacht und vor so vielen anderen Flüssen den Vorzug gibt, so finde ich, daß es vorzüglich seine bestimmt gezeichneten Ufer sind, die sich nie in undeutliche Linien verflachen, noch eine nichtssagende Mannigfaltigkeit ohne Charakter darbieten; ferner 23. Pückler-Muskau: Andeutungen, S. 75. 24. Ebd., S. 76. 25. Ebd., S. 74. 26. Ludmilla Assing (Hg.): Briefwechsel und Tagebücher, Band VII, Brief vom 3.11.1828 an seine Schwester Clementine, S. 269. 27. Pückler-Muskau: Andeutungen, S. 19. 28. Ebd., S. 74. 29. Ebd., S. 74-75.

90

Zum Entwurfsverständnis bei Fürst von Pückler-Muskau

daß ihn fast immer Wald, Felsen oder Wiesen, durch Gebäude belebt, selten nur Felder und bebaute Fluren begrenzen, denn diese letzteren sind zwar eine nützliche Sache, aber nicht malerisch. Die vielen und kühnen Krümmungen machen, daß auch die Ufer sich unaufhörlich verschieben, und so aus denselben Gegenständen hundert verschiedene Schönheiten sich entfalten, wie die Stimme, nach mehreren Seiten gewandt, ein vielfaches Echo hervorruft. Beiläufig gesagt ist dies auch der Hauptgrund, warum Landschaftsgärtner gekrümmte Wege den geraden vorzogen. Diesen Gedanken hatten die Maler; nur die Pinsel machten gewundene Korkenzieher daraus, indem sie glaubten, daß ihre imaginäre Schönheitslinie, nicht die verschiedene Ansicht der Landschaft damit bezweckt werde. Da die Gegenstände, die sich den River Wye entlang darbieten, fast immer nur wenige in großen Massen sind, so bilden sie schöne Gemälde, weil Gemälde eine kürzere Abgrenzung verlangen. Die Natur schafft nach einem Maßstab, den wir in seinem Totaleffekt gar nicht beurteilen können, und dessen höchste Harmonie uns daher verlorengehen muß – die Kunst also strebt danach, nur einen Teil derselben als ein für Menschen verständliches Ganzes idealistisch zu formen, und dies ist meines Erachtens die auch der Landschaftsgärtnerei zugrunde liegende Idee«.30 Ein in den »Andeutungen über Landschaftsgärtnerei« immer wieder durchscheinendes Element pücklerschen Entwurfsverständnisses ist die kritische Auseinandersetzung nicht nur mit der eigenen Anlage, sondern auch mit dem auf Reisen Gesehenen, wie sie sich etwa in seinem Plädoyer für Mannigfaltigkeit äußert: »Spuren der Sorgfalt des Menschen und seines verständigen Wirkens« schienen Pückler »zu dauerndem Wohlbehagen« unabdingbar. »Selbst in der gemalten Landschaft«, so stellte er fest, »verlangen wir schon etwas, das an menschliches Treiben erinnert um, wie wir sagen, sie zu beleben. – Einer weit grössern Mannichfaltigkeit bedarf aber die wirkliche Landschaft, als die gemalte, und doppelt anmuthig, wie zugleich dem menschlich fühlenden Herzen wohlthätig, erscheint es uns daher, wenn wir, wie in England, in der fast überall durch Kunst idealisirten Natur nicht nur die Palläste und Gärten der Grossen in ihrer Pracht und Herrlichkeit bewundern dürfen, sondern, im harmonischen Ganzen, auch die bescheidnen Wohnungen geringer Pächter in ihrer Art ebenso reizend angelegt, und vollendet ausgeführt finden [...] Ja der Ärmste schmückt sein Strohhüttchen noch mit Blumen, und pflegt, neben seinen ökonomischen Bedürfnissen, mit Sorgfalt ein wohl eingehegtes Gärtchen, sey es noch so klein, wo nichts als sammtartiger Rasen grünt, von Rosen und Jasmin umduftet«.31 Mehr noch »kann man innerhalb des Parks 30. Heinz Ohff (Hg.): Hermann Fürst von Pückler-Muskau. Briefe eines Verstorbenen, Berlin 2006, S. 327. 31. Pückler-Muskau: Andeutungen, S. 14.

91

Gert Gröning

ein Vorwerk mit seiner angränzenden Feldflur, eine Mühle, eine Fabrick anbringen, oder hineinziehen, so wird ihm dies nur desto mehr Leben und Mannichfaltigkeit geben, die eben so sehr empfohlen, als auf der andern Seite vor Ueberladung gewarnt werden muss«.32 Anlass zur Kritik bot sich Pückler wegen des »höchst geringen Standpunctes an sich, auf welchem die Kunst der Landschafts-Gärtnerei dermalen noch in unserem Vaterlande steht«.33 Auch die seinen Schöpfungen zeitlich eine Generation vorangehenden Wörlitzer Anlagen im Gartenreich des Franz von Anhalt-Dessau34 fanden keine Gnade vor seinem kritischen Geist. Zwar nannte er in den »Andeutungen« weder Wörlitz noch Franz von AnhaltDessau beim Namen, doch lässt sich an seinen Beispielen erkennen, dass er auch daran einiges auszusetzen hat. So etwa wenn bei ihm ein »Gotisches Haus«, wie eines eben im Wörlitzer Park steht, »ein gothisches Haus, ohne allen Grund dastehend, als weil man gerade etwas Gothisches haben wollte, [...] ein unbehagliches Gefühl«35 erregte. Oder wenn er daran zweifelte, dass es der »Einbildungskraft« gelingen könnte, »einen chinesischen Turm« – damit könnte die Pagode im chinesischen Gartenteil von Oranienbaum gemeint sein –, »und etwa gar noch einen Vulkan zur Zugabe« – das betrifft den Vulkan in Wörlitz36 – »in einem Bilde« zusammenzufassen und sich sicher ist, dass »der Verstand [...] unter solchen Umständen immer an einer Art künstlerischer Indigestion leiden müsse«.37 Wenn man freilich, wie Pückler auf seinem Gelände, »eine Art kleinen Vulkan, jedoch keinen künstlich gemachten« hat, nämlich »einen Erdbrand, der durch fortwährenden Rauch und zuweilen aufsprühende Flämmchen die unterirdische Gluth eines Braunkohlenlagers anzeigt«, 38 kam ihm das gelegen, weil das sehr zum »Contrast« beiträgt. Die Kritik machte auch vor den von Pückler in mancherlei Weise als Vorbilder angesehenen englischen Beispielen nicht Halt. Die von ihm gerügte »Unschicklichkeit [...] wenn, bei’m Sitze des Luxus und der Pracht, von aussen die Kühe die Glasthüren einstossen können«, bezieht sich wahrscheinlich auf das Blenheim der Herzöge von Marlborough nahe dem Ort Woodstock, in dem erstmals die Weide bis unmittelbar an das Schloss herangeführt worden war, so dass man die Kühe, im Zimmer des Schlosses bei der Kaffeetafel sitzend, vor den Fenstern grasend beobachten konnte.39 32. Pückler-Muskau: Andeutungen, S. 31. 33. Ebd., S. 15. 34. Vgl. Erhard Hirsch: Dessau-Wörlitz. 35. Pückler-Muskau: Andeutungen, S. 28. 36. Vgl. Annette Dorgerloh: »Er ist ein Effektstück – Der Vesuv in der Kunst und Gartenkunst um 1800«, in: Anzeiger des Germanischen National-Museums, Nürnberg 1997, S. 71-86. 37. Pückler-Muskau: Andeutungen, S. 31-32. 38. Ebd., S. 132. 39. Vgl. A new description of Blenheim, the seat of his Grace the Duke of Marlborough:

92

Zum Entwurfsverständnis bei Fürst von Pückler-Muskau

Allein die Entwurfsarbeit von Peter Joseph Lenné (1789-1866), dem preußischen Gartendirektor, fand Gnade vor Pücklers kritischem Blick. An den von Lenné entworfenen »Königlichen Anlagen [...] welche grossartig ganz Potsdam mit einem weiten Parke umschliessen sollen« und dessen in der Größenordnung mit Muskau durchaus vergleichbarem Plan für die Verschönerung der Insel Potsdam sowie der »vortrefflichen Anlage der Landesbaumschule in Potsdam«40 hatte er nichts auszusetzen.41 So ganz uneingeschränkt will mir Pücklers Lob für Lenné jedoch nicht scheinen. Lenné war ein königlicher Beamter, für Pückler ein »Garten-Director«, dem er »nur die technische Ausführung eigner Ideen übergeben« hätte, damit der sein »aus innerster Individualität entsprungenes, mit dem eignen Gemüth gebildetes Kunstwerk«42 ausgeführt hätte. Bei seinen Anlagen nahm Jacob Heinrich Rehder (1790-1852),43 der von 1817 bis zu seinem Tod zunächst als Obergärtner und später als Parkinspektor tätig war, diese Position ein. Neben dem sorgfältigen und kritischen Studium der Natur und vorhandener Garten- und Parkanlagen verweist Pückler im Zusammenhang mit dem Entwerfen auf das »ernste Studium der besten Werke über die Gartenkunst in ihrem weiteren Sinne«, vermeidet allerdings, allzuviele zu benennen. Er erwähnt en passant die Briefe, »welche Plinius von seinen Villen uns hinterlassen hat«,44 und sicher zählte Pückler zu den besten Werken auch die von Humphry Repton (1752-1818) verfassten ›Red Books‹,45 wollte er doch seine »Andeutungen« »in der Repton’schen Manier, wie es war und ist«46 herausgeben. Auch der von Pückler gewählte Titel »Andeutungen über Landschaftsgärtnerei« lässt Containing a full and accurate account of the paintings, tapestry, and furniture; a picturesque tour of the gardens and park: and a general description of the China Gallery, etc. With a preliminary essay on landscape gardening, Oxford, UK: 101817. Vgl. Robert und Monica Beckinsale: The English Heartland, London 1980, S. 186. 40. Vgl. Peter Joseph Lenné: »Grundzüge der Einrichtung einer Landes-Baumschule bei Potsdam«, in: Verhandlungen des Vereins zur Beförderung des Gartenbaues in den Königlich Preußischen Staaten, 1 (1824), S. 27-33. 41. Im übrigen plädierte Pückler für eine »Baum-Universität – für gross zu versetzende Bäume«, die er im östlichen Teil des Muskauer Parks auch einrichtete; Pückler-Muskau: Andeutungen, S. 44. Vgl. Helmut Rippl: »Zur Gehölzverwendung in den Pücklerschen Parken«, in: Beiträge zur Gehölzkunde 1985, Berlin 1985, S. 9-13. 42. Pückler-Muskau: Andeutungen, S. 15. 43. Eine biographische Notiz zu Rehder findet sich bei Helmut Rippl: »Jacob Heinrich Rehder – eine Lebensskizze«, in: Beiträge zur Stadt- und Parkgeschichte Bad Muskau, Nr.7 (1990), S. 7-12. 44. Pückler-Muskau: Andeutungen, S. 22. Plinius der Jüngere lebte von 62 bis 113 oder 115 n.d.Zw. 45. Humphry Repton: The Red Books for Brandsbury and Glemham Hall with an introduction by Stephen Daniels, Dumbarton Oaks Reprints and Facsimiles in Landscape Architecture III, Washington, D.C. 1994. 46. Ludmilla Assing (Hg.): Briefwechsel und Tagebücher, Band VI, 1873-76, Brief an seine Frau Lucie vom 24.12.1825, hier S. 277.

93

Gert Gröning

auf Repton schliessen, der 1795 Auszüge von seinen Vorschlägen für verschiedene Anlagen unter dem Titel »Sketches and Hints on Landscape Gardening« in London als Buch veröffentlicht hatte. Ansonsten schien Pückler von den zeitgenössischen »Gartenschriftstellern« nicht allzuviel zu halten.47

Licht und Perspektiven Einen spezifischen Einblick in sein Entwurfsverständnis erlaubt Pücklers Vorgehen bei Gruppenpflanzungen. Er schlug vor, »zuerst abgehauene Bäume oder Reiser eingraben zu lassen« und zwar so lange, »bis reifere Erfahrung einen richtigen Takt gewährt, und die Einbildungskraft gewöhnt wird, sich das zu entwerfende Bild schon vorher genau im Geiste hinmalen zu können«, dabei nehme man »nur Hauptpunkte an, prüfe von diesen aus allein, und verhindere durch die Führung der Wege, dass der Beschauer auf die ungünstigen Orte geleitet werde«.48 In diesem Zusammenhang scheint mir ein Aspekt des Entwerfens bei Pückler bemerkenswert. Es ist die Dimension des Lichts. So müsse sich der Gartenkünstler »die rohe vor ihm liegende Natur bei jeder verschiedenen Beleuchtung (denn mit schöner Beziehung ist das Licht eins seiner Haupt-Materiale) innerhalb und ausserhalb des Bezirks seiner kleinen Schöpfung beobachten, Ursache und Effect ergründen, und hiernach die früheren, einzelnen Gedanken für das detail motiviren«.49 Dabei vergleicht sich Pückler mit dem Maler, »der ja ebenfalls von Zeit zu Zeit an seinem Gemälde, das doch so unendlich weniger mannichfaltig ist, dies und jenes ändern, diese Stellung gefälliger oder naturgemässer machen, hier eine Schattierung verbessern, dort jenem Zuge mehr Ausdruck geben müsse(n)«.50 Dies wollte er jedoch nicht nur auf die Stellung von Bäumen und Sträuchern sondern auch auf die Stauden bezogen wissen. »Die Beleuchtung der Blumen durch die sie umgebenden Gegenstände ist ein Hauptpunkt. Eine Rose im Schatten und eine Rose im Sonnenlicht bieten ganz verschiedene Farben dar, noch mehr die blauen Blumen. Besonders auffallend aber ist der Effect den man hervorbringt, wenn man durch die Einfassung dunkler Schatten ein helles Sonnenlicht auf volle weisse Blumen unter einer Mischung bunter fallen lässt«.51 Auf einer nur teilweise aquarellierten Bleistiftzeichnung lässt sich erkennen, wie genau über die Lichteffekte nachgedacht wurde (Abb. 1). In der Dar47. 48. 49. 50. 51.

Vgl.. z.B. Pückler-Muskau: Andeutungen, S. 46. Pückler-Muskau: Andeutungen, S. 47. Ebd., S. 18. Ebd. Ebd., S. 33.

94

Zum Entwurfsverständnis bei Fürst von Pückler-Muskau

stellung taucht mehrfach das Wort ›Licht‹ auf. Von links nach rechts im Bild, zuerst zwischen den beiden Baumstämmen über dem Hortensienbeet, dann rechts von den beiden Baumstämmen knapp unterhalb des Wegs zur Brücke und noch einmal etwas weiter rechts, knapp über dem Weg zur Brücke. Das Wort Licht findet sich noch einmal rechts im Bild unter dem Baum bei der Nummer 8, die in der Erläuterung, für mich nicht eindeutig lesbar, ›Licht-...‹ angibt. Schliesslich steht das Wort Licht auch noch bei der Nummer 7 links unten im Bild, die mit den Worten »Gräser plan, ganz im Schlagschatten« erläutert wird. Dieser Blick, so schreibt Pückler in seinen Andeutungen, ist der letzte »in die bunten Farben des blauen Blumengartens [...] mit welchem man« am Ende der von ihm vorgeschlagenen »Erste(n) Spazierfahrt« durch den Park »für dieses Mal von allen Park- und Gartenscenen Abschied nimmt«.52

Abb. 1: Blauer Blumengarten, Bleistift, nur teilweise aquarelliert, 250 x 355 mm, Ränder beschnitten, Inv. Nr.: VIII 1.156/P. - Aus: Fürst-Pückler-Museum Schloß Branitz (Hg.): ParkTraumPark. A.W. Schirmer. Aquarelle und Zeichnungen zu Pücklers ›Andeutungen über Landschaftsgärtnerei‹, Cottbus 1993, S. 99.

Es ist jedoch nicht allein der Lichteinfall, der den Entwurfsprozess Pücklers beeinflusste. Für ihn sind, den Farben des Malers vergleichbar, »Rasen, Wasser und Fluren, als selbst keine Schatten werfend, sondern nur solche von andern Gegenständen aufnehmend«, die Gartenelemente, mit denen er überall in 52. Pückler-Muskau: Andeutungen, S. 128.

95

Gert Gröning

dem Gemälde«, sprich im Park und in den Gärten, »Licht [...] zweckmässig«53 verteilen konnte. Deren Wirkung kann, etwa beim Wasser, gesteigert werden, wenn bisweilen »der Sonne Licht voller Eintritt gestattet«54 wird, denn, so führte er aus, »ein ganz schwarz schattirter See verliert an seiner Wirkung ungemein, und nur vom Lichte hell bestrahlt, entfaltet das Wasser all seinen magischen Reiz und zeigt bis zum Grunde seine Spiegelbilder in durchsichtiger Silberklarheit«.55 Wie wesentlich solche Überlegungen zum Licht beim Entwurf von Landschaftsgemälden sein können, hat Busch an Bildern des Malers Caspar David Friedrich (1774-1840) aufgezeigt.56 Am Beispiel der von Friedrich angewandten Lasurtechnik und nicht zuletzt am Beispiel von Baumstudien konnte er zeigen, welche Bedeutung Friedrich dem Lichteinfall und der Wirkung des Lichts beimaß. Als textliche Leitlinie für solche Entwurfsüberlegungen gilt die über 600 Seiten umfassende Abhandlung »Éléments de Perspective Pratique à l’Usage des Artistes. Suivis de Réflexions et Conseils à un Elève sur la Peinture et particulièrement sur le Genre du Paysage«, die Pierre Henri Valenciennes (1750-1819) im Jahr 8 der französischen Revolution, also 1800, in Paris veröffentlichte.57 Das letzte Kapitel widmete Valenciennes den Gärten. Friedrich scheint die Abhandlung des auch als »David der Landschaft«58 bezeichneten Valenciennes gekannt zu haben. Warum sollte sie nicht auch dem nur zehn Jahre jüngeren Pückler geläufig gewesen sein? Eduard Petzold (1815-1891), 59 der als Nachfolger von Rehder von 1852 bis 1872 in Muskau als Garteninspektor tätig war, kannte die Darstellung von Valenciennes, zumindest als deutsche Übersetzung unter dem Titel »Practische Anleitung zur Linear- und LuftPerspective« offenbar recht gut.60

53. Pückler-Muskau: Andeutungen, S. 27. 54. Ebd., S. 63. 55. Ebd., S. 64. 56. Werner Busch: Caspar David Friedrich, Ästhetik und Religion. München 2003. 57. 2003 erschien ein Reprint in Frankfurt/Main. Vgl. Simone Schultze: Pierre-Henri de Valenciennes und seine Schule: »Paysage historique« und der Wandel in der Naturauffassung am Anfang des 19. Jahrhunderts, Europäische Hochschulschriften, Frankfurt/Main 1996. 58. Dieser Verweis bezieht sich auf den Historien- und Hofmaler Napoleons, Jacques-Louis David (1748-1825). 59. Zum Leben und Werk von Petzold vgl. Michael Rohde: Von Muskau bis Konstantinopel, Eduard Petzold, ein europäischer Gartenkünstler, 1815-1891, Stiftung Fürst-Pückler-Park Bad Muskau (Hg.), Muskauer Schriften, Band 2, Dresden 1998. 60. Eduard Petzold: Beiträge zur Landschaftsgärtnerei, Weimar 1849, S. 10. Es heißt dort: »Unter den vielen Lehrbüchern über die Perspective sind die bekanntesten: Beuther, kurze Anweisung der Liniar-Perspective, Hummel, die freie Perspective, J. H. Lambert’s freie Perspective, Valenciennes practische Anleitung zur Linear- und Luftperspective, C. A. Nilson, Anleitung zur Linear-Perspective«.

96

Zum Entwurfsverständnis bei Fürst von Pückler-Muskau

Bei den Entwurfsüberlegungen für »eine der grössten Schwierigkeiten bei allen Pflanzungen«, »die Form der äussern Linien [...] nämlich diesen eine natürliche und dem Auge wohlgefällige Schwingung zu geben«,61 verwies Pückler darauf, dass man »gewöhnlich [...] die Umrisse durch Stäbe« andeutet, »die man neben einander in kurzen Distancen in die Erde steckt. Einen bessern Vortheil zur eignen Beurtheilung der gegebnen Form« gewähre »es noch, nach der Absteckung mit auf den Rasen gelegten Stricken die Gestalt zu bezeichnen, und diese Linie dann im Erdboden furchen zu lassen. Dadurch« erhalte »man sogleich ein sehr in die Augen fallendes Bild, wie sich die Pflanzung ausnehmen wird, und kann leicht das Fehlerhafte verbessern«.62 Wer nach der Herkunft solcher Entwurfstechnik fragt, dem gibt Pückler gleich die Antwort: »So zeichnet auf ähnliche Weise der Maler in die Quadrate seines Netzes«.63 Und entsprechende Hinweise finden sich auch bei Humphry Repton.64 Mit den Quadraten des Netzes ist das sogenannte Albertische Fenster gemeint, das Leon Battista Alberti (1404-1472) 1436 in seiner Abhandlung »Della Pittura« beschrieb.65 Alberti hatte darin die Definitionen Euklids für einen Fluchtpunkt und Fluchtlinien aufgegriffen und gezeigt, wie man mit einer schlichten geometrischen Formel eine perspektivisch zutreffende Wiedergabe von Gegenständen in einem Bild ereichen konnte. Von einer Plandarstellung, wie sie vielfach im Verlauf der professionellen Entwicklung in der Gartenkultur und Freiraumentwicklung zum fast alleinigen Standard geworden ist, hielt Pückler gar nichts. »Die Schönheit einer wirklichen Landschaft ist«, so bemerkte er, »selbst nach einem möglichst treuen Gemälde, nur theilweise, nach einer Carte aber gar nicht zu beurtheilen, und ich möchte im Gegentheil dreist behaupten, dass (ausser in einer ganz platten Gegend ohne Aussicht, wo überhaupt nur sehr wenig geleistet werden kann) ein dem Auge ganz wohlgefälliger Plan, mit stets angenehm darauf hingeführten Linien, keine schöne Natur darstellen könne, denn um in dieser eine schöne Wirkung hervorzubringen, muss man gerade oft die auf dem Papier am schroffsten und ungeschicktesten sich ausnehmenden Verbindungen wählen«.66 Bei der Darstellung der möglichst treuen Gemälde versicherte sich Pückler der Hilfe berühmter Freunde, so etwa des Architekten Karl Friedrich Schinkel

61. Pückler-Muskau: Andeutungen, S. 50-51. 62. Ebd., S. 51, Fußnote. 63. Ebd. 64. Vgl. George Carter/Patrick Goode/Kedrun Laurie: Humphry Repton. Landscape Gardener 1752-1818, London 1983. 65. Vgl. Oskar Bätschmann/Sandra Gianfreda (Hg.): Leon Battista Alberti: Della Pittura/Über die Malkunst, Darmstadt 2002. 66. Pückler-Muskau: Andeutungen, S. 19-20.

97

Gert Gröning

(1781-1841), »dessen überall durchgebildete Geisteshaltung« er als ein »herrliches Kunstwerk«67 empfand.68 Was das Entwurfsverständnis insgesamt angeht, so könnte sich Pückler hier, zumindest in der Theorie, an der Antike orientiert haben. Für ihn galt das Prinzip »nonum prematur in annum«, d.h. etwas konzipieren und bis zum neunten Jahr verschlossen zu halten. Nach diesem Prinzip hatten einst römische Schriftsteller, so z.B. Horaz (65-8 v.u.Z.),69 gearbeitet. Ob Pückler sich danach richtete, ist unklar. In den »Andeutungen über Landschaftsgärtnerei« machte er keine Ausführungen dazu. Es scheint vielmehr so, als ob er diese neun Jahre als die Zeit ansah, in der man »nicht mit Corrigieren und Feilen zu ruhen«70 habe, bis etwas Vollkommenes entstanden sei. Hier taucht bei Pückler ein weiterer, aus der »ars poetica« von Horaz bekannter Begriff, die »limae labor«,71 die Arbeit des Feilens, auf. Pückler vertrat die Aufassung, sie sei solange nötig, »bis man endlich das möglichst Beste als dabei fest zu Haltendes erreicht hat, welches oft die Zeit erst deutlich einzusehen lehrt« und fuhr fort, es sei »diese uns oft so lang werdende Zeit, deren Erfolge zu beobachten und zu berechnen, andere Künstler durch unbeschränkte Herrschaft über das ihnen zur Ausführung an die Hand gegebene Material glücklich überhoben sind«.72 In diesem Zusammenhang verwies er darauf, dass sich in Muskau »viele Parthieen [...] befinden, die nicht nur retouchiert, sondern oft gänzlich, einmal, ja drei und viermal umgeändert worden sind«.73 Das dafür notwendige Instrument war allerdings nicht die Feile sondern die Axt. Insofern würde ich den Terminus der ›limae labor‹ in der Pücklerschen Gartenkunst durch den der ›asciae labor‹ ersetzen wollen. Dies umso mehr als Pückler in seinen »Andeutungen« im letzten Abschnitt unter der Überschrift »Erhaltung« ausführt, »das Hauptwerkzeug des Erhaltens und Fortarbeitens aber ist die Axt«.74 Die Notwendigkeit des Umgangs mit diesem Entwurfswerkzeug verdeutlichte Pückler im weitaus umfänglichsten Kapitel 67. Pückler-Muskau: Andeutungen, S. 119. 68. Schinkel hatte Pückler Muskau erstmals 1811 auf der Reise nach Dresden und Prag besucht; vgl Andreas Haus: Karl Friedrich Schinkel als Künstler, Annäherung und Kommentar, München 2001, S. 28. 69. Der Originaltext in Horaz’ Epistula ad Pisones, Zeilen 386-390, der später als »Ars Poetica« bekannt wurde, lautet: Siquid tamen olim / scripseris, in Maeci descendat iudicis auris / et patris et nostras, nonumque prematur in annum / membranis intus positis; delere licebit / quod non edideris; nescit uox missa reuerti. 70. Pückler-Muskau: Andeutungen, S. 19. 71. Der Originaltext in Horaz’ Epistula ad Pisones, Zeilen 290-292, lautet: Nec virtute foret clarisve potentius armis / quam lingua Latium, si non offenderet unum / quemque poetarum limae labor et mora. 72. Pückler-Muskau: Andeutungen, S. 19. 73. Ebd. 74. Ebd., S. 71.

98

Zum Entwurfsverständnis bei Fürst von Pückler-Muskau

der »Andeutungen«, in dem es um »Versetzung grösserer Bäume und ihre Gruppirung, Pflanzungen überhaupt« geht. So erläuterte er z.B., »dass man Haine am schönsten aus geschlossenen Beständen später bildet, wenn ihr Wachstum den passenden Zeitpunkt erreicht hat, und sie bis dahin zweckmäßig behandelt worden sind«.75 In diesem Zusammenhang formulierte Pückler auch einen wesentlichen Unterschied zwischen der Gartenkunst und den anderen Künsten: »Wir sind nämlich nicht im Stande in der landschaftlichen Gartenkunst ein bleibendes fest abgeschlossenes Werk zu liefern, wie der Maler, Bildhauer und Architekt, weil es nicht ein todtes, sondern ein lebendes ist, und gleich den Bildern der Natur auch die unsrigen, wie Fichte von der deutschen Sprache sagte: immer werden, und nicht sind – d.h. nie still stehen, nie ganz fixirt und sich selbst überlassen werden können. Es ist also eine leitende, geschickte Hand Werken dieser Art fortwährend nöthig«.76 Die Einsicht in die Endlichkeit allen irdischen Seins ließ Pückler hoffen, auch nach seinem Tod irgendwie weiterschaffen zu können. Zeitlebens hatte er es kaum erwarten können, bis im Frühjahr wieder Pflanzzeit war. Zwei Jahre vor seinem Tod schrieb er in einem Brief an Ludmilla Assing: »Komme ich in den Himmel (was ich nach Zoroasters Aussage durch meine unermeßlichen Pflanzungen besser verdiene als durch 100 000 Gebete) so bitte ich einen seligen Erzengel um einen Urlaub incognito«.77 Ausdruck dieser Hoffnung, nach dem Tod zumindest incognito die eigenen Schöpfungen noch einmal sehen zu können, mag auch der aus dem Koran stammende Satz »Gräber sind die Bergspitzen einer fernen neuen Welt« sein,78 den er in die Ostseite eines Geländers einschreiben ließ, das die Landpyramide im Branitzer Park krönt.

In Pücklers Nachfolge Wahrscheinlich durchaus im Sinne von Pückler haben sich vor kurzem auf polnischer und deutscher Seite Fachleute zusammengetan,79 die sich Gedanken machen, wie durch eine grenzüberschreitende Zusammenarbeit im europäischen Rahmen für die Region Neiße eine Zukunftsperspektive ins 21. Jahrhundert entwickelt werden kann.80 Konkret handelt es sich 75. Ebd., S. 75. 76. Ebd., S. 70. 77. Ludmilla Assing (Hg.): Briefwechsel und Tagebücher, Band IV, Brief vom 17.8.1869, S. 176. 78. Ohne näheren Verweis bezeichnen Zahn und Kalwa diesen Satz als »Koranspruch«, vgl. Zahn und Kalwa: Fürst Pückler-Muskau, S. 198. 79. Auf polnischer Seite ist es das Zentrum zum Schutz der Historischen Landschaft, Warschau, auf deutscher Seite ist es die Stiftung Fürst-Pückler-Park Bad Muskau. 80. Vgl. Bohdan Gruchman und Franz Walk: »Transboundary Cooperation in the Polish-

99

Gert Gröning

um das erste Jahrzehnt des 21. Jahrhunderts (2000-2010). In einem dazu herausgegebenen Faltblatt heisst es diesbezüglich: »Die 22 registrierten Projekte der Internationalen Bauausstellung Fürst-Pückler-Land gruppieren sich um neun sogenannte ›Landschaftsinseln‹. Diese Einteilung dient der Hervorhebung des vorrangigen landschaftsgestalterischen Ansatzes der IBA, der auf innovative Weise die Transformation der Bergbaufolge in eine attraktive Tourismuslandschaft fördert«.81 Dabei fungieren der Muskauer Park, der Park des Herrn Rötschke in Kromlau82 und das Gelände um das ehemalige Jagdschloss Pücklers als Kernbereiche. Daran schließen weitere sogenannte Kulturlandschaften an. Dazwischen liegen die Neißeauen und -terrassen. Der zukünftigen Gestaltung harren insbesondere die derzeit noch aktiv betriebenen Tagebaugebiete. Ganz im Sinne Pücklers wird auch hier von einer Grundidee gesprochen. Diese Grundidee »sieht vor, die [...]Landschaftsräume beiderseits der Neiße mit dem kulturlandschaftlichen Kernbereich zwischen Bad Muskau und Kromlau und der in den nächsten Jahren entstehenden Rekultivierungslandschaft zwischen Boxberg/Nochten und Weißwasser zu einem zusammenhängenden Referenzprojektgebiet der IBA mit einem vielfältigen Spektrum unterschiedlichster Landschaftstypen zu verbinden«.83 Teil dieses in der Entwicklung befindlichen Projekts wird der »Fürst-PücklerRad- und Kutschweg« sein, ein Weg, der den Muskauer und den Branitzer Park bei Cottbus sowie weitere Orte der Pückler-Saga miteinander verbinden wird. Die vielen mit diesen in Pücklers Nachfolge stehenden Überlegungen mögen dazu beitragen, postum Pücklers Hoffnung zu enttäuschen, seine Ausführungen, die er meinte zumindest teilweise voreilig und zu kurz gemacht zu haben, würden binnen zehn Jahren »bereits als unnütz erscheinen«. 84

German Border Region«, in: Institute for Regional Development and Structural Planning (IRS) (Hg.), Regio, No 9, Erkner 1996, S. 129-138; darin der Hinweis auf »The Euroregion Neiße-Nysa« auf S. 132-133, die im Februar 1992 mit Sitz in Zittau, Sachsen, begründet wurde. 81. Stiftung Fürst-Pückler-Park Bad Muskau, WESDA GmbH (Hg.): Faltblatt IBA Projekt »Muskauer Kulturlandschaft«, Cottbus 2001, S. 1. 82. Vgl. Gert Gröning: »Der grottesque Park des Herrn Röttschke in Kromlau«, in: Stadt und Grün, 46 (1997), 6, S. 414-417. 83. Stiftung Fürst-Pückler-Park Bad Muskau, WESDA GmbH (Hg.): Faltblatt IBA Projekt, S. 1. 84. Pückler-Muskau: Andeutungen, S. 31, Fußnote.

100

II. VERFAHREN

Entwerfen zwischen Raum und Fläche WOLFGANG PIRCHER

Das Deutsche Wörterbuch der Brüder Grimm verweist im Eintrag »Entwerfen« auf zwei lateinische Wörter: adumbratio, das Umriss und Skizze bedeutet, sowie auf informatio, das wiederum ein Bild in der Vorstellung hervorrufen bedeuten kann. Unter dem etwas ungewöhnlichen Wort »Entwerfer« wird ein ebenso ungewöhnliches Wort von Goethe angeführt, nämlich »skizzisten«. Unter »Entwerfkunst« schließlich wird auf das griechische Wort diagraphice verwiesen und diagraphé heißt im Griechischen das Entwerfen einer Zeichnung oder geometrischen Figur.1 In diesem Bedeutungsfeld möchte ich mich bewegen.

Architekt und Ingenieur Peter Greenaways Film »The belly of an architect« zeigt uns die letzten neun Monate im Leben eines amerikanischen Architekten in Rom, der dort eine Ausstellung über Etienne-Louis Boullée plant. Nachdem er auf der Hinfahrt seine Frau geschwängert hatte, bläht sich in der Folge auch sein Bauch in kuppelförmiger Manier auf, ganz so wie wenn der Kenotaph für Newton, den man ziemlich am Anfang des Films als Tortenmodell zu sehen bekam, nun, gegessen, seltsame Wirkungen hätte. Wie man weiß, war Boullée ein Architekt, der sich vorzüglich im Entwerfen übte, weniger im Bauen selbst.2 Sodann war er Lehrer an der französischen Ingenieurschule, die für Brücken und Straßen zuständig war, der École des Ponts et Chaussées. Diese älteste und renommierteste zivile Ingenieurschule Frankreichs lässt uns die Trennung von Architekten und Ingenieuren erkennen, wie sie im Laufe des 18. Jahrhunderts erfolgte, noch vor dem eigentlichen Maschinenzeitalter. Heute verwundert ja 1. Jacob und Wilhelm Grimm: Deutsches Wörterbuch, Band 3, Leipzig 1862 (Nachdruck München 1984), Sp. 655f. 2. Vgl. Philippe Madec: Etienne-Louis Boullée, Basel, Boston, Berlin 1989, S. 47, der betont, dass Boullées Hauptarbeiten im Stadium des Entwurfs bleiben, »sie bleiben auf dem Papier, als Texte, als Zeichnungen.« Madec führt das auf den Anspruch Boullées zurück, in der Rivalität mit den Ingenieuren der Architektur eine theoretische Basis zu geben (Vgl. Philippe Madec: Etienne-Louis Boullée, S. 12).

103

Wolfgang Pircher

eher die ehemals große Nähe, oftmals sogar die Personalunion von Architekt und Ingenieur, wie sie über die zwei Seiten der Architektur, die zivile und die militärische vermittelt wurde. Die Trennung, wie sie idealtypisch am französischen Beispiel nachvollzogen werden kann, gibt dann auch Betrachtungen über Entwerfen und Konstruieren Raum, also dem Versuch, ebenso idealtypisch Kulturtechniken zu beschreiben, die sich entlang dieser Trennung ausdifferenziert haben. Frankreich ist auch deswegen ein gutes Beispiel, weil hier der moderne Ingenieur erfunden wurde, als eine Figur, die sich so weit wie möglich von der handwerklichen Tradition abwendet und der wissenschaftlichen Begründung der eigenen Tätigkeit zuneigt, diese schließlich auch lehrbar macht und in später berühmten Schulen den Nachwuchs ausbildet.

Revolutionäre Architektur Die Revolution wird schließlich den Ingenieur privilegieren, eine Entwicklung, die sich auf verschiedenen Ebenen schon im Ancien Régime angebahnt hatte, wo die Voraussetzungen dafür geschaffen wurden. Diese lassen sich mit dem Aufschwung einer technologischen Rationalität, auf einem Fundament von Mathematik und Physik aufgerichtet, kurz umreißen, eine Entwicklung, die 1788 in Lagranges Mécanique analytique kulminiert. Dagegen verliert die Architektur diese Bezüge immer mehr, auch weil ihr prominenter sozialer Adressat, die höfische Gesellschaft, daran weniger Interesse zeigt, als die aufstrebende Bourgeoisie, für die Rechnen immer schon ein unverzichtbares Element des Fortschritts war. Wenn auch die Analysis die große mathematische Mode wurde im Frankreich der Aufklärung, allgemeines Verständigungsmittel war sie nicht. Das war die Zeichnung. Diese diente dem Architekten wie dem Ingenieur zur Kommunikation mit dem Auftraggeber wie mit dem Ausführenden, wie sie gleichzeitig Medium des Entwerfens und der Konstruktion war. Daneben war sie noch ein Disziplinierungsmittel, wie sie in den im 18. Jahrhundert entstehenden Zeichenschulen gelehrt wurde, um gleichsam dem Kopf des Architekten und Ingenieurs eine ausführende Hand beizugesellen, die auch Zeichnen kann und also Zeichnungen zu lesen versteht. Entsprechend der allgemeinen Tendenz der Verwissenschaftlichung der Technik nimmt es nicht wunder, wenn auch das Medium der Zeichnung dem unterworfen wird. In ihrer Wertschätzung jedenfalls trafen und treffen sich Architekten und Ingenieure. Der große Architekturtheoretiker des 18. Jahrhunderts, Jacques-Francois Blondel, unterstellt dem Architekten, dass er von der Berechnung zum Entwurf, von der Zeichnung zur Perspektive, zurück zum Ornament und schließlich zur Landschaft überzugehen habe. Während Blondel das Bauwerk in der Landschaft ästhetisch zu positionieren versucht, taucht in eben dieser Landschaft die Figur des Ingenieurs auf. In gewisser Weise hat er sich schon darin 104

Entwerfen zwischen Raum und Fläche

aufgehalten, allerdings versammelt um befestigte Plätze, also Städte und militärische Einrichtungen. Dort hat er die Mauerwerke der trace italienne aufgerichtet, also das aufwendige Bastionensystem, das Vauban, Marschall Ludwigs XIV., wissenschaftlich zu perfektionieren versprach, und zwar sowohl das Bauen wie das Belagern solcher Bauwerke. Dazu diente ihm ein Ingenieurkorps, dass sich auf das Vermessungswesen, das Organisieren der Grabungsarbeiten, das Konstruieren der Mauernsysteme verstand. Aber diese Ingenieure, also die Militärarchitekten, waren an der Landschaft selbst nicht interessiert. Diese, also der Zwischenraum, wurde zum Betätigungsfeld der Ingenieure der École des Ponts et Chaussées, die 1747 gegründet wurde, deren Korps aber schon seit 1716 bestanden hatte. In das Jahr 1747 fällt die Reorganisation dieser Schule unter dem Brückenbauer Jean-Rodolphe Perronet, der zuvor als Architekt in Paris gearbeitet hatte und diese Schule bis zu seinem Tod 1794 leiten wird. Kurz vor dieser Reorganisation wird 1744 in Paris ein Zeichenbüro eingerichtet, das eine zentrale Überwachungsinstitution für die Planungsaufgaben darstellt. In ihr spielte sich die Ausbildung der Ingenieure für öffentliche Arbeiten ab. Aber das radikal Neue dieses Zeichenbüros bestand mehr darin, dass hier erstmals eine staatliche technische Struktur geschaffen wurde, deren Kompetenz sich über das ganze Land erstreckte. Von hier aus wurde das Land dem Zentrum gleichsam zeichnerisch erschlossen, hier kam es also zum Zusammenschluss von Technik und Ökonomie, letztere unter den Auspizien der Physiokraten.3 Man könnte sagen, das Land wird als nützliches Territorium neu entworfen, die Natur einem Kalkül zugänglich gemacht. Das ist nicht möglich, ohne eine handhabbare Repräsentation des Territoriums zur Verfügung zu haben, eben die Karten. Ab nun stehen die Ingenieure auf der Seite des Nützlichen und nicht auf der Seite des Schönen bzw. der convenance der Architekten. Das hindert aber nicht, die Schönheit ihrer Zeichnungen zu bewundern, die übrigens, wie Antoine Picon betont hat, denen der Architekten in hohem Maße ähneln.4 Das sind zunächst natürlich alle Arten von Landkarten. Sodann Zeichnungen jener technischen Objekte, die die Landschaft unter ökonomischen Gesichtspunkten erschließen helfen, eben Straßen, die im 18. Jahrhundert an Bedeutung gewinnen und im 19. Jahrhundert zu einem Straßennetz ausgebaut werden, das zum dichtesten in Europa zählt,5 sowie Brücken und Hafenanlagen. Die Landkarte war das wichtigste Werkzeug der Ingenieure, sie zeichnen zu lernen war gleichzeitig 3. Vgl. Antoine Picon: »Die Ingenieure des Corps des Ponts et Chaussees. Von der Eroberung des nationalen Raumes zur Raumordnung«, in: André Grelon, Heiner Stück (Hg.): Ingenieure in Frankreich, 1747-1990, Frankfurt/Main, New York 1994, S. 79-99. 4. Antoine Picon: French Architects and Engineers in the Age of Enlightenment, Cambridge: Cambridge University Press, 1992, S. 115. Beispiele davon finden sich in Antoine Picon, Michel Yvon: L’ingénieur artiste. Dessin anciens de l’Ecole des Ponts et Chaussées, Paris 1989. 5. Antoine Picon: Die Ingenieure des Corps des Ponts et Chaussees, S. 85.

105

Wolfgang Pircher

eine Einführung in die Grundelemente der Ingenieurskunst. Am Vorabend der Revolution bezogen sich die Ingenieure, als Staatsingenieure vorzüglich auf das Territorium, dementsprechend war die Kartographie die Grundlage seiner Erschließung, weil es noch keine anderen Instrumente für die Berechnung und Statistik der ökonomischen Aufschließung gab. Die Ingenieure waren somit am großen Projekt der verwaltungstechnischen Erschließung eines Herrschaftsbereiches beteiligt, wozu neben der kartographischen Aufnahme des Landes auch die statistische Erfassung der Bevölkerung gehörte. Was nach Picon an den kartographischen Aufnahmen des 18. Jahrhunderts auffällt, ist deren peinliche Genauigkeit. Eine Karte zeichnen lernen, hieß vor allem die Natur zu lesen und die Zeichen zu entziffern, die sie einem aufmerksamen Beobachter verschwenderisch darbietet. Diese Zeichen der Natur wurden in einen graphischen Code übersetzt. Gras wurde durch fahles Grün dargestellt, kultivierte Felder durch fein aufgetragenes Grün oder Rot mit Streifen von Braun durchsetzt, für Felsen verwendete man Chinesische Tinte und vergaß auch nicht, die Korrosion durch Adern und Spalten anzudeuten. Kurzum, diese Karten versuchen die Natur in gewisser Weise zu imitieren. Ein Handbuch der Ecole hielt fest, dass ein Plan oder eine Karte eine Kopie der Natur ist, gesehen aus der Perspektive eines fliegenden Vogels und man hat dementsprechend alles in größtmöglicher Exaktheit zu kopieren. Denkt man daran, dass die Maschinen dieser Zeit hauptsächlich aus Holz gebaut wurden und dass die Energie ebenfalls aus natürlichen Quellen stammte, Wind und Wasser, so wird die technische Bedeutung des Territoriums klar. Und diese hatten die Karten zu repräsentieren. Um 1800 endete das goldene Zeitalter der Kartenzeichnerei, die Karten wurden von nun an abstrakter, oft nur schwarz-weiß gezeichnet und die Zeichenmethoden standardisiert. Die bildlichen Details der Karten wurden nun aufgesplittert, wenn man so will mit diagrammatischen Techniken kombiniert und somit aus der Zeichnung selbst herausgelöst.

Den Raum konstruieren Das zeichnerische Darstellen und Entwerfen dieser Karten richtete sich auf ein Erfassen des Bestehenden, referierte also nicht auf technische Konstruktionen. Wie sich nun die Zeichnung den technischen Konstrukten erschließt, lässt sich am Beispiel einer konkurrierenden Schule zeigen. 1748 wird in Mézières, einer Grenzstadt im Norden Frankreichs, die Ecole du Genie, eine Militärschule, gegründet. Um in sie aufgenommen zu werden, muss man nicht nur adeliger Herkunft sein, man muss auch ein schwieriges Examen ablegen, das sich auf weite Bereiche der Mathematik bezieht.6 6.

Vgl. André Grelon: »Von den Ingenieuren des Königs zu den Technologen des 21.

106

Entwerfen zwischen Raum und Fläche

Berühmt wurde die Schule in Mézières wegen des Erfinders der Darstellenden Geometrie Gaspard Monge. Diese konstruktive Methode des Zeichnens nennt er später die dem Ingenieur unerlässliche Sprache. Sie ist eine Zeichentechnik, die auf der Projektionsmethode beruht, allerdings der Parallelprojektion. Ihre Wurzeln hat sie daher nicht in der zentralperspektivischen Malerei, sondern in der Stereotomie, insbesondere dem Steinschnitt. Joël Sakarovitch hat einerseits diese Genealogie nachgezeichnet und andererseits auf den erstaunlichen Umstand hingewiesen, dass die Fächer Steinschneidekunst und Darstellende Geometrie so lange an technischen Schulen unterrichtet wurden.7 Erstere noch das 19. Jahrhundert hindurch, letztere bis in unsere Tage. Die notorische Argumentation für die Darstellende Geometrie war, dass der angehende Ingenieur durch sie das räumliche Vorstellungsvermögen trainiere, das für seinen Beruf unerlässlich sei. Man kann die Anstrengungen, die Steinschneidekunst theoretisch zu begründen, als einen von vielen Versuchen sehen, bestimmte Fertigkeiten dem Handwerk aus der Hand zu nehmen und in den Köpfen der Theoretiker neu erstehen zu lassen. Das dürfte schon Brunelleschi gegenüber den von ihm angeleiteten Steinmetzen so gehandhabt haben. Für den Bau des Findelhauses in Florenz brauchte es u.a. »sorgfältig von Steinmetzen zugerichtete Steine. Diese mußten ganz regelmäßig sein und sich absolut gleichen; man könnte sagen, daß damit die Serienproduktion ihren Anfang nahm. Um das zu erreichen, waren zahlreiche Modelle erforderlich, die man aus Ton oder aus Holz fertigen mußte; für den Zusammenbau waren ausführliche und schwierige Erklärungen nötig.«8 Im Frankreich des 17. Jahrhunderts verwendete man statt Modellen Zeichnungen, die als Schablonen fungierten, so genannte Traits. Der englische Architekturtheoretiker Robin Evans befasste sich damit unter dem Titel »Gezeichneter Stein«: »Unter Traits verstand man Konstruktionsrisse, die den präzisen Zuschnitt zusammengesetzter Steinblöcke erlaubten, welche bei komplexen architektonischen Formen, namentlich Gewölben verwendet wurden. Auf ihrer Grundlage konnten die Teile in genauer Form für den Bau vorgefertigt werden.«9 Nach Evans waren diese Traits eine ausgesprochene französische Spezialität, wie überhaupt Steinschnitt und klassische Architektur seiner Meinung nach nur in Frankreich es zu allmählicher Harmonie Jahrhunderts. Die Ausbildung der Ingenieure in Frankreich«, in: André Grelon/Heiner Stück (Hg.): Ingenieure in Frankreich, 1747-1990, Frankfurt/Main, New York 1994, S. 15-57. 7. Joël Sakarovitch: »The Teaching of Stereotomy in Engineering Schools in France in the XVIIIth and XIXth Centuries. An Application of Geometry, an ›Applied Geometry‹, or a Construction Technique«, in: Patricia Radelet-de Grave, Edoardo Benvenuto (Hg.): Entre Mécanique et Architecture. Basel 1995, S. 204-218. 8. Eugenio Battisti: Filippo Brunelleschi. Das Gesamtwerk, Stuttgart, Zürich 1979, S. 64. 9. Robin Evans: »Gezeichneter Stein«, in: Arch+ 137 (1997), S. 56-75, hier S. 56. (Deutsche Übersetzung des Kapitels 5: »Drawn Stone« aus Robin Evans: The Projective Cast. Architecture and its Three Geometries, Cambridge, Mass. 1995.

107

Wolfgang Pircher

gebracht haben. Er erläutert das Konstruktionsprinzip von solchen Traits am exquisiten Beispiel einer Trompe, die zwischen 1549 und 1551 von Philibert Delorme an der Gartenseite des Schlosses in Anet gebaut wurde. Delorme, der selbst einer Steinmetzfamilie entstammt, beschreibt seine Konstruktion später in seinem »Premier tôme de l’architecture«. Dieses Buch enthält viele Beispiele, die allesamt zeigen, dass die Herstellung von Traits lang geübte Praxis war. Nur auf den Trait für die Ante-Trompe erhebt Delorme den Anspruch der eigenen Erfindung. »Eine Trompe (Abb.1) ist ein einwärts gebogenes, konisches Mauerwerk, dessen Form an eine Trompete erinnert und das gewöhnlich dazu dient, vorspringende Türme zu tragen.«10 Delorme war von seiner TrompeErfindung sehr angetan und wies »wiederholt auf ihre scheinbare Aufhängung in der Luft (›suspendu en l’air‹) hin«,11 womit die schwere Steinkonstruktion der Gravitation zu spotten schien. Die Konstruktion kommt gänzlich ohne hölzerne Hilfskonstruktionen aus.12 Die recht komplizierte Konstruktion des Trait (Abb.2) mündete schließlich in die Schablonen, die auf Papier, als Brett oder als Zinktafel dem Steinmetz übergeben wurden.

Abb. 1: Trompe. - Aus: Philibert Delorme: Le premier tôme de l’architecture, Paris 1567. 10. Robin Evans: »Gezeichneter Stein«, S. 57. 11. Ebd., S. 58. 12. Ebd., S. 62.

108

Entwerfen zwischen Raum und Fläche

Abb. 2: Trait. - Aus: Philibert Delorme: Le premier tôme de l’architecture, Paris 1567.

»Wie komplex die durch einen Trait bestimmte Steinformation auch sein mag, wie winkelförmig, gekrümmt oder gestreut der Trait selbst auch erscheinen mag, die jeweiligen Schnitte sind immer lotrecht aufeinander bezogen. Orthographische Projektion, die sich zwischen diesen Schnittebenen hin und her bewegt, behandelt den dazwischenliegenden Raum als ein Plenum lotrechter und paralleler Linien. Es mögen in einem Trait einzelne orthogonale Orientierungen vorkommen, jede von ihnen wird indessen eine virtuelle rechtwinklige Schachtel ergeben. Jede dieser Schachteln stellt ein imaginäres Konstrukt im Raum dar, das dann in den Trait ausgefaltet wird, wo es als flach registriert wird.«13 Man kann sagen, dass diese Zeichnungen nichts Anschauliches mehr an sich haben, gewonnen sind aus abstrakten Konstruktionsprinzipien, sie also gleichsam von sich aus schon eine Nähe zur geometrischen Systematisierung aufweisen. Gleichwohl verlangt ihr Entwurf ein räumliches Vorstellungsvermögen, in das auch die wirkenden Kräfte eingeschrieben sein müssen. Mit Gerard Desargues und seinem Schüler Abraham Bosse wurde der Steinschnitt der Geometrie unterworfen, d.h. es wurde die Verbindung zur euklidischen Geometrie aufgenommen, was in wieder anderen Worten heißt, der Steinschnitt wurde zu einer Angelegenheit der Wissenschaft und blieb nicht länger der geometrischen Praxis verhaftet, was für Bosse bedeutet und worauf Evans eindringlich hinweist, dass die neue Methode keine orthographische Projektion war.14 »Es war, als ob die Technik den Praktikern aus den Händen genommen und den Intellektuellen überantwortet würde. [...] So trennten sich die Wege zwischen den Gegnern und den Befürwortern von Desargues’ 13. Ebd., S. 68. 14. Ebd., S. 72.

109

Wolfgang Pircher

Methode: zwischen denen, die sahen, und denen, die dachten; zwischen Baumeistern und Architekten; zwischen Handwerkern und Fachleuten; zwischen denen, die Steine schnitten, und denen, die Linien zogen.«15 Schließlich pochte Bosse darauf, »daß Desargues’ Methode dem Architekten ermöglichen würde, den Handwerkern die Kontrolle über den Steinschnitt aus den Händen zu nehmen«.16 Evans weist darauf hin, dass der »Trait selbst die Unterscheidung zwischen Theorie und Praxis (förderte), indem er Konstruktionsprobleme auf dem Papier und fernab des Bauplatzes löst.«17 Und weiter: »Ein Trait besteht aus nichts als Linien. Diese zerfallen in zwei Arten von Linien: die imaginären Linien der geometrischen Konstruktion, unter denen die Projektoren am stärksten hervorstechen, und die Linien, die die Umrisse des gezeichneten Gegenstands angeben.«18

Schule der Geometrie An der Ecole du Génie de Mézières war die Lehre der Stereotomie nicht auf ihre praktische Anwendung reduziert. Das eigentliche Ziel war die Lehre der Geometrie und der räumlichen Darstellung. Im Artikel 9 der Statuten dieser Schule von 1754 wird diese Idee ausgesprochen: Unabhängig von der Nützlichkeit des Schneidens von Stein und Holz sollten diese Künste ein exaktes und präzises Wissen im Zeichnen der Pläne und Profile eröffnen sowie in der Art, die Reliefe auszudrücken. Damit werden sie in ihrer wissenschaftlichen Dignität den Elementen des Euklid vergleichbar. In einem Traktat über Schatten in geometrischen Zeichnungen sagt der Gründer der Schule, Nicolas de Chastillon, dass er nichts den Ingenieuren angemesseneres kenne, als sich ein perfektes Wissen im Zeichnen durch das Studium des Steinund Holzschneidens zu verschaffen. Wer die verschiedenen Formen kennt, kann mit Leichtigkeit die Aufgaben eines Festungsingenieurs erledigen, also Bastionen, Batterien, Vorwerke, etc. entwickeln.19 1768 begann Monge mit der Lehre des Stein- und Holzschneidens, der Geometrie, der Perspektive und des Schattenzeichnens. Er genügte den wissenschaftlichen Ambitionen der Gründer der Schule, indem er vorzüglich die der Stereotomie eingeschriebene Geometrie betrachtete und sie nicht allein hinsichtlich ihrer praktischen Brauchbarkeit lehrte. Mit anderen Worten, er systematisierte die Prinzipien seiner Vorgänger und gewann daraus die Lehre der darstellenden Geometrie. An der Ecole Polytechnique löste sich dieses Fach 15. 16. 17. 18. 19.

Robin Evans: »Gezeichneter Stein«, S.72. Ebd. Ebd., S. 74. Ebd. Joël Sakarovitch: »The Teaching of Stereotomy«, S. 208.

110

Entwerfen zwischen Raum und Fläche

dann von seiner Herkunft und geriet in der Ingenieurausbildung zur Grundlage für die Ausbildung eines räumlichen Vorstellungsvermögens. Damit war sie buchstäblich zur Schuldisziplin geworden, wie Sakarovitch plastisch erläutert: »A scholastic discipline which was born in a school, by a school and for a school (but maybe one should say ›in the Ecole Polytechnique, by the Ecole Polytechnique, and for the Ecole Polytechnique‹), descriptive geometry allows the passage from one process of training by apprenticeship in little groups which was characteristic of the schools of the Ancien Régime, to an education in amphitheaters, with lectures, and practical exercises, which are no longer addressed to 20 students, but to 400 students. Descriptive geometry also stems from the ›revolutionary method‹. A means to teach space in an accelerated way in relation to the former way of teaching stereotomy, an abstract language, minimal, rapid in the order to stenography, descriptive geometry permits a response to the urgent situation as for the education of an élite, which was the case of France at the moment of the creation of the Ecole Polytechnique.«20 Für die Begründer der Ecole Polytechnique war die darstellende Geometrie aber keineswegs auf die engen schulischen Grenzen beschränkt. In einem Bericht an die Abgeordneten des Nationalkonvents vom 3.Vendémiaire III (24. 9. 1794) wurde innerhalb des Unterrichtsplanes auch die darstellende Geometrie genauer spezifiziert. Darin heißt es etwa, sie sei eine »notwendige und gemeinsame Sprache für Ingenieure, Handwerker und Arbeiter«, also ein Kommunikationsmittel, das nach Meinung Monges deshalb erhöhte Bedeutung besitzt, »weil die Arbeitsteilung vorangeschritten ist und im Gegensatz zu früheren Zeiten nicht mehr zwei sondern mindestens drei Stufen umfasst: ›den Ingenieur, der ein Projekt entwirft‹, den Meister oder hochqualifizierten Arbeiter (artiste), ›der dessen Ausführung überwacht‹, und ›die Arbeiter, die es ausführen‹.«21 Wenn Monge auch der Darstellenden Geometrie die Qualität zusprach, die unerlässliche Sprache des Ingenieurs zu sein, eine Aussage, die spätere Theoretiker wie etwa Karl Culman und Alois Riedler auf die Zeichnung überhaupt ausdehnten, so wird sie doch in zwei Dialekten gesprochen. Wie Harold Belofsky ausgeführt hat, ist die geschriebene Sprache, die Schrift also, welche von Ingenieuren und Architekten wie ihre natürliche Sprache verwendet wird, die orthographische Projektion.22 In den verschiedenen Ansichten wie Grund-, Auf- und Seitenriss bietet sie die eindeutige Repräsentation des her20. Ebd., S. 210f. 21. Zit. n. Matthias Paul: Gaspard Monges »Géométrie Descriptive« und die Ecole Polytechnique – Eine Fallstudie über den Zusammenhang von Wissenschafts- und Bildungsprozess. Dissertation zur Erlangung des Doktorgrades der Fakultät für Mathematik der Universität Bielefeld, Bielefeld 1980 (Masch.), S. 163. 22. Harold Belofsky: »Engineering Drawing – a Universal Language in Two Dialects«, in: Technology and Culture, Bd. 32 (1991), S. 23-46, hier S. 23.

111

Wolfgang Pircher

zustellenden Gegenstandes. Eine technische Zeichnung, als Werkzeichnung, ist ein imperativer Satz: mache das Werkstück in dieser Form mit exakt den angegebenen Maßen aus dem vorgeschriebenen Material. Seit dem Ende des 19. Jahrhunderts wird in den USA die Form der Anordnung gewählt, dass die Aufsicht oben, der Grundriss unten, die rechte Seite rechts und die linke Seite links von der zentralen Seitenansicht aus abgebildet werden, während im Rest der Welt es genau umgekehrt ist. Belofsky führt die letztere Darstellungsform auf Gaspard Monge zurück und überhaupt auf die Vorliebe der Mathematiker seit Descartes im ersten Quadranten zu zeichnen. Die wissenschaftliche Eleganz der Projektion von Monge hat es bewirkt, dass im Rest der Welt die kompliziertere Projektion gewählt wird, wo wir gleichsam mit unseren Sehstrahlen die Konturen des Objektes auf die dahinter liegende Ebene abbilden. Gestützt wurde diese Art der Abbildung durch den obligatorischen Unterricht in Darstellender Geometrie an allen technischen Schulen und allen Realschulen. Ähnlich wie Latein war die Darstellende Geometrie mehr in der Einbildung denn in der Realität eine universelle Sprache. In den USA brachte der Beginn der industriellen Massenproduktion und die Verwendung nieder qualifizierter Arbeiter die Einführung der einfacheren Projektionsmethode mit sich, die inoffiziell auch in den Ländern des britischen Empires verwendet wird.23

Maschinenzeichnen Für Monge ist die Darstellende Geometrie auch eine Methode, um Neues zu finden, also eine Konstruktionsmethode. Der entsprechende Anspruch wird von seinen Schülern auf den Maschinenbau ausgedehnt, wozu Lanz und Bétancourt ein Tableau der Bewegungsmechanismen entwerfen. Diese Tabelle der existierenden Formen von Getrieben zeigt, wie es der diagrammatische Witz einer Tabelle ist, auch die noch nicht gefundenen Formen an, eben durch Leerstellen. Konstruieren auf der Basis solcher Hilfsmittel, heißt die technisch besten Kombinationen für eine bestimmte Anwendung wählen. Wenn diese Getriebeformen einer radikalen Analyse unterworfen werden, also bis auf ihre Elementarformen zerlegt werden, dann, so der Berliner Maschinenbauer Franz Reuleaux, lässt sich das Entwerfen und Konstruieren mit Hilfe einer Formelsprache, einer kinematischen Notation, bewerkstelligen. Diese ersetzt nicht die Zeichnung, diese bleibt als Bau-Anweisung für die Werkstätte nach wie vor notwendig, aber der mentale Prozess des Entwerfens ist nun ein an23. Harold Belofsky: »Engineering Drawing«, S. 40: »Controversy between advocates of first angle and third angle projection systems came to a peak and was finally resolved, at least in the United States, during the 1890s. The impetus for adoption of third angle came from working engineers who were making and using engineering drawings every day in practical solutions. It was crystal clear to them that third angle was easier to draw and far easier and more natural for shop personnel to understand.«

112

Entwerfen zwischen Raum und Fläche

derer, kein inneres Auge schaut den Prototyp der Maschine. Damit hätte die räumliche Vorstellung für diesen Prozess des Maschinenentwurfs ausgedient. Die technische Zeichnung im Maschinenbau durchlief im 19. Jahrhundert einen Prozess ihrer Standardisierung, der gleichzeitig der einer Purifizierung auf die möglichst klare Linie war.24 Lernten die Maschinenbaueleven um die Mitte des 19. Jahrhunderts noch die Herstellung illustrativer und kolorierter Zeichnungen, wobei die Farbe die Materialien repräsentieren sollte, und etwas später Schnittzeichnungen mit großzügiger Verwendung von Schraffuren, so setzte sich um die Jahrhundertwende die moderne Form der bemaßten und maßstabsgetreuen Zeichnung durch. Der Opponent von Reuleaux, der aus Graz gebürtige Alois Riedler, wird immer wieder betonen, dass es für den Ingenieur weniger auf mathematische Kenntnisse als auf räumliches Vorstellungsvermögen ankomme. Seine Forderungen an die Ingenieur-Erziehung: »Die Kennzeichnung ist äußerst einfach: ein entwickeltes Vorstellungsvermögen ist die Grundlage jeder schaffenden Thätigkeit, und Ingenieurthätigkeit ist durchaus möglich ohne nennenswerthe mathematische Bildung […] Ohne bildendes, gestaltendes und wiedergebendes Vorstellungsvermögen hingegen ist keine schaffende Ingenieurthätigkeit möglich. […] Für die Ingenieur-Erziehung taugt nur die Ausbildung der Anschauung und Vorstellung, der Raumvorstellung, des plastischen Denkens«.25 Damit wird auch das Verhältnis zur Zeichnung bestimmt, sie ist bloßer Ausdruck eines mentalen Gebildes. Die Konstruktion erscheint zunächst vor dem »inneren Auge«, wie Eugen Ferguson sagt.26 »Das ist ein armseliger Konstrukteur oder Künstler, der erst aus der Zeichnung sieht und sucht, was da werden soll, statt einem wenigstens in der Hauptsache im Kopfe fertigen Vorstellungsgebilde zu folgen. Der zeichnerische Ausdruck muss das Produkt der Formvorstellung sein, und nicht umgekehrt diese dem zeichnerischen Bilde nachhinken. […] Immer aber ist die Raum- und Formvorstellung, also die Geistesthätigkeit die Hauptsache; die zeichnerische Darstellung nur das Mittel, das Vorgestellte für einen bestimmten Zweck zum Ausdruck zu bringen.«27

24. Einen Überblick gibt Wolfgang König: Konstruieren und Fertigen im deutschen Maschinenbau unter dem Einfluß der Rationalisierungsbewegung. Ergebnisse und Thesen für eine Neuinterpretation des ›Taylorismus‹, Technikgeschichte, Bd. 56 (1989), S. 183-204, hier S. 185. 25. Alois Riedler: Zur Frage der Ingenieur-Erziehung. Volkswirthschaftliche Zeitfragen, Vorträge und Abhandlungen herausgegeben von der Volkswirthschaftlichen Gesellschaft in Berlin, Heft 126, Berlin 1895, S. 19. 26. Eugene S. Ferguson: Das innere Auge. Von der Kunst des Ingenieurs, Basel 1993. 27. Alois Riedler: Das Maschinen-Zeichnen. Begründung und Veranschaulichung der sachlich notwendigen zeichnerischen Darstellungen und ihres Zusammenhanges mit der praktischen Ausführung, Berlin 1896, S. 2.

113

Wolfgang Pircher

Elektrische Maschinen Zur Zeit Riedlers existierte schon ein anderes Universum von Maschinen neben den mechanischen, die nach der verwendeten Energie benannt sind.28 Mit ihnen ändert sich auch die Art der Maschinenkonstruktion und in gewisser Hinsicht auch das technische Denken selbst, denn mit den elektrischen Maschinen wird der Anschaulichkeit fast alle Einsicht in die Funktionsweise entzogen. Insbesondere elektronische Geräte werden wie ein Text gelesen. Die Herstellung des elektrischen Stromes erfährt in der Zeit von Monge einen entscheidenden Wandel. Kurz vor dem Wechsel ins 19. Jahrhundert hatte Alessandro Volta eine Batterie erfunden, die es ermöglichte, einen kontinuierlichen Stromfluss aufrechtzuerhalten. Damit wurde die bis dahin bekannte statische Elektrizität abgelöst, die durch Reibung von Glaszylindern oder Glasplatten hergestellt und in Kondensatoren oder Leidener Flaschen gespeichert wurde. Eine der ersten praktischen Anwendungen erfolgte in der Medizin, allerdings mit recht unklaren Ergebnissen. Auf den zeitgenössischen Darstellungen tauchen nun neben den fliegenden Händchen auch jene Elemente auf, die schließlich die Charakteristik der Zeichnungen von elektrischen Maschinen bestimmen werden, die stromleitenden Verbindungen.29 Während man im Fall der statischen Elektrizität den Vergleich zur Hydraulik ziehen kann, wo das Aufladen der Glasscheibe oder des Glaszylinders durch das Drehen der Kurbel mit dem Hochpumpen von Wasser verglichen werden kann, worauf die Elektrizität aus dem Kondensator wie aus einem Reservoir schnell oder langsam abfließen kann (man sprach in der zeitgenössischen Medizin auch vom elektrischen Bad), so verlangsamt die Volta-Batterie diesen Vorgang des Abfließens deutlich und stellt somit tatsächlich einen Stromkreis her, in welchem Strom kontinuierlich fließen kann. Auf einem Fresko von 1876-80 von Nicolò Barbarino im Palazzo Orsini Genua, benannt »Der Triumph der Wissenschaft«, steht Volta nahezu im Zentrum und es zeigt ihn, wie er der versammelten Gemeinde aus Naturphilosophen, Politikern, Entdeckern, Erfindern usw. seine Batterie vorführt. Giuliano Pancaldi spricht von einem »timeless international congress«.30 Vorbild ist Raphaels »Schule von Athen«. Überlebensgroß und auf einer leuchtenden Wolkentreppe stehend die Wissenschaft als Frau mit einem aufgeschlagenen 28. Riedler war sich dessen wohl bewusst wie seine Biographie des AEG-Gründers Emil Rathenau zeigt: Alois Riedler: Emil Rathenau und das Werden der Großwirtschaft, Berlin 1916. 29. Einen kurzen historischen Abriss der Darstellung dieser Verbindungen in der Frühzeit gibt Robert Dennhardt: Die Flipflop-Legende und das Digitale. Eine wiedergefundene Vorgeschichte des Digitalcomputers vom Unterbrecherkontakt zur Röhrenelektronik 1837-1945, Diss. Berlin 2007 im Kapitel »Bildsprache. Vom Experimentiertisch zum Schaltplan«, S. 72-83. 30. Giuliano Pancaldi: Volta. Science and Culture in the Age of Enlightenment, Princeton, Oxford 2003, S. 262 findet sich eine Abbildung des Freskos.

114

Entwerfen zwischen Raum und Fläche

Geometriebuch in der Hand (auf der Spitze stehendes Dreieck und darunter ein Kreis), vor ihr wälzt sich die männliche Unwissenheit am Boden. Hinter dem sitzenden Leibniz, steht eine männliche Figur mit weißem Bart am Demonstrationstisch, die offensichtlich Samuel Morse darstellen soll. Die Nähe zu Volta ist plausibel, weil die elektrische Telegraphie und auch Morses Konstruktionen natürlich solche Batterien verwendeten. Die Telegraphie war ja die erste Anwendung von Elektrizität in industriellem Stil und sie ist auch die Muttertechnologie aller informatischen Maschinennetzwerke. Die Darstellung von Telegraphen und später von elektrischen Kraftmaschinen bedient sich der Zeichentechniken, wie sie für den Maschinenbau der Zeit typisch waren. Auf dieser Ebene steht der Bau von elektrischen Maschinen ganz im Einklang mit dem Maschinenbau. Aber die Elektrizität erweitert die Dimension der notwendigen Zeichnungen. Eine elektrische Maschine ist immer eingebunden in ein mehr oder weniger ausgedehntes Netz, den Stromkreis. Dieser Blick über die einzelne Maschine hinaus ist offenbar verantwortlich für eine fortschreitende Symbolisierung der Zeichnung dieses Kreises (Abb.3). Damit verändert sich auch die Darstellung der einzelnen Maschinen selbst. Man kann sagen, dass zu jedem Element des Stromkreises ein Symbol gefunden werden muss, um ein Schaltbild zu zeichnen. In einem Fall aber scheinen sich Symbol und Realität bzw. deren illustrative Darstellung zu decken, nämlich im Fall der Verbindungen selbst: die Linie ist kaum von einer Darstellung der realen Drahtverbindung zu unterscheiden, allenfalls in ihrer geometrisch exakten Zeichnung (weder ist ein realer Draht derartig gerade, noch lassen sich exakte rechte Winkel formen). In illustrativen Darstellungen, etwa von einem Experimentalaufbau, sieht man daher die Drähte irgendwie geschwungen gezeichnet. Sodann verschwindet ein wichtiges Element aus der Zeichnung überhaupt: der Punkt, welcher den Kontakt repräsentiert. Wird er im 19. Jahrhundert noch oft als Quecksilberschälchen gezeichnet, so verschwindet er schließlich mit dem Lötkontakt, wie er für die schwachstromigen nachrichtentechnischen Konstruktionen typisch ist. Solch ein Kontakt hat natürlich eine physische Ausdehnung, aber er hat sozusagen keine elektrische Ausdehnung, der elektrische Widerstand des Kontaktes soll idealerweise Null sein, der Kontakt ist der elektrische Nullpunkt jeder Schaltung. Das gilt für die Linie, die elektrische Verbindung natürlich nicht, diese hat einen elektrischen Widerstand.

115

Wolfgang Pircher

Abb. 3: Risse (oben), Schnittzeichnung (links) und symbolische Darstellung (rechts) einer Dynamo-Maschine.

Die Fläche der Schaltung Was am Schaltbild direkt abzulesen ist, sind die Verbindungen zwischen den Bauelementen, die in der realen Ausführung mit Draht hergestellt wurden. Die Verdrahtung ist eine Übersetzung der zweidimensionalen Zeichnung des Schaltplans in eine räumliche Konstruktion. Diese Übersetzung muss von Hand geleistet werden und dies stellt einen Flaschenhals in der Produktion elektronischer Geräte dar, insbesondere wenn sie in die Massenfertigung übergehen, wie das am Beginn des Zeitalters der Radioempfänger, die mit Elektronenröhren bestückt wurden, dann der Fall war. Dementsprechend tauchen Vorschläge auf, diese Verdrahtung durch etwas zu ersetzen, was eine maschinelle Bearbeitung erlaubt: die Idee der »gedruckten Schaltung«, wie sie Charles Ducas und César Parolini 1925 unabhängig voneinander zum Patent anmelden, verspricht dies zu leisten. Die schließlich brauchbarste Version wird von Paul Eisler 1936 in England zum Patent angemeldet: die Folienätztechnik. Eisler baut einen Prototyp eines Zweiröhrenempfängers und stellt diesen der Radioindustrie vor, die allerdings ablehnend reagiert. In seiner Autobiogra116

Entwerfen zwischen Raum und Fläche

phie berichtet er über diese Enttäuschung: »It was pointed out to me that the work which my invention would replace was carried out by girls and that ›girls are cheaper and more flexible‹.«31 In seinem späteren Standardwerk zum Thema spricht Eisler den entscheidenden konstruktiven Unterschied zu einer verdrahteten Schaltung an: während diese ein dreidimensionales Gebilde ist, strebt man bei der Konstruktionsidee der gedruckten Schaltung grundsätzlich den Aufbau der elektrischen Baugruppen aus Flächenelementen an. »Als Rohmaterial werden alle Substanzen, die für elektrische Schaltungen wichtig sind, in einer dünnen, zweidimensionalen Form benötigt.«32 Entscheidend für diese Reduktion der Dimensionen spricht, dass der Schaltungsplan, umgezeichnet in einen Plan der möglichst kreuzungsfrei verlaufenden Leiter, zur direkten Vorlage einer Maske wird, die mittels bekannter Drucktechniken auf eine kupferkaschierte Platte aufgebracht werden kann. Im folgenden Arbeitsgang werden die unbedeckten Stellen der Kupferfolie weggeätzt, so dass nur die Leiter übrig bleiben. Zum Aufdruck des säurefesten Bildes der Schaltung kann man sich der üblichen Druckverfahren mit einer normalen Druckmaschine und normalen Druckplatten bedienen oder photomechanische Verfahren verwenden, die sich gut für die Herstellung von Einzelstücken und für besonders komplizierte oder feine Schaltungsmuster eignen. So gehen die Medientechniken des Drucks und der Photographie in die Produktion der elektronischen Medientechniken ein (Abb.4).

Abb. 4: Gedruckte Schaltung.

31. Paul Eisler: My Life with the Printed Circuit, Bethlehem: Lehigh UP 1989, S. 22. 32. Paul Eisler: Gedruckte Schaltungen. Technologie der Folienätztechnik, München 1961, S. 11.

117

Wolfgang Pircher

Von den zwei üblichen Druckverfahren, Offsetdruck und Siebdruck, eignet sich der Offsetdruck für große Serien, hat aber den wesentlichen Nachteil, dass »gelernte und erfahrene Druckereifachleute und erstklassige und teure Präzisionsmaschinen« verwendet werden müssen.33 Die alte Medientechnik Druck verlangt nach qualifizierten Arbeitskräften, was nun fast »automatisch« die Reaktion hervorruft nach einem maschinellen Ersatz zu suchen. Eisler sieht solch eine Möglichkeit in einer »Lichtzeichenanlage […], die eine Zeichnung und die Kamera überflüssig macht und den Konstrukteur in die Lage versetzt, eine Schaltung oder wenigstens eine Teil davon auf einem Steckerbrett zusammenzustellen. Diese Idee des Lichtzeichnens ist vorerst noch der Wunschtraum der Konstrukteure. Sie stellen sich ein Gerät vor, das durch eine Programmanlage gesteuert wird. Die Programmierung enthält viele Grundschaltungen oder Grundbaugruppen und liefert mit Lichtgeschwindigkeit die Schaltung, welche, unter Berücksichtigung aller Erfordernisse, eine maximale Zahl von Bauelementen enthält, die sich in einer Ebene ohne Überschneidungen anordnen läßt«.34 Gekoppelt mit einem Fotokopierverfahren, das sich einerseits durch eine »große Genauigkeit des ›Druckes‹ und die Verwendung von Licht anstelle des mechanischen Druckes zur Erzeugung dieses Abbildes«35 auszeichnet, gelänge es künftig auf wirtschaftliche Weise den Flaschenhals der qualitativen Anforderungen der alten Drucktechnik zu umgehen. Schließlich setzten die Bauelemente der Reduzierung auf die Fläche noch einen gewissen Widerstand entgegen. Für Eisler sind gedruckte Bauelemente noch im Stadium ihrer Entwicklung. 36 »Es unterliegt jedoch keinem Zweifel, dass die Herstellung gedruckter Bauelemente als integraler Bestandteil einer gleichzeitig hergestellten gedruckten Verdrahtung das eigentliche Ziel aller Bemühungen um gedruckte Schaltungen schlechthin darstellt«. 37 Zu seiner Zeit fertigten manche Konstrukteure noch Modelle aus perforiertem Kunststoff oder aus einem Drahtgitter an, zugeschnitten auf die Größe der geplanten Schaltungsplatte, wo sie die Bauelemente in ihrer wirklichen Größe so lange hin und her rückten, bis die praktischste Lösung gefunden wurde. »Dann konnten die Verbindungen provisorisch mit dem Zeichenstift gezogen werden.«38 Man wird sich erinnern, dass die ersten Transistoren 1948-50 erfunden wurden, und erst mit ihrem Einsatz als Ersatz für die Elektronenröhren konnte man ernstlich an die weitere Verflachung der Schaltungen denken. 39 33. Paul Eisler: Gedruckte Schaltungen, S. 102. 34. Ebd., S. 79f. 35. Ebd., S. 113. 36. Ebd., S. 5. 37. Ebd., S. 259. 38. Ebd., S. 184f. 39. Für Eisler gilt noch: »Aus der Sicht des Konstrukteurs ist das wichtigste Bauteil der Röhrensockel.«, Ebd., S. 195.

118

Entwerfen zwischen Raum und Fläche

Da alles in der physischen Welt drei Dimensionen aufweist, muss man die räumliche Anordnung der Konstruktionselemente berücksichtigen, sie spielen aber für die eigentlichen konstruktiven Aufgaben nur eine untergeordnete Rolle, wichtiger sind die elektrischen Forderungen: »1. Spannung; sie bestimmt den Abstand der Leitungszüge; 2. Strom; er bestimmt die Linienbreite; 3. Frequenz; sie bestimmt die Leitungslänge, bisweilen den Abstand und die notwendige Abschirmung.«40 Das räumliche Vorstellungsvermögen, das für den Maschinenbau noch überragende Bedeutung hatte, ist nun zu einer untergeordneten Funktion geworden. Es wird überwölbt von einem entwerfenden und konstruierenden Denken, das nicht mehr der Anschauung, sondern dem Lesen verpflichtet ist. Da elektrische Schaltungen gelesen werden, könnte man sagen, dass ihr Entwerfen eine Art von Schreiben ist.41 Weil das so ist, kann man zum Deutschen Wörterbuch zurückkehren und dortselbst im Eintrag »Entwerfen« folgende drei Zeilen aus Goethes Hand nachlesen: der gedanke, das entwerfen, die gestalten, ihr bezug, eines wird das andre schärfen.

40. Paul Eisler: Gedruckte Schaltungen, S. 184. 41. Bei Dietmar Benda: Wie liest man eine Schaltung? Methodisches Lesen und Auswerten von Schaltungsunterlagen 11., neu bearb. und erw. Aufl. Feldkirchen 1996, S. 11 heißt es kurz und bündig: »Schaltungen sind wie Schrifttexte strukturiert und können daher wie Texte gelesen werden.« Folgende Analogien lassen sich ziehen: Bauelement = Buchstabe, Grundoder Einzelschaltung = Wort, Funktionseinheit = Satz.

119

Le Corbusiers »Traktat über das Entwerfen«

1

1

BRUNO REICHLIN

Für die Architekten der so genannten »Moderne« stellte das Einreichen eines Patentantrags auf eine vermeintliche Erfindung oder eine technische Neuerung im Bereich der Bauproduktion oft einen Akt der Selbstdarstellung dar, mit dem sie, auf einer Stufe mit Ingenieuren und Wissenschaftlern, an der vordersten Front des Fortschritts standen. Deshalb bediente sich selbst Le Corbusier, ein homme de lettre – wenn man den Angaben unter ›Beruf‹ auf seinem von den französischen Ämtern ausgestellten Personalausweis folgt –, dieser Möglichkeit und meldete gut 16 Patente beim Office National de la Propriété Industrielle an. In einer bemerkenswerten Ausgabe der italienischen Architekturzeitschrift »Rassegna«, die vor etwa 15 Jahren erschienen ist, wies Tomás Maldonado auf den Umstand hin, dass die innovativen Patentanträge von Architekten selten die Zulassungskriterien erfüllen oder selten wirklich rentabel sind. Denn statt den Architekten als Erfinder anzusehen, wird er häufig als bricoleur, als Bastler verstanden, der sich – so Maldonado – auf eine Erfindung und ein Patent stützt, weil er hier eine, meist illusorische, Möglichkeit vermutet, »eine eigene, unterdrückte Identität schöpferisch (und sogar institutionell) neu zu bestimmen«.2 In derselben Ausgabe schildert Dario Matteoni detailreich den oft sehr außergewöhnlichen Charakter von Le Corbusiers ausgeklügelten Erfindungen: vom »Domino«-Prinzip zur Konstruktion der »Unité d’habitation« (patentiert am 10. Dezember 1949), dem Maßsystem »Modulor« (patentiert am 16. April 1946), der »Fenêtre en longuer« und so weiter.3 In Bezug auf den Erfinder Le Corbusier werde ich mich im folgenden nicht über Patente auslassen, sondern Entwurfsstrategien behandeln, die er im Laufe seiner Karriere als Architekt anwandte. Meiner Meinung nach stellen diese 1. Dieser Text ist die deutsche Fassung von Bruno Reichlin: Il »trattato sulla progettualità« di Le Corbusier. In: Rassegna, Heft 80 (September 2005), S. 26-33. 2. Vgl. Tomas Maldonado: »The Patent between Invention and Innovation«, in: Rassegna 46 (1991), S. 6-11. 3. Vgl. Dario Matteoni: »The 16 Patents of Le Corbusier 1918-1961«, in: Rassegna 46 (1991), S. 70-79.

121

Bruno Reichlin

Entwurfsstrategien zusammen mit den Schriften, die sie begründen und erklären, ein regelrechtes Traktat über das Entwerfen dar. In der Vielzahl der von Le Corbusier angestrebten und ausgeübten Berufe, beginnend schon 1907, als er auf der Baustelle der Villa Fallet unter Leitung seines Lehrers und Mentors L’Eplattenier arbeitete, zeichnet sich ein Geist ab, der nichts unversucht lässt, um seine eigenen entwerferischen Möglichkeiten zu entwickeln und seine Kreativität von jedem Hemmnis, sei es instrumentell oder kulturell, psychologisch oder epistemologisch, zu befreien. Mit der Zeit wird Le Corbusier die Dinge verändern wie auch seine Wahrnehmung der Dinge. Das Wenige, was über ein solches Vorhaben geschrieben wurde, zeigt, wie gering das Interesse der Kritiker und Historiker an den Formen und Verfahren intellektueller Arbeit der Architekten ist; selbst Christopher Alexander beschränkt sich in seinen scharfsinnigen »Notes on the Synthesis of Form« auf allgemeines Lob der Diagramme, die Le Corbusier dazu gedient haben, »den Entwurf zu ordnen«.4 Vieles bleibt daher auf diesem Gebiet zu erforschen, und an dieser Stelle werde ich mich wohlweislich auf die kurze Charakterisierung einiger von Le Corbusier perfektionierter oder angewandter Entwurfsstrategien und -techniken beschränken. Eine erste Strategie könnten wir, folgt man der »Theorie der Prosa« von Viktor Sklovskij, 5 als »Entautomatisierung« der eigenen Wahrnehmungsinstrumente und insbesondere ihrer konditionierten »Pawlow’schen Reflexe« bezeichnen, die Ausbildung und Kultur auszuprägen zwingen. In diesem Sinne war für den jungen Jeanneret seine »Voyage d’Orient« zuerst und vor allem ein »Instrument« oder ein Verfahren, um sich vom eigenen Bildungshintergrund zu distanzieren, diesen zu hinterfragen und ihn schließlich zu verlassen. Damit meine ich die regional geprägte Art Nouveau der Ecole d’Art, die Moderne in statu nascendi mit Behrens, Tessenow, Theodor Fischer und Josef Hoffmann, die ihn während seinen so genannten »Voyages d’Allemagne« faszinierten – und irritierten. (Das von seinen Eltern in Auftrag gegebene Haus, la Maison blanche, ist der »Wagnerschule« und Behrens noch sehr verhaftet: der Garten erinnert an Beispiele von Schultze-Naumburg und selbst die Darstellungsweise des Entwurfs ist auf deutsche Vorgänger zurückzuführen.)6 Das Einfühlen, das Aufsaugen der Raumbildungen, der Formen, der Farbigkeit und der alltäglichen osmanischen und römischen Bautechniken durch 4. Vgl. Christopher Alexander: Notes on the Synthesis of Form, Harvard 1964, Kapitel: The Realization of the Program, S. 84-94. 5. Vgl. Viktor Sklovskij: Theorie der Prosa, Frankfurt/Main 1966, insbesondere das Kapitel: Der Aufbau der Erzählung und des Romans, S. 62-88. 6. Vgl. Leo Schubert: La villa Jeanneret-Perret de Le Corbusier, 1912: la primera opera autonoma, Venedig 2006, S. 42-59; vgl. auch: Schnoor, Christoph: La construction des villes: Charles-Edouard Jeanneret erstes städtebauliches Traktat von 1910/11. Diss., Technische Universität Berlin 2002, Zürich 2008.

122

Le Corbusiers »Traktat über das Entwerfen«

Bauaufnahmen, das Beschreiben, Analysieren, das Festhalten von ebendiesen Dingen im Reisetagebuch und in Briefen kommt so wahrscheinlich dem nahe, was Alessandro Manzoni »die Wäsche im Arno nachspülen«« genannt hat, also einem Verfahren, das es Manzoni ermöglichte, die literarische Hochsprache des Italienischen zu erneuern.

Abb. 1: Charles-Edouard Jeanneret: Villa Jaquemet, La Chaux-de-Fonds, 1908: Ansicht Süd, West/Ost und Nord.

Eine zweite Strategie zielt ebenfalls darauf ab, den eigenen Wahrnehmungshorizont zu verändern, und ist mit der Dekonstruktion der Raumperspektive durch die Malerei und mit einer Kritik des Kubismus verbunden. »Après le cubisme« (1918) und andere, in enger Zusammenarbeit mit Ozenfant verfasste Texte wie auch die »puristische« Erfahrung bilden den Beginn der bedeutsamen »recherche patiente«, die Le Corbusier »la clef de mon labeur« genannt hat. Mit dieser Methode gelang es ihm nämlich, durch tägliches Zeichnen und Malen »les secrets de la forme« zu verstehen, während »der Erfindungsgeist in einer Weise entwickelt wird, wie der Akrobat jeden Tag Muskeln und Selbstbeherrschung trainiert«.7 Frei von äußeren Gegebenheiten schreitet die »recherche patiente« voran, wenn Le Corbusier »längs eines gemeinsamen Rands« typische Gegenstände unserer häuslichen Umgebung (Flaschen, Karaffen, Gläser, Teller, Würfel, Gitarren) formal »vermählt«, Grundrisslinien und An7. Le Corbusier: »Unité«, in: Architecture d’Aujourd’hui, 2éme numéro spécial: Le Corbusier (April 1948) S. 32f.; vgl. auch: Bruno Reichlin: »Jeanneret-Le Corbusier, Peintre-Architecte«, in: Massilia 2006 – Annuaire d’études corbuséennes, hg. v. Associacion d’Idees, Sant Cugat del Vallès.

123

Bruno Reichlin

sichtslinien kombiniert und angleicht; wenn er sie durch Farbe dekonstruiert und visuelle calembours erzeugt, wenn er die gewohnte Ordnung des Raumes zunichte macht, indem er die Fluchtpunkte vervielfältigt, und mehr dergleichen. In seiner puristischen Malerei schult Le Corbusier so das Auge, die Hand und die Vorstellungskraft auf einmal, die ihn bald darauf die formalen Verbindungen und räumlichen »enjambements« (diese rhetorischen Figur wird von Le Corbusier selbst in seinen »Notes à la suite« (1926) evoziert) der Villa La Roche, der Villa Meyer, der Villa Savoye etc. wird entwerfen lassen. 8

Abb. 2 (links): Le Corbusier: Pompeji, Haus des tragischen Dichters, Skizze aus dem Heft zur »Voyage d‘Orient«, Oktober 1911. Courtesy FLC. Abb. 3 (rechts): »Nature morte à la pile d‘assiettes«, 1920. Courtesy FLC.

Aus der ganzen Recherche Le Corbusiers zum effizienten Entwerfen möchte ich im Kontext einer dritten Strategie den erstaunlichen »plan libre« zitieren, weil er tatsächlich die gedankliche Konsequenz und das Resultat all der Überlegungen ist, die sich um eine »Trennung der Funktionen« drehen. Diese ist, folgt man Erforschern des »technischen Denkens« wie Simondon, die notwendige Voraussetzung »zur Konzentration verschiedener Funktionen auf derselben Struktur«, die sich durch eine synergetische Rekonfiguration des konkreten technischen Gegenstandes auszeichnet. Gilbert Simondon schreibt im Jahre 1969: »Das technische Objekt geht aus der inneren Neuverteilung der Funktionen in kompatible Einheiten hervor, die den Zufall oder den Antagonismus der einfachen Verteilung ersetzt; die Spezialisierung entsteht nicht in der Konzentration der Funktionen, sondern in der Schaffung von Synergien; es ist das Zusammenspiel der Funktionen, das eine wirkliche Untereinheit im technischen Objekt bildet. [...] Das konkrete, technische Objekt ist eines, das 8.

Vgl. Le Corbusier: »Notes à la suite«, in : Cahiers d’Art, (1926), S. 46-52.

124

Le Corbusiers »Traktat über das Entwerfen«

nicht mehr im Kampf mit sich selbst steht, eines, in dem kein Nebeneffekt das Zusammenspiel des Ganzen stört oder diesem Zusammenspiel außen vor bleibt«.9

Abb. 4 (links): Le Corbusier und Pierre Jeanneret: Entwurf für ein Appartement des Wohnblocks Wanner, Genf 1927 (nicht verwirklichtes Projekt). Courtesy FLC (29660). Das Gebäude besteht aus einer Metallstruktur wie beim ›Domino-Haus‹ bei freier Anordnung der Wände (wie beim ›plan libre‹). Abb. 5 (rechts): »Le plan de la maison moderne« – Diagrammatische Darstellung der Kompositionsprinzipien des so genannten ›plan libre‹, erläutert von Le Corbusier in: »Précision sur l‘état présent de l‘architecture et de l‘urbanisme«, Paris 1930, S. 131.

Das Plädoyer für eine solche Umverteilung der Funktionen in kompatible Einheiten findet sich in einem Text von zentraler Bedeutung, den Le Corbusier und Pierre Jeanneret 1929 schreiben, als sie ihren Kollegen vom CIAM erklären, was sie unter der Anwendung des Taylorismus beim Entwurf von Wohnraum verstehen, um das »Durcheinander der Kräfte« und die »hybriden Verfahren« des herkömmlichen Plans zu vermeiden. Sie schreiben: »Wenn man zwei voneinander unabhängige Handlungen nicht trennt: die Schaffung von Wohnraum einerseits und die Konstruktion des Hauses andererseits, wenn man zwei unterschiedliche Funktionen nicht trennt: das Wegesystem hier 9. »L’objet technique progresse par redistribution intérieure des fonctions en unités compatibles, remplaçant le hasard ou l’antagonisme de la répartition primitive; la spécialisation ne se fait pas ›fonctions par fonctions‹ mais ›synergie par synergie‹; c’est le groupe synergique de fonctions [...] qui constitue le véritable sous-ensemble dans l’objet technique. [...] l’objet technique concret est celui qui n’est plus en lutte avec lui-même, celui dans lequel aucun effet secondaire ne nuit au fonctionnement de l’ensemble ou n’est laissé en dehors de ce fonctionnement.« Simondon, Gilbert: Du mode d’existence des objets techniques, Paris 1969, S. 34.

125

Bruno Reichlin

und das Tragwerk dort; wenn man die traditionellen Methoden, bei denen die Funktionen vermischt werden und voneinander abhängig bleiben, aufrecht erhält, bleiben wir in der üblichen tradierten Unbeweglichkeit erstarrt«.10

Abb. 6 (links): Le Corbusier und Pierre Jeanneret: Blatt mit den ersten Skizzen ›wegnehmen und hinzufügen‹ für die endgültige Version der Villa de Mandrot in Le Pradet (Departement Var, Frankreich), Anfang 1930. Courtesy FLC (22297). Abb. 7 (rechts): Entwicklung der endgültigen Version der Pläne der Villa de Mandrot. Die Entwurfsstrategie besteht darin, durch Hinzufügen oder Wegnehmen von Einheiten quadratischer Grundfläche das Hauptgebäude wie auch das zugehörige Gästehaus zu strukturieren. Zeichnungen des Autors.

Mit der Villa de Mandrot in Le Pradet, die zeitgleich mit der Villa Savoye in den schicksalsträchtigen Jahren 1929-31 entworfen wurde, führte Le Corbusier eine vierte Entwurfsstrategie in die modernen Architektur ein, die in gewisser Weise die Poetik der »opera aperta«11 (des offenen Kunstwerks) mit der Wiedereinführung des pragmatischen »pezzo per pezzo« (Stück für Stück) verband – eine Vorgehensweise, die einer bestimmten einfachen, beispielsweise mediterranen, Bauweise eigen ist. War einmal die konstruktive Funktion

10. »Si l’on ne classe pas deux événements indépendants: agencer le logement d’une part, et construire la maison, d’autre part, si l’on ne différencie pas deux fonctions étrangères: un système organisé de circulation d’une part, et un système de structure d’autre part; si l’on maintient les méthodes traditionnels par lesquelles les deux fonctions sont mêlées et dépendant l’une de l’autre, nous demeurerons pétrifiés dans la même immobilité.« Le Corbusier/Pierre Jeanneret: »Le problème de la maison minimum«, in: L’Architecture Vivante (Frühling/Sommer 1930), S. 5-15. 11. Zur Anwendung des Konzepts vom offenen Kunstwerk auf ein Ensemble von Le Corbusier’schen Projekten vgl. Bruno Reichlin: »›Cette belle pierre de Provence‹ – La villa de Mandrot«, in: Le Corbusier et la Méditerranée, hg. v. Danièle Pauly, Marseille 1967, S. 131-142.

126

Le Corbusiers »Traktat über das Entwerfen«

konzeptionell und operativ bestimmt, entfaltete sich der Aufbau des »puristischen« plan libre mit der Unterteilung des gegebenen Raumes, nach dem das topologische Konzept durch eine Reihe sukzessiver Annäherungen der gesamten räumlichen Ordnung – sowohl im Grundriss als auch im Aufriss – die erwünschte Form erreicht. Der in der Villa de Mandrot vorgezeichnete Typus der »offenen« Komposition verfährt hingegen durch Hinzufügen und Wegnehmen, durch Nebeneinanderstellen oder Verschieben von Zellen oder einfachen Modulen, die immer gleich sind bzw. auf gleichen räumlichen und konstruktiven Merkmalen basieren, aus den gleichen Materialien bestehen und somit sofort wieder erkennbar sind: Quadratische oder rechteckige Volumen, oft gewölbt, an den Schmalseiten offen, etc. Hier entzieht sich die Gesamtform einem elementaren plastischen »Korsett« vom Typ des »prisme pur«, dafür liefern die formalen und tektonischen Charakteristika der Grundmodule sowie die Regeln ihres Zusammensetzens die formale Kohärenz und Evidenz des Bauwerks.

Abb. 8 (links): Le Corbusier: Zeichnung für ein landwirtschaftliches Gut in Cherchell, Algerien, 1942; das gleiche Kompositionsprinzip wie bei der Villa de Mandrot, aber mit einem Ausgangsmodul, das sowohl konstruktiv, räumlich wie auch plastisch stärker ausgeprägt ist: es handelt sich um ein geschwungenes Modul von gleich bleibender Breite und veränderlicher Länge. Abb. 9 (rechts): Le Corbusier: Modell des Krankenhauses für Venedig, 1965, im städtischen Kontext. Courtesy FLC.

Die »Maison de week-end en banlieue de Paris« (1935), der Entwurf einer landwirtschaftlichen Anlage in Cherchell (Nordafrika, 1942), die Feriensiedlung Roq und Rob in Cap Martin (1949) oder auch die überwältigende Villa Sarabhai ad Ahmedabad (1955), sowie im Hinblick auf die sowohl funktionale wie auch kontextuelle Bedeutung dieses Entwurfs zum krönenden Abschluss die Pläne für ein Krankenhaus in Venedig (1963-65), sind Beispiele dieser Strategie des Zusammensetzens. Die Tatsache, dass sich so viele zeitgenössische Architekten und nicht die schlechtesten (von Atelier 5 bis zu Lio Galfetti, Giancarlo DeCarlo und Roland Simounet) diese Strategie angeeignet haben, zeigt die Allgemeingültigkeit und folglich die Nützlichkeit dieses Vorgehens, 127

Bruno Reichlin

die sofort erkannt wurde. In diesem Fall handelt es sich nicht mehr nur um eine schlaue Lösung, sondern um einen regelrechten »Typus« der Komposition. Über diesen »offenen« Modus des Kunstwerks, der seine Entsprechung in den zeitgenössischen Strömungen der Malerei und Literatur fand, schrieb Umberto Eco gegen Ende der 50er Jahre aufschlussreiche Analysen, die er in einem Vortrag mit dem Titel »Il problema dell’opera aperta« (Das Problem des offenen Kunstwerks) auf dem XII. Internationalen Kongress für Philosophie 1958 vorstellte.12

Abb. 10 (links): Le Corbusier: Kapelle von Ronchamp, 1950-55. Entwurfsskizze für die Struktur und die Form des Daches ausgehend vom Motiv eines Krabbenpanzers. Courtesy FLC. Abb. 11 (rechts): Charles-Edouard Jeanneret: Städtische Skizzen zum ›Verschließungsgrad‹ von Plätzen, auf der Grundlage von: Paul Schultze-Naumburg: Kulturarbeiten, Bd. 4 »Städtebau«, München 1906. Courtesy FLC (B2-20-346), in: Christoph Schnoor, »La construction des villes. Charles-Edouard Jeannerets erstes städtebauliches Traktat von 1910/11«, Dissertation, TUBerlin 2002.

Eine weitere, fünfte Strategie oder Entwurfstechnik besteht im »displacement of concepts« (Konzeptübertragung), ein Begriff, den Alan Colquhoun sehr passend den Kognitionswissenschaften entlehnt hat, um eine wiederkehrende Haltung Le Corbusiers zu bezeichnen.13 Diese besteht darin, in den unterschiedlichsten Bereichen der Technik und des Wissens solche Dispositive, Strukturen und Konzepte zu erkennen, die sich für das Denken, Gestalten und Erklären architektonischer Lösungen als nützlich erweisen. Diesbezüglich führt Colquhoun das Konzept und die Funktionsweise des Ozeandampfers an, die dabei halfen, die Unité d’habitation zu durchdenken, und erinnert an die 12. Vgl. Umberto Eco: Opera aperta, Mailand 1962. 13. Vgl. Alan Colquhoun: »Déplacements des concepts chez Le Corbusier«, in: Ders.: Recueil d’essais critiques: architecture moderne et changement historique, Brüssel 1985, S. 59-74; Abraham Moles schrieb über »la méthode du transfert de concept«, in: Abraham Moles: Méthologie de la création scientifique, Genf 1963, S. 20.

128

Le Corbusiers »Traktat über das Entwerfen«

gekonnte Umdeutung des akademischen »plan poché«, der Le Corbusier bei der Anordnung der dienenden Bereiche oder Nebenflächen seiner großartigen »puristischen« Villen der zwanziger Jahre inspiriert haben soll. Die »coque de crabe« (Krabbenpanzer) ist berühmt als Ausgangsmotiv für die Form des Dachs von Ronchamp , und Danièle Pauly lenkte als erster das Augenmerk auf die von Le Corbusier im Vorfeld des Projektes gesammelten Bilder als Denkanstöße.14 Die von Le Corbusier in Sur les 4 routes (1941) bezeugte Begeisterung für die großen Ingenieurbauwerke, speziell für Staudämme, scheint mit der Tatsache verbunden zu sein, dass in zahlreichen Entwürfen der Nachkriegszeit die Rahmenform, die wie ein puristisches »prisme pur« dem Gebäude aus der Ferne betrachtet Einheit verleiht, oftmals Strukturen aus der Ingenieurbaukunst zu sein scheinen, sei es in den Dimensionen, sei es in der Gestalt des Tragwerks. Dies ist der Fall beim Justizpalast und beim Parlamentsgebäude in Chandigarh, beim Entwurf der wohl durchdachten Pilotis der Unité von Meaux, derjenigen von Firminy usw. Ein anderes klares Beispiel von »Übertragung« liegt der »promenade architecturale« zugrunde. Die Lektüre des städtischen Raumes, wie sie beispielsweise Sitte, Henrici oder Theodor Fischer vorschlagen, ihre Aufmerksamkeit für die Wirkungen von wahrgenommenen Öffnungen, Schließungen und Sequenzen, werden den jungen Jeanneret anspornen, mit den selben gedanklichen und grafischen Instrumenten zahlreiche schöne städtische Raumfolgen auf ihre Begrenzungen, Schwellen und Übergänge, auf die Wirkung von Bewegung hin etc. zu untersuchen. Zwar werden sie nicht dauerhaft seine Konzeption von Stadt inspirieren, sich aber in das einschreiben, was wir seine professionelle Auffassung des architektonischen Raums nennen könnten. In der »promenade architecturale« verbindet Le Corbusier schließlich einerseits die Eindrücke, die ihm die Forschungen in der Tradition von Camillo Sitte zum städtischen Raum liefern, mit der prozesshaften Wahrnehmung der Akropolis, wie sie Choisy (1899) aufzeigt.15 Der Autor dankt der Fondation Le Corbusier, insbesondere Herrn Direktor Michel Richard, für die erteilte Abdruckgenehmigung der Abbildungen in diesem Text. 14. Vgl. Danièle Pauly: »Ronchamp. La genèse du projet. Les rapport avec la tradition archtecturale«, in: Le Corbusier – La ricerca paziente, hg. v. Bruno Reichlin und Sergio Pagnamenta, Lugano 1980, S. 125-138. 15. Vgl. Jacques Lucan: »Die Propyläen der Akropolis von Athen: ein architektonisches Rätsel«, in: Daidalos 15, (März 1985); ders.: »Athènes et Pise – Deux modèles pour l’espace convexe du plan libre«, in: Les Cahiers de la recherche architecturale et urbaine 22/23 (Februar 2008), S. 59-78. Übersetzung aus dem Italienischen: Galina Möller.

129

Projektion der künftigen Architektur Zu László Moholy-Nagy: »von material zu architektur« SUSANNE HAUSER

Produktion – Reproduktion Als László Moholy-Nagy und seine damalige Frau Lucia 1922 ihren Entwurf für eine neue Kunst veröffentlichten, formulierten sie einen Übergang von der Nutzung einer Kulturtechnik zu einer anderen. »Produktion – Reproduktion«1 ist ein »Schritt von der Malerei zur Fotografie, von der Handarbeit zum apparativen System und zum systemimmanenten Experiment: Schöpferischmachen der Technik.«2 Das ist der Ausgangspunkt, von dem aus László Moholy-Nagy in »von material zu architektur« 1929 ein Resümee seiner Lehre am Bauhaus ziehen wird und einen Entwurf des architektonischen Entwerfens vorlegt.3 Unter dem Einfluss des russischen Konstruktivismus, insbesondere beeindruckt von Rodtschenko und Lissitzky, hatten sich beide Autoren in dem Text von 1922 mit der Vorstellung einer Kunst auseinandergesetzt, die Dekoration, Imitation, vor allem aber die Selbstbezogenheit bisheriger künstlerischer Arbeit kritisierte und statt dessen darauf zielte, für eine neue Gesellschaft unter Bezug auf die avanciertesten Techniken eine neue »Produktionskunst« zu entwickeln. Andreas Haus weist zu Recht darauf hin, dass László Moholy-Nagy die letzte Konsequenz dieser Haltung niemals gezogen hat, nämlich die Annahme einer materialistischen Auffassung der Kunst, die ihre Aufgabe in der »Anordnung von Material zur Konstruktion neuer gesellschaftlicher Lebenswelten« sieht. Vielmehr hat er die »gesellschaftliche Relevanz« anderweitig gesucht: »in einer Art Bildungs- und Sensibilisierungsauftrag am neuen Menschen«.4 Seine weitere Arbeit wird diesen »Auftrag« mit dem 1922 gefundenen Ausgangspunkt verbinden. Das Mittel wird die Fotografie sein: In Bezug auf ihre 1. László und Lucia Moholy-Nagy: Produktion – Reproduktion, in: De Stijl 5 (1922), S. 98-107. 2. Andreas Haus: Malerei – Fotografie – Bauhaus, in: Gottfried Jäger, Gudrun Wessing (Hg.), über moholy-nagy. Ergebnisse aus dem Internationalen László Moholy-Nagy Symposium, Bielefeld 1995, zum 100. Geburtstag des Künstlers und Bauhauslehrers, Bielefeld 1997, S. 139147, S. 139. 3. Angesichts der guten Forschungslage zu Moholy-Nagy kann sich der vorliegende Beitrag auf diesen Entwurfsaspekt konzentrieren. 4. Andreas Haus: Malerei – Fotografie – Bauhaus, S. 139.

131

Susanne Hauser

Potenziale entsteht das experimentelle Konzept einer sich über die Möglichkeiten des fotografischen Apparats entfaltenden Kunst und Gestaltung – doch mit einer Neigung zum nicht Kontrollierten, zum Experiment mit offenem Ausgang, die den Konzepten einer reinen Produktionskunst ebenso fremd ist wie den funktional und ökonomisch orientierten Gestaltungsvorstellungen etwa des Werkbundes. Jegliche Fetischisierung des Apparates fällt aus zugunsten seiner ebenso exzessiven wie spielerischen Untersuchung in Bezug auf die Optionen, die er einer neuen Kunst, einer neu zu bestimmenden und noch nicht realisierten »Gestaltung« im Allgemeinen, der Architektur im Besonderen zu bieten hat.5 Es geht um die Zunahme, nicht um die Begrenzung von Möglichkeiten, um eine Produktion von neuen Situationen, nicht um die Faszination der materialistisch zu verstehenden Mechanik oder Optik. Die – gelegentlich auch apparativ und funktional gedachte – Physis oder »Biologie«,6 die Wahrnehmungen wie Gestaltung ermöglicht, bleibt ebenso im Spiel wie die poetischen Momente der apparativ erzeugten Produktion. Die Fotografie ist allerdings nicht das einzige Medium und auch als Medium nicht vollständig genug, um ein neues und zeitgemäßes Sehen zu befördern. Moholy-Nagy verbindet sie mit Typographie, entwickelt das Typofoto und die Fotoplastik und gibt Fotobücher heraus, die einige Qualitäten mit dem Film teilen, nämlich in der Lage sind, der Dynamik des Wahrnehmens in einer modernen, technisch bestimmten, urbanen Umwelt nahezukommen und adäquate Formen des Sehens und der Sichtbarkeit ebenso zu reflektieren, zu lehren wie zu gestalten.

Sichtbares und Unsichtbares Im ersten Drittel des 20. Jahrhunderts faszinierten neue Erfahrungen von Dynamiken ebenso wie neue Entdeckungen, die die bisherigen Annahmen über Raum, Zeit und Wahrnehmung grundsätzlich in Frage stellten. Wissenschaftliche Entdeckungen, die weithin publiziert und diskutiert wurden, waren an der Erschütterung des Vertrauens in die unmittelbare Wahrnehmung beteiligt. 5. Erst Mitte der 1920er Jahre kommt die Fotografie an den avantgardistischen Hochschulen der Weimarer Republik als Lehrgegenstand an; vgl. Hanne Bergius: Die neue visuelle Realität. Das Fotobuch der 20er Jahre, in: Kunst- und Ausstellungshalle der Bundesrepublik Deutschland/Klaus Honnef/Rolf Sachsse/Karin Thomas (Hg.): Deutsche Fotografie. Macht eines Mediums 1870-1970, Köln 1997, S. 88-102, S. 99. – Im Bauhaus beginnt der fotografische Unterricht 1929 mit einem Kurs von Walter Peterhans; vgl. Eleanor Hight: Picturing Modernism: Moholy-Nagy and photography in Weimar Germany, Cambridge, Mass. 1995, S. 195. 6. Vgl. dazu László Moholy-Nagy: von material zu architektur (=Bauhausbücher 14), München 1929, z.B. S. 177ff; aus dieser Ausgabe wird im Folgenden zitiert. Zu späteren Ansichten Moholys über künstlerische Produktivität vgl. Otto Stelzer: Umrisse eines schöpferischen Experiments, in: László Moholy-Nagy: von material zu architektur, Faksimile der 1929 erschienenen Erstausgabe, 2Berlin 2001, S. 243-248, S. 244.

132

Projektion der künftigen Architektur

Unabweisbare Erkenntnisse über Ströme und Strahlen, Wellen und Energien verunsicherten die Vorstellungen von Materie. Die Entdeckung elektromagnetischer Wellen 1888 oder die der Röntgenstrahlen 1895 beschäftigten die wissenschaftliche, die künstlerische, die allgemeine Phantasie: Unsichtbar wirksame und bisher unbekannte Kräfte hatten sich nachweisbar manifestiert. Naturwissenschaftlich und technisch gesicherte Ansichten vermischten sich mit esoterischen Vorstellungen vom Immateriellen und seiner Natur. Die Formulierung der Relativitätstheorie und damit der gegenseitigen Abhängigkeit der Beschreibungen von Raum und Zeit 1905 dynamisierte das ganze Feld der Epistemologie; auch sie drang langsam, mehr oder weniger verstanden, mehr oder weniger phantastisch interpretiert, in künstlerische und populäre Diskussionen ein. Mögen wissenschaftliche Errungenschaften alltäglich ebenso sensationell wie abstrakt geblieben sein, so waren doch seit Beginn der Industrialisierung für eine ständig zunehmende Zahl an Menschen physisch wie psychisch konkrete Erfahrungen alltäglich geworden, die vertraute Vorstellungen von Raum und Zeit in Frage stellten. Die Entwicklung neuer Technologien in der Produktion wie die Revolutionierung der Fortbewegung, zuerst durch die Eisenbahn, später durch Auto und Flugzeug, waren irrititierende Erfahrungen dieser Art. Die verfügbaren Mittel der Abbildung, der visuellen Übersetzung und Darstellung erschienen immer wieder neu als unzulänglich darin, es mit den Erkenntnissen der Naturwissenschaften, mit den ingenieurtechnischen Entwicklungen wie mit den zeitgenössisch möglichen Erfahrungen aufzunehmen. Die Einschätzung der Fotografie wurde in diesen Zusammenhängen oft revidiert. Ihre »objektive« Weise, die Welt sichtbar zu machen und bestimmte Momente darin unverrückbar, reproduzierbar und wiederholbar vor Augen zu führen, nährte Hoffnungen auf eine erfolgreiche Trennung zwischen dem unberechenbaren Subjekt und den im Bild und über das Bild beherrschten Gegenständen:7 Verbürgten nicht die Mechanik des Apparates wie die exakt beschreibbaren physikalischen und chemischen Prozesse der Fotografie die Objektivität des Bildes? Doch bald wurden auch die Möglichkeiten der Fotografie, diese Voraussetzungen zu unterlaufen, Thema: in der kritischen Auseinandersetzung mit der Optimierung fotografischer Techniken, in der oft schwierigen Unterscheidung der fotografischen »Aufzeichnung von Fakten« und dem »Auftreten fotografischer Artefakte«8 – und in künstlerischen Experimenten und Überlegungen.9 7. Vgl. Lorraine Daston/Peter Galison: Das Bild der Objektivität, in: Peter Geimer (Hg.): Ordnungen der Sichtbarkeit. Fotografie in Wissenschaft, Kunst und Technologie, Frankfurt/Main 2002, S. 29-99. 8. Peter Geimer: Was ist kein Bild? Zur ›Störung der Verweisung‹, in: ders. (Hg.): Ordnungen der Sichtbarkeit 2002, S. 313-341, bes. S. 327ff. 9. Vgl. Jutta Hülsewig Johnen/Gottfried Jäger/J.A. Schmoll gen. Eisenwerth: Das Foto als autonomes Bild. Experimentelle Gestaltung 1839-1989, Stuttgart 1989.

133

Susanne Hauser

Während es in frühen künstlerischen Aneignungen der Fotografie vorwiegend darum gegangen war, bekannte malerische Effekte in das neue Medium zu übersetzen,10 wurden Möglichkeiten, die genuin aus seinen apparativen, physikalischen und chemischen Voraussetzungen hervorgehen, erst durch die europäischen Avantgarden des 20. Jahrhunderts als Mittel einer zeitgenössischen Kunst aufgegriffen. Fotogramme oder Negativdrucke stießen jetzt auf Interesse, Montagen, Doppelbelichtungen, die kontrollierte oder unkontrollierte Aufzeichnung von Bewegungsspuren eröffneten Möglichkeiten für eine die Technik sowohl vorzeigende als auch nutzende Kunst, die versuchte, Unsichtbares sichtbar zu machen und dynamisierte Vorstellungen von Raum, Zeit und Materie zu zeigen. Ziel der fotografischen Experimente der Avantgarden war die Anerkennung neuer Gegenstände, Sehweisen und -gewohnheiten, die eine neue Präzision der Abbildung und Darstellung erforderten. Diese – wie immer im Einzelfall auch verstanden – ist, so die durchgehende Überzeugung, am ehesten der Fotografie zugänglich. Das gilt für die futuristischen Experimente mit der Kamera vor dem Ersten Weltkrieg wie für die unter konstruktivistischen Vorzeichen in der UdSSR und die später im Umfeld des Bauhauses entstehenden Fotografien.11 Einflussreich waren dabei ältere und von wissenschaftlichem Erkenntniswillen motivierte fotografische Untersuchungen von Gegenständen, die dem Auge nicht unmittelbar zugänglich sind, beispielsweise die Bewegungsstudien Etienne-Jules Mareys.12 Moholy nennt in seinem ersten Bauhausbuch unter Verweis auf ihre Geschichte in der naturwissenschaftlichen Forschung die »Röntgenfotografie« als einen seiner künstlerischen Bezugspunkte, begleitet von dem faszinierten, programmatischen Kommentar: »Die Durchdringung des Körpers mit Licht ist eines der größten Seherlebnisse«.13 10. Positionen in: Wolfgang Kemp, Theorie der Fotografie Bd. 1, München 1980. 11. Vgl. z.B. Lista, Giovanni: Futuristischer Film und futuristische Fotografie, in: Norbert Nobis (Hg.): Der Lärm der Straße. Italienischer Futurismus 1909-1918, Ausstellungskatalog, Hannover 2001, S. 294-311; Lutz Schöbe (Hg.): Bauhaus-Fotografie. Aus der Sammlung der Stiftung Bauhaus Dessau, Katalog, Florenz 2002; Soviet Photography of the 1920s and 1930s, Katalog, Moskau 2004. 12. Vgl. Marta Braun: »Anton Giulio Bragaglia und die Fotografie des Unsichtbaren«, in: Museum Abteiberg Mönchengladbach (Hg.): Im Reich der Phantome, Katalog, Ostfildern-Ruit 1997, S. 109-119; dies., Picturing Time: The Work of Etienne-Jules Marey, Chicago 1992; zur Bewegungsfotografie Muybridges und anderer: Philipp Prodger: Time stands still. Muybridge and the Instantaneous Photography Movement, New York 2003. 13. László Moholy-Nagy: Malerei Fotografie Film (=Bauhausbücher Bd. 8). München 1927, S. 67; S. 29. – Erste Ausgabe: László Moholy-Nagy: Malerei, Photographie, Film (=Bauhausbücher Bd. 8), München 1925; verwendet wird die Ausgabe von 1927, für die u.a. Schreibweisen modernisiert und Texte überarbeitet wurden. – Mit der Abbildung geröntgter Hände und der eines geröntgten Frosches (ebd. S. 66f) greift Moholy auf das Motiv des ersten veröffentlichten Röntgenbildes überhaupt (die Hand der Ehefrau Konrad Röntgens) und ein klassisches Demonstrationsobjekt wissenschaftlicher Versuche zur Aufzeichnung unsichtbarer Strahlen zurück. Eine wunderbare Sammlung von durchleuchteten Fröschen ist zu sehen in: Carolin Artz: Das Fotogramm als visuelles Modell? Die Visualisierung nichtsichtbarer Strahlen

134

Projektion der künftigen Architektur

»Malerei, Fotografie, Film« (1927) – Reflexion der Mittel Für Moholy bedeuteten die Möglichkeiten der Fotografie ästhetische Optionen, den Bezug zu Naturwissenschaft, maschineller Produktion und ingenieurtechnischen Verfahren. Vor allem aber erlaubte seiner Ansicht nach die Fotografie, der er nicht nur in ihren Grundlagen, sondern auch in ihren Abbildungen Objektivität zuschrieb, zum »Optisch=Wahren« vorzudringen und das Sehen auf einen zeitgemäßen Stand zu bringen: »Damit wird die seit Jahrhunderten unüberwundene Bild= und Vorstellungssuggestion aufgehoben, die unserem Sehen von einzelnen hervorragenden Malern aufgeprägt worden ist.«14 Das erste Fotobuch von László Moholy-Nagy in der Reihe der Bauhausbücher befasste sich mit der Analyse der Möglichkeiten von Malerei, Fotografie und Film. Der zentrale Befund ist kurz und bündig: Da Fotografie und Film als »mechanisch=exakte« Verfahren der Malerei in der Darstellung überlegen sind, kann sich die Malerei nun »mit der reinen Gestaltung der Farbe befassen«, und zwar »ohne gegenständliche Beziehungen«. Die weitere Entwicklung der »optischen und technischen Instrumente« gibt dem optischen Gestalter neue Möglichkeiten, »unter anderem schaffen sie neben dem Pigmentbild das Lichtbild, neben dem statischen Bild das kinetische. (Neben dem Tafelbild bewegte Lichtspiele, statt Fresken – Filme in allen Dimensionen; selbstverständlich auch außerhalb des Filmtheaters).«15 Die Fotografie ist das Mittel der Kritik und der Überwindung der alten Formen. Sie erlaubt, mehr zu sehen als das dem unbewaffneten Auge möglich ist: »In der Erweiterung des Sehbildes ist selbst das heutige Objektiv schon nicht mehr an die engen Grenzen unseres Auges gebunden; kein manuelles Gestaltungsmittel (Bleistift, Pinsel usw.) vermag ähnlich gesehene Ausschnitte aus der Welt festzuhalten; ebenso unmöglich ist es dem manuellen Gestaltungsmittel, eine Bewegung in ihrem Kern zu fixieren; auch die Verzerrungsmöglichkeiten des Objektivs – Untersicht, Obersicht, Schrägsicht – sind keineswegs nur negativ zu werten, sondern geben eine unvoreingenommene Optik, die unsere an Assoziationsgesetze gebundenen Augen nicht leisten«.16 Die Fähigkeit zur Aufnahme von Bewegung, also zur Integration der »vierten Dimension«, ist Film wie Fotografie ohnehin gegeben, doch die Verfahren lassen sich steigern. Die Erzeugung zeitgemäßer Bilder verlangt die Reflexion dynamischer Aspekte im Bildraum selbst, etwa über die Integrain der wissenschaftlichen Fotografie um 1900, in: Ingeborg Reichle/Steffen Siegel/Achim Spelten (Hg.): Visuelle Modelle, München 2008, 137-154, S. 147ff. 14. László Moholy-Nagy: Malerei Fotografie Film, S. 26f. 15. Ebd., S. 7. 16. Ebd., S. 5.

135

Susanne Hauser

tion von Bild und Schrift, Bild und Wort.«17 »Fototexte« und »typographischoptisch-synoptische« Verfahren entsprechen der Idee der Herstellung einer »visuell-assoziativ-begrifflich-synthetischen Kontinuität.«18 Fotoplastiken, Bild-Text-Montagen oder Überlagerung mehrerer Fotografien, antworten in ihrer Gestaltung auf das neue, der Dynamik der zeitgenössischen Wahrnehmung entsprechende Verhältnis von Raum und Zeit und gewinnen eine »plastische« Qualität: »Sie sind, aus verschiedenen Fotografien zusammengesetzt – eine Versuchs=Methode der simultanen Darstellung«.19 Weitere experimentelle Thesen und Verfahren führen zum Fotogramm: »Wenn wir auf dem Gebiete der Fotografie eine Umwertung in produktiver Richtung vornehmen wollen, müssen wir die Lichtempfindlichkeit der fotografischen (Bromsilber)=Platte dazu benutzen: die von uns selbst (mit Spiegel= oder Linsenvorrichtungen, durchsichtigen Kristallen, Flüssigkeiten usw.) gestalteten Lichterscheinungen (Lichtspielmomente) darauf zu fixieren.«20 Die Charakterisierung von Verfahren mit und ohne Apparat lässt den Schluss zu: »Hier liegen Gestaltungsmöglichkeiten einer neu eroberten Materie.«21 Licht ist der gemeinsame Nenner, auf den sich die Funktionen der Fotografie wie die Reflexion der Materialität bringen lassen. Licht ist auch das Medium, in dem sich ein neues Verständnis des Raumes artikuliert, das für den Entwurf einer neuen Architektur grundlegend ist: »Das Entstehen neuer technischer Mittel hat das Auftauchen neuer Gestaltungsbereiche zur Folge; und so kommt es, daß die heutige technische Produktion, die optischen Apparate: Scheinwerfer, Reflektor, Lichtreklame, neue Formen und Bereiche nicht nur der Darstellung, sondern auch der farbigen Gestaltung geschaffen haben. Bisher war das Pigment das herrschende Mittel farbiger Gestaltung, als solches erkannt und verwendet für die Tafelbildmalerei ebenso wie in seiner Eigenschaft als ›Baumaterial‹ in der Architektur.«22 »Es ist wahrscheinlich, daß die künftige Entwicklung den größten Wert auf die kinetische projektorische Gestaltung legen wird, sogar wahrscheinlich mit im Raume freischwebenden, einander durchdringenden Farbengarben und =massen ohne direkte Projektionsfläche;

17. László Moholy-Nagy: Malerei Fotografie Film, S. 36ff. – Claudia Müller nennt als Vorläufer des experimentellen Umgangs Moholys mit Bild und Schrift u. a. Theo van Doesburgs »Buchstabenklangbilder« (1913-1919/1921 erschienen) und El Lissitzkys »Suprematistische Geschichte von 2 Quadraten in 6 Konstruktionen« (1920/1922). Parallelen zur Entwicklung des Typofotos sieht Müller u.a. in Kurt Schwitters’ und El Lissitzkys »Nasci-Heft« (Merz 8/9) von 1924; vgl. Claudia Müller: Typofoto. Wege der Typographie zur Foto-Text-Montage bei Laszlo Moholy-Nagy, Berlin 1994, S. 21ff bzw.S. 47ff. 18. László Moholy-Nagy: Malerei Fotografie Film, S. 37f. 19. Ebd., S. 34. – Der Ausdruck verweist auf den »Neoplastizismus« der de Stijl-Bewegung. 20. Ebd., S. 29. 21. Ebd., S. 30. 22. Ebd., S. 18.

136

Projektion der künftigen Architektur

sie wird durch die ständige Vervollkommnung ihrer Instrumente viel größere Spannungsbereiche umfassen als das entwickeltste statische Bild.« 23

Abb. 1: Aus: Lászlo Moholy-Nagy: Malerei, Fotografie, Film.

Abb. 2: Aus: Lászlo Moholy-Nagy: Malerei, Fotografie, Film.

Als experimentelles und »produktives« Medium lässt sich schließlich das gesamte (Foto-)Buch lesen, im Textteil wie im darauf folgenden Bildteil: Das die einzelnen Seiten übergreifende Layout dieses zweiten Teils und die Konfrontation unterschiedlicher Bildmotive sind suggestive Gestaltungsmittel. Sparsame Bildüberschriften, -umschriften und -unterschriften verbinden Bild und Text, die Bildmotive als solche sind selten genannt, dafür werden die Bilder 23. Ebd., S. 24.

137

Susanne Hauser

im Hinblick auf die Spuren des Herstellungsvorganges und auf das, was sich für ein neues Sehen von ihnen lernen lässt, kommentiert. Zu sehen sind Brechungen durch Gläser und verzerrende Spiegel, Bilder, die die klassische Perspektive verlassen, solche, die keine Orientierung in Zeit und Raum erlauben, die mikroskopisch kleine wie astronomisch große Strukturen oder vielfältig deutbare Motive unklarer Dimensionen zeigen. Das Interesse gilt Lichtspielen, Lichtreflexen und Lichtspuren in Nachtfotografien, Blitzaufnahmen, Bewegungs- und Röntgenbildern, drahtlos telegrafierten Gesichtern und Fingerabdrücken, Überlagerungen mehrerer Bilder und Luftaufnahmen. Fotogramme, Tricktischaufnahmen aus künstlerischen Kurzfilmen und Montagen stehen neben eigenen Fotoplastiken und Entwürfen für Plakate: Das Thema ist die Untersuchung der Möglichkeiten der aktuellen Bildmedien in der Erfassung, Beschreibung und Untersuchung von Materie, Bewegung, Raum und Zeit. Das Vorgehen erscheint dem Autor als neu und erklärungsbedürftig. Zur Einleitung des Bildteils ist zu lesen, als Überschrift gesetzt und in Majuskeln: »Manchen der nächstfolgenden Abbildungen ist ausser den sachlichen Angaben eine kurze Erklärung beigefügt.« Und unten auf der Seite, linksbündig an die Mittellinie geschoben, in kleinerer Schrift: »Ich lasse das Abbildungsmaterial getrennt vom Text folgen, da es in seiner Kontinuität die im Text erörterten Probleme VISUELL deutlich macht.«24 Moholy entwirft ein nicht-lineares Modell der Imagination, das er als zukunftsweisende Form für Erkenntnisprozesse betrachtet. Die bildorientierte Vermittlung der Illustrierten, auf die er sich mit seinem Konzept der visuellen Verdeutlichung bezieht, hält er für ein Verfahren, dessen Generalisierung nur noch eine Frage der Verfügbarkeit von Bildmaterial ist: »Mit der Entwicklung der Bildtelegrafie, die die Beschaffung von Reproduktionen und präzisen Illustrationen im Augenblick ermöglicht, werden wahrscheinlich sogar filosofische Werke mit den gleichen Mitteln arbeiten – wenn auch auf höherer Ebene – wie die jetzigen amerikanischen Magazine. Selbstverständlich werden diese neuen typografischen Werke in ihrer Gestalt typografisch=optisch=synoptisch von den heutigen linear=typografischen durchaus verschieden sein.« 25

»von material zu architektur« (1929) »von material zu architektur« ist ein Lehrbuch, veröffentlicht, als sowohl Moholy als auch Gropius das Bauhaus bereits verlassen haben. Der Titel ist Programm: Er formuliert die Architektur als Ziel aller Künste, in dieser Hinsicht den Ansichten Gropius’ verwandt.26 In mehrfacher Weise ist dieser 14. 24. László Moholy-Nagy: Malerei Fotografie Film, S. 45. 25. Ebd., S. 37. 26. Zur Beziehung von Moholys Lehrbuch zur bisherigen Arbeit am Bauhaus, zu Konzepten

138

Projektion der künftigen Architektur

Band der Bauhausbücher eine Summe der bisherigen Arbeit Moholys. Das Buch nimmt seine Erfahrungen in der Lehre auf wie den Stand seiner Untersuchungen und Experimente zu Wahrnehmung und Fotografie. Es weist darüber hinaus, indem es seine Gegenstände im Hinblick auf die Frage behandelt, wie seine, Moholys, Experimente und Analysen für die Wahrnehmung des Neuen, für die Entwicklung einer noch unbekannten und künftig erst zu entwerfenden Architektur produktiv werden können. Die Textebene (in absoluter Kleinschreibung27) und die Bildebene sind verschränkt. Das produktive Spiel mit fotografischen Techniken tritt gelegentlich zurück zugunsten einer fotografisch schlichten dokumentarischen Präsentation dreidimensionaler Objekte, die allein über ihre Kontextualisierung zur Entfaltung des Konzeptes beitragen. Wo die Schärfung der Wahrnehmung und der Übergang zu einer neuen Gestaltung thematisiert und initiiert werden, gewinnt die experimentelle Fotografie ihre Rolle als Sensibilisierungsinstrument wieder. Der mediale Zugriff hat neben der didaktischen auch hier eine heuristische Funktion, das Ziel des Buches liegt in der Auslösung von produktiven, über reflektierende Texte, die Gestaltung der Text-Bild-Seiten und die Bildmedien kontrollierten und dann offenen Prozessen: »es will eine führungslinie aufzeigen mit dem deutlich gesetzten ziel, den menschen zum eigenen erlebnis anzuregen.«28 Die Aufgabe hat historische wie anthropologische Dimensionen, es geht darum, »zur selbsterkenntnis, und von hier aus zum eigenen zeitlichen ausdruck zu gelangen«.29 Das Lehrbuch sagt nicht, wie zu entwerfen wäre. Es weist in 209 Fotografien, in immer wieder neu ansetzenden Texten wie im Layout darauf hin, welche Wege zu gehen sind, um eine Architektur zu entwerfen, die den von Moholy postulierten Tendenzen der Gestaltung entspricht: Entmaterialisierung, Beschleunigung und Dynamisierung, Neukonzeptualisierung des Raums, Gestaltung mit Licht. Die Annahmen strukturieren das Werk, das, nach einer kurzen Einführung zu »erziehungsfragen«30 drei Teile enthält: »das material«, »der weitere weg des materials: das volumen (plastik)«, »raum (architektur)«. In allen drei Hauptteilen stellen sich dieselben Fragen auf unterschiedliche Weise.

Ittens, Kandinskis und Klees vgl. Eleanor Hight: Picturing Modernism: Moholy-Nagy and photography in Weimar Germany, Cambridge, Mass. 1995, S. 187ff. 27. Vgl. Claudia Müller: Typofoto, S. 57f. 28. László Moholy-Nagy: von material zu architektur, S. 6. 29. Ebd., S. 8. 30. Ebd., S. 9-19; die Einführung stellt die Arbeit in anthropologische, gesellschaftstheoretische wie pädagogische Bezüge: Die »organischen funktionen« des in allen Sinnesdingen und mit »schöpferischen energien« begabten Menschen sollen entfaltet werden; sie sind die »organische basis für eine produktion, deren mittelpunkt der mensch ist und nicht profitinteressen mit mechanischem werkresultat.« Zitat S. 14.

139

Susanne Hauser

Material und Entmaterialisierung An Material, natürlich vorfindbarem, an traditionell verwendeten Materialien wie an neuen Kunststoffen, interessieren zuerst die tastbaren Eigenschaften. Von ausführlichen Übungen zu Tasterfahrungen und dem Bau von Tastgeräten führt der Weg auf eine Bildebene, unterstützt von vier Begriffen, die das Konzept der Materialität organisieren: »struktur«, »die unveränderbare aufbauart des materialgefüges«; »textur«, »die organisch entstandene abschlußfläche jeder struktur nach außen«; »häufung (haufwerk)«; »faktur«, »die art und erscheinung, der sinnlich wahrnehmbare niederschlag (die einwirkung) des werkprozesses, der sich bei jeder bearbeitung an material zeigt, also die oberfläche des von außen her veränderten materials.« Relevant sind neben »musterungen« und »vollkommene[r] glätte« auch »lichterscheinungen«, denen also ein materialer Charakter zugesprochen wird.31 Das fotografische Bild der Materialien deckt nun »den unendlichen reichtum der materialerscheinungen auf. Die exakte, scharfe fotografie ist der beste vorbereiter einer neuen materialkultur, weil sie in der konzentriertheit ihrer einstellung ein verkürztes (wenn auch gedämpftes) verfahren zum erlebnis des materials bietet. für den heutigen gehetzten menschen ein anreiz, um langsam dem objekt selber wieder nahezukommen.«32 Strukturen, Texturen wie Fakturen zeigen sich in der Fotografie deutlich: im Negativbild die Textur des Fells einer Katze, in Nah- und »mikroaufnahmen« Fakturen wie die Rillen einer Schallplatte (»carusos hohes c«), in der »flugzeug-« oder »fliegeraufnahme« die Faktur eines gemähten Roggenfeldes, die Struktur einer Gebirgsformation. Moholy begreift letztere als »makroaufnahmen: ›raumraffer‹; eine erweiterung der beobachtung.«33 Der Kamerablick aus dem Flugzeug ist eine Methode, den Raum als strukturierte (Bild)Fläche zu lesen und dadurch einen neuen Zugang zum architektonischen Entwerfen zu gewinnen.34 Fluchtpunkte aller Materialübungen sind, und das erklärt ihre besondere Affinität zur Fotografie, die dynamische Lichterscheinung und die Gestaltung mit Licht. Reines Licht und reine Lichtgestaltung sind auch die Höhepunkte der kunsthistorischen Genealogie, die Moholy für seine Arbeiten und seine Lehre in Anspruch nimmt.35 Kubisten, Futuristen und anderen »isten« schreibt 31. László Moholy-Nagy: von material zu architektur, S. 33. 32. Ebd., S. 39; vgl. auch S. 24, Anm. 2. 33. Ebd., S. 37. 34. Zum Verhältnis der Avantgarden zur Luftfahrt vgl.: Christoph Asendorf: Super Constellation, Flugzeug und Raumrevolution. Die Wirkung der Luftfahrt auf Kunst und Kultur der Moderne, Wien, New York 1997, bes. S. 42ff. 35. Veit Loers hat darauf hingewiesen, dass Moholys Werk »zwischen kosmischen Utopien, Raum-Zeit-Kontinuum, Gnostik und konstruktiver Wissenschaftlichkeit pendelt« und seine Vorstellungen von Licht an theosophische, gnostische, mystische Konzepte erinnern. Veit

140

Projektion der künftigen Architektur

Moholy die exakte Analyse von Material und Werkzeug der künstlerischen Produktion wie von Gegenständen und Sujets zu, die eine »präzise wiedergabe der gegenstandserlebnisse«36 erlaube. »neoplastizismus (mondrian, doesburg)«, »suprematismus (malewitsch)«, »konstruktivismus (tatlin, rodtschenko, lissitzky, moholy-nagy)« wird die weiterführende Bemühung zugeschrieben, »die gefundenen optischen ausdrucksmittel rein zu verwenden, ohne die verbiegung ihres sinnes, die unausbleiblich ist, wenn sie mit assoziationen von naturobjekten überdeckt werden.«37 Technisch gelingt das beispielsweise durch irisierende Farben auf spiegelnden Flächen, die zur Folge haben, dass »durch spiegelung und reflexe« »die umgebung in die bildebene« eindringt: »die fläche wird zu einem teil der atmosfäre, des atmosfärischen grundes, indem sie die außer ihr existierenden lichterscheinungen aufsaugt«. 38 Den letzten logischen Schritt schreibt Moholy Kasimir Malewitsch zu, der auf eine weiße Leinwand ein weißes Quadrat malt. Moholy sieht darin eine Projektionswand für Licht und Schatten, kommt über die Vorstellung der Fixierung der Licht- und Schatteneffekte auf die Fotografie und von dort auf die ihm folgerichtig erscheinende »weiterführung dieser arbeit«, die er in »der beweglichen reflektorischen licht=(farben=)gestaltung« sieht.«39 Als gelungenes Beispiel in diesem Sinne und als abschließendes Bild des Kapitels über das Material ist ein Fotogramm Moholys zu betrachten.

Volumen und Bewegung »der neue maler wird gestalter von lichtrelationen und der neue plastiker gestalter von volumen= und bewegungsbeziehungen.«40 Unter dieser Prämisse untersucht Moholy die »plastik von der materialbehandlung her«.41 Er unterscheidet fünf Entwicklungsstadien, differierend im Grad der »volumenerfassung«,42 wobei Moholy betont, dass die entscheidenden Qualitäten, die »ausdrucksintensität«, der »ausdruck der aufrichtigen, nicht imitierten erlebnisse«, der »organische« Ausdruck, von der Zuordnung zu einer Stufe unabhängig sind.43 Loers: Moholy-Nagys »Raum der Gegenwart« und die Utopie vom dynamisch-konstruktiven Lichtraum, in: László Moholy-Nagy, Katalog, Stuttgart 1991, S. 36-51, Zitat S. 47. 36. Vgl. László Moholy-Nagy: von material zu architektur, S. 81ff. 37. Ebd., S. 88. 38. Ebd., S. 90. 39. Ebd., S. 91. – Vgl. Kasimir Malewitsch: Die gegenstandslose Welt (= Bauhausbücher 11), München 1927. Moholy hat sich intensiv mit Malewitsch auseinandergesetzt; den Bauhausband hat er gestaltet. 40. László Moholy-Nagy: von material zu architektur, S. 94. 41. Ebd., S. 96. 42. Ebd., S. 113. 43. Ebd., S. 177, 178, 188; Moholy unternimmt mehrere Versuche, aus »biologie« und »funktion«

141

Susanne Hauser

Die Stufen reichen vom simplen Block über die modellierte und ausgehöhlte, über die perforierte und durchlöcherte, über die schwebende Plastik bis zur kinetischen. Der Zielpfeil läuft »vom material=volumen zum virtuellen volumen; von der tasterfassung zur visuellen, beziehungsmäßigen erfassung.«44 Das macht auch gleich klar, weshalb die Fotografie, das fotografische Bild, das festgehaltene Licht, tauglich sind auch für die adäquate Präsentation der zeitgenössisch bedeutendsten Volumenbildungen. Mit über hundert Fotografien von knapp kommentierten Plastiken greift Moholy auf das Prinzip der visuellen Überzeugung zurück, das er in seinem ersten Fotobuch verfolgt hatte, und vertraut, zumindest für die ersten drei Stadien, auf »bilderbeispiele«, während die folgenden zwei Bild und Text verlangen.45 Die Beispiele ignorieren jegliches bekannte Bezugssystem, jede ästhetische oder symbolische Wertehierarchie, jeglichen gewohnten Kontext oder Bedeutungszusammenhang der Objekte und Fotografien. Als archaisch oder grundlegend erscheinen ägyptische Pyramiden, die Kaaba, stereometrische Figuren, Bronzen von Brancusi; Beispiele der zweiten Stufe, auf der der Block »vorsichtig modelliert« wird,46 sind Idole, eine mittelalterliche Plastik, Werke von Zeitgenossen – von Archipenko bis Vantongerloo. Das dritte Stadium versammelt Beispiele, die im besten Falle »eine bis an die grenzen des materials reichende steigerung in der durchdringung von leere und fülle« zeigen sollen:47 Plastiken aus Hawaii, Skulpturen Leonardo da Vincis, Plastiken der Ausstellung der russischen Konstruktivisten von 1921, auch das »gerippe eines luftschiffs«,48 attraktiv als Beispiel einer Plastik, die über statisches Können hinaus auch das Wissen eines Ingenieurs verlangt.49 Das vierte Stadium ist repräsentiert durch die »schwebende plastik«. Sie enthält, »zunächst teoretisch, die material= bzw. volumenbeziehungen und alle zugehörigen attribute nur in bezug auf das eigene system«, sie ist »ein volumen an sich«. Bei ihrer derzeitigen Realisierung, auch unter Berücksichtigung von Ballonen oder Flugzeugen, stört noch die Gravitation, eine Voraussetzung, deren Erledigung Moholy durch die »verwendung von magnetischen bzw. fernelektrischen kräften«50 bei künftigen Projekten erhofft. Die schwebende Plastik den »organischen« Ausdruck abzuleiten und kommt zu dem Schluss, dass die (noch) unerklärliche Fähigkeit zur Gestaltung möglicherweise durch eine Elementenlehre zu fördern sei, dass aber letztlich »seine innere sicherheit« den Gestalter, den Künstler »zur wahl in der richtung seines ausdruckswunsches drängen« wird; ebd. S. 191. 44. Ebd., S. 167. 45. Ebd., S. 152. 46. Ebd., S. 101. 47. Ebd., S. 113. 48. Ebd., S. 121. 49. Ebd., S. 133. 50. Ebd., S. 152.

142

Projektion der künftigen Architektur

steht in vager Beziehung zu kosmischen Dimensionen: »ob bei den betrachtungen über die kinetische und schwebende plastik kosmische verknüpfungen mit der entstehung der himmelskörper als rotationsmassen möglich sind, muß einer umfassenden biologischen forschung überlassen bleiben.« 51 Im fünften Stadium ist der denkbare Höhepunkt der Entmaterialisierung erreicht, die Plastik entsteht durch Bewegung: »hier wird das material nicht allein aufgelockert; es wird beinahe überwunden, indem es als träger von bewegungen, der durch diese bewegungen zu schaffenden virtuellen (volumen=) beziehungen verwendet wird. zu den drei dimensionen des volumens kommt als vierte die bewegung hinzu.«52 Dieses Ideal ist verwirklicht in »bewegung von meist linienhaften materialumfängen, ringen, stäben und anderen objekten«. 53 Entsprechende Spielzeuge, Feuerwerke und Springbrunnen, Reklameprojektionen auf Häuser und Wolken und die dafür notwendigen Riesenprojektoren erscheinen auf den nächsten Bildseiten und dienen als Beispiele für »überaus interessante versuche«.54 »ein diagramm der lichtbewegungen, herrührend von lichtreklamen, straßenlaternen und vorbeifahrenden wagen« mit dem Kommentar: »die neue schrift der großstadt«55 lässt den Entwurf der idealen Plastik zwischen Lichtbild, Schrift und (Bewegung im) Stadtraum oszillieren.56

Raumgestaltung Parallelen zu den für das Material der Gestaltung wie für die Charakteristik des Volumens vorgeführten Tendenzen zur Entmaterialisierung sieht Moholy in allen Künsten, auch in der Architektur: »ein solches suchen nach ausdruck mittels des zu überwindenden bzw. zu sublimierenden materials findet sich auf allen gestaltungsgebieten. so geht der weg [...] in der architektur: vom geschlossenen zum offenen raum, vom gebundenen innenraum zum absoluten raum.«57 Diesen zu definieren und auf die künftige Architektur zu projizieren, ist eine Aufgabe, die weniger Bestätigung und Klärung aus Beispielen und 51. Ebd., S. 155, Anm. 52. Ebd., S. 115; vgl. dazu auch die Zitate aus eigenen Manifesten und dem Realistischen Manifest von Naum Gabo und Antoine Pevsner von 1920; ebd. S. 162f. 53. Ebd., S. 155. 54. Ebd., S. 163. 55. Ebd., S. 170. 56. Diverse Architekturdebatten drehen sich seit Mitte der 1920er Jahre um »Lichtarchitektur« – unter Rekurs auf die Möglichkeiten der elektrischen Beleuchtung (von Autoscheinwerfern, Lichtreklamen bis zu nächtlichen großstädtischen Lichtinszenierungen von Bauten), unter dem prinzipielleren und gelegentlich mystisch aufgeladenen Aspekt der Untersuchung des »Lichtes«. Vgl. Werner Oechslin: Lichtarchitektur: Die Genese eines neuen Begriffs; Dietrich Neumann: Kunstlicht und Avantgarde, beide Beiträge in: Dietrich Neumann (Hg.): Architektur der Nacht, München u. a. 2002, S. 28-34 bzw. S. 36-51. 57. László Moholy-Nagy, von material zu architektur, S. 174.

143

Susanne Hauser

vorhandenen Gegenständen nehmen kann als die bisherigen Argumentationen. Der Versuch einer Parallele zum analytischen Vorgehen im Kapitel über die Volumen wird angelegt, doch nicht ausgearbeitet: »die füllung mit inhalt, das auffinden zugehöriger beispiele muß vom einzelnen besorgt werden.«58 Die vorgeschlagene Hierarchie, in diesem Fall auch eine historische Folge, läuft vom geschlossenen zum offenen Raum: »1. einzellig, geschlossen, (hohlkörper), zelt 2. einzellig, eine seite offen 3. mehrzellig, geschlossen, durch ungebrochene wände verbunden 4. geometrische formung der zellendurchdringung 5. offen, fluktuierend, in der horizontale (wright, [...]) 6. dasselbe nach der vertikale hin (geöffnet); typ: schiffsbrücke. Die durchdringung erfolgt nicht nur seitlich, sondern auch nach oben und unten [...]. der deckengrund ist anders als der bodengrundriß [...].«59 Erst in den letzten beiden Phasen sieht Moholy die »plastik ausgeschaltet zugunsten raumgestalterischer fassung.«60 Die fundamentale Bestimmung des Raumes, die diese Kritik erlaubt, stammt aus der »fysik«: »›raum ist lagebeziehung von körpern‹. demnach: raumgestaltung ist die gestaltung von lagebeziehungen der körper (volumen). diese definition müssen wir mit dem organmäßigen erleben konfrontieren, um sie richtig erfassen zu können.«61 Hier ist Forschungsarbeit zu leisten, und zwar eine, die visuelle, akustische, taktile Aspekte der Raumerfassung über Bewegung und den Gleichgewichtssinn berücksichtigt. Weitere »raumerlebend funktionierende empfindsamkeiten unseres körpers« werden vermutet, »sie gehören wahrscheinlich in die gruppe jener sinnestätigkeiten, die atmosphärisches und telepatisches aufnehmen und weiterleiten.« 62 Die anthropologische Kenntnis fehlt ebenso zum Entwurf einer neuen Architektur wie eine weitere Voraussetzung: die sorgfältige Pflege des »instinkt[s]. des menschen«.63 Das jetzige unzureichende Wissen über den Raum ist also nicht unmittelbar auf die Architektur zu projizieren. Ein Kriterium für »raumgestaltung« kann aber formuliert werden: »erst wenn verkehr, bewegung, hör- und sichtbarkeiten in dauernder spannung ihrer räumlichen beziehungen erfaßt sind, wird von

58. 59. 60. 61. 62. 63.

László Moholy-Nagy, von material zu architektur , S. 211. Ebd., S. 212. Ebd., S. 212. Ebd., S. 195. Ebd., S. 196. Ebd., S. 199.

144

Projektion der künftigen Architektur

einer raumgestaltung gesprochen werden können.«64 – »der generalnenner ist die erfassung des dynamischen (kinetischen) in der gleichwertigen verwendung aller beziehungselemente – im gegensatz zu statischen, hierarchischen fixierungen früherer perioden. [...] heutige raumerlebnisse beruhen auf dem ein= und ausströmen räumlicher beziehungen in gleichzeitiger durchdringung von innen und außen, oben und unten, auf der oft unsichtbaren auswirkung von kräfteverhältnissen, die in den materialien gegeben sind.« 65 Fotografien argumentieren, wo Wissen und (Schrift-)Sprache nicht weiterhelfen. Sie fungieren als Vorzeichen und Anzeichen der Architektur, die es noch nicht gibt. Es überrascht nun nicht, dass klassische fotografische Blickpunkte und Perspektiven für den Entwurf des neuen architektonischen Raumes unangemessen sind, angemessen ist der Blick aus dem Flugzeug oder die Sicht von unten nach oben: »vom aeroplan tun sich neuen sichten auf. ebenso von der tiefe in die höhe. aber das wesentliche für uns ist die flugzeugsicht, das vollere raumerlebnis, weil es alle gestrige architekturvorstellung verändert.«66 Indizien der künftigen Entwicklung sind bestimmte, nicht im klassischen Sinne architektonische Objekte und Situationen. Sie sind zu sehen in Bildern von Ozeandampfern, Filmkulissen, Ausstellungsbauten und (eigenen) Bühnengestaltungen oder einem Autorennen (»ein kondensiertes raumerlebnis, das sich aus weiter sicht und vielgeschichteten bewegungen zusammensetzt«).67

Abb. 3: Aus: Lászlo Moholy-Nagy: von material zu architektur. 64. Ebd., S. 197. 65. Ebd., S. 203. 66. Ebd., S. 222. – Vgl. Rodtschenko, der 1928 diese beiden Möglichkeiten als die interessantesten bezeichnet hatte: Alexander Rodtschenko: Offene Unkenntnis oder ein gemeiner Trick? In: Wolfgang Kemp, Theorie der Fotografie Bd. 2, München 1979, S. 87f. 67. László Moholy-Nagy: von material zu architektur, S. 207.

145

Susanne Hauser

Diese Bilder sollen zeigen, was Moholy sucht, »raumgestaltung als ausdrucksform des menschen, aus innerem trieb«, »neue sfären der befreiung des heutigen menschen«. In den gezeigten »durchsichten und durchdringungen«68 sieht Moholy Räume neuer Qualität: »von hier aus bahnt sich auch ein weg für die zukünftige architektur: das innen und das außen, das oben und das unten verschmelzen zu einer einheit. [...] öffnungen und begrenzungen, durchlöcherungen und bewegliche flächen reißen die periferie zur mitte und stoßen die mitte nach außen. ein stetes fluktuieren, seitwärts und aufwärts, strahlenhaft, allseitig, meldet dem menschen, daß er den unwägbaren, unsichtbaren und doch allgegenwärtigen raum – soweit seine menschlichen beziehungen und heutigen vorstellungen reichen – in besitz genommen hat.«69

Abb. 4: Aus: Lászlo Moholy-Nagy: von material zu architektur.

Über diesen letzten Satz des argumentierenden Textes führen weitere sparsam mit Bildunterschriften versehene Fotografien hinaus. Sie zeigen in Luftbildern Kühltürme eines Kraftwerks, Baustellen eines Hochhauses und eines Generators, eine viel befahrene Straßenkreuzung in New York, dazu weitere Verkehrsbauten, Fabrikanlagen, einen Blick in einen Innenraum: »le corbusier: wohnhaus 1925«, die Fassade des Bauhaus Dessau als spiegelnde Struktur, einen Fahrstuhlschacht als abstraktes, dynamisch rotierendes Element. Das Schlussbild ist präsentiert als Summe: »aus zwei übereinanderkopierten fotos (negativ) entsteht die illusion räumlicher durchdringung, wie die

68. László Moholy-Nagy: von material zu architektur, S. 215, 216, 220. 69. Ebd., S. 222. – Vgl. dazu Theo van Doesburg: Auf dem Weg zu einer gestaltenden Architektur, in: Hans C.L. Jaffé: De Stijl 1917-1931. Der niederländische Beitrag zur modernen Kunst, Berlin u. a. 1965, S. 189ff.

146

Projektion der künftigen Architektur

nächste generation sie erst – als glasarchitektur – in der wirklichkeit vielleicht erleben wird.« Unterschrieben ist es mit »›architektur‹«.70

Abb. 4: Aus: Lászlo Moholy-Nagy: von material zu architektur.

Entwerfen und Fotografie Die Relativierung von Zeit und Raum und die analytisch-konstruktivistische Grundhaltung nicht nur im Hinblick auf die eigenen Produktionen, sondern auch gegenüber den Gegenständen der Wahrnehmung sind für die künstlerischen Avantgarden 1920er Jahren zentrale Prämissen. Bei Moholy-Nagy geraten die damals innovativsten Medien, Film, Fotografie und Fotobuch in neuem Verständnis ihrer Potenziale in die Funktion der Garanten sowohl einer neuen Wahrnehmung wie einer neuen künstlerischen Produktion: Sie erlauben, Wahrnehmung und Gestaltung zu analysieren, zu konstruieren und kurzzuschließen. Sie tragen in eine als relativ erkannte Raum- und Zeitordnung, in einen maßlosen, fluktuierenden Raum und in eine maßlose Zeit Beziehungen und Orientierungen ein – unter der Prämisse einer Entmaterialisierung der Gegenstände der Gestaltung im allgemeinen, der Architektur im Besonderen. Moholy bezieht eine Position in der Entwicklung gesellschaftlicher Praktiken der Verortung und Vergegenwärtigung, die sie in einem bisher noch nicht gekannten Maße von Apparaten wie von dekontextualisierten Bildern und erst neu zu definierenden Umgangsweisen mit ihnen abhängig machen. Seine Position kann als Analyse wie Synthese, als Diagnose wie als Vorschlag zur praktischen Bewältigung der zweifelhaft gewordenen Verhältnisse von 70. László Moholy-Nagy: von material zu architektur, S. 236.

147

Susanne Hauser

Materie, Zeit und Raum gelesen werden – mit dem Ziel, die Souveränität des Individuums unter neuen und sich dynamisch verändernden Bedingungen zu stärken. Das Ergebnis ist ein Prototyp ästhetischen und epistemologischen Vorgehens, der das Konzept des Entwerfens auf Raum, Zeit und Materie ausdehnt, dem medialen Arrangement eine grundsätzliche organisierende wie projektive Kraft zuschreibt und darüber die Gestaltung zu revolutionieren sucht: Anthropologische wie weitere Voraussetzungen der künftigen Architektur mögen noch nicht verstanden sein, doch im Medium der Fotografie wird die zeitgenössisch zu entwickelnde Raumgestaltung fassbar. In der Fotografie ist Moholys Einfluss auf die experimentelle Fotografie der 1950er und 1960er Jahre unbestritten, unter anderem auf die »subjektive Fotografie« der Gruppe fotoform71 wie auf die Generative Fotografie, die »den Fotoprozeß einer strengen Formanalyse« unterzieht, »indem sie einzelne Gestaltungsparameter isoliert, sie schrittweise variiert und zur Darstellung bringt«, unter Bezug auf Sprachtheorie, Zeichentheorie und die Ästhetik Max Benses.72 Herbert W. Francke, einer der einflussreichen Protagonisten einer kybernetischen Ästhetik, setzt in »Kunst und Konstruktion: Physik und Mathematik als fotografisches Experiment« die von Moholy intensiv geführte Diskussion der Beziehung von Kunst und Technik fort.73 – Moholys Lehre in Chicago ab 1937, seine fortgesetzten Veröffentlichungen wie seine fotografische Praxis waren für die US-amerikanische Architektur- und Designlehre folgenreich. Die Struktur der Ausbildung wurde von zahlreichen Hochschulen in den USA übernommen und war eine der Grundlagen der zeitweisen Abkehr von BeauxArts Traditionen.74 »von material zu architektur« wurde in den USA unter dem Titel »The New Vision. From Material to Architecture« zwischen 1932 und 1947 vier Mal aufgelegt, die letzte Auflage bis 1964 nachgedruckt.

71. Drei einflussreiche Ausstellungen zur »subjektiven fotografie« in den Jahren 1951, 54 und 58 wurden von Otto Steinert unter Bezug auf die experimentelle Fotografie der 1920er Jahre kuratiert; vgl. dazu die Skizze von J.A. Schmoll gen. Eisenwerth: Die drei Hauptströmungen der experimentellen Fotografie zwischen 1920 und 1990 (Kurzfassung), in: Gottfried Jäger/Gudrun Wessing (Hg.): über moholy-nagy, S. 21-22. 72. Vgl. Gottfried Jäger: Moholys Fotografie: Experiment und Konstruktion. Generative Tendenzen. In: Gottfried Jäger, Gudrun Wessing (Hg.): über moholy-nagy, S. 115-120; S. 117f. Dort auch Hinweise zu weiteren Bezügen Moholys in der Fotografiegeschichte. – Vgl. zu Max Bense den Beitrag von Ingeborg Rocker in diesem Buch, zu späteren zeichentheoretischen Entwicklungen den Beitrag von Claus Dreyer. 73. Herbert W. Francke: Kunst und Konstruktion. Physik und Mathematik als fotografisches Experiment, München 1957. 74. Ausführlich zur Lehre Moholys in den USA: Alain Findeli: Le Bauhaus de Chicago: l’oeuvre pédagogique de László Moholy-Nagy, Sillery, Quebec 1995.

148

Halbwertzeiten Utopien von gestern als Stadtstrukturen von morgen? FRANK WERNER

Rückblende 1 Im Jahre 1971 ist der Pflasterstrand fast schon Geschichte. Und trotzdem rumort es immer noch kräftig utopisch in unseren studentischen Köpfen. Da fordert uns Peter Hübner, seinerzeit einer der beliebtesten Assistenten an der Architekturabteilung der Universität Stuttgart, dazu auf, ihn nach Lüdenscheid zu begleiten. Denn da gebe es eine von ihm und anderen Revolutionären konzipierte, fantastische Kunststoffhaus-Ausstellung internationaler Provenienz. Auch wenn wir nicht genau wissen, wo dieses Lüdenscheid eigentlich liegt, müssen wir da natürlich sofort hin. Kaum angekommen, verschlägt es uns dem Atem: Auf einer gerodeten Waldlichtung ohne jegliche Infrastruktur (keinerlei Info-Gebäude, nur ein herunter gekommenes PartyZelt und ein paar Klohäuschen, fest getrampelte Matschwege) steht mitten in einem deutschen Forst eine ganze Flotte gestrandeter Ufos: Raumkapseln, aus Kunststoff, tetraeder- und pillenförmige Häuser (darunter eines namens Futuro), raupenartige Gebilde, daneben Doernachs schwimmender Dom aus Styropor, mobile oder stapelbare, ja sogar aufblasbare Villen.1 Genau das ist es, was wir uns erträumt haben. Wir sind hingerissen. Das Einzige was stört, ist der Umstand, dass die Aussteller aus Kostengründen keinerlei Möbel für ihre Wohnkapseln mitgebracht haben. Also müssen die biederen Lüdenscheider Einrichtungshäuser herhalten und ihre Möbel ausleihen. Das Resultat ist geradezu grotesk: schwere provinzielle Schrankwände aus Eichenholz im Stil des Gelsenkirchener Barock und ländlich antiquierte, plüschige Sitzgruppen gigantischen Ausmaßes inmitten zierlicher weißer Kunststoffhäuser. War das vielleicht schon die Stunde Null unserer Utopien?

1. Vgl. hierzu: Robert Jungk/Rudolf Doernach: IKA-Katalog, Katalog zur 1. Internationalen Kunststoffhausausstellung, Leben und Wohnen mit Kunststoff, Lüdenscheid 1971.

149

Frank Werner

Rückblende 2 Im Jahre 2000 holte die damalige Direktorin eines renommierten Museums für angewandte Kunst eine opulent bestückte Ausstellung in ihr Haus, die von den Kuratoren der Architektursammlung im Pariser Centre Georges Pompidou zusammengestellt worden war. Sie trug den etwas reißerischen Titel »Radical Architecture« und beinhaltete Originalzeichnungen und Modelle aller wichtigen utopischen Entwürfe, die zwischen 1960 und 1975 weltweit entstanden waren. Erklärende Texte sah man kaum, einen Katalog gab es auch nicht. Angaben zu Jahreszahlen waren eine Seltenheit. Ich selbst hatte mit der Ausstellung nichts zu tun. Jedoch hatte mich die Direktorin gebeten, sie bei der Pressekonferenz unmittelbar vor Eröffnung der Ausstellung zu unterstützen. In dieser Konferenz kam es allerdings fast zum Eklat. Die Museumschefin sprach unter anderem von ihren »niedlichen Entwürfen«. Wohingegen sich die eingeladene Lokalpresse, welche die ausgestellten Arbeiten durchgehend für zeitgenössische Entwürfe hielt, in ungewohnt aggressiver Häme und Schärfe über den menschenverachtenden oder gar lächerlichen Charakter der ausgestellten Arbeiten ausließ. Frei nach dem Motto: So etwas könne man dem Publikum im Jahre 2000 doch nun wahrhaftig nicht mehr zumuten. Selbst mein wiederholter Einwand, dass die Arbeiten doch allesamt dreißig bis vierzig Jahre alt, sprich historisch und nur aus dem damaligen gesellschaftspolitischen Kontext heraus zu verstehen seien, wurde rüde beiseite gewischt. Prompt war am nächsten Tag in allen Tageszeitungen zu lesen, das Museum für angewandte Kunst habe eine Ausstellung absolut menschenverachtender, ja geradezu zynisch anmutender, zeitgenössischer Architekturprojekte ins Programm genommen. Welche Ironie des Schicksals. Ob sich die Urheber all dieser Entwürfe wohl je hätten träumen lassen, dass ihre Arbeiten, seinerzeit gedacht als scharfe künstlerisch-intellektuelle Widerlager gegen das degenerierte, menschenfeindliche spätfunktionalistische Bauen, einmal so gründlich missverstanden würden? Dabei waren sie in den sechziger und siebziger Jahren doch weltweit (wenn auch zum Teil nichts von einander wissend) angetreten, um den Menschen aus den »Klauen der kapitalistischen Architektur« zu befreien und ihnen ein neues, menschengerechteres Arkadien anzubieten; dies freilich nicht in Gestalt restaurativer Modelle, sondern in Projektionen konkret vorstellbarer oder herrlich naiver bis zynisch erkalteter Zukunftswelten, erfüllt von grenzenlosem Vertrauen in die Raumfahrttechnologie inklusive neu entdeckter Materialien und Konstruktionen sowie beseelt von der Vorfreude auf hedonistische, von jeglicher Arbeit abgekoppelte Lebenswelten. Freilich erläge man einer historischen Schwarz-Weiß-Malerei, würde man nicht zugeben, dass es bis zum Beginn der sechziger Jahre durchaus auch schon ernstzunehmende architekturtheoretische wie bauliche Reformansätze gegeben hat wie zum Beispiel den Ansatz der Situationistischen Internatio150

Halbwertzeiten

nale, Constants New Babylon oder die Arbeiten von Louis Kahn, Alvar Aalto, Carlo Scarpa, Hans Scharoun, Christopher Alexander und vieler anderer, die ähnliche Ziele verfolgten. Gleichwohl können solche Ansätze nicht mehr verhindern, dass die Architektur weltweit in eine existenzbedrohliche Krise gerät. Es wird ihr nämlich jegliche Fähigkeit abgesprochen, Umweltprobleme und Degenerationserscheinungen im Massenwohnungsbau überhaupt noch mit den ihr eigenen Mitteln bewältigen zu können. Man klagt die Architekten an, nicht mehr Anwälte der Benutzer oder Bewohner ihrer eigenen Arbeiten zu sein, sondern sich zu Bütteln bzw. Erfüllungsgehilfen von Großkapital und Staatsmonopolismus gemacht zu haben. Dies ist der Zeitpunkt, an dem der Psychoanalytiker Alexander Mitscherlich erklärtermaßen »zum Unfrieden anstiften« will, indem er 1965 unter dem Titel »Die Unwirtlichkeit unserer Städte« eine der bekanntesten Streitschriften jener Jahre publiziert.2 Acht Jahre später (1973) schreibt der schweizerische Architekt Rolf Keller unter dem Titel »Bauen als Umweltzerstörung« einen weiteren Bestseller.3 Darin deklariert Keller jegliches Bauen der Gegenwart als Umweltzerstörung. Für ihn ist alle Architektur tatsächlich am Ende. Mitscherlichs und Kellers Traktate umschreiben präzise den Zeitabschnitt, in dem sich vor allem jüngere Architekten (neben wenigen älteren) weltweit für einige Jahre gänzlich aus dem konkreten Baugeschehen zurückziehen, um – wie das bereits schon einmal um 1918 der Fall war – anhand kritischer Utopien die Welt neu zu überdenken. Ernst Bloch hat einmal zutreffend angemerkt, dass es immer dann, wenn die Zeiten politisch auf Umbruch stehen, in den gemalten Architekturen, in den Köpfen der Architekten gäre.4 Allerdings besteht bei der Utopie-Welle der sechziger und siebziger Jahre ein gravierender Unterschied zu den gezeichneten Visionen des Expressionismus. Denn im Gegensatz zu den paradiesischen philanthropischen Visionen der »Gläsernen Kette« werden die neuen Utopien zum einen getragen von einem unerschütterlichen, ja geradezu euphorischen Vertrauen in die neuen Raum- und Kommunikationstechnologien, zum anderen von einer geradezu zynischen Überhöhung der Unfähigkeit jeglichen Bauens, gesellschaftlichen Wandel überhaupt noch reflektieren, geschweige denn stimulieren zu können. Eines ist sicher: Die Jahre zwischen 1965 und 1974 sind eine mutige Zeit. Und eine Zeit großer publizistischer Aktivität. 1971 verfasst Peter Cook sein bis heute unterschätztes Standardwerk »Experimental Architecture«, in dem er erstmals all die disparaten utopischen Denkmodelle zusammenzufas2. Alexander Mitscherlich: Die Unwirtlichkeit unserer Städte. Anstiftung zum Unfrieden, Frankfurt/Main 1965. 3. Rolf Keller: Bauen als Umweltzerstörung. Alarmbilder einer Un-Architektur der Gegenwart, Zürich 1973. 4. Vgl. hierzu: Ernst Bloch: Das Prinzip Hoffnung, 6. Aufl. Frankfurt/Main 1976, S. 819ff.

151

Frank Werner

sen versucht, und zwar weltweit.5 Er liefert damit die erste umfassende Tour d’Horizon auch in Sachen Architekturtheorie. Ähnliches versucht im gleichen Jahr auch Justus Dahinden mit seinem Buch »Stadtstrukturen für morgen«, das sich vorrangig auf städtebauliche Visionen konzentriert.6 Gleichfalls 1971 unternimmt Charles Jencks mit seiner Studie »Architecture 2000« den (zumindest aus heutiger Sicht) halsbrecherischen Versuch, das Baugeschehen bis zum Jahre 2000 seriös vorauszusagen.7 Ebenfalls 1971 erscheint James Burns’ »JAM – Projekte der ARTHROPODEN zur Gestaltung der Zukunft«; ein wichtiges Buch, weil sich diese Anthologie überwiegend auf hybride Blasenund Blob-Architekturen sowie den Menschenschlag konzentriert, der diese Gebilde künftig bevölkern soll.8 Und 1974 verfassen Paola Navone und Bruno Orlandini ihre dringend zu Wiederentdeckung empfohlene, außerordentlich präzise argumentierende architekturtheoretische Studie »architettura ›radicale‹« (man beachte die Anführungsstriche!), deren Titel viel später der ganzen Utopiewelle ihren verballhornten Namen geben sollte.9 Spricht man Studierende heute auf Arbeiten aus diesem Zeitraum an, dann wird der häufig auf einen einzigen Namen reduziert: Archigram. 1960 noch zu Studienzeiten gegründet von Warren Chalk, Peter Cook, Dennis Crompton, David Greene, Ron Herron und Michael Webb, hat diese Gruppe unter dem Logo ihrer studentischen Agit-Prop-Zeitschrift »amazing archigram« wahrhaftig Geschichte gemacht. Dies dürfte sie allerdings weniger ihren teilweise ziemlich sorglosen (unkritischen) Stadtutopien zu verdanken haben, als vielmehr dem einfachen Umstand, dass Archigram nach Kenneth Frampton für die Architektur seinerzeit etwas Ähnliches bewirkt hat wie die Beatles etwa zeitgleich für die Musik. In der Tat ähneln viele der eingängigen Urban-Entertainment-Projektionen für »Instant City« und andere Stadtmodelle eher den poppig-flockigen Illustrationen Edelmanns für »Sergeant Peppers Lonely Heartsclub Band« oder »Yellow Submarine« als etwa den vergleichsweise trockenen, inhaltlich umso bedeutenderen Theorien und Architekturpiktogrammen eines Cedric Price. Blickt man als Architekturtheoretiker etwas hinter die Kulissen, dann hat Archigram, die wohl bekannteste Boygroup in der Architektur 20. Jahrhunderts, zwar viele schöne Bilder, aber vergleichsweise wenig Inhalte geliefert. Was gleichermaßen natürlich auch für andere eher amüsante denn weltbewegende Installationen und Utopien jener Zeit gilt. Man denke nur an Haus-Rucker-Co’s »gelbes 5. Peter Cook: Experimental Architecture, New York 1970. 6. Justus Dahinden: Stadtstrukturen für morgen. Analysen, Thesen, Modelle, Stuttgart 1971. 7. Charles Jencks: Architecture 2000. Predictions and Methods, New York 1971. 8. James Burns/JAM: Projekte der Anthropoden zur Gestaltung der Zukunft, Köln 1971. 9. Paola Navone/Bruno Orlandoni: Architettura »radicale«, Mailand 1974.

152

Halbwertzeiten

pulsierendes Herz«, Coop Himmelb(l)aus »Mind-Expander« oder Pichlers »tragbares Wohnzimmer«. Als der linke Architekturtheoretiker Manfredo Tafuri im Rahmen seiner Studie »Kapitalismus und Architektur« 1973 die so genannten »Neo-Avantgarden« heftigst attackierte, da galten seine Angriffe in erster Linie Archigram, aber auch anderen Gruppierungen wie Coop Himmelb(l)au oder Superstudio. Tafuri schrieb: »Die Suche nach einer möglichen Avantgardistischen Architektur – wie in den 60er Jahren – und der gleichzeitige Gebrauch von analytischen Instrumenten und Kommunikationswissenschaften (dabei ist nicht einmal wichtig, wie oberflächlich oder zutreffend das geschieht) lassen zwischen einigen neuen Erfahrungen und den traditionellen Utopien der modernen Bewegung eine tiefe Kluft aufbrechen. Gleichzeitig bedeutet dies, dass die Architekturdebatte auf Aporien zurückgeworfen wird, auf die schon der russische Formalismus stieß. Daher ist das hartnäckige und unkritische Interesse an den Erfahrungen der sowjetischen Avantgarde seitens der westeuropäischen Architekturtheorie kein Zufall. Die Reduktion der Architektur auf ein ›ambigues Objekt‹ innerhalb jenes totalen ›Merz‹ der zeitgenössischen Stadt bedeutet, dass man ganz und gar die marginale und auf den Überbau beschränkte Rolle akzeptiert, welche die gegenwärtige kapitalistische Raumnutzung der Architektur zuweist.«10 Ein hartes Verdikt gegen Gruppen, die dezidiert gegen das Establishment, auch gegen das politische angetreten waren. Dieser Streit um die wahren und unwahren »Neo-Avantgarden« überschattet freilich bis heute den Umstand, dass gerade die sechziger und siebziger Jahre auch zahlreiche Werkproben einer ganz anders gearteten »recherche patiente« hervorgebracht haben, einer »recherche patiente«, die sich als wissenschaftliche Arbeit an der Stadt verstanden hat. So erschien beispielsweise ab 1971 bei Wasmuth die von Alessandro Carlini und Bernhard Schneider herausgegebene, eher populärwissenschaftliche Reihe »Konzept«, welche sich Themen wie »Architektur als Zeichensystem«, »Stadtbild mit Fragezeichen« oder »Die Stadt als Text« widmete. Die künstlerisch-wissenschaftliche Gemengelage dieser Hefte diente nur einem Zweck, nämlich dem der Aufklärung. Parallel hierzu gab Jürgen Jödicke bei Karl Krämer in Stuttgart ab 1970 die Max Bense gewidmete Reihe »Arbeitsberichte zur Planungsmethodik« heraus, deren Einzelhefte sich auf weitaus höherem wissenschaftlichen Niveau etwa mit »neuen Entwurfsmethoden in der Bauplanung« oder der »numerischen Ästhetik« beschäftigten. Überhaupt war in jenen Jahren die Universität Stuttgart mit Max Bense, Horst Rittel, Siegfried Maser und vielen anderen der zentrale Ort in Europa, von dem aus die Diskurse um die methodischen Grundlagen der kommenden Architektur- und Stadtwahrnehmung geführt wurden. 10. Manfredo Tafuri: Kapitalismus und Architektur. Von Corbusiers »Utopia« zur Trabantenstadt, deutschsprachige Ausgabe von »Progetto e Utopia« (1973), Hamburg, Berlin 1977, S. 118.

153

Frank Werner

Bereits 1968 war gleichfalls in Stuttgart die erste Nummer der systemkritischen deutschen Architekturzeitschrift »Arch+« erschienen.11 Im gleichen Jahr kamen Paul Bahrdts »Humaner Städtebau«, Heide Berndts »Gesellschaftsbild bei Stadtplanern«, Reinhard Schmids Buch »Das Ende der Städte? – Über die Strukturen der menschlichen Umwelt: Strukturen – Systeme – Pro(vo)gramme« oder Norbert Schmidt-Relenbergs »Soziologie und Städtebau – Versuch einer systematischen Grundlegung« heraus. In den siebziger Jahren folgten dann weitere Schlüsselwerke, wie Bentmanns und Müllers Untersuchung zum Bautyp der »Villa als Herrschaftsarchitektur«, Brigitte Wormbs Kampfschrift zum veränderten »Umgang mit Natur«, Michael Müllers »Verdrängung des Ornaments – Zum Verhältnis von Architektur und Lebenspraxis« oder Heide Berndts »Natur der Stadt«. Ganz zu schweigen von der Flut ausländischer systemkritischer Zeitschriften und Publikationen. Es wäre allerdings historisch unkorrekt, derartige Aufklärungsarbeit in den sechziger und siebziger Jahren allein auf deren Druckerzeugnisse zu reduzieren. Denn auch in Sachen Architektur und Kunst hat es seinerzeit selbstverständlich nicht nur schrille Zeichnungen und Manifeste, sondern stille, forschenden Analysen gegeben. So nachzuweisen an den legendären Ausstellungen »Trigon 67« und »Trigon 69«, die 1967 bzw. 1969 in Graz stattfanden. Erhöhte Aufmerksamkeit sollte dabei vor allem der »Trigon 67« gelten. »Unsere Umwelt hat sich geändert«, heißt es im Vorwort des Kataloges, »und sie wird sich immer mehr ändern, und mit ihr hat sich auch die Kunst verändert. Sie sucht neue Wege, [...] Möglichkeiten und Realisierungen, die vielen als ein schmerzlicher Verzicht auf Bewährtes [...] erscheinen mögen, die aber in die Zukunft weisen und uns helfen werden und uns helfen sollen, unser [künftiges] Leben [...] zu gestalten. Trigon 67 ist keine Kunstausstellung im herkömmlichen Sinn und will es auch nicht sein. Sie ist der Versuch, [alle] schöpferische[n] Kräfte unserer Zeit [gemeinsam] zur Anschauung zu bringen.«12 Das Grazer Ausstellungssystem stammte von der Planungsgruppe Domenig und Huth. »Mit der Einordnung der Künste in ein System«, schrieben die beiden Architekten, »entsteht die Querverbindung zu urbanen Konzepten. Durch die Gegenüberstellung der vollkommen frei gestalteten Environments der Künstler und durch die fixierte maximale Ausdehnung und exakte Organisation erhält das System als Ganzes eine letztliche Form, die [...] der Demonstration ›trigon 67‹ eine spezifische Ausdrucksform zukommen lässt und dadurch die so wichtige Orientierung an Fixpunkten im städtischen Raum erfüllen könnte.«13 Folgerichtig haben die Architekten ihrer Ausstellungsar11. Vgl. hierzu auch die vorzügliche Übersicht in: Arch+ 186/187, Die radikale Architektur der kleinen Zeitschriften 196X-197X, Aachen, Berlin 2008. 12. Neue Galerie am Landesmuseum Joanneum (Hg.): Trigon 67, Einführung von Wilfried Skreiner, Graz 1976, S. 7f. 13. Ebd., Erläuterungstext der Planungsgruppe Domenig-Huth, S. 9f.

154

Halbwertzeiten

chitektur ein analoges Stadtmodell unterlegt. Schaut man sich die einzelnen Beiträge der beteiligten Künstler an, ist man verblüfft. Scheint es sich doch weniger um freie künstlerische Arbeiten zu handeln, als vielmehr um wissenschaftliche Arrangements, die mit Hilfe spezifischer Versuchsanordnungen semiotische Aspekte der Raumwahrnehmung, analytisch ermittelte Farbwerte oder virtuelle Raumkonfigurationen erforschen. Mithin liefern die Künstler gleichsam unter Laborbedingungen erforschte Erkenntnisse zur stadt- und binnenräumlichen Wahrnehmung, Erkenntnisse, deren didaktischer Charakter sich im besten Sinne des Wortes als Kulturarbeit bezeichnen lässt. Mir ist bis heute unerklärlich, warum die beiden analytischsten experimentellen Ausstellungen der gesamten sechziger Jahre, nämlich »Trigon 67« und »Trigon 69«, im schrillen Gewitter sich gegenseitig überbietender utopischer Stadtvisionen nahezu untergegangen und heute fast der Vergessenheit anheim gefallen sind. Zum Glück ist derzeit eine Habilitationsschrift dabei, diesem Desiderat wissenschaftlich Abhilfe zu schaffen. Auch in Italien gab es eine interdisziplinär zusammengesetzte, ausgesprochen analytisch arbeitende Gruppierung, deren Arbeitsergebnisse von den pathetischen Bilderfluten der Gruppe Superstudio lange Zeit übertönt wurde. Im Jahre 1966 von Adolfo Natalini und Cristiano Toraldo di Francia gegründet und 1978 wegen Wirkungslosigkeit aufgelöst, entwirft Superstudio damals halb zynisch, halb ironisch gedachte städtische Anti-Modelle. Die daraus entwickelten, heute außerordentlich populären Schaubilder, die mittlerweile in allen wichtigen Museen der Welt hängen, thematisieren freilich kaum etwas anderes als Ausweglosigkeit. Ganz anders hingegen die bereits 1963 von Andrea Branzi und dessen Kollegen Corretti, Deganello, Morozzi und den Bartolinis gegründete Gruppe Archizoom, die bis 1973 bestanden hat. Im Gegensatz zu Archigram oder Superstudio ging es Archizoom darum, gleichsam die DNA-Strukturen der Moderne zu entschlüsseln und subversiv zu reorganisieren. In endlosen Versuchsreihen erforschte man Matrizen bestehender Stadtstrukturen, welche von analogen Megastrukturen überlagert und zersetzt wurden. Leitbild war dabei eine neutrale, monoforme Architektur, welche wie eine Vorwegnahme von Framptons »Zero-Degree-Architecture« wirkte und die spätfunktionalistische Architektur mit ihren eigenen Waffen schlagen sollte, wofür man sich den bautypologisch eigenschaftslosen Supermarkt zum Vorbild erkor. Archizoom propagierte »die Befreiung des Menschen von der Kultur«.14 Im Zuge dieser Befreiung macht sich die geklonte Architektur selbst überflüssig und verschwindet im Projekt »No-Stop-City« (1970) schließlich ganz unter der

14. Vgl. hierzu: Andrea Branzi: »Notes on Non-Stop City. Archizoom Associates 1969-72«, in: Martin van Schaik and Otakar Mácel (Hg.): Exit Utopia. Architectural Provocations 19561976, Munich, Berlin, London, New York 2005, S. 177ff.

155

Frank Werner

Erdoberfläche. In »Superarchitecture – le futur de l’architecture 1950-1970«, der bislang gründlichsten Studie zu den Utopien jener Jahre, bezeichnet Dominique Rouillard die Gruppe Archizoom zu Recht als begnadete Didaktiker und unmittelbare Vorläufer des so genannten diagrammatischen Entwerfens unserer Tage.15 Und dennoch ist gerade Archizoom ein relativ anschauliches Beispiel dafür, dass sich heute wohl niemand mehr ernsthaft wünschen würde, derartig radikale städtebauliche Forschungsreihen tatsächlich realisiert zu sehen. Ihr kulturproduktiver Anteil beschränkt sich auf das kritische Potential, welches sie aus ihrer Zeitbezogenheit heraus gegenüber gängigen Stadtvorstellungen entwickelt und zur Disposition gestellt haben. Ähnliches gilt für fast alle Stadtutopien der sechziger und siebziger Jahre. Utopien von gestern taugen nicht mehr als Stadtstrukturen von morgen. Zu sehr haben sich die Randbedingungen inzwischen verändert. Und Vieles von dem, was seinerzeit utopisch angedacht wurde, wie etwa die Urban-Entertainment-Architektur, die endlos wachsende Stadt oder bauliche Megastrukturen, ist längst zur Geißel gegenwärtiger Architekturentwicklungen geworden. Was freilich bleibt, ist die Bewunderung für das Didaktische, soll heißen dafür, wie effektiv viele Entwicklungen des Bauens seit 1970 bereits in den sechziger und siebziger Jahren vorausgedacht worden sind und mit welcher Zielsicherheit man den Finger auf offene Wunden gelegt hat. Und dafür, mit welchem Elan Menschen wertvolle Lebenszeit geopfert haben, um nicht nur über Gott und die Welt zu reflektieren, sondern grandiose Panoramen einer universellen Architekturkritik zu entwerfen. Sie haben wirklich Mumm gehabt, dieses Architektinnen und Architekten in den Sechzigern und Siebzigern. Dass diese Utopiewelle ungeachtet ihres unangefochtenen kulturproduktiven Mehrwerts dennoch historisch weitgehend folgenlos geblieben ist, das steht auf einem anderen Blatt. Nie wieder hat sich eine ganze Architektengeneration so intensiv, so selbstkritisch und offensiv mit dem eigenen Stellenwert innerhalb der Gesellschaft beschäftigt, um letztendlich daran zu scheitern. Aber eines dürfte sicher sein: Nur spaßeshalber hat sich diese andere Art der Moderne seinerzeit nicht »vergeudet«.16 Eine untergeordnete Frage bleibt freilich im Raum stehen. Wenn man vor vier Jahrzehnten im wahrsten Sinne des Wortes so hautnah an neuen Kommunikationsformen, neuen Netzwerken, neuen Bautypologien (wie z. B. den Blasen- und Blobarchitekturen) und gänzlich neuen Erscheinungsformen kollektiven Zusammenlebens dran war, warum hat man das daraus resultierende Potenzial nicht weiter entwickelt? Welche Kräfte, welche Perspektiven 15. Dominique Rouillard: Superarchitecture. Le futur de l’architecture 1950-1970, Paris 2004, S. 273ff. 16. Vgl. hierzu: Frank Werner: Die vergeudete Moderne – Architekturkonzepte nach 1950, die Papier geblieben sind, Stuttgart 1981.

156

Halbwertzeiten

sind da vergeudet worden? Ist man seinerzeit der Zeit wirklich zu weit voraus gewesen? Aus diesen offenen Fragezeichen erklärt sich vermutlich die ungebrochene Faszination, die die Entwürfe jener Jahre bis heute auf nachfolgende Generationen ausüben. Gerd de Bruyn vertritt schon seit einigen Jahren wort- und schriftreich die These, dass die sogenannte »moderne« Architektur realiter gar nicht modern, sondern ein letzter Ausläufer eines fest in der Prämoderne des frühen 20. Jahrhunderts verankerten Form- oder Stil-Willens gewesen sei. Er macht der klassischen Moderne ihren anerkannten Avantgarde-Charakter streitig und bezweifelt – noch viel fragwürdiger – den historischen und gesellschaftlichen Wert ihrer kulturellen Produktion in Gänze. Seiner Ansicht nach hat die Moderne also gar nicht stattgefunden. Sie sei ein Phantasma kluger Kunstagitatoren wie Sigfried Giedion. Erst der »digital turn« des ausgehenden 20. und beginnenden 21. Jahrhunderts habe – so de Bruyn – einer zukunftsweisenden Richtung zum Durchbruch verholfen, die das Prädikat »modern« tatsächlich verdiene.17 Gerd de Bruyn meint damit das digitale Entwerfen beziehungsweise die Möglichkeit, Stadtstrukturen, Räume und Konstruktionen digital zu generieren und, per Simulationstechnik, in sie einzutreten. Man muss de Bruyn nicht folgen. Tut man es trotzdem, dann müsste die jüngere Architekturgeschichte völlig umgeschrieben werden. Denn erklärtermaßen würde nicht der »digital turn« die Zeitenwende, sprich den Durchbruch der eigentlichen Moderne bedeuten, sondern schon die Zeit der sechziger und siebziger Jahre. Eine Zeit, die Visionen, Panoramen und Schreckensbilder hervorgebracht hat, in denen bereits all das im Keim angelegt war, was uns heute noch bewegt. Und die vor allem eines hervor gebracht hat, nämlich das Thema der Hybridisierung. Eine Zeit, in der kritisches Nachdenken über die gesellschaftlichen Bedingungsfelder architektonischen Handelns und kritisches Entwerfen anstelle des späteren postmodernen »Behübschens« wichtiger waren als das Bauen selbst. Nicht zuletzt deshalb sind all die grandiosen Stadtvisionen jener Jahre letztendlich gescheitert. Wie so Vieles, was die späten sechziger und frühen siebziger Jahre an Denkanstößen hervorgebracht haben. Aber das ist schließlich eine ganz andere Geschichte!

17. Vgl. hierzu Gerd de Bruyns Vortrag: Von der ephemeren zur pervasiven Architektur oder die Kraft der Bilder, gehalten auf dem Bauhaus-Symposium zum Thema »Realität des Imaginären«, Bauhaus-Universität Weimar, April 2007, abgedruckt in: Jörg H. Gleiter/Norbert Korrek/Gerd Zimmermann (Hg.): Die Realität des Imaginären. Architektur und das digitale Bild, Weimar 2008, S. 31-36.

157

III. REGELN

Erste Schritte zu einer Theorie des Ganzen Christopher Alexander und die »Notes on the Synthesis of Form« CHRISTIAN KÜHN

Christopher Alexanders bekanntestes Werk erschien 1977 unter dem Titel »A Pattern Language«.1 Schon der Untertitel »Towns, Buildings, Construction« deutet an, dass es hier ums Ganze geht: Der Bogen der Themen reicht von der Stadtplanung bis zum Ausführungsdetail. Die 253 Kapitel des Buchs, die als »Patterns« bezeichnet werden, sind vom Großen zum Kleinen geordnet. Vom ersten Pattern, Independent Regions, geht es – um nur einige Beispiele zu nennen – über Mosaic of Subcultures (P 8), Quiet Backs (P 59), Dancing in the Street (P 63), Holy Ground (P 66), Animals (P 74), The Family (P 75), Stair Seats (125), Six Foot Balcony (P 167), Window Place (P 180), Gradual Stiffening (P 208) weiter ins Detail, bis die Reihe schließlich mit dem Pattern Things from Your Life (P 253) endet. Offensichtlich handelt es sich hier um keine Gliederung nach Komponenten: Dinge, räumliche Situationen, Aktivitäten und abstrakte Begriffe werden unter dem Überbegriff des »Patterns« als gleichwertige architektonische Sachverhalte behandelt. Bemerkenswert ist auch der innere Aufbau eines Patterns. Jedes beginnt mit einer Titelseite mit dem Namen des Patterns und einer Fotografie, die eine archetypische Lösung visualisiert. Darauf folgt eine kurz gefasste einleitende Problemstellung, an die sich eine ausführliche Diskussion der relevanten Parameter und möglicher Lösungen anschließt, in der Regel durch Diagramme ergänzt. Am Ende findet sich eine knapp formulierte Handlungsanweisung, die den Leser direkt anspricht. Patterns sind zusätzlich in drei Klassen eingeteilt, im Titel durch die Hinzufügung von Sternen gekennzeichnet: Zwei Sterne bezeichnen Patterns, denen die Autoren universelle Gültigkeit zumessen, während ihnen Patterns mit einem oder ohne Stern entsprechend weniger bedeutsam erscheinen. Gerahmt wird jedes Pattern von Verweisen auf andere Patterns, wobei ganz zu Beginn übergeordnete Patterns referenziert sind und am Ende jene, die zu seiner Verfeinerung dienen. Zusammen bilden

1. Christopher Alexander: A Pattern Language, mit S. Ishikawa, M. Silverstein, M. Jacobson, I. Fiksdahl-King, S. Angel, New York 1977.

161

Christian Kühn

die Patterns ein Netzwerk, das sich an jeder beliebigen Stelle betreten lässt und den Leser dann über die Verknüpfungen weiterleitet. Wie Alexander und seine Mitautoren in dem 1979 publizierten Ergänzungsband »A Timeless Way of Building« erläutern, versteht sich die Pattern Language nicht einfach als Sammlung von Beispielen, sondern als Frontalangriff auf die professionalisierte Form der Architekturproduktion. Als Entwurfsmethode zum »Machen von Gebäuden« sollte die Pattern Language den Nutzern die Macht über die Gestaltung ihrer Umwelt zurückgeben. Sie geht dabei weit über das hinaus, was unter dem Begriff »Partizipation« verstanden wird, also die Teilhabe der Nutzer an einem weiterhin von Architekten verantworteten Entwurfsprozess. Aufbauend auf einem als universell verstandenen Vokabular von Archetypen sollte die Pattern Language den Nutzern ermöglichen, sowohl ihre Bedürfnisse auszudrücken als auch in einen Diskurs über mögliche Lösungen einzutreten. Dieser Diskurs sollte von Pattern zu Pattern führen und im Idealfall ohne den Berufsstand des professionellen Planers ein gutes Ergebnis herstellen. Theoretisch ist dieser Prozess durchaus offen: Patterns können ergänzt, abgelehnt oder durch andere ersetzt werden. Allerdings lassen die Autoren keinen Zweifel an ihrer Überzeugung, die ewigen Prinzipien der Architektur weitgehend entschlüsselt zu haben. Es ist kein Zufall, dass die »Pattern Language« und ihre Ergänzungsbände in Format, Papier und Bindung an klassische Bibelausgaben erinnern.

Abb. 1: Christopher Alexander: A Pattern Language, Cover (links) und Titelblätter ausgewählter Patterns: »1 Independent Regions**« (mitte), »253 Things From Your Life*« (rechts).

162

Erste Schritte zu einer Theorie des Ganzen

Abb. 2: Christopher Alexander: A Pattern Language, Pattern »49 Looped Local Roads**«, S. 260-263

163

Christian Kühn

In der Architektur war die Pattern Language – zumindest an ihren eigenen Zielen gemessen – ein eklatanter Misserfolg. Das einzige umfangreichere Bauprojekt, das nach ihren Prinzipien errichtet wurde, die Eishin-Schule in Japan, scheiterte nicht nur an den mafiösen Strukturen der japanischen Bauindustrie, denen die vorgesehene handwerkliche Umsetzung zum Opfer fiel. Die Schule zeigt auch die inhärenten Schwächen der Methode. So wichtig die Probleme sind, die in den Alexander’schen Patterns diskutiert werden, so fragwürdig ist die behauptete Universalität der angebotenen Lösungen, denen im japanischen Kontext nicht nur die kreative Reibung mit der Gegenwart, sondern sogar der Bezug zur lokalen architektonischen Tradition fehlt. 2 Für jedes der bei der Eishin-Schule eingesetzten Entwurfsmuster lassen sich Alternativen anführen, die das selbe Qualitätsziel erreichen, ohne auf traditionelle Lösungen zurückgreifen zu müssen. Spätestens seit sich Alexander Ende der 1980er Jahre als Berater für die Versuche Prince Charles’, Großbritannien vor den Verirrungen der modernen Architektur zu bewahren, engagieren ließ, gilt die Pattern Language im größten Teil der Architekturszene als veraltetes oder sogar reaktionäres Konzept, mit dem sich keine Beschäftigung mehr lohnt.

Abb. 3: Christopher Alexander: Eishin-Schule, Japan. Klassenhäuser und Festsaal (links). Stadtraum in der Umgebung der Eishin-Schule (rechts); (Fotos: Christian Kühn).

Einen weit höheren Stellenwert nimmt die Pattern Language dagegen in einem auf den ersten Blick weit entfernten Gebiet ein, nämlich der Informatik. 1994 erschien das Buch »Design Patterns: Elements of Reusable Object-Oriented Software«,3 dessen Autoren Erich Gamma, Richard Helm, Ralph Johnson und 2. Die Eishin Schule, deren Grundkonzept vor allem in Relation zum japanischen Schulbau ihrer Entstehungszeit durchaus diskussionswürdig ist, erinnert formal an eine Art Märchenausgabe der mittelalterlichen englischen Architektur zwischen Tudor und Elizabethan, was in bizarrem Kontrast sowohl zum zeitgenössischen japanischen Chaos der Umgebung als auch zur traditionellen japanischen Architektur und der ihrer Gärten steht. 3. Erich Gamma/Richard Helm/Ralph Johnson/John Vlissides: Design Patterns. Elements of Reusable Object-Oriented Software, Reading, Mass. 1995 (das Buch erschien bereits im Oktober 1994 mit dem Publikationsdatum des Folgejahrs).

164

Erste Schritte zu einer Theorie des Ganzen

John Vlissides – in der Informatik als »Gang of Four« bekannt – sich explizit auf Alexanders Pattern-Begriff berufen. Während konventionelle Anleitungen zum Erstellen von Programmen auf die Darstellung von Lösungswegen fokussiert sind, bieten Design Patterns in der Informatik eine ausführliche Diskussion des Problemkontexts, in den eine Lösung eingebettet ist. Die Patterns sind dabei ähnlich wie in Alexanders Pattern Language strukturiert und miteinander referenziert. Hintergrund dieser Entwicklung war die Erkenntnis, dass die Beherrschung der »Art of Computer Programming«, so der Titel des wichtigen Standardwerks der Informatik von Donald Knuth, dessen erster Band 1968 erschienen war, allein bei weitem nicht ausreicht, um komplexe Softwareprojekte erfolgreich realisieren zu können. Design Patterns erlauben es Programmierern, auf vernetzte Problemlösungsmuster zurückzugreifen, die sich in der praktischen Anwendung bewährt haben. Indem sie, adressierbar über ihre Namen, ein Vokabular anbieten, das sich nicht auf die Komponenten einer Lösung beschränkt, indem sie auch abstrakte Konzepte und Programmierstrategien einschließen, erleichtern Patterns zusätzlich den Diskurs zwischen den Beteiligten bei der konkreten Erstellung einer Lösung.4 Seit 1994 sind zigtausende Artikel und hunderte Bücher über Software Design Patterns erschienen, die in der Regel eine kurze Referenz auf Alexander anführen. Zu den normalen Pattern-Konzepten trat das Konzept der Anti-Patterns, unter dem häufig vorkommende schlechte Lösungsansätze verstanden werden. Der Erfolg des Konzepts als Entwurfsmethode in der Informatik sollte Anlass genug sein, sich mit der Geschichte der Pattern Language auseinanderzusetzen, die bis in die 1960er-Jahre zu den frühen Arbeiten von Christopher Alexander in den USA zurückreicht. Alexander, der in den Jahren von 1954 bis 1958 am Trinity College im britischen Cambridge akademische Abschlüsse in Mathematik (Master of Science) und in Architektur (Bachelor of Science) gemacht hatte, wechselte 1959 in die USA, wo er an der Harvard University 1963 für seine Doktorarbeit »The Synthesis of Form; Some Notes on a Theory« das erste Doktorat erhielt, das an dieser Universität für das Fachgebiet Architektur verliehen wurde. Für sein Interesse, Architektur als Anwendungsfeld für die Lösung komplexer Probleme mit mathematischen Methoden am Computer zu untersuchen, hatte Alexander das ideale Umfeld gewählt. Am benachbarten Massachusetts Institute of Technology entwickelte zur selben Zeit ein anderer Doktorand, Ivan Sutherland, SKETCHPAD, das erste CAD-System, das nicht nur das geometrische Modellieren unterstützte, sondern auch erlaubte, mit parametrisierten Objekten und Objektbibliotheken zu arbeiten.5 Herbert A. 4. Das Erfinden möglichst plastischer Pattern-Titel ist unter Informatikern ein beliebter Sport, vor allem bei Anti-Patterns (also häufig auftretenden Mustern für falsche Lösungen), etwa »Object Orgy«, »Poltergeists«, »Coding by Exception«, etc. 5. SKETCHPAD war in mehrerer Hinsicht für die Entwicklung der Informatik von Bedeutung:

165

Christian Kühn

Simon, der spätere Nobel- und Turingpreisträger, organisierte Symposien über Systemtheorie, zu deren Teilnehmern Alexander gehörte.6 Simon hatte als Sozialwissenschaftler bereits 1947 mit seinem Buch »Administrative Behavior: A Study of Decision-Making Processes in Administrative Organizations« ein Hauptwerk publiziert, auf das seine späteren Forschungen über Problemlösungsstrategien und deren Implementierung mit Computersystemen aufbauten. Die zusammen mit Allan Newell 1957 publizierten Programme für einen »General Problem Solver« machten ihn zu einem der Pioniere der »Artificial Intelligence«.7 Am M.I.T. kooperierte Alexander direkt mit Marvin Manheim vom Civil Engineering Systems Laboratory, auf dessen Rechnern die Algorithmen, die Alexander in seiner Dissertation entwickelt hatte, implementiert wurden. 1963 wirkte Alexander als Co-Autor an Serge Chermayeffs Buch »Community and Privacy in Architecture. Toward a New Architecture of Humanism« mit.8 Chermayeff, ein im Jahr 1900 geborener russisch-britische Architekt, der nach ersten Erfolgen in Europa – unter anderem hatte er zusammen mit Erich Mendelsohn 1935 den De La Warr Pavillon entworfen, eines der wichtigsten Werke der englischen klassischen Moderne – war 1940 in die USA ausgewandert und hatte dort eine akademische Karriere verfolgt, die ihn vom Institute of Design in Chicago, dessen Direktor er auf Empfehlung von Walter Gropius geworden war, zu weiteren Positionen in Harvard, Yale und am M.I.T. führte. »Community and Privacy in Architecture« richtet sich nicht primär an ein Fachpublikum,9 sondern an eine größere Öffentlichkeit. Das Buch beinhaltet eine allgemeine Kritik an der Architektur und am Städtebau der klassischen Moderne, die den Arbeiten des Team X aus den späten 1950er Jahren oder Jane Jacobs 1961 publiziertem »Life and Death of Great American Cities« wenig Neues hinzuzufügen hat. Es geht um Entfremdung von der Natur, Individualverkehr und Massenwohnbau, die Gefahren des zunehmenden Sprawl. Nach Sutherlands besaß sowohl das erste »graphische Userinterface« als auch mit dem Konzept von »Master Drawing« und »Instance Drawing« eine Vorstufe der »Vererbung«, die für die objektorientierte Programmierung zentral ist. vVgl. Alan Kay: »The Early History of Smalltalk«, in: ACM Sigplan Notices, Volume 28, Nr.3, (März 1993). 6. Mail von Nikos Salingaros an den Autor. 7. Von besonderer Relevanz für Alexanders Arbeit ist Simons Aufsatz »The architecture of complexity.« Proceedings of the American Philosophical Society, 106: 476-482 (December 1962); Nachdruck in: »The Sciences of the Artificial«, Cambridge, Mass. 1969. 8. Serge Chermayeff: Community and Privacy in Architecture. Toward a New Architecture of Humanism. New York 1963; Deutsche Ausgabe: »Gemeinschaft und Privatbereich im Neuen Bauen«, Mainz, Berlin 1971. 9. In einem Interview aus dem Jahr 1986 berichtet Chermayeff, dass vom Buch in mehreren Auflagen und Übersetzungen insgesamt 50000 Stück verkauft wurden; vgl. »Oral History of Serge Chermayeff«, interviewed by Betty J. Blum, in: Chicago Architects Oral History Project, Ernest R. Graham Study Center for Architectural Drawings, Department of Architecture, The Art Institute of Chicago 1986, Revised Edition 2001.

166

Erste Schritte zu einer Theorie des Ganzen

der mit vielen Zitaten untermauerten Kritik an den herrschenden Zuständen fokussiert das Buch aber praktisch übergangslos auf die Problemstellung, der es seinen Titel verdankt: die Beziehung zwischen Gemeinschaft und Privatheit. Überraschend ist dabei der Sprung von den Problemen im Weltmaßstab auf ein Detail, nämlich den Übergang zwischen öffentlichen und privaten Zonen, analysiert anhand von Hofhausgrundrissen der Moderne von Gropius bis Mies van der Rohe. Die Autoren stellen dazu eine Art von Checkliste bereit, anhand derer die einzelnen Grundrisse bewertet werden: Gibt es einen separaten Eingang für die Kinder? Kann das Wohnzimmer isoliert werden? Gibt es privaten Außenraum? Die Atriumhäuser von Mies in Michigan mit ihrem gemeinsamen Innenhof für alle Bewohner schneiden entsprechend schlecht ab. Am Entwurf von Chermayeff und Frank Sweet, der immerhin mehrere Höfe anbietet, wird die Orientierung von Eltern- und Kinderzimmern auf einen gemeinsamen Hof noch als »schwerwiegender Nachteil« erkannt, und erst in einem Entwurf von Chermayeff und Robert Gordon mit sechs (!) Innenhöfen ist für die Autoren eine ausreichende individuelle Privatheit hergestellt.

Abb. 4: Hofhausgrundrisse. - Aus: Serge Chermayeff: Community and Privacy in Architecture, New York 1963.

Diese Kette von Entwürfen, die am Ende zu einer unbewussten, im Grundriss ausgeführten Karikatur der kleinfamiliären Ordnung führt, wird von den Autoren als evolutionäre Entwicklung dargestellt. Wie sich diese Entwicklung durch rationale Analyse und Argumentation beschleunigen lässt, visualisieren sie in einem Diagramm, das die »historische Entwicklung des Gestaltungsprozesses vom primitiven zum hochentwickelten Stadium« zeigt: Zur ursprünglichen direkten Reaktion auf einen Bedarf durch ein neues Artefakt kommen zuerst die Verfeinerung, dann das Experiment und schließlich die Forschung. 167

Christian Kühn

Dieses Konzept ist offensichtlich verwandt mit der Theorie des »Correalismus«, wie sie Friedrich Kiesler Ende der 1930er Jahre an der Columbia University in New York entwickelte. In den Jahren 1937 und 1941 hatte Kiesler dort ein Laboratory for Design Correlation ins Leben gerufen, dessen biologischtechnischer Determinismus allerdings von Kieslers surrealistischer Grundhaltung konterkariert wurde: Ein Entwicklungsdiagramm im »Manifest des Correalismus«, 1949 in einer Sonderausgabe von L’Architecture d’Aujourd’hui publiziert,10 gleicht zwar frappant den Diagrammen in »Community and Privacy«, ist allerdings von der kryptischen Aussage »Form folgt nicht der Funktion. Form folgt der Vision. Vision folgt der Wirklichkeit.« begleitet. Als Referenz zum »Correalismus« findet sich bei Alexander und Chermayeff eine dieser irrationalen Gegenbewegung unverdächtige Graphik Kieslers, die einen Produktzyklus in 13 Stufen darstellt und allein den biologisch-technischen Aspekt betont, wie ihn Kiesler 1938 in der Publikation »On Correalism and Biotechnique. A Definition and Test of a New Approach to Building Design« dargestellt hatte.11 Während »Community and Privacy« als Appell an die breitere Öffentlichkeit zu verstehen ist, richtet sich Alexanders nächste, auf seiner Dissertation basierende Publikation »Notes on the Synthesis of Form«12 an ein Fachpublikum. Die Notes begründen den Bedarf für rationale Planungsmethoden aus der gestiegenen Komplexität der aktuellen Probleme, die sich mit konventionellen Planungsmethoden nicht mehr in den Griff bekommen ließen. Ausgangspunkt der Argumentation ist die von Herbert Simon übernommene These, dass komplexe Probleme in möglichst unabhängig voneinander zu lösende, elementare Teilprobleme zerlegt werden müssen. Sind die Teillösungen dafür gefunden, lassen sie sich zu einer Gesamtlösung kombinieren. Angesichts der Komplexität aktueller Aufgabenstellungen legten Planer jedoch die Problemstruktur viel zu früh fest, indem sie auf Beispiele und Konventionen zurückgreifen. Dieses Vorgehen habe in den geschlossenen Gesellschaften der Vergangenheit mit ihren festen Traditionen funktioniert, in modernen Gesellschaften gebe es aber deutlich größere Wahlmöglichkeiten und daher auch größere Irrtumsrisiken. Selbst bei nur 20 Teilproblemen ergeben sich 2 hoch 20 mögliche Kombinationen, aus denen eine richtige Auswahl getroffen werden müsse – für einen Gestalter ohne Computerunterstützung ein schier unmögliches Unterfangen.

10. Reprint in: Dieter Bogner (Hg.): Friedrich Kiesler. Inside the Endless House, Wien, Köln, Weimar 1987, S. 92. Als Originalquelle ist dort angeführt: »Manifeste de Corréalisme«, L’ Architecture d’Aujourd’hui, 2. Sonderdruck, 1949. 11. Vgl. Friedrich Kiesler: »On Correalism and Biotechnique. A Definition and Test of a New Approach to Building Design«, in: Architectural Record, 86/3, September 1939. 12. Christopher Alexander: Notes on the Synthesis of Form, Cambridge, Mass.1964.

168

Erste Schritte zu einer Theorie des Ganzen

Alexander illustriert dieses Dilemma mit einem Diagramm, das die Beziehung zwischen Teilproblemen darstellen soll. Die Wolke im linken oberen Diagramm zeigt eine ungeeignete Auswahl von Teilproblemen, die zu einer falschen Hierarchisierung des Problems und damit zu falschen Lösungen führt. Als Grund für diese falsche Gliederung nennt Alexander vor allem sprachliche Generalisierungen, die der Realität nicht entsprächen: Alexander nennt als Beispiel den Begriff der »Sicherheit«: man könne von einer »Sicherheitskomponente« sowohl beim Entwurf eines Teekessels als auch beim Entwurf eines Autobahnkreuzes sprechen. Aber es sei unwahrscheinlich, dass mit diesem Wort in den beiden sehr unterschiedlichen Bereichen irgendwelche strukturellen Ähnlichkeiten auf der Ebene der Teilprobleme angesprochen würden: »Unfortunately, although every problem has its own structure, and there are many different problems, the words we have available to describe the components of these problems are generated by forces in the language, not by the problems, and are therefore rather limited in number and cannot describe more than a few cases correctly.«13 Der Planer sei daher gefangen im Netz seiner Sprache: »Caught in a net of language of our own invention, we overestimate the language’s impartiality.14

Abb. 5: Diagramm. - Aus: Christopher Alexander: Notes on the Synthesis of Form.

Die Alternative, die Alexander in den »Notes« vorschlägt, besteht darin, zunächst eine unstrukturierte Liste von Teilproblemen auf der untersten, feinsten Ebene der Problemformulierung anzulegen, und dann durch Analyse der tatsächlichen Beziehungen zwischen diesen elementaren Teilproblemen mit Hilfe des Computers zu einer korrekten Dekomposition des Gesamtproblems zu gelangen. Alexander illustriert diese Vorgehensweise am Beispiel der Planungsaufgabe eines Dorfes in Indien.15 Ausgehend von einer konventionellen Gruppierung nach Begriffen wie »Verkehr«, »Religion und Kaste«, »Landwirt13. Ebd., S. 68. 14. Ebd., S. 69. 15. Die Darstellung bezieht sich auf ein Projekt, das Alexander 1962 als Konsulent der Regierung des indischen Bundesstaates Gujarat für das Dorf Bavra, entwickelt hat.

169

Christian Kühn

schaft«, »Gesundheit« und »Erziehung« gelangt er dabei zu 141 Teilproblemen. Im nächsten Schritt wird untersucht, wie diese Teilprobleme tatsächlich miteinander in Beziehung stehen. Bei dieser Analyse wird die Unzulänglichkeit der ursprünglichen Gruppierung deutlich sichtbar. So bedeutet etwa das religiöse Faktum, dass Kühe als heilig behandelt werden, dass sie große Bewegungsfreiheit genießen, was wiederum Auswirkungen auf den Verkehr in der Siedlung hat. Alexander gelangt auf diesem Weg zu einer Gliederung in Gruppen von primären Teilproblemen, die zu übergeordneten Gruppen zusammengefasst werden können. Diese Gruppen erhalten keine neuen »Namen«, sondern werden ausschließlich durch ihre möglichst konkret formulierten primären Teilprobleme repräsentiert.16

Abb. 6: Diagramme. - Aus: Christopher Alexander: Notes on the Synthesis of Form.

Die Lösung der Teilprobleme stellt Alexander nun in Diagrammen dar, die sich ebenfalls hierarchisch zu größeren Einheiten entsprechend der Gliederung des Gesamtproblems verbinden lassen. Als Beispiel dafür nennt er die Analyse der Verkehrsströme an einer Straßenkreuzung, aus der sich die formale Antwort leicht ableiten lasse. Diese von Alexander als »Constructive Diagrams« bezeichneten Diagramme sind gleichzeitig Problemformulierung und erster Ansatz einer Lösung (Alexander spricht davon, dass sie zwischen einem »Functional Diagram« und einem »Form Diagram« vermitteln). Die Beziehung zwischen Problemformulierung und Lösung ist dabei (anders als in der klassischen Theorie des Funktionalismus) wechselseitig: »Each constructive diagram is a tentative assumption about the nature oft the context«.17 Ein Artefakt antwortet auf spezielle Bedürfnisse eines Kontexts, es erklärt ihn aber auch bis zu einem gewissen Grad. Diese Erklärung kann sich in sehr engen Grenzen bewegen, etwa dort, wo es um die »Erklärung« des physikalischen Kräfteverlaufs in einem Bauteil geht, sie kann aber, etwa bei der Beziehung des Artefakts zu seinem kulturellen Kontext, einen großen Interpretations16. »Above all, the designer must resist the temptation to summarize the contents of the tree in terms of well-known verbal concepts. […] If he tries to do that, he denies the whole purpose of the analysis, by allowing verbal preconceptions to interfere with the pattern which the program shows him«, in: Christopher Alexander: Notes on the Synthesis of Form, S. 91. 17. Ebd.

170

Erste Schritte zu einer Theorie des Ganzen

spielraum offen lassen. Bei Alexander heißt es dazu: »A well-designed house not only fits its context well but also illuminates the problem of just what the context is, and thereby clarifies the life which it accommodates. Thus Le Corbusier’s invention of new house forms in the 1920’s really represented part of the modern attempt to understand the twentieth century’s new way of life.«18

Abb. 7: Diagramm »Structure of Requirements« und Hierarchie der »Constructive Diagrams« - Aus: Christopher Alexander: Notes on the Synthesis of Form.

Im Zentrum der »Notes on the Synthesis of Form« steht offensichtlich die korrekte Zerteilung eines Gestaltungsproblems in voneinander möglichst unabhängige Teilprobleme. Dass Alexander sein Buch trotzdem nicht »Notes on the Analysis of Requirements« nennt, liegt daran, dass er mit der Analyse auch den Formfindungsprozess für implizit erledigt hält: Sobald mit Hilfe des Computers eine korrekte hierarchische Dekomposition ermittelt ist, erfolgt die Komposition – Alexander spricht von »realization«, ein Begriff, mit dem er sich explizit auf Louis Kahn bezieht19 – in Form von Diagrammen auf dem genau umgekehrten Weg. Es bleibt in Alexanders Darstellung aber offen, woher die elementaren Diagramme, also jene auf der untersten Ebene der Repräsentation, kommen. Er deutet an, dass die diagrammatischen Lösungen auf dieser Ebene evident sind, sich also gewissermaßen von selbst zeigen: »The search for the right components, and the right way to build the form up from these components, is the greatest physical challenge for the designer. […] I believe that if the hierarchical program is intelligently used, it offers the key to this very basic problem – and will actually point to the major physical components of which the form should consist.«20 Bereits Mitte der 1960er Jahre stellte Alexander den Wert der mathematischen Behandlung des Dekompositionsproblems für architektonische ktonische Aufgaben, wie er ihn in den »Notes« vorgestellt hatte, massiv in Frage. Im Vorwort 18. Ebd. 19. Ebd., S. 209. 20. Ebd., S. 130.

171

Christian Kühn

zu einer Neuauflage der »Notes« 1971 schreibt er dazu: »I have been hailed as one of the leading exponents of these so-called ›design methods‹. I am very sorry that this has happened, and want to state, publicly, that I reject the whole idea of design methods as a subject of study, since I think it is absurd to separate the study of designing from the practice of design. In fact, people who study design methods without practicing design are almost always frustrated designers who have no sap in them, who have lost, or never had, the urge to shape things.«21 Den zentralen Beitrag der »Notes« sieht Alexander in der Idee der Diagramme – »One idea stands out clearly for me as the most important in the book: the idea of the diagrams«22 – die er nun in Verbindung mit ihrer Erläuterung als Patterns bezeichnet.

Abb. 8: Diagramme. - Aus: Christopher Alexander: »A City is Not a Tree«.

An der Idee, dass die korrekte Zerlegung eines Problems nach wie vor eine zentrale Aufgabe des Entwurfs ist, besteht für Alexander auch weiterhin kein Zweifel. Die Annahme, dass diese Zerlegung in einer hierarchischen Baumstruktur abzubilden sei, erscheint ihm aber nun als zu primitiv. Schon 1965 hatte Alexander im Aufsatz »A City is not a Tree«23 etwa untersucht, welche Folgen dieses hierarchische Denkmuster im Städtebau der Moderne zeitigt. In Stadtmodellen wie dem Maryland Greenbelt, Chandigarh, Brasilia, aber auch in weniger prominenten Beispielen wie dem Greater London Plan von 1945 findet Alexander das wiederkehrende Konzept einer baumartig verzweigten Struktur, die den tatsächlichen, in fortgeschrittenen Gesellschaften netzwerkartig organisierten sozialen Beziehungen in einer Stadt keineswegs entspricht: »When we think in terms of trees we are trading the humanity and richness of the living city for a conceptual simplicity which benefits only designers, planners, administrators and developers. Every time a piece of a city is

21. Christopher Alexander: Notes on the Synthesis of Form, Vorwort, S. 2. 22. Ebd. 23. Christopher Alexander: »A City is Not a Tree« in: Architectural Forum, Vol. 122 (April-May 1965), S. 58-62; publiziert unter anderem in: Design (February 1966), S. 46-55 und: Ekistics Vol. 23, S. 344-348.

172

Erste Schritte zu einer Theorie des Ganzen

torn out, and a tree made to replace the semilattice that was there before, the city takes a further step toward dissociation.«24 Als Beispiel für die Idee, die Stadt als baumartige Struktur zu denken, hätte Alexander auch die Stadtentwürfe von Architekten wie Candilis, Josic und Woods heranziehen können, wie er sie 1962 beim Team X-Treffen in Royaumont kennengelernt hatte, zu dem er zusammen mit Kisho Kurokawa als Gast geladen war.

Abb. 9: Candilis-Josic-Woods: Stadtentwicklungsprojekte für Toulouse-Le Mirail 1961-72 (links). Caen-Hérouville (rechts oben und unten). - Aus: Max Risselada: Team 10: 1953-81, Rotterdam 2005

In den Aufzeichnungen der Diskussionen in Royaumont findet sich auch eine kurze Passage, in der Aldo van Eyck heftig auf Alexanders Kritik an der organischen Metaphorik reagiert, die den Blick auf die tatsächlichen Bedürfnisse des modernen Stadtlebens verstelle. Van Eycks poetische Auslassungen über die Homologie von Blatt und Baum, Haus und Stadt kommentiert Alexander mit der knappen Bemerkung: »You know damn well that a tree is not a big leaf, that it is useless in that respect to bring the parallel image.« Was Van Eyck mit der Aussage beantwortet: »I’m sorry for you. The poetic reality that you do is discarded if you think a tree is not a leaf.«25 In späteren Ausgaben von Chermayeff und Alexanders »Community and Privacy in Architecture« finden sich 24. Ebd., S. 62. 25. Alison Smithson (Hg.), Team 10 Meetings: 1953-1984, Delft, New York 1991, S. 78.

173

Christian Kühn

folgerichtig Abbildungen von Blattstrukturen, die deutlich die redundante zelluläre Netzwerkorganisation eines Blattes hervorheben, die Alexanders städtebaulichen Ideen entspricht.

Abb. 10: Doppelseite aus der deutschen Ausgabe von »Community and Privacy«.

Abb. 11 und 12: Ralph Erskine und Christopher Alexander beim Team 10 - Meeting, Royaumont, 1962 (links). Skizze von Aldo van Eyck (rechts). - Beide aus: Max Risselada: Team 10: 1953-81, Rotterdam 2005

Obwohl Alexanders abschätzige Aussagen zum Thema »Design Methods« auf den ersten Blick den Eindruck vermitteln, er hätte seine Position zwischen den »Notes on the Synthesis of Form« und der »Pattern Language« grundsätzlich 174

Erste Schritte zu einer Theorie des Ganzen

verändert, überwiegt die Kontinuität. In beiden Ansätzen steht die korrekte Zerlegung eines Problems im Mittelpunkt. An die Stelle des Versuchs, diese Zerlegung für jedes Problem mit Hilfe des Computers zu finden, tritt in der »Pattern Language« ein dichtes Netzwerk an kommentierten »Constructive Diagrams«. Auch das zentrale Anliegen, den Entwerfer aus dem »Netz seiner Sprache« zu befreien, bleibt in der Pattern Language erhalten, deren Qualität nicht zuletzt in den Titeln der Patterns besteht. So findet sich zwar weder ein Pattern für »Altenheim« noch für »Schule«, aber für diese Themen geeignete Einstiegspatterns wie Old People Everywhere (P 40) oder Network of Learning (P 18). Dass Alexander auf den Einsatz des Computers verzichtet, ergibt sich aus der »kombinatorischen Explosion« an Lösungen: Sobald die Teilprobleme nicht mehr baumartig, sondern in einem Netzwerk verbunden sind und zusätzlich nicht mehr nur in einer binären, sondern auch in einer abgestuften Beziehung zueinander stehen können, sind komplexere Aufgaben nicht mehr berechenbar. Stattdessen setzt Alexander auf die Hoffnung, dass die meisten architektonischen Probleme schon irgendwann gelöst wurden und diese Lösungen nur noch in geeigneter Form dokumentiert und miteinander in Beziehung gebracht werden müssen.

Abb. 13: Netzwerk der Pattern Language (Ausschnitt).

Während er den Begriff des »Patterns« bereits in den »Notes« verwendete, 26 bezeichnet Alexander seine Entwurfsmethode erstmals 1968 in einem Beitrag für EKISTICS, »The Environmental Pattern Language«, 27 als Sprache. Dass 26. Die Bedeutung weicht von der späteren allerdings leicht ab: In den »Notes« differenziert Alexander zwischen »Constructive Diagrams«, die Ganzheiten repräsentieren und als pattern-like bezeichnet werden, im Unterschied zu solchen, die Teile eines Ganzen repräsentieren und als »piece-like« bezeichnet werden. 27. »The Environmental Pattern Language«, in: Ekistics Vol. 25 (May 1968), S. 336-337; als weitere Referenz aus demselben Jahr findet sich in Alexanders Publikationsliste »A Sublanguage of 70 Patterns for Multi-Service Centers« (mit Sara Ishikawa und Murray Silverstein),

175

Christian Kühn

diese Bezeichnung erst zu diesem Zeitpunkt auftritt, ist wenig verwunderlich. Noam Chomskys Arbeiten über »generative Grammatiken« werden Mitte der 1960er Jahre in der Scientific Community populär, Richard Rorty diagnostiziert 1967 den »Linguistic Turn« mit seinem gleichnamigen Buch. Die Idee, das Pattern-Konzept 1968 unter den Begriff »Language« zu stellen, lag für Alexander schon aus Gründen der Popularisierung nahe. Allerdings lässt sich in Alexanders Werk insgesamt eine tiefere Beziehung zu den sprachphilosophischen Konzepten der analytischen Philosophie feststellen. In gewisser Weise zeichnet er mit seiner Entwicklung von den »Notes« zur »Pattern Language« den Weg nach, den Ludwig Wittgenstein von den unmittelbar mit der Wirklichkeit in Verbindung stehenden »Elementarsätzen« seiner Frühphilosophie zum Konzept des »Sprachspiels« in seinem Spätwerk einschlug.28 Auch Alexander sucht in seiner analytischen Entwurfsmethode zuerst nach elementaren Formulierungen von Problemen, die ihre Lösung gewissermaßen in sich tragen. Und er wendet sich schließlich der genauen Beobachtung des Sprachverhaltens zu, wenn er in der »Pattern Language« bestehende Lösungsmuster sammelt und diskutiert.29 In einem entscheidenden Punkt bleibt er allerdings hinter der Idee des »Sprachspiels« zurück: Während die Aussagen in einem »Sprachspiel« immer nur relative Gültigkeit im jeweiligen Kontext haben, schreibt Alexander seinen Patterns letzten Endes universelle Gültigkeit zu, was als eigentlicher Grund für das Scheitern der »Pattern Language« angesehen werden muss. Dieser Anspruch auf universelle Gültigkeit ist in der Struktur der »Pattern Language« aber keineswegs zwingend angelegt, und ihre breite und erfolgreiche Anwendung in der Informatik beweist, dass sie in anderen Disziplinen durchaus produktiv sein kann. In der Architektur ist ihre Renaissance dennoch unwahrscheinlich, da sie zu sehr mit einer Archetypenfixierung in Verbindung gebracht werden. Auch die jüngsten Arbeiten Alexanders, vor allem das vierbändige Werk »The Nature of Order«, mit dem er endgültig den Weg zu einer »Theorie des Ganzen« eingeschlagen hat, tragen wenig zur Reputation der »Pattern Language« bei, auch wenn sie durchaus im Trend einer esoterischen Explikation naturwissenschaftlicher Erkenntnisse liegen.30 Bericht für die Hunts Point Neighborhood Corporation, Hunts Point, Bronx, New York, Januar 1968. 28. Dass Christopher Alexander in Cambridge am Trinity College studiert hat, wo auch Wittgenstein gelehrt hatte, soll hier zumindest erwähnt werden. Einen besonderen Einfluss erwähnt Alexander nicht, obwohl die posthume Veröffentlichung der Philosophischen Untersuchungen 1953, zwei Jahre nach Wittgensteins Tod in Cambridge, zumindest nahe legt, dass dessen Spätphilosophie hier besonders intensiv rezipiert wurde. 29. Eine ausführliche Diskussion dazu findet sich in: Christian Kühn and Marcus Herzog: »Modelling the Representation of Architectural Design Cases«, in: Automation in Construction 2/1993, S. 1-10. 30. Dass selbst Herbert A. Simons jüngste Auflage der »Sciences of the Artificial« mit einer

176

Erste Schritte zu einer Theorie des Ganzen

In modifizierter Form hat das Pattern-Konzept aber durchaus Chancen, zu einem rationalen Diskurs über architektonische Qualität beizutragen. Die »Universal Modernisation Patents«, mit denen Rem Koolhaas in »Content« seine jüngsten Projekte in der Form von Gebrauchsmustern dargestellt hat, mögen ein ironischer Kommentar zum Problem gewesen sein, dass es in der Architektur selbst globalen Superstars nicht möglich ist, ihre Ideen schützen zu lassen. Man kann sie aber auch als Kommentar zum Originalitätszwang lesen, dem sich inzwischen nicht nur die Superstars unterwerfen. Ob »Patent« oder »Pattern«: Wie es der Architektur als Disziplin gelingt, die Osmose zwischen dem Außergewöhnlichen und dem Generischen zu organisieren, ist eine Frage, an der sich ihre Zukunft entscheidet.

esoterisch angehauchten Covergestaltung versehen wurde, zeigt zumindest, wo der Verlag die Leser solcher Werke heute vermutet.

177

Semiotik und Ästhetik in der Architekturtheorie der sechziger Jahre CLAUS DREYER

Die sechziger Jahre des 20. Jahrhunderts waren eine Epoche des kulturellen und politischen Umbruchs, die einerseits den schwierigen »Abschied von Gestern« (Alexander Kluges Film von 1966) unternahm und andererseits den euphorischen Aufbruch in eine neue Zeit mit der »Phantasie an die Macht« versuchte (Slogan der Pariser Studenten vom Mai 1968). Was später als Periode einer weltweiten »Kulturrevolution« gedeutet wurde,1 basierte auf einer vielfältigen Kritik an den bestehenden Verhältnissen in Gesellschaft, Wirtschaft, Politik und Kultur, und bediente sich dazu einer umfassenden »Kritischen Theorie«,2 die zwar in Deutschland sehr stark mit der »Frankfurter Schule« identifiziert,3 tatsächlich aber aus einer ganzen Reihe von damals vagabundierenden Theorieansätzen gespeist wurde.4 Ein wichtiges Kriterium für die Stichhaltigkeit der Analysen, Erklärungen und Interpretationen allgegenwärtiger »Mechanismen« und »Apparate« undurchschauter Herrschafts-, Gewaltund Ausbeutungsverhältnisse war die »Wissenschaftlichkeit«, die nicht nur durch den Rekurs auf Marxismus und Psychoanalyse, 5 sondern auch auf neue Disziplinen wie Strukturalismus, Informations-, Kommunikations- und Medientheorie sowie Kybernetik und Techniktheorie gewährleistet wurde. Diese letzteren Theorieansätze, die in der öffentlichen Auseinandersetzung weniger im Rampenlicht standen und eher im akademischen Milieu ihr Forum hatten, sollten ein weiteres Kriterium für die Stichhaltigkeit der neuen Erklärungen und Prognosen erfüllen, nämlich das des »Avantgardismus« und der Aktualität der Erkenntnisse und Ziele: Es sollte dadurch verbürgt werden, dass man sich theoretisch und wissenschaftlich »auf der Höhe der Zeit« befand.

1. Vgl. Herbert Marcuse: Conterrevolution and Revolt (1972). Deutsch: Konterrevolution und Revolte, Frankfurt/Main 1973. 2. Vgl. Max Horkheimer (1970): Traditionelle und kritische Theorie, Frankfurt/Main, 1970. 3. Vgl. Rolf Wiggershaus: Die Frankfurter Schule, München, 1986. 4. Vgl. Rudolf Sievers (Hg.): 1968 – Eine Enzyklopädie, Frankfurt/Main, 2008. 5. Einflussreich z.B. Herbert Marcuse: Eros and Civilisation (1955). Deutsch: Triebstruktur und Gesellschaft, Frankfurt/Main 1967.

179

Claus Dreyer

Im Umkreis von Strukturalismus, Informationstheorie und Linguistik florierten Begriffe wie »Zeichen«, »Symbol«, »Bedeutung« und »Kommunikation«, und es kann nicht verwundern, dass Theorien, die sich mit diesen Begriffen beschäftigten, eine außerordentliche Aktualität bekamen. Eine davon ist die »Semiotik« oder, im romanischen Kulturkreis, auch die »Semiologie«, deren wissenschaftsimmanente Traditionen weit zurückreichen, die aber in jüngerer Zeit vor allem durch europäische sprachwissenschaftliche Ansätze und durch die Rezeption des amerikanischen Pragmatismus und Behaviorismus bekannt gemacht und verbreitet wurde. An vielen Orten gab es plötzlich Wissenschaftler, die versuchten, das neue Paradigma in den unterschiedlichsten Disziplinen anzuwenden und nutzbar zu machen, und am erfolgreichsten war man dabei, neben den erwähnten Sprach- und Kommunikationswissenschaften, in den Sozial-, Kultur- und Kunstwissenschaften. 6 Von dort aus war der Weg nicht weit zur Architekturtheorie und Urbanistik, und in Italien, Frankreich, England, Amerika und Deutschland kommt es in den sechziger Jahren zu einer Fülle von Veröffentlichungen, die sich mit der Anwendung semiotischer Theorien im architektonischen Bereich beschäftigen. Ein immer wiederkehrendes Thema ist die Kritik am vorherrschenden »Funktionalismus«, dem Bedeutungslosigkeit und Kommunikationsunfähigkeit vorgeworfen wird,7 aber auch Ideen für eine neue zeichen- und symbolhafte Architektur, die erst in den nächsten beiden Jahrzehnten unter dem Begriff »Postmoderne« zur vollen Entfaltung kommen werden, tauchen auf und werden diskutiert.8 Dabei kann man generell sagen, dass es zu einer bemerkenswerten Wechselwirkung zwischen Theorie und gebauter (oder oft auch nur gezeichneter)9 Architektur kommt: es entstehen zunehmend neue Entwürfe und Gebäude, die mit den bislang gültigen theoretischen Konzepten nicht mehr hinreichend beschrieben, erklärt und interpretiert werden können, und so verlangt die architektonische Praxis nach neuen Theorien, die entweder aus vorhandenen Ansätzen weiterentwickelt oder neu gefunden und konstituiert werden müssen.10 Die bereits vorhandene Semiotik schien eines der geeigneten Instrumente zur Konzeption eines neuen Paradigmas in der Architekturtheorie zu sein.11 6. Vgl. dazu Roland Posner u. a. (Hg.): Semiotik. Ein Handbuch zu den zeichentheoretischen Grundlagen von Natur und Kultur, 3 Bände, Berlin 2003. 7. Vgl. Heide Berndt u.a.: Architektur als Ideologie, Franfurt/Main 1968. 8. Vgl. Charles Jencks und George Baird (Hg.): Meaning in Architecture, London 1969. 9. Vgl. Frank Werner: Die vergeudete Moderne. Europäische Architekturkonzepte nach 1950, die Papier geblieben sind, Stuttgart 1981. 10. Vgl. Jürgen Joedicke: »Funktionen der Architekturtheorie«, in: Bauen und Wohnen 7 (1968). 11. Vgl. Max Bense: »Urbanismus und Semiotik«, in: ders.: Einführung in die informationstheoretische Ästhetik, Hamburg 1969, 132-137.

180

Semiotik und Ästhetik in der Architekturtheorie der sechziger Jahre

Im folgenden sollen einige markante Stationen dieser Entwicklung nachgezeichnet, und dabei, in Konsequenz der oben angedeuteten Überlegungen, die Wechselwirkung zwischen gebauter (oder gezeichneter) Architektur und gleichzeitiger Theorie herausgestellt werden, ohne dass damit ein direkter Zusammenhang postuliert werden kann. Obwohl die meisten der praktizierenden Architekten in den sechziger Jahren einen Einfluß durch die Semiotik zurückgewiesen oder gar nicht erst thematisiert haben, kann man vielleicht von einem frei flottierenden »Zeitgeist« reden, der sich oft auch ohne intendierte Bezugnahme gezeigt und deutlich bemerkbar gemacht hat – anders wäre die parallele Entwicklung von semiotischer Theorie und signifikanter Architektur kaum erklärbar. Vorangestellt werden soll ein semiotisches Referenzschema für architektonische Zeichen, das in seinem philosophischen Kern auf den amerikanischen Philosophen Charles Sanders Peirce12 zurückgeht, dann von Max Bense und seinen Schülern seit den fünfziger Jahren auf Kunst, Design und Architektur angewandt13 und besonders von Umberto Eco seiner ersten größeren Analyse architektonischer Zeichen14 zugrunde gelegt wurde. Seine triadische Grundstruktur kann folgendermaßen dargestellt werden:15 Form (Material, Farbe, Konstruktion, Gestalt)

Funktion (physiologisch, psychisch, geistig)

Bedeutung (emotional, praktisch, logisch)

An diesem Schema lassen sich verschiedene theoretische Ansätze der sechziger Jahre reflektieren und bestimmte Thematiken lokalisieren: so betrachtet die funktionalistische Sichtweise nur die Beziehung zwischen Form und Funktion (»Semantik«), die ikonologische nur die zwischen Form und Bedeutung (»Hermeneutik«) und die sozialkritische vor allem die zwischen Funktion und Bedeutung (»Pragmatik«). Eine ganzheitliche semiotische Betrachtungsweise versucht, alle drei Dimensionen der architektonischen Zeichen zu berücksich12. Vgl. Charles Sanders Peirce: Schriften I, Schriften II. Hg. v. Karl Otto Apel, Frankfurt/Main 1967, 1970. 13. Vgl. Max Bense: Semiotik. Allgemeine Theorie der Zeichen, Baden-Baden 1967. 14. Vgl. Umberto Eco: La struttura assente, Milano 1968. Deutsch: Einführung in die Semiotik, München 1972. 15. Vgl. dazu Claus Dreyer: »Semiotische Aspekte der Architekturwissenschaft«, in: Roland Posner u. a. (Hg.): Semiotik, Bd. 3, 2003, S. 3234-3278.

181

Claus Dreyer

tigen und in ihrem Zusammenhang zu analysieren und zu interpretieren, so wie es Eco am Ende der sechziger Jahre in seiner einflussreichen »Einführung in die Semiotik«16 getan hat. Damit wird ein anderer Ansatz in der Architektursemiotik der sechziger Jahre, der vor allem auf die »Syntaktik der architektonischen Form« fokussiert war und daraus Strategien zur Formalisierung, Programmierung und Automatisierung des Entwurfsprozesses in der Architektur gewinnen wollte, aus der näheren Betrachtung ausgeklammert. Die wenigen Versuche, diesen Ansatz auszuarbeiten und anzuwenden,17 haben keine Fortsetzung in den folgenden Jahren und Jahrzehnten gefunden und werden erst neuerdings unter dem Einfluß der digitalen Technologien wieder interessant. Die hier im folgenden behandelten semiotischen Ansätze und die damit korrespondierenden architektonischen Entwürfe weisen in eine andere Richtung: sie zeichnen sich dadurch aus, dass sie die semantische, pragmatische und hermeneutische Dimension der Zeichenprozesse ausdrücklich thematisieren und damit die Basis legen für eine »Versprachlichung«, »Verbildlichung«, Ästhetisierung und »Poetisierung« der Architektur, die sowohl die subjektive Kreativität des Entwerfers wie die Einbettung der Entwürfe in den sozialen und kulturellen Kontext herausfordern. Diese Suche nach einer verständlichen und bedeutungsvollen »Sprache der Architektur« wird die Entwurfstechniken der folgenden Jahre und Jahrzehnte ganz erheblich beeinflussen und unter dem Signum der »Postmoderne« einer ganzen Epoche der Architekturgeschichte ihre Prägung geben.18 Aus dem Spektrum der vielfältigen Ansätze dieser Architektursemiotik in den sechziger Jahren lassen sich vier Themenbereiche herauskristallisieren, die immer wieder bearbeitet werden, und die hier im folgenden kurz dargestellt werden sollen.

1. Architektonische Elemente als Zeichen Bei der Suche nach Zeichen in der Architektur richtet sich der Blick zunächst auf sämtliche architektonischen Elemente, die überhaupt identifiziert und unterschieden werden können. An einzelnen Gebäuden lassen sich beispielsweise folgende Elemente aufweisen:19 16. Vgl. Umberto Eco: La struttura assente. 17. Vgl. als Beispiel Manfred Kiemle: Ästhetische Probleme der Architektur unter dem Aspekt der Informationsästhetik, Quickborn 1967, s. dazu den Beitrag von Ingeborg M. Rocker in diesem Band. 18. Vgl. dazu ausführlich Heinrich Klotz: Moderne und Postmoderne. Architektur der Gegenwart, Braunschweig 1984. 19. Vgl. Umberto Eco: Einführung in die Semiotik, S. 329ff; Claus Dreyer: »Die Repertoires der Architektur unter semiotischem Gesichtspunkt«, in: Semiosis 19, 3 (1980), S. 37-48.

182

Semiotik und Ästhetik in der Architekturtheorie der sechziger Jahre

– – – – – – –

Formale Elemente: Giebel, Gaube, Erker, Portikus, Säule, Arkade, Kuppel. Funktionale Elemente: Wand, Boden, Decke, Fenster, Tür, Dach, Treppe. Konstruktive Elemente: Material, Stütze, Balken, Mauer, Gewölbe, Fachwerk. Räumliche Elemente: Lang-, Zentral-, Weg-, Platz-, Zwischenraum, Winkel. Raumtypen: Labyrinth, Atrium, Galerie, Halle, Korridor, Saal, Atrium, Turm. Nutzungstypen: Wohn-, Ess-, Schlafzimmer, Küche, Bad, Flur, Loggia, Keller. Gebäudetypen: Villa, Schloss, Basilika, Rathaus, Kaufhaus, Fabrik, Bank.

Alle Elemente dieser Art können einzeln, im Zusammenhang miteinander oder mit weiteren Elementen und dem Ort und dem Kontext als bedeutungsvolle Zeichen gestaltet und interpretiert werden, aber die meisten der frühen Ansätze sind kontextunabhängig angelegt und berücksichtigen allenfalls einen historischen Bedeutungszusammenhang. Dieser wird allerdings sehr stark thematisiert in den Arbeiten von Aldo Rossi und Oswald Matthias Ungers. Rossi beschäftigt sich schon früh mit typologischen Formen, in denen das Konzentrat eines historischen Entwicklungsprozesses zum Ausdruck kommt, und das durch geometrische Präzisierung noch verdeutlicht werden kann. Bei seinem Entwurf für das Mahnmal in Segrate von 196520 tauchen nur elementare Grundformen wie prismatisches Dach, zylindrische Säule, scheibenförmige Wände und schlichte Treppe auf: einfache und typische Formen signalisieren Permanenz und Kontinuität, sie können das kollektive Gedächtnis unterstützen und Erinnerungen wach halten.

Abb. 1: Aldo Rossi: Wohnblock in Mailand Galleratese, Italien, 1969. - Aus: Heinrich Klotz: Moderne und Postmoderne, Braunschweig 1984, S. 259.

20. Vgl. Heinrich Klotz: Moderne und Postmoderne. Architektur der Gegenwart.

183

Claus Dreyer

In seinem einflussreichen Buch über die »Architektur der Stadt«21 hat Rossi sein Konzept der Typologie und der Permanenz auf die urbane Thematik ausgedehnt und sie zur Grundlage für Strategien der Stadtplanung gemacht. Auch wenn dabei prominente und monumentale Gebäude im Zentrum der Überlegungen stehen, verwendet Rossi in seiner Entwurfspraxis bedeutungsvolle Formen auch im Bereich des Wohnungsbaus wie bei seinem Wohnblock in Mailand Galleratese von 1969 (Abb. 1). Hier wird ein monumentaler Block an einer signifikanten Stelle durch eine Dehnungsfuge aufgebrochen, die durch archetypische Rundstützen, modernistische Schotten und klassizistische Fensterkreuze am Treppenhaus gekennzeichnet wird, um, so könnte man meinen, auf historische und typologische Zusammenhänge anzuspielen.

Abb. 2: Oswald Mathias Ungers: Entwurf für die Deutsche Botschaft am Heiligen Stuhl in Rom, 1965. - Aus: Heinrich Klotz: Moderne und Postmoderne, S. 218.

21. Vgl. Aldo Rossi: L’Architettura della Citta, Padova 1966. Deutsch: Die Architektur der Stadt, Düsseldorf 1973.

184

Semiotik und Ästhetik in der Architekturtheorie der sechziger Jahre

Ungers hat sich in seiner legendären Berliner Lehrtätigkeit von 1963 bis 1969 sehr intensiv mit dem historischen Formenvokabular, besonders dem der Renaissance und des Klassizismus, auseinandergesetzt und dabei versucht, typologische Formen zu finden und weiterzuentwickeln und sie, mehr noch als Rossi, einer geometrischen Klärung und Stilisierung zu unterziehen.22 Hinzu kommt das Prinzip der morphologischen Prozesse, mit dem aus einfachen Grundformen mannigfaltige neue und komplexere Formen erzeugt werden können. Dieser Zusammenhang von Typologie, Geometrie und Morphologie, der später um das Konzept der »Thematisierung« ergänzt wird,23 führt zu einem Repertoire von bedeutungsvollen Formen, die in allen damaligen Entwürfen von Ungers und seinen Schülern auftauchen (von denen freilich kein einziger gebaut wurde). Der Grundriß für eine große Studentenwohnanlage in Enschede von 196324 zeigt mit seinen Achsen, Symmetrien, quadratischen, dreieckigen und kreisförmigen Grundformen, dem Amphitheater und den streng gerahmten Plätzen das Formenrepertoire der klassizistischen Entwurfslehre25 in neuer Interpretation, und der Entwurf für die »Deutsche Botschaft am Heiligen Stuhl« in Rom von 1965 schöpft aus der gleichen Quelle und bereichert sie mit Anspielungen auf die klassische Moderne in der Architektur (Abb. 2). Die hier gesetzten architektonischen Zeichen, die erst in den siebziger und achtziger Jahren ihre Potenziale entfalten, zeigen das neue Interesse an einer bedeutungsvollen Architektur, die auch von diversen Theoretikern in ihren Überlegungen reklamiert wird. Ein markantes Werk dieser Art ist die »Logik der Baukunst« von Christian Norberg-Schulz aus dem Jahr 1963.26 Unter Bezugnahme auf Klassiker der Semiotik wie Charles Morris27 bezeichnet Norberg-Schulz die »Symbolisierung« als eine Hauptaufgabe der Baukunst, als deren Ergebnis Architektur »kulturelle Symbole«28 hervorbringe. Die architektonische Symbolisierung besteht darin, dass eine »strukturelle Ähnlichkeit« zwischen einem Bauprogramm und einer Gebäudeform, die zu einem adäquaten kulturellen Milieu gehört, hergestellt und ausgearbeitet wird.29 Ent22. Vgl. Oswald Mathias Ungers: »Architekturlehre. Berliner Vorlesungen 1964-1965«, in: arch+ 179 (2006). 23. Vgl. Oswald Mathias Ungers: Architettura come Tema – Architecture as Theme, Milano 1982. Deutsch: Die Thematisierung der Architektur, Stuttgart 1983. 24. Heinrich Klotz: Moderne und Postmoderne, S. 217. 25. Vgl. Alexander Tzonis/ Liane Lefaivre: Das Klassische in der Architektur, Braunschweig 1987. 26. Vgl. Christian Norberg-Schulz: Intentions in Architecture, Oslo 1963. Deutsch: Logik der Baukunst, Gütersloh 1968. 27. Vgl. z.B. Charles Morris: Foundations of the Theory of Signs, Chicago 1938. Deutsch: Grundlagen der Zeichentheorie, München 1972. 28. Christian Norberg-Schulz: Logik der Baukunst, S. 123. 29. Ebd., S. 173ff.

185

Claus Dreyer

werfen in der Architektur kann deshalb als eine Praktik verstanden werden, die die Integration und Synthese von programmatischen Anforderungen und kulturell angemessenen bedeutungsvollen »symbolischen« Formen beinhaltet, wobei die Beziehung zwischen Form und Inhalt als »semantische« Relation bezeichnet wird (ebenda). An anderer Stelle hat Norberg-Schulz sein Konzept in folgender Skizze veranschaulicht:

Abb. 3: Christian Norberg-Schulz: Formfindung für einen Klosterentwurf, Oslo 1967. - Aus: Der Architekt 6 (1967), S. 224.

Hier geht es um die Formfindung für ein Kloster in Oslo, bei dem das Programm (Kirche, Kapelle, Saal, Wohnung) mit einer passenden symbolischen Form (Kreis im Quadrat) in strukturelle Übereinstimmung gebracht wird und so eine kulturelle »Gültigkeit« bekommt. Die bedeutungsvollen Formen, die im semiotischen Sinne »Zeichen« sind, sollen einen abstrakten strukturellen Charakter haben, d.h. »semantisch leer« sein, damit sie auf unterschiedliche Programme reagieren können: »Im Prinzip besteht eine allgemeine Theorie aus einer allgemeinen Aufgabenlehre, die auf einem vollständigen Verständnis menschlicher Bedürfnisse aufgebaut ist, einer allgemeinen Formenlehre, die eine ›offene‹ Mannigfaltigkeit formaler Systeme zu unsere Verfügung stellt, und einer allgemeinen Architektur-Semantik, die die grundlegenden Relationen zwischen Inhalt und Form behandelt. Zusammen bilden diese Dimensionen eine pluralistische Architekturtheorie«, die auch, so kann man folgern, Grundlage einer semiotischen Entwurfstheorie und -praxis werden müsste.

186

Semiotik und Ästhetik in der Architekturtheorie der sechziger Jahre

Ein von Norberg-Schulz völlig unabhängiges Beispiel, das gleichwohl seinen semiotischen Ideen nahe stehen könnte, ist Saarinens Kennedy-Airport in New York von 1962, der dem Flughafengebäude die Gesamtform eines riesigen Vogels mit ausgebreiteten Schwingen verleiht (ob hier eine gelungene »Symbolisierung« oder eher eine Illustration vorliegt, kann dahingestellt bleiben). Aber auch Karl Schwanzers Entwurf für die BMW-Zentrale in München von 1970 könnte das Konzept von Norberg-Schulz exemplifizieren: vier Abteilungen der Verwaltung einer Automobilfirma finden ihren formalen Ausdruck in einer technischen Großform von vier miteinander verbundenen Zylindern, die sowohl abstrakt wie bildhaft konkret wahrgenommen und als Symbol für technische Exzellenz interpretiert werden kann. Mit Blick auf unser o.a. Referenzschema kann man sagen, dass Rossi und Ungers vor allem die Relation zwischen Form und Bedeutung thematisieren, während Norberg-Schulz, zumindest theoretisch, die gesamte triadische Relation zwischen Form, Funktion und Bedeutung herausarbeitet, wobei die »Bedeutung« im symbolischen Gehalt zu suchen ist.

2. Architektur als Sprache oder Text Es kann nicht verwundern, dass aufgrund der linguistischen Provenienz der semiotischen Terminologie seit den sechziger Jahren immer wieder der Versuch gemacht wurde, Architektur als Sprache oder Text zu beschreiben oder zumindest sprachtheoretische Modelle und Instrumente bei der Analyse zu verwenden. Auch wenn dieser Ansatz erst in den folgenden Jahrzehnten zur Blüte kommt, lassen sich in den Sechzigern markante Positionen ausmachen. So ist John Summersons Versuch, die »Klassische Sprache der Architektur« zu beschreiben, 30 noch sehr stark an der formengeschichtlichen Tradition orientiert. Er stellt dar, wie die klassischen fünf Säulenordnungen von der Antike bis in die Gegenwart verwendet und ihre Elemente nach einer Art »Grammatik« immer wieder neu kombiniert werden und neue »Äußerungen« ergeben, die in Form von klassischen Motiven (Tempelmotiv, Triumphbogenmotiv, Pantheonmotiv, Palladiomotiv, Urhüttenmotiv) zu immer neuen Formulierungen der klassischen Harmonie der Teile untereinander führen. In der Architektur der sechziger Jahre (und erst recht in den späteren Jahren) tauchen zunehmend Säulen und klassische Motive auf, die so wirken, als wollten sie etwas Besonderes zur Sprache bringen. Ein auffallendes Beispiel ist das Haus Nagel von Heinz Bienefeld von 1968 (Abb. 4). Das in der Fassade domierende Palladiomotiv gibt dem eigentlich kleinen Gebäude den Anschein von Größe und historischer Bedeutung. 30. Vgl. John Summerson: The Classical Language of Architecture, London, 1963. Deutsch: Die klassische Sprache der Architektur, Braunschweig 1983.

187

Claus Dreyer

Abb. 4: Heinz Bienefeld: Haus Nagel in Wesseling, 1968. - Aus: Heinrich Klotz: Moderne und Postmoderne, S. 63.

Abb. 5 (links): Charles Moore: Haus in Orinda, Kalifornien, 1962. - Aus: Heinrich Klotz: Moderne und Postmoderne, S. 183. Abb. 6 (rechts): Charles Moore: Haus in New Haven, Connecticut, 1966. - Aus: Gerald Allen: Charles Moore, New York 1980, S. 55.

188

Semiotik und Ästhetik in der Architekturtheorie der sechziger Jahre

Von Umberto Eco stammt eine ausführliche »Komponentenanalyse des Zeichens Säule«, 31 die charakteristisch ist für die in den sechziger Jahren verbreitete und linguistisch inspirierte Stammbaummethode in der Bedeutungsanalyse. In solchen Darstellungen werden Hierarchien und Abhängigkeiten von Bedeutungsmerkmalen deutlich gemacht, die dann bei der Analyse oder dem Entwurf von Säulen und von ihnen geprägten Elementen berücksichtigt werden können. In Ecos Beispiel zerfällt die Bedeutung des Zeichens Säule in eine physische Funktion, die denotiert wird (das Stützen, Stehen und Tragen) und eine sozio-anthropologische Funktion, die konnotiert wird (architektonische, historische und ästhetische Konnotationen). Charles Moore ist einer der Architekten, die Säulen in vielfältigen Ausführungen und unterschiedlichen Funktionen einsetzen: bei seinem Haus in Orinda von 1962 als naturbelassene Baumstämme, die einen kleinen Baldachin über der Dusche tragen (Abb. 5), oder bei seinem Haus in New Haven von 1966 als schwere Vierkantstützen, die den Eingangsportikus tragen (Abb. 6). In beiden Fällen sind es Konnotationen wie die von Eco genannten, mit denen Moore die »Sprachfähigkeit« seiner Entwürfe zu erhöhen versucht. Im Jahre 1969 entwirft der britische Architekt James Stirling in Haslemere (England) ein Ausbildungszentrum für die Firma Olivetti, das formal sehr ungewöhnlich ist (Abb. 7): die Verkleidung der Gebäudeflügel besteht aus gelben Plastikschalen mit gerundeten Kanten, im denen kabinenartige Fensterschlitze in zwei Reihen monoton übereinander angeordnet sind.

Abb. 7: James Stirling: Olivetti-Ausbildungszentrum in Haslemere, England, 1969. - Aus: Heinrich Klotz: Moderne und Postmoderne, S. 330.

31. Vgl. Umberto Eco: »Komponentenanalyse des Zeichens ›Säule‹«. In: Werk 10 (1971), S. 682-686.

189

Claus Dreyer

Dieses Gebäude wird von Charles Jencks in einer methodisch an den linguistischen Stammbaummethoden der sechziger Jahre orientierten Untersuchung semantisch analysiert (Abb. 8).32 Dabei verwendet Jencks metaphorische Zuschreibungen von verschiedenen Betrachtern, die dem Gebäude als Ganzem zugesprochen werden: Bus, Zug, Wohnwagen, Büromaschine, Briefkasten, Automat usw. Diese Zuschreibungen werden in »semantischen Ketten« geordnet und differenziert, sodass sich daran Bewertungen und Interpretationen anschließen lassen. Die architektonische »Sprache« wird hier eher als ein System von Metaphern verstanden.

Abb. 8: Charles Jencks: Bedeutungsanalyse von Stirling’s Olivetti-Zentrum, 1970. - Aus: Geoffrey Broadbent/Richard Bunt/Charles Jencks (Hg.): Signs, Symbols und Architecture, Chichester 1980, S. 239.

32. Vgl. Charles Jencks: »A Semantic Analysis of Stirling’s Olivetti-Centre Wing« (1970), in: Geoffrey Broadbent/Richard Bunt/Charles Jencks (Hg.): Signs, Symbols und Architecture, Chichester 1980, S. 233-241.

190

Semiotik und Ästhetik in der Architekturtheorie der sechziger Jahre

Architektur als Text wird in den sechziger Jahren auch in literarischer, literaturwissenschaftlicher und kunsttheoretischer Form entfaltet. Ein einflussreiches Buch, im französischen Original schon 1957 erschienen, ist Gaston Bachelards »Poetik des Raumes«, 33 die architektonische Phänomene wie den »Winkel«, das »Nest«, die »Schubladen, Truhen und Schränke« oder das »Haus« als Ganzes in poetischer, besonders lyrischer, Darstellung analysieren, interpretieren und eine Bedeutungsfülle aufzeigen, die in der architektonischen Praxis bis dahin nicht bekannt war. – In einem Sammelband über »Die Stadt als Text«34 hat Bernhard Schneider wichtige Aufsätze aus den Sechzigern über »Semiotik und Urbanismus«, u.a. von Roland Barthes und Francoise Choay, zusammengestellt; darin wird festgestellt, dass die Stadt ein Text nicht nur im metaphorischen Sinn ist, sondern tatsächlich aufgrund des Zeichencharakters architektonischer Elemente wie ein (architektur-)sprachliches Produkt behandelt werden kann. Daran schließen sich sogar Überlegungen zur Entwurfsmethodik von architektonischen Texten an.35 Es bleibt allerdings der Eindruck, dass in diesen Ansätzen, bei aller angestrengten Theorielastigkeit, doch eine gewisse Metaphorik zurück bleibt, weshalb sich auch keine direkten Auswirkungen in der damaligen Entwurfspraxis finden lassen. Das wird sich dann in den Achtzigern und Neunzigern unter dem Einfluß von Jacques Derrida ändern. 36

Abb. 9: Charles Moore: Sea Ranch Umkleidekabine, Kalifornien, 1967. - Aus: Gerald Allen: Charles Moore, S. 38. 33. Vgl. Gaston Bachelard: La poétique de l’espace, Paris 1957. Deutsch: Poetik des Raumes, München 1975. 34. Vgl. Alessandro Carlini/Bernhard Schneider (Hg.): Die Stadt als Text, Tübingen 1986. 35. Ebd., S. 68ff. 36. Vgl. z.B. Peter Eisenman/Jacques Derrida: »Architektur Schreiben. Ein Gespräch zwischen Peter Eisenman und Jacques Derrida« (1993), in: Peter Eisenman: Aura und Exzess. Wien 1995, S. 295-306.

191

Claus Dreyer

Das Thema Sprache und Text lässt sich aber auch an solchen Entwürfen identifizieren, wo es durch Anlehnung an Werbung, Typografie, Ornament und »Supergrafik« Spuren und Fragmente hinterlässt, wie beispielsweise in Charles Moores Umkleidekabine in der »Sea Ranch« von 1967 (Abb. 9). Dabei gibt es eine Überschneidung mit dem Bereich »Architektur als (Massen-) Medium«, der weiter unten behandelt wird.

3. Architektonische Kodes Dieses Thema ist zu einem zentralen Kapitel in der Beziehung zwischen Architektur und Semiotik geworden.37 In den sechziger Jahren beschäftigen sich vor allem italienische und französische Autoren mit der Identifikation und Definition von Kodes, später werden auch englische und amerikanische Untersuchungen dazukommen.38 Unter diesem ursprünglich aus der Kommunikationstheorie übernommenen Begriff wird folgendes verstanden: ein Kode ist ein System oder Teilsystem von Zeichen, die einen geregelten Zusammenhang von – – –

Zeichen untereinander Zeichen und Bedeutung Bedeutung und Interpretation

besitzen, und die auf einer sozialen Konvention oder Normierung beruhen. 39 Kodes sind zunächst nur für bestimmte Zwecke und Anwendungen entwickelt worden, wie das Morse-Alphabet oder die Verkehrszeichen, aber der Begriff wird bald für alle möglichen weiteren Zeichenzusammenhänge verwendet: Dress-Kode, Verhaltens-Kode, Einrichtungs-Kode. In der Architektur ersetzt er zunehmend den traditionellen Begriff »Stil«, der in der theoretischen Diskussion längst verpönt war,40 aber unter dem neuen Signum wieder belebt werden konnte. Ein einflussreicher italienischer Theoretiker ist Gillo Dorfles, der Kodes als »figurative Konstanten« in der Architektur bezeichnet.41 Er unterscheidet zwischen 37. Vgl. Claus Dreyer: Semiotische Aspekte der Architekturwissenschaft, S. 3256ff. 38. Vgl. bes. Charles Jencks: The Language of Post-Modern Architecture, London 1977. Deutsch: Die Sprache der Postmodernen Architektur, Stuttgart 1978. 39. Vgl. Colin Cherry: Kommunikationsforschung – eine neue Wissenschaft, Hamburg, 1967, S. 51ff. 40. Vgl. Claus Dreyer/Susanne Hauser (Hg.): Stil als Zeichen in Architektur, Stadt- und Landschaftsplanung, in: Stil als Zeichen. Funktionen-Brüche-Inszenierungen (= Universitätsschriften – Schriftenreihe der Europa-Universität Viadrina, Bd. 24, CD-ROM), Frankfurt/Oder 2006. 41. Gillo Dorfles: »Ikonologie und Semiotik in der Architektur« (1967), in: Alessandro Carlini/Bernhard Schneider (Hg.): Architektur als Zeichensystem, Tübingen 1971, S. 91-98, S. 91.

192

Semiotik und Ästhetik in der Architekturtheorie der sechziger Jahre





symbolischen Kodes, die besonders in der historischen Baukunst verankert sind, wie z.B. in den Sakralbauten einer bestimmten Religion in einer bestimmten kulturellen Epoche, und typologischen Kodes, die sich im Laufe der Zeit aus verschiedenen Bau aufgaben herauskristallisiert haben und als strukturelle Invarianten bis in die Gegenwart immer wieder sichtbar werden.

Während die Kodes bei den Theoretikern eine eher beschreibende, analysierende und kritische Funktion erfüllen, haben sie bei Praktikern wie James Stirling für seine Universitätsbauten in Leicester 1963, Cambridge 1964 und Oxford 1966,42 eine durchaus entwurfsorientierende Funktion, indem sie dazu dienen, für ähnliche Bauaufgaben verwandte Formen zu finden. Dass diese Formen bei Stirling aus dem Repertoire des Industriebaus zu stammen scheinen, lässt an der Verbindlichkeit der Kodierung zwar Zweifel aufkommen, zeigt aber zugleich den Spielraum, den der Entwerfer in der Anwendung und Neuinterpretation von Kodes haben kann. Im Falle der Akzeptanz, wie sie Stirling erfahren hat, kann man von einer gelungenen »kulturellen Symbolisierung« im Sinne von Christian Norberg-Schulz sprechen. Besonders eingehend hat sich Umberto Eco mit den architektonischen Kodes befasst,43 und dabei viele der italienischen und französischen Vorarbeiten aufgenommen. Eco stellt zunächst fest, dass man eigentlich zwischen Entwurfs-, Darstellungs- und Konstruktionskodes unterscheiden müsste, die auch noch jeweils in einen Anwendungs- und Lektürekode zu untergliedern wären,44 aber diese Differenzierungen gehen auf in seiner grundsätzlichen Unterscheidung zwischen »syntaktischen« und »semantischen« Kodes. Er gibt dafür folgende Definitionen: –

– – – –

42. 43. 44. 45.

Syntaktische Kodes: sie betreffen die »strukturelle Logik« der Baukonstruktion,45 und sie regeln die fachgerechte Verbindung der Bauteile zu einem größeren technischen Ganzen; Semantische Kodes: sie zerfallen in Elemente, die Funktionen denotieren wie Dach, Fenster, Tür, Treppe; Elemente, die »symbolische« Bedeutungen konnotieren wie Säule, Giebel, Tympanon; Elemente, die Raumprogramme denotieren und »Ideologien« der Nutzung konnotieren wie Wohnzimmer, Esszimmer, Aufenthaltsraum;

Vgl. James Stirling: Bauten und Projekte 1950-1974, Stuttgart 1975, S. 66, 84 und 117. Vgl. Umberto Eco: Einführung in die Semiotik. Ebd., S. 325ff. Ebd., S. 329.

193

Claus Dreyer

– – –

Konfigurationen und Muster, die soziale Typen artikulieren wie Villa, Schloss, Schule, Krankenhaus; räumliche Typen artikulieren wie Labyrinth, »offener« Grundriss, Rotunde (ebenda).

Alle diese Differenzierungen lassen eine subtile Beschreibung und Analyse von Architektur zu (vgl. die oben zitierte »Komponentenanalyse des Zeichens Säule«), und sie könnten zugleich als Anregungen für die En.twurfspraxis verstanden werden, verschiedene Ebenen der architektonischen Kodierung miteinander zu kombinieren. Das scheint bei den folgenden Entwürfen der Fall zu sein, bei denen besonders die symbolischen und typologischen Kodes eine Rolle spielen. In Robert Venturis Haus für seine Mutter von 1962 (zusammen mit John Rauch) (Abb. 10) tauchen vor allem an der Fassade signifikante Elemente auf: ein traditioneller Spitzgiebel als Gesamtform, der durch den Einschnitt eines barocken Sprenggiebels konterkariert wird und in den wiederum der Keil eines modernistischen Pultdachs eingeschoben wird, der mit dem eingeschnittenen Segmentbogen über dem Eingang kontrastiert und durch das übergroße Kreuzsprossenfenster links und das schmale Fensterband rechts gerahmt wird. Die Einzelelemente lassen sich verschiedenen historisch-symbolischen oder typologischen Kodes zuordnen, ihre widersprüchliche und komplexe Mischung ist Venturis Programm.46

Abb. 10: Robert Venturi (mit John Rauch): My Mother’s House, Chestnut Hill, Philadelphia, 1962. - Aus: Heinrich Klotz: Moderne und Postmoderne, S. 150.

46. Vgl. Robert Venturi (1966): Complexity and Contradiction in Architecture, New York 1966. Deutsch: Komplexität und Widerspruch in der Architektur, Braunschweig 1978.

194

Semiotik und Ästhetik in der Architekturtheorie der sechziger Jahre

Ähnlich geht es bei dem Altenheim »Guild House« von Venturi und Rauch in Philadelphia von 1963 zu, wo insbesondere der Mittelrisalit in der Fassade mit signifikanten Elementen kodiert ist (Abb. 11).

Abb. 11: Robert Venturi (mit John Rauch): Guild House, Philadelphia, 1963. - Aus: Heinrich Klotz: Moderne und Postmoderne, S. 153.

Über dem weiß geziegelten Sockelgeschoss wird eine streng achsensymmetrische Komposition aus Fenstern und Balkonen aufgeführt, die unten von einer zentralen dicken Granitsäule gestützt und oben von einem monumentalen antiken Thermenfenster abgeschlossen wird, über dem eine vergoldete Fernsehantenne eine Attikabekrönung andeutet. Der Name des Heimes ist über dem Eingang wie eine riesige Reklametafel eingesetzt und die Lochblechbrüstungen der Balkone signalisieren Alltäglichkeit. Zwei an mittelalterliche Schießscharten erinnernde Schlitze an den äußeren oberen Ecken lassen zusammen mit anderen Details die Fassade wie vorgehängt erscheinen: sie soll wie ein Zeichenträger wirken und verweist damit auf das später von Venturi propagierte Konzept des »Decoratet Shed«.47 Auch hier sind es Zeichen aus diversen symbolischen und typologischen Kodes, deren Mischung und Überlagerung den Reiz der Gestaltung ausmacht. Aber, wie Heinrich Klotz betont, »ist keine Form aus willkürlicher Formgebung entstanden [... ] Der Bau strahlt in seiner heruntergekommenen Vorstadtumgebung einen hohen Grad von Integrität aus. Alles an ihm ist solide, jedes Detail stimmt. So wird die Ästhetik zur willkommenen Zugabe, Ergebnis geringsten Aufwandes«.48 47. Vgl. Robert Venturi/Denise Scott Brown: Learning from Las Vegas. The forgotten Symbolism in Architectural Form, Cambridge, Mass. 1972. Deutsch: Lernen von Las Vegas, Braunschweig 1979. 48. Vgl. Heinrich Klotz: Moderne und Postmoderne, S. 155.

195

Claus Dreyer

4. Architektur als (Massen-)Medium Mit Venturis und den oben bei Moore erwähnten Reklame- und TypografieElementen wird in der architektonischen Praxis der sechziger Jahre ein Thema vorbereitet, das ebenfalls erst viel später als »Medienarchitektur« und »Corporate Architecture« Karriere machen sollte.49 Im theoretischen Bereich liefert der italienische Autor Renato de Fusco mit seinem Buch über »Architektur als Massenmedium« von 1967 einen wichtigen, man möchte fast sagen, prophetischen Beitrag.50 Nach der Feststellung, dass Architektur in der modernen Welt tatsächlich zu den Massenmedien zu rechnen ist, indem sie mit ihren Hochhäusern, Kaufhäusern, Unterhaltungszentren und Industrieanlagen zusammen mit anderen Massenmedien wie Rundfunk, Film, TV und Illustrierte, die Werte der Massenkultur ausdrückt, kommt De Fusco zu einer kritisch-skeptischen Perspektive, die den Verfall der Architektur als Teil der Hochkultur voraussagt.51 Mit den plastisch-räumlichen Bildern, die ihre Zeichensprache konstituieren, drückt sie Werte wie Massenkonsum, Entertainment, Beschleunigung, Wegwerf-Mentalität, Sensationslust, Marketing und Werbung aus, die zu einem allgemeinen Werteverfall sowie sozialer Nivellierung führen und die Fähigkeit der Architektur zur kulturellen Symbolisierung unterminieren können.52 Im Gegensatz zu anderen Künsten, die den Einfluss der Massenkultur produktiv verarbeiten, gelinge es der aktuellen Architektur kaum, diese Einflüsse kreativ zu assimilieren und zu neuen Ausdrucksformen für essentielle Botschaften so umzugestalten, dass sie die Kommunikation und Partizipation bei der architektonischen und gesellschaftlichen Planung unterstützen könnten.53 Dabei sieht De Fusco in der neueren Baugeschichte auch positive Beispiele einer Zuwendung der Architektur zur entstehenden Kultur der Massen, auf die eine kreative Interpretation der »Architektur als Massenmedium« zurückgreifen müßte, um sie weiter zu entwickeln: die seit Mitte des 19. Jahrhunderts aufblühende Ausstellungs- und Messearchitektur, die Architektur der großen Kaufhäuser und die Museumsarchitektur, aber auch einige herausragende Bauten für die Freizeit wie Kinos, Tanzlokale und Hotels.54 In ihren besten Beispielen dieser Art fördert die Architektur mit ihren räumlich formulierten Botschaften die Kommunikation und soziale Interaktion, und

49. Vgl. Jons Messedat: Corporate Architecture, Stuttgart 2005. 50. Vgl. Renato De Fusco: Architettura come mass medium, Bari 1967. Deutsch: Architektur als Massenmedium, Gütersloh 1972. 51. Ebd. S. 71; vgl. auch Umberto Eco: Einführung in die Semiotik, S. 332ff. 52. Vgl. Renato De Fusco: Architektur als Massenmedium, S. 70f. 53. Ebd., S. 78ff. 54. Ebd., S. 73ff.

196

Semiotik und Ästhetik in der Architekturtheorie der sechziger Jahre

für die gegenwärtige Architektur reklamiert De Fusco konsequenterweise eine neue »Semiotik der Architektur«, 55 um den kommunikativen Aspekt der Architektur wieder in den Vordergrund zu rücken. »Dadurch könnte sie dazu beitragen, die bisher ausgeübte Suggestion in echte Mitteilung zu verwandeln, auf die der Benutzer eine Antwort finden kann. Das heißt sie sollte dazu beitragen, dessen bisherige Fremdbestimmung in Selbstbestimmung zu verwandeln«.56 Ob die späteren und gegenwärtigen Medienarchitekturen diesem Anspruch gerecht werden, ist mehr als fraglich. Seit den frühen Sechzigern erregen die Entwürfe der britischen Gruppe »Archigram« um Peter Cook und Ron Herron großes internationales Aufsehen. In ihren Zeichnungen werden technologische, künstlerische und alltägliche Elemente auf raffinierte Weise gemischt und in einer bis dahin ungesehenen Synthese miteinander vereint. Bei den dargestellten urbanen Megastrukturen ist der Einfluß der Pop Art und besonders der Massenkultur und der neuen Medien unübersehbar, so in Ron Herrons »Walking City« von 1964 (Abb. 12) und der »Instant City« von 1969 (Abb. 13).

Abb. 12: Archigram/Ron Herron: Walking City, 1964. - Aus: Heinrich Klotz (Hg.): Visionen der Moderne. Das Prinzip Konstruktion, München 1986, S. 326-327.

Comicartige Bilder, vielfältige Kommunikations- und Informationsmedien, hybride High-Tech-Gebilde und banale Alltagsgegenstände zeigen eine Welt, wie sie in der Werbung und Unterhaltung ständig präsentiert wird. Eine kri55. Ebd., S. 135ff. 56. Ebd., S. 86.

197

Claus Dreyer

tische Haltung ist nicht zu erkennen, dafür aber ein leichter und spielerischer Umgang mit Bildern, die scheinen, als wären sie zum alsbaldigen Verbrauch bestimmt wie die meisten Erzeugnisse der Massenkultur. Dass gerade diese Entwürfe eine nachhaltige Auswirkung auf die Konzepte der kommenden Jahrzehnte bis in die Gegenwart hinein haben und zu bedeutenden Realisierungen führen würden (Centre Pompidou Paris 1977; Kunsthaus Graz 2005), konnte damals kaum geahnt werden und ist erst im Nachhinein verständlich. »Das Jahr 1960 erweist sich auch am Beispiel von Archigram als das Inkubationsjahr des Neuen. In den angelsächsischen Ländern ist es die Pop Art, die die Einstellungen ändert und die Szene durchgängig beeinflusst. Die Wertsetzungen der Konsumgesellschaft dringen in den abgeschirmten Bereich des modernen Ästhetizismus der Abstraktion ein und durchbrechen die Grenzen zwischen Alltag und Kunst, Kitsch und Kunst, Konsum und Kunst. Immer deutlicher beginnt sich abzuzeichnen, dass dieser Umbruch für die Kulturentwicklung des 20. Jahrhunderts fundamental gewesen ist. Das Jahr 1960 wird für die Geschichte der Kunst und der Architektur eine ähnliche Bedeutung haben wie die Jahre 1905 und 1920«.57

Abb. 13: Archigram/Ron Herron: Instant City, 1969. - Aus: Heinrich Klotz (Hg.): Visionen der Moderne, S. 333.

Auch die frühen Ladenfassaden in Wien von Hans Hollein zeigen den Einfluss von Grafik-Design und Massenkultur, wenn auch auf viel subtilere und strenger stilisierte Weise (Abb. 14 und 15). In edlen Materialien ausgeführt, verweisen sie mit geometrisierten oder bildhaft-narrativen Zeichen auf die Art der Waren, die hier angeboten werden, und auch wenn die Botschaft nicht eindeutig ist, kann sie wie eine raffinierte Reklame gedeutet werden. 57. Heinrich Klotz: Moderne und Postmoderne, S. 378.

198

Semiotik und Ästhetik in der Architekturtheorie der sechziger Jahre

Abb. 14 (links): Hans Hollein: Kerzen-Retti, Wien, 1965. - Aus: Heinrich Klotz: Moderne und Postmoderne, S. 349. Abb. 15 (rechts): Hans Hollein: CM-Boutique, Wien, 1967. - Aus: Heinrich Klotz: Moderne und Postmoderne, S. 350.

Abb. 16: Robert Venturi: Football Hall of Fame, 1966. - Aus: Heinrich Klotz: Moderne und Postmoderne, S. 162.

Den konsequentesten Schritt in Richtung einer regelrechten Medienfassade macht Robert Venturi 1966 mit seinem Projekt für eine »Football Hall of Fame« (Abb. 16). 199

Claus Dreyer

Vor das unspektakuläre Ausstellungsgebäude stellt Venturi ein riesiges Display als Fassade, auf dem elektronische Bilder und schriftliche Informationen projiziert und beliebig variiert und animiert werden können. Das klassische Motiv der Leuchtschrift und -reklame wird hier in ein neues Medium übersetzt und architektonisch integriert. Erst Jahrzehnte später werden die Technologien so ausgereift sein, dass solche Medienfassaden auch gebaut und in Betrieb genommen werden können.

5. Der Beitrag der Semiotik zur Architektur und ihrer Theorie der sechziger Jahre Aus den bisherigen Darstellungen kann gefolgert werden, dass die von Klotz oben so genannte »Umbruchs- und Inkubationszeit« der sechziger Jahre im architektonischen Denken und in der architektonischen Entwurfspraxis nicht unwesentlich von semiotischen Konzepten und Theorien beeinflusst worden ist. Auch wenn dieser Einfluß nicht immer explizit verortet werden kann, lassen sich folgende Veränderungen summarisch festhalten, die ihre Potenziale großenteils erst in den folgenden Jahren und Jahrzehnten entfalten: –

– –







Es kommt zu einer verstärkten Ästhetisierung der Architektur, sie wird vielschichtiger, komplexer und widersprüchlicher (vgl. Venturi 1966) und teilweise auch künstlicher; Eine neue Bildhaftigkeit verbreitet sich in der Architektur, die sie ästhetisch reizvoller macht und ihre Kommunikativität erhöht; Der Bezug zur Geschichte und Baugeschichte wird wieder hergestellt, der die Architektur stärker in der Kultur der Gesellschaft verankert; die Methode der Typologisierung und die Verwendung von Zitaten unterstützt diese Tendenz; Die Funktionalität der Architektur wird um Züge der »Fiktionalität« und »Narrativität«58 ergänzt, die erst in den folgenden Jahrzehnten der so genannten »Postmoderne« zur vollen Auswirkung kommen; die Kritik an der Moderne59 führt zu kommunikativeren »symbolischen« Formen, die die Moderne weiterentwickeln; Der überkommene Stil-Begriff wird durch den Kode-Begriff problematisiert und in die zeitgenössische Architekturentwicklung zurückgeholt; diese Entwicklung ist bis heute nicht abgeschlossen; 60 Der mediale Charakter von Architektur und ihre Beziehung zu Massen-

58. Vgl. Heinrich Klotz: Moderne und Postmoderne. 59. Vgl. z.B. Alexander Mitscherlich: Die Unwirtlichkeit unserer Städte. Anstiftung zum Unfrieden, Frankfurt/Main 1965. 60. Vgl. Claus Dreyer/Susanne Hauser (Hg.): Stil als Zeichen in Architektur, Stadt- und Landschaftsplanung, Frankfurt/Oder 2006.

200

Semiotik und Ästhetik in der Architekturtheorie der sechziger Jahre



kultur und -medien wird erkannt, hinterfragt und experimentell ausgeweitet; neue Paradigmen wie »Medienarchitektur«, »Corporate Architecture«, »Theming« und »Branding« zeichnen sich am Horizont der Entwicklung ab; Es findet eine neue Theoretisierung der Architektur statt, die gleichzeitig eine Pragmatisierung der Theorie in Form der angewandten Semiotik als Entwurfshilfe zur Folge hat.

Auch wenn in der weiteren Entwicklung nicht alle Hoffnungen und Versprechen der Semiotik eingelöst werden können,61 bleibt das erreichte Niveau von Reflexivität und Kommunikativität in der architektonischen Theorie und Praxis unhintergehbar. Die oben entwickelte semiotische Grundstruktur von Architektur taucht in den weiteren architekturkritischen und -theoretischen Diskursen als Frage nach der Bedeutung ebenso wieder auf wie in der folgenden entwurfspraktischen Arbeit von Architekten als Suche nach repräsentativen Formen, die die funktionale Angemessenheit übersteigen und darüber hinausgehende Botschaften kommunizieren. Die den Sechzigern folgenden Jahrzehnte bringen dazu ein äußerst vielfältiges Spektrum von Positionen und Realisationen hervor, das die in den Sechzigern angelegten »Keime« zu voller Entfaltung bringt.

61. Vgl. Claus Dreyer: »Architektursemiotik – Die Transformation der Zeichen oder Warum die Architektursemiotik nicht untergehen kann«. In: db Deutsche Bauzeitung 8/2003, S. 68-70.

201

Architekturmaschinen und wissenschaftliches Entwerfen Entwurfspraktiken und -theorien Ende der sechziger Jahre GERNOT WECKHERLIN

Welche Beziehungen lassen sich zwischen der Entwicklungsgeschichte des Computers als Entwurfswerkzeug für Architekten und den Anstrengungen der deutschen Architekturtheorie, das Entwerfen zu »verwissenschaftlichen« Ende der sechziger Jahre herstellen? Nach der Darstellung zweier Fallbeispiele aus diesen einander scheinbar fremden Welten soll gezeigt werden, dass die Entwurfspraxis unter Zuhilfenahme der Computertechnik und die deutsche Architekturtheorie der späten sechziger Jahre einem im Kern modernen Ideal folgten. Gemeint ist jener unerschütterliche Glaube an die Verbesserung der Umwelt oder zumindest der gebauten Objekte – wie man in den sechziger Jahren gern sagte – durch die Verwissenschaftlichung der Planungsinstrumente, sei dies nun auf der Ebene ihrer dem Entwerfen dienenden Werkzeuge wie etwa Computern, oder eines dazu als notwendig erachteten methodisch-theoretischen Programms. Stellvertretend für viele Computerexperten und Architekten der späten sechziger Jahre sollen hier zwei Persönlichkeiten aus zwei Ländern vorgestellt werden: Nicholas Negroponte und Jürgen Joedicke. Der erste gilt spätestens seit den neunziger Jahren als eine der Kultfiguren des digitalen Zeitalters, der mit seinen euphorischen Prognosen immer neuer technischer Entwicklungen einen durch die Entwicklung der Computertechnik begünstigten »Umwelthumanismus« begründen wollte. Die zweite Persönlichkeit ist ein deutscher Architekturtheoretiker, der im politisch aufgeheizten Klima des Wissenschaftsbetriebs der sechziger Jahre an der Universität Stuttgart nach einer Neuorientierung seines Faches als »Anwendungswissenschaft« suchte. Dies war zur gleichen Zeit, als Negroponte am Massachusetts Institute of Technology in Cambridge mit der »Architecture Machine Group« (AMG) zunächst in zahlreichen Experimenten vor allem Probleme der künstlichen Intelligenz der kommenden Architekturmaschine erforschte.

203

Gernot Weckherlin

Abb. 1: The Rolls Royce of displays, IBM Cambridge Scientific Center’s 2250. - Aus: Nicholas Negroponte: The Architecture Machine, Cambridge, Mass., London 1970, S. 20.

1. Nicholas Negroponte und die »Architecture Machine Group« Nicholas Negroponte gilt in der rasanten Zeitrechnung des digitalen Zeitalters schon als dessen Urahn. Peter Glaser beschrieb ihn in der Online-Ausgabe der Zeitschrift »Technology Review« unter dem Titel »Der Gedankengebäude-Architekt« anlässlich seines Rücktrittes als Direktor des MIT Media Lab im Februar 2006 etwas unvorteilhaft als eine Art »Lotti Huber des Informationszeitalters«,1 der wie ein Popstar auf nahezu jedem MultimediaKongress der neunziger Jahre auftrat, um die von ihm vor allem in seinen populären Kolumnen im Internet-Magazin »Wired« verbreiteten Visionen einer kommenden digitalen Welt zu verkünden.2 Doch all dies war lange nach den Anfängen Negropontes am MIT in der »Architecture Machine Group«, aus der das legendäre »MIT Media Lab« später hervorging. 3 Fast vergessen ist inzwischen, dass in den sechziger Jahren viele Computerforscher, darunter Negroponte, ursprünglich als Architekten oder Stadtplaner an den Hochschulen arbeiteten. Darauf hat selbstbewusst einer der wichtigen Protagonisten der Szene, der deutsche Systemtheoretiker Horst W. Rittel schon

1. Peter Glaser: »Der Gedankengebäude-Architekt«, in: http://www.heise.de/tr/Der-Gedankengebaeude-Architekt--/artikel/70417/Artikel vom 07.03.2006, (20.10.2007). 2. Vgl. ebd.: Die Zeitschrift »Wired« wurde von Nicholas Negroponte selbst mitgegründet. 3. Vgl.: Steward Brand: The Media Lab: Inventing the Future at MIT, New York 1987. Die »Architecture Machine Group« wurde 1967 von Negroponte gegründet. Aus ihr ging 1985 das von dem ehemaligen Berater des US-Präsidenten John F. Kennedy und MIT-Präsidenten Jerome Wiesner und Negroponte gegründete »MIT Media Lab« hervor, das eine der wichtigsten Institutionen der »digitalen Revolution« der achtziger Jahre war.

204

Architekturmaschinen und wissenschaftliches Entwerfen

1986 hingewiesen.4 Neben Negroponte waren dies, um nur einen einzigen aus den USA aufzuführen, etwa Christos I. Yessios, der spätere »Erfinder« des Modellierprogramms »Form*Z«, das ursprünglich bezeichnenderweise »VITRUVIUS« hieß. Auch Yessios beschäftigte sich zunächst als Architekt mit Problemen des Entwerfens in der Architektur und Stadtplanung. Er arbeitete bei Charles M. Eastman, einem weiteren CAD-Pionier an der Carnegie-MellonUniversity in Pittsburg als erster Student des Fachgebiets an einer Doktorarbeit mit dem Thema »Syntactic Structures and Procedures for Computable Site Planning«.5 Dass sich Architekten und Planer für den Computer besonders interessierten, war kein Zufall, stellte doch ihre Disziplin wegen der Komplexität der hier zu behandelnden theoretischen wie praktischen Probleme den Lackmustest der damals von Negroponte prognostizierten »künstlichen Intelligenz« des Computers als Entwurfswerkzeug dar.6

Abb. 2: Computervision’s INTERACT-GRAPHIC, Übergangsformen zu zukünftiger Kommunikation zwischen Mensch und Computer. - Aus: Nicholas Negroponte: The Architecture Machine, Cambridge, Mass., London 1970, S. 18.

4. Vgl. Horst Rittel: »Über den Einfluß von Computern auf die zukünftige Rolle und das Berufsbild von Architekten« in: Walter Ehlers/Gernot Feldhusen et. al. (Hg.): CAD: Architektur automatisch. Texte zur Diskussion, Braunschweig 1986, S. 205. 5. Pierluigi Serraino: History of Form*Z, Basel, Boston, Berlin 2002, S. 8. 6. Vgl. Horst Rittel: »Über den Einfluß von Computern«, S. 205.

205

Gernot Weckherlin

Im Jahr 1970 erschien mit »The Architecture Machine« ein Buch von Nicholas Negroponte, das Ziele und bisherige Forschungsergebnisse der AMG zusammenfassend darstellte.7 Das Werk aus fernen Tagen, in denen der verfügbare Speicherplatz eines nach heutigem Maßstab unvorstellbar teuren Rechners durch die Aufzeichnung einer zweidimensionalen Freihandskizze erschöpft war, liefert im Rückblick Hinweise auf die utopischen Erwartungen jener Zeit, die vor allem an die intelligenten Rechner geknüpft waren. Negroponte forderte beharrlich die Entwicklung einer intelligenten Architekturmaschine. Er war davon überzeugt, dass sich mit dem richtigen Gebrauch dieses Apparates, den es zwar bis dahin noch nicht gab, ein neuer Humanismus in der Architektur ankündigte,8 der den Individuen innerhalb größerer sozialer und räumlicher Strukturen verträglichere Lösungen ihrer Probleme ermöglichen werde, da diese intelligente Apparatur den sich ständig verändernden individuellen wie generellen Kontext im Auge behalten konnte.9 Die bis Ende der sechziger Jahre vorhandenen oder in der Entwicklung stehenden Fähigkeiten von Computern konnten den unbefriedigenden Entwurfsprozess nach Negroponte auf drei verschiedene Weisen unterstützen: durch die Automatisierung existierender Entwurfsprozeduren mit dem Ziel der Kostensenkung, durch die Anpassung vorhandener Methoden des Entwerfens an die Anforderungen und Bedingungen der Maschine, wobei nur jene Themen berücksichtigt werden konnten, die sich dem maschinellen Prozess anpassen ließen, und zuletzt durch das Verständnis des Entwurfvorgangs als eines evolutionären Prozesses. Negroponte beschrieb letzteren so: »the design process, considered as evolutionary, can be presented to a machine, also considered as evolutionary, and a mutual training, resilience, and growth can be developed.«10 Das dritte Ziel war nicht nur das anspruchsvollste, sondern auch das einzige, das für Negroponte mit dem Programm eines neuen Humanismus in der Entwurfspraxis vereinbar war: »I shall consider only the third alternative and shall treat the problem as the intimate association of two dissimilar species (man and machine), two dissimilar processes (design and computation), and two intelligent systems (the architect and the architectural machine). By virtue of ascribing intelligence to an artifact or the artificial, the partnership is not one of master and slave but rather of two associates that have a potential and a desire for self-improvement.«11 Der »humanitäre« Charakter des Programms der Architekturmaschine ergab sich weiter aus den gegebenen, unzulänglichen 7. Vgl. Nicholas Negroponte: The Architecture Machine. Towards a More Human Environment, Cambridge, Mass., London 1970. 8. Vgl. Nicholas Negroponte: The Architecture Machine, S. 1. 9. Ich verdanke Frank Petzold, der an der Bauhaus-Universität Weimar das Fachgebiet Architekturinformatik vertritt, den Hinweis, dass dieses Buch bis heute als Referenzpunkt gilt. 10. Nicholas Negroponte: The Architecture Machine, A Preface to a Preface, o. S. 11. Ebd., o. S.

206

Architekturmaschinen und wissenschaftliches Entwerfen

realen Umweltbedingungen, die von den Architekten ganz offensichtlich nicht mehr positiv verändert werden konnten.12 Negropontes Beschäftigung mit der Maschinenintelligenz ging aus seiner generellen Unzufriedenheit mit der damaligen Architektur hervor, insbesondere mit der Unfähigkeit von Architekten, die Kluft zwischen Problemen unterschiedlichen »Maßstabs« zu überwinden. Maßstäbe stellen für Negroponte in der Mikrodimension etwa die individuelle lokale Umgebung von Menschen dar, denen auf der anderen Seite jene »generalities« gegenüberstehen, etwa ganze Städte oder zumindest Probleme von der Größe einer Nachbarschaft oder eines Gebäudes. Architekten fühlten sich, so Negroponte, vor allem für die generellen Probleme meist natürlich mindestens in »Gebäudegröße« zuständig.13 Den Architekten seiner Zeit warf Negroponte vor, sich bei der Lösung von Problemen größeren Maßstabs dauernd den immer technokratischeren Bedingungen jener »generellen« Ziele zu unterwerfen. In diesem Anpassungsprozess komme den Architekten besonders die entwerferische Fähigkeit abhanden, zwischen den Maßstäben des Individuellen und dem der Masse zu vermitteln. Die dadurch entstandene »unmenschliche« gebaute Umwelt war für ihn Ausdruck jener fehlenden Mediation zwischen dem Maßstab der Stadt und dem des eigenen Zimmers.14 Für Negroponte stand mit der »Architecture Machine« so zunächst vor allem die Beschäftigung mit »kleinmaßstäblichen« – eher auf der Seite der Technologie angesiedelten – Problemen der Mensch-Maschine-Kommunikation beim Entwerfen im Vordergrund, das große Ziel aber war ein neuer »Umwelthumanismus durch Intelligente Maschinen«, bei dem die Maschinen gerade die Voraussetzung darstellten, um zwischen diesen beiden Problemskalen zu vermitteln.15 Die prognostizierte Fähigkeit von Computern, lokale Informationen, die das Individuum angehen, in funktionale Beziehung zum »Generellen« zu setzen, erforderte so zunächst die Beschäftigung mit im Wortsinn nahe liegenden Problemen. Hier sind vor allem die beiden bis heute kompliziertesten – wenn auch besonders stark weiterentwickelten Probleme der 12. »Given that the physical environment is not in perfect harmony with every man’s life style, [...] I shall consider the physical environment as an evolving organism, as opposed to a designed artifact. In particular, I shall consider an evolution aided by a specific class of machines. Warren McCulloch [...] calls them ethical robots; in the context of architecture I shall call them architecture machines.« Ebd., o. S. 13. Ebd., S. 5. Für die großen, »generellen« Dimensionen, denen der Autor allerdings keine besondere Aufmerksamkeit schenken wollte, (Verkehrs-, Waren-, und Finanzströme, Weltraummissionen etc.), war der Computer schon in den sechziger Jahren als Hilfsinstrument verbreitet. Im Bauwesen kam z. B. die »Netzwerktechnik« zum Einsatz. Vgl.: Ernst Neufert und Wolfgang Rösel: Bauzeitplanung. Bauablauf im Netzwerk mit und ohne Computer, Wiesbaden 1974. 14. Konzeptionelle Probleme der Vermittlung zwischen unterschiedlichen Maßstäben tauchen in den sechziger Jahren u.a. auch bei Christopher Alexander auf, vgl. den Beitrag von Christian Kühn in diesem Buch. 15. Nicholas Negroponte: The Architecture Machine, S. 5.

207

Gernot Weckherlin

Schnittstellen dieser Kommunikation und der Sprache des Mensch-Maschine Dialogs zu nennen, die damals noch technisch unzulänglich dringend weiter entwickelt werden mussten und von der AMG in rasantem Tempo entwickelt wurden.16

Abb. 3: Stanford Research Institute Robot (1969). - Aus: Nicholas Negroponte: The Architecture Machine, Cambridge, Mass., London 1970, S. 28.

Was machte die kommende Architekturmaschine jedoch »intelligent«? Ein Apparat aus der Science-Fiction Wunderkammer der sechziger Jahre,17 der beispielsweise als ein sehender Roboter in der Stadt spazieren gehen, Witze verstehen und neue Bücher lesen sollte, um dann hinterher seinen menschlichen Partner von sich aus anzustacheln, mit ihm über das Aufgenommene nachzudenken und dies dialogisch weiterzuentwickeln, war ja noch in weiter Ferne.18 Als Beweis für die Intelligenz des Computers galt in den sechziger Jahren noch die Fähigkeit eines Rechners Schach zu spielen.19 Doch Negroponte verwies darauf, dass in Architektur und Stadtplanung der für die selbst 16. Weite Teile des Buches widmen sich technischen Details dieser Schnittstellen, von der grafischen Benutzeroberfläche bis zur automatischen Spracherkennung und sehenden Robotern wird das ganze Spektrum durchleuchtet, das sich heute auf unzählige, spezialisierte Einzelforschungsbereiche erstreckt. 17. Die Anfänge der Maschinenintelligenz gehen zurück auf John McCarthy, Marvin Minsky, Nathan Rochester und Claude Shannon Mitte der fünfziger Jahre. McCarthy prägte den Begriff »artificial intelligence« 1955 vor der berühmten »Dartmouth Conference« im Sommer 1956. 18. Vgl. Nicholas Negroponte: The Architecture Machine, S. 29. 19. Vgl. Richard D. Greenblatt/Donald. E. Eastlake/Stephen D. Crocker: »The Greenblatt Chess Program« in: American Federation of Information Processing Proceedings, Fall Joint Computer Conference, 1967, S. 801-810.

208

Architekturmaschinen und wissenschaftliches Entwerfen

lernende Intelligenz der kommenden Maschinen entscheidende Kontext um einiges komplexer war, als der eines von seinen Regeln begrenzten Schachspiels. Den wichtigsten Unterschied machte folglich der sich ständig ändernde Kontext bei der Lösung von Problemen der Architektur oder der Stadtplanung aus. So forderte Negroponte von der mit Intelligenz ausgestatteten Architekturmaschine: »A design machine must have an artificial intelligence because any design procedure [...] is tenuous, if not subversive, when used out of context or regardless of context. It follows that a mechanism must recognize and understand the context before carrying out an operation. Therefore a machine must be able to discern changes in meaning brought about by changes in context, hence, be intelligent.«20 Das Buch markiert insofern einen Wendepunkt in der Entwicklung der digitalen Technik, als es zwar den phantastischen Erwartungen, wie der Vorstellung eines kommenden dialogischen Entwerfens in nur wenigen Jahren folgte, andererseits aber auch eine nüchterne Beschreibung der umfangreichen Forschungsaktivitäten auf dem Gebiet von Computersprachen und Schnittstellen in der Entwurfspraxis darstellt, die durch Extrapolationen aktueller Forschungsergebnisse in die Zukunft durch den Autor angefeuert wurden. Ziel blieb immer eine humane Maschine, kein willenloser und stummer Entwurfsautomat oder eine CAD-Zeichenmaschine, die bisherige Design-Prozeduren nur schneller und ökonomischer machen sollte.

Abb. 4: Larry Roberts’ »Wand« (1966). Dreidimensionale, elektromechanische Dateneingabe. - Aus: Nicholas Negroponte: The Architecture Machin., Cambridge, Mass., London 1970, S. 34.

20. Nicholas Negroponte: The Architecture Machine, S. 3. Immer wieder wird von Negroponte auf Lewis Carrolls 1865 veröffentlichte Geschichte: »Alice im Wunderland« als Modell jenes sich beständig ändernden Kontextes der Wirklichkeit verwiesen.

209

Gernot Weckherlin

Welche Fragestellungen entwickelten sich aus diesem Ziel für die Forschungsarbeiten der Gruppe? Zwischen 1965 und 1969 wurde eine Vielzahl von Problemen untersucht. Negroponte nennt allen voran die »Symbiose« zwischen Architekt und Architekturmaschine. Hier traten besonders komplizierte Sprachprobleme zwischen Mensch und Maschine, etwa zwischen graphischen Abbildungen auf dem damals ja noch reichlich sperrigen Apparat und dem vor dem Bildschirm sitzenden Nutzer auf. 21 Genauso wichtig wie die Schnittstellen waren Aspekte der Design-Prozeduren selbst, denen ein ganzes Kapitel gewidmet ist. Zeichnen im dreidimensionalen Raum, Ivan Sutherlands Experimente mit dem ersten »Head-Mounted Display«, einem VR-Helm, der als Vermittlungsinstrument zwischen physisch präsenten und imaginären Objekten im Raum fungieren sollte, wurden dargestellt, aber auch GrundrissVariantenerzeugung durch lineare Programmierung oder Zufallszahlen bildeten die Bandbreite der Experimente, die von Negroponte bilanziert wurden und die auch zeitlich oder räumlich strukturierte Ereignisse, Spielsituationen usw. umfassten.22 Wichtigstes Kriterium für den Erfolg dieser Arbeiten blieb für Negroponte dabei der evolutionäre Charakter der kommenden in jedem Haushalt vertretenen »machines in residence«,23 die nicht nur allmählich den Kontext eines Problems erkennen und erlernen, sondern auch in einer informellen Sprache ohne Hindernisse mit Designern unterschiedlichster sprachlicher Kompetenz, also auch mit Laien kommunizieren sollten. Ein Beispiel bildete das in Cambridge entwickelte Programm URBAN5, das geschrieben wurde, um die Machbarkeit einer Mensch-Maschine-Kommunikation anhand eines Umweltdesign-Projekts zu studieren. Hierbei sollte der Computer einen objektiven Spiegel der Entwurfskriterien des Architekten als Entwurfspartner darstellen und gleichzeitig bei seinen Antworten auf Fragen des Nutzers auf eine breitere Informationsbasis, als diesem selbst zur Verfügung stand, zurückgreifen. Der Rechner kommunizierte dabei in zwei Sprachen »Englisch« und »Grafik« mit dem Entwerfer. Aus den methodischen, logischen und technischen Unzulänglichkeiten dieser Kommunikationsversuche ergaben sich fortlaufend neue, weit verzweigte Forschungsfragen. Nicht nur die außerordentlich starren Schaltknöpfe der »Schnittstellen« – es gab 21. Nicholas Negroponte: The Architecture Machine, S. 17. Die Problembeschreibung ist sehr weitsichtig nicht nur hinsichtlich der prognostizierten Entwicklungen der Technologie, sondern vor allem auch was deren konzeptionelle Grenzen betrifft. So stellt Negroponte fest, dass jede Computergrafik so lange nichts anderes sei als ein »glorified blackboard or piece of paper« wie kein tatsächlicher intelligenter Dialog zwischen dem Rechner und dem Entwerfer stattfindet. 22. Zur Geschichte dieser Experimente vor deren Weiterentwicklung als mnemotechnische Instrumente in den siebziger Jahren durch die AMG, vgl.: Kirsten Wagner: »Informations- und Wissensorganisation anhand räumlicher Ordnungsmodelle« in: http://www.tu-cottbus.de/ Theo/Wolke/X-positionen/Wagner/wagner.html, (10.10.2007). 23. Vgl. Nicholas Negroponte: The Architecture Machine, S. 54f.

210

Architekturmaschinen und wissenschaftliches Entwerfen

z. B. eine »Computer-Maus« erst im Versuchsstadium – des vorläufig allein entwerfenden Designers standen hier im Widerspruch zur massenhaften Anwendbarkeit in einer demokratisch ihre räumlichen Umweltprobleme durch interaktive und vernetzte Planung lösenden Gesellschaft.24

Abb. 5: URBAN5, Experimentalprogramm zur Kommunikation zwischen Mensch und Maschine über ein Entwurfsprojekt. - Aus: Nicholas Negroponte: The Architecture Machine, Cambridge, Mass., London 1970, S. 80.

Zusammenfassend kann man behaupten, dass jene wissenschaftlichen Untersuchungen von Entwurfsprozeduren am MIT stärker von den im Vergleich zu Europa ganz offensichtlich weit entwickelten Möglichkeiten der Computertechnik und der »Artificial Intelligence«-Forschung bestimmt waren. Geforscht wurde – und diese Haltung zeichnete noch das spätere MIT Media Lab aus – an Problemen, zu denen die Forscher zunächst weder eine wissenschaftliche Methode noch eine »Entwurfs«-Philosophie, aber ein – wenn auch allgemein formuliertes – Ziel hatten. Durch diese Offenheit verschoben sich die Themen des Labors nicht zuletzt durch verlockendere Forschungsaufträge, nicht wenige im Auftrag des Militärs, schnell über das engere Feld der Archi24. Vgl. ebd., S. 95ff. Die Entwicklungsgeschichte des Programms URBAN5 und die Erfahrungen mit ihm bildeten den eigentlichen Anlass für das Buch, in einem »Postmortem« werden dessen Schwächen, die mangelnde Evolution der über die dem Entwurfsprozess unterstellten Grundannahmen der jeweiligen Programmschritte, die mangelnde Verallgemeinerbarkeit der Programmschritte, die mangelnde Fähigkeit des Computers einen größeren Kontext zu erkennen und die problematischen »Schnittstellen« zwischen Nutzer und Computer als größte Defizite benannt.

211

Gernot Weckherlin

tektur hinaus. Die elektronische Mensch-Maschine-Kommunikation entwickelte sich so bereits in den sechziger Jahren zu einer zentralen Schlüsseltechnologie.25

2. Jürgen Joedicke und die Architekturtheorie als »angewandte Wissenschaft« Unzufriedenheit über den unmenschlichen Charakter der gebauten Umwelt herrschte 1969 auch in Deutschland, als Jürgen Joedicke seine Antrittsvorlesung an der Architekturfakultät der Universität Stuttgart hielt. Ein Jahr vorher war hier die neue Zeitschrift ARCH+ von aufmüpfigen Studenten und Assistenten gegründet worden, die ein Sprachrohr eines veränderten Bewusstseins für Planung, aber auch ein Organ für Forderungen nach Reformen an der Universität selbst werden sollte. Schon der Titel der Zeitschrift, die von ihrer Redaktion als »Problemzeitschrift« angekündigt wurde, war provokant: »ARCH+, Studienhefte für architekturbezogene Umweltforschung und -planung«26 deutete programmatisch an, dass die Zeiten der ästhetischen Architekturbetrachtungen in Fachzeitschriften gewohnter Machart zu Ende war. Es begann damals an den Architekturfakultäten, wie Wolfgang Pehnt es formulierte, »das Zeitalter der Flugblätter und Funktionsdiagramme, der besetzten Institute und gesprengten Vorlesungen, der Gruppenexamen und der Selbstbenotungen. Ästhetizismus galt als Todsünde.«27 Es herrschte eine Stimmung, die viele Ergebnisse der deutschen Nachkriegsarchitektur generell hinterfragten und eine ernste Sorge um das Selbstverständnis von Architekten griff um sich. An dem technizistischen Habitus der Nachkriegsmoderne entzündete sich immer schärfere Kritik.28 Am 8. Mai 1969 forderte nun in diesem gereizten Klima der Architekturtheoretiker Jürgen Joedicke in seiner Stuttgarter Antrittsvorlesung eine intensivere Anwendung »wissenschaftlicher Methoden bei der Bewertung von Planungsprozessen architektonischer Objekte«29 durch die Architekturtheorie. Das Ziel der Theorie sollte dabei sein, Kritik nicht erst wirksam werden zu lassen, nachdem alles Geplante schon fertig gebaut war, sondern bereits bei der Bewertung der kreativen und logischen Vorgänge im Planungsprozess nutz25. Vgl. Fred Hapgood: »The Media lab at 10«, in: http://www.wired.com/wired/archive/3.11/ media, (20.10.2007). Hapgood veröffentlichte diesen Artikel im November 1994 in Wired. 26. Ab Heft 2 (1968) führte Arch+ diesen Untertitel. 27. Wolfgang Pehnt: Deutsche Architektur seit 1900, München, S. 375. 28. Vgl. Alexander Mitscherlich: Die Unwirtlichkeit unserer Städte. Anstiftung zum Unfrieden, Frankfurt/Main 1965. 29. Jürgen Joedicke: »Zur Formalisierung des Planungsprozesses«, in: Institut für Grundlagen der modernen Architektur (IGMA) (Hg.): Arbeitsberichte zur Planungsmethodik. Bd. 1. Bewertungsprobleme in der Bauplanung. Stuttgart 1969, S. 9. Der Text ist eine gekürzte Fassung der Antrittsvorlesung Joedickes.

212

Architekturmaschinen und wissenschaftliches Entwerfen

bringend anzuwenden. Architekturtheorie als wissenschaftliche Arbeitsmethode hätte dabei, so forderte Joedicke, »die Vorgänge der Thematisierung, der Problemanalyse und der Systematisierung«30 zu umfassen. Daraus folgt, dass sie, neben ihrer kritischen Funktion, aber auch eine »fundierende« und »konstruktive« Funktion zu erfüllen habe. 31 Fundieren sollte sie eine eindeutige, wissenschaftlich formalisierte, nachvollziehbare Terminologie, Methodenbildung und Begriffsdefinition. Konstruktiv sollte diese Theorie sein, um neue Planungs- und Realisierungsmethoden durch die Beschäftigung mit Entscheidungsproblemen in allen Phasen der Planung zu ermöglichen. Verallgemeinernd kann man sagen, dass sich die Architekturtheorie aus dem Elfenbeinturm der beobachtend reflektierenden Ästhetik entfernen und als kritische, wissenschaftlich glaubwürdige Instanz den immer komplexer werdenden Planungsprozessen mit zahlreichen Beteiligten zuwenden sollte, denen sie bisher ohne sichere begriffliche wie methodische Basis gegenübergetreten war. Dieser Anwendung wissenschaftlicher Methoden standen zudem noch überwiegend intuitive und nicht systematisch formalisierte Gestaltungsprozesse gegenüber, wie sie von Architekten praktiziert wurden. Um nun die komplexe Gestaltung der Umwelt nicht engstirnigen Spezialisten ohne wissenschaftliche Basis zu überlassen, zu denen damals besonders Architekten gezählt wurden, 32 musste es zwangsläufig zu einer Erweiterung der Arbeitsfelder der Architekturtheorie kommen, denn diese hatte sich ja nun auch mit den Entscheidungs- und Bewertungsprozessen der Planung in deren kreativer und produktiver Phase zu befassen. Das Ziel war kein Geringeres als die Entwicklung einer Architekturtheorie als angewandte Wissenschaft. Deren Aufgabe bestand darin, ein kritisches Bewusstsein für das Prozesshafte der Planungsakte zu wecken und im Idealfall, die Kritikfähigkeit von Architekten durch Theorie so weit zu entwickeln, dass diese im Stande waren, sich »mit kritischem Auge kritisch über die eigene Schulter zu schauen.«33 Die Entwicklung einer ausreichend allgemeinen Meta-Sprache war letztes, erhabenes und nie erreichtes Ziel dieser Theorie. Diese Sprache sollte sowohl den kreativen, aber bis dato unsystematischen Bereich der Kunst, aber auch das Feld der bereits stärker formalisierten Bewertung und Analyse von Planungsproblemen umfassen, oder in Joedickes etwas bescheidenerer Vision, »die Untersuchung jener Aspekte der Architektur, die rationalen Untersuchungen zugänglich sind.«34 Architekturtheorie wurde so wieder zur unabdingbar notwendigen »Grundlagenforschung« in 30. Ebd., S. 10. 31. Joedicke stellte diese Forderung schon vor seiner Antrittsvorlesung auf, vgl. Jürgen Joedicke: »Funktionen der Architekturtheorie«, in: Bauen + Wohnen 7 (1968), S. 270-272. 32. Jürgen Joedicke, »Zur Formalisierung des Planungsprozesses«, S. 13. 33. Bruno Reichlin: »Den Entwurfsprozess steuern – eine fixe Idee der Moderne«, in: Daidalos 71 (1999), S. 6-21, hier S. 18. Reichlin zitiert hier Horst Rittel. 34. Jürgen Joedicke: »Funktionen der Architekturtheorie«, S. 272.

213

Gernot Weckherlin

der »Umweltgestaltung« erhoben. Damit lag Joedicke ganz auf der Wellenlänge der Studentenproteste, die ja eben diese Verwissenschaftlichung mehr als die Verbesserung der traditionellen Entwurfslehre einforderten.

Abb. 6: Titel Arbeitsberichte zur Planungsmethodik, Band 2 und 4.

Wie turbulent die Situation im akademischen Biotop Stuttgarts wurde, zeigt ein in der Zeitschrift ARCH+ abgedruckter Leserbrief des Architekten Walter Belz, der ein wahrer Stich ins akademische Wespennest war: »Man versteht nicht mehr, was sich an den Hochschulen vollzieht. Sprachlos [...] liest man in den Zeitschriften, die vor kurzem noch nur ›Bildchen‹ aber keine Texte gebracht haben, jetzt nur noch Texte und Tabellen, sieht aber keine Bilder mehr (oder nur solche, die mit geplanter Bauform nichts zu tun haben). Die Texte befassen sich entweder mit der Anwendung ›wissenschaftlicher‹ Methoden in unserem Tätigkeitsbereich – mit Betonung auf die Notwendigkeit, solche Methoden anstelle der seitherigen an den Ausbildungsstätten zu lehren – oder sie üben forcierte Kritik an den bisherigen Anschauungen und deren Resultaten.«35 Mit unverkennbarem Hinweis auf die Verhältnisse an der Universität Stuttgart kritisierte Belz weiter die Überheblichkeit der »progressiven« Kräfte: »So werden fremde Fachgebiete, wie z.B. Soziologie, Kybernetik, Psychologie, 35. Walter Belz: »Eine kritische Meinung zur Lage an den Architekturschulen«, in: Arch+ 9 (1970), S. 79-81, hier S. 79. Der Artikel wurde zuerst in Heft 3 (1970) des Deutschen Architektenblatts veröffentlicht.

214

Architekturmaschinen und wissenschaftliches Entwerfen

Systemtheorie usw. zu Teilgebieten des Architekturfaches erklärt oder noch einfältiger – solche Fachgebiete verdrängen vollständig das als unnötig erachtete Architekturstudium bisheriger Art.«36 Die Architekturtheorie war hier offensichtlich angesprochen und als eine angewandte, die Planungsprozesse kritisch begleitende Wissenschaft, hatte sie bald Beweise für ihre behauptete Bedeutung zu liefern. Sichtbar äußerte sich das in der für heutige Leser zunächst recht befremdlich trockenen, schon in seiner graphischen Darbietung mit zahllosen mathematischen Formeln und Diagrammen abschreckenden Materie, mit der sich die Schriften des Stuttgarter Instituts für Grundlagen der Modernen Architektur (IGMA) befassten: »Bewertungsprobleme in der Bauplanung«37 wurden hier ventiliert. »Methodische Grundlagen einer Werttheorie« wurden versuchsweise gelegt,38 »Über das Messen der Güte von Gebäuden«39 nachgedacht und »Zur Entwicklung von Bewertungsverfahren in der Planung von Gebäuden«40 geforscht. Diese Themen fanden sich gleich in ersten Band der »Arbeitsberichte zur Planungsmethodik« des IGMA und befassten sich damit, die Planung selbst zum wissenschaftlichen Objekt zu machen, allgemein gültige Handlungsschemata zu entwickeln, und Planungsmethoden zu erarbeiten, bei denen immer der Entwicklungs- und Entscheidungsvorgang selbst – etwa im quantifizierbaren Messen von Güteeigenschaften eines Gebäudes – das Forschungsobjekt darstellte. Dabei konnte nach Joedicke auf die Erkenntnisse der Wissenschaftstheorie zurückgegriffen werden, insbesondere jene der Entscheidungstheorie. Diese Entscheidungstheorie wurde vor allem von dem Systemtheoretiker Horst Rittel in den Architekturdiskurs eingeführt.41 Bedauernd musste Joedicke allerdings auch anerkennen, dass es in dieser frühen Phase der Theorie als angewandte Wissenschaft für den Bereich der »Bewertung und Analyse« eine Reihe systematischer Methoden gab, während sich der kreative Bereich des Entwerfens noch einer solchen Systematisierung 36. Ebd. S. 79f. 37. Die Reihe: Arbeitsberichte zur Planungsmethodik, die vom Institut für Grundlagen der modernen Architektur (IGMA) unter Leitung von Jürgen Joedicke bis 1975 herausgegeben wurden, umfasst insgesamt neun Bände. 38. Siegfried Maser: »Methodische Grundlagen einer Werttheorie«, in: Arbeitsberichte zur Planungsmethodik 1, S. 27-36. 39. Arne Musso/Horst Rittel: »Über das Messen der Güte von Gebäuden« in: Arbeitsberichte zur Planungsmethodik 1, S. 37-62 40. Artur Bottling et. al.: »Zur Entwicklung von Bewertungsverfahren in der Planung von Gebäuden«, in: Arbeitsberichte zur Planungsmethodik 1, S. 95-138. Der Artikel zeigt ein Anwendungsbeispiel eines Bewertungsverfahrens um mehrere Wohnungsgrundrisse mit Hilfe eines »formalisierten Wertungsvorgangs«, der einer »Rechenanlage« bedarf. 41. Horst Rittel war von 1958-63 Dozent für Design-Methodologie, Wissenstheorie und Theorien der Kommunikation an der Hochschule für Gestaltung in Ulm und von 1973-90 Direktor und Professor am Institut für Grundlagen der Planung an der Universität Stuttgart, Fakultät Architektur und Stadtplanung.

215

Gernot Weckherlin

entzog. Die Abgrenzung des kreativen und des analytisch-bewertenden Teils eines Planungsprozesses konnte jedoch, nach Joedicke wenigstens versuchsweise als »typisierter« Prozess42 aufgefaßt werden, bei dem den Planern nicht zuletzt die Entscheidungstheorie zu Hilfe kamen. Dieser zentrale Begriff bedarf heute der Erläuterung. Horst Rittel erklärte ihn 1963 noch aus seiner fast ausschließlich militärischen Entstehungsgeschichte.43 Die Entscheidungstheorie ist eine Querschnittswissenschaft verschiedener Wissenschaftsfelder, wie des »Operations Research, der Kybernetik, der Informationstheorie, der Spieltheorie, des System-Engineering«.44 Ihre Forschungsfelder sind, wie Rittel bemerkte: »sämtlich Kinder des Zweiten Weltkriegs. Es begann mit der ›Dienstverpflichtung‹ von Wissenschaftlern für die Lösung neuartiger organisatorischer und technischer Aufgaben der modernen Kriegsführung, die die Kompetenz der Militärs und Ingenieure überschritten.«45 Aus diesen Aufgaben entstanden seit dem Zweiten Weltkrieg nicht nur neue Technologien wie die Nachrichtentechnik, die elektronische Datenverarbeitung, die Kybernetik etc., sondern auch eine eigenständige angewandte Wissenschaft, die zunehmend auch in der Planung, in der Politik und in der Wissenschaftsplanung »friedliche Anwendung« fand.46 Der Bedeutungszuwachs dieser neuen Wissenschaften ist für Rittel im Zeitalter der Weltraumfahrt und der Atomwaffenprogramme ganz offensichtlich, eine Übertragung in die Planungsmethoden von Architekten wurde immer wieder von verschiedenen Autoren in den sechziger Jahren vorgeschlagen.47 Die Relevanz der Entscheidungstheorie leitete sich nach Rittel vor allem aus den Risiken und Kosten von weit reichenden politischen Entscheidungen, wie etwa der Finanzierung von teuren Infrastruktureinrichtungen ab. Dazu 42. Jürgen Joedicke: »Zur Formalisierung des Planungsprozesses«, S. 15f. Joedicke versteht unter »Typisierung der Prozesse« vor allem die Abkehr vom architektonischen Objekt als zentraler Figur der Betrachtungen der Theorie und die Hinwendung zu wissenschaftlich eindeutig beschreibbaren Planungsprozessen. 43. Horst Rittel war 1963 Leiter der »Studiengruppe für Systemforschung«, die von der »Gesellschaft für Kernforschung mbH« in Karlsruhe finanziert wurde. 44. Horst Rittel: Überlegungen zur wissenschaftlichen und politischen Bedeutung der Entscheidungstheorie, Bericht Nr. 24 der Studiengruppe für Systemforschung, Heidelberg, Karlsruhe 1963, S. 2. 45. Ebd. 46. Ebd. Bemerkenswert ist Rittels Charakterisierung dieser Disziplinen nach ihrem Entstehungsanlass; sie entstanden in einer Situation des konkreten Handlungszwangs, in dem der Wissenschaftler seine vermeintlich neutrale Position als nur der wissenschaftlichen Erkenntnis verpflichteter Forscher aufgibt und »nicht nur als Berater im herkömmlichen Sinne fungiert, sondern als mitverantwortlicher ›Entscheidungsgehilfe‹«. 47. Vgl. dazu: Claude Schnaidt: »Antwort auf zwei Fragen der Arch+ -Redaktion: Was umfasst nach Ihrer Meinung der Begriff Architektur?« und »Halten Sie Forschung in der Architektur für notwendig?«, in: Arch+ 1, 1 (1968), S. 0-2; für den Bereich des Design: Gui Bonsiepe: »Arabesken der Rationalität. Anmerkungen zur Methodologie des Design«, in: Bauen + Wohnen 6 (1967), S. 2-10.

216

Architekturmaschinen und wissenschaftliches Entwerfen

kam die Unmöglichkeit, komplexe Entscheidungsprobleme auf intuitive Art und Weise zu lösen, sowie das Streben nach rationeller und billiger Produktion, etwa durch Automation. Auch der Wunsch nach Vermeidung von unnötigen Risiken und nach rationaler Entscheidung insbesondere der Frage, welche Ziele überhaupt anzustreben seien, bestätigte für Rittel deren Bedeutung.48

Abb. 7: Horst Rittel: Mehrstufige Alternativentwicklung. - Aus: »Der Planungsprozess als iterativer Vorgang von Varietätserzeugung und Varietätseinschränkung«, in: Entwurfsmethoden in der Bauplanung (Arbeitsberichte zur Planungsmethodik 4), Stuttgart 1970, S. 21.

48. Horst Rittel: »Überlegungen zur Bedeutung der Entscheidungstheorie«, S. 3.

217

Gernot Weckherlin

Abb. 8: Horst Rittel: Beispiel eines morphologischen Kastens. - Aus: »Der Planungsprozess als iterativer Vorgang von Varietätserzeugung und Varietätseinschränkung«,, Stuttgart 1970, S. 25.

Getragen wurde diese »angewandte Wissenschaft« von der inneren Überzeugung ihrer Protagonisten, dass ein wissenschaftliches Vorgehen angesichts dieser Schwierigkeiten sinnvoll und Erfolg versprechend sei. Im nunmehr angebrochenen Zeitalter der »Szientifikation«,49 wie es Rittel nannte, war zwar 49. Horst Rittel: »Überlegungen zur Bedeutung der Entscheidungstheorie«, S. 3.

218

Architekturmaschinen und wissenschaftliches Entwerfen

auch Skepsis gegenüber einer neuen positivistischen Geschichtsphilosophie mit ihrem naiven Glauben an den ungehemmten Fortschritt durch naturwissenschaftliche Objektivität angebracht. Allerdings lieferte deren faktische Wirkung die beste Begründung für ihre Beibehaltung: »Die wissenschaftliche – insbesondere die naturwissenschaftliche Methode ist das wirksamste Mittel zur Prägung der Realität geworden«,50 schrieb Rittel.

Abb. 9: Titel Arbeitsberichte zur Planungsmethodik, Band 5 und 9.

Diese »engagierte Wissenschaft« war nun als »Wissenschaft vom Handeln«, insbesondere vom zweckrationalen Handeln im Sinne Max Webers zu einer metawissenschaftlichen Disziplin aufgestiegen.51 Im glänzenden Licht einer solchen interdisziplinären Meta-Wissenschaft sollte sich auch die Architekturtheorie sonnen, die als Anwendungswissenschaft eine privilegierte Zwischenstellung einnehmen konnte. Sie versprach,

50. Ebd. 51. Ebd., S. 6. Diese Wissenschaft vom Handeln leitet ihren metawissenschaftlichen und interdisziplinären Charakter aus vier Eigenschaften ab. Diese Metawissenschaft, deren Übertragung in die Architekturtheorie bei Joedicke unschwer nachzuvollziehen ist, wäre nach RIttel »deduktiv (wie die Mathematik), indem sie aus axiomatischen Systemen Folgerungen ableitet und Modelle für Handlungstypen konstruiert; – induktiv (wie die Physik), indem sie empirische Befunde über Verhaltensweisen zu Hypothesen verarbeitet, welche die Grundlagen für Theorien bildet; – instrumentell (wie das Ingenieurwesen), indem sie die Mittel und Methoden für die Anwendung in konkreten Situationen entwickelt; – pragmatisch, indem sie diese Anwendbarkeit ständig berücksichtigt und bei der Anwendung selbst beteiligt ist (wie die Medizin).« Ebd.

219

Gernot Weckherlin

da sie ihre eigenen Forschungstechniken selbst zum Gegenstand hatte und neue Methoden in einer adäquaten Sprache entwickeln konnte, die Kluft zwischen Forschung und Realisierung bis hin zum Entwurf aufzuheben. Wie schlugen sich aber solch hohe Ansprüche einer Königsdisziplin in den alltäglichen Forschungsprogrammen des Stuttgarter Instituts nieder? Neben den skizzierten Bewertungsproblemen ging es immer wieder um die Analyse geeigneter Entwurfsmethoden in der Bauplanung, mit der Komplexität der Entwurfsprobleme je angemessenen Mitteln. Zu diesen zählte als technologischer Schrittmacher und zugleich als Symbol und Instrument jenes neuen rationalen Geistes die elektronische Datenverarbeitung.52 Ein weiterer Strang war folglich in den veröffentlichten Forschungsthemen des Stuttgarter Instituts bald, wenn auch später als in den USA, die Auseinandersetzung mit dem Thema »Computergestütztes Entwerfen – Entwickeln, Messen und Bewerten von Grundrissen«, so der Titel des neunten Bandes der »Arbeitsberichte«.53 Hier stand die Entwicklung von Verfahren der Grundrissoptimierung im Mittelpunkt. 54 Die Entwurfsmethoden sollten anhand bestimmter Merkmale aus gegebenen Zielen, Maximen und Randbedingungen in nachvollziehbarer Weise ein Optimum, etwa nach dem Kriterium der minimalen Weglänge in einem Krankenhausbau erreichen. Dies alles sollte unter Berücksichtigung möglichst vieler Randbedingungen geschehen. Hier wurde der Weg zur Konstruktion der Architekturmaschine wenn auch nicht im Sinn Negropontes als »evolutionärer« Apparat beschritten. Allerdings entwickelte sich dieses Thema schon Anfang der siebziger Jahre nicht nur wegen des ungelösten Problems der Übersetzung qualitativer Kriterien in quantifizierbare und sprachlich darstellbare Entwurfseinheiten und der auch aus Cambridge, Mass. geläufigen »Schnittstellenproblematik« des Mensch-Maschine-Systems zu einem teuren von der DFG finanzierten Spielzeug für Doktoranden, das allenfalls in der »Variantenerzeugung« mit verschiedenen Parametern eines dann nicht so leicht automatisierbaren Entwurfsprozesses, ja nicht einmal in einem wirklich überzeugenden EDV-gerecht formalisierbaren Bewertungsverfahren endete.55 Es verwundert kaum, dass daraufhin im IGMA bald 52. Vgl.: Institut für Grundlagen der modernen Architektur/Jürgen Joedicke (Hg.): Arbeitsberichte zur Planungsmethodik 4. Entwurfsmethoden in der Bauplanung, Stuttgart 1970. 53. Karl-Heinrich Rietkötter/Klaus Hans Schmöller et. al.: Computerunterstütztes Entwerfen. Entwickeln, Messen und Bewerten von Grundrissen, hg. vom Institut für Grundlagen der modernen Architektur und Entwerfen/Jürgen Joedicke, Stuttgart, 1975. Die Veröffentlichung ist die Zusammenfassung des DFG-Forschungsvorhabens: »Entwicklung mathematischer Modelle zur Manipulation der Abhängigkeit von Anordnungen und Nutzungen in der Gebäudeplanung (Grundrißoptimierung)«. 54. Vgl. Gernot Feldhusen: »Zur Geschichte von Theorie und Praxis des CAD«, in: Walter Ehlers/Gernot Feldhusen/Carl Steckeweh (Hg.): CAD: Architektur automatisch?, Braunschweig 1986, S. 95. 55. Vgl.: Egon Schirmbeck: Zum Entwerfen in der Bauplanung. Analyse der architektonischen

220

Architekturmaschinen und wissenschaftliches Entwerfen

weiter gefasste Themen die Forschungslinie bestimmten, wie die strikt empirisch betriebene »Architekturpsychologie«, oder »Partizipation«, als nächstes Trendthema der siebziger Jahre.56 Feldhusen begründete die in den siebziger Jahren einsetzende postmoderne Abwendung von der strengen Rationalität des Planungshandelns im Stil der sechziger Jahre mit einer generellen Skepsis gegenüber einer »Planung als Expertenhandeln«.57 Ob diese erneute Hinwendung zu den sozialen und ästhetischen Aspekten des Bauens und das schwindende Interesse vieler Architekten in den siebziger Jahren an der Computertechnik und nach endlosen Diskussionen um Entwurfsmethoden durch deren hartnäckige Erfolglosigkeit in der Architekturpraxis ausgelöst wurde, oder ob hier allgemeine gesellschaftliche Entwicklungen maßgeblich waren, müsste genauer untersucht werden.

3. Verwissenschaftlichung des Entwerfens Während die Bemühungen Negropontes in Boston nicht plakativ den »wissenschaftlichen« Charakter des Entwerfens mit der Architekturmaschine betonten, wohl aber einen gewaltigen technischen Apparat voraussetzten, der von vielen Fachrichtungen und deren Expertise gespeist wurde, huldigte man in Stuttgart einer Architekturtheorie als »angewandter Wissenschaft«, die wenigstens versuchsweise zur Verwissenschaftlichung der Planungsprozesse beitragen sollte. Die Motive für diese Entwicklung sind auch in den jeweiligen institutionellen Strukturen zu suchen, in den Diskursen der sechziger Jahre ging es doch nicht zuletzt auch um den Erhalt des Status, der Glaubwürdigkeit und der Aussagemacht von in die Kritik geratenen Fachrichtungen. 58 Abschließend soll nun der grob skizzierte, säkulare Trend zur funktionalen »Verwissenschaftlichung« der Entwurfsprozesse in der Architektur wenigstens umrissen werden. Wenn man auch nur kurz in die jüngere Architekturgeschichte zurückblickt, so ergeben sich hierbei erstaunliche Beobachtungen: Forderungen nach einer »Verwissenschaftlichung« der Prozesse des Entwerfens sind keinesfalls eine exklusive Idee der sechziger Jahre gewesen.59 Sie wurden bereits von William R. Lethaby erhoben: »Wir sind«, so Lethaby im und theoretischen Grundlagen, Grenzen und Voraussetzungen numerischer Entwurfsmethoden (Reihe IGMA-Dissertationen 6), Stuttgart 1974. 56. Dass das Thema Partizipation ebenfalls eine enge historische Verbindung mit der Computer-Euphorie und der Verwissenschaftlichung der Architekturproduktion hat, darauf verweisen Äußerungen von Negroponte und Yona Friedman. 57. Vgl. Gernot Feldhusen: »Zur Geschichte von Theorie und Praxis des CAD«, S. 96. 58. Vor diesem Hintergrund ist auf die Verbreitung der Design-Methodologie an den Hochschulen durch die HfG Ulm hinzuweisen, an der besonders viele ihrer Protagonisten wie Rittel gelehrt haben. 59. Tendenzen zur Verwissenschaftlichung, wenn auch unter anderen Bedingungen, sind schon im 18. Jahrhundert in der Architektur zu erkennen. Vgl. dazu: Ulrich

221

Gernot Weckherlin

Jahr 1910, »in ein wissenschaftliches Zeitalter eingetreten, und die alten praktischen Künste, die mit dem Instinkt arbeiteten, gehören einer völlig anderen Epoche an.«60 Lethaby machte in seinem Aufsatz »Architektur als Wagnis« klar, dass für ihn ein moderner und den neuen Bedingungen des technischen Zeitalters aufgeschlossener Geist unter Entwurf nur noch »die wissenschaftliche Methode im Sinne des Ingenieurs, d. h. eine klare Analyse von Möglichkeiten – nicht eine vage poetische Beschäftigung mit poetischen Dingen« verstehen könne. Lethaby forderte daher: »Man muß die wissenschaftliche Seite unserer Studien schnell hochschrauben und die archäologische schnell zurückschrauben.« So wurde die »wissenschaftliche Methode« schon bei Lethaby zum zentralen Thema einer modernen Architekturauffassung. Bereits für Lethaby waren zeitgenössische Bauprobleme für die Entwerfer, wie bei Rittel, mit den Mitteln tradierten Wissens nicht mehr zu lösen. So erhielten wissenschaftliche, oder zumindest rationale Methoden einen herausragenden Stellenwert im Entwurfsprozess. Der Trend zur Verwissenschaftlichung der künstlerischen Entscheidungen als »klare Analyse von Möglichkeiten« im Sinne Lethabys hat allerdings keinen kontinuierlichen, ideengeschichtlich rekonstruierbaren Verlauf genommen, der etwa in eine verfeinerte, nach objektiven, allgemeinen und nachvollziehbaren Kriterien strukturierte Entwurfsmethodenlehre mündete. Der Grund dafür ist nicht nur in der sprachlichen Mehrdeutigkeit der jeweils als »Tatsachen« akzeptierten »Gegenstände« der Analyse jener »Möglichkeiten« zu suchen, sondern auch in der Interpretation der jeweils historisch bevorzugt ausgewählten »Gegenstände« selbst. Die zu einer Zeit allgemein anerkannten Vorstellungen eines auf objektivierbaren und wissenschaftlichen Grundsätzen beruhenden Entwerfens sind kaum durchgängig in der seit jeher offenen und nicht selten unsystematischen Fachdisziplin verankert. Vielmehr kann man diese Tendenz zur Verwissenschaftlichung am ehesten als Prozess fortlaufender fast spielerischer Adaption von Modellen »strenger« Wissenschaften – etwa der Biologie, der Soziologie, der Betriebswissenschaft, der Kybernetik, der Artificial-Intelligence Forschung beschreiben , der von harten, meist ökonomischen und politischen Rahmenbedingungen des Berufsstandes mit bestimmt wurde. Architekten waren zur Verwissenschaftlichung oder zumindest zur Objektivierung ihrer tradierten, aber offensichtlich in Widerspruch zu den Forderungen der Zeit geratenen Entwurfspraxis oft gezwungen.61

Pfammatter: Die Erfindung des modernen Architekten. Ursprung und Entwicklung seiner wissenschaftlich-industriellen Ausbildung, Basel, Boston, Berlin 1997. 60. William Richard Lethaby: »Architektur als Wagnis« in: Julius Posener: Anfänge des Funktionalismus. Von Arts and Crafts zum Deutschen Werkbund, Berlin, Frankfurt/Main, Wien 1964, S. 34-36, hier S. 35f. 61. Die Veränderungen des Rollen-Selbstbildes der Architekten, vom Künstlerarchitekten

222

Architekturmaschinen und wissenschaftliches Entwerfen

Abb. 10: Alexander Klein: Allgemeiner Arbeitsvorgang zur Ermittlung von rationellen Wohnungstypen. - Aus: »Grundrissbildung und Raumgestaltung von Kleinwohnungen und neue Auswertungsmethoden«, in: Zentralblatt der Bauverwaltung 34 (1928), S. 541-549 (Abb. S. 542).

hin zum sachlichen »Organisator von Lebensvorgängen« im Sinne von Walter Gropius und Hannes Meyer verweisen im Kern auf jene externen Kräfte.

223

Gernot Weckherlin

Als frühe und rigorose Beispiele einer Lehre des Entwerfens auf wissenschaftlicher Grundlage wären hier besonders Hannes Meyers Entwurfskurse am Dessauer Bauhaus zu nennen. Dessen radikal funktionalistische Thesen, »bauen ist ein biologischer vorgang. bauen ist kein aesthetischer prozeß«62 führten in seiner Entwurfslehre zur Forderung nach »Verwissenschaftlichung« des Bauens in Entwurfsprozessen auf einer biologistisch-mechanistischen Grundlage.63 Für diesen Entwurfsprozess wurden Modelle der Biologie, der Soziologie und der Umweltforschung samt ihrer Darstellungsmittel, wie etwa Verfahren der Bildstatistik oder Kartografie adaptiert und zum Argument für eine »neue« und »sachliche«, Baukunst auf wissenschaftlicher Grundlage gemacht.64 Einige heute vergessene Regalreihen füllen auch die Ansätze einer Ende der zwanziger Jahren entstandenen »Grundrisswissenschaft«, wie sie von Autoren wie Alexander Klein oder Gustav Wolf betrieben wurden.65 Bei der Entstehung dieser auf grafisch messbaren, quantifizierbaren Kriterien beruhenden Versuche zur Organisation von Grundrissen hat vor allem die auf strenge Rationalisierung aller Betriebsvorgänge ausgelegte Betriebswissenschaft der zwanziger Jahre Pate gestanden,66 genauso wie bei den parallel dazu unternommenen technischen Experimenten zur Beschleunigung und Typisierung des Bauvorganges. In den zwanziger Jahren waren besondere Hoffnungen auf Rationalisierungsgewinne durch eine Standardisierung der Planung, technische Optimierung der Bauprozesses aber auch durch eine betriebswissenschaftlich orientierte Forschung zur »Optimierung« von Weglängen, Wohnflächenbedarf usw. gerichtet. Diese Experimente schienen damals zur Behebung der dramatischen Wohnungsnot geeignet. Zahlreiche Organisationen und Gremien trieben die Forschungsarbeiten auf diesem Gebiet voran.67 Aber 62. Hannes Meyer: »die neue welt«, in: Klaus Jürgen Winkler: Der Architekt Hannes Meyer. Anschauungen und Werk, Berlin 1987, S. 229-233, hier S. 230. Erstveröffentlichung in: Kritisk Revy, Jg. 1928, Nr. 1, S. 14-20, hier S. 16. 63. Ebd., S. 233. 64. Vgl. Klaus-Jürgen Winkler: Baulehre und Entwerfen am Bauhaus 1919-1933, Weimar 2003. S. 58-111. Winkler stellt anhand von Studienarbeiten die Baulehre Hannes Meyers dar. 65. Alexander Klein: »Untersuchung zur rationellen Gestaltung von Kleinwohnungsgrundrissen«, in: Die Baugilde, Jg. 1927, H. 22, S. 1349ff. und: Gustav Wolf: Die Grundriß-Staffel. Eine Sammlung von Kleinwohnungsgrundrissen der Nachkriegszeit mit einem Vorschlag folgerichtiger Ordnung und Kurz-Bezeichnung von Professor Gustav Wolf. Beitrag zur Grundrißwissenschaft, München 1931, S. 8. 66. Werner Sombart: Der moderne Kapitalismus, Bd. III: Das Wirtschaftsleben im Zeitalter des Hochkapitalismus, Zweiter Halbbd., München 1987, (unv. Nachdruck der 1. Auflage 1927), S. 884-894. Sombart beschreibt den Prozess der Verwissenschaftlichung der Betriebsführung von unsystematischen, aber rationalen Einzelregeln hin zu einer quasi naturwissenschaftlich-objektivierten allgemeinen Wissenschaft der Betriebsführung. 67. Vgl. Sigurd Fleckner: »Reichsforschungsgesellschaft für Wirtschaftlichkeit im Bau- und Wohnungswesen. Anspruch und Scheitern«, in: Stiftung Bauhaus Dessau/RWTH Aachen

224

Architekturmaschinen und wissenschaftliches Entwerfen

auch entwurfsmethodische Fragen wurden bereits früh, etwa von Alexander Klein in dessen »Systematik zur Entwicklung und Auswahl serienreifer Typenentwürfe für den Massenwohnungsbau« aufgeworfen. Dieses GrundrissOptimierungsprogramm wurde von Klein 1929 für die Reichsforschungsgesellschaft für Wirtschaftlichkeit im Bau- und Wohnungswesen aufgestellt.68 Noch weiter reichende Überlegungen zu einer wissenschaftlichen Systematik des Entwurfs- und Bewertungsprozesses stammen von Paul Nelson, der ein allgemeines Entwurfsprogramm in den dreißiger Jahren entwickelt hat.69 Wissenschaftlichkeit in den Entwurfsprozessen war letztlich aber immer dann besonders willkommen, wenn es für die vorhandenen Entwurfsprobleme keine tradierten Lösungen gab und schneller durchzusetzen, wenn es sich für am Bauen beteiligte Parteien ›rechnete‹, so könnte man die ungeschriebene Geschichte der Akzeptanz wissenschaftlicher Methoden im Entwerfen von Architekten vielleicht polemisch überspitzt zusammenfassen.

Abb. 11: Artur Bottling et. al.: Schema eines Planungsvorganges. - Aus: »Zur Entwicklung von Bewertungsverfahren in der Planung« , in: Arbeitsberichte zur Planungsmethodik 1, Bewertungsprobleme in der Bauplanung, Stuttgart 1972 (1. Aufl. 1969), S. 100-101.

(Hg.): Zukunft aus Amerika. Fordismus in der Zwischenkriegszeit: Siedlung, Stadt, Raum, Berlin 1995, S. 220-233. 68. Vgl. Ulrich Klaus Stöhner: Untersuchung über den Beitrag Alexander Kleins zur Entwicklung und Bewertung von Grundrissen im Geschoßwohnungsbau (Diss., TU Berlin 1976), S. 150-161. 69. Zu Nelsons »General Program« vgl. Bruno Reichlin: »Den Entwurfsprozess steuern – Eine fixe Idee der Moderne?«, in: Daidalos 71 (1999), S. 6-21.

225

Gernot Weckherlin

Ist die »Verwissenschaftlichung« also nur modisches Mäntelchen der modernen Architektur und ihrer Theorien gewesen? Dies kann wohl kaum behauptet werden. Zumindest für die historische Analyse ist vielmehr entscheidend, wie die Diskursfelder beschrieben werden, in denen Ansätze einer objektiven, nachvollziehbaren und allgemein anerkannten, wissenschaftlichen Regeln gehorchenden Entwurfspraxis Einzug gehalten haben. So kann man nachweisen, dass sich vor allem dann, wenn es rentabel war, wissenschaftliche Methoden und mit diesen entstehende technische Hilfsinstrumente wie der Computer schnell durchgesetzt haben. Die von solcher Rationalität erfassten Bereiche wurden bezeichnenderweise vor allem von der Architekturgeschichte mit ihrer auf Autoren und Werke fixierten Sichtweise marginalisiert. Besonders stark von einer zumindest wissenschaftsnahen Rationalität des Planens sind seit den Tagen der frühen Architekturmaschine wohl bis heute jene Teile der Entwurfsprozesse durchdrungen, die mit Informationsbeschaffung, -systematisierung und -verarbeitung zu tun hatten, wie Handbücher, Kataloge, Entwurfslehren, Datenbanken, genauso wie ökonomische Fragen des Entwerfens, die nach den Regeln der Betriebswissenschaft organisiert werden konnten. Ähnlich verliefen auch die Verwissenschaftlichungsprozesse im Bereich der statischen Berechnung der Materialwissenschaft, legislativer Rahmenbedingungen, der Finanzierung unter dem Einfluß der Finanzwissenschaften, der Projektsteuerung, des Facility Management und nicht zuletzt sogar des Marketing. Hier haben besonders die »kreativen Techniken« der sechziger Jahre Einzug gehalten wie etwa das »brainstorming«. Erstaunlich bleiben vor diesem Hintergrund die Paradoxien der weiteren Entwicklung in den siebziger Jahren: Während in der »Architecture Machine Group« Fragen der humanen Umweltgestaltung den Ausgangspunkt einer ungestümen technologischen Forschung in ganz architekturfernen Bereichen bildeten, entwickelten Architekten aus Sorge um den Verlust ihrer vermeintlich freien Entwerfergabe durch eben jene die Realität längst prägenden Errungenschaften von Wissenschaft und Technik eine fast feindselige Reaktion auf die »Verwissenschaftlichungstendenzen« der sechziger Jahre. Die Architekturtheorie dagegen hob aus den Niederungen der »angewandten Wissenschaft« später ins philosophische Wolkenkuckucksheim ab und wies bald jede Beschäftigung mit utilitär-methodischen Fragen des Entwerfens empört zurück.70

70. Vgl. Horst Rittel: »Über den Einfluß von Computern«, S. 206.

226

Maschinelle Entwurfshilfen Was lehren Künstliche Intelligenz und Künstliche Kreativität über das architektonische Denken? GEORG FRANCK

Das architektonische Entwerfen ist ein Denken. Es ist ein Ausdenken und Hinschreiben. Ein Denken nur eben nicht in abstrakten Begriffen, sondern in räumlichen Formen und sinnlichen Qualitäten. Und ein Schreiben nicht in wörtlicher, sondern in graphischer Sprache. Das Hinzeichnen ist beim Entwerfen, was das Hinschreiben beim Formulieren von Texten ist. Das Notieren stellt eine Technik dar, die mehr aus der Vorstellungsgabe herausholt, als das freihändige Ausdenken fasst. Durch das Hinschreiben entsteht eine Beschreibung, die erstens ein äußeres Medium zur Speicherung und zweitens ein auswendiges System von Zeichen und Regeln zur Artikulation benutzt. Das äußere Medium der Speicherung entlastet das Gedächtnis: Man muss nun nicht mehr all das im Kopf behalten, woran bei der Lösung des Problems gedacht sein will. Das System von Zeichen und Kompositionsregeln unterstützt die gedankliche Arbeit wie Werkzeug und Maschinen die körperliche Arbeit unterstützen: Es erlaubt die Zerlegung komplexer Vorstellungen in einfachere, sich wiederholende und die Übertragung eines Teils der Verrichtung an mechanische Routinen. Das Formulieren in einer Sprache macht das Denken zu einem Spielen mit standardisierten Zeichen. Es gilt, die Zeichen – seien es Wörter oder graphische Symbole – nach formalen – das heißt syntaktischen – Regeln zu einem Ganzen zu fügen, das ausdrückt, worauf das Denken hinaus will. Im Spielen mit den Zeichen probieren wir den Gedanken aus. Wir testen, wie weit ein Ansatz trägt, wir loten Möglichkeiten aus oder schauen einfach zu, was da vor uns auf dem Papier oder Bildschirm entsteht. Manchmal haben wir Glück: Es entsteht etwas, das uns selbst überrascht. Wir sind kreativ, wenn etwas dasteht, von dem wir selber nicht wissen, wie es zustande kam. An dieser Kreativität haben nicht nur wir, sondern hat auch das Medium der Darstellung teil. Das Spiel mit den Zeichen folgt zwar anderen Regeln als die Sache, die dargestellt werden soll. Der Unterschied muss jedoch nicht bedeuten, dass keinerlei Beziehung herrscht. An der Formulierung zeigt sich vielmehr, ob der Gedanke Sinn hat. Der Gedanke muss zwar noch nicht stim227

Georg Franck

men, wenn er sich formulieren lässt; sperrt er sich aber hartnäckig gegen die Formulierung, dann ist das ein Hinweis auf Unstimmigkeit. Ebenso verhält es sich mit Vorstellungen der räumlichen Organisation. Die Vorstellung muss noch lange nicht architektonisch stimmen, wenn sie sich in Grundriss und Schnitten darstellen lässt. Wenn es aber nicht gelingen will, sie im Medium der Orthogonalschnitte zu formulieren, dann stimmt mit der Vorstellung etwas von vornherein nicht. Die Regeln des Orthogonalschnitts sind rein formal. Sie besagen zum Beispiel, dass Polygone, die Räume darstellen sollen, geschlossen sein müssen, oder dass Linien, die Wände darstellen sollen, sich nicht schneiden dürfen. Allerdings ist es nun auch möglich, inhaltliche Gesichtspunkte in das syntaktische Regelwerk einzubeziehen. Es kann zum Beispiel bestimmt werden, dass die Konfiguration der Räume bestimmten Regeln folgen muss, dass Symmetrien eingehalten oder gebrochen sein müssen, dass die Anordnung der Türen und Fenster bestimmten Kompositionsregeln folgt. Es ist im Prinzip möglich, eine Entwurfssprache zu konzipieren, deren Syntax nur solche Ausdrücke zulässt, die auch architektonisch wohlgeformt sind.1 Eine Sprache, die es vermag, die inhaltliche Validität der syntaktisch korrekt gebildeten Ausdrücke zu verbürgen, wird eine logische Grammatik genannt. Eine logische Grammatik macht die Lösung der Probleme, die sich in der Sprache formulieren lassen, zu einer Frage mechanischen Kalküls. Die Idee einer solchen Sprache geht auf Gottfried Wilhelm Leibniz zurück. 2 Leibniz (1646-1716) war Mathematiker, Logiker, Philosoph, Physiker und Erfinder. Er entdeckte die Möglichkeit, das System der Zahlen binär zu codieren, und hatte die Idee eines Notationssystems, das später als »Begriffsschrift« bekannt werden (und damit die symbolische Logik begründen) sollte. Mit der binären Codierung schuf Leibniz die Grundlage der Digitaltechnik. Mit der Begriffsschrift ist gemeint, dass Begriffe und ihre logischen Relationen wie mathematische Symbole notiert und zum Gegenstand eines formalen Kalküls gemacht werden. Leibniz schwebte ein formalsprachliches System vor, dessen Symbolismus und Syntax mächtig genug sind, um die eigene Konsistenz beziehungsweise die Wahrheit der erlaubten Deduktionen zu beweisen. Im Fall, dass dieses Projekt einer ›lingua characteristica‹, wie er sie nannte, durchführbar wäre, wäre ein Abschluss zumindest des formalisierbaren Teils sowohl der begrifflichen Sprache als auch visueller Sprachen denkbar. Mehr noch, es wäre dann möglich, den Gebrauch des formalisierten Teils der Sprachen an die 1. Eine Sprache in diesem Sinn stellt zum Beispiel der chemische Symbolismus dar. Die Elemente dieser Sprache, die Zeichen der chemischen Elemente, werden nach syntaktischen Regeln zusammengesetzt, die nur solche Verbindungen zulassen, die sachlich, das heißt, chemisch möglich sind. 2. Zu den Fundstellen bei Leibniz und deren Interpretation siehe Karl Dürr: Neue Beleuchtung einer Theorie von Leibniz: Grundzüge des Logikkalküls, Darmstadt 1930 (Leibniz-Archiv, Bd. 2).

228

Maschinelle Entwurfshilfen

auswendige Manipulation von Symbolen zu delegieren. Die Geistesmechanik wäre automatisierbar.

Formengrammatiken: der Ansatz der symbolischen KI Es verwundert im Rückblick nicht, dass Leibniz’ Idee von seinen Zeitgenossen unverstanden und so auch zunächst ohne Folgen blieb. Die Logik war zu seiner Zeit noch nicht formalisiert, der Gedanke einer logischen Kalkülsprache noch nicht vermittelbar. Es dauerte bis zur Wende des 19. ins 20. Jahrhundert, dass Leibnizens Idee wiederentdeckt und überhaupt verstanden wurde. Gottlob Frege (1848-1925) erkannte, nachdem er seine dann ausdrücklich so genannte Begriffsschrift entwickelt hatte, dass da ein Vorgänger war. Leibniz’ Idee trug aber noch weiter. Die Reduktion inhaltlicher auf syntaktische Stimmigkeit ist die Grundidee der Künstlichen Intelligenz, genauer der so genannten symbolischen KI. Tritt auf dem Gebiet der Architektur fasste die Künstliche Intelligenz mit so genannten Formengrammatiken.3 Formengrammatiken sind graphische Sprachen von der Art, dass die Regeln der Geometrie um solche der Komposition ergänzt sind, die nur ganz bestimmt zusammengesetzte Ausdrücke zulassen. Die Kompositionsregeln sind als Einsetzungsregeln spezifiziert, die festlegen, wie Symbole durch andere Symbole ersetzt werden können. Die Symbole sind von zweierlei Art: Es gibt Variable und Literale. Variable sind durch andere Variablen und durch Literale zu ersetzen. Literale sind die Symbole, aus denen Entwurfszeichnungen, wie wir sie kennen, also zum Beispiel Grundrisse und Schnitte, zusammengesetzt sind. Literale sind, einmal eingesetzt, nicht mehr zu ersetzen. So nimmt die Lösung des Kompositionsproblems die Form eines Einsetzungsspiels an, das mit einem Startsymbol beginnt und nicht eher zu Ende ist, als sämtliche Variablen durch Literale ersetzt sind. Die Formengrammatiken nehmen nicht nur die Idee der logischen Grammatik, sondern auch eine Idee auf, die in der Architektur eine bereits lange Geschichte hat. Den Fall einer logischen Formengrammatik stellt nämlich bereits die Formensprache des griechischen Tempels dar. Beim klassischen Tempel 3. Die Definition einer Formengrammatik nach Stiny ist: Eine Formengrammatik ist, analog zur Grammatik der Sprache, eine Menge von Formen, Symbolen und Regeln zur Definition von Formensprachen 2- oder 3-dimensionaler architektonischer Entwürfe. Formen sind endliche Anordnungen von Geraden oder von Formen im euklidischen Raum. Symbole sind Eigenschaften von Formen, z.B. Markierungen einzelner Geraden. Regeln sind erlaubte Transformationen von Formen, z.B. logische Operationen wie Vereinigungs- und Schnittmenge oder geometrische Operationen wie Translation, Rotation, Spiegelung, Vergrößerung oder Verkleinerung. Die Formsprache ist die Menge aller durch eine Formengrammatik erzeugbaren Formen. Vgl. Georg Stiny: »Introduction into shape grammars«, in: Environment and Planning B 7 (1980), S. 343-398.

229

Georg Franck

sind das Vokabular der elementaren Formen und die syntaktischen Regeln der Komposition hart und bedingungslos vorgegeben. Die Proportionen stehen fest, unabhängig von der absoluten Größe, die das Bauwerk annimmt. Die Freiheitsgrade für Variationen sind minimal. Das Vokabular und die Syntax der – zumal – dorischen Ordnung legen die Form eines gültigen Ausdrucks tatsächlich so weit gehend fest, dass ein formal stimmiger auch ein architektonisch richtiger Tempel ist.

Abb. 1: Die Grammatik der dorischen Ordnung. - Aus: Gottfried Gruben: Die Tempel der Griechen, München 1966.

Die Formengrammatik, deren Syntax architektonische Stimmigkeit verbürgt, blieb ein Merkmal der Renaissancen und Klassizismen, die aus dem antiken Sakralstil hervorgingen.4 Die erste Formengrammatik im Format eines Textbuchs stammt von Andrea Palladio. Im zweiten Buch der Quattro libri (1560) wird die Komposition einer herrschaftlichen Villa aus elementaren Formen nach gleichsam syntaktischen Regeln beschrieben. Der damals neue Bautyp, dem die Lehre gilt, besteht aus der Kombination eines mondänen Wohnhauses und einer Tempelfront. Palladios Kompositionslehre wurde ungezählte Ma4. Siehe zur Ausführung: Dorothea Franck/Georg Franck: Architektonische Qualität, München 2008, Kap. 7.

230

Maschinelle Entwurfshilfen

le umgesetzt und erfreute sich, zumal in der angelsächsischen Welt, bis ins 20. Jahrhundert hinein großer Beliebtheit. Der Grund für diese Beliebtheit ist zum einen darin zu suchen, dass sie das Problem der Repräsentation für private Zwecke mit Anstand und Würde löst, zum andern darin, dass sie es auch durchschnittlich begabten Architekten erlaubt, das heikle Problem in den Griff zu bekommen. Die palladianisierenden Villen stellen, wenn man sie mit dem Gros des typischen Villenbaus vergleicht, eine auffallend geschmackssichere Auswahl dar.

Abb. 2: Die Palladianische Villa (hier die Villa Foscari, genannt Malcontenta) aus den Quattro libri (1570). - Aus: Andrea Palladio: Die vier Bücher zur Architektur. Nach d. Ausg. Venedig 1570 aus d. Ital. übertr. u. hg. von Andreas Beyer und Ulrich Schütte, Zürich 1988.

In gewissem Sinn nahm Palladios Entwurfslehre die Idee Leibniz’ um hundert Jahre vorweg. So sollte sie dann später auch zur Spielwiese für die Ingenieure der Künstlichen Intelligenz werden. Es gelang nämlich, Formengrammatiken zu programmieren, durch welche Maschinen in die Lage kamen, Villen im Stile Palladios zu entwerfen. Und zwar auch solche, die man bis dahin noch nicht gesehen hatte.5 Diese Formengrammatiken stellten mehr als nur Mittel zur Reproduktion der Originale, sie stellten operationale Definitionen des Begriffs der Palladianischen Villa dar. Durch die Findigkeit der Suchalgorithmen 5. Vgl. Georg Stiny/William J. Mitchell: »The Palladian grammar«, in: Environment and Planning B 5 (1981) S. 5-18, ferner William J. Mitchell: The Logic of Architecture, Cambridge, Mass. 1990.

231

Georg Franck

stellte sich heraus, dass dieser Begriff mehr als nur die Fälle abdeckt, die Palladio selbst gebaut oder auch nur entworfen hatte. Die neuen Lösungen kamen den bekannten aber immerhin so nahe, dass es selbst für Experten schwer gewesen wäre, die »falschen« Palladios von verschollen geglaubten Originalen zu unterscheiden (Abb. 3).

Abb. 3: Original (links): Palladio: Villa Foscari (Malcontenta) und Simulation (rechts): Mitchell: Villa Hollywood. - Aus: William J. Mitchell: The Logic of Architecture, Cambridge, Mass. 1990.

Der Betrieb der Formengrammatiken kommt dem Formulieren in einer graphischen Entwurfssprache darin ganz nahe, dass er nichts anderes als ein Spiel mit den Zeichen ist, die es gilt, zu einem syntaktisch korrekten Ausdruck zusammenzusetzen. Die ›engine‹ der algorithmischen Grammatiken funktioniert wie die eines Schachcomputers. Sie probiert nach dem Zufallsprinzip Züge – in diesem Fall also Einsetzungen – aus und kalkuliert die Konsequenzen ein paar wenige Schritte voraus. Da die Anzahl der Möglichkeiten rasch astronomische Ausmaße annimmt, kann nicht die gesamte Strategie auf einmal berechnet werden. Vielmehr nimmt die Maschine eine, wie sie genannt wird, Heuristik zu Hilfe. Die Heuristik stellt einen Satz von Faustregeln dar, die aus dem ›self-monitoring‹ der Maschine abgeleitet sind. Die Heuristik entsteht, indem die Maschine eine Statistik über ihre Versuche führt. Sie »lernt«, dass gewisse Züge in bestimmten Situationen eher zum Erfolg geführt haben als andere. Je länger und ausführlicher die Statistik geführt wird, um so besser wird das »Orakel«, dessen sich die Maschine im konkreten Fall bedient. Wenn es schließlich gelingt, dass die Maschine eine Palladianische Villa entwirft, dann war das nun freilich weniger die Leistung der Suchalgorithmen als die der Programmierer, die das Lexikon und die Syntax der Formengrammatik so eng fassten, dass nur eine gültige Zeichnung die Bedingungen eines syntaktisch korrekten Ausdrucks erfüllt. Die Leistung der Suchalgorithmen, wenn derart in die Enge getrieben, besteht darin herauszufinden, ob überhaupt eine Lösung existiert. Wenn die bereits bekannten Lösungen reproduziert und 232

Maschinelle Entwurfshilfen

zudem noch ein paar neue gefunden werden, die bis dahin unbekannt waren, dann zeigt sich, dass die Formengrammatik den Begriff der Palladianischen Villa durch die Artikulation der notwendigen und hinreichenden Bedingungen definiert. Mehr noch, es zeigt sich, dass der Bautyp beziehungsweise die Bauform eine logische Grammatik darstellt. Die algorithmischen Formengrammatiken gehörten zu den ersten Anwendungen der KI, die den Anspruch stellen konnten, den Turing-Test zu bestehen. Der Turing Test wurde von dem Mathematiker und Computerpionier Alan Turing ersonnen, um auf empirische Weise zu klären, ob Maschinen denken können.6 Die Versuchsanordnung besteht darin, dass eine Versuchsperson sich per ›chat‹ mit einem Partner unterhält, von dem sie nicht weiß, ob es sich um einen Menschen oder einen Computer handelt. Turing schlug vor, die Frage, ob Maschinen denken können, dann positiv zu beantworten, wenn Testpersonen nicht mehr in der Lage sind, aus dem Verhalten auf den menschlichen oder artifiziellen Charakter ihres Gegenübers zu schließen. Diesen Test waren die programmierten Formengrammatiken insofern in der Lage zu bestehen, als es selbst für Fachleute schwierig gewesen wäre, die Villa Hollywood (Abb. 3) von einem Fund unbekannt gebliebener Originalzeichnungen Palladios zu unterscheiden.7 Der Turing-Test sollte nicht zu wörtlich genommen werden. Er beweist nämlich gerade nicht, dass Maschinen an etwas denken, wenn sie Symbole manipulieren. Die Manipulation ist rein syntaktischer Natur. Eine Maschine verarbeitet Muster und sonst nichts. Sie verbindet, im Gegensatz zu uns Menschen, die Muster nicht mit einer Bedeutung, die jenseits der Muster liegt. Sie hat also nicht eigentlich mit Zeichen zu tun, denn zu Zeichen werden Muster erst dadurch, dass sie etwas anderes, als sie selber sind, bezeichnen. Diese bezeichnende Funktion ist Maschinen grundsätzlich fremd, weshalb die Zeichnung, wie die Maschine sie erstellt, auch nichts mit dem Bauwerk zu tun hat, das die Zeichnung für uns darstellt. Erst durch die Vorstellung dieses Bauwerks kommt die Funktion und kommt die ästhetische Qualität ins Spiel. Weil deren Rolle auch durch den Turing-Test nicht nachgewiesen wird, ist eine andere Beobachtung viel interessanter. Die Übersetzung in einen Algorithmus beweist nämlich, dass die klassische Bauform eine logische Formengrammatik darstellt. Spricht dieser Beweis nicht allem Hohn, was das Reden von der Ungebundenheit der Kreativität und die Kritik an festen Regeln 6. Vgl. Alan Turing: »Computing machinery and intelligence«, in: Mind 59 (1950). 7. Um einem Missverständnis vorzubeugen: Die Entwicklung von algorithmischen Formengrammatiken blieb nicht auf klassische und klassizistische Beispiele beschränkt. Auch die Formengrammatik – etwa – der Frank Lloyd Wright’schen prairie houses wurde programmiert. Und das mit entsprechendem Erfolg. Die Maschinen fanden Lösungen, die im Original noch nicht bestanden. Siehe H. Koning und J. Eizenberg, »The language of the prairie: Frank Lloyd Wright’s prairie houses«, in: Environment and Planning B 8 (1981), S. 295-323.

233

Georg Franck

wahrhaben wollen? Verfügt die sinnliche Wahrnehmung vielleicht über einen Sinn für formelle Stimmigkeit, der nichts oder nur wenig mit dem intellektuellen Nachvollzug zu tun hat?

Evolutionäre Algorithmen: der Ansatz der Künstlichen Kreativität Eine gewisse Ironie hält in diesem Zusammenhang die Künstliche Kreativität bereit. Kreativ muss man sein, um mit so genannten schlecht definierten Problemen zurechtzukommen. Schlecht definiert sind Probleme, wenn sie sich der Analyse, nämlich der Art von Beschreibung verweigern, die es erlaubt, komplexe Probleme in einfachere und schließlich elementare Probleme zu zerlegen. Mit komplexen Problemen wird unser endlicher Verstand auf die Art fertig, dass er sie analytisch zerlegt und aus den Lösungen der einfacheren Probleme die des umfangreichen, verwickelten Problems synthetisch zusammensetzt. Wohldefiniert, nämlich in einfachere und schließlich elementare Probleme zerlegbar, sind die Kompositionsprobleme, die die algorithmischen Formengrammatiken lösen. Die Formengrammatiken stellen, wenn in einer Programmiersprache beschrieben, eine Definition des komplexen Problems der Komposition dar, die vollständig analysierbar, nämlich bis hinab auf die Ebene elementarer Ja/Nein-Entscheidungen zu zerlegen ist. Ironischerweise versagt diese Zerlegung bei den auf den ersten Blick viel einfacheren Problemen der räumlichen Organisation. Die Organisation von Grundrissen, das heißt die Einpassung eines Raumprogramms in einen Bauraum und die Anordnung der Räume nach Gesichtspunkten der Erschließung und günstigen Nachbarschaft, stellt ein Problem dar, das der weiteren Zerlegung widersteht. Die Zerlegung funktioniert nur bis zur Sonderung der Einpassung der Räume in den Bauraum (Packungsproblem) von dem der internen Anordnung der Räume (›assignment problem‹). Dann ist Schluss. Sowohl das Packungsproblem als auch das ›assignment problem‹ stellen charakteristische Fälle nicht-analysierbarer Probleme dar.8 Diese Probleme sind denn auch resistent gegen die Ansätze der symbolischen KI. Sie können jedoch angegangen werden mit Verfahren, die die Findigkeit desjenigen Prozesses imitieren, auf den alle Kreativität zurückgeht, nämlich der biologischen Evolution. Die biologische Evolution hat Baupläne entwickelt, die anspruchsvoller und robuster sind als alles, was die menschliche Kunst ersann. Die Evolution hatte aber nie mit wohl definierten Problemen zu tun. Noch ging sie je analytisch vor. Die Natur hat nämlich überhaupt keine Probleme. Probleme gibt es nur, wo es Ziele gibt. Probleme tauchten in 8. Siehe Michael R. Garey/Davis S. Johnson: Computers and Intractability. A Guide to the Theory of NP-Completeness, New York 1979.

234

Maschinelle Entwurfshilfen

der Evolution erst spät, nämlich erst dann auf, als die Baupläne für Organismen so hoch entwickelt waren, dass die Programme für die Verhaltenssteuerung intelligent wurden. Probleme sind eine späte Erfindung auf dem Weg der Entwicklung zielgerichteten Verhaltens. Will man verstehen, wie die Evolution vorgeht, dann kommt es darauf an zu sehen, wie eine Entwicklung, die ohne Zielvorgabe war, im Nachhinein so wirken kann, als sei sie von Anfang auf ein Ziel gerichtet gewesen. Bevor ein Organismus als Problemlöser mit eigener Intelligenz in Erscheinung tritt, muss er sich als Problemlösung in dem Sinn durchsetzen, dass er das Licht der Welt erblickt. Es muss als Lösung einer überaus schwierigen Aufgabe auftauchen, nämlich derjenigen, als Gattungswesen reproduziert zu werden. Die Lösung dieses Problems ist keine, zu der das Individuum imstande wäre. Die Lösung dieses Problems liegt in den Anlagen, die es mitbringt, das heißt, in seinem eigenen Bauplan. Der Bauplan von Lebewesen wird Erbinformation genannt und ist in D(extrorubo)N(uklein)S(äure) codiert. Das Verfahren, mit dem die Evolution Baupläne generiert und selegiert, ist auf die Codierung der Pläne in der DNS nicht beschränkt. Es kann auch in binären Code übertragen werden. Es kann als Problemlösungsverfahren im Computer simuliert und auf die Generierung und Selektion verschiedenstartiger Baupläne übertragen werden. Das Verfahren besteht aus einem Spiel mit dem Zufall und sich selbst organisierender Kritikalität. Der Zufall hat die Wirkungsorte der Paarbildung, der Kreuzung in der sexuellen Reproduktion und der Mutation. Die sich selbst organisierende Kritikalität besteht in der Reproduktionsrate des Bauplans gemäß einer ›Fitness‹ genannten Bewertungsfunktion. Sobald es gelingt, die Fitness von Entwurfsvarianten zu messen, kann ihre Generierung und Selektion als Evolutionsspiel im Computer veranstaltet werden. Nehmen wir, um das Prinzip zu illustrieren, an, die Entwurfsaufgabe bestehe in der Umsetzung eines Raumprogramms, das aus rechteckigen Räumen besteht, in einen rechteckigen Bauraum. Um das Spiel zu initialisieren, reicht es, von einer beliebigen Konfiguration rechteckiger Flächen gegebener Größe auszugehen, die nach der Maßgabe verändert und rekonfiguriert werden sollen, dass Lücken, Überlappungen und Ausuferungen minimiert werden (Abb. 4). Das Evolutionsspiel läuft nun derart, dass eine Population von Lösungsvarianten – codiert als ›strings‹ von Nullen und Einsen – erzeugt wird, die sich durch Kreuzung der individuellen Varianten von Generation zu Generation reproduziert. Aus zwei alten entstehen (im einfachsten Fall) zwei neue Varianten, in denen Eigenschaften der alten kombiniert sind. Welche Varianten sich kreuzen und wo die Schnittpunkte der Rekombination liegen, ist zufallsgesteuert (Abb. 5).

235

Georg Franck

Abb. 4: Minimierung von gap und overlap.

Abb. 5: Crossover.

Die Selektionsweise der Fitness greift nun dadurch, dass die Anzahl der Nachkommen – also die Reproduktionsrate – einer Variante davon abhängt, wie gut sie die Minimierungsaufgabe im Vergleich zu den anderen löst. Je höher ihre Fitness, um so höher ihre Reproduktionsrate. Je geringer die Fitness, um so weniger Nachkommen hat eine Variante. Die jeweils schlechtesten kommen gar nicht zur Reproduktion, sie sterben aus. Mit jedem Durchgang beziehungsweise mit jeder Generation erhöht sich die Fitness der Population. Das Spiel endet, wenn ein Optimum erreicht ist. Zwar lässt sich das Optimum bei schlecht definierten Problemen nicht beweisen. Ein konvergierendes Ergebnis mehrerer Läufe spricht jedoch dafür, dass ein Optimum erreicht ist. Allerdings existieren nun, wo die Fitness von mehr als nur einem einzigen Parameter abhängt – also zum Beispiel, wo das Packungs- und das Anordnungsproblem zugleich gelöst werden müssen –, mehrere Arten von Optima. Es gibt lokale Optima und es gibt ein globales Optimum. Es gibt, anders ausgedrückt, eine Fitness-Landschaft mit Hügeln und Tälern (siehe Abb. 6 für eine Fitness-Landschaft mit den beiden Parametern x und y). Das Verfahren des Crossover ist zwar geeignet, die Fitness entlang eines gegebenen Gradienten anwachsen zu lassen, verhindert durch seine Neigung zum »Klettern« aber, dass von einem lokalen Optimum wieder hinab durch ein Tal zu einem globalen Optimum gefunden wird. Beim Überspringen von Tälern hilft das Verfahren der Mutation, wenn es das Crossover ergänzt. Mutation bedeutet, dass einzelne Allele – nämlich einzelne Buchsta236

Maschinelle Entwurfshilfen

ben im Code – durch Zufall direkt verändert werden (Abb. 7). Durch geeignete Wahl der Parameter bei der Kreuzung und Mutation besteht gute Aussicht, dass der evolutionäre Algorithmus, wie er denn genannt wird, das globale Optimum realisiert. y

f (x, y)

x Abb. 6: Fitness-Landschaft mit lokalem und globalem Optimum. - Aus: David E. Goldberg: Genetic Algorithms in Science, Optimization, and Machine Learning, Reading, Mass. 1989.

Mutationspunkt Vor der Mutation Nach der Mutation Abb. 7: Mutation.

Genetische Algorithmen werden als Problemlösungs- und Optimierungsverfahren in einer ganzen Reihe von Anwendungsfeldern inzwischen erfolgreich eingesetzt. Beispiele sind das Lösen von Packungsproblemen bei der Luftfracht, die Minimierung des Materialverbrauchs beim Stanzen von Formen, das Schleifen mehrfokaler Linsen. Diese Aufgaben zeichnen sich dadurch aus, dass sie sich der Art analytischer Beschreibung entziehen, aus der die Lösung auf deduktivem Wege folgt. Genetische Algorithmen (GA) finden hier Lösungen heraus, die nicht schon in den Vorgaben enthalten sind. Sie sind tatsächlich in der Lage, Neues zu schöpfen. Damit diese Fähigkeit nun die Bezeichnung Künstliche Kreativität verdient, muss sie sich bei Aufgaben bewähren, die herkömmlich als kreativ gelten. Das Lösen von Packungsproblemen bei der Luftfracht reicht nicht. Auch das Entwickeln von Grundrissen besteht ja in mehr als nur dem Herumschieben von Flächen nach Maßgabe der Minimierung von Lücken und Überlap237

Georg Franck

pungen. Räumliche Organisation schließt die Erschließung der Räume und die Herstellung vorteilhafter Nachbarschaftsbeziehungen ein. Der Grundriss stimmt, wenn die Räume erstens richtig proportioniert und orientiert, wenn sie zweitens gut erschlossen und drittens so angeordnet sind, dass die Wege kurz gehalten und Störungsquellen der Benutzung entschärft sind. Um die genetischen Algorithmen auf diese Organisationsaufgabe anzusetzen, müssen die Kriterien für die Güte eines Grundrisses als Argumente in die FitnessFunktion eingehen. Um die Fitness voll zu spezifizieren, müsste, anders gesagt, die Funktion der Architektur beschrieben sein. Noch niemand hat nun allerdings die Funktion einer Wohnung oder eines Büros erschöpfend beschrieben. Funktionalität heißt Zweckmäßigkeit. Zweckmäßig ist das Gebäude, das die Zwecke seiner Benutzer und Betrachter im bestmöglichen Sinne fördert. Wie soll dieses Optimum festgestellt werden? Zwecke sind subjektive Absichten und Zielvorstellungen, die man von außen nicht ohne weiteres kennen und auch nicht einfach abfragen kann. In die Zwecke gehen Fragen des Geschmacks und der angemessenen Gestalt ein. Die Menschen, die ein Haus bewohnen, möchten sich mit ihrer Wohnung identifizieren, diejenigen, die in einem Gebäude arbeiten, möchten ihre Tätigkeit angemessen dargestellt sehen. Da wir ständig von Architektur umgeben sind, ist diese auch allen Ansprüchen der Erfreulichkeit ausgesetzt, die wir an unsere Umgebung stellen. Ein Gebäude, das die Zwecke seiner Benutzer und Betrachter in optimaler Weise erfüllen will, muss selbstverständlich auch auf ästhetischer Ebene »funktionieren«. Die ästhetische Funktion folgt jedoch keinen handfesten Kriterien. Vielmehr gilt es festzuhalten, dass die Leistungsfähigkeit der Entwurfshilfen weniger von der Leistung der Suchalgorithmen als von der Spezifikation der Zielfunktion abhängt. Bei den Formengrammatiken liegt es an der Kunst der Programmierer, dass sie den Kompositionsstil der betreffenden Architekturen in eine Sprache übersetzten, deren Grammatik den Lösungsraum des Kompositionsproblems genau demarkiert. Bei den genetischen Algorithmen wird der Lösungsraum durch die Fitness-Funktion beschrieben. Hier ist es hoffnungslos, den Lösungsraum anhand von Kriterien, wie sie als Argumente in die Fitness-Funktion eingehen können, auf »gute Architektur« einzuschränken. Vielmehr besteht Aussicht auf Einbeziehung des ›assignment problem‹ nur, wenn es gelingt, die Funktionalität behelfsmäßig durch ein paar wenige und zudem quantifizierbare Kriterien auszudrücken. Eine solche Reduktion wird gangbar durch eine Arbeitsteilung zwischen Mensch und Maschine. Die unabdingbare Unvollständigkeit der Zielfunktion muss dann kein Hinderungsgrund sein, wenn die unübertroffenen Gaben der menschlichen Urteilskraft einbezogen werden – derart etwa, dass per Hand in das Spiel der künstlichen Evolution eingegriffen wird. Die Maschine leistet die Schwerarbeit, die Hand nimmt dann die Feinabstimmung vor. Die 238

Maschinelle Entwurfshilfen

Schwerarbeit liegt bei der räumlichen Organisation im Herausfinden von Lösungen, die die Erschließung ohne gefangene Räume und die Zuordnung ohne die bekannt ungünstigen Nachbarschaften bewältigen. Diese Art ›assignement‹ lässt sich bewerkstelligen, indem die Geometrie und die Topologie des Grundrisses getrennt behandelt werden. Die Geometrie betrifft den Zuschnitt und die Maße der Räume. Die Topologie stellt die Erschließungsund Nachbarschaftsverhältnisse unabhängig von den Maßverhältnissen dar (Abb. 8). Die Topologie abzüglich der Geometrie findet Ausdruck in einer ›adjacency matrix‹, die die Nähe eines jeden Raums zu allen anderen Räumen mit einem Gewicht versieht. In der Form dieser ›adjacency matrix‹ kann das ›assignment problem‹ in der Fitness-Funktion des GA berücksichtigt werden. Topologie und Geometrie finden dann wieder zusammen, wenn das Anordnungs- und das Packungsproblem im Wechselspiel behandelt werden.

Abb. 8: Der kombinierte Effekt von Crossover und Mutation.

239

Georg Franck

Abb. 9 : Grundrisse mit gleicher Topologie wie in Abb. 10 dargestellt, jedoch verschiedener Geometrie: Villengrundrisse von Frank Lloyd Wright. - Aus: William J. Mitchell: The Logic of Architecture, Cambridge, Mass. 1990.

240

Maschinelle Entwurfshilfen

Abb. 10: Topologisches Schema der Villen-Grundrisse Frank Lloyd Wrights, dargestellt in Abb. 9. - Aus: Mitchell, The Logic of Architecture, 1990.

Die Qualität der Grundrisse, die auf diese Weise entwickelt werden, hängt davon ab, wie gut die Gewichte der ›adjacency matrix‹ die idealen Verhältnisse bei Erschließung und Nachbarschaft beschreiben. Keine noch so triftige Bewertung der Nachbarschaftsverhältnisse kann nun aber das Werturteil eines geübten Entwerfers ersetzen. Das gebildete Auge sieht und die geübte Hand spürt mehr, als sich in Kriterien, wie sie in eine Zielfunktion eingehen können, übersetzen ließe. Daher hängt die Praxistauglichkeit von Entwurfshilfen der Künstlichen Kreativität von vornherein davon ab, dass eine geeignete Benutzeroberfläche das Eingreifen von Hand in das Evolutionsspiel erlaubt.

Was lehren Künstliche Intelligenz und Künstliche Kreativität über das architektonische Denken? Zum Zeitpunkt, da diese Zeilen geschrieben werden, sind noch keine Entwurfshilfen der Künstlichen Kreativität auf dem Markt. Produkte, die die Leistungsfähigkeit unter Beweis stellen, existieren aber im Labor.9 Die Lehre, die diese Entwicklung bereithält, ist nun aber wieder, dass die Qualität der Lösungen von der Selektionsleistung abhängt, zu der die Software entweder 9. Siehe Tomor Elezkurtaj: Evolutionäre Algorithmen zur Unterstützung des kreativen architektonischen Entwerfens, unveröffentlichte Dissertationsschrift, TU Wien 2004; sowie: Tomor Elezkurtaj/Georg Franck: »Algorithmic support of creative architectural design«, in: Umbau 19 (2002), S. 129-37; online: http://www.iemar.tuwien.ac.at/publications.

241

Georg Franck

selbst oder in Verbindung mit der Bedienung Zugang hat. Die Kunst auch und gerade beim Entwickeln der Programme liegt in der Spezifikation beziehungsweise externen Ergänzung der Zielfunktion. In diesem Punkt unterscheidet sich der Umgang mit wohldefinierten und der mit schlecht definierten Problemen nicht. Vielmehr zeigt sich hier wie dort, dass das Werturteil der Wahrnehmung weiter geht, als der Simulation der Geistesmechanik zugänglich ist. Die maschinellen Entwurfshilfen unterstützen die Geistesmechanik, nicht die sinnliche Intelligenz. Sie sind hilfreich, wo die symbolische Manipulation für die unbewaffnete Aufmerksamkeit beschwerlich ist. Sie sind durchaus auch in der Lage, Neues zu entdecken. Es ist aber hoffnungslos, die Urteilsfunktion der Wahrnehmung an die Maschine delegieren zu wollen. Auf diese Urteilsfunktion baut das architektonische Denken und Dichten. Auf diese Urteilsfunktion kommt es auch an, wo Formensprachen gefunden werden, die architektonische Wohlgeformtheit verbürgen. Die Reduktion dieser Sprachen auf die Syntax besagt gerade nicht, dass die architektonische Wohlgeformtheit nur eine Frage der Syntax sei. Im Gegenteil. Sie besagt, dass die Sinne einen Sinn für den Formalismus haben. Sie haben einen Sinn für die Disziplin, die keinen Raum lässt für Beliebigkeit. Der Engpass beim architektonischen Denken liegt bei der Intelligenz, die in den Sinnen steckt. Dieser Engpass ist durch keine Maschinenleistung zu weiten. Die Maschine kann allerdings aufklären über die Empfindlichkeit und Präzision, die in den Sinnen stecken. Diese Aufklärung ist geeignet, gängige Urteile als Vorurteile herauszustellen wie das Urteil etwa, dass harte Regeln in der Gestaltung nur einschränken würden. Die Lektion, die die algorithmischen Formengrammatiken enthalten, ist geradezu revolutionär. Ein strenges Regelwerk könnte das am besten geeignete Mittel sein, um aus dem prosaischen Bauen die architektonische Dichtung zu machen, die das Zeug zum Klassiker hat.

242

IV. PROZESSE

Berechneter Zufall 1

Max Benses Informationsästhetik 1 INGEBORG M. ROCKER

Max Bense ist als Philosoph der technischen Existenz, Theoretiker des sprachlichen Zeichens, Patron der konkreten Poesie und nach Meinung eines Zeitgenossen als »infant terrible, Skandalautor der 50er und 60er Jahre,«2 der beinahe der Stuttgarter Universität verwiesen wurde, bekannt geworden. Der zentrale Ort für Benses immenses Schaffen war die Stuttgarter Universität, 3 an der er ab dem Sommersemester 1949 als Gastprofessor und ab dem Wintersemester 1950/51 als außerordentlicher Professor für Philosophie lehrte. Die damalige Technische Hochschule Stuttgart schien Bense ein idealer Ort, um seine Philosophie der Technischen Existenz zu entwickeln, galt es hier doch, die Geistesund Naturwissenschaften einander anzunähern.4 Seine Vorlesungen waren Ereignisse, die bis zu 200 Hörer aller Fakultäten der Universität ebenso wie »Happening Künstler und Bürgerschrecke«5 in den Bann zogen. Mein Beitrag beschränkt sich auf Bense als Informationsästhetiker6 und sein unmittelbares Umfeld in Stuttgart,7 die so genannte »Stuttgarter Schule«.8 1. Dieser Beitrag steht in engem Zusammenhang mit meinem PhD Project: Evolving Structures: Information Aesthetics and Architectures of the Digital Medium 1945-1970 (Princeton Universität). Zahlreiche der hier nur kurz angesprochenen Themen werden in dieser Arbeit wesentlich vertieft. 2. Horst Thomé: »Max Bense und die Literatur der fünfziger Jahre«, in: Ulrich Sieber (Hg.): Zum Gedenken an Max Bense: Reden und Texte an seinem 90. Geburtstag, Stuttgart 2000, S. 16-23, hier S. 18. 3. Von 1876 bis 1967 führte die heutige Universität Stuttgart den Namen Technische Hochschule Stuttgart, an der hauptsächlich technische Fächer gelehrt wurden. 4. Vgl. Harry Walter: »›... nur ein Ort meiner Füße‹, Max Bense in Stuttgart«, in: Ulrich Ott, Friedrich Pfäfflin, Thomas Scheuffelen (Hg.): Spuren 28 (September 1994), Marbach 1994, S. 2. 5. Horst Thomé: »Max Bense und die Literatur der fünfziger Jahre«, S. 18; vgl. Harry Walter: »›... nur ein Ort meiner Füße‹, Max Bense in Stuttgart«, S. 5-6. 6. Max Bense führt den Begriff »Informationsästhetik« erstmals 1956 in seinem Buch: Ästhetische Information, Aesthetica II, Krefeld, Baden-Baden 1956 ein. 7. Eine ergiebige Quelle zu Max Bense stellt der Internet-Reader »Als Stuttgart Schule macht« dar, der von Reinhard Döhl, Johannes Auer und Friedrich W. Block herausgegeben wurde: http://www.stuttgarter-schule.de/ 8. Während die Mitglieder der »Stuttgarter Schule« aufs engste mit Benses Institut verbunden waren, bestand die »Stuttgarter Gruppe« aus Intellektuellen, Künstlern und

245

Ingeborg M. Rocker

Zu Benses »Stuttgarter Schule« zählten insbesondere der Mathematiker und Textexperimentator Theo Lutz, die Mathematiker und Computerkünstler Georg Nees und Frieder Nake, der Architekt Manfred Kiemle, und last but not least die Literaturwissenschaftlerin und spätere Frau Benses, Elisabeth Walther. Sie alle haben Benses informationstheoretisch fundierte Ästhetik in theoretischer und praktischer Weise aufgegriffen. An der Stuttgarter Universität gründete Bense gemeinsam mit Fritz Martini auch das Studium Generale, das fächerübergreifende Studium, das die Ingenieurswissenschaften mit den philosophischen und sozialpolitischen Implikationen ihrer technischen Entwicklungen konfrontierte. Bense unterhielt in Stuttgart vielfältige Kontakte, etwa zu Vertretern konkreter Poesie oder der stochastischen Kunstanalyse; er wirkte darüber hinaus auch an der Hochschule für Gestaltung in Ulm, wo er von 1955 bis 1958 die Abteilung »Information« leitete. Disziplinäre Zuordnungsversuche scheinen daher eher schwierig, auch wenn sie immer wieder versucht wurden.9 Bense selber verbat sich jede Etikettierung.

Benses Technikverständnis Benses Informationsästhetik erschließt sich nur durch sein Natur- und Technikverständnis. Als Naturwissenschaftler und Philosoph war er fasziniert von den epistemologischen Debatten der Quantenphysik über die Unschärferelation und systemimmanente Zufälligkeit, betonten diese doch ein Verständnis der Naturphänomene, die durch die auf sie gerichteten Techniken sowie durch die sie anschreibende Mathematik mit konstituiert werden. Während Technikverdrossene über alternative Lebensformen ohne Hochtechnologien diskutierten, glaubte Bense nicht mehr an solche Wahlmöglichkeiten. Für ihn war das Leben unwiderruflich durch Technik geprägt. Bense sah das Potential der Technik, brachte sie doch nicht zuletzt auch neue Ästhetiken hervor. Mit der fortschreitenden Technisierung entstünden – so Bense – alternative Welten, die durch technische Apparate produziert werden und unsere Wahrnehmungs-, Denk- und Schaffensprozesse informieren: »Nicht die mathematische Beschreibung der Welt ist das Entscheidende, sondern die aus ihr gewonnene prinzipielle Konstruktivität der Welt, die planmäßige Schriftstellern, die mit Benses Theorien sympathisierten und in den Zeitschriften »augenblick« und »rot« veröffentlichten, bzw. in der Studiengalerie ausstellten. Zu dieser Gruppe gehörten als engerer Kreis die Schriftsteller Helmut Heißenbüttel, Ludwig Harig und Reinhard Döhl sowie die Typographen Klaus Burkhardt und Hansjörg Mayer. 9. Für ausführlichere Besprechungen der konkreten Literatur Szene in Stuttgart vgl. Reinhard Döhl: »Die sechziger Jahre in Stuttgart. Ein Exkurs.« http://www.stuttgarter-schule.de/ stutt60.htm vom 5. Dezember 2005; vgl. auch: Ulrich Sieber (Hg.): Zum Gedenken an Max Bense, Reden und Texte an seinem 90. Geburtstag, (Universitätsbibliothek Stuttgart, Reden und Aufsätze 64), hrsg. im Auftrag des Rektorats der Universität Stuttgart, Stuttgart 2000.

246

Berechneter Zufall

Antizipation einer mehr oder weniger abschließbaren zukünftigen künstlichen Realität.«10 Bereits in seinem früheren Aufsatz »Technische Existenz« schreibt Bense 1949: »Die Welt, die wir bewohnen ist eine technische Welt. Es ist die Welt der Prozesse, Funktionen [...] der Maschinen und Kalküle [...] Diese Welt ist keine bloße Möglichkeit, kein aufschiebbarer Entwurf, erdichtet auf einem Blatt Papier, sie ist unwiderrufliche Realität und nur Realität. [...] Wir bewohnen ein Netz von sichtbaren und nicht sichtbaren Funktionen und Relationen, Strukturen und Aggregaten aus Metallen und künstlichen Gesteinen, die sie Dörfer, Städte, Staaten und Kontinente genannt haben Uns trifft die Technik. [...] Sie betrifft uns mit der äußersten Härte, deren Realität überhaupt fähig ist. [...] Es gibt keine Einsamkeit, die es zuließe, dass die Technik nicht in sie mit ihren Berückungen träte. Was wir geschaffen haben, hat uns aufgenommen und hat nicht die Gnade, uns frei zu geben.«11 Bense begrüßt die Antizipation technisch- und mathematisch informierter Welten, die immer schon eine Erweiterung des bislang gegebenen Realisations-spektrums (und damit des Bewussteins) beinhalten. Hierin sieht Bense das kreative, ja, auch humane Potential der Technik, denn »nur antizipierte Welten sind programmierbar und human bewohnbar.«12 Umso überraschender mutet an, dass ausgerechnet das Unberechenbare, der Zufall, eine wesentliche Rolle in Benses Weltentwürfen spielen wird.

Informationsästhetik Die ›Gemachtheit‹ der Welt thematisiert Bense insbesondere im Rahmen der Informationsästhetik. Ästhetik wird hierbei als ein Prozess der materiellen wie auch perzeptiven Realisation begriffen und geht damit über tradierte Ästhetikkonzepte hinaus. In seinem Buch Ästhetische Information, Aesthetica II (1956)13 unterscheidet Bense zwischen der klassischen und der modernen (seiner) Ästhetik: während die klassische Ästhetik Schönheit als eine fest mit dem Gegenstand verbundene Charakteristik annimmt, gründet Schönheit in Benses Ästhetik auf der fortlaufenden Formation von Signalen, Zeichen und Zeichenreihen. Benses Ästhetik geht deshalb – im Gegensatz zur klassischen Ästhetik, die sich auf das Wahrnehmen des Kunstwerkes be-

10. Max Bense: Einführung in die informationstheoretische Ästhetik, Reinbek 1969, S. 71. Nachdruck in: Max Bense, Ausgewählte Schriften, Bd. 3: Ästhetik und Texttheorie, Stuttgart, Weimar 1998, S. 335. 11. Max Bense: Technische Existenz: Essays von Max Bense, Stuttgart 1949, S. 191-192. 12. Max Bense: Einführung in die informationstheoretische Ästhetik, S. 72; vgl. zum Bense’schen mathematischen Existenzialismus: Christoph Hubig: »Mathematischer Existenzialismus«, in: Ulrich Sieber im Auftrage der Universität Stuttgart (Hg.): Zum Gedenken an Max Bense, Reden und Texte an seinem 90. Geburtstag, S. 26-36. 13. Vgl. Max Bense: Ästhetische Information, Aesthetica II, Krefeld, Baden-Baden 1956.

247

Ingeborg M. Rocker

schränkte – von einer Ästhetik des Machens und Hervorbringens aus: »Ästhetische Realität ist gemachte Realität, nicht gegebene Realität.«14

Abb. 1: Claude Elwood Shannon: Sender-Empfänger-Diagramm (1948). - Aus: Claude Elwood Shannon: The Mathematical Theory of Communication, Urbana 1963, S. 5.

Über Jahre suchte Bense nach einem universellen Prozess, der sowohl für die ästhetische Realität, als auch für ihre Perzeption gleichermaßen ›wesentlich‹ sein könnte. Als Bense 1949 von einem in die USA ausgewanderten Mentor15 eine Büchersendung aus den USA zugesandt bekam, die Claude Elwood Shannons Mathematical Theory of Communication16 (1949) und Norbert Wieners Cybernetics17 (1948) enthielt, war seine Suche beendet. Denn mit der Lektüre von Shannons Informationstheorie war eine materielle und symbolische Bereiche gleichermaßen überspannende konstituierende Kraft ausgemacht: der Prozess der stochastischen Selektion.

14. Max Bense: »Allgemeine Texttheorie«, in: augenblick 5 (Oktober-November 1958), S. 35-41, hier S. 35. 15. Max Benses ›Mentor‹ war Dr. Hollmann, der 1947 mit der Operation Paperclip in die USA übersiedelte und dort bei der NASA tätig wurde. Paperclip war das Codewort für eine Operation des US-Geheimdienstes, in der deutsche Wissenschaftler, die im nationalsozialistischen Deutschland an militärischen Technologien gearbeitet hatten, mit ihren Familien in die USA geholt wurden. Hollmann schickte Bense 1949 Norbert Wieners »Cybernetics or control and communication in the animal and the machine«. Vgl. Elisabeth Walther: »Max Bense und die Kybernetik«, in: Gerhard Dotzler (Hg.): Computer Art Faszination: Hersteller und Dienstleister, Frankfurt/Main 1999, S. 360. 16. Vgl. Claude Elwood Shannon: »The Mathematical Theory of Communication«, in: Bell System Technical Journal 27 (1948), S. 379-423, S. 623-656; Claude Elwood Shannon: The Mathematical Theory of Communication, Urbana 1949. 17. Vgl. Norbert Wiener: Cybernetics or Control and Communication in the Animal and the Machine, Cambridge, Mass. 1948.

248

Berechneter Zufall

Abb. 2: Claude E. Shannon: Informationstheorie, 5 Approximationen in Richtung eines englischen Textes (1948). - Aus: Claude E. Shannon: The Mathematical Theory of Communication, Urbana 1963.

249

Ingeborg M. Rocker

Von den kryptologischen Systemen des 2. Weltkrieges inspiriert entwickelte Shannon ein mathematisches Modell der Informationsübertragung. Hierbei schlug Shannons Theorie vor, bei der Kommunikation von Nachrichten ihre stochastische Beschaffenheit auszunutzen und Kanalkapazitäten zu berücksichtigen. Shannon nahm an, dass der Sprache stochastische Strukturen unterlägen und dass die Abfolge der Buchstaben durch Übergangswahrscheinlichkeiten bestimmt sei. Er schloss daraus, dass Nachrichtenquellen mittels Markovprozessen beschreibbar seien.18 Der russische Mathematiker Andrei Andreevich Markov19 hatte 1913 20.000 Buchstaben des Romans »Eugene Onegin« von Puschkin untersucht und die stochastische Verteilung von Vokal- und Konsonantenverbindungen berechnet. Markovs große Entdeckung waren die bislang völlig unbemerkten stochastischen Strukturen, die jede Sprache unabhängig von semantischen oder syntaktischen Regeln kennzeichnen. Shannon ging über Markovs Analyse hinaus, indem er ein Modell für die Informationsquelle entwarf, das Sprache auf der Basis von Übergangswahrscheinlichkeiten zu synthetisieren vermochte. Ausgehend von den 27 Zeichen der englischen Sprache, 26 Buchstaben und einem Leerzeichen, begann Shannons Informationsquelle, Text zu generieren. Es entstanden Buchstabengefüge, die keinen Autor hatten und abhängig von den gewählten Ordnungen der Markovketten englischen Texten immer ähnlicher wurden. Es war Shannon gelungen, ein Modell der Sprachgenerierung zu entwerfen und darüber hinaus Sprache mit Mitteln der Stochastik zu begründen.20

Benses Informationsästhetik Bense nahm diese Forschungsergebnisse euphorisch auf und interpretierte Shannons Modell der Informationsquelle auf seine Weise und für seine Zwecke. Insbesondere Benses Schrift Programmierung des Schönen21 (1960) entwarf in 18. Vgl. Warren Weaver: »Recent Contributions to the Mathematical Theory of Communication«, in: The Mathematical Theory of Communication, Urbana 1963, S. 102. 19. Andrei Andreevich Markov (1856-1922), Professor an der Akademie der Wissenschaften in St. Petersburg, arbeitete auf dem Feld der Wahrscheinlichkeitstheorie und stellte die so genannten Markov-Ketten 1906 in dem Artikel »The Extension of the Law of Large Numbers on Mutually Dependent Variables« vor; vgl. die erste deutsche Übersetzung in William E. Simmat (Hg.): »Objektive Kunstkritik« in: Exakte Ästhetik 6, Stuttgart 1969, S. 52-59; vgl. auch: Philipp von Hilgers, Wladimir Velminski (Hg.): Andrej A. Markov. Berechenbare Künste, Zürich, Berlin 2007. 20. Vgl. Claude, E. Shannon: The Mathematical Theory of Communication, Urbana 1963, S. 15; Shannon beschreibt einen allgemeinen Fall dieser Modelle: »There exist a finite number of possible ›states‹ of a system; S1; S2; : : : ; Sn. In addition there is a set of transition probabilities; pi( j) the probability that if the system is in state Si it will next go to state Sj. To make this Markov process into an information source we need only to assume that a letter is produced for each transition from one state to another. The states will correspond to the ›residue of influence‹ from preceding letters.« 21. Vgl. Max Bense: Programmierung des Schönen, Krefeld, Baden-Baden 1960.

250

Berechneter Zufall

direkter Anlehnung an Shannon eine neue Theorie: die Informationsästhetik. Hatte Shannon, der Ingenieur der Bell Labs, sich mit Markovketten beschäftigt, um die Nachrichtentechnik zu optimieren, interessierte Bense, den Philosophen, an Shannons Modell die sukzessive Emergenz von Strukturen, die aus einer unstrukturierten Textmaterialität mittels stochastischer Selektion hervortraten. Stochastische Selektion strukturierte ungeordnete, unbegreifliche und ungreifbare Textmaterialitäten unter Berücksichtigung systeminhärenter Übergangswahrscheinlichkeiten. Aus fortschreitenden Approximationen emergierten lesbare Texte22 – und mit ihnen Benses Schöpfungsidee.23 Denn immer aufs Neue, aus der Berechnung der systeminhärenten Wahrscheinlichkeiten, kommt etwas zum Vorschein. Und dieses Hervorscheinen, dieses Hervortreten verstand Bense als konkrete Realisation eines gegebenen Systems zu einem gegebenen Zeitpunkt. Nur das, was eine Strukturierung mittels stochastischer Selektion erfahren hat, kann aus den Weiten unstrukturierter Materialität hervortreten und dann durch die perzeptive Realisation begriffen werden. Die perzeptive Realisation ist – so Bense – nichts anderes als eine Signalübertragung von Sender zum Empfänger, mithin Kommunikation. Bense, so könnte interpretiert werden, scheint von zwei Stufen der Realisation auszugehen: einer Realisation im Sinne einer Materialisation (Realisation 1. Ordnung) und einer zweiten Realisation im Sinne einer Perzeption (Realisation 2. Ordnung). Während für erstere Shannons Modell der Informationsquelle Pate stand, war es für letztere Shannons gesamtes SenderEmpfänger-Schema. Beiden Realisationen ist die eingangs erwähnte stochastische Selektion wesentlich.24 Die ästhetische Realisation war zugleich ein Informations- und Kommunikationsprozess, wie Bense ausführte. Diese Auffassung hatte auch Konsequenzen für die Ästhetik: »Es ist bekannt, daß in dem Maße wie Logik und Grammatik die natürliche oder triviale Kommunikationsfähigkeit der Sprache begründen, die Statistik der Buchstaben, Silben und Worte, also ihre Häufigkeitsverteilung jedoch die ästhetischen Zustände ausmacht. Ästhetische Häufigkeitsverteilungen, die sich in dieser oder jener Hinsicht als extreme zu erkennen geben, können heute durch ein bewußtes wie auch durch ein maschinelles Eingreifen in sprachliche Repertoire Zufallsgeneratoren erzielt werden. Kybernetische Kunst, kybernetische Texte, Prosa und Poesie treten damit ins Gesichtsfeld. Wie weit es sich 22. In der Studiengalerie der Stuttgarter Universität, die dem Studium Generale angeschlossen war, wurden im Wintersemester 1959/60 Shannons stochastische Textapproximationen gezeigt. 23. Vgl. Max Bense: Programmierung des Schönen, S. 91. 24. Spätere Entwicklungen der Bense’schen Informationsästhetik werden zunehmend – in Anlehnung an die Peirce’sche Semiotik – die perzeptive Realisation als einen Zeichenprozess interpretieren.

251

Ingeborg M. Rocker

bei ihnen um bloße menschliche Analogien handelt oder um eine ursprüngliche Maschinenproduktivität, hängt davon ab, wie weit wir selbst die maschinellen Möglichkeiten rational in der Hand halten. Daß es sich aber bei der hier wenigstens anvisierten Art experimenteller Literatur um ein im Prinzip verteidigungswürdiges Unternehmen schöpferischen Geistes handelt, erhellt daraus, daß ihre Vorgänge und Ergebnisse echte Kommunikationsketten sind, auch wenn sie inhaltsreiche oder formale Gesichtspunkte irrelevant werden lassen und vorwiegend die Funktion des ›Machens‹ bestätigen. Im ›Machen‹, der Kunst als ›hergestellter Objektivität‹, erscheint die Kommunikationskette als das, was wir eine ›Realisationskette‹ nennen.«25 Zu diesem Zeitpunkt glaubte Bense, mit der Informationstheorie den Schlüssel zum gemeinsamen materiellen und linguistischen Wesensgrund der Welt gefunden zu haben. So ging er davon aus, dass ein wirklicher und verwirklichender Prozess für die physikalischen und ästhetischen Erscheinungen der Welt sorgen. Während der physikalische Prozess auf einen Systemzustand maximaler Entropie (Unordnung) zuläuft, wirkt der nach maximaler Negentropie26 (Ordnung) strebende ästhetische Prozess diametral entgegengesetzt. In Benses Modell bilden Physik und Ästhetik, obwohl als Prozesse diametral entgegengesetzt, eine Einheit; für beide bieten stochastische Prozesse den Grund jeglicher Realisierung und Realisierbarkeit. Das radikale Fazit der Bense’schen Informationsästhetik lautet insofern, dass Natur, Wissenschaften und Ästhetik einen gemeinsamen instabilen Grund teilen: die Wahrscheinlichkeit. Realität »ist« somit niemals, sondern ist immer nur wahrscheinlicher als eine der vielen möglichen anderen Realisationsmöglichkeiten. Das Verständnis von Realisationen im materiellen wie auch perzeptiven Sinne hat mit Benses Informationsästhetik eine radikale Revision erfahren. Mathematische Prozesse ordnen im doppelten Sinne des Wortes die Konstruktionen und Destruktionen der Materialität an und überführen derart das Unanschauliche ins Anschauliche. Doch konnten tatsächlich alle emergierenden Organisationen, gleich ob physischer oder symbolischer Art, auf ein und denselben Prozess der stochastischen Selektion zurückgeführt werden? Zumindest für einen Moment schien dies so. Und es war dieser Anschein, der gewaltige diskursive Energien freisetzte. Bense war nicht alleine mit seiner Begeisterung über Shannons Informationstheorie.

25. Max Bense: »Movens. Experimentelle Literatur«, in: Grundlagen aus Kybernetik und Geisteswissenschaft 1,1 (Oktober 1960), S. 122-126, hier S. 126 26. Den Begriff Negentropie prägte 1953 Léon Brillouin in Anlehnung an Erwin Schrödingers Konzept von Entropie und negativer Entropie. Vgl. Erwin Schrödinger: What is life? The Physical Aspect of the Living Cell, Cambridge, New York 1945; Léon Brillouin: »Negentropy Principle of Information«, in: Journal of Applied Physics 24,9 (1953), S. 1152-1163; Léon Brillouin: La science et la théorie de l’information, Paris 1959.

252

Berechneter Zufall

Das durch die Informationstheorie hervorgerufene kreative Momentum war fächerübergreifend. Gleich ob Bild, Musik oder Architektur, alles schien zunächst berechenbar. Erst die tatsächliche Engführung von Informationsästhetik mit dem digitalem Medium, damals schlicht Rechenmaschine genannt, durch Benses unmittelbares Umfeld in Stuttgart wies die Berechenbarkeit in ihre Schranken: technische Widerstände wurden von konzeptionellen begleitet oder riefen diese erst hervor. Schnell stand fest, dass die schlichte Applikation Bense’scher Theorien alles andere als einen schlichten Tastendruck bedeutete. Was war wie berechenbar? Wie konnten analytische, perzeptive und kreative Prozesse in Algorithmen transponiert werden? Was geschah mit dem, was unberechenbar – und somit nicht in das digitale Medium transponierbar war – sich ihm also entzog? Die technische Umsetzung der Bense’schen Theorien führte letztlich nicht nur zu neuen Techniken, Technologien und Studienfächern, sondern auch zu einer Präzisierung der Informationsästhetik selbst, wie die folgenden Beispiele verdeutlichen sollen.

Bildende Kunst und Architektur Benses Informationsästhetik bot insbesondere der bildenden Kunst eine Methode der Analyse und Synthese. Wiederum sind insbesondere die Implikationen der Shannonschen Informationstheorie für die Lehre Benses, als auch deren Umsetzung in die Praxis von besonderem Interesse. Shannons Theorie befasste sich mit der effizienten Signalübertragung von Sender zu Empfänger. Hierbei interessierte ihn weder, ob Sender oder Empfänger Menschen oder Maschinen waren, noch welchen möglichen semantischen Gehalt die Signale übermittelten. Shannon ging es lediglich um die Quantifizierbarkeit von Information. Diesen Ansatz nun auf ›ästhetische Produktion‹ und ›ästhetische Perzeption‹ zu übertragen, wie Benses Informationsästhetik es versuchte, schien ein Affront gegen alle tradierten Formen der Kunstproduktion und Kunstbewertung. Wie sollte Kreativität und die Perzeption derselben formalisierbar, berechenbar werden? Doch genau dies, die Einführung von Bewertungs- und Verfahrensnormen, strebte Bense an: Seine analytische »Ästhetik [war ...] bemüht den ästhetischen Effekt, den das Kunstwerk auslöst, berechenbar und messbar zu machen und [ihn] im Quotienten von Ordnung und Komplexität zu erfassen.«27 Wichtige Referenz für diese mathematische Bestimmung des ästhetischen Maßes waren die Arbeiten des US-amerikanischen Mathematikers George David Birkhoff. 28 27. Horst Thomé: »Max Bense und die Literatur der fünfziger Jahre«, S. 18. 28. Vgl. David Birkhoff: Aesthetic Measure, Cambridge 1933. Birkhoffs Arbeiten versuchten eine objektive ästhetische Theorie zu entwickeln, die auf mathematischen Methoden gründete. Von zentraler Bedeutung war die Ermittlung des ästhetischen Maßes M = O/C, das den Grad der Ordnung ins Verhältnis zum Grad der Komplexität eines Kunstwerkes setzt.

253

Ingeborg M. Rocker

Abb. 3: George D. Birkhoff, Mathematische Bestimmung des ästhetischen Maßes für Vasen: M = H + V + HV + T (Ordnung) 29 C (Komplexität) Birkhoffs objektives Maß orientierte seine ›Objektivität‹ an tradierten Evaluierungskriterien, die Präferenzen für Ordnung und Symmetrie hegten. Das ästhetische Maß wächst mit der Ordnung. - Aus: George D. Birkhoff: »einige mathematische elemente der kunst«, übersetzt aus dem Französischen von Elisabeth Walter, in: edition rot 37, Stuttgart 1968.

Doch Birkhoffs Theorie, die zwar eine mathematische Fundierung der Ästhetik versuchte, aber ihre Evaluierungsparameter an tradierten Kompositionsprinzipien orientierte, war nicht auf den für die Shannon’sche Informationstheorie unentbehrlichen Übergangswahrscheinlichkeiten gegründet. Einzig die quantitative Beurteilung von Daten (Kunst und Musik) schien der Shannon’schen Informationstheorie verwandt. Erst 1962 gelang mit der Doktorarbeit Rul Gunzenhäusers30 am Lehrstuhl von Bense die informationstheoretische Fundierung der Birkhoff’schen Theorie. Das Kunstwerk wurde darin nicht länger durch kunsthistorische Interpretationsansätze, sondern rein quantitativ analysiert. Ein Wendepunkt in der Ästhetik-Theorie war erreicht: Kunstwerke waren Träger von Information und ihr Informationsgehalt berechenbar. Inwieweit Benses Behauptungen auch für die Architektur galten, untersuchte der Architekt Manfred Kiemle in seiner Doktorarbeit »Ästhetische Probleme der Architektur unter dem Aspekt der Informationsästhetik«31 (1967) an der Technischen Universität Berlin. Seine Arbeit exemplifizierte und kri29. Die simplere Formel M = O/C wurde für die Bewertung von Vasen erweitert, indem die Ordnungsparameter näher bestimmt wurden: es entspricht C (Komplexität) der Gesamtheit der charakteristischen Punkte, die die Konturlinie der Vase determinieren; H ist die Relation der horizontalen, V der vertikalen Linien des Koordinatensystems; HV die Relation zwischen H und V und T die Beurteilung der Tangentenrichtungen an den charakteristischen Punkten der Konturlinie einer Seite. 30. Vgl. Rul Gunzenhäuser: Ästhetisches Mass und ästhetische Information, Quickborn 1962. 31. Vgl. Manfred Kiemle: Ästhetische Probleme der Architektur unter dem Aspekt der In-

254

Berechneter Zufall

tisierte Benses Analysemethodik. Benses Theorie, die Kunstwerke und ihre Realisation ausschließlich durch quantitative Mess- und Rechenvorschriften bewertet sehen wollte und Schönheit für objektiv berechenbar hielt, entgegnete Kiemle, dass es gerade keine absoluten ästhetischen Maßstäbe gebe, die numerisch ›Schönheit‹ als solche determinieren könnten. Für Kiemle war daher Benses Informationsästhetik nur dann haltbar, wenn sie um die von Helmar Frank 1959 eingeführte Informationspsychologie ergänzt wurde, die die Wahrnehmung und somit das Zustandekommen ästhetischer Wertschätzungen erforschte. Es ging Kiemle weniger um die objektive Determinierung des Schönen – als eine dem Objekt eigene Charakteristik – als vielmehr um das Schöne als Resultat eines Bewertungsprozesses. Kiemles Informationsästhetik postulierte keine Werte für »das Schöne« als solches, sondern beschrieb numerisch die Prozesse, durch die etwas als ›schön‹ festgestellt werden konnte. In enger Anlehnung an Shannons Sender-Empfänger-Modell wurden in Kiemles Darstellung Architekten zu Sendern und Architekturen zu Nachrichten, zu Zeichensystemen, zu Signalsequenzen. Architektur als effektive Signalsequenz, so Kiemles Theorie, kann numerisch analysiert werden. Dieser Ansatz ist symptomatisch für den Bense-Kreis, der die gesamte physische Welt als ein universelles Zeichenrepertoire, und jede der in ihr existierenden Beziehungen als einen kommunikativen Signalprozess verstand. Nur vor diesem Hintergrund ist zu verstehen, warum sich die zahlreichen informationstheoretischen Analysen lediglich mit Organisationen oder Strukturen, nicht aber mit Inhalten befassten. Auch Kiemles Methoden grenzen sich scharf von der tradierten Architektur- und Kunsttheorie ab, erweitern im Anschluss an Frank und Bense die Informationsästhetik und wenden sie nun auf Architektur an. Die erste Hürde, die Kiemle dabei nehmen muss, ist die Ausweitung des Ansatzes auf »zwei- und dreidimensionale Verteilungen, denn darum handelt es sich bei der Anwendung der Informationstheorie im Bereich der Architektur.«32 Er lehnt sich bei der Informationsgehaltsberechnung33 zunächst eng an Shannons Modellrechnung an und legt seiner Berechnung Architekturelemente zugrunde. Kiemle behandelt diese Elemente allerdings wie Zeichen oder Buchstaben, wenn er das Fassadenbild Element für Element liest. In einem monotonen Fassadenbild, dem des Hauptgebäudes der Stuttgarter Universität, lösen sich Fassadenstützen (X1), Fenster (X2), Fenstersprossen (X3), Brüstungsfelder (X4) formationsästhetik, Quickborn 1967; vgl. dazu auch den Beitrag von Claus Pias in diesem Band. 32. Manfred Kiemle: Ästhetische Probleme der Architektur, S. 66. 33. Eine gute Erläuterung des Informationsgehalts als logarithmisches Maß umgekehrt proportionaler und aufsummierter Wahrscheinlichkeiten liefert Claude Shannon in dem Artikel »Informationtheory«, den er ca. 1955 für die Encyclopaedia Britannica schrieb. Vgl. Encyclopaedia Britannica, Bd. 12, 14. Aufl., Chicago 1968, S. 246-249.

255

Ingeborg M. Rocker

und Jalousettenkästen (X5) ab. Diese Elemente treten unterschiedlich häufig auf, so kommen etwa in der Fassade mehr Fenster vor als Fassadenstützen. Kiemles erste Beispielrechnung erfasst damit eine strukturelle Ordnung, wie sie Shannon anhand einer künstlichen Textgenerierung aufzeigt, bei der alle Buchstaben mit den ihnen gemäßen Häufigkeitsverteilungen im Englischen auftreten. Mit anderen Worten, würden die Elemente in der von Kiemle zugrunde gelegten Fassade durcheinandergerüttelt werden, dann sähe die Fassade viel unregelmäßiger aus, ihr Informationsgehalt wäre allerdings derselbe. Bei dem von Kiemle herangezogenen Fassadenbild des Stuttgarter Universitätsgebäudes fällt jedoch sofort auf, dass die Elemente nicht in wahlloser Reihenfolge aufeinander folgen. Mit der Kenntnis eines Stockwerks der Fassade ergibt sich die Kenntnis aller anderen Stockwerke. Jedes Stockwerk selbst besteht aus einem sich wiederholenden Ensemble bestimmter Elemente. Die Kenntnis dieses einen redundanten Ensembles reicht, um den Rest der Fassade erschließen zu können. Zieht man nun vom Informationsgehalt, der mathematisch ohne die Berücksichtigung bedingter Wahrscheinlichkeiten berechnet wurde, jenen ab, der auf bedingten Wahrscheinlichkeiten basiert, dann ergibt dies – wie Kiemle vorrechnet – die Redundanz. Redundanz ist also ein Maß, das die Regelmäßigkeit einer Struktur widerspiegelt oder, subjektiv gewendet, die Absehbarkeit einer Struktur. Kiemle spricht sogar schlicht von einem Maß für Langeweile.34 Auch wenn beleuchtete und unbeleuchtete Fenster in der Architektur wahrscheinlich noch nie zuvor als Fassendenelement behandelt wurden, lässt Kiemle es sich nicht nehmen, seine Analyse um diesen Aspekt zu erweitern. Damit schließt er jedoch (unfreiwillig) die Informationstheorie mit ihrer Geschichte kurz. Schließlich zielt Shannons Informationstheorie auf die digitale Nachrichtentechnik, die mit einfachen Relais, also Ein- und Ausschaltern ihren Anfang nahm. Kiemle kann jetzt problemlos jedem Fenster ein Bit an Information zusprechen: Entweder leuchtet es oder es leuchtet nicht. Mit 216 Fenstern hat die gesamte Fassade eine Information von 216 Bit. Die Gruppierung einer Reihe beleuchteter und unbeleuchteter Fenster bezeichnet Kiemle als Superierung.35 Mit jeder Neugruppierung errechnet sich folglich der Informationsgehalt aufs Neue. Insofern lässt sich festhalten, dass es Kiemle weniger darum geht, seine Methode am architektonischen Gegenstand zu schärfen, vielmehr modifiziert er den architektonischen Gegenstand derart, dass das Instrumentarium der Informationstheorie voll ausgeschöpft werden kann, bzw. die Architektur selbst zu einem Informationsdisplay wird.

34. Vgl. Manfred Kiemle: Ästhetische Probleme der Architektur, S. 68. 35. Superierung ist die Fähigkeit, Einzelheiten zu einem Ganzen zusammenzufassen zwecks Abstraktion komplexer Sachverhalte. Die so entstehende Ganzheit wird Superzeichen genannt.

256

Berechneter Zufall

Abb. 4: Manfred Kiemle: Fassade des Stuttgarter Universitätsgebäudes (1967). - Aus: Manfred Kiemle: Ästhetische Probleme der Architektur, S. 65.

Interessant ist, wie Kiemle die Informationsästhetik aufbauend auf der Informationstheorie dazu nutzt, um materielle Strukturen unmittelbar mit einem Perzeptionsvorgang zu koppeln. Ästhetische Wahrnehmung ist nichts anderes als das Auffinden von Ordnungsstrukturen:36 diese Superzeichen bildet das wahrnehmende Subjekt sukzessive aus einem Repertoire von Zeichen als Zeichenkomplexe. Diesen Prozess der »Superierung« hält Kiemle für eine der Grundvoraussetzungen aller Erkenntnis- und Lernvorgänge. Entsprechend versucht er, mögliche Betrachtungsstufen zu differenzieren, die kenntlich machen, welcher perzeptionelle Aufwand wie lange betrieben werden muss. Je mehr Zeit in Anspruch genommen wird, desto größer ist der Informationsgehalt – und in letzter Konsequenz auch der ästhetische Gehalt. Daraus lässt sich schließen, dass Kiemles Informationsästhetik – als Kritik an Bense – den Informationsgehalt einer Fassade nicht nur als eine Charakteristik des betrachteten Objektes, sondern als das Resultat eines subjektiven Wahrnehmungsprozesses annimmt und berechnet:37 »Soll ein Bauwerk in 36. Vgl. Manfred Kiemle: Ästhetische Probleme der Architektur, S. 38. 37. Kiemles weitere experimentelle Untersuchungen – methodisch an den Shannonschen

257

Ingeborg M. Rocker

einem ästhetischen Wahrnehmungsprozeß fungieren, ihn hervorrufen und eine gewisse Zeit in Gang halten, dann darf der Informationsgehalt nicht schon auf der elementaren Betrachtungsstufe so gering sein, dass alle Einzelheiten sofort überschaubar sind. Damit die selektive Phase einsetzen kann, muß der Betrachter aus einem Überangebot an Information auswählen können. Dieses Überangebot an Information muß allerdings so beschaffen sein, dass sich aus der Zeichenfülle Superzeichen der nächsten Stufe als Ordnungsbeziehungen, d.h. Formen, Gestalten, Strukturen, abheben.«38 Je mehr Betrachtungsebenen ein Bauwerk anbietet, desto häufiger vollzieht sich der ästhetische Wahrnehmungsprozess. Der Genuss an einem Bauwerk ist also nicht auf eine Charakteristik des Bauwerkes, sondern vielmehr auf den Wahrnehmungsprozess zurückzuführen, auf die Konfrontation mit dem Komplexen und dessen (wahrnehmungsbedingter) Informationsreduktion. Schön ist somit nicht die ›gute Form‹, die schlicht auf ihr Minimum abstrahiert ist, sondern schön ist all jenes, was komplex ist und genügend ästhetische Information enthält, um den Wahrnehmungsprozess in Gang zu halten. Gerade dies gelingt den meisten modernen industriell produzierten Architekturen jedoch nicht: Die Wiederholung des identisch Einen, so charakteristisch für die normierte und standardisierte Moderne, ist – so Kiemle – für einen ästhetischen Wahrnehmungsprozess schlicht zu informationsarm!39 Als Gegenmittel empfiehlt Kiemle eine stärkere Durchformung der Außenflächen und die Einführung des scheinbar Zufälligen zur Steigerung des ästhetischen Informationsgehaltes der Architektur. Die Absage an die minimalistische Moderne und die Ausrufung einer Architektur des Zufälligen ist 1967 noch sehr provokant, auch wenn bereits vier Jahre zuvor Benedikt Huber in seinem Text »Architektur des Zufalls« eine ähnliche Trendwende prognostizierte: »Das Regelmäßige, die Wiederholung, die der Technik naturgemäß innewohnt, sucht man durch Unregelmäßigkeiten zu ersetzen. An Stelle von durchgehenden Linien aufgelöste Konturen, an Stelle der Fläche und Membran plastische Formen, an Stelle des geschlossenen Körpers, aufgelöste Form, an Stelle des Logischen das Undefinierte.«40

Ratetest von 1951 angelehnt – versuchen die Redundanz oder den Überraschungswert des zu untersuchenden Elementes in Bezug auf das architektonische Gesamt-Repertoire einer Gesellschaft zu ermitteln. Mussten Shannons Probanden die fehlenden Buchstaben eines unvollständigen Textes ergänzen, gilt es bei Kiemles Experiment, unvollständige Architekturen zu ergänzen. Vgl. Claude E. Shannon, »Prediction and Entropy of printed English«, in: The Bell System Technical Journal 30 (1951), S. 50-64; Manfred Kiemle: Ästhetische Probleme der Architektur, S. 74. 38. Manfred Kiemle: Ästhetische Probleme der Architektur, S. 99. 39. Vgl. Manfred Kiemle: Ästhetische Probleme der Architektur, S. 10. 40. Benedikt Huber: »Architektur des Zufalls«, in: Werk 7 (1963), S. 264.

258

Berechneter Zufall

Doch anders als für Huber existieren für Kiemle Logik und Zufall nicht mehr als dialektisches Paar und auch der Zufall ist nicht mehr das Undefinierbare.

Generative Ästhetik – die logischen Künste des Zufalls Zufall spielte auch in der »Generativen Ästhetik« eine wesentliche Rolle. Ihre Ergebnisse feierten bereits 1965 mit Georg Nees Computergraphiken Weltpremiere: Zum ersten Mal wurde Computerkunst der Öffentlichkeit in der von Bense geleiteten Studiengalerie der Stuttgarter Universität präsentiert. Es folgten zahlreiche weitere Ausstellungen im In- und Ausland, von denen »Cybernetic Serendipity« (1968) am Institute of Contemporary Arts, London, und »Software und Tendencies 4« (1968) in der Galerie für Zeitgenössische Kunst in Zagreb am meisten Aufsehen erregten. Die meisten der gezeigten Werke erfreuten sich mehr der spielerischen Möglichkeiten der neuen Maschine ›Computer‹, als dass sie sich auch nur ernsthaft mit Benses Vision der Kunst als Selektion eines Zeichenrepertoires auseinandersetzen wollten. Diese frühen gadgets waren daher keineswegs generative Ästhetiken im strengen Sinne der Bense’schen Definition: »unter generativer aesthetik ist die zusammenfassung aller operationen, regeln, theoreme zu verstehen, durch deren anwendung auf eine menge materialer elemente, die als zeichen fungieren können, in dieser ästhetische zustände (verteilungen bzw. gestaltungen) bewusst oder methodisch erzeugbar sind.«41 Der generative Prozess besteht aus zwei Phasen: einer konzeptionellen Phase und einer realisierenden Phase. Während in der ersten Phase artistische Prozeduren in kalkulierbare Programmroutinen überführt werden, beginnen diese in der zweiten Phase, Kunst und Architektur zu generieren. Berechenbare künstlerische Aktivitäten erfahren damit ihre Transposition in Maschinenprogramme. Alles Unberechenbare und algorithmisch nicht Aufschreibbare scheidet hierbei aus. Die Arbeiten der Mathematiker und Computerkünstler Georg Nees (Siemens, Erlangen) und Frieder Nake (Rechenzentrum Stuttgart) zeugen auch von den technischen Widerständen, auf die die Versuche stießen, Benses Theorien der »Programmierung des Schönen« tatsächlich zu programmieren. Seit 1959 arbeitete Ness am digitalen Computer. Aber es sollte noch bis 1964 dauern, bis er – ausgestattet mit dem Rechner SIEMENS 2002,42 einem ZUSE41. Max Bense: »projekte generativer aesthetik«, in: rot 19 (1965), S. 11-13, hier S. 11. 42. Der erste Prototyp des System SIEMENS 2002 war 1956 fertig gestellt und wurde ab 1959 ausgeliefert. Als Universalrechner für den kommerziellen und technisch-wissenschaftlichen Einsatz konzipiert, waren die gesamten Schaltkreise im Bausteinprinzip aus steckbaren und mit Transistoren bestückten Baugruppen realisiert. Das System war der erste volltransistorisierte Universalrechner, der in Serie hergestellt wurde. Die anschließbaren Peripheriegeräte

259

Ingeborg M. Rocker

GRAPHOMATEN43 und den Texten von Max Bense44 – nicht nur berechnen sondern auch zeichnen lassen konnte und die ersten Computergraphiken 23Ecke (1964) und 8-Ecke (1964) entstanden. Erste Veröffentlichungen folgten in der vom Bense-Schüler Helmar Frank herausgegebenen Zeitschrift Grundlagenstudien aus Kybernetik und Geisteswissenschaften im Dezember 1964.45

Abb. 5: Karl Zuse: Lochstreifengesteuerter ZUSE-GRAPHOMAT Z64. - Aus: http://irb.cs.tuberlin.de/~zuse/Konrad_Zuse/img/Rechner_Z64_1.gif vom 6. August 2004. Vgl. Jürgen Alex/Hermann Flessner/Wilhelm Mons/Kurt Pauli/Horst Zuse (Hg.): Konrad Zuse: Der Vater des Computers, Fulda 2000, S. 85.

Bei der exakten Umsetzung von Benses Thesen stößt Nees immer wieder auf technische Schwierigkeiten. Wie lassen sich Benses Begriffe der Redundanz und Innovation algorithmisch umsetzen? Die Lösung scheint in der Verwendung von Pseudozufallsgeneratoren zu liegen. Berechneter Zufall wurde damit zur wesentlichen ästhetischen Komponente der Computergraphik. Bereits Nees computergenerierte Graphiken von 1964 haben eine aleatorische Komponente. waren Blattschreiber, Lochstreifengeräte, Lochkartengeräte, Magnetbänder und Schnelldrucker. Monitore gab es für den SIEMENS 2000 nicht. Zur Programmierung konnten die Sprachen PROSA 2002, MAGNUS 2002 und in eingeschränktem Umfang auch ALGOL verwendet werden. Der Rechner SIEMENS 2002 ist bis Mitte 1966 gefertigt und verkauft worden. Bereits 1964 kam sein Nachfolgegerät, der SIEMENS 2003, auf den Markt. 43. Die Idee für den Graphomaten hatte Zuse bereits 1943, doch wurde erst 1956 mit der technischen Umsetzung begonnen. Nach einer sechsjährigen Entwicklung wurde das Gerät der Öffentlichkeit 1961 auf der Hannovermesse vorgestellt. 90 000 DM kostete damals die Maschine, die in der Lage war, in 2 Richtungen, entlang der x- und y- Achse, computerkontrollierte Zeichnungen mit einer Genauigkeit von 1/16 mm zu produzieren. 44. Georg Nees kannte zunächst nur Max Benses Veröffentlichungen in den »Grundlagenstudien aus Kybernetik und Geisteswissenschaften«. 45. Georg Nees: »Statistische Grafik«, in: Grundlagenstudien aus Kybernetik und Geisteswissenschaft, Bd. 5, 1 (Juli 1964), S. 67-68.

260

Berechneter Zufall

46

Abb. 6: Georg Nees, Random-Walk (1968). Die Abbildung zeigt die Implikationen des Zufalls. Der emergierende Ramdom-Walk wurde in ALGOL programmiert und hatte seinen Ursprung in der Mitte des rechteckigen Bildes mit einer Abfolge von horizontalen und vertikalen Linien, die nach 2000 Segmenten enden würden. Zwei Zufallsgeneratoren wurden verwendet, um sowohl die vertikalen als auch die horizontalen Linien in Intervallen um -10 und +10 Einheiten zu verändern.46 - Aus: Georg Nees: Generative Computergraphik, Berlin, München 1969, S. 124, und S. 126-131.

Es sei hier allerdings darin erinnert, dass die Methoden der Zufallsgenerierung variieren: Während Nees aleatorische Arbeiten das Auftauchen und die Anordnung der Elemente durch Zufall parametrisiert, determinieren die Übergangswahrscheinlichkeiten Shannons stochastische Textgenerationen. Während bei Nees die Verwendung von Pseudozufallsgeneratoren für Variationen der graphischen Strukturen sorgt, sorgen Übergangswahrscheinlichkeiten bei Shannon für die Annäherung an bekannte Strukturen. Frieder Nake, der zeitgleich mit Nees in Deutschland computergenerierte Graphiken herzustellen begann, nahm sich dieser unterschiedlichen Methoden, Zufälligkeiten zu generieren, in seiner Arbeit an. Es entstanden neben aleatorisch auch stochastisch generierte Computergraphiken. Ganz analog zu Shannon experimentierte Nake mit Markovketten. Shannon hatten jedoch lediglich die 1-dimensionalen Übergangswahrscheinlichkeiten von Buchstabe zu Buchstabe oder Wort zu Wort interessiert, Nake berechnete nun die Übergangswahrscheinlichkeiten von 2-dimensionalen Strukturen.

46. Die Zufallsgeneratoren hatte Nees von P. G. Behrenz: »Collected Algorithms from CACM«, in: Algorithm 133, New York 1962 ›geliehen‹.

261

Ingeborg M. Rocker

Abb. 7: Frieder Nake, Sechs Modi für das Auftragen einer linearen Kette in der Ebene (1968). - Aus: Frieder Nake: Ästhetik als Informationsverarbeitung, Grundlagen und Anwendungen der Informatik im Bereich ästhetischer Produktion und Kritik, Wien, New York 1974, S. 229.

Das Programm »walk-through-raster,« das Nake 1966 an der Universität Stuttgart in ALGOL 60 für den Rechner Telefunken TR4 entwickelte, war ein Versuch, von einem mathematischen Prozess einen ästhetischen abzuleiten. Einfachste Zeichen, horizontale und vertikale Striche sowie das leere Rasterfeld werden durch Zufallsentscheidung über die Bildfläche verteilt. Nake ging hierbei zunächst von sechs möglichen Modi der Bewegung aus (Abb. 8). Die Inskription der Zeichen wird durch einen Markovprozess gesteuert, d.h. die Wahl des nächsten Zeichens ist vom zuletzt gewählten Zeichen abhängig. Die Übergangswahrscheinlichkeit von einem Zeichen zum nächsten Zeichen ändert sich über das Bild. Die Abbildung 10 zeigt vier Versionen, die vom Computer berechnet und in ein Lochstreifenmuster codiert wurden, um mit dem numerisch kontrollierten ZUSE-GRAPHOMAT Z64 gedruckt zu werden. Nakes »walk-through-raster« stellt, wie er selbst 1974 betonte, »einen ersten Versuch dar, einige der informationsästhetischen Definitionen direkt in einen Erzeugungsalgorithmus zu übernehmen.«47 Wahrscheinlichkeit war zu einem konstituierenden Bestandteil der ästhetischen Programme geworden, so dass das scheinbar Unberechenbare (alias Künstlerische) auch in dem an sich berechneten digitalen Raum Platz finden konnte. Der Computer wurde in dem Moment als künstlerisches Medium an47. Frieder Nake: Ästhetik als Informationsverarbeitung, Grundlagen und Anwendungen der Informatik im Bereich ästhetischer Produktion und Kritik, Wien, New York 1974, S. 236.

262

Berechneter Zufall

gesehen, in dem er vorhersehbar unvorhersehbar wurde. Die schöpferische Auswahl durch den Künstler übernahmen bei der generierten Ästhetik Pseudozufallsgeneratoren, die somit eine künstliche Unendlichkeit in die technische Beschränktheit des digitalen Mediums trugen. Nees und insbesondere Nakes Arbeiten zeichnen sich durch die Kontrolle des Zufälligen aus, indem sie das Deterministische (Negentropie) und das Zufällige (Entropie) in ein interessantes Spannungsverhältnis zueinander setzten.

Abb. 8: Frieder Nake: Flussdiagramm für das Programm walk-through-raster (Markov’sche Zeichenfolge in der Ebene), 1966. - Aus: Frieder Nake: Ästhetik als Informationsverarbeitung, S. 231.

263

Ingeborg M. Rocker

Abb. 9: Frieder Nake: Vier Realisationen aus der Serie »Walk through Raster« (Serie 2.1-4), 1966. Jedes Bild ist 20 cm X 20 cm. - Aus: Frieder Nake: Ästhetik als Informationsverarbeitung, S. 236.

Inwieweit der Einsatz von Pseudozufallsgeneratoren das Prinzip des Computers pervertierte, wie einige Physiker in den 90er Jahren behaupteten, mag dahin gestellt sein;48 festzuhalten bleibt, dass mit computergenerierten Graphiken ein völlig neuer Aspekt in die Kunst aber auch in die Architektur eintrat. Für eine der ersten computergenerierten Architekturen Deutschlands, den Siemens Pavillon für die Hannovermesse 1970, zeichnet denn auch ein ungewöhnlicher Autor verantwortlich: der Computer SIEMENS 4004. So war im Siemens Report von 1970 zu lesen: »4004 entwirft Messestand: Computer als Mitarbeiter des Architekten.«49 Neben dem Computer waren auch Georg Nees und der Architekt Ludwig Rase involviert. Zur Generierung des Pavillons schrieb Nees ein Computerprogramm (Abb. 10), das unterschiedliche 48. »It may seem perverse to use a computer, that most precise and deterministic of all machines conceived by the human mind, to produce ›random‹ numbers. More than perverse, it may seem to be a conceptual impossibility. Any program after all, will produce output that is entirely predictable, hence not truly ›random‹.« (William H. Press, Saul A. Teukolsky, William T Vetterling, Brian P. Flannery: Numerical Recipes in C++; The Art of Scientific Computing, 2. Aufl., Cambridge 1992, S. 278). 49. »4004 entwirft Messestand: Computer als Mitarbeiter des Architekten«, in: Siemens, Data Report 4/70 (Juli 1970), S. 2-7.

264

Berechneter Zufall

Entwurfsanforderungen parametrisierte, um das optimale der möglichen Grundmodule zu errechnen. Nach algorithmischer Festlegung der Rahmenbedingungen des Designs konnten mehrere Variationen des Grundmoduls generiert werden, von denen eines zur weiteren Entwicklung und Berechnung der dreidimensionalen Struktur des Pavillons ausgewählt wurde.

Abb. 10: Georg Nees: Programm zur Generierung des Grundmoduls des Siemens Messestands in Hannover 1970 geschrieben in ALGOL. - Aus: »4004 entwirft Messestand: Computer als Mitarbeiter des Architekten«, in: Siemens Data Report 4/70 (Juli 1970), S. 2-7.

Für Ludwig Rase mutierte Design zur dynamischen Informationsorganisation: Die gesamten Daten, die für den Entwurf des Pavillons benötig wurden, waren mit ALGOL auf einem SIEMENS 4004 Computer berechnet worden. Die emergierende Datenstruktur gab ein komplettes drei-dimensionales Modell der tatsächlichen Pavillonkonstruktion vor, in Bits gespeichert und nach Belieben variierbar.50 Die Rolle des Architekten veränderte sich damit grundlegend. Hatte Rase zwar maßgeblich den Rahmen für die Generierung des Grundmoduls für den Pavillon vorgegeben, so fand er sich doch in der ungewohnten Position des der Dinge Harrenden, während der Computer generierte. Nees’ weiterführende Experimente mit der Computersprache EXAPT 1 zur computergesteuerten Produktion erlaubten die computergestützte digitale 50. Ludwig Rase: »Ausstellungsgestaltung mit Hilfe des Computers«, in: Format; Zeitschrift für verbale und visuelle Kommunikation 37 (3. Mai 1972), S. 26-28); vgl. Heike Piehler: Die Anfänge der Computerkunst, Frankfurt/Main 2002.

265

Ingeborg M. Rocker

und physische Realisation unter Einsatz der automatisch kontrollierten Bohrund Fräsmaschinen. Die so realisierten Skulpturen nehmen jüngste Entwicklungen computergenerierter und realisierter Architekturen bereits Ende der 60er Jahre vorweg.

Abb. 11: Georg Nees und Ludwig Rase: Siemens Pavillon für die Hannovermesse (1970). - Aus: »4004 entwirft Messestand: Computer als Mitarbeiter des Architekten«, in: Siemens Data Report 4 (Juli 1970), S. 2-7. Abbildungen zusammengestellt von Ingeborg M. Rocker.

Mit dem Computer entstand eine neue Situation in Kunst wie Architektur: Ging es vormals um das Originäre eines Kunstwerkes, so geht es nun um mögliche Versionen eines Kunstprogramms. Jedes der digital realisierten Kunstwerke ist nur eine von n-möglichen Versionen innerhalb einer Serie von Kunstwerken, die in den gegebenen Rahmenbedingungen emergieren können. Während der Künstler in der Vergangenheit für ein originäres Kunstwerk verantwortlich zeichnet, ist es nun ein Computer Programm, ein klar umrissenes und determiniertes Rahmenwerk, das den Möglichkeitsbereich seiner Kunst beschreibt. Die Rolle des Künstlers und Architekten verändert sich entsprechend: er ist nunmehr für das Design von Prozessen verantwortlich. Bense formulierte bereits 1959 treffend, »daß sich die Verwendung programmgesteuerter elektronischer Rechenanlagen tatsächlich nicht nur auf Probleme beschränkt, die an den Begriff der Zahl gebunden sind. Der Begriff ›Rechnen‹ erhält durch solche Programme eine wesentlich allgemeinere Bedeutung. Für die Benutzer einer solchen Anlage ist nicht entscheidend, was die Maschine tut; wichtig ist allein, wie man die Funktion der Maschine interpretiert.«51

51. Theo Lutz: »Stochastische Texte«, in: augenblick 4,1 (Oktober-Dezember 1959), S. 3-9, hier S. 9.

266

Berechneter Zufall

Abb. 12 (links): Georg Nees: Computergeneriertes Relief aus Holz (1969), hier in einer Fotoreproduktion. Das Relief wurde mit einer SIEMENS 4004 berechnet und unter Benutzung der Programmsprache EXSP-1 auf einer automatisch kontrollierten Bohr- und Fräs-Maschine produziert. Abb. 13 (rechts): Georg Nees: Computergeneriertes Relief aus Aluminium (1968). – Der Ausdruck des Reliefs mittels eines ZUSE-GRAPHOMATEN, wurde als Siebdruck vervielfältigt. Aus: Siemens data report 4 (Dezember 1973), S. 16.

Die Verwendung programmgesteuerter elektronischer Rechenanlagen hat neben neuen Theorien auch zu völlig neuen Konzepten der Analyse und Synthese in den Künsten geführt. Bewährte Entwurfspraktiken mussten überdacht werden, denn schließlich kann nur all jenes Eingang in den Computer finden, das auch berechenbar ist. Die Implikationen dieser Annahmen führen sogar zu einem veränderten Seinsverständnis: »Der Begriff der Struktur (und ihrer Funktionen) [spielt] in der modernen Seinsauffassung die gleiche wichtige Rolle [...] wie der Begriff des Dinges (und seiner Eigenschaften) in der klassischen, traditionellen Seinsauffassung. Das gilt für die Physik wie für die Kunst. Wir beschreiben heute die physikalischen wie auch die ästhetischen Phänomene, wie die moderne Physik und moderne Kunst es beweisen, nicht mehr unter dem Gesichtspunkt, dass es Dinge und Eigenschaften gibt, sondern unter dem Aspekt der Strukturen und ihrer Funktionen. Und das hat einen tieferen Grund. Die Verschiebung der Ausdrucksweise steht nämlich im Dienst unseres Weltverständnisses [...]. Wir können uns nur über das informieren, das feststellbar und mittelbar ist. Feststellbar und mittelbar ist alles, was an Invarianzen gebunden ist. [...] Was überhaupt keine Invarianzmerkmale besitzt, ist nicht feststellbar, mittelbar, informiert nicht, ist keine Information.«52 52. Max Bense: »Ästhetische Information: Über Fotographie«, S. 24-25; Bense leitet diese Feststellung von Max Born ab, der einen sehr ähnlichen Standpunkt für die Physik beschrieb: »Jeder Gegenstand, den wir wahrnehmen, erscheint unter unzähligen Aspekten; der Begriff

267

Ingeborg M. Rocker

Mit dem Aufkommen des Computers kommt es zu neuen Anschauungsverständnissen aber auch Anschauungstechniken, die insbesondere der Materialisierungen symbolischer Konstrukte dienen. Erste Subsysteme, die an den Computer anschlossen – und das gilt es zu betonen – waren zunächst keine Bildschirme, sondern Fernschreiber, Plotter und numerisch kontrollierte Fräsund Bohrmaschinen. Es galt in den zu entwickelnden Programmen nicht, die Ansicht von Modellen zu berechnen, sondern Prozeduren zur Herstellung von Modellen zu organisieren. Im Vordergrund standen Prozesse, die die Hervorbringung von Formen modellierten. Damit war aber auch klar gestellt, dass es nicht um eine Repräsentation von Konstruktionen gehen konnte, sondern um die Programmierung von nicht zu antizipierenden Ereignissen. Hatte Bense selber niemals über die technische Implementierung und ihre technischen Begrenzungen nachdenken müssen, waren Mathematiker wie Nees und Nake mit den Eigengesetzlichkeiten des Computers und seiner Peripheriegeräte konfrontiert. Benses Programmierer des Schönen mussten sich nun auf einer vollständig determinierten Plattform zwischen den technischen Bedingungen des Computers und den Versprechungen von Benses Informationsästhetik hin- und her gerissen fühlen, die eine radikale Abkehr von vielen tradierten Werten darstellt. Es ist daher auch wenig verwunderlich, dass ein Großteil des Publikums mit Widerstand gegen die »künstliche Kunst«53 in den 60er Jahren reagierte.54 Doch allen kritischen Stimmen zum Trotz griff Bense technische Innovationen und die mit ihnen verknüpften Theorien auf: Während Shannon die Informationstheorie zur Optimierung der Kommunikationssysteme unserer so genannten Informationsgesellschaft vorgesehen hatte, wurde bei Bense daraus eine neue Ästhetik – eine Ästhetik berechneten Zufalls.

des Gegenstandes ist die Invariante aller Aspekte.« (Max Born, zitiert nach: Max Bense: »Ästhetische Information: Über Fotographie«, S. 25). 53. Computergenerierte Texte und Graphiken bezeichnete Bense als »künstliche Kunst« in Abgrenzung zu der bisher produzierten Kunst. 54. Eine Auswahl: N/A: »Künstliche Kunst«, in: Stuttgarter Zeitung, 11.11.1965, S. 31; Günther Pfeiffer: »Ist Kunst berechenbar? Max Bense und der Computer«, in: Frankfurter Allgemeine Zeitung, Nr. 41, 17.02.1968; Karl Heinz Bohrer: »Herr Bense stellt Herrn Beuys, aber Herr Beuys läßt sich nicht ... ›Kunst und Antikunst‹. Streitgespräch in Düsseldorf«, in: Frankfurter Allgemeine Zeitung, Nr. 24, 29. 01.1970, S. 20; Peter Steinhart: »Statt Redeschlacht eine Clownerie. Beuys, Bill, Bense, Gehlen auf dem Podium. Dialog unmöglich?«, in: Rheinische Post, 29. 01. 1970, S. 17.

268

Jenseits des Werkzeugs Kybernetische Optionen der Architektur zwischen Informationsästhetik und ›design amplifier‹ CLAUS PIAS

Die mit Ende des Zweiten Weltkriegs entstandene, moderne Kybernetik ist weniger eine akademische Disziplin als eine Epistemologie. Als solche ist ihr Gegenstandsbereich schwerlich einzuschränken und ihre methodische Homogenität – schon weil sie praktische wie theoretische Entitäten zugleich umfasst – weitgehend ungesichert. Aus diesem Grund ist sie auch nur in begrenztem Umfang und auf beschränkte Dauer in den universitären Fächerkanon eingegangen und ist stattdessen innerhalb verschiedener Disziplinen wirksam geworden. Kybernetik – verstanden als Konvolut von Modellen, Denkfiguren und Begriffen – implizierte eine andere Ordnung des Wissens der Wissenschaften, die sich im Zeichen dieser neuen Epistemologie zu einer kritischen und produktiven Revision ihrer Konzepte und Grundlagen herausgefordert sahen. In den folgenden Ausführungen geht es daher weder um kybernetische Architektur (wie »intelligente« Gebäude, Medienarchitektur u.ä.), noch um eine Architekturtheorie der Kybernetik,1 noch im präziseren Sinne um die Auswirkungen der Computerisierung (etwa durch CAD-Programme, Plotter u.ä.) auf den Architekturentwurf. Vielmehr wird exemplarisch auf einen bestimmten historischen Schnitt um 1970 fokussiert, der hier aus zwei Gründen interessiert: Einerseits, weil die erste Begeisterungswelle der Kybernetik zu dieser Zeit langsam ausläuft und ihre Stoßkraft bereits in verschiedene Wissensdomänen ausgeteilt hat, andererseits aber, weil zu dieser Zeit die »›technokratischen‹ Themen wie Planungstheorie, Semiotik, Mathematik und Kybernetik, Entwerfen mit Algorithmen und Mengenlehre« in der Architekturdebatte virulent sind.2 Zwei sehr unterschiedliche Bücher – das eine 1967 in Deutschland, das andere 1972 in den USA erschienen – dienen dabei als 1. Z.B. bei Gordon Pask: »a discipline that fills the bill insofar as the abstract concepts of cybernetics can be interpreted in architectural terms (and, where appropriate, identified with real architectural systems) to form a theory (architectural cybernetics, the cybernetic theory of architecture)« s.: »The architectural relevance of cybernetics«, in: Architectural Design, September 1969, S. 494-496, S. 494. 2. Ulf Meyer: »30 Jahre – und kein bißchen weise«, in: Arch+ 139 (1997), S. 148.

269

Claus Pias

Beispiele, um einerseits zu verdeutlichen, wie unterschiedlich sich das Zusammenspiel von Kybernetik und Architektur um 1970 entfalten kann, andererseits aber um dem Versäumnis bzw. der Entstehung einer Medientheorie des Computers am Schnittpunkt von Kybernetik und Architektur beizuwohnen. Die Beobachtung einer avancierten Reflexion von Medialität innerhalb der architektonischen Entwurfspraxis wirft dabei die Frage nach dem Status und der Genealogie von Medientheorie vor, neben oder im Verhältnis zu einer im gleichen historischen Moment entstehenden, universitären Medienwissenschaft auf, die bis heute bedeutsam geblieben ist.

Stuttgart 1967 Das erste Buch trägt den Titel Ästhetische Probleme der Architektur unter dem Aspekt der Informationsästhetik und ist eine Dissertation aus der (später so genannten) »Stuttgarter Schule«, die bei Max Bense eingereicht wurde und 1967 – wie vieles aus dieser Richtung – im Verlag Schnelle erschien. Manfred Kiemle, dies sei nur am Rande erwähnt, hat sich nach seinem wissenschaftlichen Abschluss ganz der ästhetischen Praxis gewidmet und ist als Architekt hervorgetreten. Innerhalb des Kreises um Max Bense gehört er eher zur zweiten Generation, d.h. zu denjenigen, die Benses Begründung einer quantitativen, wissenschaftlichen Ästhetik »anwenden«. In diesem Sinne geht es in seiner Arbeit weniger um philosophische Provokationen oder epistemologische Experimente, sondern um die Operationalisierbarkeit eines Forschungsdesigns für Phänomene der Kunst oder der Architektur. Es bedeutet keine Herabsetzung der Arbeit Kiemles, wenn man sich dem Informatiker Mihai Nadin anschließt, der damals nur ein Semester in Stuttgart war und bemerkte, dass neben einer so mächtigen Eiche wie Max Bense nicht leicht eine zweite wachsen konnte. Wer einmal nur einen der charismatischen Auftritte Benses gesehen oder gar miterlebt hat, und wem der große kulturphilosophische und epochendiagnostische Gestus seiner Texte der 50er und 60er Jahre nur einigermaßen vertraut ist, der weiß, dass es (oft mit gebieterischem Pathos) um’s Große ging. Manchmal hat es jedoch Vorteile, sich nicht den programmatischen Gründungsschriften, sondern den eher epigonalen Werken zuzuwenden, weil sowohl die forschungspraktischen Implikationen als auch der Zeitgeist an ihnen deutlicher ablesbar werden. Es soll daher im Folgenden weder darum gehen, die Hoffnungen von einst mit jener besserwisserischen Ironie zu überziehen, wie sie die historische Distanz von vier Jahrzehnten so billig hergibt, noch darum, eine (zu Recht) tote Theorie für gegenwärtige Zwecke »wiederzuentdecken«. Vielmehr ist Kiemles Werk eine Quelle und besitzt daher ein Recht auf ihren zeithistorischen Eigensinn. Worum geht es nun? Die Kybernetik, so ist gleich auf der ersten Seite programmatisch zu lesen, »die Kybernetik als Theorie der Aufnahme, Verar270

Jenseits des Werkzeugs

beitung und Übertragung von Information – angewandt auf die Informationsverarbeitung im menschlichen Bewußtsein – ist in der Lage, die SubjektObjekt Relation, die von den Geisteswissenschaften nur qualitativ beschrieben werden kann, mit quantitativen Methoden zu erforschen.«3 Dank ihrer soll es möglich sein, aus Ästhetik als philosophischer Disziplin endlich eine exakte Wissenschaft zu machen.4 Als solche würde sie – und hier ist Kiemle von der klassischen, physikorientierten Wissenschaftstheorie inspiriert – ein widerspruchsfreies, axiomatisch-deduktives System von Sätzen ausbilden. Ziel sei es, die Ästhetik »als perfekte Theorie aufzubauen, und so Ästhetik als Forschung zu betreiben«5 So weit Kiemles (von Bense übernommener) Eröffnungszug einer (später noch einmal programmatisch werdenden) »Austreibung des Geistes aus den Geisteswissenschaften«. Zu diesem Forschungsdesign gehören vier Komponenten, auf die ich nur punktuell und unvollständig eingehen werde: 1. eine ontologische Grundlegung in Form eines Zeichenkalküls; 2. ein mathematisches Kalkül (womit die Shannon’sche Informationstheorie gemeint ist, die auf ästhetische Objekte angewandt wird); 3. eine Informationspsychologie, die die Verarbeitung von Information im Lebewesen durch experimentalpsychologische Verfahren untersucht; und 4. eine Soziokybernetik, die so etwas wie »Stilwandel« (oder Historizität im Allgemeinen) in Regelkreisen von Individuen, Gesellschaften und Artefakten modellieren kann. Ich beschränke mich hier auf die Mitte, d.h. die Informationsästhetik und die Informationspsychologie und ihre Quantifizierungsstrategien angesichts eines Phänomens wie Architektur, unter der Kiemle nur bereits verwirklichte Gebäude versteht. Wer Architektur anschaut (und sie wird bei Kiemle nur frontal und als schwarzweiße Umrisszeichnung angeschaut und nicht etwa in der Zeitlichkeit der begehenden Bewegung erfahren), der nimmt Information in bestimmten Dosierungen auf. Referierend auf experimentalpsychologische Versuche zur Apperzeptionsgeschwindigkeit von Zeichenfolgen (bemerkenswerterweise nicht europäische des 19. Jahrhunderts, sondern amerikanische der 1950er) lautet das Ergebnis: Mehr als 10-25 bit pro Sekunde sind nicht drin. Die zeitliche Auflösung wird unkommentiert aus dem Kino übernommen und misst 1/16 Sekunde, also die kürzeste Zeit, in der eine Differenz gemacht und daher 1 bit aufgenommen werden kann. Bleibt zuletzt noch die menschliche Gegenwartsdauer von grob 10 Sekunden, und schon ist man bei dem Ergebnis, dass die Fassungskapazität des menschlichen Bewusstseins 160 bit ist. Kurzum:

3. Manfred Kiemle: Ästhetische Probleme der Architektur unter dem Aspekt der Informationsästhetik, Quickborn 1967, S. 9. 4. Vgl. ebd., S. 11. 5. Ebd.

271

Claus Pias

Was mehr als 160 bit hat, kann nicht mehr als Einheit wahrgenommen und erfahren werden. Nun wird man zugeben, dass so ziemlich jede Gebäudefassade mehr als 160 Differenzen besitzt und wir im Normalfall trotzdem nicht überfordert sind, wenn wir sie anschauen. Dieses Problem wird (Abraham Moles folgend) dadurch gelöst, dass Beobachter immer mit Hierarchien von Zeichen und Superzeichen arbeiten. Auf den ersten Blick fallen nur wenige Differenzen (Superzeichen) auf, und wenn man (umgekehrt) von den Details ausgeht, fügen diese sich immer wieder zu einer Superzeichen-Ebene, auf der die Details wiederum vernachlässigt werden können. Zur Aufgabe jeder ästhetischen Betrachtungsebene wird also, die darunterliegenden Ebenen ignorieren zu können. Das »intellektuelle Vergnügen« und das ist das einzige, das der Ästhetik nach Kiemle geblieben ist, besteht also darin, in der überschwemmenden Zeichenfülle Ordnungsstrukturen zu erkennen.

Abb. 1: Fassade mit unregelmäßgier Verteilung von beleuchteten (schwarzen) und unbeleuchteten (weißen) Fenstern. - Aus: Manfred Kiemle: Ästhetische Probleme, S. 68.

Kiemles Beispiel, das wie eine schöne Vorwegnahme der Installation »Blinkenlights« (2002) am »Haus des Lehrers« in Berlin erscheint,6 ist eine ziemlich langweilige Fassade, die (wie der Verfasser ausführlich vorrechnet) 98,3% Redundanz besitzt und damit so gut wie kein Vergnügen bereitet. Bei Nacht sieht die Sache jedoch schon ganz anders aus, denn dann steigt und fällt die Information mit den regel- oder unregelmäßig erleuchteten Fenstern (Abb. 1). Wie geht man mit dieser Informationsflut um? Man bildet Superzeichen wie etwa Fensterbänder oder Gruppen von je 3 oder 4 zusammenhängend erleuch6.

Vgl. http://blinkenlights.de/ (z.B. vom 05.08.2008).

272

Jenseits des Werkzeugs

teten Fenstern, und schon ist die Information wieder auf ein für menschliche Betrachter erträgliches, aber dennoch unterhaltsames Maß abgesenkt. Der Clou an dieser Art von Betrachtung (den Kiemle unterschlagen muss, weil er ein paar Jahre zu früh promoviert), ist, dass die Ermittlung des ästhetischen Wertes nichts anderes als ein Kompressionsverfahren für Pixelbilder ist, und zwar ein Vorgänger des Lempel-Ziv-Verfahrens, das alte DOS-Benutzer noch durch die Dateiendung *.LZW erinnern. Aus den Eingabedaten werden bestimmte Phrasen ermittelt, diese Phrasen werden in einer Tabelle gespeichert, und dann werden statt aller einzelnen Phrasen nur noch Zeiger auf diese Tabelle gespeichert. Für schwarzweiße Pixel und nächtliche Bürofassaden funktioniert das einigermaßen effektiv. Und der Zusammenhang liegt nicht nur historisch, sondern auch systematisch auf der Hand, denn für Claude Shannon war Information ja das, was übrig bleibt, wenn man eine Nachricht verlustfrei maximal komprimiert. Dementsprechend kann Kiemle auch den Shannon’schen Ratetest zur Ermittlung des Informationsgehalts für architekturästhetische Zwecke adaptieren. Und dies funktioniert bekanntlich so: Um eine zufällige Zahl beispielsweise zwischen 1 und 32 zu erfragen, braucht ein systematisch vorgehender Ratender genau fünf Fragen, die mit »ja« oder »nein« beantwortet werden, was bedeutet, dass 32 Wahlmöglichkeiten 5 bit Information darstellen. Genau in diesem Sinne schlägt Kiemle vor, Versuchspersonen ein Repertoire architektonischer Formen zu zeigen und diese raten zu lassen, an welche Stelle das jeweilige Teil gehört. Die Zahl der Versuche ergebe dann den Informationsgehalt. Ähnliches könne man auch mit einem Tachistoskop machen, um zu messen, wie schnell Personen wie viele architektonische Details wahrnehmen. Auf ähnliche Weise vermisst Kiemle dann Kenzo Tanges Rathaus in Kurashiki (Abb. 2), bei dem von Sockel und Dach, Material und Farbe, lokalem Kontext und aller Räumlichkeit abstrahiert wird, und bei dem nach mehreren Superierungsdurchgängen beruhigenderweise feststeht, dass der Informationsgehalt noch auf der höchsten Abstraktionsstufe ca. 60 bit beträgt, »wobei sich ein Betrachter noch keineswegs langweilt.«7

Abb. 2: Links: Rathaus in Kurashiki (Kenzo Tange). Rechts: Fassade des Rathauses in Kurashiki in abstrahierter, analysefähiger Form. - Aus: Manfred Kiemle: Ästhetische Probleme, S. 103. 7.

Manfred Kiemle: Ästhetische Probleme, S. 109.

273

Claus Pias

Erinnert man sich nun an Kiemles Programmatik, dass »das Ziel jeder wissenschaftlichen Kritik […] ihre Objektivierbarkeit«8 sei, dann wird offensichtlich, warum hier nun zum ersten Mal der Computer ins Spiel kommt, und zwar nicht als Medium des Entwurfs, sondern als Rechenmaschine für ästhetische Information und damit als automatischer Kritiker. »Die ästhetische Kritik«, so fährt Kiemle fort, »ist objektivierbar, sie kann daher ebenso von einem entsprechend programmierten Automaten wie von einem menschlichen Kritiker vollzogen werden. Das Programm des Rechenautomaten ist die kybernetische Fassung der ästhetischen Kritik.«9 Solche Sätze sind aus dem Umkreis Benses wohlbekannt. So schrieb etwa Helmar Frank, ein Doktorand der ersten Generation, schon acht Jahre zuvor: »Will die Informationsästhetik Objektivität anstreben, dann muß sie ihre Thesen in einer Weise formulieren, daß durch sie eine Automatisierung der Kunstkritik vorbereitet wird. In dem Maße, wie dies gelingt, wird die objektive Überlegenheit der Informationsästhetik gegenüber der klassischen Ästhetik deutlich werden.«10 Der Computer tritt also, soviel bleibt bereits festzuhalten, nicht im Entwurfszusammenhang, sondern im Kontext ästhetischer (als quantifizierter und algorithmisch formalisierter) Forschung auf. Und dabei gilt die Delegation der Beobachtungsleistung an eine Maschine als Objektivierung – eine Vorstellung, die seinerzeit von Günther Anders (und zwar explizit auch im Hinblick auf den Computer) als beängstigendes Symptom für die »Antiquiertheit des Menschen« entziffert wurde. Was bedeutet dies nun aber für den Architekturentwurf, wenn das Stichwort schon einmal gefallen ist? Auch hier argumentiert Kiemle strikt informationstheoretisch: »Alle Entwurfsprozesse sind Prozesse der Informationsverarbeitung. Die große Zahl der Möglichkeiten im Anfangsstadium eines Entwurfs wird durch Wahlentscheidungen Stufe um Stufe verringert. Die Unsicherheit wird schrittweise abgebaut, d.h. anfänglich maximale Information, berechnet auf dem Repertoire aller möglichen Realisationen, wird ständig vermindert. Die Entwicklung eines Entwurfs, also die Organisation der funktionellen und konstruktiven Zusammenhänge, ist ein Ordnungsprozess, bei dem aus den zur Verfügung stehenden Elementen geordnete Strukturen aufgebaut werden. Organisation ist immer Aufbau von Ordnung, die mit den Methoden der Informationstheorie beschrieben werden kann.«11 Entwurfsleistungen sind also als Selektionsleistungen innerhalb eines Repertoires und damit ebenfalls in Bit quantifizierbar. Oder anders gesagt: 8. Manfred Kiemle: Ästhetische Probleme, S. 129. 9. Ebd., 10. Helmar Frank: Grundlagenprobleme der Informationsästhetik und erste Anwendungen auf die mime pure, Stuttgart 1959, S. 56. 11. Manfred Kiemle: Ästhetische Probleme, S. 53.

274

Jenseits des Werkzeugs

Entwurfsprozesse sind Entscheidungsprozesse mit messbarem Freiheitsverbrauch. Nochmals Kiemle: »Wenn durch eine informationsästhetische Analyse quantitativ festgestellt werden könnte, wie groß die Wahlfreiheiten – gemessen in bit – im Verlauf eines Entwurfsprozesses tatsächlich waren und in welchem Grad sie vom Architekten ausgenutzt, bzw. überhaupt gesehen wurden, dann hätte man ein wesentliches ästhetisches Kriterium zur Beurteilung des Entwurfsergebnisses gefunden.«12 Der Entwurfsprozess interessiert also wiederum gerade nicht als Prozess, sondern vom Fluchtpunkt des abgeschlossenen Werks und seines ästhetischen Wertes aus. Dabei kehrt, allen Objektivierungsstrategien zum Trotz (oder gerade deshalb), das Individuum wieder prominent zurück. Obwohl Kiemle nebenbei einmal bemerkt, dass es ja eine bestimmte historische Infrastruktur ist, die immer erst bestimmt und formatiert, was denn als Repertoire zur Wahl steht, und obwohl er auf »Vorfertigung« und auf eine »zunehmende Tendenz zur Digitalisierug architektonischer Elemente«13 hinweist, die dann im Kreisschluss eine quantitativ-informationstheoretische Analyse besonders einfach macht, wird das auswählende Künstlersubjekt zur letztgültigen Instanz erklärt. Der »schöpferische Prozess«, wie es nicht ohne Ehrfurcht heißt, bestehe aus bewusst getroffenen Entscheidungen, die anschließend als »Realisationsbetrag« gemessen werden können. Der Realisationsbetrag, also die Entwurfsleistung in Bit, ziele nur auf intentional getroffene Entscheidungen, nicht jedoch auf professionelle Routinen. Was nicht bewusst so und nicht anders entworfen werde, sei »ästhetisch zu disqualifizieren«.14 All jene Aspekte, aus denen eine informationstheoretische Kritik des bewussten Subjekts entsprang – etwa Lacans maschinell strukturiertes Unbewusstes, Shannons wahrscheinlichkeitsgesteuerte, pseudoenglische Texte und selbst die Computerpoesie und -grafik aus dem Kreis um Max Bense – sind hier auf bemerkenswerte Weise abwesend. Nur ein winziger Nebensatz verweist darauf, dass man ja die »Überraschungswerte aller Bauten eines Architekten« ermitteln könne und dann eine »Kennziffer für schöpferische Fähigkeit gefunden« hätte.15 Dass eine Analyse solcher Art die Vorbereitung einer Synthese ist, innerhalb derer Individualstile auch generiert (d.h. das Systemverhalten »Entwerfen« maschinell imitiert) werden können, ist eine in der Informationsästhetik (etwa bei Abraham Moles) öfters anzutreffende These, auf die Kiemle jedoch nicht näher eingeht.

12. 13. 14. 15.

Ebd., S. 124. Ebd., S. 56. Ebd., S. 48. Ebd., S. 90.

275

Claus Pias

Abb. 3: Bankgebäude in Buenos Aires (S. Elia, P. Ramos, A. und C. Testa) mit und ohne »dekorative Umhüllung«. - Aus: Manfred Kiemle: Ästhetische Probleme, S. 120.

Die Frage der Wiederholung wird nur im Zusammenhang der Historizität ästhetischer Formen (und ihrer damit sich verändernden Informationswerte) bedeutsam. Das Seltene finde, so Kiemle, anfangs eben viel Beachtung, dann komme es häufiger vor, man gewöhne sich daran und die Information sinke. Das ist in etwa die Diagnose, die er dem International Style der klassischen Moderne stellt: Der ästhetische Reiz sei durch »unzureichendes Informationsangebot«, sprich Redundanz, allmählich verschwunden. Dem könne man jedoch entgegentreten, indem man beispielsweise die Rasterfassaden von Bürogebäuden in »eine Schale aus ›freier Kunst‹ verpackt«,16 also ein Ornament davorhänge (Abb. 3). Hier klingt eine Option an, die Abraham Moles (wenige Jahre später) plastischer artikulieren wird: »Jeder Kaufhaus-Kunde kann seine Resopal-Tischplatte bekommen, mit einem einmaligen und unverwechselbaren Motiv in persönlich[!] gestalteter Einlegearbeit, für ihn speziell von einer Künstler-Maschine geliefert«.17 Nicht industrielle Standardisierung, sondern digitale Individualisierung ästhetischer Produkte lautet die Devise. »Die Algorithmen-Schöpfer«, so Moles, »ernähren die Völker, die nach Kultur hungern«.18 Dies alles mag heute so seltsam und fremd klingen, wie es vor einem halben Jahrhundert einmal atemberaubend und in aller Munde war. Um Kiemles Ausführungen besser einzuordnen, braucht es also einen kurzen Schritt um ein Jahrzehnt zurück. Es war Benses Transplantation der Shannon’schen Informationstheorie in die Ästhetik um 1957, aus der sich Kiemles gesamte (doch eher uninspirierte) Ausführungen herleiteten. So übersetzt Bense etwa »Redundanz« mit dem kunsthistorischen Begriff »Stil« und »Information« mit »Originalität«. Stil steht in einer Reihe mit Ordnung und Kommunikation (also der Verständlichkeit von Kunst), Originalität in einer Reihe mit Kreation 16. Manfred Kiemle: Ästhetische Probleme, S. 121. 17. Abraham A. Moles: Kunst & Computer, Köln 1973, S. 94. 18. Ebd., S. 273.

276

Jenseits des Werkzeugs

und Kommunikationsverlust (also Unverständlichkeit von Kunst). Das eine ist Banalität, das andere Innovation. Die Informationsästhetik war mithin eine lupenreine Avantgarde-Theorie Stuttgarter Provenienz, die sich von der Frankfurter Version nur dadurch unterschied, dass sie sich radikal der modernen Technik, d.h. Kybernetik und Digitalcomputer, öffnete. Die enorme Insistenz auf einer Objektivierung der ästhetischen Forschung und Kritik hatte dabei zwei Motoren. Der eine war die nationalsozialistische Vergangenheit. Schon das ästhetische Programm der Ulmer Schule hatte ein kühles Reinheitsgebot ausgegeben, aus dem alle Ideologie und alles Gefällige verbannt sein sollten. In diesem Sinne war die Informationsästhetik ein wissenschaftliches Programm, das alle Ideologie, alle »Mythologeme, Emotionalitäten, Vitalismen [und] Konfessionen« (Bense) aus der Ästhetik fegen sollte. Informationsästhetik bedeutete gewissermaßen eine Wiederkehr zivilisierter Intelligenz. Der zweite Motor war die Two-Cultures-Diskussion, die nicht zuletzt angesichts der neuen Technologien so intensiv geführt wurde, denn die Kybernetik trat damals mit dem Versprechen an, eine neue Einheit der zerstreuten und ausdifferenzierten Wissenschaften zu leisten.19 Bense, der sofort nach dem Erscheinen von Wieners Cybernetics-Buch eine Übersetzung ins Deutsche forcierte (aber damit erfolglos blieb), hatte genau diese Option in das Zentrum seines Denkens gerückt. Dabei geriet die Kunst in die systematische Position der Technik und die Ästhetik in die systematische Position der Naturwissenschaften. Ästhetik teile plötzlich (dank der Informationstheorie) eine gemeinsame Formalsprache mit den hard sciences, die ihrerseits seit der Quantenphysik von der Seins- zur Zeichenthematik übergegangen seien und insofern semiotische Probleme hätten. Nicht davon zu reden, dass man mit Computern (also Geräten von Wissenschaftlern) auch wissenschaftliche Kunst machen konnte wie z.B. stochastische Gedichte. In einer Art Ko-Evolution sollten also Kunst und Ästhetische Wissenschaft den Stand der Produktionsverhältnisse von Technik und Naturwissenschaft aufholen.20

Cambridge, Mass. 1972 Das zweite Buch ist Nicholas Negropontes Soft Architecture Machines, das nur wenige Jahre nach Kiemles Arbeit in einem ganz anderen Kontext entstand. 21 19. Michael Hagner, »Aufstieg und Fall der Kybernetik als Universalwissenschaft«, in: Michael Hagner/Erich Hörl (Hg.) Die Transformation des Humanen. Beiträge zur Kulturgeschichte der Kybernetik, Frankfurt/Main 2007, 38-72. 20. Ausführlicher in Claus Pias: »›Hollerith gefiederter Kristalle‹. Kunst, Wissenschaft und Computer in Zeiten der Kybernetik«, in: Michael Hagner/Erich Hörl (Hg.): Die Transformation des Humanen, S. 72-106. 21. Nicholas Negroponte: Soft Architecture Machines, Cambridge, Mass. 1975. Zu der zeitlich noch näheren ›Architecture Machine‹ (1970) vgl. den Beitrag von Gernot Weckherlin in diesem Band.

277

Claus Pias

Negropontes Veröffentlichung beginnt nicht mit einer wissenschaftstheoretischen Programmatik, sondern mit einer technikhistorischen Prophezeiung: Der Computer werde »responsiveness, individuality, and excitement in all aspects of living«22 bescheren, und man befinde sich mitten in »a cybernetic, informational, computational, or whatever you want to call it, revolution«.23 Von den Hintergründen wird noch zu sprechen sein. Festzuhalten bleibt zunächst, dass diese »Revolution« auch die Architektur ergreifen wird, indem der Computer eben nicht nur zum Ausrechnen architekturkritischer Kennziffern benutzt wird, sondern im Entwurf selbst Verwendung findet, und zwar als sogenannter »Design Amplifier« oder eben wortwörtlich »Entwurfsverstärker«. Dabei geht es wohlgemerkt nicht um eine »Ersetzung« des Menschen (was Kiemle forderte und Anders beängstigte), sondern um die Ergänzung dessen, der da entwirft, um eine »informed machine«.24 Präziser noch soll es (in Anlehnung an den Künstler-Kybernetiker Gordon Pask) um den Computer als ein »physical environment that knows me« innerhalb von Entwurfsprozessen gehen. Es ist nicht das Ziel, effektiver Pläne zeichnen zu können, sondern Kreativität infrastrukturell anzureichern. Für die dafür geforderte, computergestützte Entwurfsumgebung bedürfe es: 1. eines Benutzermodells (»computer’s model of you«); 2. eines »computer’s model of your model of it«; und 3. eines »model of your model of its model of you«.25 Den systematischen Ort dieser Schaltstelle wechselseitiger Unterstellungsunterstellungen nimmt die Skizze ein. Weil die Skizze immer schon Kommunikation mit sich selbst und mit jemand anderem war (»introspection« und »presentation«26), kommunizieren, gemeinsam an ihr arbeitend, Rechner und Benutzer über und durch sie. Das ist etwas ganz anderes als etwa das legendäre »Sketchpad« Ivan Sutherlands, bei dem geometrische Formen über einen Lightpen eingegeben werden. Es handelt sich nicht um einen analytischen Zugang, bei dem aus definierten kleinsten Elementen durch Variation und Kombination sukzessive etwas aufgebaut wird, sondern um eine Art »ganzheitlichen« Zugang in dem Sinne, als der User einfach wie gewohnt auf einem Blatt Papier zeichnet und der Rechner ihm gewissermaßen »über die Schulter« schaut. Das tut er (technisch gesehen) selbstredend nicht, sondern unter dem Zeichenpapier befindet sich ein druckempfindliches Tablett, das 200 x/y-Koordinaten und Druckintensitäten pro Sekunde aufzeichnet (Abb. 4). Der Rechner »schaut« also weniger die Skizze als Bild an, sondern dem Skizzieren in der Zeit zu. Eine Skizzenerkennung namens HUNCH sollte dann (auf verschiedene Zeichenstile und Bildtypen 22. 23. 24. 25. 26.

Nicholas Negroponte: Soft Architecture Machines, Vorwort, o.S. Nicholas Negroponte: Soft Architecture Machines, S. 145. Ebd., S. 108. Ebd., S. 63. Ebd., S. 64.

278

Jenseits des Werkzeugs

trainiert) erkennen, was der Entwerfende zeichnet 27 – ähnlich den inzwischen verbreiteten (mehr oder minder funktionierenden) Handschrift-, Stimm- oder Texterkennungen.

Abb. 4: Das Sylvania Zeichentablett im Einsatz. - Aus: Nicholas Negroponte: Soft Architecture Machines.

Die Probleme waren, gerade angesichts der Rechentechnik jener Zeit, enorm. Allein eine 10 Minuten dauernde Zeichnung spielte 3,6 Millionen Bit ein, also damals noch enorme 440 Kilobyte, die in schnellen Kurzzeitspeichern gehalten werden mussten. Als mindestens so problematisch erwiesen sich jedoch philosophische Fragen wie diejenige nach Kontext und Intentionalität. Denn die gleiche Zeichenbewegung kann im einen Kontext etwa als ein Pfeil, im anderen aber als ein Giebel gedeutet werden. Aber wie schließt man einen Kontext ab? Im Fall der Intentionalität machte man sich die Beschleunigung zu Nutze: Sobald die Hand zögerlicher wird, arbeitet der User konzentrierter und »meint« wohl etwas. Beispielsweise wird ein schnell hingezeichnetes, unsauberes Quadrat zum Quadrat glattgezogen; wird man hingegen an einer Ecke langsamer, »meint« der Rechner, dass der User keine spitze Ecke, sondern eine Rundung »meint« und macht ein Kreissegment daraus (Abb. 5). Diese graphologische Hermeneutik ist etwas ganz anderes als etwa die »Gummiband«-Metapher bei Sutherland, bei der der User auf einen Knopf für »Kreis« drückt, dann den Mittelpunkt mit einem Lightpen auf dem Bildschirm 27. Vgl. ebd., S. 65.

279

Claus Pias

markiert und anschließend den Radius aufzieht (Abb. 6). Benutzerverhältnisse wie bei »Sketchpad« sind für Negroponte »Herr-Knecht-Verhältnisse«. Damit handelt man sich jedoch alle Arten von Gestalterkennungsproblemen ein, denn ab wann ist ein Kreuz als Kreuz »gemeint« und wo beginnt eine programmierbare Erkenntnis von »Kreuzheit«? (Ein Problem, das nur scheinbar mit den Ontologien der KI jener Zeit verwandt ist.) (Abb. 7). Dies spielt z.B. in die Grundriss-Erkennung hinein, mittels derer der Rechner von Skizzen auf topologische Zusammenhänge (also Graphen) schließen sollte, um selbstständig andere Raumlösungen vorzuschlagen (Abb. 8).

Abb. 5: Ein schnell und ein langsam gezeichnetes Quadrat (links) und die unterschiedliche Erkennung durch HUNCH (rechts). - Aus: Nicholas Negroponte: Soft Architecture Machines.

Abb. 6: Kreiszeichnung durch Sketchpad. - Aus: Ivan Edward Sutherland: Sketchpad: A manmachine graphical communication system, Cambridge, Mass. (Diss. MIT) 1963, S. 14.

280

Jenseits des Werkzeugs

Abb. 7: Stufen der Transformation und des Erkennens eines Kreuzes. - Aus: Nicholas Negroponte: Soft Architecture Machines.

Abb. 8: Vom User gezeichneter Grundriss und vom Rechner darin erkannte Topologie. - Aus: Nicholas Negroponte: Soft Architecture Machines.

Solche Details sind nicht bloß von antiquarisch-technikhistorischem Interesse. Bedeutsam ist vielmehr, dass hier bei Negroponte technische Fragen als philosophische oder epistemologische behandelt werden – ganz anders als eben bei Kiemle, wo ästhetisch-wissenschaftstheoretische Fragen auf eine technische Implementierung allenfalls ausblicken lassen, von deren materieller Implementierung jedoch an keiner Stelle gehandelt wird. Während es bei Negroponte also um die Rolle der Technik innerhalb eines Prozesses der Erzeugung ästhetischer Qualitäten geht, steht bei Kiemle das Konstatierende eines ästhetischen Wertes am fertigen Werk im Vordergrund, aus dem alle Prozessualität getilgt ist. Und so lautet die Frage bei Negroponte auch nicht, was Informatisierung für die Wissenschaft der Ästhetik bedeutet (und gleichermaßen auch Musik oder Literatur beträfe), sondern was sie für die Praxis der Architektur bedeutet.28 28. Historische Stilfragen interessieren Negroponte dementsprechend gar nicht. Im Gegenteil: Es sei leicht, beispielsweise eine Frank-Lloyd Wright-Heuristik zu implementieren, aber diese wäre nur ein ›Papagei formalen Verhaltens‹ und sage gar nichts über die »deeper intentions« eines Entwurfs (Nicholas Negroponte: Soft Architecture Machines, S. 196). Ähnlich kritisch steht er dem Einsatz von Zufallszahlen gegenüber, der in der europäischen Computerkunst damals hoch im Kurs stand: Komplexität lasse sich nicht über Zufall generieren, sondern entstehe erst innerhalb eines Entwurfsprozesses; Nicholas Negroponte: Soft Architecture Machines, S. 185.

281

Claus Pias

Auch dies wird bereits auf der ersten Seite klargestellt: »the book is about a new kind of architecture without architects«29 – zumindest nicht von professionellen Architekten hergebrachten Zuschnitts. Denn während andernorts verkündet wurde, dass »jeder Mensch ein Künstler« sei, so verkündet Negroponte, dass jeder Mensch ein Architekt sein könne, aber eben nur auf der technischen Grundlage von »very personal computing machine[s]«. Waren die Architekten gewissermaßen die Schriftkundigen einer illiteraten Gesellschaft,30 so entstehe durch Computer gar nicht unbedingt jene vielbeschworene allgemeine computer literacy, sondern möglicherweise erst einmal eine spezielle »architecture literacy«. Denn um Architektur mit dem Rechner zu entwerfen, müsse man nicht einmal am Bildschirm sitzen; im Gegenteil: »It does not mean that every designer must sit in front of one of these uncomfortable cathode-ray-tubes.«31 Partizipation (ein häufig fallendes Wort) soll heißen, dass jeder sein eigenes Haus am und mit dem Rechner entwerfen kann, weil dieser (als Expertensystem) nicht nur seine Ansprüche am besten »versteht«, sondern auch eine gemeinsame Kreativität hervortreibe, indem er sich nicht bloß »problem-solving«, sondern auch »problem worrying« verhalte. 32 Ob das auch jeder will, mag – wie bei so vielen partizipativen Utopien – einmal dahingestellt sein. Jedenfalls ist dies der avisierte Modus einer Kopplung von high tech und Partizipation, innerhalb dessen (gerade durch modernste Technik) eine Qualität von Architektur entstehen soll, die diese Technik wieder vergessen macht und zu Phänomenen führt, wie sie (mit Yona Friedman) bislang nur in der indigenen Architektur zu beobachten waren (intuitive Lösungen mit lokalen Materialien, Formen und Gebrauchsweisen usw.).33 Die einzige infrastrukturelle Bedingung dafür sei das Raster, auf dem dann jeder treiben könne was er wolle, solange es den Nachbarn nicht stört, was sich ja durch Computersimulation prüfen ließe. Auch hier hilft ein kleiner Schritt zurück dabei, den historischen Kontext zu charakterisieren. Nachdem die 1950er Jahre von einer Art »Ersatzphantasma« der Ersetzung menschlicher Intelligenz durch Computer als »Denkmaschinen« oder »Elektronengehirne« beherrscht waren, 34 begannen die 60er, für kollegiale, dialogische Verhältnisse zu plädieren, und versuchten, diese auch technisch zu implementieren. Beispielhaft seien hier nur die Arbeiten Joseph Lickliders 29. Nicholas Negroponte: Soft Architecture Machines, S. 1. 30. Vgl. ebd., S. 101. 31. Ebd., S. 59. 32. Ebd., S. 37. 33. Vgl. ebd., S. 103. 34. Jörg Pflüger: »Konversation, Manipulation, Delegation: Zur Ideengeschichte der Interaktivität«, in: Hans Dieter Hellige (Hg.): Geschichten der Informatik. Visionen, Paradigmen, Leitmotive, Berlin, Heidelberg, New York 2004, S. 367-408.

282

Jenseits des Werkzeugs

genannt. Nach einem genotypischen Vergleich, was spezifisch menschlich und was maschinisch sei, schlägt Licklider aus der Differenz Kapital: In der Symbiose zwischen beidem (bspw. schneller serieller und langsamer paralleler Verarbeitung) soll Denken und Arbeiten mit einer ungewohnten Effektivität stattfinden. 85% des Denkens, so Licklider, sei »clerical and mechanical«, und dies solle der Rechner in Echtzeit machen, damit der Mensch sich umso mehr auf die übrigen 15% konzentrieren und seine eigensten Kompetenzen entfalten könne. Wohlgemerkt allerdings die Kompetenzen des Ingenieurs oder Militärs, denn es geht hier um Arbeitseffizienz und -geschwindigkeit im alltäglichen Wettlauf des Kalten Krieges, die Licklider in Form einer »time and motion analysis of technical thinking« vom Taylorismus ins digitale Zeitalter überträgt. Der Zukunftshorizont dieser Form von Computerarbeit ist einer von Problemen und effektiveren Lösungen wie etwa das »technical project meeting« oder die militärische Entscheidungsfindung. Die effektivitätssteigernde Symbiose bleibt jedoch in gewisser Weise konservativ im anthropozentrischen Grundvertrauen: Menschen setzen die Ziele, Computer machen die Routinearbeit, weswegen dann Menschen wiederum besser über ihre Ziele nachdenken können. Doch dieser Punkt, über den man gewiss auch streiten könnte, ist hier gar nicht der entscheidende. Vorrangig geht es um die Vorstellung, es bloß mit der effektiveren Lösung einigermaßen scharf definierbarer Probleme zu tun zu haben, die einen absehbaren rechnerischen und bürokratischen Aufwand bedeuten, auf den der Computer beschleunigend und entlastend wirkt. Denn diese Optimierungsideologie ist der Ort, an dem Negropontes Kritik von Herr-Knecht-Verhältnissen anhebt und der Eigensinn eines »problem worrying« angesichts unscharfer Problemlagen gegen das »problem solving« umrissener Aufgaben geltend gemacht wird. Der zweite bemerkenswerte Umstand ist die Hackerkultur, die einen experimentierenden, respektlosen Umgang mit dem Computer etabliert hatte und die spielerische Entdeckung latenter Möglichkeiten mit einer ästhetischpolitischen Perspektive verbunden hatte.35 Dabei war es entscheidend, dass der Computer weder als »Elektronengehirn« oder »Denkmaschine« noch als werkzeughafter Kalkulator begriffen wurde, sondern als »Medium«. Ausschlaggebend dafür war die enorme Konjunktur der Schriften Marshall McLuhans, dessen Theoriedesign zwar selbst schon einer Vorgeschichte der Kybernetik verpflichtet ist, die konkrete, materielle Computertechnik aber gerade nicht berücksichtigte.36 Eine Theorie, die technische Details weiträumig umfährt, lieferte insofern die Konzepte für technische Virtuosen, die bislang die The35. Vgl. Claus Pias: »Der Hacker«, in: Eva Horn/Stefan Kaufmann/Ulrich Bröckling (Hg.): Grenzverletzer, Berlin 2002, S. 248-270. 36. Vgl. bspw. Marshall McLuhan: »Cybernation and Culture«, in: Charles R. Dechert (Hg.): The Social Impact of Cybernetics, New York 1967, S. 95-108.

283

Claus Pias

orie weiträumig umfahren hatten. Das Experimentieren mit Medienfunktionen wurde plötzlich als »Medientheorie« artikulierbar, weil McLuhans medientheoretische Diagnose des Computerzeitalters von Leuten gelesen wurde, die technisches Verständnis für das Potential des Computers hatten, und nun plötzlich merkten, dass sie es mit einem Medium zu tun hatten.37 Wenn und sobald der Computer aber als Medium den »bias« des Denkens und Wahrnehmens einer Kultur mitbestimmt, eröffnet sich ein utopisches Einsatzgebiet, wie es der McLuhan-Leser Ted Nelson beschrieben hat: »today, at this moment, we can and must design the media, design the molecules of our new water […] Computers offer us the first real chance to let the human mind grow to its full potential«.38 Durch den Medien-Begriff war es möglich geworden, dass sich die verstreuten Basteleien der Sechziger zu jenen pädagogischen, politischen und ästhetischen Programmen bündelten, in deren Reichweite verschiedenste Projekte von Home-, Personal- oder Volks-Computern erschienen, um »objects to think with« (Seymour Papert) zu demokratisieren und den Übergang von »precomputer cultures« zu »computer cultures« herbeizuführen. Und in diesem Kontext wurden – wie bei Negroponte – gegen die Ideologie der Optimierung von Arbeitsprozessen und der Zentralisierung von Rechenleistung dezentrale Strukturen und das kreative und ästhetische Potential des Computers hervorgehoben (etwa Komponieren, Schreiben, Zeichnen, Spielen, eigene Programme schreiben am XEROX Parc), wurden technisch implementiert und utopisch aufgeheizt. Der Forderung, dass »jeder Mensch ein Architekt« sein könne, liegt also schon diejenige zugrunde, dass jeder Mensch erst mal ein Computerbenutzer werden müsse.

Mind the gap Weil die Welt bekanntlich umso komplizierter wird, je genauer man hinschaut, eignet sich die distanzierte Betrachtung zweier partikularer Beispiele vielleicht recht gut, um gewisse Oppositionen überdeutlich vorzuführen. Denn was seinen gemeinsamen Ausgangspunkt im Aufstieg der Kybernetik seit Ende des zweiten Weltkriegs hat, spaltet sich um 1968, wie an Kiemle und Negroponte exemplarisch abzulesen ist, in sehr verschiedene Richtungen, die möglicherweise eine medienhistorische Differenz europäischer und amerikanischer Verhältnisse markieren.39 Während es im einen Fall um die Behauptung experimentell verifizierbarer Wissenschaftlichkeit im Bereich der Ästhetik geht, geht es im ande37. Vgl. Claus Pias: »Die Welt des Schmoo. ›Computer als Medium‹ – nach, mit und neben McLuhan«, in: Derrick de Kerckhove u. a. (Hg.): McLuhan neu lesen, Bielefeld 2008, S. 140-157. 38. Ted Nelson: Computer Lib/Dream Machines, Chicago 1974, S. 2. 39. Fred Turner: From Counterculture to Cyberculture. Stewart Brand, the whole Earth Network, and the Rise of Digital Utopianism, Chicago 2006.

284

Jenseits des Werkzeugs

ren Fall um ein wissenschaftstheoretisch ungesichertes Experimentieren im Ästhetischen. Werden im einen Fall die historischen Materialisierungen von Kreativität untersucht, so werden im anderen Fall technisch-materielle Infrastrukturen für kreative Prozesse geschaffen. Der Vergangenheitsorientierung von Instrumenten der Kritik steht die Zukunftsorientiertheit von Instrumenten der Fiktion gegenüber. Dem Apriori vorgängiger Repertoires stellt sich die prozessuale Komplexierung entgegen, dem axiomatischen top-down der mathematischen Informationstheorie antwortet das heuristische bottomup von gebastelter Hard- und Software. Bleibt im einen Fall die Mathematik das Medium, das nicht als Medium reflektiert wird, so ist es im anderen Fall die Entdeckung des Computers als Medium, die die meisten Reflexionen erst erlaubt. Auf eine Emphase der Objektivität respondiert eine Emphase der Kreativität, die ins Ungewisse führen soll statt Gewissheit zu schaffen. Paper tools stehen gegen Geräteparks. Wo einerseits der Kritiker abgeschafft wird, um das intentionale Künstlersubjekt zu hypostasieren, wird andererseits der Architekt als Experte abgeschafft, um den medial ausgerüsteten User zu hypostasieren. Geht es auf der einen Seite um eine Verwissenschaftlichung und die Ideologie der Ideologiefreiheit, so geht es auf der anderen Seite um eine Demokratisierung und die Ideologie der Partizipation. Die Informationsästhetik fiel schon um 1968 den Vorwürfen von »instrumenteller Vernunft« und »Technokratie« zum Opfer, verwandelte sich in Semiotik oder versank unter der soziologischen Hegemonie der 70er, während der Personal Computer als Medium ab diesem Zeitpunkt erst aufblühte und der kreative Imperativ erst wesentlich später als »Kalifornische Ideologie« gebrandmarkt wurde und dies einigermaßen glimpflich überlebt hat. Bemerkenswert bleibt dabei vielleicht der Einsatz von Medientheorie. Während in Amerika das Denken von Medialität in eine Praxis eingebettet wurde, die sich damit selbst als mediale beschreiben konnte, blieb der Computer als Medium der europäischen Informationsästhetik äußerlich. Selbst die computergraphischen Experimente der Stuttgarter Schule, die ja die analytisch-kritische Hälfte der Informationsästhetik um ihre synthetisch-praktische vervollständigt hatten, dachten den Computer als Rechner und nicht als Medium. Insofern sind die hier geschilderten architektonischen Debatten um die Möglichkeiten einer quantitativen Architekturästhetik einerseits und eine medientechnische »Revolution« des Architekturentwurfs andererseits nur Symptome einer wahrscheinlich tiefergehenden Spaltung zwischen europäischen und amerikanischen Ansätzen. »Medienwissenschaft« als akademisches Fach begann deshalb (zumindest in Deutschland) um 1970 erst noch einmal kritisch-hermeneutisch und werkorientiert beim Film und auf der medientechnischen Basis des (analogen) Videorecorders. So sollte es noch bis in die 80er Jahre dauern, bis der »Com-

285

Claus Pias

puter als Medium« Eingang in die neue Disziplin finden konnte40 und die Frage nach ihrer Analysekompetenz für jene Produkte gestalterischer Fächer virulent werden konnte, die vom Computer als Medium abhängig sind. Da diese sich, wie an Negropontes Arbeit deutlich wurde, nicht nur praktisch mit dem Computer auseinandersetzten, sondern eine originäre Reflexionsebene von Medialität innerhalb der Gestaltung ausbildeten, mag man von einer Medientheorie vor oder neben der akademischen Medienwissenschaft sprechen – einer Medientheorie, die zugleich ein mediales Geschehen ist.41 In diesem Sinne muss Medientheorie nicht an Universitäten stattfinden und muss sich auch nicht in Büchern und Aufsätzen niederschlagen. Vielmehr erweist sie sich als teilautonom gegenüber einer Medienwissenschaft, deren bevorzugter Gegenstand sie aber gleichwohl (z.B. im Rahmen einer historisch-epistemologischen Betrachtung) sein kann. Problematisch ist nicht, dass es historische Formen des Denkens von Medialität jenseits des Begriffs »Medium« gibt, sondern wie sich eine institutionalisierte Medienwissenschaft gegenüber jenem Reflexionspotential von Medialität verhält, das sich innerhalb einer technischmateriellen, ästhetischen Praxis herausbildet und sich (trotz der Konjunktur des Konzepts »künstlerischer Forschung«) nicht allein in wissenschaftlichen Aufsätzen und Büchern artikuliert.

40. Vgl. Claus Pias: »Asynchron – Einige historische Begegnungen zwischen Informatik und Medienwissenschaft«, in: Informatik Spektrum 31/1 (2008), S. 5-8. 41. Lorenz Engell: »Tasten, Wählen, Denken. Genese und Funktion einer philosophischen Apparatur«, in: Stefan Münker/Alexander Roesler/Mike Sandbothe (Hg.): Medienphilosophie. Beiträge zur Klärung eines Begriffs, Frankfurt/Main 2003, S. 53-77.

286

A Non-Sentimental Argument Die Krisen des Design Methods Movement 1962-1972 JESKO FEZER

Das »Design Methods Movement« war eine sehr unbeliebte Bewegung. So unbeliebt, dass sogar ihre Begründer sich schnell von ihr distanzierten. Der Industriedesigner John Christopher Jones, der im September 1962 die »Conference On Design Methods« initiierte, die als Beginn der Auseinandersetzung mit Entwurfsmethoden gilt,1 verabschiedete sich mit den Worten: »the result was rigidity: a fixing of aims and methods to produce designs that everyone now feels to be insensitive to human needs.«2 Auch der Mathematiker und Architekt Christopher Alexander, der 1962 mit »Notes on the Synthesis of Form« die Diskussion um wissenschaftliches architektonisches Entwerfen eröffnete, argumentierte neun Jahre später, dass das ursprüngliche Ziel, den Menschen zu ermöglichen, bessere Gebäude zu entwerfen, einem intellektuellen Spiel gewichen sei, das teilweise »nutty and freaky«3 sei. Auf die Frage, auf welchem Gebiet die Entwurfsmethodik weiterforschen sollte, antwortet er: »I would say forget it, forget the whole thing.«4 Es wiederholte sich eine Krise der Entwurfsdisziplin, 5 die der Mathematiker und Physiker Horst Rittel, selbst Mitglied der »Design Methods Group«, als Ausgangspunkt der Entwurfsmethodik folgendermaßen beurteilte: »the occurrence of interest in methodology in a certain field is usually a sign of crisis within that field«.6 Und die Geschichte der Architektur hatte ihr hartes Urteil über diese Bewegung schnell gefällt. So verurteilte Colin Rowe in »Collage 1. Vgl. Nigan Bayazit: »Investigating Design: A Review of Forty Years of Design Research«, in: Design Studies 20,1 (2004), S. 16-29, S. 18; und Nigel Cross: »Forty Years of Design Research«, in: Design Research Quarterly 1,2 (2007), S. 2-4. 2. John Christopher Jones: Designing Designing, London 1991, S. IX. 3. Christopher Alexander/Max Jacobson: »The State of the Art in Design Methodology«, in: DMG Newsletter 5,3 (1971), Berkeley, S. 3-7, S. 4. 4. Christopher Alexander/Max Jacobson: »The State of the Art in Design Methodology«, S. 5. 5. Robert A. Fowles: »What Happened to Design Methods in Architectural Education? Part One – A Survey of the Literature«, in: Design Methods & Theories 1 (1977), S. 17-31, S. 17. 6. Horst Rittel: »The State of the Art in Design Methods« (Interview mit Jean-Pierre Protzen und Donald P Grant), in: DMG 5th Anniversary Report: DMG Occasional Paper 1 1972, S. 5-10, zitiert nach: DMG-DRS Journal 1,2 (1973), S. 143-147, S. 143.

287

Jesko Fezer

City« Ende der 1970er Jahre die Suche nach rationalen Entwurfsmethoden kategorisch: »Es versteht sich von selbst, dass in Bereichen, wo die ›Wissenschaft‹ der früheren Modernen Architektur als schmerzlich mangelhaft empfunden wird, die angewendeten Methoden oft mühselig und langwierig sind. […] Und deshalb können die Ergebnisse von ›Methodologie‹ und ›System‹ (in Bezug auf Tatsachen und Raum) nur das Gegenteil von dem sein, was beabsichtigt war – im einen Fall Prozess zum Gegenstand der Verehrung erhoben und im anderen die verborgene Formulierung einer tendenziösen Idee.«7 Es waren unerwartet Schwierigkeiten bei der Suche nach rationaleren Methoden des Entwerfens aufgetreten. Je genauer man ihren Gegenstand betrachtete und ihre Auswirkungen untersuchte, umso klarer wurde, auf welch komplexe Weise der Prozess des Entwerfens in die Dynamiken politischer und sozialer Diskurse eingebunden war. Dies schien mit den Methoden eines zunächst technologisch-mathematisch geprägten Ansatzes bald nicht mehr zu fassen, und die Diskussion um Methodiken des Entwerfens verschob sich Ende der 1960er Jahre zu politisch-soziologischen Ansätzen. Die grundlegende Argumentation jedoch, auf der die Entwurfsmethodik aufbaute, wurde nicht aufgegeben. Die Idee, Planungs- oder Entwurfsvorgänge so weit wie möglich zu objektivieren und damit der Kommunikation, Kritik und letztlich der Verbesserung zugänglich zu machen, motivierte auch Projekte der Partizipation oder der Anwaltsplanung, die wieder sehr streng hergeleitete Verfahrensansätze darstellten. Die Politisierung der Architektur, die am Ende des Design Method Movement stand, war in dieser Hinsicht weniger eine Revision wissenschaftsgläubiger Entwurfskonzepte seiner Frühphase als vielmehr eine durch die Analyse der Möglichkeiten, Grenzen und Folgen entwerferischen Tuns begründete Erweiterung des Begriffsfeldes und damit der Auffassung des Entwerfens. Aus dem die Entwurfsmethodik von vorneherein auszeichnenden Prinzip strenger Selbstreflexion folgte konsequent das Infragestellen des Strebens nach Objektivität, Verallgemeinerbarkeit, technischer Handhabbarkeit und Kontrolle. Vielleicht erfüllte sich gerade in dieser Abkehr von einer mathematisch-technischen Entwurfstechnik der Anspruch nach entwerferischer Rationalität als glaubwürdige Reflexion ihrer Ursache-Wirkungs-Zusammenhänge. Im Rückblick stellte die frühe Phase des Design Methods Movements Anfang der 1960er Jahre dennoch eine von Enthusiasmus und Optimismus getragene Entdeckung neuer Ansätze des Entwerfens dar. Junge Planer und Architekten in Europa und den USA studierten die Prinzipien, Praxen und Verfahren des Entwerfens. In unzähligen Zusammenkünft Zusammenkünften, en, Texten, Seminaren, Publikationen und Konferenzen tauschten sie ihre Erkenntnisse aus 7.

Fred Koetter/Colin Rowe: Collage City, Cambridge 1978, 5. erw. Aufl. Basel 1997, S. 130.

288

A Non-Sentimental Argument

und suchten nach angemesseneren Entwurfsverfahren, die in der Lage wären, bessere Ergebnisse in Architektur und Stadtplanung zu erzielen. Diese Bewegung stellte Ende der 1960er Jahre einen heute kaum mehr bekannten internationalen architektonischen Leitdiskurs dar, der besonders in den USA, Großbritannien aber auch in Deutschland großen Einfluss auf die zeitgenössische Architekturpraxis und -theorie sowie auf die sich neu ausrichtenden Ausbildungsprogramme hatte.

Methodentransfer Die im September 1962 am Fachgebiet für Luftfahrt des Londoner Imperial College abgehaltene »Conference on Systematic and Intuitive Methods in Engineering, Industrial Design, Architecture and Communication« (Abb. 1) war als ein erster Versuch angelegt, die damals neu entstehenden Entwurfsmethoden zu verstehen und zu beschreiben. Während Methoden aus vielen anderen Disziplinen aufgegriffen und auf Fragen der Gestaltung angewandt wurden, kamen damals nur drei der siebzehn Vortragenden aus dem Feld der Architektur. Beispiele aus dem Management, der Produktentwicklung, der Buchführung und des Marketing ebenso wie Schauspiel, Malerei, musikalischer Komposition, Literatur, Philosophie, Sozialarbeit und Pädagogik wurden vorgestellt. In n all diesen Bereichen tauchten unter den Stichworten »operational research, work study, social work, discounted cash flow, market research, ›method‹ acting, drip painting, serial music, stream-of-consciousness, novel writing, linguistic philosophy, the science of science, coordinate indexing, group dynamics, programmed learning and war gaming«8 unterschiedliche Entwurfsansätze auf. Den Zusammenhang mit der militärischen Planung erwähnte Jones dabei als letzte Referenz, obwohl dort wohl die stärksten Bezüge lagen. Während des Zweiten Weltkriegs wurden für militärische Zwecke neue Techniken des Entwerfens von Waffen und Ausrüstung, neue Methoden und Strategien der Entwicklung und Kontrolle und neue Entscheidungsfindungstechniken entwickelt. »Operations Research« beispielsweise, ein Teilgebiet der Betriebswirtschafts- und Managementlehre, das mathematische Modelle zur Abbildung von Entscheidungsproblemen und zur Ableitung von Handlungsempfehlungen benutzt, wurde damals unter anderem zur Bestimmung der optimalen Größe, Anordnung und Zusammensetzung des Begleitschutzes für Schiffskonvois oder der effektivsten Breite von Bombenteppichen in Bezug auf ihre Genauigkeit und Streubreite entwickelt, bevor es im ökonomischen Bereich eingesetzt wurde. Die Entwicklung des Radars oder die Truppenversorgung waren »Entwurfs- und Entscheidungsprobleme, die nach herkömmlicher 8.

Ebd.

289

Jesko Fezer

Art nicht mit hinreichend hoher Erfolgssicherung gelöst werden konnten«.9 Es war primär die Notwendigkeit annährend fehlerfreier Ergebnisse, die ohne Versuch und Irrtum schnell umgesetzt werden mussten, die die Entwicklung von Entwurfsmethoden zur Kriegsführung beförderte.10

Abb. 1: Chris Jones: Conference on design methods, London 1962 (Buchcover).

Daher sah auch Horst Rittel in der militärischen Forschung den entscheidenden Anknüpfungspunkt für die Entwurfsmethodik: »if it were possible to deal with such complicated things as NASA programmes, then why couldn’t we deal with simple things like a house in the same way.«11 Die erste Konferenz zur Entwurfsmethodik war von noch sehr heterogenen und unausgereiften subjektiven Ansätzen der Entwurfsmethodik ge9. Horst Rittel: »Zur wissenschaftlichen und politischen Bedeutung der Entscheidungstheorie«, in: Helmut Krauch/Werner Kunz/Horst Rittel (Hg.): Forschungsplanung. Eine Studie über Ziele und Strukturen Amerikanischer Forschungsinstitute, München, Wien 1966, S. 110129, S. 111. 10. »Nach strikt wissenschaftlichen Empfehlungen orientieren sich Bürokraten, Militärs und Politiker in Ausübung ihrer öffentlichen Funktionen erst seit etwa einer Generation, ja, in größerem Stil erst seit den Tagen des Zweiten Weltkrieges. Damit ist eine neue Stufe jener Rationalisierung erreicht, als die Max Weber schon die Ausbildung der bürokratischen Herrschaft moderner Staaten begriffen hat.« Jürgen Habermas: »Verwissenschaftlichung in demokratischer Politik«, in: Krauch, Kunz, Rittel: Forschungsplanung, S. 130-145, S. 130 11. Interview mit Horst Rittel in: DMG 5th Anniversary Report 1972, S. 140-144, S. 143

290

A Non-Sentimental Argument

prägt.12 Ihr Verdienst war in erster Linie, die neuen Fragestellungen publik zu machen, Ansätze zu verknüpfen, Thesen zu dokumentieren und ein erstes Netzwerk auszubilden. Aus dem Komitee der Konferenz entstand später die britische »Design Research Society«. Deren Gründung 1966 und die der amerikanisch-kanadischen »Design Methods Group« im selben Jahr ermöglichten bald drauf einen regelmäßigen Austausch aller Beteiligten.

Beschränkte Ziele Zunächst aber fand, organisiert von der interdisziplinären »Design and Innovation Group« um den Chemiker Sidney Gregory, im September 1965 an der University of Aston in Birmingham die Tagung »The Design Method« statt. Unter den 28 Referenten und Referentinnen waren wieder lediglich ein Architekturdozent (Broadbent) und ein Architektursoziologe (Penny). Und bis auf den in die Vorbereitungen involvierten Christopher Jones fand sich eine völlig andere Zusammensetzung des Teilnehmerkreises, der sich primär aus Vertretern der Bereichen Elektroingenieurswesen, Industriedesign, Produktentwicklung, Maschinenbau, Informationstechnologie, aber auch Chemie, Philosophie und Ergonomie bestand. Diese interdisziplinäre Ausrichtung entsprach nicht nur dem verstreuten Auftauchen der Entwurfsmethodik in verschiedenen Forschungsgebieten, sondern auch der These des Initiators Sydney Gregory. Dieser ging nämlich von der Annahme aus, dass der Entwurfsprozess in allen unterschiedlichen Disziplinen, bei denen Gestaltungsfragen auftauchten, ein einheitliches Muster aufweise, das er die Entwurfsmethode nannte. Demnach sei ein Entwurf »a process the pattern of which is the same, whether it deals with the design of a new oil refinery, the construction of a cathedral, or the writing of Dante’s Divine Comedy.«13 Gregory benannte erstmals ganz explizit allgemeine Ziele der Entwurfsmethodik – hochgesteckte und dennoch beschränkte: Zunächst sei eine Entwurfswissenschaft für großmaßstäbliche Planungen wie im Bereich der chemischen Industrie und der Energieversorgung und des Bauwesens schlicht notwendig, um nationales Überleben zu sichern. Wichtiger aber noch: »For the man in the street a study of design method means the potentiality of better products and greater satisfaction.«14 Gregory begründete das Anliegen der Methodiker bereits früh mit den Bedürfnissen der Nutzer, begriff diese allerdings

12. »The methods proposed at that conference were simplistic in character. Everyone was systematizing his or her own approach to design, and externalizing it as design method.« Nigan Bayazit: »Investigating Design«, S. 18 13. Sidney Gregory: The Design Method, London 1966, S. 3. 14. Ebd.

291

Jesko Fezer

stark über den Markt vermittelt als Konsumenten, denen bessere Produkte zur Verfügung gestellt werden müssten. Damit artikulierte er sehr deutlich zwei Punkte, die später innerhalb der Diskussion um Entwurfsmethoden in der Architektur interne Kritik erfahren sollten. Einerseits führte die Übertragung von Erkenntnissen und Verfahren aus anderen Disziplinen in die Architekturproduktion zu praktischen und theoretischen Problemen. Der Anspruch auf Allgemeingültigkeit dieser Methoden wurde bald als fragwürdig angesehen. Und andererseits kam, obwohl Gregorys Bezug auf die Nutzer partizipative Tendenzen späterer Jahre vorwegnahm, politische Kritik an der Fixierung auf den Markt, die Kunden und den Nationalstaat auf. Als Ende der 1960er Jahre die repressive Logik des Kapitalismus und seiner Institutionen auch im Kontext des Design Methods Movement angegriffen wurde, stellte man diesem marktförmigen und staatstragenden Anspruch ein gesellschaftskritisches und emanzipativ ausgerichtetes Konzept der Partizipation entgegen.

Etablierung einer Disziplin Die Idee, einen regelmäßigen Newsletter zur Entwurfsmethodik zu initiieren, kam laut dem späteren Herausgeber Gary T. Moore15 auf der Konferenz »Planning and Design 66. Computers in Design and Communication«16 am Department of Design der kanadischen Universität Waterloo auf. Die Konferenzteilnehmer Marvin Manheim und Martin Krampen sowie Gary T. Moore, der in Waterloo als Gast anwesend war, und andere, an die dieser sich später nicht mehr erinnern konnte,17 entschlossen sich spontan, die auf der Konferenz begonnene Auseinandersetzung, mit der Gründung eines Netzwerkes – der Design Methods Group – fortzuführen. Ihr Hauptanliegen war, einen Rundbrief für die Mitglieder der zu bildenden Gruppe herauszugeben und jährliche Konferenzen zur Entwurfsmethodik zu organisieren. Die Liste der Mitglieder und damit gleichzeitig der Leser und Autoren des Rundbriefes, die in der ersten Ausgabe durch Abdruck aller Namen offen gelegt wurde, belegt eine breite Verankerung der Design Methods Group in der wissenschaftlichen Community in den Bereichen Planung und Architektur.18 15. Vgl. Gary T. Moore: »What is the Design Methods Group?«, in: DMG Newsletter 1,1 (1966), S. 1. 16. Dazu: Martin Krampen/Peter Seitz (Hg.): Design and Planning. Computers in Design and Communication, New York 1967. 17. Vgl. Gary T. Moore: »Letter to the Editor«, in: Design Methods & Theories 14,1 (1980) S. 22-24, S. 22. 18. Unter den knapp 200 Personen, die alle wesentlichen Akteure der hier bisher beschriebenen und noch folgenden Konferenzen einschlossen, fanden sich auch prominente Architekten wie beispielsweise Denise Scott Brown oder der mit Charles Moore damals am vielbeachteten Projekt »Sea Ranch« an der Kalifornischen Küste arbeitende Joseph Esherick. Später wurde ein Editorial Advisory Board eingeführt, dem unter anderem Christopher

292

A Non-Sentimental Argument

Bezeichnenderweise stellte die erste Ausgabe des DMG-Newsletters primär dessen »Methode« vor. Das zunächst komplett auf der Schreibmaschine gelayoutete Blatt sollte ein Kommunikationsmittel einer »loose coalition of people engaged in research or application of rational theories and methods of environmental design«19 sein. Dazu gaben die Herausgeber die genaue Zeichenzahl aller Textformate an und die Kommunikationswege, auf denen Beiträge eingereicht werden konnten. Die anfangs nur kopierten etwa 8-seitigen Schriften waren eine Art internes Mitteilungsblatt, das nur aus Beiträgen der Mitglieder bestand und knapp über anstehende Konferenzen, neue Studiengänge, Publikationen und Forschungen sowie konkrete Projekte informierte. Der Anspruch, Wissen kurzfristig zugänglich zu machen und die Forschung and Anwendung methodischer Verfahren zu unterstützen, schlug sich besonders in den von wechselnden Autoren zusammengestellten Bibliographien zur Entwurfsmethodik, den Aufrufen zur Teilnahme an unterschiedlichen Tagungen und dem Abdruck mathematischer Formeln sowie Computeranwendungen in Programmiersprache nieder.

Selbstkritik Seltsamerweise aber wurde in dieser Gemengelage die bis dato größte Konferenz zur Entwurfsmethodik nicht angekündigt oder auch nur besprochen. Die Information darüber ging möglicherweise in der exzessiven Ankündigungspolitik für die eigene DMG-Konferenz im Jahr darauf unter. Im Dezember 1967 fanden dennoch 400 Teilnehmer ihren Weg in den an der Südküste Englands gelegenen Ort Portsmouth, um die Konferenz »Design Methods in Architecture« zu besuchen (Abb. 2). Geoffrey Broadbent, Leiter der Portsmouth School of Architecture und Anthony Ward, der mit einem Forschungsstipendium nach Portsmouth gekommen war und kurz darauf als Professor nach Berkeley berufen wurde, konzipierten und organisierten dieses Treffen.20 Nach der im Frühjahr des Vorjahres an der Hochschule für Gestaltung Ulm abgehaltenen Tagung zu Fragen der Methodik in der Architekturausbildung wurde in Portsmouth die Diskussion erstmals explizit im Bereich der Architektur angesiedelt. Dies war von großen Kontroversen geprägt. Im Vorfeld von 1968 traten politische Fragen auf die Tagesordnung, die bisher in dieser Schärfe nicht in die Kreise der Planungsmethodiker getragen wurden oder auch von der Vielstimmigkeit der interdisziplinären Treffen übertönt wurden. Alexander, John Christopher Jones, Marvin Manheim, Barry Poyner, Horst Rittel, Martin Starr und später auch Henry Sanoff angehörten. 19. Gary T. Moore: »What is the Design Methods Group?«, S. 1. 20. Vgl. Anthony Ward: »Introduction«, in: Geoffrey Broadbent/Anthony Ward (Hg.): Design Methods in Architecture, New York 1969, S. 10-13, S. 10.

293

Jesko Fezer

Die Veranstaltung, die eine kritische Bestandsaufnahme sein sollte, war geprägt von der Konfrontation zwischen »Behavioristen«, die davon ausgingen, dass das menschliche Verhalten mit naturwissenschaftlichen Methoden erfassbar wäre und einem »marxist-existentialist view«, 21 der das Individuum und seine Möglichkeit, auf die ihn umgebene Umwelt einzuwirken, stärker betonte. Letzterer bezog sich laut Broadbent auf Literatur, wie sie damals in aktivistischen Studentenkreisen zirkulierte und wenige Monate vor den Studentenunruhen in Nanterre, Berlin, London und eben auch Berkeley, dem Sitz der »Design Methods Group«, eine kulturelle Verschiebung auslöste, deren Auswirkungen die Pioniere der Entwurfsmethodik mit voller Wucht traf. Die Rolle, die Entwerfer als Stützen des von einer neuen Architekten-Generation kritisierten kapitalistischen Systems spielten, wurde dabei problematisiert. Man hinterfragte den Beitrag von Entwurfsmethoden zur Steigerung der Effektivität der Produktion kapitalistischer Güter, zur Stimulation der Nachfrage sowie zur Produktion von Konsens. Einige Gestalter und Architekten weigerten sich, ihre Fähigkeiten in diesem Kontext einzusetzen: »They refuse to be a party to any activity which inhibits the potential of other people to grow into what they conceive themselves to be. So increasingly we find designers who do not want to make design decisions […]«22 In Berkeley, wo Horst Rittel, Christopher Alexander, Melvin Webber und West Churchmann als Professoren großen Einfluss ausübten und viele der späteren Akteure wie Anthony Ward oder Henry Sanoff studierten, promovierten oder ebenfalls unterrichteten, kumulierten die US-amerikanische Studentenbewegung und die Protestbewegungen gegen den Vietnamkrieg. Als 1961 der radikale Bürgerrechtler Malcolm X Redeverbot auf dem Campus erhielt und es den Studierenden ebenfalls verboten wurde, dort politisch Stellung zu beziehen, gründete sich das »Free Speech Movement«. In immer größeren Demonstrationen protestierte man für Redefreiheit und gegen den Krieg in Vietnam. Auch außerhalb des Campus bildete sich eine Hochburg der Alternativkultur und der Hippiebewegung, die sich Ende der 1960er Jahre bei den gewaltsamen Auseinandersetzungen um den »People’s Park« mit den politischen Studentenprotesten verband. Für Broadbent drückte sich insgesamt in dieser Konferenz eine Ernüchterung über die Möglichkeiten und Relevanz der Entwurfsmethodik aus. Sie war aber zugleich Symptom einer Absetzbewegung von den frühen Ansätzen der »ersten Generation« und einer Politisierung der Entwurfsmethodik. Insbesondere die Vorträge von Studer, Ward, Daley und Rapoport zeugten von der damaligen Krise der Planungsmethodik, oder, besser gesagt: von der Intensi21. Geoffrey Broadbent: »The Development of Design Methods – A Review«, in: Design Methods & Theories 1 (1979), S. 41-45, S. 42. 22. Ebd.

294

A Non-Sentimental Argument

tät und Ernsthaftigkeit einer selbstkritischen Debatte, die sich mit den Folgen ihres architektonischen Tuns, der Anwendbarkeit und den konzeptionellen und ideologischen Grundlagen ihrer Arbeit befasste.

Abb. 2: Geoffrey Broadbent/Anthony Ward (Hg.): Design Methods in Architecture, New York 1969 (Buchcover).

Raymond G. Studer, ein als Architekt ausgebildeter Professor für Umweltgestaltung an der Pennsylvania State University, gab einen fundierten Überblick über die Anwendung von Erkenntnissen aus der Verhaltensforschung im Rahmen von Entwurfsverfahren. In seinem Vortrag entwickelte Studer ein komplexes Schema von Beeinflussung, Bewertung und Rückkopplung zwischen Verhalten und physischer Struktur (Abb. 3). Die Frage nach Zielen des Entwerfens jedoch, nach der von ihm erwünschten »Ausgeglichenheit« blieben merkwürdig offen. Er sprach von »requisite behaviours«23 und wie diese durch vorsichtige Beobachtung und extensive Befragungen der zukünftigen Nutzer in Erfahrung gebracht werden können. Studer beschränkte sich auf den Hinweis, dass es manchmal »a difficult and delicate procedure« 24 sein könne, die Werte und Absichten von Nutzern zu identifizieren und zu verobjektivieren.

23. Raymond G. Studer: »The Dynamics of Behaviour-Contingent Physical Systems«, in: Geoffrey Broadbent/Anthony Ward: Design Methods in Architecture, S. 55-70, S. 57. 24. Ebd.

295

Jesko Fezer

Abb. 3: Diagramm - Aus: Raymond G. Studer: »The Dynamics of Behaviour-Contingent Physical Systems«, in: Geoffrey Broadbent/Anthony Ward (Hg.): Design Methods in Architecture, New York 1969.

In diesem Punkt griff ihn insbesondere die amerikanische Philosophin Janet Daley scharf an. Sie kritisierte den naiven Determinismus der Verhaltensforschung, der Mittel und Zweck aufspalte und versuche, die menschliche Existenz eben zu »verobjektivieren«. In ihrem Vortrag »A Philosophical Critique of Behaviourism in Architectural Design« bezeichnete sie die Verhaltenswis296

A Non-Sentimental Argument

senschaft als nicht nur einfältig, sondern an »intellectual fascism« grenzend.25 Insbesondere die Art und Weise, wie sich diese Perspektive als unideologische darstelle, sich als »just a given set of tools for achieving practical ends« bezeichne, das frei von theoretischen und sogar ethischen Voraussetzungen operiere, hielt sie für unhaltbar. Die Arbeit der Behavioristen ziele laut Daley darauf, gesellschaftliche Umstände und ihre inneren Strukturen beizubehalten und vor diesem Wertehorizont die Individuen zu konditionieren: »it is the individual who must be made to fit, made to be socially viable – a ›useful citizen‹ in the most harrowing and relentless sense.«26 Broadbent fasste die kritischen Beiträge der Konferenz zusammen: »The new concern will be based on passionate concern for people’s needs.«27 Damit wird erstmals explizit die Orientierung an den Bedürfnissen der Nutzer an die erste Stelle gestellt. Für Broadbent war dies das neue Anliegen der Entwerfer. Wie genau das aussehen könnte, sollte erst später erörtert werden. Die kurz darauf als erste von der »Design Methods Group« organisierte Konferenz am MIT in Cambridge hielt Ward offensichtlich für einen Rückschritt gegenüber Portsmouth. In einem bissigen Seitenhieb auf die Design Methods Group erwähnte er die McCarthy Buttons, die überall auf der Konferenz am MIT zu sehen gewesen wären und berichtete: »Of the 20-odd Speakers a the conference none seemed remotely interested in the real world of the people, they were supposed to be designing for.«28 Obwohl auch Fragen der Anwendbarkeit und der Nutzerbeteiligung sowie philosophisch-theoretische Aspekte der Entwurfsmethodik angesprochen wurden, befassten sich die Beiträge dieser Zusammenkunft primär mit Computerprogrammierungen und Rechenverfahren zur Zerlegung von Planungsproblemen.

State of the Art in Design Methodology All diese Konferenzen wurden im DMG-Newsletter durch den Vorabdruck von Beiträgen oder zusammenfassenden Darstellungen ausführlich dargestellt. Die dabei angeschnittenen Fragen – die Grenzen des technischen Operationalismus, Partizipation und die Rolle der Entwurfsmethodik in den politischen Auseinandersetzungen – blieben jedoch innerhalb des DMG-Newsletter Randerscheinungen. Erst als sich 1971 die Redaktion an renommierte Vertreter dieser Forschungsrichtung aus dem engeren Umfeld der Design Methods 25. Janet Daley: »A Philosophical Critique of Behaviourism in Architectural Design«, in: Geoffrey Broadbent/Anthony Ward: Design Methods in Architecture, S. 71-75, S. 71. 26. Ebd., S. 73. 27. Geoffrey Broadbent: »Design Method in Architecture«, in: Geoffrey Broadbent/Anthony Ward: Design Methods in Architecture, S. 15-21, S. 20. 28. Anthony Ward: »Introduction«, S. 12.

297

Jesko Fezer

Group richtete und nach dem Stand der Entwurfsmethodik im Allgemeinen fragte, erhielt sie überraschende Antworten. Christopher Alexander eröffnete die 1971 begonnene Interview- und Statementreihe mit dem Titel »State of the Art in Design Methodology« und sorgte mit seiner bereits erwähnten unerwartet polemischen Abkehr von der Entwurfsmethodik einigermaßen für Irritationen. Er hatte bereits seit 1968 nicht mehr im DMG-Newsletter veröffentlicht und war gerade erst aus dem Redaktionskomitee ausgetreten. In einem Interview mit Max Jacobson, einem Mitarbeiter an Alexanders »Center for Environmental Structures« in Berkeley distanzierte sich dieser sehr scharf und grundsätzlich vom methodischen Anspruch und den Versuchen einer rationalen Analyse des Entwurfsprozesses.29 Alexander machte seine Kritik am persönlichen Erlebnis anschaulich, dass sich die Herausgeber des Dokumentationsbandes der ersten DMG-Konferenz30 weigerten, von ihm eingereichte Handzeichnungen abzudrucken. Das belegte für ihn eine große Intoleranz gegenüber menschlichen Ausdrucksformen und führe zu einem »machine-like character of buildings […] alienating and untouched by human hands«.31 Alexander begründete die Entstehung der Entwurfsmethodik einerseits durch die damalige Unzufriedenheit mit dem Zustand der Architektur, wie sie viele junge Architekten erlebten, aber auch mit einer Angst davor, etwas zu gestalten – als Ausrede. Er bekundete, dass dies in Teilen auch auf ihn zugetroffen habe. Solche Literatur wie den »Design Methods Newsletter« lese er aber inzwischen nicht mehr, da sie nichts Brauchbares mitzuteilen hätte. Er bekundete, inzwischen überzeugt zu sein, »people should design buildings for themselves.«32 Auch Christopher Jones gab sich kritisch: »So far I think design methodology has had more failures than success.«33 Als Grund dafür sah er die Trennung zwischen den Entwerfenden und den Nutzern, den Konsumenten und den Politikern an. Seine das Expertentum kritisierende und offene Kommunikationsstrukturen einfordernde Haltung setzte eine gravierende Veränderung in den institutionellen Strukturen der Entwurfstätigkeit, der Bezahlung und der Verantwortlichkeiten voraus. Lediglich im Bereich der Ausbildung waren für ihn konkrete Erfolge erkennbar. Die unzufriedenen »anti-architects and anti-engineers in whose hands the future probably lies« 34 würden sich die Erkenntnisse zu nutze machen. 29. Vgl. Christopher Alexander/Max Jacobson: »The State of the Art in Design Methodology«. 30. Gary T. Moore: Emerging Methods in Environmental Design and Planning, Cambridge, Mass., London 1970. 31. Christopher Alexander/Max Jacobson: »The State of the Art in Design Methodology«, S. 4. 32. Ebd., S. 6. 33. John Christopher Jones: »The State of the Art«, in: DMG Newsletter 5,8/9 (1971), S. 2-3, S. 2. 34. Ebd.

298

A Non-Sentimental Argument

Wie seinen Kollegen fiel es auch Horst Rittel schwer, Beispiele erfolgreicher Anwendung der Entwurfsmethodik in der Architektur zu benennen. Ihr Sinn läge daher eher darin, die Art der Entwurfstätigkeit und die Beschaffenheit von Problemen zu klären. Während andere sich jedoch von der Idee der Methodik verabschiedeten, an alten Annahmen festhielten oder schlicht ratlos waren, hatte Rittel in den letzten Jahren bereits eine neue Denkrichtung erarbeitet. Darum wurden auch ihm wie zuvor Alexander die fünf Fragen in Begleitung von zwei Herausgebern der Zeitschrift vorgelegt und ausführlich nachgefragt. Auch er kritisierte den Zustand der Entwurfsmethodik. Er argumentiert wie zuvor seine Kollegen auf der »Design Participation Conference« für eine Selbstauflösung der Disziplin der Planung: »Or at least the best world would be one where no planning for others or on behalf of others or at others was necessary.«35 Das Interview stellte jedoch primär die dieser These zugrunde liegenden, von Rittel damals formulierten Methoden der »zweiten Generation« vor. Eine »Symmetrie der Ignoranz«, mit der er ausdrückte, dass Fachkenntnisse und Unwissenheit gleichmäßig über alle am Problem und dessen Lösung Beteiligte verteilt seien, bildete eines der beiden Hauptmerkmale seines neuen Ansatzes. Das andere war die Forderung nach einer argumentativen Struktur des Planungsprozesses. Mit offenem Ausgang sollen dabei die anstehenden (Teil-) Fragen eines Entwurfsproblems ausgehandelt werden. Planung war für ihn ein politischer Vorgang, der technisch nicht zu beschreiben sei und bei dem der Planer nicht für andere plane, sondern lediglich zeigen solle, wie sie für sich selbst planen können. Rittel sprach sich also mit ganz anderen Argumenten sehr deutlich für das gleiche Projekt wie Alexander und Jones aus. Partizipation war für ihn methodisch begründet und folgte aus der konsequenten Analyse des Entwurfsprozesses, und aus dem Anspruch, ihn möglichst rational zu betreiben, um akzeptablere Ergebnisse zu erhalten: »This is a non-sentimental argument for participation. Do you see that? It’s important. There are many sentimental and political arguments in favor of participation, but this is a logical one.«36

Mitbestimmung, Anti-Professionalismus und Politik Die erste Konferenz der Design Research Society, die von einem Komitee um Christopher Jones, Nigel Cross und Reg Talbott konzipiert wurde und im September 1971 in Manchester stattfand, griff die in der Luft liegende Fragestellung der Mitbestimmung dann direkt auf und hieß folglich »The Design Participation Conference« (Abb. 4). Um diesen Anspruch auch in der Ta35. John Christopher Jones: »The State of the Art«, S. 2. 36. Ebd., S. 146.

299

Jesko Fezer

gungspraxis erlebbar zu machen, setzte die Konferenz sehr ambitionierte neue Technologien und Kommunikationsmodelle ein. Das »HOST« – Helping Organise Selective Togetherness – genannte Informationssystem sollte den vorbereitenden Austausch der Teilnehmer unterstützen. Es gab unterschiedliche Workshops zur Diskussion der Vorträge, eine Live-Übertragung auf Monitore in die Lounge und Videomitschnitte zur Betrachtung im weiteren Verlauf der Tagung. Besonders gelobt wurde an der dreitägigen Konferenz aber, dass die Veranstalter die Bar bis Mitternacht geöffnet hielten.

Abb. 4: Nigel Cross (Hg.): Design Participation. Proceedings of the Design Research Society’s Conference, London 1972 (Buchcover).

Nigel Cross verortete das Treffen im Kontext der damaligen radikalen Verschiebungen im Verständnis der Planungsprofessionen, deren Arbeitsmethoden und ihr Verhältnis zur Gesellschaft betreffend.37 Für ihn existierte ein wachsendes Interesse an der Beteiligung an Planungsfragen seitens der Bevölkerung. Er hoffte über die Integration des Wissens der Betroffenen die negativen Folgen der Planung zu mildern, Planungsprozesse zu optimieren und Probleme grundsätzlicher lösen zu können. Obwohl zeitgenössische Beobachter wieder mal eine »excessive emphasis on technology for its own sake«38 37. Vgl. Nigel Cross: »Preface«, in: Nigel Cross (Hg.): Design Participation. Proceedings of the Design Research Society’s Conference, London 1972, S. 6. 38. Kommentar: »Goodbye Mandarins?«, in: Design Journal 275 1971, S. 22.

300

A Non-Sentimental Argument

kritisierten, waren die Beiträge über Computeranwendungen unter der Überschrift der Partizipation pragmatischer und der Sache dienlicher als noch bei der DMG-Konferenz 1968. In seinem Eingangsstatement zur Konferenz sprach Reyner Banham provokativ von der neuen »wonder ingredient ›participation‹«39, die vor sechs Jahren noch völlig unbekannt gewesen wäre und inzwischen fast wieder nutzlos geworden sei. Partizipation, so Banham, werde – verdeckt durch ihren sozialen Anspruch – offensichtlich auch dazu genutzt, dass sich Architekten mit den Nutzern Verbündete in ihren »private inter-professional guerilla wars« 40 suchten. Interessanter schien ihm daher, Partizipation als Kennzeichen einer allgemeinen Krise des Professionalismus zu lesen. Banham unterstellte dem Fachmann ein fortdauerndes politisches und ökonomisches Interesse am Fortbestand von Problemen, da diese seine Existenz rechtfertigen, indem er zu ihrer Lösung gebraucht zu werden schien. Anhand von Beispielen einer neu entstehenden Alternativkultur, die in den USA ein entspanntes Verhältnis zur Technologie pflegte, wie im Whole Earth Catalogue oder den »Domes« vorgeführt, plädierte er für ein »do-it-yourself«41. Nur ohne den störenden und von Selbsterhaltungstrieben bestimmten Einfluss der Fachleute wäre für ihn echte Partizipation vorstellbar. Auffallend ausführlich erwähnte Banham, dass dies für marxistische Denker natürlich keine Alternative darstelle: Denn diese doit-yourself-Kultur »accepts some of the capitalits’ rules«.42 Wie viele andere Beiträge grenzte auch dieser Text sich defensiv gegenüber politisch radikaleren Entwurfsansätzen oder Architekturverständnissen ab. Den deutsch-östereichischen Publizisten und Zukunftsforscher Robert Jungk irritierte diese offenkundige Abwesenheit jedweder politischer Diskussion auf der Konferenz, wie er sie vom europäischen Festland gewohnt war. Jungk erwähnte, dass er trotz anfänglicher Entspannung aufgrund des Umstandes, dass er nicht zu jedem Thema marxistische Belehrungen erhielt, habe genau das ihn schon nach kurzer Zeit sehr nervös gemacht. Er forderte deshalb eine tiefere Beschäftigung der Entwerfer mit den politischen Wissenschaften.43 Eine der wenigen Besprechungen der folgenden, im August 1973 an der Polytechnic of Central London angehaltenen Konferenz »The Design Activity« (Abb. 5), wurde im DMG-DRS Journal, dessen Herausgeber die Konferenz organisiert hatten, selbst veröffentlicht. Der Verfasser stellte fest, »I came back 39. Reyner Banham: »Alternative Networks for the Alternative Culture?«, in: Nigel Cross: Design Participation, S. 15-18, S. 15. 40. Reyner Banham: »Alternative Networks for the Alternative Culture?«, S. 16. 41. Ebd., S. 18. 42. Ebd., S. 17. 43. Vgl. Robert Jungk: Closing Comments«, in: Nigel Cross: Design Participation, S. 120-122, S. 121.

301

Jesko Fezer

with the clear impression it was a failure.«44 Die mühseligen, wirren und uneffektiven Diskussionen hätten keinerlei Ergebnisse erbracht. Eine aus Ignoranz und Machtlosigkeit folgende Ohnmacht und Unbewusstheit angesichts der wirklichen Probleme der Welt habe es unmöglich gemacht, einfache und klare Ziele und die Rolle des Entwerfers im gesellschaftlichen Kontext zu bestimmen. Und obwohl über Partizipation gesprochen wurde: »PEOPLE […] WERE ABSENT.«45

Abb. 5: the design activity conference (Anzeige aus DMG Newsletter).

44. Rodrigue Guite: »Conference Critique«, in: DMG-DRS Journal 7,4 (1973), S. 280. 45. Ebd.

302

A Non-Sentimental Argument

Die zwei Ausgaben zuvor vollständig abgedruckten, eingereichten Themenvorschläge zur Konferenz gaben allerdings ein widersprüchlicheres Bild wieder. Donald P. Grant von der Design Methods Group beschrieb die auf der Konferenz thematisierte Entwicklung der wissenschaftlichen Erforschung des Entwerfens als Reaktion auf eine Krise der Entwurfsmethodik. Bestehende Ansätze sollten nun in Bezug auf ihre Anwendung in der Praxis betrachtet werden. Dabei sollten sozioökonomische und politische Fragen einen größeren Raum einnehmen.46 Durchaus in diesem Sinne griff der Architekt und Professor für Gebäudekunde Thomas A. Markus die Frage des Politischen offensiv auf und fragte: »Design for Revolution or Reaction?« Er hielt das Interesse an echter Mitbestimmung bei den Entwurfsmethodikern für nicht besonders ausgeprägt und präzisierte Banhams auf der Vorgängerkonferenz vorgetragenen Kritik am Selbsterhaltungstrieb der Fachleute, indem er fragte: »Just who are the design researchers kidding?«47 Für Markus machte die Weigerung, die mit Partizipation verbundenen politischen Fragen zu stellen, das Projekt der Partizipation zu einem kontraproduktiven Unterfangen. Er verortete diese als humanistisch bezeichnete Haltung bereits in der Entstehungsphase der Entwurfsmethodik, und nannte dazu Alexander, Archer und Asimov. Diese Generation habe, um die Härte ihrer Haltung zu mildern »a little romantic warmth by reference to Indian villages, cave dwellings and pop art«48 beigemischt. In Wirklichkeit vermisse er jedoch jede Form der Benennung des gesellschaftlichen und politischen Kontextes, in dem die Entwurfsmethoden operierten, jede Form der politischen Theorie des Entwerfens. Markus fragte danach, wie und mit welchen Entwurfsverfahren entschieden werde, um Mitbestimmung zu ermöglichen. Dies könne konsequenterweise weder eine technische Entscheidung noch eine moralische sein, die durch den Entwerfer getroffen wird. Statt mit entwurfsmethodischen Ansätzen die ethischen und politischen Kräfte anzugreifen, die eine Verlagerung der Macht verhindern, würden die Werkzeuge der Unterdrückung durch die Erzeugung leistungsfähiger Simulationen und Systeme der Manipulation effektiver gestaltet.

Krise der Krise des Design Methods Movement Die eingangs benannte Krise in der Krise kann nun spezifiziert werden. Das Design Methods Movement geriet selbst in eine andauernde Krise, indem es auf 46. Vgl. Donald P. Grant : »Stimulus Statement«, in : DMG-DRS Journal 7,2 (1973), S. 89. 47. Thomas A Markus: »Design for Revolution or Reaction ?«, in: DMG-DRS Journal 7,2 (1973), S. 89-90, S. 89. 48. Ebd.

303

Jesko Fezer

eine gesellschaftliche Krise der Planung reagierte. Der ihr zugrunde liegende Versuch, den Bezug des Entwurfsprozesses auf seine Wirkung in der Wirklichkeit zu analysieren und zu verbessern, führte zu einem radikalen Einbruch der Realität in den Fachdiskurs. Speziell die Planer und Architekten dieser Bewegung konnten oder wollten die begonnene Selbstkritik ihrer Handlungsweisen und ihres Selbstverständnisses nicht im Zaum halten. Wie selbstverständlich gerieten der euphorische Wissenstransfer und die Technologiegläubigkeit, die Suche nach einem neuen Expertentum und nach Wissenschaftlichkeit ihres Tuns – letztlich die Suche nach einer Legitimation entwerferischer Praxis selbst in die Krise. Die Probleme der Wirklichkeit waren in ihrer Komplexität, Unschärfe und Widersprüchlichkeit nicht in den Griff zu kriegen. Weder schienen sie vollständig erfassbar und informationstheoretisch handhabbar zu sein, noch methodisch einheitlich bearbeitbar oder gar verobjektivierbar. Eine allgemeine gesellschaftliche und im akademischen Kontext radikalisierte Politisierung eröffnete Zugang zu neuen Fragestellungen. Die Anerkennung der subjektiven Politiken des Individuums und der Dynamiken der Gemeinschaft, die undurchsichtigen Fragen des Alltags und die Erkenntnis über die Bedeutung der systemischen Zwänge sowie Versuche zu ihrer Überwindung sprengten den Rahmen der begonnenen Debatte. Es kam zu einer äußerst selbstkritischen internen Auseinandersetzung. Das Design Methods Movement als ein sehr heterogenes internationales Diskursfeld erreichte zu ihrem Höhepunkt Ende der 1960er Jahre einen Grad an Selbstreflexion, wie er seitdem kaum mehr in der Disziplin der Architektur aufzufinden war. Es lässt sich allerdings aufzeigen, dass der Pluralität der Ansätze und den im Konflikt liegenden weltanschaulichen und berufsbezogenen Haltungen der Protagonisten eine gemeinsame Tendenz innewohnte. Nur das Projekt der Partizipation in seinen unterschiedlichen Ausprägungen – als Anti-Professionalismus, Gegenplanung, Spielsimulationen, interaktive Computeranwendung, in Form offener Planungsprozesse oder sozialer Kommunikationsmodelle – schien in der Lage, die immanenten Engpässe der rationalen Verfahren zu überbrücken und die politischen und sozialen Ansprüche einer Planung, die die Lebensumstände in der gebauten Umwelt grundlegend verbessern wollte, weiter zu tragen.

304

›Augmented Architecture‹ Wie digitale Medien die Entwurfsarbeit der Architekten erweitern URS HIRSCHBERG

Dieser Text geht der Frage nach, welche Erweiterungen der Entwurfsarbeit die digitalen Medien anbieten, welche Entwicklungstendenzen als architekturrelevant gelten können, um diese Tendenzen bereits heute in die Ausbildung von Architekten integrieren zu können. Im Zentrum stehen dabei entwerferische Experimente im no_LAb In_feld am Institut für Architektur und Medien der TU Graz. Seit gut 45 Jahren gibt es so genannte Computer Aided Design (CAD) Programme. Als das erste wird gängigerweise das Programm Sketchpad bezeichnet, das 1963 als Doktorarbeit von Ivan Sutherland am MIT eingereicht wurde.1 Parallel dazu gab es in anderen Forschungslabors ähnliche Projekte, aber Sketchpad war dennoch eine Pioniertat. Dabei ging es Sutherland nicht um ein Surrogat des Skizzierens. Er hat in Sketchpad vielmehr bereits objektorientierte Datenstrukturen und das so genannte ›Rubberbanding‹, das elastische Verändern der Geometrie in Echtzeit realisiert. Sein eigentliches Interesse lag in der Erschließung des Potentials, das er im Graphical Computing erkannte: »A display connected to a digital computer gives us a chance to gain familiarity with concepts not realizable in the physical world. It is a looking glass into a mathematical wonderland.«2 Sketchpad war bahnbrechend, weil Sutherland nicht nur visualisierte, sondern die Interaktion mit dieser visuellen Welt, die graphische Benutzeroberfläche, gleich miterfand. Er wollte keinen digitalen Zeichenstift, sondern mit dem Computer Dinge anschaulich und verhandelbar machen, die bis dahin nur in der Vorstellungskraft vorhanden waren. Das eigentliche Potential, das Sutherland mit Sketchpad andeutet, liegt demnach in der durch das graphische Computing entstandenen Möglichkeit, Dinge vor Augen zu führen, sinnlich erfahrbar zu machen, die zuvor ›in der 1. Vgl. Ivan Sutherland: SKETCHPAD: A Man-Machine Graphical Communication System, Cambridge, Mass. (Diss. MIT) 1963. Reproduced as Technical Report Number 574 University of Cambridge Computer Laboratory, UCAM-CL-TR-574, ISSN 1476-2986, http://www.cl.cam.ac.uk/. 2. Vgl. Ivan Sutherland: »The Ultimate Display«, in: Proceedings of IFIPS Congress 1965, Bd. 2, New York, Mai 1965, S. 506-508.

305

Urs Hirschberg

physikalischen Welt nicht realisierbar‹ waren: Informationsvisualisierungen, Simulationsverfahren aller Art, generative Verfahren: Sutherlands Wunderland ist für Architekten auf vielfältigste Weise relevant und enthält Techniken, die mittels mathematischer und algorithmischer Verfahren sichtbare, anschauliche, sinnlich erfahrbare und damit auch für unsere Intuition zugängliche Ergebnisse produzieren. Daraus entwickelte sich eine reiche Palette an Konstruktions- und Simulationsprogrammen, deren Tendenz man Sensual Abstraction nennen könnte: digitale Medien erlauben das anschaulich Machen, das sinnlich erfahrbar Machen von Abstraktionen und intellektuellen Konstrukten. Die TU Graz hat jüngst eine Reihe von neuen Simulationslabors an der Architekturfakultät eingerichtet, um die Forschung zu dieser Thematik zu intensivieren.3 In diesem Zusammenhang sind die neuen Formen der Zusammenarbeit interessant, für welche das Open Source Prinzip steht. Es geht um effektivere Formen, wie das Denken von vielen einzelnen in kollaborativen Prozessen zu Synergien gebündelt werden kann.4 Beide genannten Tendenzen, der Computer als Abstraktionen anschaulich machendes intellektuelles Werkzeug und der Computer als Vernetzungs-Medium, gehen über das Entwerfen weit hinaus. Für beide gilt, dass an ihrem Anfang überraschende Experimente stehen: sowohl Sketchpad als auch die neuen Kommunikationsformen in den Vorläufern des Internet nutzen die damaligen technischen Möglichkeiten auf unerwartete Weise für Dinge, die möglich geworden, aber eigentlich nicht vorgesehen waren. Hinsichtlich weiterer Entwicklungen, mit denen die Möglichkeiten beim Entwerfen erweitert werden, lassen sich zwei Tendenzen unterscheiden: einerseits die digital gesteuerte Fertigung, die neue Herstellungsprozesse ermöglicht und auf diese Weise die Ablösung von der industriellen Massenanfertigung vollzieht. Andererseits die Miniaturisierung der Computerchips, welche zum Phänomen des Ubiquitous Computing führt: digitale Medien sind allüberall anzutreffen und werden immer mehr zum Bestandteil unserer Umwelt. Nachdem die industrielle Fertigung von Bauteilen während der letzten hundert Jahre die Produktionsbedingungen in der Architektur bestimmt hat und als Folge davon modulare, repetitive Bauweisen zum Standard wurden, rückt durch die flexibel digital steuerbaren Maschinen nun die so genannte »Mass Customization« ins Blickfeld. Als Begriff ist Mass Customization ein Oxymoron – einerseits der Massenproduktion und andererseits der Anpassung, der Individualisierung (customization). Mass Customization bezeichnet somit, dass durch den Einsatz von digitalen Steuerungen die massenhafte Produktion von 3. Vgl. Urs Hirschberg/Michael Stadler: »Design Science Labs«, in: Computer Aided Architectural Design Futures 2007 (2007), S. 475-488, International CAAD Futures Conference 12. 4. Vgl. Urs Hirschberg: »Creative Collaborations: do new forms of networking open up a new future for architecture?«, in: Towards an Interactive and Integrative Design Process, Linz 2006, S. 154-168.

306

›Augmented Architecture‹

Unikaten möglich wird. Für die Architektur, die sich am liebsten mit Unikaten beschäftigt und sich mit der industriellen Fertigung immer schwer getan hat, ist dies eine viel versprechende Entwicklung, für die im no_LAb durch eine Digitalwerkstatt das geeignete Experimentierumfeld besteht. Andererseits vollzieht das no_LAb In_feld den Schritt zu »Hybrid environments«, um das Verschmelzen von ›virtueller‹ Digitaltechnologie mit unserer physischen Umgebung zu simulieren. Der Modebegriff, unter dem dieser Trend bekannt geworden ist, lautet Ubiquitous Computing. Der Begriff wurde durch den inzwischen verstorbenen Mark Weiser geprägt, einen am Xerox Park Research Center in Palo Alto tätigen Forscher. Weiser prognostizierte schon früh als eine Konsequenz der fortschreitenden Miniaturisierung der Computerchips, dass sie immer mehr zum Teil unserer Umwelt werden und in jedes noch so unbedeutende Produkt eingebaut werden können.5 Von seiner Vision einer ›calm technology‹6, die sich transparent in unser Leben einbringt, sind wir noch entfernt, aber viele von Weisers Prognosen sind inzwischen eingetroffen oder schon übertroffen worden. Inzwischen spricht man vom ›Internet of Things‹, denn im neuen Internetadressraum IPv6 stehen für jeden der ca. 6,5 Milliarden Menschen theoretisch je 5x1028 Adressen zur Verfügung – genug um jeden Ziegelstein mit einer digitalen Kennung zu versehen. Dies eröffnet eine noch unübersehbare Menge an Möglichkeiten, wie wir in Zukunft mit unserer physischen Umwelt kommunizieren können. Zusammenfassend lassen sich also vier Tendenzen erkennen, die in Summe die Erweiterung des architektonischen Entwerfens ausmachen, die hier als ›Augmented Architecture‹ bezeichnet wird: – – – –

Graphical Computing Tools [Sensual Abstraction] Networks [Collective Authorship] Digital Fabrication [Mass Customization] Ubiquitous Computing [Hybrid Environments, Internet of Things]

Dass aus den digitalen Simulationsmöglichkeiten ein besonderes Experimentalpotential entstehen kann, welches wiederum direkte Auswirkungen auf die physische Welt und die Arbeitsweise der Architekten besitzt, hat als einer der ersten Nicholas Negroponte erkannt und thematisiert. Von seiner Ausbildung her Architekt ist Negroponte als Gründer und langjähriger Leiter des MIT Media Labs, welches sich aus der dortigen Architekturabteilung entwickelte,

5. Vgl. Mark Weiser: »Some computer science issues in ubiquitous computing«, in: Communications of the ACM archive, Special issue on computer augmented environments: Back to the Real World, New York, Bd. 36, Nr. 7 (July 1993), S. 75-84. 6. Vgl. Mark Weiser/John Seely Brown: »The coming age of calm technology«, in: Beyond calculation: the next fifty years of Computing, New York 1997.

307

Urs Hirschberg

bekannt geworden und gilt als einer der Visionäre des digitalen Zeitalters.7 In seinem Buch »Being Digital« formuliert er den paradigmatischen Wechsel, der durch die digitalen Medien in der Forschung Einzug halten würde.8 Die Syntheseleistungen die im »creative tinkering«, der kreativen Bastelei, stecken, werden nicht als nutzloses Geplänkel, sondern als hochwertige Wege zu einer Form von Erkenntnisgewinn gesehen, welche der traditionellen wissenschaftlichen Forschung fehlen. Erst in jüngster Zeit, da durch neue Eingabeformen und ausgereiftere Programme die Arbeit am Computer als weniger einschränkend empfunden wird und auch neue Ausgabeformen zur Verfügung stehen, die einem erlauben, Modelle digital gesteuert zu erstellen, zieht der von Negroponte geforderte ganzheitliche Aspekt der Computerarbeit und die Lust an neuen Formen des Experiments auch auf breiter Front in die Architekturpraxis ein. Diese neuen Formen des Experiments sind wichtig, gerade um die neuen Gebiete zu erschließen, die sich gegenwärtig der Architektur öffnen. Daher werden die erwähnten vier Tendenzen gegenwärtig in spezialisierten Lehrveranstaltungen an der Technischen Universität Graz analysiert und dabei auf ihre experimentellen und angewandten Grundlagen befragt.

Projekt 1: Digital Stones Wenn digitale Formen physische Gestalt annehmen können, bekommt das Erfinden neuer von der Natur abgeleiteter oder im Kontrast dazu entwickelter Formen eine neue Qualität. In einem Workshop zum Thema Digitale Steine sind wir diesem Thema im Jahre 2005 nachgegangen.9 Hintergrund waren nicht nur künstliche und natürliche Formprozesse sondern auch das Thema der computergesteuerten Fertigung und deren Potential für die Architektur. Der Workshop hatte eine Vorlaufzeit, welche die Studierenden nutzen mussten, um sich mit einem Stein ihrer Wahl zu beschäftigen und ein möglichst getreues digitales Replikat von ihm anzufertigen. Mit dem Laserscanner wurden die Steine als Punktwolken vermessen und zu triangulierten Flächenmodellen verarbeitet. Ausgehend von diesen digitalen Modellen sollten mit Hilfe des Laser-Cutters Schnittmodelle hergestellt werden, welche die Geometrie der Steine auf analytische Weise darstellen. In dieser Art wurden eine Reihe von Material- bzw. Darstellungswechsel vollzogen, welche jeweils mit einer neuen gestalterischen Aufgabestellung verbunden war. Die Originalsteine verloren mit jedem weiteren Schritt ihren Anspruch darauf, das Original zu sein, sie 7. Vgl. Nicholas Negroponte: The Architecture Machine. Towards A More Human Environment, Cambridge, Mass. 1970. 8. Vgl. Nicholas Negroponte: Being Digital, New York 1995. 9. Vgl. Martin Frühwirth/Christian Fröhlich/Stefan Zedlacher/Urs Hirschberg: »FROM FOAM TO FORM*«, in: Game Set and Match II – On Computer Games, Advanced Geometries and Digital Technologies, Rotterdam 2006, S. 322-328.

308

›Augmented Architecture‹

wurden zu einer Stufe in einem Prozess, ja ihre eigene Form wurde auf einmal nicht mehr als fix gegeben, sondern als Resultat eines lange andauernden Formungsprozesses verstanden, der jetzt auf digitale Weise fortgeschrieben wurde. Am Ende der Arbeit standen digitale Steine zum Anfassen: im 3D-Printer gestaltete Steine, die noch eine gewisse Ähnlichkeit mit dem Original aufwiesen, aber sozusagen eine eigene Identität gefunden hatten, die sich aus den Beobachtungen am Original, bzw. in den folgenden Transformationsschritten generierte.

Abb. 1: Die Evolution eines digitalen Steines: von der Originalform über die digitalisierte Version und ein Lasercutter-Schnittmodell zum Bild einer neuen, aus dem Original entwickelten fiktiven Form (Projekt: Martin Krcha).

Abb. 2: Digitale Steine zum Anfassen. Mittels 3D Print-Technologie werden virtuelle Formen zu physischen Objekten materialisiert und im Rahmen einer Ausstellung den Originalsteinen gegenübergestellt.

Projekt 2: Sculpting Motion Thema dieses experimentellen Workshops, der im Jahre 2006 in Kooperation mit Allen Sayegh durchgeführt wurde, war Bewegung als Form. Dabei kamen sowohl die digitalen Fertigungsmethoden als auch das Tracking System im no_Lab zum Einsatz. Die Fragestellung: welche Spuren hinterlassen unsere Bewegungen im Raum? Welche räumlichen Formen beschreiben unsere alltäglichen Bewegungen? Die Anordnung für das Experiment: Die 20 Teilnehmer am Workshop sollen jeweils in Gruppen zu zwei Personen eine alltägliche Bewegung zwischen zwei Personen auswählen und analysieren. Aus den digital

309

Urs Hirschberg

Abb. 3: ›Clap Your Hands‹: Skulpturale Form, entwickelt aus den Bewegungsdaten von zwei Personen, die ihre Hände zusammenklatschen (Projekt: Elisabeth Hobiger, Dominik Hohl).

Abb. 4: Das Objekt ›Clap Your Hands‹, umgesetzt in eine hölzerne Skulptur. Die Strategie zur Entstehung und Materialisierung der Form beruht auf gestalterischen Entscheidungen, trotzdem ist die Form nicht ›gestaltet‹. Man kann sich solche Formen nicht ausdenken (Projekt: Elisabeth Hobiger, Dominik Hohl).

310

›Augmented Architecture‹

aufgezeichneten räumlichen Spuren soll in mehreren Schritten eine hängende hölzerne Skulptur gebaut werden. Die Spielregeln waren klar und einfach. Aber der gestalterische Prozess war keinesfalls rezepthaft oder automatisch. Allerdings waren die gestalterischen Entscheidungen, zu denen er führte, ungewöhnlich. Die Fähigkeit im für die Arbeit verwendeten Programm Maya in MEL (Maya Embedded Language) zu skripten, die viele der Teilnehmer aus der fortgeschrittenen Grundlagenlehrveranstaltung mitbrachten, erlaubte manchen von ihnen, dabei algorithmische Methoden zu verwenden. Zum Beispiel wurde der Abstand der Punkte entlang der Tracking-Linien dazu verwendet, um Elemente, die entlang der Linie generiert werden, in der Größe zu skalieren. So wurde die nicht mehr vorhandene Körperlichkeit der Bewegung in eine neue Körperlichkeit übersetzt. Auch die Konstruktion der Holzskulpturen mit Hilfe der Laser Cutter war eine Herausforderung. Wie wichtig ist es, dass das hölzerne Modell ähnlich aussieht, wie das digitale? Wie verbindet man die Teile? Es gab darauf keine Antwort, die für alle Skulpturen funktioniert hätte.

Projekt 3: N’Files: A Space to React Im Projekt N’Files wird der Raum selbst als Medium thematisiert.10 Statt um Funktionen des Raumes geht es um seine sinnliche Dimension, um Atmosphären, virtuelle Raumerweiterungen und um Raumwandlung. Anstelle eines User Interfaces wird der ›Nichtberührungssinn‹ thematisiert: die reine Bewegung als Ausdrucksmittel, auf die der Raum dynamisch reagiert. Mit Hilfe des Tracking Systems werden die Bewegungen eines Besuchers vom Raum in Echtzeit erfasst. Der Raum reagiert auf die Bewegung, indem er die Computerprojektion, welche eine ganze Seite des Raums einnimmt, interaktiv bespielt. Nach einfachen, für den Besucher intuitiv verständlichen Regeln, werden seine Bewegungen zum Beispiel in verschiedene Lichtintensitäten oder Lichtfarben umgesetzt. Bewegung und Raumatmosphäre verschmelzen so für den Besucher zu einer Einheit. Im Projekt N’Files wird der Raum zu einem scheinbar lebendigen System, das sich wandeln kann, das auf spielerisch-poetische Weise unsere Wahrnehmung bereichert.

10. Vgl. Christian Fröhlich/Martin Kern: »N’Files: A Space To React. Communication Between Architecture and Its Users«, in: Interactive Technologies & Sociotechnical Systems, Berlin, Heidelberg 2006, S. 52-59.

311

Urs Hirschberg

Abb. 5: Interaktiver Vorhang aus dem Projekt »N’Files: A Space To React«. Die Projektion wird Teil der Materialität der Wand. Virtueller und physischer Raum verschmelzen. Der Körper ist das Interface (Projekt: Christian Fröhlich, Martin Kern).

Projekt 4: Formotion: Augmented Daydreaming Das Projekt Formotion knüpfte an die Themen des Sculpting Motion Workshops an: es untersuchte die Gestaltung von Form durch Bewegung. Technologisch standen dafür aber inzwischen weit ausgereiftere Mittel zur Verfügung. Insbesondere hatten wir in der Zwischenzeit eine Echtzeitanbindung des Tracking Systems an das Programm Maya hergestellt, die dazu verwendet werden kann, verschiedene Formen des gestischen Modellierens zu erproben. Im Rahmen des Formotion Projekts wurden insbesondere verschiedene Arten des User-Feedbacks beim Modellieren getestet, wobei die Teilnehmer am Ende selber ein schlüssiges Interaktionswerkzeug entwickeln sollten, mit dem sie gestisch und immersiv modellieren konnten. Eine weitere Neuerung, die bei Formotion erstmals getestet wurde, war das virtuelle Modell des no_Labs, welches im Modellierprogramm den Hintergrund für die gestisch modellierten Artefakte bildete. Diese Raumverdoppelung konnte mittels eines Head Mounted Display (HMD) auch direkt erlebt werden: Im Moment wo man das HMD aufsetzt, befindet man sich in der virtuellen Parallelwelt, deren Geometrie mit der physischen Geometrie des no_LAb kongruent ist. Die Fragestellung, der wir in Formotion nachgehen wollten, war, ob man direkt in den Raum zeichnen und so Formen entwickeln kann.

312

›Augmented Architecture‹

Abb. 6: Dieses Projekt füllt den virtuellen Laborraum mit Kuben an, die mit Handbewegungen verschoben werden können. Der Benutzer trägt ein Head Mounted Display (HMD = Bildschirmbrille) und bewegt sich im Modell, an dem er arbeitet. Immersiv wird so durch Präsenz und Gesten ein benutzerzentriertes Raummodell generiert (Betreuer: Stefan Zedlacher, Martin Frühwirth, Student: Marco Russo).

Abb. 7: Raumgreifende orange Kugeln werden mit einem virtuellen Gebläse sanft in eine neue Form gebracht. Das Hintergrundbild zeigt den Blick durch die HMD-Brille des Benutzers. (Betreuer: Stefan Zedlacher, Martin Frühwirth, Student: Danijel Gril).

313

Urs Hirschberg

Abb. 8: Bewegungsspuren zeichnen eine Skulptur in den Raum. Je nach Darstellung und Licht werden unterschiedliche Qualitäten der entstandenen Form sichtbar (Betreuer: Stefan Zedlacher, Martin Frühwirth, Student: Christoph Simschitz).

Abb. 9: Virtuelle Skulptur aus Bewegungsspuren, dargestellt im (virtuellen) no_LAb, dem Raum in dem sie virtuell und physisch entstanden sind (Betreuer: Stefan Zedlacher, Martin Frühwirth, Student: Christoph Simschitz).

314

›Augmented Architecture‹

Die vier Projekte sind in forschungsorientierten Lehrveranstaltungen entwickelt worden, die im wesentlichen in der Form von mehrtägigen Workshops durchgeführt wurden. In ihnen wird ›angewandte Grundlagenforschung‹ in dem Sinne erprobt, dass die Aufgabenstellung weder in einem Produkt noch in der Gestaltung eines Objektes besteht. Vielmehr werden handlungsorientierte Fragestellungen wie »Welche Form will ein Stein haben?« oder »Welcher Raum entsteht durch meine Bewegung?« in Kombination mit digitalen Methoden zum Auslöser gestalterischer Prozesse, bei denen vorgefasste formale Präferenzen hinter der Eigendynamik des Gestaltungsprozesses zurücktreten. Auf diese Weise kann tatsächlich Neues entstehen, dessen Gestalt uns überrascht und auch neue, unerwartete Erkenntnisse erbringt. ›Angewandte Grundlagenforschung‹ heißt aber auch, dass wir die Rolle der digitalen Medien als Erweiterung unserer Räume thematisieren und damit auch das architektonische Entwerfen an sich erweitern. Während die vielgestaltigen Erweiterungen, die uns die digitalen Medien beim Entwerfen bereitstellen, sich in einer rasanten Entwicklung befinden, sollten wir uns auf die von ihnen vollzogene ›Augmented Architecture‹ einlassen und ihre Potentiale kennen lernen: Es ist höchste Zeit, dass wir auch die Art und Weise, wie wir entwerfen, entwerfen.

315

V. PRAKTIKEN

Die Kreativität des Lebendigen und die Entstehung des Neuen ELISABETH LIST

Kreativität – das ist die Fähigkeit, Neues entstehen zu lassen, zu schaffen, zu erfinden. Diese Fähigkeit pflegt man als eine der höchsten menschlichen Fähigkeiten zu sehen. Man gibt sich aber selten Rechenschaft darüber, worin sie besteht und worauf sie gründet. Man spricht in ähnlicher Weise von Intuition als einer geistigen Fähigkeit, die über die kalkulierende Ratio hinausgeht. Was macht aber dieses »darüber Hinausgehen« aus? Man ist weiters geneigt, die Musterexemplare des Kreativen im Bereich der Kunst zu sehen. Die Tätigkeit des Entwerfens wird denn auch in die Nähe künstlerischen Schaffens gerückt. Was ist es, was Kunst und Entwerfen gemeinsam haben? Um dem auf die Spur zu kommen, ist es notwendig, auf eine elementare Ebene der Betrachtung zu gehen. Wo finden sich die ersten Manifestationen von Kreativität, die im Entwerfen eine besondere Gestalt annimmt? Wie entsteht zum Beispiel Sprache als ein solcher Ausdruck von Kreativität? Die Antworten auf diese Antworten erwartet man zunächst von der Erkenntnistheorie und der Sprachphilosophie. Aber Erkenntnistheorie und Sprachphilosophie gehen von einem Modell der Ratio aus, für das diese Fragen implizit schon beantwortet sind: Sprachfähigkeit wird gesehen als Teil der menschlichen Vernunftnatur. Von dieser Prämisse geht die theoretische Philosophie aus, ohne die Frage zu stellen, was menschlichen Vernunftgebrauch möglich macht. Man kann davon ausgehen, dass Vernunftgebrauch ebenso wie Sprachfähigkeit keine apriorischen und voraussetzungslosen menschlichen Fähigkeiten sind, sondern auf einer elementareren Ebene der Organisation menschlichen Verhaltens ihre Basis haben. Sie entwickeln sich aus vorbegrifflichen Formen der Orientierung, die auf der organisch-körperlichen Verfassung des Menschen beruhen. Das gilt in ganz besonderer Weise für künstlerischer Akte, die im Kern körperliche Ausdrucksbewegung sind. Dabei geht es nicht um die Reduktion erkenntnistheoretischer oder ästhetischer Fragen auf Biologie. Es geht vielmehr darum, zu klären, worauf die Fähigkeit, Kunst zu machen, zu denken, wahrzunehmen und Sprache zu verwenden, beruhen. Im Wesentlichen ist das die Frage, von der der Philosoph Georg Friedrich Wilhelm Hegel in seiner Phänomenologie des Geistes oder Jean Piaget in seiner Psychologie der 319

Elisabeth List

Intelligenz ausgehen. Spätestens seit Darwin hat sich die Überzeugung durchgesetzt, dass auch diffizile und hochkomplexe geistige Leistungen nicht aus dem Nichts entstehen, sondern im Zuge der Entwicklung, der Evolution der menschlichen Spezies sich Schritt für Schritt aus der organisch-körperlichen Verfassung des Menschen entfaltet haben. Man kann aber noch einen Schritt weiter gehen als der Biologe Darwin. Die organischen oder, anders gesagt, die leiblichen Potentiale sind mehr als die unverzichtbare Vorstufe höherer kultureller Fähigkeiten, sie sind auch im weiteren Prozess der Ausgestaltung, der Reproduktion und der Produktion intellektueller Leistungen fortlaufend am Werk. Der lebendige Körper ist immer im Spiel. Die Potentiale des Lebendigen sind auch noch in den höchsten intellektuellen Leistungen, beim Denken und beim Sprechen und schließlich auch beim Entwerfen präsent. Wahrnehmen, Denken und Sprechen – und auch das Entwerfen – sind immer leibgebundene Vollzüge. Und es ist gerade diese Leibgebundenheit, der sie ihre Produktivität verdanken, ihre Fähigkeit, das Feld bereits objektivierter und sedimentierter Produktionen zu überschreiten und auszuweiten, im Denken, im Reden und im Gestalten Neues zu schaffen. Mit anderen Worten, Kreativität hat ihre Wurzeln im Leiblichen. Um das plausibel zu machen, reicht der bloße Verweis auf die organisch-körperliche Verankerung von Vernunft- und Denkfähigkeit in der biophysischen Konstitution des Homo Sapiens nicht aus. Es muss darüber hinaus gezeigt werden, worin sich Leiblichkeit als Grundverfassung des Lebens von bloßer Körperlichkeit, wie sie gewöhnlich Gegenstand der Biologie oder Medizin ist, unterscheidet. Wesentliche Aussagen dazu finden sich in den Schriften von Maurice Merleau-Ponty1, Helmuth Plessner und Hermann Schmitz.2

Positionalität – Grundverfassung des Lebendigen Mit Helmuth Plessner, der seine Konzeption des Leiblichen ausgehend von einem biologischen Denkmodell entwickelt, kann man Leiblichkeit als eine hohe Stufe der Positionalität verstehen.3 Positionalität ist für Plessner das wesentliche Merkmal alles organisch Lebendigen. Positionalität meint die spontane Bezogenheit des Organismus auf die Objekte seiner Umwelt, in der er lebt. Leben heißt im Wesentlichen, sich selbst durch den Energieaustausch mit der Umwelt zu erhalten. Positionalität ist also das, wodurch sich das Lebendige von dem Nichtlebendigen unterscheidet. Sie ist die Fähigkeit, die Grenze 1. Vgl. Maurice Merleau-Ponty: Phänomenologie der Wahrnehmung, Berlin 1966. 2. Vgl. Hermann Schmitz: System der Philosophie, Bd. 2 Teil 1: Der Leib, Bonn 1982. 3. Vgl. Helmut Plessner: Die Stufen des Organischen und der Mensch, 2. Aufl. Frankfurt/ Main 1981, S. 181.

320

Die Kreativität des Lebendigen und die Entstehung des Neuen

zwischen Organismus und Umwelt, zwischen Selbst und Nichtselbst durch eigene Aktivität aufrechtzuerhalten. Diese Grundstruktur von Positionalität realisiert sich zunächst in den elementaren Vorgängen des Austausches mit der Umwelt, in den elementaren Vorgängen des Stoffwechsels, der Ernährung und schließlich der Fortpflanzung, die alle der Selbsterhaltung dienen. Die Art und Weise der Positionalität und der Bezogenheit auf die Umwelt nimmt auf höheren Stufen der Evolution neue, komplexere Formen an. Die in unserem Zusammenhang entscheidende Entwicklung ist das Auftreten eines zentralen Nervensystems, mit dem die Form der Positionalität eine völlig neue Qualität annimmt. Der Bezug zum Außen, den Positionalität bedeutet, wird nun vermittelt über eine interne Instanz, sobald das Nervensystem spezifische Fähigkeiten der internen Repräsentation möglich macht. Das heißt, die Welt draußen wird intern abgebildet, repräsentiert.4 Ein Teil der »Welt da draußen«, die auf diese Weise repräsentiert wird, ist der eigene Körper, der aber nicht als irgendein Körper wahrgenommen wird, sondern als der unmittelbar erlebte und erfahrende Bezugspunkt des eigenen Daseins, mit anderen Worten, als lebendiger Leib. Die Fähigkeit, durch Intelligenz und Symbolfähigkeit ein Bild von sich selbst zu erzeugen und damit aus der zentrischen Leibgebundenheit herauszutreten und exzentrisch, mithilfe von Bildern und Vorstellung sich selbst aus der Distanz wahrzunehmen, zum Objekt zu machen, ist die spezielle Form menschlicher Positionalität als »exzentrische Positionalität«. Durch die Fähigkeit, eine exzentrische Position gegenüber sich selbst einzunehmen, löst sich das Bewusstsein aus der Gebundenheit an seine organische Substanz und gewinnt die Freiheit, die wir als konstitutiv für die menschliche Lebensform betrachten. Die Fähigkeit, Neues zu tun und zu denken, ist ein elementarer Ausdruck dieser Freiheit. Aus der Perspektive distanzierender Reflexion auf sich selbst erscheint das leibhafte »Da-Sein« in seinem Bezogensein auf seine »Welt«. Diese Welt umfasst sowohl das Außen, die Welt der wahrgenommenen Objekte, den wahrgenommenen Körper und den gespürten Leib wie auch den inneren Raum, den Raum der symbolischen Repräsentation in Bildern und Vorstellungen, die sich, sobald sich die Fähigkeiten der Symbolisierung entwickeln, zu einem innerem Bild von sich und der Welt differenziert. Exzentrische Positionalität ermöglicht das Fortschreiten vom Organischen zum Leiblichen und schließlich zum Symbolischen, und diese drei Ebenen sind eng verknüpft. Sie stehen zueinander im Verhältnis der Emergenz verschiedener Stufen des Organischen. 5 Die untere Stufe ist die Voraussetzung für die jeweils folgende. An den Punkten der »Fulguration«, des Überspringens auf die nächste höhere Stufe, entsteht 4. Vgl. Antonio Damasio: Ich fühle, also bin ich. Die Entschlüsselung des Bewusstseins, Berlin 2004, S. 214. 5. Vgl. Helmuth Plessner: Die Stufen des Organischen und der Mensch.

321

Elisabeth List

Neues. Das Neue, das damit entsteht, ist eine spezifische Form von Kreativität und zugleich Ausdruck eines spezifischen Potentials des Lebendigen. Kreativität ist die Manifestation jener Freiheit, die den Menschen durch seine Verfassung exzentrischer Positionalität zu einem Lebensführungswesen macht, zu einem Wesen, das sich in seinem Tun fortwährend zwischen den Handlungsoptionen entscheiden muss, die ihm offen stehen. Denn durch den Prozess der Symbolisierung entsteht eine Vielheit von Bildern, von Plänen und Strategien, die jede Handlungssituation zu einer der Wahl und der Entscheidung macht. Der Prozess der Symbolisierung ist wesentlich leibgebunden, und er ist die allgegenwärtige Manifestation der Kreativität des Lebenden in seiner Körperlichkeit und zugleich seiner Freiheit. Dieses Moment der Freiheit gründet zuletzt in den Formen der Selbsterhaltung und der Rekreation von organischen Strukturen, die sich in Begriffen der Autopoiesis, der Selbstorganisation, beschreiben lassen. Es manifestiert sich in den Prozessen der Produktion von Sinn und Bedeutung im Übergangsfeld zwischen dem Leiblichen und dem Symbolischen und in besonderer Weise in der Kreation von Neuem im künstlerischen und gestalterischen Prozess. Die Freiheit, neuen Sinn zu erzeugen, ist präsent in den Bewegungen unserer Hände, unserer Augen, in der Fertigkeit unserer Finger. Diese Freiheit ist uns gegeben, weil wir körperlich dabei sind.

Die Entstehung des Neuen und die Ordnung des Gegebenen Die Eigentümlichkeiten des Lebendigen sind, ontologisch und erkenntnistheoretisch gesehen, Offenheit, Kontingenz, Endlichkeit.6 Kreativität als die Fähigkeit, das Ungeformte in eine Form zu geben, ergibt sich aus diesen Eigentümlichkeiten des Lebendigen. Ihr verdankt sich die Offenheit und Kontingenz des schöpferischen Prozesses. Dieses organische Potential von Kreativität erfährt seine Formung unter bestimmten gesellschaftlichen und kulturellen Voraussetzungen. Wie gelingt es ihm nun, aus dem Vorgegebenen Neues zu schaffen? Anders gefragt: Wie manifestiert sich nun das Potential lebendiger Kreativität in kultureller Aktivität? Wie materialisiert es sich in Formen des Neuen? Neues bedeutet neuen Sinn. Es geht also um die Entstehung von Sinn in Prozessen des Sprechens und Denkens und des Gestaltens. Es geht aber nicht nur um die Frage der Entstehung, sondern vor allem um die spezifische Struktur von Erzeugnissen, die man mit einem altmodischen Wort als »Sinngebilde« bezeichnen könnte. Wie entsteht Sinn, was ist Sinn? Die philosophische Tradition war lange von einem Denkmodell in diesen Fragen beherrscht, das 6. Vgl. Elisabeth List: »Optimierung des Lebens? Die Biotechnologie und die Verfassung des Menschlichen«, in: Jörn Ahrens/Mirjam Biermann/Georg Töpfer (Hg.): Die Diffusion des Humanen. Grenzregime zwischen Leben und Kulturen, Frankfurt/Main 2007, S. 91-106.

322

Die Kreativität des Lebendigen und die Entstehung des Neuen

bestimmte Prämissen über die rationale Struktur der Welt und ihrer Erkennbarkeit universell festschreibt.7 Es sind die Prämissen des Objektivismus: Ausgangspunkt ist die Annahme, dass die Realität eine aller menschlicher Erfahrung und Überzeugung vorgegebene, an sich bestehende Realität ist, an der Sinn fassbar wird. Ihr zufolge haben Begriffe die Aufgabe, diese Realität in einer eindeutigen, wörtlichen, kontextunabhängigen Weise abzubilden. Wörter sind zufällige, beliebige Symbole, die eine Bedeutung erst dadurch erhalten, dass sie den Dingen der Welt korrespondieren. Und rationales Denken könne deshalb als algorithmische Manipulation dieser Symbole gesehen werden. Gegen dieses Modell spricht, dass es Sinngenerierung als einen statischen Vorgang fasst und das Moment der Kreation und des Gestaltens ausblendet. Wenige unserer Sinnprodukte entsprechen dem objektivistischen Modell, weil sie imaginative Strukturen implizieren. Alle Begriffe verweisen auf Bezugsrahmen, die erfahrungsgebunden sind. Vor allem: Der Prozess der Sinnbildung vollzieht sich in Metaphern. Metaphern sind imaginative Strukturen, die alles menschliche Verstehen und Denken durchdringen. Mehrdeutigkeit, Polysemie ist ein unvermeidliches Merkmal symbolischer Produktion. Imagination, Erfahrung und Mehrdeutigkeit sind deshalb wesentliche Momente jeder Form der Schaffung von Sinn, weil sie alle Manifestationen des Lebendigen sind. Helmuth Plessner, Mark Johnson wie auch die Vertreter der Phänomenologie gehen deshalb davon aus, dass das Körperliche als der Ort situierter Subjektivität für die Produktion von Sinn eine entscheidend Rolle spielt. Die Geschichte der Produktion von Sinn wäre unvollständig ohne den Hinweis darauf, dass die Produktion von Sinn nur im sozialen Kontext möglich ist. Sinnproduktion ist Teil der kulturellen Evolution. Deshalb ist Sinn immer eingebunden in die symbolische Ordnung, in die wir hineingeboren sind. Sinn ist so letztlich eine Frage der Macht. Doch darum soll es im folgenden nicht gehen, sondern um die Rolle des Körperlich-Leiblichen für die Produktion von Neuem.

Sinn aus dem Körper – Leibliche Ressourcen des Entwerfens Mark Johnson und andere Autoren untersuchen die Muster und Schemata des Leiblich-Körperlichen, aus denen sich die Entstehung von Formen des Begrifflichen und symbolischen Denkens erklären lassen. Die Frage ist nun, wie aus solchen Schemata, also aus solchen »nichtpropositionalen« Strukturen der Vorstellung (Imaginationen) Sinn entsteht, wie er sich sprachlich artikuliert. Sie sind zunächst »nichtpropositional«, das heißt, 7. Mark Johnson: The Body in the Mind. The Bodily Basis of Meaning, Imagination, and Reason, Chicago 1987, Preface.

323

Elisabeth List

es sind Orientierungs- oder Ordnungsmuster, die der begrifflichen Artikulation des Denkens vorausliegen. Johnson benutzt den Begriff des Schemas, um körperliche Muster herauszufinden, die das Potential der Sinngenerierung haben.8 Einige der Beispiele, die Johnson untersucht, seien zur Veranschaulichung genannt, weil sie für das Entwerfen sicher eine wichtige Rolle spielen: Eines der von Johnson hervorgehobenen Beispiele ist die Erfahrung des Enthaltenseins (containment), ein anderes die des Verbundenseins (boundedness). Das sind Erfahrungen aus dem leiblichen Umgang des Hantierens mit Gegenständen. Eine weitere Erfahrung dieser Art ist die des »In etwas Drinnenseins«, die Erfahrung der Innen-Außen-Orientierung. »Enthaltensein« hat verschiedene Aspekte, die für die Prozesse des Entwerfens zum Tragen kommen. Es impliziert die Erfahrung a) des Umschlossenseins, b) des Beschränktseins, c) der lokalen Fixierung, d) der beschränkten Zugänglichkeit und e) der Transitivität des Merkmals »Enthaltensein«9 (Russische Puppe). All das sind Beispiele von Vorstellungen, die direkt aus der körperlichen Wahrnehmung stammen. Es sind »verkörperte Schemata«. Ohne Zweifel schöpfen Architektur und Entwerfen aus diesen Mustern. Verkörperte Schemata unterscheiden sich sowohl von Propositionen, von Aussagesätzen, als auch von Imaginationen, von Vorstellungsbildern. Sie sind der »Urstoff« aller Erfahrung und wohl auch allen Gestaltens. Um aber eine sinnvoll verknüpfte Erfahrung zu haben, die man erfassen und über die man nachdenken kann, muss es Muster und Ordnungen geben, die unsere Handlungen, Wahrnehmungen und Begriffe ordnen. Ein Schema ist ein wiederkehrendes Muster, eine Kontur, eine Regularität in, an und für unsere fortgesetzten Aktivitäten.10 Solche Schemata gehen aus unseren körperlichen Bewegungen im Raum hervor. Sinnbildung und auch Entwerfen ist der Prozess der Übertragung körperlicher Schemata in ein von ihnen verschiedenes Medium, die symbolische Transformation solcher Muster. Vorstellungsschemata haben kraft ihrer Leistung, Erfahrung zu organisieren, eine interne Struktur, die sich dergestalt ins Symbolische transformieren lässt. Zur Illustration dieser internen Strukturiertheit dient Johnson das Wahrnehmungsschema von Kraft: Unsere Körper sind Cluster von Kräften. Was wir wahrnehmen, sind Kräfte in Interaktion (alltägliche Erfahrung von Druck und Gegendruck, von Wind und Schwerkraft).11 Im Bereich des Denkens, aber auch im Prozess des bildnerischen Gestaltens sind die physischen Kräfte metaphorisch übertragen auch auf die soziale und 8. 9. 10. 11.

Vgl. Mark Johnson: The Body in the Mind, S. 19. Ebd., S. 37. Ebd., S. 29. Vgl. ebd., S. 42.

324

Die Kreativität des Lebendigen und die Entstehung des Neuen

die psychische Erfahrung,12 mithin auf die soziale Umwelt und auf die Innenwelt der Subjekte.13 Die von Johnson entwickelte Theorie der Sinngenerierung aus leibbezogenen Vorstellungsschemata der Bewegung in und mit Kräften eignet sich sehr gut, um die elementaren Vorgänge des Entwerfens zu verstehen. Sie haben den Vorteil, dass sie ohne den Umweg über die Sprache, ohne metaphorische Projektion die Generierung von Sinn verdeutlichen.

Die metaphorische Projektion als zentraler Mechanismus der Sinngenerierung Dennoch: Die Vertextung gehört zum Geschäft des Entwerfens und damit auch die Metapher. Die theoretische Philosophie hat Vorurteile bezüglich der Metapher: Beschreibung von Wirklichkeit ist für sie nur möglich mit wörtlichen Benennungen und Sätzen. Metaphern, so heißt es, sagen nichts über die Wirklichkeit. Sie überschreiten Kategorien und können deshalb die Welt nicht abbilden. Das ist auch richtig: Metaphern bilden nicht eine vorgegebene Wirklichkeit ab, sie konstruieren die Wirklichkeit aus einem implizit verfügbaren Repertoire an letztlich leibfundierten Schemata oder Mustern. Die metaphorische Übertragung von vorbegrifflichen Vorstellungsschemata in die Sprache aber auch in das Bild und das gestaltete Objekt liefern so den Schlüssel für ein Verstehen dessen, was allen Produktionen von Sinn gemeinsam ist. Sinnerzeugung im Entwurf ist eine Form der Bedeutungsproduktion, die den Referenzbereich der verwendeten Zeichenobjekte überschreitet und die Bausteine für die Welt oder für Wirklichkeitsbilder und Weltmodelle liefert. Dieser Vorgang des Überschreitens der Welt der sinnlich wahrgenommenen Objekte in der »virtuellen« Sphäre des Sinns lässt sich anhand des Unterschieds zwischen dem natürlichen Zeichengebrauch, zu dem auch viele Tiere fähig sind, und dem Symbol verdeutlichen. Ein natürliches Zeichen ist ein Anzeichen: Es stiftet einen Zusammenhang zwischen zwei Ereignissen oder Phänomenen, der das Verhalten zu orientieren erlaubt.14 Nach Susanne Langer umfasst die Zeichenrelation im Falle des natürlichen Zeichens oder Anzeichens drei Elemente: Ein ankündigendes Ereignis (in semiotischen Begriffen »signifiant«), ein angekündigtes Ereignis (»signifié) und den Zeichenverwender, für den diese Zeichenbeziehung gilt.

12. Vgl. ebd., S. 57. 13. Vgl. ebd., S. 59. 14. Vgl. Susanne Langer: Philosophie auf neuem Wege. Das Symbol im Denken, im Ritus und in der Kunst, Frankfurt/Main 1965. – Ein Beispiel: Rauch bedeutet Feuer, eine bestimmte weiße Schüssel bedeutet für meine Katze Futter.

325

Elisabeth List

In der Zeichenrelation des Symbols, die als neue Dimension »Sinn« einbezieht, kommt ein viertes Element hinzu: Zum ankündigenden Ereignis oder Zeichen und zum angekündigten Ereignis, dem Bezeichneten, tritt das innere Bild, die Idee, die mit dem Bezeichneten verbunden ist. So bezeichnet ein Eigenname ein bestimmtes, in Raum und Zeit identifizierbares Individuum, aber mit ihm verbinden sich auch die Vorstellungen von der Person, ihrer Bedeutung. Der Eigenname hat also die Funktion der Denotation eines Individuums, er hat aber auch die Funktion, eine Bedeutung, eine »Konnotation« zu transportieren, das heißt den Sinn, den wir mit diesem Individuum verbinden. Und als viertes Element gehört auch zum Symbol der Zeichenverwender, für den diese neue Sinnbeziehung gilt. Diese Formen der symbolischen Sinnproduktion, das ist mittlerweile mit der Rezeption der Semiotik in der Kulturund Architekturtheorie klar, sind auch am Werk beim architektonischen Gestalten. »Wortloses Entwerfen« ist eher eine Seltenheit. Wie ließe sich der Prozess des Entwerfens als Prozess der Sinngenerierung in die Semiotik Susanne Langers übersetzen, etwa im Entwurf eines Hauses? Da ist das materielle Substrat des Gebauten, dann die Gestalt des entworfenen Baus, und zwischen beidem steht die Bedeutung, die in ihm Gestalt angenommen hat – der Entwurf, der den Sinn, die Bedeutung des Geplanten und Gebauten repräsentiert in graphischer Form, aber auch in Worte eingebettet. Der Entwurf ist der Ort der Sinngenerierung, der imaginären Transformation der Materialien des Bauens in ein Bauwerk mit Sinn und Funktion.

Die Entstehung des Neuen im Medium des Gegebenen Entwerfen ist ein Tun, das sich in einem Medium, an einem Material manifestiert. Das Neue, der Entwurf, ist etwas, das sich an alten Techniken und Konventionen des Planens als Entwurf präsentiert. In seiner Form greift er auf das kulturelle Repertoire vorliegender Entwürfe zurück, präsentiert sich aber zugleich als etwas Neues. Deshalb ist Entwerfen nicht einfach Routine, die Befolgung bekannter Regeln der Konstruktion, sondern eine spezifische Form des »know-how«, die sich speist aus einer Quelle impliziten (körperlichen) Wissens, die sich der Festschreibung auf eine Zahl von Regeln entzieht. Entwerfen ist eine kulturelle Fertigkeit neben vielen anderen, wie etwa dem Reden, dem Schreiben, dem Tanzen und Singen, aber auch der Herstellung von Artefakten und ihrer Verwendung in bestimmten Situationen. Entwerfen geschieht im Kontext von immer schon vorhandenen Techniken, von technischen Bildern, die ein Arsenal von Gestaltungsmöglichkeiten darstellen, wie es in den Archiven und Beständen von Kunst, Architektur dokumentiert und auch beschrieben ist.

326

Die Kreativität des Lebendigen und die Entstehung des Neuen

Entwerfen ist mehr als ein Anwenden von bestimmten Materialien und Techniken. Es ist eine Fähigkeit, die konkreten Praktiken des Herstellens zugrunde- und vorausliegt. Allgemein gesagt: Es ist die Fähigkeit, Künftiges, noch nicht Gesagtes und Gedachtes zu denken, Ungestaltetes zu gestalten – in der Kunst, aber ebenso in der Architektur, der Philosophie, der Wissenschaft. Es ist nur zu fassen als Prozess und im Prozess, angebunden an konkrete Ereignisse des Gestaltens und Herstellens. Man ist geneigt zu fragen, ob sich dieser Vorgang, in dem Neues entsteht, methodisch fassen lässt in einer Methode, die es ermöglicht, ihn gezielt herbeizuführen, entweder durch Zählen und Messen oder durch ein Verfahren der Generierung von Form und Gestalt. Das bisher Gesagte macht jedoch klar, dass sich die körperlichen Impulse von Freiheit und Kreativität im Konkreten nicht bündig fassen lassen. Hier scheiden sich die Geister: Die These von der Kreativität des Lebendigen steht der Erwartung der Fixierung von Regeln entgegen. Sie besagt, dass sich der Punkt, der Augenblick, in dem Neues entsteht, durch nichts erklären lässt, weder durch den Rückgriff auf das Genie, noch auf den häufig beschworenen göttlichen Funken der Inspiration. Dort, wo alteuropäische Ästhetiken Gott und Genie als deus ex machina auftreten lassen, ist etwas anderes, es ist der blinde Fleck, der Moment, der sich aller Erklärung entzieht: der je eigene Leib. Die Theorie des Lebendigen ist eine Möglichkeit, diesen blinden Fleck in anderen Begriffen zu benennen, in Begriffen, die einen Bezug auf menschliches Tätigsein haben. Sie geht davon aus, dass sich die Eigentümlichkeiten des Lebendigen, seine Leistungen nicht aus irgendwelchen Gesetzmäßigkeiten oder Codes deduzieren lassen. Denn sie verdanken sich gerade seiner Nichtfestgelegtheit: der Offenheit, der Situiertheit, der Endlichkeit und Kontingenz des kreatürlichen Lebens. Das Neue entsteht an diesem blinden Fleck der Nichtfestgelegtheit, es muss aber, um in Erscheinung zu treten, Gestalt annehmen in dem schon angesprochenen vorgegebenen Repertoire von Praktiken, Mustern und Formen. Es wird oft manifest als Widerständigkeit, als Geste des Scheiterns, denn die bestehenden Ausdrucksrepertoires können die Erscheinung des Neuen begrenzen, behindern, verunmöglichen. Man denke an die Vorgaben des Zeichnens, der computergenerierten Darstellung in der Baukunst, in der Architektur. Das Medium der Darstellung selbst kann schon eine starke präformierende Wirkung haben. Das ist ein großes Dilemma: Der Prozess des Entwerfens, der Akt des Entwerfens muss zurückgreifen auf bestimmte Verfahren, um aber zum Entwerfen als Kreation von Neuem zu werden, muss es diese Verfahren verletzen, überschreiten. Dies ist das Grundproblem des kreativen Gestaltens: die vorgegebene Praxis und Form zu übernehmen, um sie außer Kraft zu setzen und 327

Elisabeth List

zugleich als gestaltendes Moment in Anspruch nehmen. Das ist ein Moment des Umbruchs, der Verunsicherung, der Subversivität. Der Weg geht von der Konvention zur Konfusion, von der Irritation zur Kreation. Eben so beschreibt die Kognitionswissenschaft die Phasen des kreativen Prozesses.15 Die erste Phase beschreibt sie als Vorbereitung, und gewöhnlich bewegt diese sich in den Bahnen des Vorgegebenen, der Konvention. Dann folgt die Phase der »Inkubation«, in der das Problem unbewusst bearbeitet wird, und die dritte Phase ist die der Einsicht, in der das Projekt durch die Lösung des Problems realisierbar wird. Die Kognitionswissenschaften konzentrieren sich auf das Verstehen theoretischer Erkenntnis, und die Frage, welche Momente in der Phase der »Inkubation« zum Tragen kommen, bleibt offen. Es sind jedenfalls Momente des Unbewussten, die sich einer erschöpfenden Beschreibung entziehen. Bezug nehmend auf die Arbeiten von Mark Johnson lassen sich dazu einige Überlegungen anstellen, die von Gewicht sind, aber gewiss nicht die einzige Richtung weisen, die der Prozess des Entwerfens nehmen kann. Wenn in den Prozessen der sprachlichen Sinngenerierung, wie Mark Johnson zeigt, die Impulse der Vorstellungsschemata körperlicher Bewegungen und Kräfte eine entscheidende Rolle spielen, so gilt das umso mehr für das bildnerische Gestalten und auch für den Prozess des Entwerfens. Aber so wie bei der Gestaltung – beispielsweise einer Skulptur – kommt auch beim Entwerfen als Sinn generierender Faktor der Kontext der Dinge ins Spiel. Der Kontext der Dinge ist zum einen die gebaute Welt, oder auch: die verbaute Umwelt, deren Wahrnehmung eingebettet ist in einen komplexen Hintergrund von Sinn. Der Designer als Subjekt des Entwerfens ist keine tabula rasa, sondern geformt durch die Einschreibungen von Sinn, die ihm in der wahrgenommenen Welt entgegenkommen. Aber die gebaute Welt allein ist nicht der Kontext, der für kreatives Gestalten eine Rolle spielt. Es ist auch die gewachsene Welt, in die, mehr oder weniger gelungen, die gebaute Welt eingefügt ist. Und die gewachsene Welt ist nichts anderes als die Welt des Lebendigen. Kommt dem Planer, dem Designer die Eingebung des Entwurfs als Einschreibung von Sinn und Form tatsächlich von außen entgegen oder trägt er sie nicht schon in sich? Sind sie nicht, wie die aus dem Körperlichen kommenden Vorstellungsschemata, Teil des Unbewussten, das mehr oder weniger unzensiert sein Tun mitbestimmt? Ist da vielleicht auch hier so etwas wie eine Leerstelle oder Lücke für etwas noch nicht Wahrgenommenes? Freud hat dem Unbewussten nicht nur die aus dem Körper kommenden Impulse und 15. Vgl. Jacques Hadamard: An Essay on the Psychology of Invention in the Mathematical Field, Princeton 1949. Vgl. Dazu Gottfried Vosgerau: Kreativität als Zusammenspiel von Assoziation und Inhibition, in: Günter Abel (Hg.): Kreativität. XX. Deutscher Kongress für Philosophie, Berlin 2005, S. 705-806.

328

Die Kreativität des Lebendigen und die Entstehung des Neuen

Antriebe zugeschrieben, sondern auch jene Teile des Bewussten, die durch Verdrängung und Gewöhnung ins Unbewusste abgesunken sind. Das Unbewusste erfüllt also zwei sehr verschiedene Funktionen, einmal im Dienst des Individuums, und dann auch im Dienste des Kollektivs. Das gilt sicher auch für die Muster des Entwerfens, wie sie in der Profession und in der Ausbildung weitergegeben werden. Pierre Bourdieu hat daraus mit seiner Theorie des Habitus die Konsequenz gezogen:16 Die Geordnetheit des gesellschaftlichen und kulturellen Lebens verdankt sich dem Umstand, dass Regeln verinnerlicht werden, dass sie in Fleisch und Blut übergehen, habituell und damit unbewusst werden. So entsteht der Habitus des Architekten, wie der des Beamten, des Wissenschaftlers, des Kulturproduzenten. Der Habitus ist die Verfestigung des Gewöhnten, des Selbstverständlichen. Wie kommt nun die Fähigkeit des Entwerfens ins Spiel? Das Entwerfen als kulturelle Strategie, so kann man vermuten, ist eine Strategie der Durchbrechung des Gewohnten, eine Strategie der Subversion des Vorgegebenen, das die Macht über das Unbewusste an sich gerissen hat. Das Entwerfen ist als kulturelle Praxis wesentlicher Teil der Arbeit des Architekten. Diese Praxis ist nicht einfach Ausdruck seiner Kreativität, sondern vorbestimmt durch das Erbe bewährter in seiner Ausbildung vermittelter Modelle, Muster und Formen. Nur dadurch, dass er sich auf dieses Repertoire von Beispielen und Entwürfen bezieht, wird sein Entwurf als solcher wahrgenommen, akzeptiert oder auch kritisiert. Damit ist die Architektin konfrontiert, wenn sie mit ihrer Arbeit des Entwerfens beginnt, und sie bewegt sich von Anfang an im Spannungsfeld zwischen der Macht und der Autorität des Tradierten, des Bewährten und Akkreditierten und ihrem Anspruch, Neues zu schaffen. Seine oder ihre Kreativität ist also gefordert, Spielräume und Strategien zu finden, die es ermöglichen, Neues zu »ent-werfen«, gewissermaßen in der Bewegung eines Wurfs weg von den gegebenen Mustern und Plänen hin zu etwas Neuem. Gelingt dieser »Wurf«, dann entsteht neuer Sinn, und seine Bewegung gleicht den Prozessen der Sinngenerierung, wie sie oben am Beispiel der Sinngenerierung im Medium der Sprache illustriert worden sind.

Das Alltägliche, das Banale, das Gewöhnliche – Quelle oder Schranke architektonischer Kreativität? Das Durchbrechen des Gewohnten, das dem Entwerfenden und Planenden als eine fertig gebaute Welt gegenübertritt, ist nicht so leicht zu bewerkstelligen. Eine mögliche Strategie, die Klaus-Jürgen Bauer in seinem Buch »Minima Ästhe16. Vgl. Pierre Bourdieu: Entwurf einer Theorie der Praxis auf der ethnologischen Grundlage der kabylischen Gesellschaft, Frankfurt/Main 1979.

329

Elisabeth List

tica. Banalität als subversive Strategie der Architektur« darstellt, ist die der Umdeutung des Gewohnten oder Banalen ins Ungewöhnliche. So könne das Alltägliche, das Gewöhnlich-Gewohnte, das Banale zur Ressource des Entwerfens werden. Da geht es nicht um eine Theorie des Entwerfens schlechthin, und auch nicht um die gesamte Architektur, aber doch um einen repräsentativen Ausschnitt aus dieser. Eingangs zitiert Bauer das zwölf Meter hohe Kultbild des thronenden Zeus des Bildhauers Phidias, das in der Antike als eines der sieben Weltwunder galt, als Beispiel für eine Deutung von Kunst, für die das Schönste, das Größte und Beste als Inbegriff dessen galt, was Kunst ist, und stellt sie der kleinen, runden Figur der Venus Cloacina gegenüber, die am Forum Romanum an der Entwässerungsanlage errichtet worden war – als Bezugnahme und Veredelung einer so gewöhnlichen Sache wie einer Kloake.17 Im 20. Jahrhundert lassen sich zahlreiche Architekten finden, deren künstlerisches Werk und deren Theorien mit dem Alltäglichen verbunden waren, so beispielsweise Adolf Loos. »Er beschäftigte sich mit der natürlichen Anordnung der Kartoffelbeete, wie der Hausvater richtigerweise sein zweites Frühstück einnehmen sollte, mit der richtigen Lage der Toiletten oder dem erzieherischen Wert.«18 Hinter solcher Zuwendung zum Alltäglichen, Gewöhnlichen verbirgt sich Bauer zufolge eine bislang nicht thematisierte Beziehung der Architektur zum Banalen. Wie lässt sich diese Beziehung architekturtheoretisch deuten? Wenn sich die Aufmerksamkeit dem Gewöhnlichen zuwendet, ist noch nichts darüber gesagt, ob das mit der Geste der Begrüßung oder der Ablehnung erfolgt. Die Möglichkeit einer Ästhetik des Banalen steht für Bauer nicht zur Diskussion. Es geht ihm primär darum, das Banale als »Erscheinung des Unsichtbaren« in seinen »Wechselwirkungen mit Architektur an den Rändern« zu beschreiben, etwa an der Frage nach den Grenzen zwischen Kunst, Kitsch, und Banalität.19 Als theoretischen Rahmen für eine solche Beschreibung wählt er Pierre Bourdieus Konzept des Kunstfeldes mit seinen subtilen Beschreibungen der Bedingungen eines Diskurses über Architektur.20 Banalität als subversive Strategie der Architektur – ein möglicher Weg des Entwerfens als kulturelle Fertigkeit? Die zwei konstitutiven Momente der Tätigkeit des Entwerfens – die Anknüpfung an Gegebenes und die Kreation von Neuem – wären hier jedenfalls in gut nachvollziehbarer Weise verbunden. Aber kann eine Strategie der Subversion wirklich Neues schaffen? Die Beispiele, die Klaus-Jürgen Bauer vorführt, lassen da Zweifel offen. Geht es 17. Vgl. Klaus-Jürgen Bauer: Minima Ästhetica. Banalität als subversive Strategie der Architektur, Verso 3, Reihe zur internationalen Architekturtheorie, Weimar 1997, S. 9f. 18. Ebd., S. 84. 19. Vgl. ebd., S. 14. 20. Vgl. ebd., S. 15.

330

Die Kreativität des Lebendigen und die Entstehung des Neuen

dem Architekten überhaupt in erster Linie darum, Neues zu schaffen? Möglicherweise aber bringt die Kategorie des Banalen eine gewisse Umdeutung oder Einengung dessen mit sich, worauf sich das Interesse von Kunst und Architektur mit der Zuwendung auf das Alltägliche und das Gewöhnliche richtete. Als banal erscheinen Dinge ja erst aus dem Blickwinkel einer Voreingenommenheit für bestimmte Wertigkeiten, für eine bestimmte Sichtweise der Kunst und des Ästhetischen. Genau besehen, bezieht sich Bauers Rede von der Banalität des Bauens auf die vorfindbaren Gegebenheiten als Resultat bisheriger Praktiken des Bauens, die gewissermaßen in den Status des Unbemerkten und Nebensächlichen herabgesunken sind. Der Blick der Architektur ist aber nicht nur von ästhetischen und technischen, sondern auch von politischen und ökonomischen Gesichtspunkten geleitet. Die Aufmerksamkeit für das Banale als das Gewohnte könnte auch geleitet sein von der Orientierung an der Auftragslage oder einfach an Überlegungen der Nutzung und Verwertung. Verträgt sich Banalisierung mit einer kritischen Perspektive des Architekturtheoretikers? Vielleicht ist die Banalisierung des Gebauten die Folge der selbstgewählten Ideologielosigkeit einer Generation, die hehre Theorien des Schönen in der Architektur hinter sich lassen will, so dass die alltäglichen politischen und ökonomischen Realitäten des Baugeschäfts gleich mit banalisiert werden. Hier zeigt sich eine Grenze dieser Geste der Subversion. Sie bleibt letztlich bezogen auf die Oberflächen des baulich Gegebenen. Kann aus einer solchen Subversion als Strategie des Banalen wirklich neue Architektur entstehen?

Lebendige Architektur Wichtig und richtig ist das Vorhaben Bauers, das Gewöhnliche als die Sedimentierung ins Unbewusste abgesunkener Praktiken des Bauens sichtbar zu machen, durch die sie zugleich hinterfragt und zum Material neuer Entwürfe werden können. Das Entwerfen als kulturelle Fertigkeit bleibt letztlich immer gebunden an die Vorgegebenheiten des Status quo. In meinem Titel habe ich die Kreativität des Lebendigen als die entscheidende Voraussetzung allen Entwerfens angesprochen. Sie weist in eine andere Richtung im Spektrum der Orientierungen und der Anregungen, in dem sich Architekten und Architektinnen vorfinden: in die Richtung des lebendigen Spürens, Wahrnehmens und Gestaltens, das die Synthese von Lebendigem und Konstruiertem als Form der Kreativität möglich macht. Mit ihr kann es gelingen, die Kreativität des Lebendigen im Entwerfen ohne Umweg über die Übermacht oder die Banalität des Gegebenen sichtbar und greifbar werden zu lassen. Denn bei aller Gebundenheit an Tradition und Konvention ist der Architekt, die Architektin ein lebendiges Wesen. Sie sehen die Formen des Lebendigen in ihrer Umwelt, in den Körpern, die sie sehen und berühren, in den Wiesen, den Feldern und 331

Elisabeth List

Wäldern, im Spiel von Licht und Schatten, die Formen und Rhythmen des Gewachsenen. Hier spüren sie die Einheit von Fühlen und Form, 21 von der her sich die Produktivität aller Kunst speist.

21. Vgl. Susanne Langer: Feeling and Form. A Theory of Art Developed from Philosophy in a New Key, New York 1953.

332

Prozesse gestalten – Zeit als Entwurfsmaterial MARIA AUBÖCK und JÁNOS KÁRÁSZ

Der Entwurfshintergrund Zeit Zeit ist ein integraler Bestandteil der Entwicklung von Gärten, von Landschaften. Anders als in der Architektur, beginnt der Garten sein »wirkliches Leben« eigentlich dann erst, wenn wir ihn der Benutzung übergeben: die Proportionen, die Dimensionen, wesentliche Charakteristika verändern sich durch Wachstum und über die Zeit. Gilt es in der Architektur, einen präzise definierten Zustand möglichst dauerhaft festzulegen (sei es auch in seiner Flexibilität), so entwerfen wir in der Landschaftsarchitektur stets Prozesse. Einübung in das Ungewisse Die Gärten und Landschaften sind also einerseits Langzeitunterfangen mit offenem Ende – andererseits stehen sie in einem zirkulären Prozess der Jahreswie auch der Tageszeiten, in einer immerwährenden Wiederholungsschleife. Sie sind damit auch ein Ausdruck permanenter Veränderung. Diese Veränderung ist nur bedingt kalkulierbar. Darin besteht die eigentliche Herausforderung: Die Einübung in das Ungewisse ist der spannend-diffuse Hintergrund beim Entwerfen von Gärten und Landschaften. Zuwendung und Steuerung Die künftige Entwicklung eines Gartens (oder auch eines begrünten Stadtplatzes) hängt maßgeblich von seiner Pflege und Instandhaltung ab. Diese besondere Form der regelmäßigen Zuwendung wird indirekt ein Teil des Entwurfsprozesses. Denn sie wirkt sich auf die Gestaltung des Gartens nachhaltig aus. Dabei spielen verschiedene Steuerungskomponenten eine Rolle: zunächst die intendierte Entwicklung im Sinne des Landschaftsarchitekten, dann die Bewährung des Entwurfskonzeptes in der Zeit, weiters die sich wandelnden Anforderungen der Nutzer und schließlich die zur Verfügung stehenden finanziellen Ressourcen.

333

Maria Auböck und János Kárász

Nutzungsdruck Angesichts des wachsenden Nutzungsdrucks, insbesondere in öffentlichen Räumen (alle Flächen sollen begehbar sein, Vandalisierung ist überall und immer möglich), bestimmen restriktive Erfordernisse der Pflege und Instandhaltung zunehmend den Entwurf, d.h. die Überlebenschancen einer Anlage in der Zeit.

Zum Entwurfsprozess Vorbemerkung Unser Beitrag muss weniger wissenschaftlich angelegt sein, will eher die alltägliche Entwurfarbeit im Atelier reflektieren. Wie gehen wir da eigentlich vor, fokussiert auf diesen (für diese Veröffentlichung) im Mittelpunkt stehenden Zeit-Aspekt? Schauen und Zuwarten Das Beobachten des Ortes, der jeweils spezifischen Situation bildet den Ausgangspunkt des Entwurfsvorganges zwischen uns. Die Skizzen, die Plandarstellungen fließen ein, bilden einen Teil des Ortes. Die erläuternden Texte oder die schriftlichen Vorgaben erweisen sich erfahrungsgemäß für uns als weniger anregend, sie wirken eher bremsend. Durch wiederholtes Schauen, Besuchen, Beobachten entdecken wir gleichsam die Geheimnisse eines Ortes: das Besondere wie das unprätentiös Selbstverständliche einer räumlichen, historischen oder sozialen Gegebenheit. Das spätere Betrachten der selbst gemachten Fotos bringt dann im Atelier eine zusätzliche Ebene: Fotos dienen weniger als Bestätigung des schon Gesehenen als eine zusätzliche Möglichkeit der Reflexion und Kontextualisierung. Intuitive Entwurfsidee versus Suche nach Ordnung Wir arbeiten im Team, also zu zweit und zu mehreren. Wir nähern uns oft von sehr unterschiedlichen Polen einer Aufgabenstellung. So kann bald ein sehr konkretes Bild einer Entwurfsidee im Kopf entstehen – aus dem Geruch, der Farbe des Ortes… Parallel dazu entwickelt sich der Versuch eines ordnenden Vorgehens, zumal wir es sehr oft mit äußerst disparaten Nachbar-Bauten, Nachbar-Landschaften, teils mit richtiggehend zerstörten Landschaften oder nur noch Resten (z.B. eines früheren Garten) zu tun haben. Auf der einen Seite wird das Neue als ein gleichsam autonomer Layer (natürlich mit allen Rücksichten und Hinsichten) eingeführt, auf der anderen Seite entsteht es im direkten Bezug zum Vorhandenen: klärend, ordnend, zusammenfügend…

334

Prozesse gestalten – Zeit als Entwurfsmaterial

Gemeinsam entwerfen Als interessant, manchmal auch schwierig erweist sich das Gespräch während des Entwerfens, über das Entwerfen, entwerfend: Maria spricht, indem sie zeichnet, während János anfangs eher die kulturelle Matrix einer Aufgabenstellung diskutieren möchte, den Entwurf auch einmal gedanklich herausschälen möchte, ihn begrifflich auf ein Bild bringen will. Also gibt es einerseits eher die Suche nach dem Ganzen als Basis, als Kontur einer Idee, andererseits oft gleichzeitig, überlappend das Erfinden, das Sprühen von Detailaspekten, wie Blitzlichter eines noch unbekannten Wesens. Hier spielen Aspekte der Tages- und Jahreszeiten hinein: Licht und Schatten, bestimmte Farb- und Blühaspekte im Wandel der Monate. Janos spricht so lange, bis er ganz sicher weiß, was er will… und zeichnet den Gedanken fertig. Dynamiken modulieren Bei dieser Vorgangsweise versuchen wir die gewollten Räume weniger nach Funktionen zu gliedern, denn nach ihrer Dynamik, ihrem Zeitmaß zu modulieren ähnlich einem Musikstück, langsamere und schnellere Passagen zu entwickeln, Räume unterschiedlicher Tempi zu schaffen, durch eine Verdichtung der Erfahrung im Verweilen – durch eine Abfolge leiserer und lauterer Gartenpartien. Diese sind dann weniger bestimmten Nutzergruppen, bestimmten Altersgruppen vorbehalten, sondern signalisieren unterschiedliche Anmutungen, Atmosphären, Stimmungen und Naturzustände. Paradoxie als poetische Kippfigur Aus den Widersprüchen eines Ortes entstehen oft die spannendsten Lösungen, Entwürfe, die dem Erwarteten zuwiderlaufen, eine Situation gleichsam kippen und neu zusammenfügen, also rekontextualisieren. Dies kann unterschiedliche Formen annehmen: –

Etwa beim Senkgarten im Landschaftspark von Blumau als Überlagerung des Fremden und Exotischen mit dem Eigenen und Vertrauten – mit beidseitigen Trockenmauern und Stauden wie aus dem Garten zu Hause (Abb. 1 und 2).



Am Kurplatz von Hall als extreme Gestaltungsmetapher, die zum identitätsstiftenden Bild der Oberflächengestaltung wird – »cracked ice«. (Abb. 3 und 4).



beim Vorplatz von Schönbrunn, der als fast leerer Raum, als stille Weite im dichten Verkehrsstrom vor dem Weltkulturerbe gestaltet wird. (Abb. 5 und 6). 335

Maria Auböck und János Kárász

Abb. 1 und 2.

336

Prozesse gestalten – Zeit als Entwurfsmaterial

Abb. 3 und 4.

337

Maria Auböck und János Kárász

Abb. 5 und 6.

338

Prozesse gestalten – Zeit als Entwurfsmaterial

Hellersdorfer Graben – Landschaft als Filmkader Unseren Wettbewerbsbeitrag zum Hellersdorfer Graben in Ostberlin Anfang der 90er Jahre haben wir als Filmkader angedacht: als den Entwurf eines Prozesses statt eines gut vermarktbaren Bildes. Diesmal blieb es bei der Projektidee. Die damalige Ausgangssituation des Hellersdorfer Grabens (zwei U-BahnStationen lang und an der breitesten Stelle ca. 200m tief, in einem Zustand, als wären die Bagger plötzlich stehen geblieben) betrachteten wir als Anfang eines Filmkaders, den wir nicht zerstören, sondern in seiner Eigenart akzeptieren und weiterentwickeln wollten. Die Idee war, kostengünstig die Zeit arbeiten zu lassen: Wir wollten eine Baumschule anlegen im orthogonalen Raster, wodurch von Anfang an unterschiedliche Dichtezustände entstanden wären. Später wären aus diesen Stadtwäldchen (in Abstimmung mit den Bewohnern) nochmals innen liegende Freiräume herausgeschnitten worden. Mittels unterschiedlicher Pflegestrategien wurde ein komplexer, vielschichtiger Prozess komponiert. Im Rahmen der künftigen Entwicklungen waren wiederholte Modulierungen und Nachjustierungen vorgesehen. Den Park-Film haben wir bewusst nicht zu Ende gedreht, lediglich ein variables Drehbuch geschrieben. Zum Schluss: den Möglichkeitssinn stimulieren! Das Radikale an einem Entwurf besteht für uns darin, den Möglichkeitssinn über das scheinbar Vertraute hinaus zu entwickeln, und zugleich das unprätentiös Selbstverständliche nicht aus dem Auge zu verlieren. Das bedeutet für uns die Kulturtechnik des Entwerfens.

339

Zeichnerisches Wissen GERT HASENHÜTL

Dieser Beitrag beschäftigt sich mit der Wissensproduktion beim zeichnerischen Entwerfen1 und Planen von Artefakten, also Gebrauchsgegenständen und architektonischen Bauten. Die visuellen Vorstellungen, die häufig mit der zeichnerischen Entwurfshandlung in Verbindung gebracht werden, stehen nicht im Zentrum des Interesses. So vermittelt bekanntlich im disegnoParadigma die Vorstellungskraft zwischen Ideen und ihrer Realisierung. Die Zeichner generieren Wissen aus dem, was sie in ihren Vorstellungen sehen. Es kommt zu einer stärkeren Gewichtung des Sehens gegenüber dem Wissen, die zur Ansicht verleitet, dass Zeichner innerhalb eines illusionistischen Aktes ihre visuellen Vorstellungen sehen und zeichnerisch externalisieren können. Diese Ansicht verbindet die Zeichnung mit einem ihr vorausgehenden Konzept. Solche Konzepte oder mentale Schemata, die Zeichnungen zu Grunde liegen, werden häufig verallgemeinernd als »Ideen« bezeichnet. Sofern damit Platons Ideen gemeint sind, handelt es sich um Allgemeinbegriffe, die die Existenz einer vom Subjekt losgelösten Wahrheit unterstellen. Die Idee, die ein Zeichner beim Entwerfen hat, bezieht sich allerdings keineswegs auf allgemeingültige Wahrheiten, sondern auf erinnerte und verinnerlichte Wissensformen. Für Zeichner ist der Begriff der Vorstellung in dem Moment nebensächlich, wo sich Wahrnehmungen unter Verwendung verschiedener Symbole in der Zeichnung einschreiben.2 Man könnte das Zeichnen also als eine durch Übung erzielte Koordination von Vorstellen, Sehen und Handeln beschreiben, bei der die Zeichner innerhalb verschiedener Typen von Aufmerksamkeit lernend ihre Wahrnehmung schärfen.3 1. »Design-by-drawing«, Christopher J. Jones: Design Methods. Seeds of Human Futures, London 1970, S. 20. 2. »Ob es innere Bilder gibt, die das Schaffen abbildend aufzeichnen und dann abzeichnen, das ist nicht einmal eine Streitfrage. Darüber ist nichts zu wissen, weil das Wissbare [sic!] erst auftritt, wenn es auf irgendeiner Fläche oder Masse erscheinen kann, die gewiß auch nur vorgestellt sein mag.« Otto A. Graf: Otto Wagner, denkend zeichnen, zeichnend denken. Zur diagraphischen Methodologik, Wien 1999, S. xviii. 3. »Erst aus der unermüdlichen Schulung des Zusammenspiels von Vorstellung, Auge und Hand entwickelt sich die Skizze vom Gekritzel zum individuellen Ideenbild. Dem Ausdruck

341

Gert Hasenhütl

Bewegungen der Hand haben als Körpertechniken in diesem Koordinierungsprozess eine zentrale Funktion, indem sie Werkzeuge wie Zeichenstifte oder rechnerunterstützte Eingabehilfen zu erweiterten Wahrnehmungsprozessen einsetzen. Zeichner, die sagen, dass sie mit ihren Zeicheninstrumenten die Vorlagen und Modelle abtasten, haben die Zeichenwerkzeuge in ihr Körperschema integriert. Die Rolle der Hand und ihrer unentwegten Bewegungen beim zeichnerischen Entwerfen, die eine ganze Reihe von körperlichen Gesten enthalten, beinhaltet insofern einen sehr wirkungsmächtigen Aspekt des Zeichnens. Entwerfer nehmen auf, reißen an, bessern aus, verfolgen, variieren und antworten. Zeichnen beinhaltet einen permanenten Lernprozess durch die aufmerksame Erfassung von Bewegungen der Hand und der Reflexion visueller Wahrnehmungen. In der Ontogenese des Zeichnens werden Bewegungen der Hand und gestische Prozesse zu allmählich koordinierten Bewegungen, so dass rhythmische Kritzelbewegungen als zusammenhängende Zeichensequenzen innerhalb zeichnerischer Lernprozesse von nachträglichen Reflexionen zunehmend durch mental eingeleitete kompositorische Regulierungen zerteilt werden.4 Aus diesen Teilungen der Zeichensequenz ergeben sich eine Reihe topographischer Merkmale der Bildelemente, wie Verbundenheit-Nichtverbundenheit oder Geschlossenheit-Offenheit. Zeichnen und Gestikulieren eröffnet wie Sprechen und Schreiben einen eigenen Zugang zu realen Phänomenen und stellt eigene spezifisch visuelle und haptische Reflexionsformen derselben bereit, allerdings handelt es sich um zwei verschiedene Modi des Begreifens und Erkennens, weshalb der Einfluss des Sprachvermögens auf das Zeichnen in diesem Beitrag nicht im Vordergrund steht. Die Gestik beim zeichnerischen Entwerfen von Artefakten hat verschiedene Dimensionen: Abbildungsgebärden sind eine kommunikative Form der sozialen Interaktion, Ausgleichsbewegungen sind Kompensationen mentaler Überlastung, und technische Gesten simulieren handwerkliche Prozesse am Zeichenmedium. Die erste Form dieser drei Gesten wird am wenigsten durch Einschreibungen am Zeichenmedium dokumentiert, weil sie im kommunikativen Gebrauch von Entwurfszeichnungen entstehen und Zeichenbewegungen vorbereiten. Abbildungsgebärden verlagern sich mit zunehmender zeichnerischer Übung in die Fingerspitzen. Die Bewegungen der Hand erzeugen Abbildungsgebärden oder deskriptive Gebärden, die als Vorläufer von Linienzeichnungen betrachtet werden können.5 Wenn z. B. ungeübte Personen oder von Ideen geht somit die zeichnerische Formung von Eindrücken voraus. Die Umsetzung des Gesehenen in eine Skizze, und die Schulung des Sehens beim Skizzieren sind ineinander verschränkt.« Windfried Nerdinger: Dinner for Architects. Serviettenskizzen von berühmten Architekten, Stuttgart 2003, S. 57. 4. Vgl. Jean Piaget/Bärbel Inhelder: Die Entwicklung des räumlichen Denkens beim Kinde, Stuttgart 1975, S. 93ff. 5. Vgl. Rudolf Arnheim: Anschauliches Denken, Köln 1996, S. 116.

342

Zeichnerisches Wissen

Kinder zeichnen, entfalten sich zur Bewegung der Hand Abbildungsgebärden, die eine kommunikative Handlung einleiten.6 Die Gestik beim Zeichnen hilft also, etwas nachzuahmen oder verweist weiters auf fehlende Fähigkeiten und dient der Kompensation. Diese Form der Gesten kann deutlich in den Einschreibungen am Zeichenmedium sichtbar sein. Geübte Entwerfer verwenden probierende Ausgleichsbewegungen der Hand beim schematischen Zeichnen zur Kompensation, wenn Problemstellungen zu allgemein oder umfassend sind, indem sie kindliche Bewegungsmuster zulassen. Im Vorentwurf von Artefakten sind diese infantilen Verhaltensmuster in den Bewegungen ein Hinweis auf intuitiv experimentelle Prozesse, weil Problemstellungen nicht mehr logisch zweckgerichtet erfasst werden können.7 Die Zeichnung ist in dieser Hinsicht eine Aufzeichnung mentaler Überlastung, die durch die Bewegungen der Hand vorhandene Wissensformen aktiviert, um Vorstellungen, Sichtweisen und Handlungen neu zu koordinieren. Automatisierte Bewegungen, wie z. B. die Schlangenlinien in Frank Gehrys Entwurfszeichnungen, überbrücken Unterbrechungen in der Entwurfssequenz oder Blockaden beim Entwerfen. Die Gestik beim Zeichnen hilft also, Entwurfsprobleme zu vereinfachen oder verweist weiters auf technisch handwerkliche Gesten, die durch die Zeichenwerkzeuge simuliert werden können. Ebenso verlaufen technische Entwurfszeichnungen durch die Bewegungen der Hand in der Weise, dass Entwerfer nicht die Wirkungsweise des Zeichenmediums reflektieren, sondern dieses gebrauchen, um gedankliche Probehandlungen oder funktionelle Experimente durchzuführen. Diese Form von Gesten zeigt sich in den Einschreibungen in Form von unterstützenden Bildelementen, welche Bewegungsabläufe oder funktionelle Zusammenhänge anzeigen. Demnach kann zeichnerisches Entwerfen handwerkliche Herstellungsprozesse beschleunigen, weil verschiedene Teile des zu entwerfenden Artefakts gleichzeitig geändert und überblickt werden können.8 Bewegungen beim Zeichnen versammeln geometrische oder herstellerische Aspekte in einem Arbeitsmittel und simulieren den Entwurf in Mikrobewegungen auf Kosten konkreter Erfahrungen, die graphisch simuliert werden. Handwerkliches Können am Material schreibt sich beim zeichnerischen Entwerfen in ein Probehandeln auf Papier oder dem rechnerunterstützten Zeichenwerkzeug ein. Die Zeichenbewegungen von Auguste Rodin 6. »The psychomotor activity of swinging a crayon in space may be enough, and the drawing child may engage a friend in conversation and attend to something completely removed from the field of the drawing while the hand continues to move fluently and energetically.« Clive Ashwin: »Drawing, Design and Semiotics«, in: Victor Margolin(Hg.): Design Discourse. History, Theory, Criticism, Chicago 1989, S. 199-209, S. 202. 7. »When we are confronted with a task which is too difficult we tend to revert to the early infantile patterns of behaviour.« M. L. Jane Abercrombieane: »Perception and construction«, in: Geoffrey Broadbent /Anthony Ward (Hg.): Design Methods in Architecture, London 1969, S. 118-127, S. 119. 8. Vgl. Christopher J. Jones: Design Methods, S. 23.

343

Gert Hasenhütl

z. B. sind geprägt vom Materialwissen eines Bildhauers, die schwer zu realisierende Steinbearbeitungen zeichnerisch vorwegnehmen und erproben.9 Die Verlagerung handwerklicher Gesten in die zeichnende Hand macht Entwerfer und Architekten zu Planern und Fachleuten mehrerer Disziplinen, die frei vom handwerklichen Umfeld ihre Entwürfe anfertigen. Die Technik des zeichnerischen Entwerfens ist die Folge der Veränderung von gesellschaftlichen Umgebungsbedingungen bei Entwurfsprozessen, die es erlaubt, analytisch Zusammenhänge nachzuvollziehen und integrativ Lösungen vorwegzunehmen. Das zeichnerische Planen wird so zu einem zunehmend gedanklichen Prozess, der verstärkt auf zeichnerischem Wissen aufbaut, das sich als operatives Verfahren im Umgang mit Symbolsystemen und damit als Kulturtechnik begreifen lässt.10 Dieser Beitrag geht davon aus, dass Entwurfszeichnungen eher das enthalten, was die Zeichner wissen und weniger das, was sie sehen. Die zeichnerische Entwurfshandlung verläuft dabei sowohl logisch-zweckrational als auch intuitiv-experimentell, indem die Entwurfszeichner einerseits auf eine Problemstellung reagieren, Sprache und Schrift beim Zeichnen verwenden und die gezeichneten Bildinhalte dokumentieren. Andererseits werden zeichnerisch mehrdeutige Lösungen erzeugt, Entwurfszeichnungen als Hilfsmittel zur Kontemplation verwendet und die gezeichneten Bildinhalte spontan in den weiteren Formfindungsprozess eingebaut. Logische und intuitive Handlungen sind beim zeichnerischen Entwerfen insofern eng miteinander verschränkt. Ein Wissenserwerb beim zeichnerischen Entwerfen hängt mit der zeichnerischen Umsetzung und Kommunikation von Entwurfshypothesen zusammen, die mithilfe von Bildmaterialien, Entwurfszeichnungen oder sprachlichen Äußerungen erprobt und geprüft werden. Entwurfszeichnungen dienen dabei zur Reflexion von Entwurfsbewegungen oder als unterstützende Hilfsmittel zur Erzeugung von Allianzen.11 Wo das Entwerfen vom Abstrakten zum Konkreten verläuft,12 vollzieht sich die Verwandlung von abstrakten Konzepten, Entwurfsansätzen oder Ideen über Allianzen hin zu konkreten Fakten, Entwurfshypothesen oder Entwurfsmodellen. Entwerfer bilden diese 9. »Although working with seemingly sloppy washes and careless lines, he was always thinking in terms of his chisel and hammer. They are great drawings because they embody the hidden potentialities of his medium.«, Louis I. Kahn: »The Value and Aim of Sketching«, in: Alessandra Latour (Hg.): Louis I. Kahn. Writings, Lectures, Interviews, New York 1931/1991, S. 10-12, S. 11. 10. Vgl. Sybille Krämer: »›Schriftbildlichkeit‹ oder: Über eine (fast) vergessene Dimension der Schrift«, in: Sybille Krämer/Horst Bredekamp (Hg.): Bild, Schrift, Zahl, München 2003, S. 157-176, S. 169. 11. Vgl. Bruno Latour: »Visualization and Cognition: Thinking with Eyes and Hands«, in: Henrika Kuklick/Elizabeth Long (Hg.): Knowledge and Society. Studies in the Sociology of Culture Past and Present, Vol. 6, London 1986, S. 1-40, S. 5. 12. Vgl. Morris Asimow: Introduction to Design, Englewood Cliffs N. J. 1962, S. 48.

344

Zeichnerisches Wissen

Allianzen, weil sie mit nicht verbalisierbaren Wissensanteilen arbeiten, so dass sie häufig mehr wissen, als sie sprachlich formulieren können,13 weil sich ihr Wissen erst im Modus des Machens entfaltet.14 Erst wenn Entwerfer durch das Medium der Zeichnung beginnen, ihre eigenen Entwurfsbewegungen sich selbst oder anderen gegenüber zu erklären, sind auch die Voraussetzungen für einen Wissensgewinn gegeben. Zeichnerisches Entwerfen hat insofern mehrere Eigenschaften, die mit grundlegenden Wissensprozessen zusammenhängen: Zunächst wird beim zeichnerischen Entwerfen kulturelles Wissen und vor allem implizites Wissen aktiviert. Entwurfszeichnungen inkorporieren eine von allgemeiner Kultur und architektonischer Subkultur geprägte Ordnung. Diese Ordnung bestimmt, was als Wissen gilt, wer Entwurfszeichnungen anfertigt und welche Themen behandelt werden.15 »Wer zeichnet?« oder »Wer erhält von der Praxis des Zeichnens sein Prestige?« sind Fragen zu dieser Wissensordnung. Auf der Ebene des zeichnerischen Entwerfens entsteht dann durch die Reflexion der Zeichenhandlung neue Information. Die graphischen Prozesse der Entwurfshandlung stellen die Mittel zur Verfügung, um Information nicht nur zu dokumentieren, sondern hervorzubringen, und zwar dadurch, dass Entwerfer ihre Bildelemente kontinuierlich neu interpretieren.16 Insofern lässt sich feststellen, dass zeichnerisches Entwerfen ein Wechselspiel zwischen zwei Arten von Zeichnungen organisiert: Zwischen solchen, die Ideen und Entwurfsansätze kontextualisieren und anderen, die mehrdeutige Interpretationen ermöglichen. Die beiden Prinzipien der Kontextbezogenheit und der Mehrdeutigkeit treten dabei in ein Wechselspiel. Entwurfszeichnungen unterstützen Kontinuität und Veränderung im dynamischen Prozess des Entwerfens durch die Verwendung von Kontextzeichnungen, welche Entwurfsentscheidungen in einer Ordnung festhalten und von mehrdeutigen heuristischen Zeichnungen, die als graphische Versuche zur Untersuchung bestimmter Themen verwendet werden.17 Da ein Wissen, das auf visuelle Darstel13. »[…] daß wir mehr wissen, als wir zu sagen wissen.«, Michael Polanyi: Implizites Wissen, Frankfurt/Main 1985, S. 14. 14. Vgl. Donald A. Schon: »Designing as Reflective Conversation with the Materials of a Design Situation«, in: Research in Engineering Design 3 (1992), S. 131-147, hier: S. 131. 15. »First, study drawings embody a preexisting order imposed by the parent culture and by the architectural subculture in which they are embedded; this order tacitly determines, for example, what will count as knowledge, who makes drawings, and what issues the design will include.«, Daniel M. Herbert: Architectural Study Drawings, New York 1993, S. 2f. 16. »Second, the drawing´s graphic processes provide the means to generate (not just record) information as a designer continuously reinterprets one by one the marks that constitute the drawing.«, ebd., S. 3. 17. »Fifth, study drawings support both continuity and change in a dynamic working process of design through the use of two different types of drawings: context drawings, which hold the evolving design decisions in a putative order, and the ambiguous exploration drawings, which are abstracted from the context drawing and act as graphic probes to investigate selected issues.«, ebd.

345

Gert Hasenhütl

lungen zurückgeht, eine implizite Wissensform darstellt, die zum Teil durch schriftliche und graphische Aufzeichnungen expliziert werden kann, besteht die Entwurfshandlung aus einer Abfolge von Entwurfsbewegungen und Interpretationen, die beide durch Interaktion mit dem Hintergrundwissen entstehen. Zeichnerisches Hintergrundwissen hat subjektive und objektive Einflussfaktoren: Es entsteht durch Übung und aufmerksames Erfassen von verinnerlichten Bewegungen und Wahrnehmungen beim Zeichnen oder es entsteht durch Kommunikation der Zeicheninhalte. Es kommt zu einem Wechselspiel zwischen nichtverbalisierbaren und kommunizierbaren Wissensanteilen, wobei das zeichnerische Reflexionsvermögen zwischen Hintergrundwissen und vordergründigen Annahmen vermittelt. Die Entwurfshandlung besteht auf der Mikroebene aus einer Abfolge von Entwurfsbewegungen und Wahrnehmungen, die beide durch Interaktion mit dem Hintergrundwissen entstehen. Diese Interaktion verändert verinnerlichte Zeichenbewegungen und Wahrnehmungen, indem Teile explizites Vordergrundwissen werden können.18 Entwurfszeichnungen lassen sich in diesem Zusammenhang als visuelle Äußerungen denken, die aufgrund rationaler Überlegungen in Reaktion auf eine Problemstellung gemacht werden. Demzufolge wäre zeichnerisches Entwerfen eine Äußerung symbolischer Art – also eine Ausdrucksform, die einer Praxis bedarf und bestimmte Symbol- und Zeichnungssysteme zusammenfasst. Symbolsysteme umfassen Schriftzeichen, mathematisch numerische Symbole oder z. B. Piktogramme aus dem Bauentwurf. Zeichnungssysteme umfassen schematische Systeme, Parallelprojektionen, Perspektiven und gemischte Systeme.19 Für die Erstellung von Handzeichnungen sind insbesondere schematische und gemischte Systeme von Interesse. Das Wesen schematischer Systeme als Darstellungen, die weitgehend ohne Projektionsverfahren gemacht sind, besteht im Weglassen ungewollter Information. Dazu zählen schematische Entwurfszeichnungen, Diagramme, Listen oder einfache Symbole. Das Wesen gemischter Zeichnungssysteme besteht in der Kombination unterschiedlicher Systeme wie Orthogonalprojektionen oder naiver Perspektiven. Der Gebrauch von unterschiedlichen Zeichnungssystemen erlaubt es, unterschiedliche Realitätsebenen und Zeiten in einer Darstellung zusammenzubringen. Im Hinblick auf das Zeichnen im Vorentwurf sind gemischte Systeme wichtig, weil Entwerfer spontan jene Zeichnungssysteme verwenden, die ihnen zur Darstellung ihrer Entwurfsansätze und Ideen am geeignetsten erscheinen. 18. »The graphic discourse of design is a sequence of the designer´s making and then interpreting study drawings, with the meaning of each act of drawing and each interpretation colored by its interaction with the background. Furthermore, these interactions also change the tacit background as parts of it become explicit foreground statements.«, ebd., S. 46f. 19. Vgl. Fred Dubery/John Willats: Perspective and other drawing systems, London 1983, S. 10ff.

346

Zeichnerisches Wissen

Es kommt dabei einerseits Wissen über die praktische Umsetzung von Symbol- und Zeichnungssystemen und andererseits Wissen über die Bedeutung von Bildelementen zur Anwendung.20 Das formale Wissen über Symbol- und Zeichnungssysteme ist zumeist verinnerlicht und damit dem impliziten Wissen zuzuordnen. Das Vermischen und Zusammenbringen unterschiedlicher Darstellungen beruht auf formalem Wissen beim zeichnerischen Entwerfen. Dieses Wissen umfasst implizite Kenntnisse zur Zeichenhandlung, zu vergangenen Wahrnehmungsprozessen, zur Entfaltung einzelner Bildelemente sowie zum formalen Aufbau einer Zeichnung. Es ist ein Ausführungswissen21 oder konstruktives Wissen22 zu Zeichenbewegungen und der Umsetzung von mentalen Schemata in der Zeichenhandlung. Entwerfer wissen, welche Darstellungsart für ein bestimmtes Problem am besten geeignet ist. Das formale Wissen ist die Grundlage der Linienorientierung und der motorischen Umsetzung von Bildelementen innerhalb der Zeichensequenz und es bestimmt, welche Bildelemente z. B. zu Beginn gezeichnet werden. Das funktionelle und symbolische Wissen über die Bedeutung von Bildelementen ermöglicht die Interpretation der Zeichnungs- und Symbolsysteme, um aus ihnen neue Konzepte und Entwurfsansätze zu bilden. Dieses Wissen erlaubt es Entwerfern, Zeichenbewegungen und Bildelemente sprachlich zu interpretieren und zu kommunizieren. Es ist ein Abbildungswissen23 oder Darstellungswissen24 zu Inhalten und darüber, was diese aussagen. Entwerfer haben vielfältige Möglichkeiten der Interpretation von Bildelementen: Sie assoziieren, stellen visuelle Analogien her, verwenden Metaphern und Wortspiele, sehen Illusionen in mehrdeutigen Darstellungen oder kontrastieren Bildelemente untereinander. Die beiden obigen Wissensformen erlauben es Entwerfern, reale Phänomene über Symbol- und Zeichnungssysteme in die Zeichnung einzuschreiben und analysierend Zusammenhänge nachzuvollziehen oder integrierend erste Formsynthesen zu erzeugen. Sie umfassen Handlungswissen zur technischen Erzeugung und Umsetzung der Zeichenbewegungen im Zeichenplan. Auf diesen beiden Wissensformen bauen zeichnerische Handlungen auf, die nicht auf eine Realisierung des gezeichneten Entwurfes abzielen, bzw. nicht nachahmende Bildelemente verwenden. Da Entwerfer und Architekten aber zeich20. Vgl. Ellen Yi-Luen Do: »Functional and Formal Reasoning in Architectural Sketches«, in: Randall Davis/James Landay/Tom Stahovich (Hg.): Sketch Understanding, Menlo Park, California 2002, S. 37-44, S. 43. 21. Vgl. Martin Schuster: Die Psychologie der Kinderzeichnung, Berlin u. a. 1990, S. 71ff. 22. »Construction domain«, Ömer Akın: »A structure and function based theory for design reasoning«, in: Nigel Cross/Kees Dorst/Norbert Roozenburg (Hg.): Research in design thinking, Delft 1991, S. 37-60, S. 42, Ömer Akın spricht von Wissensbereichen, auf die Entwerfer zurückgreifen. 23. Vgl. Martin Schuster: Die Psychologie der Kinderzeichnung, Berlin u. a. 1990, S. 67ff. 24. »Representation domain«, Ömer Akın: »A structure and function based theory for design reasoning«.

347

Gert Hasenhütl

nerisch entwerfen, um Allianzen hervorzubringen und eine Veränderung der materiellen Welt zu erzielen, benötigen sie noch eine zusätzliche Wissensform, um den zeichnerischen Entwurf auf die reale Welt zu übertragen. Dieses Gegenstandswissen25 als Sachkenntnis erlaubt es, den Entwurf auf reale Bedingungen hin zu prüfen, bzw. die Bildelemente auf gegenständliche und realistische Vorlagen zu übertragen.26 Die verschiedenen Wissensformen aktivieren Entwerfer in der Weise, dass sie Symbol- und Zeichnungssysteme sowie Bildelemente durch unterschiedliche Reflexionsprozesse restrukturieren. Sie verändern damit ihre Sichtweisen auf die jeweiligen Problemstellungen, wodurch sich ihre Aufmerksamkeit auf einzelne Teile oder auf die Gesamtheit des Entwurfsproblems verlagern kann. Zum Verständnis dieser Reflexionsprozesse sind drei Faktoren zu unterscheiden, die aufeinander folgen: Entwerfer nehmen das von ihnen Gezeichnete wahr, sie reagieren auf das von ihnen Gezeichnete und sie reinterpretieren und bewerten das Gezeichnete.27 Es entsteht ein Sehen-ZeichnenSehen-Zyklus, indem die Bewegungen der Hand permanent neue Reflexionsprozesse auslösen, die helfen, das Gezeichnete in Rückgriff auf funktionell symbolisches Wissen und die Sachkenntnis zu bewerten und zu verstehen.28 Dabei wird die Zeichnung zu einem Instrument, mithilfe dessen sich Entwerfer durch Räume bewegen, funktionelle Abläufe simulieren und Situationen herstellen, die als Versuchsanordnungen fungieren. 29 Der Zeichenzyklus kann auch als Wahrnehmen-Bewegen-Wahrnehmen-Zyklus angeschrieben werden, weil Entwerfer nicht nur auf Bildinhalte, sondern auch auf Wahrnehmungen ihrer Zeichenbewegungen reagieren. Die Entwerfer verwenden Zeichnungen in der Weise, dass sie durch den Zyklus von Wahrnehmen, Bewegen und erneut Wahrnehmen in eine Interaktion mit den Inhalten der Zeichnung kommen. So können sie reflexiv auf topographische, funktionelle oder strukturelle Inhalte schauen, indem sie Zusammenhänge durch die Bewegungen der Hand realisieren. Das Ausprobieren topographischer Zusammenhänge z. B. vollzieht sich – im Rückgriff auf formales Wissen durch die bewegende Hand 25. Vgl. Martin Schuster: Die Psychologie der Kinderzeichnung, u. a. S. 65ff. 26. »Objective domain«, Ömer Akın: »A structure and function based theory for design reasoning«, S. 42. 27. Vgl. Donald A. Schon/Glenn Wiggins: »Kinds of seeing and their functions in designing«, in: Design Studies, Vol. 13, Nr. 2 (1992), S. 135-156, hier: S. 137. 28. Vgl. Donald A. Schon: »Designing as Reflective Conversation with the Materials of a Design Situation«, S. 131-147, S. 146. 29. »When he [ein Entwerfer, d. V.] represents a contour of the site by a set of concentric lines, he sees through it to the actual shapes of the slope, just as practiced readers can see through the letters on a page to words and meanings. Hence he is able to move in the drawing as though he were moving through buildings on the site, exploring the felt-paths as a user of the building would experience them.«, Donald A. Schön [sic!]: The Reflective Practitioner. How Professionals think in Action, Aldershot 2006, S. 159.

348

Zeichnerisches Wissen

und die Realisierung in der Zeichnung – anders als in der Vorstellung. Insofern ermöglicht die Zeichenhandlung verschiedene Reflexionsprozesse, die Einfluss auf die Wissensproduktion haben können und Zusammenhänge verdeutlichen, die sonst unbeachtet bleiben. Diese Reflexionsprozesse bilden die Mikrobausteine der Entwurfshandlung zur Ausweitung der drei zeichnerischen Wissensformen. Innerhalb des Sehen-Zeichnen-Sehen-Zyklus nehmen Entwerfer mit ihren Zeichnungen Bezug auf Darstellungen und Erfahrungen, die sie kennen, verinnerlicht oder selbst gemacht haben. Es finden dabei zwei einander beeinflussende Reflexionsprozesse statt, welche die Entwurfshandlung vorantreiben. Reflexionen, die mit den Bewegungen der Hand in naher Verbindung stehen, lassen sich als »Reflektieren im Handeln« bezeichnen. 30 Sie entfalten sich eher innerhalb von Zeichensequenzen, ohne verbalisiert oder zusätzlich symbolisch beschrieben zu werden. »Reflektieren im Handeln« ist ein spontaner Prozess, wobei das, worüber Entwerfer reflektieren, nicht immer bewusst wird. Bewusst werden, im Sinne einer verbalen Beschreibung, kann ein Inhalt eher in nachträglichen Reflexionen, was sich als »Reflektieren über das Handeln« bezeichnen lässt. Sie entfalten sich stärker am Ende von Zeichensequenzen, wenn Zeicheninhalte reinterpretiert und bewertet werden. Zur Veranschaulichung der Wissensformen und dem Verständnis der Reflexionen dient folgendes Beispiel einer architektonischen Entwurfszeichnung: Die Abbildung 1 zeigt links oben die ursprüngliche Entwurfszeichnung und rechts vier Bilder aus der Zeichensequenz des eingekreisten Details (Abb. 1.1, links unten). Die Zeichensequenz, in der ein Konstruktionsprozess zur Anbringung eines Abdeckbleches auf einem Mauerwerk und der Montage einer Holzleiste erprobt wird, ist rekonstruiert (Abb. 1.2-1.5). Das formale Wissen ermöglicht es einer Zeichnerin, eine orthogonale Projektion des Aufrisses der Mauer in Form eines schematischen Systems von drei Ziegeln zu zeichnen (Abb. 1.2). Die Zeichnerin kommt danach in den Zeichenzyklus, nimmt die fertige Zeichnung wahr und beginnt, die einfachen Bildelemente zu interpretieren, um gedanklich die Befestigung des Bleches zu planen. Das funktionelle und symbolische Wissen um die Bildelemente und ihre Sachkenntnis über Blech- und Ziegeleigenschaften lösen gedankliche Probehandlungen aus, die in eine neue Zeichenbewegung münden (Abb. 1.3). Mit einer einfachen Zeichengeste knickt sie das Blech, um die Fuge möglichst gut vor dem Eindringen von Wasser zu schützen. Ihr Gegenstandswissen und die Sachkenntnis erlauben es ihr, den zeichnerischen Entwurf sehr weit auf reale Bedingungen hin zu prüfen. Beim Reinterpretieren hat die Zeichnerin die physische Form des Bleches vor sich und beginnt diese Möglichkeit auf Basis ihrer Sachkenntnis 30. Vgl. Peter Baumgartner: Der Hintergrund des Wissens. Vorarbeiten zu einer Kritik der programmierbaren Vernunft, Klagenfurt 1993, S. 253f.

349

Gert Hasenhütl

zu überprüfen, wobei der erste Zeichenzyklus abgeschlossen wird. Ihr Gegenstandswissen erlaubt es ihr, die Befestigungsmöglichkeit des Bleches zu verbessern und sie zeichnet im zweiten Zeichenzyklus eine Holzleiste zwischen das Blech und die Ziegel (Abb. 1.4).

Abb. 1: Zeichensequenz. - Aus: Ömer Akın: »A structure and function based theory for design reasoning«, S. 46 und 56.

Die Zeichnerin reflektiert zunächst über die Gesamtdarstellung des Dachanbaues an das Mauerwerk (links oben) und kommt zum Schluss, dass der Übergang der Blechabdeckung anfällig für das Eindringen von Wasser in das Mauerwerk ist. Diese »Reflexionen über Handlungen« haben z. B. die Form: »Da kommt das Wasser die Wand herunter«, »schlägt gegen das Blech« und »geht in die Mauer hinein«.31 Die Zeichnerin reflektiert weiters, während sie am Detail zur Blechabdeckung zeichnet (Abb. rechts), ihre Zeichenbewegungen direkt. Diese »Reflexionen in Handlungen« haben z. B. die Form: »Dann lässt sich so das Blech anbringen« oder »Sie machen hier ein Stück Holz an.«32 Da es sich bei diesem Versuchsaufbau um eine Sprechprotokollierung handelt, artikuliert die Zeichnerin auch »Reflexionen in der Handlung«, die sonst höchstwahrscheinlich unartikuliert bleiben würden. Nachdem die Holzleiste unter dem Blech eingezeichnet ist, sieht die Zeichnerin die Überschneidung von 31. »59. The water coming down that wall […] 60. hit that […] 61. and penetrate back into the wall. […]«, eine Entwerferin, zit. nach: Peter Baumgartner: Der Hintergrund des Wissens, S. 44. 32. »67. Then you can bring flashing in like this […] 69. They´ll put a piece of wood on here […]«, eine Entwerferin, zit. nach: ebd.

350

Zeichnerisches Wissen

Blech und Latte und reflektiert diese Wahrnehmung in der Zeichenhandlung auf Basis ihrer Sachkenntnis und des funktionellen Verständnisses der Bildinhalte visuell, indem sie die Holzleiste mit einer Fase versieht. Die Zeichnerin antwortet mit der Zeichenbewegung zur Abfasung der Holzleiste (Abb. 1.5) in einer räumlichen Handlungssprache33 auf die Anordnung, die sich ihr innerhalb der Zeichnung (Abb. 1.4) bietet. Ein »Reflektieren in Handlungen« ist schwerer zu fassen und visuell nachzuvollziehen als nachträgliche Reflexionen über Zeichenbewegungen, weil es Ergebnis intuitiv experimenteller Fähigkeiten ist. Bewegungen der zeichnenden Hand und Wahrnehmungen beim Zeichnen kommen bei »Reflexionen in Handlungen« ganz nahe zusammen, so dass sie die Aufmerksamkeit und Kontemplation beim Zeichnen stärker beeinflussen und als Korrekturen durch Versuch und Irrtum oder intuitiv experimentelle Handlungen zum stegreifartigen Entstehungsprozess von schematischen Entwurfszeichnungen passen. Sie können theoretische Prozesse begünstigen, verlaufen aber grundsätzlich so spontan, dass sie schwer verbalisierbar bzw. theoretisierbar sind. »Reflexionen in Handlungen« machen das Zeichnen zum improvisierten Spiel impliziter Lernprozesse innerhalb des Sehen-Zeichnen-Sehen-Zyklus, ohne die Bildinhalte unbedingt begrifflich intellektuell wahrzunehmen. Wenn ein Zeichner z. B. etwas spontan korrigiert und Linien suchend miteinander verbindet, dann reflektiert er seine räumliche Handlungssprache direkt, ohne sich ständig der Interpretation der gezeichneten Bildinhalte zu widmen. Beim Zeichnen sind »Reflexionen in Handlungen« eine Form von Experimenten, die aus spontanen Versuchsanordnungen und Handlungen entstehen.34 Sie treten bei Problemen aus vielen ungeordneten Teilen auf, die sich nicht mit festgelegten Verfahren lösen lassen. Geübte Entwerfer reflektieren eher in der Entwurfshandlung, wobei Teile aus dem Hintergrundwissen in das Entwurfsproblem integriert werden und gleichzeitig der ganze Entwurf berücksichtigt wird. Das heißt, dass sie sich weniger von den gezeichneten Bildinhalten ablenken lassen und Zeichnungen nicht zu Analysezwecken und der Erzeugung von Mehrdeutigkeit verwenden. In ähnlicher Weise wie gute Schachspieler entwickeln Entwerfer intuitiv experimentell ein Gefühl für Zwänge und Möglichkeiten bestimmter Situationen. Es müssen nicht alle möglichen Entwurfsbewegungen bzw. Schachzüge bewusst durchgespielt werden, weil ein großer Teil bereits verinnerlicht ist. Reflexionen innerhalb von Entwurfsbewegungen sind vom Hintergrundwissen und dem verinnerlichten Wissen abhängig. Sie verlaufen innerhalb des Spannungsfeldes von intuitiven Vorannahmen und Gesamteinschätzungen von Aufgaben. Das Zusammenspiel von Teil und Ganzem veranschaulicht diesen paradoxen Zustand. Entwerfer müssen Situa33. »Spatial action language«, Donald A. Schön: The Reflective Practitioner, S. 95. 34. Vgl. ebd., S. 132f.

351

Gert Hasenhütl

tionen, die sich nicht ganz erfassen lassen, intuitiv richtig einschätzen, um sie Strich für Strich in imaginierte Ganzheiten einzufügen. Sie bewegen sich in Ganzheiten, die nur provisorisch in ihrer Vorstellung existieren, und arbeiten im zeichnerischen Entwurf an der Integration einzelner Teile, die schlussendlich die Ganzheit ausmachen werden. Beim zeichnerischen Entwerfen kommen Entwerfer in eine dialogische Situation, innerhalb derer sie auf Bildinhalte reagieren und eine Sensibilität für fokussierte Gedankeninhalte entwickeln. Innerhalb des Zusammenspiels von Teilen und Ganzheiten sind zwei Typen von Aufmerksamkeit von Interesse, die im Sehen-Zeichnen-Sehen-Zyklus die Wahrnehmung neuer Bildelemente mitbeeinflussen. Beim Zeichnen kann die Aufmerksamkeit fokal auf die Bearbeitung von Teilen oder auf die Bearbeitung von Ganzheiten gerichtet sein. 35 Dabei entwickeln Zeichner ein Hintergrundbewusstsein, das die Interpretation der jeweiligen fokussierten Bildelemente und Entwurfsbewegungen beeinflusst. Die Wahrnehmung ist eine Von-zu-Ausrichtung vom Ganzen hin zu den Teilen, wobei der Fokus auf einzelne Bildelemente gerichtet ist und Ganzheiten zerteilt werden. Beim zeichnerischen Entwerfen verläuft dieser Typ von Aufmerksamkeit von erfassten Ganzheiten hin zur Bearbeitung einzelner Teile. Funktionelle und symbolische Zusammenhänge der Teile werden in Bezug auf die Wahrnehmung des zu analysierenden Ganzen erfasst. Die Wahrnehmung ist ein Beobachten des Ganzen im Lichte der Teile, wobei der Fokus dem Ganzen gilt und Strukturen, Merkmale oder Relationen der Teile diese Wahrnehmung mit beeinflussen. Beim zeichnerischen Entwerfen verläuft dieser Typ von Aufmerksamkeit von hintergrundbewussten Teilen hin zur Bearbeitung von Ganzheiten, indem einzelne Bildelemente den Fokus auf mögliche Ganzheiten mit beeinflussen. Teile, die innerhalb der zeichnerischen Reflexion bewusst werden, sind Hinweise für antizipierte Ganzheiten und dienen als Schlüssel für die Entstehung neuen Hintergrundwissens.36 Die Zeichnerin aus dem obigen Beispiel mit dem Abdeckblech am Mauerwerk integriert die Holzleiste in die Ganzheit der erfassten Szene über eine Reflexion in der Handlung. Bei integrativen Zeichenbewegungen formen Entwerfer imaginativ Ganzheiten aus hintergrundbewussten Teilen, die in den Zeichenzyklus integriert werden. Integrative Entwurfsbewegungen sind stärker synthetisierend, weil einfache Bildelemente zu Ganzheiten zusammengefasst werden und in neuen Symbolund Zeichnungssystemen verwendet werden. Die Koppelung analysierender und integrativer Entwurfsbewegungen ist ein analytisch synthetisierender Prozess durch eine deduktive Zerlegung von Ganzheiten oder durch Ausbauen der Teile zu einem Ganzen. Sobald ein ein35. Vgl. Georg H. Neuweg: Könnerschaft und implizites Wissen, 2. Aufl. Münster 2001, S. 254ff. 36. Vgl. Peter Baumgartner: Der Hintergrund des Wissens, S. 173.

352

Zeichnerisches Wissen

facher Strich gemacht ist, beeinflussen die beiden Typen von Aufmerksamkeit die Wahrnehmung und weitere antizipierte Entwurfsbewegungen. Ein Entwerfer kann den einfachen Strich als Teil einer antizipierten Ganzheit, welche dieser trennt, eingrenzt oder einteilt, wahrnehmen oder sich den Strich als eine Summe von Einzelteilen imaginieren, die neue Teile in den Zeichenzyklus bringen können. Die Aufmerksamkeit beim zeichnerischen Entwerfen kann sich auf Teile, die analytisch eine Ganzheit bilden, oder auf Ganzheiten richten, in die einzelne Teile integriert werden. Kurze zusammenhängende integrative Entwurfsbewegungen erhöhen den Grad der Verfeinerung des Ganzen, weil es als offene Summe von Einzelteilen betrachtet und nicht vorzeitig abgeschlossen wird. Der Sinn für das Ganze ist bei ungeübten Zeichnern ein anderer als der von geübten Entwerfern. Ungeübte Personen oder Kinder tendieren dazu, schneller zeichnerische Ganzheiten zu erzeugen. Bei einer schematischen Zeichnung für eine Hängebrücke z. B. ist mit wenigen Strichen eine Ganzheit erzeugt, die Schritt für Schritt in einzelne Teile zerlegt werden kann. Schematische Systeme sind besonders gut zur Erzeugung provisorischer Ganzheiten geeignet, wohingegen ausdifferenzierte Zeichnungen diese länger offen lassen. Geübte Entwerfer oder Zeichner erzeugen Ganzheiten später innerhalb der Zeichensequenz und können ihre Aufmerksamkeit länger auf die Integration einzelner Teile richten, wobei der Sinn für das Ganze als Hintergrundwissen über einzelne Teile mitschwingt. Ein Zeichner kann nur dann aufmerksam Teile in den Zeichenzyklus integrieren, wenn ihm die mentale Repräsentation des Ganzen keine Probleme bereitet. Das Ganze wird beim Zeichnen ständig mitgewusst und als Hintergrundwissen genutzt. Der Vergleich von Zeichensequenzen zwischen ungeübten und geübten Personen verdeutlicht die unterschiedliche Erfassung von Teil und Ganzes. Der syntaktische Bildaufbau in der Entfaltung der Bildelemente von ungeübten Personen ist dem von Kindern vergleichbar.

Abb. 2: Zeichensequenz eines ungeübten Kindes. - Aus: John Willats: Making Sense of Children´s Drawings, Mahwah 2005, S. 184.

Die Abbildung 2 zeigt die Zeichensequenz eines fast 11-jährigen Kindes. Das Kind beginnt mit einem klumpigen Bildelement (links), das ein Volumen denotiert und sofort eine Ganzheit erzeugt. In Bezug auf dieses Ganze werden 353

Gert Hasenhütl

die weiteren Bildelemente (zweites bis sechstes Bild von links) analysierend angefügt. Die Merkmale der einzelnen Teile werden stark durch analysierende Zeichenbewegungen in Bezug auf das Ganze geprägt, weil es schon da ist.

Abb. 3: Zeichensequenz eines geübten Erwachsenen. - Aus: John Willats: Making Sense of Children´s Drawings, Mahwah 2005, S. 185. Die Zeichnung von John Punshon porträtiert John Willats im Jahr 1963.

Die Abbildung 3 zeigt die Zeichensequenz eines geübten Zeichners. Der Zeichner beginnt mit einem Bildelement (links), das Teil einer zu antizipierenden Ganzheit wird. Ab dem zweiten Bild von links entsteht allmählich eine funktionierende Darstellung mit Tiefenwirkung. Die Teile werden in Bezug auf die benachbarten Bildelemente und auf das antizipierte Ganze integrativ eingezeichnet. Der Zeichner kann sich auf sein Wissen, einen Kopf darstellen zu können, verlassen und richtet die Aufmerksamkeit möglichst lange auf die Integration von Teilen der Zeichnung. Zeichnerisches Wissen beruht auf Symbol- und Zeichnungssystemen und Handlungen, die durch den Sehen-Zeichnen-Sehen-Zyklus aktiviert und verändert werden können. Ein wesentlicher Vorschlag dieses Beitrages ist es, Zeichnen als einen Lernprozess zu begreifen, in dem verschiedene Zeichnungs- und Symbolsysteme zusammengefasst werden. Das passiert durch analysierende oder integrative Zeichenbewegungen und Reflexionsprozesse. Innerhalb des zeichnerischen Lernprozesses finden Übersetzungsvorgänge statt, die helfen, implizites Wissen explizit in der Zeichenhandlung zur Anwendung zu bringen. Dabei beziehen Entwerfer neu zu zeichnende Bildelemente auf andere Teile der Entwurfszeichnung und kontextualisieren damit die neu hinzukommenden Bildelemente. Im Sehen-Zeichnen-Sehen-Zyklus werden Bildelemente dadurch immer stärker gewichtet oder abgeschwächt, indem Inhalte der Zeichnung reflektiert und in neue Symbolsysteme zusammengefasst werden. Entwerfer besetzen dabei das bisher Gezeichnete mit neuen Bildelementen und übertragen diese in die weitere Zeichenhandlung. Dabei können Inhalte vorhandener Bildelemente in anderen Symbol- und Zeichnungssystemen beschrieben werden, um effektiv und schnell funktionierende Darstellungen zu erzeugen. Grundlage dieser Übertragungen ist ein 354

Zeichnerisches Wissen

Lernprozess zur Validierung gezeichneter Inhalte. Eine grundlegende Validierung beim Zeichnen ist das Neubeginnen und wiederholte Aufrollen einer Zeichensequenz. So wie Studienzeichnungen von alten Meistern Lernprozesse dokumentieren und häufig verschiedene Szenen zu einem Thema enthalten, sind Entwurfszeichnungen im Vorentwurf ebenfalls Abwandlungen und Korrekturen eines Themas aus vielen einzelnen Zeichnungen. Wenn Entwerfer graphische Inhalte zusammenfassen, gruppieren oder aufeinander beziehen, können visuelle Metasprachen entstehen, bei denen es sich um Abkürzungen bzw. um Bezugnahmen auf den eigenen Entwurf handelt. Entwerfer beschreiben die Inhalte ihrer Entwurfszeichnung insofern nicht nur metasprachlich über schriftliche und sprachliche Anmerkungen, sondern auch metabildlich,37 indem sie vorhandene Bildinhalte graphisch reflektieren. So wie Metasprachen andere Sprachen kommentieren, können Zeichnungen andere visuelle Darstellungen zum gleichen Entwurfsthema beinhalten und zum Thema machen. Das Sprechen oder subvokale Dokumentieren abgeschlossener Entwurfssequenzen in »Reflexionen über Handlungen« verläuft metasprachlich, wohingegen das Weiterzeichnen in Entwurfssequenzen »Reflexionen in Handlungen« hervorbringt, die visuelle Aussagen über vorhandene Bildinhalte enthalten können. Das zeichnerische Entwerfen im Hinblick auf die Erzeugung von metabildlichen Übergängen ist eine Kodierungs- und Dekodierungsarbeit innerhalb von Symbol- und Zeichnungssystemen, denn zeichnerisches Wissen entsteht in dialogischen Entwurfssituationen mit anderen Zeichnungen, Skizzen oder Modellen unter Verwendung von unterschiedlichen Symbol- und Zeichnungssystemen. Bereits vorhandene Zeicheninhalte werden reflektiert und auf unterschiedliche Weise weiter in die Entwurfszeichnung einbezogen. In diesem Prozess wird mit neuen Zeichnungen auf den Inhalt der vorhandenen Symbol- und Zeichnungssysteme Bezug genommen, also eine visuelle Metasprache hervorgebracht, die Reflexionen zu den Inhalten der Zeichnung begünstigen. Bei dieser Reflexion entstehen schematische und gemischte Systeme, die mit innovativen Neudeutungen verbunden sind. Die Typen von Aufmerksamkeit beim Wahrnehmen von gemischten Systemen können unterschiedliche Aussagen hervorbringen, wobei die Vonzu-Ausrichtung zwischen analysierenden und integrierenden Typen von Aufmerksamkeit pendelt. Um symbolische Zusammenfassungen und die Von-zuAusrichtung beim Wahrnehmen zu veranschaulichen, ist es notwendig, ein Bild vorzustellen, das die Betrachter möglichst lange auf eine visuelle Reflexionsebene bringt. Die folgende Abbildung zeigt verschiedene Möglichkeiten metabildlicher Bezugnahmen in einer visuellen Darstellung. Die Betrachter können dabei selbst testen, ab wann sie beim Nachvollziehen des Bildgesche37. »Metapictures«, John Willats: Art and Representation. New Principles in the Analysis of Pictures, Princeton 1997, S. 273.

355

Gert Hasenhütl

hens beginnen »Reflexionen über Handlungen« zu machen, bzw. wie lange sie den visuellen Bezugnahmen und Querverweisen über »Reflexionen in Handlungen« folgen können.

Abb. 4: Metabildliche Übergänge. - Abbildung mit freundlicher Genehmigung von Ralo Mayer, 2007; »HOW TO DO THINGS WITH WORLDS 1. Modelle und Miniaturen« © Ralo Mayer in Kooperation mit Martin Udovičić, Büchsenhausen 02.-04. 2006.

Der abgebildete Comic-Zyklus veranschaulicht das reflexive Bewusstsein im Verwenden von metasprachlichen und metabildlichen Zeichnungssystemen und Modellwelten. Die einzelnen Szenen stellen prototypische Sichtweisen auf und in Entwurfsmodellen dar und zeigen, wie unterschiedliche Symbol- und Zeichnungssysteme bzw. Modelle aufeinander Bezug nehmen können. Ausgehend vom Puppenhaus (links) gewinnen die Darstellungen gegen den Uhrzeigersinn gelesen einen immer höheren Informationsgrad metasprachlicher und metabildicher Bezugnahmen. Vater und Sohn vor der Modelleisenbahn betrachten den Ausschnitt der Erdoberfläche. Sie befinden sich stärker in einem 356

Zeichnerisches Wissen

Modell als die beiden Mädchen. An der Wand der Ausschnitt der Weltkarte: Die Buckminster-Fuller-Projektion der Erde in halbaufgefaltetem Zustand ist eine sehr getreue Projektion der Erdkugel auf eine Kartenfläche. Die geometrische Darstellung der Dymaxion-Karte kann als mentales Modell gelesen werden. Rechts davon steht eine Person vor einem Bildschirm, auf dem Rechnermodelle entstehen. Die Darstellung rechts unten zeigt Albert Speer mit Adolf Hitler vor einem Architekturmodell. Links im Bild sind Dolly-Schienen zu sehen, die darauf hinweisen, dass es sich beim Bild um ein Setting des Doku-Dramas »Speer und Er«, D 2005, handelt. Die Schienen korrespondieren mit den Schienen aus der Vater-Sohn Zeichnung. Beim Modell der Raumstation auf dem Asteroiden (einer Buckminster-Fuller-Kuppel) sieht man oben ein Tragwerk für Lichtaufhängungen, die wiederum die Streben der Korridore der Station widerspiegeln. Das nächste Bild ist eine Art Multiplex-Kino und die Betrachter sind in einem Verbindungskorridor zu verschiedenen Kinosälen unterwegs. Welchen Film hat das Paar gerade gesehen? Die Hörsaalszene zeigt den Künstler Ralo Mayer, schlafend, und den Zeichner Martin Udovičić beim Zeichnen der ersten Szene, dem Puppenhaus. Über das mittlere Bild verlaufen metasprachliche und metabildliche Übergänge, Sprünge und Querverweise. Es zeigt, wie unklar Analogien und Projektionen zu fassen sind. Auf den ersten Blick ist es eine klassische Szene aus einem B-Movie-Horrorfilm, wo ein riesiges Auge durch das Fenster hereinschaut. Das hereinhängende Mikrophon verweist darauf, dass es doch nur ein Dreh eines B-Movies ist. Vielleicht schaut aber auch eines der Kinder in das Modell. Die metabildlichen Übergänge im ausgewählten Comic-Zyklus zeigen beispielhaft, wie Reflexionen beim zeichnerischen Entwerfen verlaufen können. Sie veranschaulichen, welchen Grad Zusammenfassungen von Symbol- und Zeichnungssystemen erreichen können. Entwurfszeichnungen oder Studienzeichnungen, die verschiedene Darstellungen zu einem Thema auf einem Blatt versammeln, sind das Ergebnis intensiver Reflexionen, innerhalb derer die Zeichner Schritt für Schritt neue Information in den Zeichenzyklus aufnehmen. Die Manipulation von neuer Information beim Zeichnen ist aber noch kein Kriterium für einen Wissenserwerb, vielmehr aktiviert erst die Fähigkeit zur Verknüpfung und Verschachtelung verschiedener Zeichnungs- und Symbolsysteme in Entwurfszeichnungen spezielle Wissensprozesse. Entwerfer treten in ihrem Dialog mit den Inhalten einer Zeichnung in ein Spiel von Analogien und Kontrasten. 38 Sie reflektieren ihre Zeichenbewegungen unterschiedlich und konstruieren neue Räume auf Basis gezeichneter Inhalte. »Reflexionen über Handlungen« werden sprachlich bewusst, wobei die Zeichner aus den Entwurfssequenzen heraustreten, um Bildinhalte und Zeichenbewegung sprachlich zu interpretieren. Sie unterbrechen Entwurfsbewegungen, bei 38. Vgl. Michel Foucault: Dies ist keine Pfeife, Berlin u. a. 1983, S. 9.

357

Gert Hasenhütl

der Bildelemente in provisorische Ganzheiten integriert werden, weil Ganzheiten benannt und damit geschlossen werden. Sobald Entwerfer beginnen, Begriffe zu den gezeichneten Bildinhalten zu bilden, treten die Typen von Aufmerksamkeit zugunsten der diskursiven Verwendung der Zeichnung zurück. Es kommt dann vor, dass Entwerfer Begriffe zeichnen, die sie wie eingeübte Piktogramme verwenden. Geübte Entwerfer lassen Ganzheiten offen, um in zusammenhängenden Entwurfssequenzen integrative Entwurfsbewegungen im Zeichenzyklus durchzuführen. Integrative Entwurfsbewegungen sind von Belang, weil Entwurfszeichnungen grundsätzlich stark analysierende Eigenschaften besitzen. Im Vorentwurf dienen schematische Zeichnungen noch der Zerstreuung und der Erzeugung von Mehrdeutigkeiten, was für die Synthese im Entwurf eher ungünstige Eigenschaften sind. Analysierende Entwurfszeichnungen lösen Problemstellungen auf, ohne sich um eine Zusammenfassung vorhandener Information zu bemühen. Interessanter für den Wissensgewinn sind daher solche Zeichnungen, die kontemplative Situationen erzeugen und es ermöglichen, die Aufmerksamkeit auf Ganzheiten zu richten, wobei Teile hintergrundbewusst in den Zeichenzyklus kommen. Ein zeichnerischer Wissenserwerb entsteht dann durch die Aufrechterhaltung des Zeichenzyklus und das aufmerksame Verweilen bei zusammenhängenden Zeichenbewegungen, während Entwerfer möglichst lange visuelle Zusammenhänge zeichnerisch erfassen, validieren und reflektieren.

358

Interaktionen Zur medialen Konstitution des Entwerfens DANIEL GETHMANN

Entwurfsmedien Es ist eine alltägliche Erfahrung jeden kreativen Handelns, von eigenen Entwürfen durch die Entwicklung ihrer Eigendynamik überrascht zu werden. Die Intensität solch eines freien und ungewissen Entstehens von Erkenntnis wissenschaftstheoretisch zu fassen, stellt sich für Michel Serres allerdings als gar nicht so einfach heraus: »Tatsächlich ist nichts schwieriger, als sich eine freie und fluktuierende Zeit vorzustellen, die noch nicht vollständig determiniert ist, in der die Forscher auf ihrer Suche im Grunde noch nicht eigentlich wissen, was sie suchen, während sie es unwissentlich bereits wissen.«1 In seinem bemerkenswerten Konzept eines unwissentlichen Wissens, das sich während einer freien fluktuierenden Zeit beim Experimentieren entfaltet, beschreibt Serres die Experimentalsituation naturwissenschaftlicher Forschung und insbesondere ihre Wissensproduktion in Analogie zu heuristischen Verfahren des Entwerfens: »Wer forscht, weiß nicht, sondern tastet sich vorwärts, bastelt, zögert, hält seine Entscheidungen in der Schwebe. [...] Tatsächlich gelangt der Forscher auf beinahe wundersame Weise zu einem Ergebnis, das er nicht deutlich voraussah, auch wenn er es tastend suchte.«2 Aus der taktilen Ebene im Umgang mit der Erscheinung von unwissentlichem Wissen hat das Entwerfen im Unterschied zur naturwissenschaftlichen Forschung und ihrer Kultur des Experiments eine eigenständige Methode bei der Erzeugung seiner gestalterischen Zukunftsprojekte entwickelt, in der eine Auseinandersetzung mit den Medien der Dinge und ein Denken am Modell eigene Erkenntnisweisen ausgeprägt haben. Deren Basis und zugleich besondere Errungenschaft, die freie und fluktuierende Zeit in alltägliche Entwurfsprozesse zu integrieren, bringt eine entwerferische Wissensordnung hervor, die sich sprachlich nur unzureichend repräsentieren lässt, wie der Designtheoretiker Bruce Archer im Jahre 1979 festgestellt hat: »the way designers (and everybody else, for that matter) form images in their mind’s 1. 2.

Michel Serres: Elemente einer Geschichte der Wissenschaften. Frankfurt/Main 1994, S. 17. Ebd., S. 35.

359

Daniel Gethmann

eye, manipulating and evaluating ideas before, during, and after externalizing them, constitutes a cognitive system comparable with, but different from, the verbal language system. Indeed, we believe that human beings have an innate capacity for cognitive modelling, and its expression through sketching, drawing, construction, acting out, and so on, that is fundamental to thought and reasoning as is the human capacity for language. Thus design activity is not only a distinctive process, comparable with but different from scientific and scholarly processes, but also operates through a medium, called modelling, that is comparable with but different from language and notation.«3 Während das Modell ein Entwurfshandeln operationalisiert, dessen Ausdruck sich seiner kulturtechnischen Bedingung verdankt, bringt es in der Metapher des ›cognitive modelling‹ auch ein treffendes Konzept für die eigenständige entwerferische Vorstellungskraft zur Sprache. In dem Maße, wie das Modell nun die Konfiguration gedanklicher Prozesse des Entwerfens neu zu denken gibt, wird auch deutlich, dass seine Medialität einen spezifischen »designerly way of thinking and communicating«4 erzeugt: Modelle, Zeichnungen und andere Darstellungstechniken begründen auf diese Weise eine entwerferische Wissensordnung, die durch die Medialität und Organisation ihrer kommunikativen Abläufe die Eigenständigkeit ihrer Wissensproduktion sicherstellt. In diesem Sinne gewinnt das Entwerfen seine Erkenntnisse durch mediale Kommunikationsprozesse (›sketching, drawing, construction, acting out, and so on‹), ‹), ), die während einer freien fl fluktuierenden uktuierenden Zeit des unwissentlichen Wissens zu stabilen Konstruktionen durch eine flexible Koordination unterschiedlicher handwerklicher oder industrieller, analoger oder digitaler Techniken und Modelle führen. Eine besondere Bedeutung kommt im Entwurfsprozess der Frage zu, auf welche Weise dabei Entwurfskonzepte mit technischen und symbolischen Darstellungsverfahren interagieren und wie deren Repräsentationen die soziale Ebene des Teamworks ermöglichen und strukturieren. Wenn beim Entwerfen nämlich alle drei genannten Ebenen in notwendig undeterminierten Wechselwirkungen und freier Gewichtung ihren Beitrag zur Fertigstellung von Entwürfen beitragen, und sich ein dynamischer Prozesscharakter jeder Entstehungsstufe des Entwurfs insofern den Mitteln zu seiner Bearbeitung und Darstellung verdankt, sind bestimmte Kulturtechniken von besonderer Bedeutung. Denn sie organisieren, was im Entwerfen geschieht und keineswegs nur Abläufe dessen, wie es geschieht. Diese Kulturtechniken betreffen nicht nur ausdrücklich technische Fragen, sondern umfassen auch soziale Praktiken und Handlungen, die das Entwerfen immer wieder neu konfigu3. L. Bruce Archer: »Whatever Became of Design Methodology?« in: Design Studies 1,1 (1979), S. 17-18, hier zit. n. Nigel Cross (Hg.): Developments in Design Methodology, Chichester 1984, S. 347-349, hier S. 349. 4. Ebd., S. 348.

360

Interaktionen

rieren und so die Funktion und den eigentlichen Stellenwert der jeweiligen Darstellungstechnik erst konstituieren.5 Nach dieser Auffassung einer sozialen Konstruktion des Entwerfens in Entwurfsprozessen bilden die Interaktionen von Menschen mit technischen und symbolischen Darstellungsverfahren in Hinsicht auf eine noch zu schreibende, allgemeine Geschichte des Entwerfens auch die historische Bedingung des architektonischen Entwurfs, indem sie ihn in seiner modernen Form überhaupt erst hervorbringen: Auf der Basis der Kulturtechnik der Perspektive im Medium der Zeichnung differenziert am Beginn der Neuzeit Leon Battista Alberti die res aedificatoria in zeichnerisches Entwerfen und Konstruieren: die ganze Baukunst setze sich »aus den Rissen und der Ausführung zusammen. Bedeutung und Zweck der Risse ist, den richtigen und klaren Weg zu zeigen, die Linien und Winkel aneinanderzupassen und zu verbinden, in welchen die Erscheinung des Bauwerkes inbegriffen und eingeschlossen ist.«6 Die richtige Anordnung der Linien und Winkel stellt sich nicht nur als ein konstruktives Problem allein, sondern ist gleichzeitig bereits ein ästhetisches, während sich die Entwurfszeichnung in einer Synthese mit ihrer Ausführung zu denken gibt. Ihre Autonomie nimmt also in dem Maße zu, wie sie für die Konstruktion unentbehrlich wird. Denn die Verhandlung der Dinge in ihrer Entstehung findet nunmehr angesichts der Zeichnung und anderer Darstellungstechniken statt, die ebenfalls die sozialen Prozesse bei der Entstehung kultureller Artefakte neu konfigurieren, und damit den spezifischen ›designerly way of thinking and communicating‹ ermöglichen. Bezogen auf das technische und praktische Wissen der Renaissancearchitektur und Ingenieurkunst hält Francesco di Giorgio Martini in der Nachfolge von Alberti bereits um 1490 die »arte del disegno a qualunque operativa scienzia«7 für schlechterdings unverzichtbar. In der Präambel seines einschlägigen Architekturtraktats bestimmt er die Funktion der Zeichnung als »utile e necessaria in ogni opera umana, sì nella invenzione, sì in possere esplicare li concetti, sì nell’operare, sì nell’arte militare«.8 Dem Konstruktiven insofern die Zeichnung als ein nützliches und notwendiges Mittel der invenzione zur 5. Zum medienhistorischen Ansatz, nach dem die Verwendung der Medien ihren Aufbau und ihre Funktion re-konfiguriert und sie in einer zweiten Experimentalsituation nach ihrem technischen Erscheinen auch sozial konstruiert, vgl. Daniel Gethmann: Die Übertragung der Stimme. Vor- und Frühgeschichte des Sprechens im Radio, Zürich, Berlin 2006. 6. Leon Battista Alberti: Zehn Bücher über die Baukunst [De re aedificatoria, 1452]. Übers. von Max Theuer, Wien 1912, Reprint: Darmstadt 1975, S. 19. 7. »Scrivere Eupompo di Macedonia, egregio matematico, nissuna arte perfettamente nelli omini essere senza aritmetica e geometria. Similmente non solo da lui ma da molti altri eccelenti non meno necessaria era stimata l’arte del disegno a qualunque operativa scienzia che le prenominate.« Francesco di Giorgio Martini: Trattati di architettura, ingegneria e arte militare [1490], historisch-kritische Ausgabe, hg. von Corrado Maltese, Mailand 1967, Bd. 2, S. 293. 8. Francesco di Giorgio Martini: Trattati di architettura, S. 294.

361

Daniel Gethmann

Seite zu stellen, betont beim Entwerfen dessen medientechnische Voraussetzungen, um etwas ins Werk zu setzen. Darüber hinaus bestimmt Martini das Medium der Zeichnung in umfassender Weise als ›notwendiges Mittel zur Erfindung, zur Erklärung von Konzepten, zum Bauen und zur Kriegskunst.‹ Wo das Entwerfen also an diesem entscheidenden Punkt von der Zeichnung neu operationalisiert wird, stellt sie neben der Darstellung seiner Ergebnisse auch eine Erläuterung der entwerferischen Konzepte zur Verfügung und übernimmt beim Konstruieren ebenfalls eine zentrale Rolle. Die Konsequenz ist, dass sich die überkommene architektonische Reproduktion einer universalen Ordnung künftig in der Zeichnung mit einer medienbasierten Variabilität dieser Ordnung auseinanderzusetzen hat. In diesem Sinne setzt zunächst die Linearperspektive die Architektur in Stand, eine objektive Wiedergabe von Raum auf zweidimensionalen Flächen zu entwerfen; sie etabliert eine Betrachterposition und von ihr ausgehend eine dauerhafte visuelle Welt. Medien der Darstellung ermöglichen zudem über ihre Repräsentationen, nachdem diese bereits eine gewisse Autonomie des Entwerfens vom Konstruieren erzeugt haben, in einem folgenden Schritt auch »den Konstruktionsprozess zu unterteilen«;9 sie gestatten zunächst im Schiffsund Festungsbau den Entwurf von Dingen, deren Konstruktionsprozess die einzelnen Beteiligten nicht mehr überschauen.10 Was in der Renaissance mit der Aufwertung der Zeichnung als vielseitigem Mittel der Erfindung, der Erklärung von Konzepten und des Bauens einhergeht, gibt sich als Beginn des Entwerfens im modernen Sinne zu erkennen: Dabei wird »das trial-and-error-Prinzip vom Konstruieren getrennt, indem eine maßstäbliche Zeichnung anstelle des Produkts als das Medium für Experimente und Veränderung eingesetzt wird.«11 Sobald ›Experimente und Veränderung‹ von Dingen auf der Ebene der visuellen Repräsentation mittels graphischer Elemente stattfinden, bringen die entstehenden Risse ein neues Medium der Dinge im Entwurf hervor, das sich in Papierform materialisiert und so in einem entscheidenden Schritt den konkreten Ort einräumt, an dem fortan Projekte objektiviert werden. Damit entkoppelt sich das entwerferische Verfahren zur Objektivierung von Projekten endgültig vom Konstruieren, 9. John Christopher Jones: Design Methods. Seeds of Human Futures, London 1970, S. 20. 10. Ein bekanntes Beispiel für die geistige und entwerferische Leistung in der Renaissance ist die von Giorgio Vasari erzählte Geschichte der Modelle zum Kuppelbau des Florentiner Doms Santa Maria del Fiore von Filippo Brunelleschi, deren Geheimhaltung seinen Entwurf schützen sollte: »The story illustrates the way in which models served as manifestations of the inventiveness and knowledge of the architect«. (Mary Henninger-Voss: »Measures of Success: Military Engineering and the Architectonic Understanding of Design«, in: Wolfgang Lefèvre: Picturing Machines 1400-1700, Cambridge, Mass. 2004, S. 143-169, hier S. 150); vgl. auch: Howard Saalman: Filippo Brunelleschi: The Cupola of Santa Maria del Fiore, London 1980. 11. John Christopher Jones: Design Methods, S. 20.

362

Interaktionen

vielmehr hängt es nach Henri Lefebvre seinerseits wiederum von Techniken und Medien ab, deren Tragweite zwischen ihrer Materialität und ihrer Medialität den spezifischen architektonischen Raum der Neuzeit überhaupt erst erzeugt: »Au sein de la practique spatiale, dans la société moderne, l’architecte s’installe dans son espace. Il a une représentation de cet espace, attachée au graphisme: feuille blanche, plans, élévations, coupes, mise en perspective de la façade, modules, etc. Cet espace conçu, ceux qui s’en servent le present vrai, bien que ou parce que géométrique: milieu des objets, objet lui-même et lieu de l’objectivation des projets.«12 Die Architektur erschließt sich in diesem Sinne über ihre Konstruktionen hinaus im Entwerfen einen Medien-Raum, in dem sie sich zu einer eigenen Darstellungsweise der Zukunft entfaltet. Wenn Bildtechniken dabei als Medien für entwerferische Experimente fungieren und gleichzeitig die Objektivierung von Projekten leisten, besitzen deren Darstellungen ausgezeichnete kommunikative Funktionen. Während des Entwurfsprozesses bestehen diese allerdings weniger darin, mentale Vorstellungen oder visuelle Abbilder bloß zu transportieren. Vielmehr handeln die Risse, Visualisierungen, Modelle und Pläne selbst, indem sie als ein Medium zur Verfertigung physikalischer Objekte fungieren, das selbst ein fassbarer Gegenstand ist, der in seiner Materialität die Entwurfskonzepte zu konkretisieren hilft und sie gleichzeitig objektiviert. Wo Medien der Darstellung als ›Ort der Objektivierung von Projekten‹ in diesem Sinne praktisches architektonisches Handlungswissen sowohl operationalisieren wie neu konfigurieren, gewinnt Michel Foucaults Vorschlag neue Aktualität, die Architektur im Rahmen »der von den Griechen so genannten technê, also einer von bewussten Zielen geleiteten praktischen Rationalität« genauer zu bestimmen: »Ich glaube, wenn man die Geschichte der Architektur im Rahmen einer allgemeineren Geschichte der technê im weitesten Sinne behandelte, hätte man ein interessanteres Leitkonzept als den Gegensatz zwischen exakten und nicht exakten Wissenschaften.«13 In diesem Kontext stellen sich insbesondere die weiter führenden Fragen, wie das architektonische Handlungswissen zum Tragen kommt, wie es vermittelt und angewendet wird, keineswegs mehr auf der Basis des überkommenen Gegensatzes von exakten und nicht exakten Wissenschaften. Vielmehr verweisen sie auf Prozesse, in denen sich dieses Wissen in Medien der Darstellung, zuförderst in technische Zeichnungen, einschreibt, die selbst wiederum Zwecken der Kognition folgen und darüber hinaus aktiv Konstruktionsweisen festlegen, wie sie auch umgekehrt deren soziale Realitäten wiedergeben.14 12. Henri Lefebvre: La production de l’espace, Paris 1974, 4. Aufl. 2000, S. 417. 13. Michel Foucault: »Raum, Wissen und Macht« (Gespräch mit Paul Rabinow, 1982). In: Ders.: Schriften, Bd. 4, Frankfurt/Main 2003, S. 324-341, hier S. 341. 14. Vgl. Steven Lubar: »Representation and Power«, in: Technology and Culture, Bd. 36 (1995), Suppl., S. 54-82.

363

Daniel Gethmann

Daraus ergeben sich zwischen Entwurf und Konstruktion unterschiedliche Entwicklungslinien der Zeichnung, deren Medialität den »change from craftmanship to draughtmanship«15 vermittelt: »The use of drawing for design and production control appeared first in architecture and shipbuilding. In these areas, scale and complexity emerged as problems long before engineering based on metalworking became the major area for technological innovations.«16 Innerhalb der Geschichte der technischen Zeichnung lässt sich insofern eine »architektonische Tradition«17 ausmachen, die zum ersten Mal Maßangaben und verschiedene Perspektiven in größeren architektonischen Projekten zum Prozess des Designs hinzufügt. Dabei löst sich durch Arbeitspläne und mathematisches, formales Entwerfen allmählich das Denken vom Machen ab.18 Es finden sich erste Papiermaschinen, die das Denken auf Papier begründen. Die Entwurfsdarstellung erhält eine zunehmende Autonomie, an ihr allein schreitet der Entwurfsprozess fort, indem Gedankenexperimente zeichnerisch durchgeführt und deren Veränderungen eingearbeitet werden. »The effect of concentrating the geometric aspects of manufacture in a drawing is to give the designer a much greater ›perceptual span‹ than the craftsman had. The designer can see and manipulate the design as a whole and is not prevented, either by partial knowledge or by high cost of altering the product itself, from making fairly drastic changes in design.«19

Die mediale Konstitution Sobald die Autonomie des Entwerfens durch seine mediale Darstellungsweise etabliert ist, gewinnen die Entwurfsprozesse an Relevanz, denn es wird erkennbar, dass deren Abläufe den innovativen Wert von Entwürfen durch Interaktionen von Konzepten mit technisch-symbolischen Darstellungsverfahren und sozialen Prozessen organisieren und womöglich steigern. Aus dieser Perspektive sind es nicht mehr ausschließlich die Ergebnisse eines Entwurfs, die ihn am besten beschreiben und den Prozess des Entwerfens damit ihrer grundsätzlich retrospektiven Perspektive unterstellen. Vielmehr löst sich der Entwurfsprozess aus seiner funktionalen und zielursächlichen Umklammerung durch das Ergebnis, indem die Interaktionen zwischen den Entwer15. John Christopher Jones: Design Methods, S. 22. 16. Ken Baynes/Francis Pugh: The Art of the Engineer, Guildford 1981, S. 11f. 17. David McGee: »From Craftmanship to Draftmanship. Naval Architecture and the Three Traditions of Early Modern Design«, in: Technology and Culture, Bd. 40 (1999), S. 209-236, hier S. 222. 18. Vgl. Antoine Picon: French Architects and Engineers in the Age of Enlightment, Cambridge [u.a.] 1992; Pfammatter, Ulrich: Die Erfindung des modernen Architekten. Ursprung und Entwicklung seiner wissenschaftlich-industriellen Ausbildung, Basel, Boston, Berlin 1997. 19. John Christopher Jones: Design Methods, S. 22.

364

Interaktionen

fern, ihren Techniken und den Darstellungen auch in der Analyse Berücksichtigung finden. Der innovative Wert von Entwurfsergebnissen gibt sich sodann als das Resultat undeterminierter Wechselwirkungen zwischen den heterogenen Ebenen der Konzepte, Darstellungsmedien und sozialen Interaktionen zu denken. Diese Perspektive impliziert eine dynamische Konstruktion des Entwerfens selbst, mit der konsequenterweise eine Abkehr vom traditionellen Konzept der Autorschaft verbunden ist: Techniken, Verfahren, Modelle und Praktiken erhalten den Status von Akteuren in einem Entwurfsnetzwerk, in dem sich ihre jeweilige Verwendung und Funktion konstituiert. In diesem Sinne stabilisiert sich der Entwurfsprozess mittels undeterminierter Wechselwirkungen und Funktionszuschreibungen zwischen heterogenen Elementen: ihn charakterisiert vor allem sein Vermögen, sich selbst ständig neu zu konstruieren. »Argument in design thinking moves toward the concrete interplay and interconnection of signs, things, actions, and thoughts. Every designer’s sketch, blueprint, flow chart, graph, three-dimensional model, or other product proposal is an example of such argumentation.«20 Wenn das Entwerfen sich in diesem Sinne als darstellendes Argumentieren artikuliert, so wird seine Art zu denken und zu kommunizieren zentral von dem kulturtechnischen Vermögen geprägt, Formen nicht-mimetischer Darstellungen anzufertigen. Aus ihren Variationen und Innovationen bezieht das Entwerfen seine besondere Qualität, sich auch selbst neu entwerfen zu können. Von einer solchen Autonomie der Darstellungen jenseits mimetischer Verfahren der Repräsentation auszugehen, ermöglicht überhaupt erst einen Akteursbegriff von Bildtechniken, dessen handlungsorientierte Auffassung von den Interaktionen beim Verfertigen physischer Objekte auch geeignet ist, den Schleier der creatio ex nihilo zu lüften. Sobald nämlich eine Entwurfsdarstellung nicht länger als eine bloße Umsetzung mentaler Vorstellungen aufgefasst wird, können zwei Dinge deutlich werden: Zum einen entsteht ein Entwurf »[j]edenfalls nicht aus nichts, sondern aus anderen Welten. Das uns bekannte Welterzeugen geht stets von bereits vorhandenen Welten aus; das Erschaffen ist ein Umschaffen.«21 Zum zweiten findet sich, um mit Bruno Latour zu sprechen, das Entwerfen eingebettet in ein Akteursnetzwerk aus Menschen, Medien, Dingen und Diskursen: »Even if some architects see themselves as God, none would be foolish enough to believe they create ex nihilo [...]. No God is less a Creator than an architect, even the most innovative and daring one. To ›become sensitive to the many constraints that lead to a rather autonomous scheme that begins to take over some sort of life of its own‹ is precisely what they will try to emphasize. But 20. Richard Buchanan: »Wicked Problems in Design Thinking«, in: Victor Margolin/Richard Buchanan: The Idea of Design. A Design Issues Reader, Cambridge, Mass. 1996, S. 3-20, hier S. 19. 21. Nelson Goodman: Weisen der Welterzeugung, Frankfurt/Main 1984, S. 19.

365

Daniel Gethmann

then, if we become attentive to humbler ways of speaking, this agency shifts from the all-powerful master to the many ›things,‹ ›agents,‹ ›actants‹ with which they have to share the action.«22 Dass Konzepte der Künstlerschaft und ihres Geniediskurses insofern von Analysen der kulturtechnischen Bedingungen für Interaktion und Kommunikation beim Entwerfen abgelöst werden, setzt eine veränderte wissenschaftliche Perspektivierung von Entwurfsprozessen voraus. Eine initialisierende Anregung dazu lieferte Herbert A. Simon, der für seine Forschungen zu Entscheidungsprozessen im Jahre 1978 mit dem Nobelpreis für Wirtschaftswissenschaften ausgezeichnet wurde, bereits im Frühjahr des Jahres 1968 in einer Vorlesungsreihe am Massachusetts Institute of Technology in Cambridge, Mass., wo er seine Forderung nach einer eigenen »Wissenschaft vom Entwerfen«23 an Universitäten erhob. Simon konzipierte die neue Disziplin als eine »doctrine about the design process«, 24 denn »im Mittelpunkt steht der Vorgang des Entwerfens selbst«25 und keineswegs eine Standardisierung seiner Ergebnisse. Vielmehr ging es ihm um einen »Korpus intellektuell gesicherten, analytischen, zum Teil formalisierbaren, zum Teil empirischen, lehrbaren Wissens vom Entwurfsprozess«.26 Dabei stellte Simon einerseits in den Vordergrund, im Sinne des kybernetischen Ansatzes ein Entwurfsprobleme lösendes Instrument zu entwickeln, andererseits zielte sein Anspruch jedoch über diese utilitaristische Ebene weit hinaus: Denn angesichts der Tatsache, dass »das Entwerfen der Kern jeder beruflichen Ausbildung«27 sein sollte, da deren Wissen über die Gestaltung jedweder Zukunftsprojekte entscheidet, ging es ihm zunächst um ein »gemeinsames Verständnis unserer Beziehungen zu den inneren und äußeren Umgebungen, die den Raum definieren, in dem wir leben«.28 Diese bilden die Voraussetzung dafür, Abläufe zu ersinnen, »um bestehende Situationen in erwünschte zu verwandeln«,29 wie Simons berühmte Definition des Entwerfens daraufhin lautet. Wenn sich das Entwerfen damit »für das Erfinden von Artefakten, die Ziele erreichen sollen«,30 interessiert, kommt dem Modell oder der Zeichnung ein

22. Bruno Latour: »The Promises of Constructivism«, in: Don Ihde: Chasing Technoscience: Matrix for Materiality, Bloomington 2003, S. 27-46, hier S. 31. 23. Herbert A. Simon: Die Wissenschaften vom Künstlichen. Übersetzt von Oswald Wiener, Wien/New York 1994, 2. Aufl., Kapitel 5: »Die Wissenschaft vom Entwerfen«, S. 95-119. 24. Herbert A. Simon: The Sciences of the Artificial, Cambridge, Mass. 1969, S. 58. 25. Herbert A. Simon: Die Wissenschaften vom Künstlichen, S. 97. 26. Ebd. 27. Ebd., S. 95. 28. Ebd., S. 117. 29. Ebd., S. 95. 30. Ebd., S. 98.

366

Interaktionen

hoher Stellenwert zu: »ein Problem zu lösen bedeutet einfach, es so darzustellen, dass die Lösung transparent wird.«31 In diesem Sinne fungiert das Medium der Darstellung – der ›locus of the objectification of plans‹ – im Entwurfsprozess selbst als ein Artefakt, das »als Punkt der Begegnung – in der heutigen Terminologie: als ›Schnittstelle‹ – zwischen einer ›inneren‹ Umgebung, der Substanz und inneren Gliederung des Artefakts selbst, und einer ›äußeren‹ Umgebung, der Umwelt in der es operiert, gedacht werden«32 kann. Aus der Autonomie des Artefakts entsteht »eine Wissenschaft vom Künstlichen, die sich auf die relative Einfachheit der Schnittstelle als Ansatz für Abstraktion und Verallgemeinerung stützte.«33 Wegen dieser Eigenschaft der Artefakte hat die Entwurfswissenschaft nach Simon auch methodisch zu berücksichtigen, dass der Entwurfsprozess selbst neue entwerferische Ziele generieren kann: »Mit der Vorstellung, dass aus dem Herstellen und Durchführen von Entwürfen neue Ziele entstehen können, ist der Gedanke eng verbunden, dass die Entwurftätigkeit selbst ein Ziel der Planung sein könnte«,34 da das Entwerfen als Simulation und diese wiederum als Erkenntnistechnik entworfen wird: »Man kann sich dennoch eine Zukunft vorstellen, in der unser Hauptinteresse an der Wissenschaft und am Entwerfen in den Erfahrungen liegen wird, die sie uns über die Welt vermitteln, und nicht in den Dingen, die sie uns erlauben der Welt anzutun. Entwerfen ist wie die Wissenschaft ein Instrument ebenso des Verstehens wie des Handelns.«35 In diesem Sinne kommt es darauf an, das Entwerfen jeweils dort als eine erkenntnisleitende Tätigkeit zu bestimmen, wo es nicht durch eine Festlegung seiner Ziele determiniert ist, sondern vielmehr einen offenen Entwurfsprozess gestaltet, dessen bewusste Wahrnehmung die Ausgangsannahmen so stark verändert, dass im Lichte der neuen Erkenntnisse auch neue Ziele erscheinen: »Ein paradoxer aber vielleicht realistischer Standpunkt sieht die Funktion von Entwurfzielen in der Motivation von Tätigkeiten, die selbst wieder neue Ziele hervorbringen.«36 Denn weder ein entwerferisches Projekt noch sein Erkenntnisrahmen scheint in der Euphorie der kybernetischen Revolution des 20. Jahrhunderts von Natur aus gegeben zu sein, sondern wird vielmehr zu einem integralen Bestandteil jeder entwerferischen Planungsarbeit Bis zu dieser Erkenntnis ist es allerdings ein weiter Weg: Hatte sich aus der funktionalistischen Kehre der Architekturlehre am Anfang des 20. Jahrhunderts zunächst die logische Konsequenz ergeben, auch den Entwurfs31. 32. 33. 34. 35. 36.

Ebd., S. 114. Ebd., S. 6. Ebd., S. 8. Ebd., S. 140f. Ebd., S. 141. Ebd., S. 139.

367

Daniel Gethmann

prozess selbst lenken zu wollen, 37 so nahm das vom Computer unterstützte Entwerfen die Entwurfsprozesse unter dem Aspekt ihrer Simulierbarkeit neu in den Blick. Zu diesem Zweck unterschied man »systematische und intuitive Methoden in Ingenieurswissenschaft, Industriedesign, Architektur und Kommunikation,«38 um eine Entwurfssystematik zu konzipieren, die sich an den Problemlösungsstrategien der Kriegswirtschaft des Zweiten Weltkriegs und deren zentraler Neuerung, der Entwicklung von Verfahren des operations research-Programms, orientierte.39 Eine klare Beschreibung der Entwurfsvorgänge und Voraussetzungen bildete die Grundbedingung ihrer digitalen Prozessierung, hierzu setzte sich seinerzeit die Auffassung von ›schwach strukturierten Problemen‹ beim Entwerfen durch, die Walter Reitman im Jahre 1964 zur Beschreibung von heuristischen Entscheidungsstrukturen geprägt hatte.40 Diese ill-structured problems im Rechner prozessierbar zu machen, schlug Allen Newell im Jahre 1969 vor,41 nachdem er seit Anfang der 60er Jahre gemeinsam mit Herbert A. Simon der euphorischen Phase der Kybernetik durch die Programmierung eines General-Problem-Solver (GPS) Programms einen spezifischen Ausdruck verliehen hatte.42 Solche Konzepte suggerierten die Möglichkeit, auch die Architektur mit einem kybernetischen Kern zu versehen; allerdings vermerkte Bill Hillier schon Anfang der 70er Jahre, dass diese Auffassung aufgrund einer Anwendungslücke zwischen operations research und systematic design als gescheitert betrachtet werden müsse. Während Hillier daraufhin die Idee verfolgte, die Erzeugung von Wissen stärker zu berücksichtigen und insbesondere von der Kognitionsforschung zu lernen, um die Erfahrungsschemata des Subjekts positivistisch auf architektonische Formen beziehen zu können,43 zog der in Ulm und Berkeley lehrende Designtheoretiker Horst Rittel bereits im Jahre 1967 die begriffliche Konsequenz, dass die 37. Vgl. Bruno Reichlin: »Den Entwurfsprozess steuern – eine fixe Idee der Moderne«, in: Daidalos, Nr. 71 (1999), S. 6-21. 38. Vgl. John Christopher Jones/Denis G. Thornley (Hg.): Papers presented at the Conference on Systematic and Intuitive Methods in Engineering, Industrial Design, Architecture and Communications, London, Sept. 1962, Oxford 1963. 39. Vgl. auch die »Morphologie des Designs« konstruiert aus verschiedenen »Designelementen« in: Morris Asimow: Introduction to Design. Englewood Cliffs, New Jersey 1962. 40. Vgl. Walter R. Reitman: »Heuristic Decision Procedures, Open Constraints, and the Structure of Ill-Defined Problems«, in: Maynard W. Shelley / Glenn L. Bryan (Hg.): Human Judgements and Optimality, New York 1964, S. 282-315. 41. Vgl. Allen Newell: »Heuristic Programming: Ill Structured Problems«, in: Aronofsky, Julius S.: Progress in Operations Research. Bd. 3: Relationships between Operations Research and the Computer, New York 1969, S. 360-414 42. Vgl. Allen Newell/Herbert A. Simon: Human Problem Solving. Englewood Cliffs, New Jersey 1972. 43. Vgl. Bill Hillier/John Musgrove/Pat O’Sullivan: »Knowledge and Design«, in: William J. Mitchell (Hg.): Environmental Design: Research and Practice, Los Angeles 1972, Wiederabdruck in: Nigel Cross: Developments in Design-Methodology, S. 245-264.

368

Interaktionen

Entwurfsvorgänge und Planungsvoraussetzungen angesichts ihrer Resistenz gegen die Methoden des operations research offensichtlich falsch wahrgenommen wurden. Schwach strukturierte bezeichnete er fortan vielmehr als »bösartige Probleme.«44 Deren Bösartigkeit war weniger als moralische Kategorie gemeint, sondern entsteht vielmehr bei der Wahrnehmung des Problems im Auge des Entwerfers, solange dessen methodische Ansätze einer linearen Prozessierung der Annahme folgen, das Entwerfen in eine analytische und eine synthetische Sequenz unterteilen zu können. Die Funktion dieser linearen Erfassung und Lösung von Entwurfsproblemen besteht bekanntlich darin, sie als idealisierte Handlungsanweisung prozessierbar zu machen (Abb. 1), die das Entwurfsproblem besänftigt und damit den eigentlichen Entwurfsvorgang verharmlost, indem sie seine Berechenbarkeit suggeriert.

Abb. 1: Morphology of Design. - Aus: Morris Asimow: Introduction to Design. Englewood Cliffs, New Jersey 1962.

Statt das Entwerfen zu operationalisieren, betonte Rittel vielmehr seinen nicht-simulierbaren Kern: »Die Formulierung eines bösartigen Problems ist 44. Vgl. C. West Churchman: »Wicked Problems«, in: Management Science, Bd. 14, Nr. 4 (Dezember 1967), S. B-141f.

369

Daniel Gethmann

das Problem! Der Prozess der Problemformulierung und der, sich eine Lösung auszudenken, sind identisch, da jede Spezifizierung des Problems auch eine Spezifizierung der Richtung ist, in der man sich eine Behandlung des Problems vorstellt.«45 Mit dieser These rückt die Analyse der spezifischen und nicht determinierten Interaktionsformen des Entwurfsprozesses endgültig in den Vordergrund, die »auf einem Modell von Planung als einem argumentativen Prozess beruhen, in dessen Verlauf allmählich bei den Beteiligten eine Vorstellung vom Problem und der Lösung entsteht, und zwar als Produkt ununterbrochenen Urteilens, das wiederum kritischer Argumentation unterworfen wird.«46 Aus diesem Grund »besteht ein notorischer Mangel an ›ausreichender Begründung‹, die bestimmen würde, eine bestimmte Handlungsmöglichkeit und keine andere zu wählen. Es ist nicht leicht, mit epistemischer Freiheit zu leben, daher sind viele Planer und Entwerfer dankbar für das, was die Deutschen ›Sachzwang‹ nennen.«47 Unter Berücksichtigung nicht determinierter Interaktionen beim Entwerfen, die keiner linearen Simulierbarkeit zu unterwerfen sind, bestimmt Rittel insofern die Art der entwerferischen Zukunftsgestaltung als eine Handlungsform, die auf prinzipieller Freiheit der Interaktionen basiert, und kommt zu dem Schluss, dass aus diesem Grunde eine Wissenschaft vom Planen und Entwerfen breiter angelegt sein müsse: nicht um den Prozess zu standardisieren, sondern um ihn zu hinterfragen und zu analysieren. Insofern geraten mit der zentralen Frage nach der ›epistemischen Freiheit beim Entwerfen‹ in jüngerer Zeit auch die konzeptionellen, medialen und sozialen Prozesse des Entwerfens als dessen integrative Bestandteile in den Blickwinkel der Forschung, so dass der Anfertigungsprozess mitsamt den verwendeten Zeichentechniken ebenso bedeutsam und aussagekräftig für die Entwurfsforschung wird wie die entstandenen Entwurfsdarstellungen selbst. Wo sich ein Entwurfsprozess nicht länger ausschließlich vom entstandenen Ergebnis her legitimieren und damit herunterspielen lässt, gewinnen die im Prozess seiner Erstellung verwendeten Praktiken an Relevanz. Gestützt auf teilnehmende Beobachtung haben Louis Bucciarelli und Albena Yaneva in ihren Studien bereits darauf hingewiesen, dass zwischen dem eigentlichen Entwurfsprozess und dem idealistischen Bild instrumentalisierter Entwurfsvorgänge große Diskrepanzen bestehen.48 45. Horst W. J. Rittel/Melvin M. Webber: »Dilemmas einer allgemeinen Theorie der Planung« [1969], in: Horst W. J. Rittel: Planen – Entwerfen – Design. Ausgewählte Schriften zu Theorie und Methodik, hg. von Wolf D. Reuter, Stuttgart 1992, S. 13-35, hier S. 23. 46. Ebd. 47. Horst W. J. Rittel: »Die Denkweise von Planern und Entwerfern« [1988], in: Horst W. J. Rittel: Planen – Entwerfen – Design, S. 135-147, hier S. 142. 48. »In process, the design is not contained in the totality of formal documentation, nor is it in the possession of any one individual to describe or completely define, although every

370

Interaktionen

Vom Gegenteil des Sachzwangs auszugehen und sich beim Entwurf durch die Entwicklung seiner Eigendynamik statt durch seine Standardisierung leiten zu lassen, ermöglicht insofern neue Erkenntnisse innerhalb der entwerferischen Wissensordnung. Für eine Wissenschaft vom Entwerfen ist daher bei der Perspektivierung ihres Gegenstands von hoher Relevanz, wie die Interaktionsformen und verwendeten Kulturtechniken das Entwerfen konfigurieren und damit sein kritisches Potential ausmachen, an dem sich der Entwurfsprozess ständig erneuert.

participant will tell you his or her story if asked.« (Louis L. Bucciarelli: Designing Engineers, Cambridge 1994, S. 187); vgl. zur Architektur: Albena Yaneva: »Scaling Up and Down: Extraction Trials in Architectural Design«, in: Social Studies of Science, Bd. 35 (2005), Nr. 6, S. 867-894.

371

Autorinnen und Autoren

MARIA AUBÖCK, Akademie der bildenden Künste München, Deutschland; Architektin, Büro Auböck & Kárász, Wien, Österreich. MICHAEL BOLLÉ, Institut für Geschichte und Theorie der Gestaltung, Universität der Künste Berlin, Deutschland. MARIO CARPO, Ecole d’Architecture, Paris-La Villette, Frankreich. CLAUS DREYER, Fachbereich Architektur und Innenarchitektur, Hochschule Ostwestfalen-Lippe, Detmold, Deutschland. JESKO FEZER, Architekt, Büro Ifau und Jesko Fezer, Berlin, Deutschland. GEORG FRANCK, Institut für Architekturwissenschaften, Technische Universität Wien, Österreich. DANIEL GETHMANN, Institut für Architekturtheorie, Kunst- und Kulturwissenschaften, Technische Universität Graz, Österreich. GERT GRÖNING, Institut für Geschichte und Theorie der Gestaltung, Universität der Künste Berlin, Deutschland. GERT HASENHÜTL, Institut für Architekturtheorie, Kunst- und Kulturwissenschaften, Technische Universität Graz, Österreich. SUSANNE HAUSER, Institut für Geschichte und Theorie der Gestaltung, Universität der Künste Berlin, Deutschland. URS HIRSCHBERG, Institut für Architektur und Medien, Technische Universität Graz, Österreich. JÁNOS KÁRÁSZ, Architekt, Büro Auböck & Kárász, Wien, Österreich.

372

CHRISTIAN KÜHN, Institut für Architektur und Entwerfen, Technische Universität Wien, Österreich. ELISABETH LIST, Institut für Philosophie, Universität Graz, Österreich. CLAUS PIAS, Institut für Philosophie, Universität Wien, Österreich. WOLFGANGPIRCHER,Institut für Philosophie, Universität Wien, Österreich. BRUNO REICHLIN, Accademia di Architettura, Mendrisio, Schweiz. INGEBORG M. ROCKER, Graduate School of Design, Harvard Universität, Cambridge, Mass., USA. BERNHARD SIEGERT, Internationales Kolleg für Kulturtechnikforschung und Medienphilosophie, Bauhaus-Universität Weimar, Deutschland. GERNOT WECKHERLIN, Fakultät Architektur, Bauhaus-Universität Weimar, Deutschland. FRANK WERNER, Institut für Architekturgeschichte und Architekturtheorie, Bergische Universität Wuppertal, Deutschland.

373

Kultur- und Medientheorie Jürgen Hasse Unbedachtes Wohnen Lebensformen an verdeckten Rändern der Gesellschaft Mai 2009, ca. 204 Seiten, kart., zahlr. Abb., ca. 24,80 €, ISBN 978-3-8376-1005-5

Christian Kassung (Hg.) Die Unordnung der Dinge Eine Wissens- und Mediengeschichte des Unfalls Mai 2009, 400 Seiten, kart., zahlr. Abb., ca. 33,80 €, ISBN 978-3-89942-721-9

Marcus S. Kleiner Im Widerstreit vereint Kulturelle Globalisierung als Geschichte der Grenzen Juni 2009, ca. 150 Seiten, kart., ca. 16,80 €, ISBN 978-3-89942-652-6

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de

2009-04-02 16-19-48 --- Projekt: transcript.anzeigen / Dokument: FAX ID 02cd206584208176|(S.

1-

3) ANZ901.p 206584208184

Kultur- und Medientheorie Christoph Neubert, Gabriele Schabacher (Hg.) Verkehrsgeschichte und Kulturwissenschaft Analysen an der Schnittstelle von Technik, Kultur und Medien Juli 2009, ca. 250 Seiten, kart., ca. 26,80 €, ISBN 978-3-8376-1092-5

Susanne Regener Visuelle Gewalt Menschenbilder aus der Psychiatrie des 20. Jahrhunderts Juni 2009, ca. 220 Seiten, kart., zahlr. Abb., ca. 25,80 €, ISBN 978-3-89942-420-1

Wladimir Velminski (Hg.) Sendungen Mediale Konturen zwischen Botschaft und Fernsicht Juni 2009, ca. 212 Seiten, kart., zahlr. Abb., ca. 26,80 €, ISBN 978-3-8376-1113-7

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de

2009-04-02 16-19-48 --- Projekt: transcript.anzeigen / Dokument: FAX ID 02cd206584208176|(S.

1-

3) ANZ901.p 206584208184

Kultur- und Medientheorie Kathrin Ackermann, Christopher F. Laferl (Hg.) Transpositionen des Televisiven Fernsehen in Literatur und Film März 2009, 268 Seiten, kart., zahlr. Abb., 27,80 €, ISBN 978-3-89942-938-1

Natalia Borissova, Susi K. Frank, Andreas Kraft (Hg.) Zwischen Apokalypse und Alltag Kriegsnarrative des 20. und 21. Jahrhunderts Juni 2009, ca. 286 Seiten, kart., zahlr. Abb., ca. 28,80 €, ISBN 978-3-8376-1045-1

Moritz Csáky, Christoph Leitgeb (Hg.) Kommunikation – Gedächtnis – Raum Kulturwissenschaften nach dem »Spatial Turn« Februar 2009, 176 Seiten, kart., 18,80 €, ISBN 978-3-8376-1120-5

Lutz Ellrich, Harun Maye, Arno Meteling Die Unsichtbarkeit des Politischen Theorie und Geschichte medialer Latenz Juni 2009, ca. 340 Seiten, kart., ca. 32,80 €, ISBN 978-3-89942-969-5

Marijana Erstic, Walburga Hülk, Gregor Schuhen (Hg.) Körper in Bewegung Modelle und Impulse der italienischen Avantgarde Mai 2009, ca. 312 Seiten, kart., zahlr. Abb., ca. 30,80 €, ISBN 978-3-8376-1099-4

Özkan Ezli, Dorothee Kimmich, Annette Werberger (Hg.) Wider den Kulturenzwang Migration, Kulturalisierung und Weltliteratur Mai 2009, 406 Seiten, kart., 34,80 €, ISBN 978-3-89942-987-9

Erika Fischer-Lichte, Kristiane Hasselmann, Alma-Elisa Kittner (Hg.) Kampf der Künste! Kultur im Zeichen von Medienkonkurrenz und Eventstrategien Juni 2009, ca. 300 Seiten, kart., zahlr. Abb., ca. 28,80 €, ISBN 978-3-89942-873-5

Insa Härtel Symbolische Ordnungen umschreiben Autorität, Autorschaft und Handlungsmacht April 2009, 326 Seiten, kart., 32,80 €, ISBN 978-3-8376-1042-0

Florian Hartling Der digitale Autor Autorschaft im Zeitalter des Internets April 2009, 382 Seiten, kart., zahlr. Abb., 34,80 €, ISBN 978-3-8376-1090-1

Kristiane Hasselmann Die Rituale der Freimaurer Zur Konstitution eines bürgerlichen Habitus im England des 18. Jahrhunderts Januar 2009, 376 Seiten, kart., zahlr. z.T. farb. Abb., 29,80 €, ISBN 978-3-89942-803-2

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de

2009-04-02 16-19-48 --- Projekt: transcript.anzeigen / Dokument: FAX ID 02cd206584208176|(S.

1-

3) ANZ901.p 206584208184