Bildwelten des Wissens: Band 15 Visuelle Zeitgestaltung 9783110565423, 9783110563412

Zeit selbst ist nicht anschaulich, daher sind wir zu ihrer Vergegenwärtigung auf Bilder und Modelle angewiesen. Folglich

175 98 4MB

German Pages 140 Year 2020

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Inhalt
Editorial
Natur- und biorhythmische Zeitregime bei Klee, Itten und Kandinsky
Zeitseeing. Zur biologischen Modellierung von Temporalität
Die Flügel der Concorde. Analogsimulation als Sichtbarmachung von Störung
Zeitwahrnehmung im „Software State of Mind“. Für eine Ästhetik der Simultaneität
Zeitgeber in der Zeitkrise. Experimente zur alternativen Wahrnehmung von Zeit
Matrizen. Schriftbilder diskontinuierlicher Zeitmodelle
Arbeit, Zeit und Inskription. John Pattinson Thomas’ Handling London’s Underground Traffic (1928)
Automobile Typografie. Rhythmen und Beschleunigungen in der buchstäblichen Komfortzone
Interfaces der Zeit. Zeitzeichen in grafischen Benutzungssystemen
Etienne-Jules Marey lässt sich fotografieren (um 1890) Claudia Blümle: Das Bild ‚chronometrisieren’. František Kupkas Mesure de temps (1934)
Der Handlungsbildraum. Zeitgestaltung als Problem der Bildbeschreibung im Videospiel
Zeitlichkeit des Entwerfens. Visuelle Prozessmodelle und ihre temporale Bedeutung
Interview: Die multiplen Repräsentationen machen unser Denken aus. Ein Gespräch mit Matthias Staudacher, Professor für mathematische Physik von Raum, Zeit und Materie an der Humboldt-Universität zu Berlin
Bildnachweis
Autorinnen und Autoren
Recommend Papers

Bildwelten des Wissens: Band 15 Visuelle Zeitgestaltung
 9783110565423, 9783110563412

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Claudia Blümle, Claudia Mareis, Christof Windgätter (Hg.)

Visuelle Zeitgestaltung

Bildwelten des Wissens Band 15

Claudia Blümle, Claudia Mareis, Christof Windgätter (Hg.)

Visuelle Zeitgestaltung

1

2

3

4

5

6

9

7

8

10

11

1: Synchronsprung Klaus Wittenberger, Norbert Hatzack und Herbert Wittenberger in Bukarest, Titelfoto der Zeitschrift Stadion, 1952. 2: John Cage: 4’33’’, Manuskriptseite recto, 1952. 3: Prim Metronome System Maelzel, Mechanisches Metronom, 1960er. 4: Ehrenwache der NVA vor dem Mahnmal für den unbekannten Soldaten in Berlin, Fotografie, Sommer 1990. 5: Unterrichtsmaterial Wassily Kandinksy am Bauhaus: „Der lebende Fußball. Südamerikanisches Kugel-Gürteltier rollt sich aus seiner Verteidigungs-Stellung.“, Papier auf Karton, 1923–1933. 6: Joël Luc Cachelin: Nichtorte, Fotografie, 2014. 7: Artefakte im menschlichen EEG, Grafik, 2015. 8: Ed Hawkins: Globale Temperaturveränderung (1850–2017), Grafik, 2018. 9: Analoge Anzeigetafel am Flughafen Frankfurt, 2008. 10: Andreas Eberlein: Plakat zum Abendvortrag von Gottfried Boehm: Über ikonische Zeit, 2015. 11: Pierre Huyghe:

12

13

14

15

17

20

16

18

19

21

Timekeeper, Ortsspezifische Installation, Paris, 1999. 12: Tanz-Choreographie eines Rigaudon von Herrn Isaac, Notenblatt, 1721. 13: Paul Klee: Wandbild aus dem Tempel der Sehnsucht, Wasserfarbe und Druckfarbe auf Gesso auf Stoff auf Karton, 1922. 14: Sonia Delaunay: Electric Prisms, Öl auf Leinwand, 1914. 15: Perito-Moreno-Gletscher in Patagonien, Argentinien, Fotografie, 2014. 16: Gal Weinstein: El-Al, Installation im Israelischen Pavillon, Venedig Biennale, 2017. 17: Michael Najjar: high altitude / rts_95-09, CGI, 2008–2010. 18: Gustave Courbet: La Vague, Öl auf Leinwand, 1869–1870. 19: Anselm Kiefer: Erdzeitalter, Öl auf Leinwand, 2009. 20: Warp-Antrieb, Grafik, 2015. 21: Ausschnitt einer Karte des Internets, basierend auf Daten von opte.org, Grafik, 15.01.2005.

Inhalt

9 Editorial

11 Linn Burchert Natur- und biorhythmische Zeitregime bei Klee, Itten und Kandinsky



23 Stefan Rieger Zeitseeing. Zur biologischen Modellierung von Temporalität



33 Christian Kassung Die Flügel der Concorde. Analogsimulation als Sichtbarmachung von Störung

45 Till Julian Huss Zeitwahrnehmung im „Software State of Mind“. Für eine Ästhetik der Simultaneität

56 Projektvorstellung Helga Schmid: Zeitgeber in der Zeitkrise. Experimente zur alternativen W ­ ahrnehmung von Zeit

61 Gabriele Gramelsberger Matrizen. Schriftbilder diskontinuierlicher Zeitmodelle

70 Wiedergelesen Sebastian Gießmann: Arbeit, Zeit und Inskription. John Pattinson Thomas’ Handling London’s Underground Traffic (1928)

73 Katharina Walter Automobile Typografie. Rhythmen und Beschleunigungen in der buchstäblichen Komfortzone



83 André Wendler Interfaces der Zeit. Zeitzeichen in grafischen Benutzungssystemen

91 Bildbesprechungen Christof Windgätter: Etienne-Jules Marey lässt sich fotografieren (um 1890) Claudia Blümle: Das Bild ‚chronometrisieren’. František Kupkas Mesure de temps (1934)

100 Robert Matthias Erdbeer Der Handlungsbildraum. Zeitgestaltung als Problem der Bildbeschreibung im Videospiel



114 Claudia Mareis Zeitlichkeit des Entwerfens. Visuelle Prozessmodelle und ihre temporale Bedeutung

8

Inhalt

124 Interview Die multiplen Repräsentationen machen unser Denken aus. Ein Gespräch mit Matthias Staudacher, Professor für mathematische Physik von Raum, Zeit und Materie an der Humboldt-Universität zu Berlin 134 Bildnachweis 138 Autorinnen und Autoren

Editorial

Keine Zeit ohne die Gestaltung ihrer Zeitlichkeit. Wo von wesenhaften Kategorien nicht auszugehen ist, kommen Verfahren der Her- und Darstellung ins Spiel. Zeit, mit anderen Worten, entsteht als Ergebnis ebenso kulturell wie historisch variabler Modelle und Praktiken, die sich immer wieder auch in Bildmedien konkretisieren. Der vorliegende Band thematisiert einige dieser bildhaften Modellierungen, um daran die Gestaltung unterschiedlicher Zeitweisen zu diskutieren. So werden mit Blick auf Entwurfsprozesse, Materialstudien, Aufzeichnungstechniken, Layoutfragen, Softwareumgebungen, Interfacestrategien und Spielverhalten Elemente visueller Verzeitlichungen untersucht, die aus einem Wechselverhältnis von Design, Kunst, Wissenschaften und Medien hervorgegangen sind. Zudem ist es immer wieder ein Ziel visueller Zeitgestaltungen, ihren entwerfend-modellierenden Dimensionen eine eigene epistemische Relevanz zu verleihen. Angestoßen wurde der hier verfolgte Ansatz insbesondere durch die voranschreitende Digitalisierung lebensweltlicher Bereiche, einschließlich wissenschaftlicher und künstlerischer Arbeitsumgebungen. Der enorme Einfluss computer- und netzwerkbasierter Gestaltungen jedenfalls erweist sich als Herausforderung für das Verstehen zeitbezogener Produktionsverhältnisse. Durch die medientechnische Prägung unseres Alltags werden wir zunehmend mit Displays, Windows oder Icons konfrontiert, deren Zeitigungsweisen nicht nur maßgeblich von ihrer gestalterischen Bearbeitung abhängen, sondern sich auch eng mit der Geschichte und Konzeption bildlicher Visualisierungen und Modellierungen verbinden lassen. Bereits vor aller Digitalisierung hat die visuelle Ausgestaltung von wissenschaftlichen Modellen ästhetische Eigenzeiten hervorgebracht, die dazu in dynamischen Prozessen simuliert worden sind. Mit der Konsequenz, dass bis dahin eher statisch arrangierte Visualisierungen von Zeit im Zuge ihrer generativen Gestaltung und Simulierung neu überdacht werden mussten. So erweist sich, dass Zeit (etwa als Linearität oder Unterbrechung, als Serialität, Synchronizität und Simultaneität, aber auch als Dauer, Ereignis und Rhythmus bis hin zu topologisch-zeitlichen Ordnungen) grundsätzlich auf Modelle angewiesen ist, die sie zugleich anschaulich machen können. Die Modellierungen solcher Zeitweisen schließen sowohl Entwurfsartefakte und -prozesse als auch das durch sie bestimmte Verhältnis von Theorie und Praxis ein. Entwurfsprozesse können beispielsweise in der Form planvoll strukturierter, iterativer Phasenmodelle veranschaulicht werden, in denen sich das ‚Neue’ als eine schrittweise Verdichtung von individuellem oder kollektivem Erfahrungswissen und medienspezifischer Interaktion herausbildet. Oder aber sie werden als projektive Denk- und Handlungsräume aufgefasst, in denen sich die gestalterische Imagination im Vis-à-vis eines sowohl zeitlich als auch medial unbestimmten Erwartungshorizonts zu entzünden

10

Editorial

vermag. Die unterschiedlichen Weisen, Entwurfsprozesse entweder als vorstrukturierte oder als möglichst unbestimmte zeitliche Abläufe und Interaktionen zu imaginieren, überlagern sich mit den medialen Eigenzeiten und -logiken der dazu eingesetzten bildgebenden Verfahren. Anders gesagt: Das Gestalten von Zeitlichkeit bedeutet eine methodische und situative Koordination von Erfahrungs-, Vorstellungs- und Bildräumen im entwerfenden Vollzug. Die Analyse singulärer Zeitgestaltungen, wie sie in dieser Ausgabe der Bildwelten des Wissens in den Blick genommen werden, macht sich ihre perzeptiven und medialen Interferenzen zunutze, um aktuelle Neuverhandlungen von Zeit und Zeitlichkeit in Wissenschaft und Kunst auch bildhistorisch und bildkritisch zu verankern. Die Herausgeber

Linn Burchert

Natur- und biorhythmische Zeitregime bei Klee, Itten und Kandinsky

„Betrachten wir die Bilder von Kandinsky und Klee: Hier sind alle Elemente für die tatsächliche Bewegung – Spannungen von Fläche zu Fläche zu Raum, Rhythmus und musikalische Beziehungen im unzeitlichen Bilde vorhanden. Farbformflächen tatsächlich zu bewegen, war eine Notwendigkeit geworden.“ 1

Dies schrieb László Moholy-Nagy im Jahr 1925. 1922 hatte er gemeinsam mit Alfréd Kemény das Konzept des Kunstwerks als dynamisch-konstruktives Kraftsystem in der Zeitschrift Der Sturm veröffentlicht, 1930 verwirklichte er mit seinem Licht-RaumModulator ein kinetisches Objekt, das Form- und Farbbewegungen atmosphärisch in den Raum projizierte.2 Ein vergleichbares Bewegungspotenzial war gemäß MoholyNagy in den nonfigurativen Werken Wassily Kandinskys und Paul Klees angelegt, allerdings mussten die Elemente auf der Fläche selbst unbewegt bleiben. Die erwähnten Künstler jedoch widersprachen der Behauptung, dass das Bild ein ‚unzeitliches‘ Medium sei. Seit den 1910er-Jahren entwarfen sie wahrnehmungstheoretische Modelle visueller Zeitlichkeit, deren Voraussetzung nicht die reale Bewegung der Bildelemente war, sondern deren wirkmächtige bildimmanente Rhythmik und Spannung. Die in diesem Aufsatz gewählten Positionen sind dadurch verbunden, dass sie Zeit im Bild als Zusammenhang produktions- und wahrnehmungstheoretischer Ansätze dachten und dabei auf menschliche Biorhythmen sowie Rhythmen der Natur als Modelle rekurrierten. Ihr Zeitkonzept wendete sich so gegen das Unterbrochene und Serielle, hin zu Ideen der unteilbaren Einheit sowie des zyklisch-fließend Rhythmisierten. Die Ideen standen in enger Verbindung zur Körper- und Rhythmuskultur in den Lebensreformbewegungen des frühen 20. Jahrhunderts.3 Zentral war der Ansatz, Bildrhythmen und -spannungen als Bewegungsfiguren zu begreifen, deren Zeitlichkeit sich in der Rezeption durch die und in den Betrachtenden verwirklicht. Wesentlich wurden dabei Konzepte der Verlebendigung von Bild respektive Betrachtenden – bis hin zur Entwicklung künstlerischer Heilskonzepte.

1 László Moholy-Nagy: Malerei, Fotografie, Film, hg. v. Hans W. Wingler, Mainz/Berlin 1967 (1925), S. 72; vgl. auch S. 18. 2 Moholy-Nagy: Lichtrequisit einer elektrischen Bühne (1930). In: Krisztina Passuth (Hg.): Moholy-Nagy, Dresden 1987, S. 328 3 Vgl. Linn Burchert: Atem- und Pulsbilder: (Bio-)Rhythmisches Arbeiten am Bild. In: Christoph Büttner, Carolin Piotrowski (Hg.): Im Rhythmus. Entwürfe alternativer Arbeitsweisen um 1900 und in der Gegenwart, München 2018 [in Drucklegung]; dies.: Das Bild als Lebensraum. Ökologische Wirkungskonzepte in der abstrakten Kunst, 1910–1960, Bielefeld 2019 [im Druck].

12

Linn Burchert

Rhythmus und Rhythmisierung von Bildern4

In seiner 1919 veröffentlichten Schrift Die Lehre vom Rhythmus in der heutigen Ästhetik der bildenden Künste widmet sich Willi Drost nicht den naheliegenden Rhythmuskonzepten in bewegt-zeitlichen Künsten wie Tanz, Musik und Dichtung, sondern solchen, welche die „starrsten, totesten Gebilde“ betreffen: Architektur und Malerei.5 August Schmarsow etwa habe Rhythmus nicht mehr als etwas „Simultanes, Gewordenes“, sondern als etwas „Werdendes“ begriffen, „das im Nacheinander erlebt werden soll, das vom Sein zum Entstehen zurückgeführt und vom Subjekt Stück für Stück nachgeschaffen wird“.6 Ausgehend davon schließt Drost: „Daraus wird die bedeutsame Erweiterung des bisher vorwiegend musikalisch gebrauchten Begriffs [Rhythmus, L. B.] verständlich, wird doch so auch die feste Form des architektonischen Gebildes geistig aufgelöst und in zeitlich dynamisches Geschehen verwandelt. Damit ist der erste Schritt getan, auch den rein formalen Verhältnissen im Kunstwerke der Reliefkunst und Malerei, Linie, Farbe, Schatten und Licht, losgelöst vom Sachinhalte, den sie darstellen, ein eigenes rhythmisches Leben zuzuerkennen. Nicht mehr der dargestellte, wirklich bewegte Organismus wird schließlich mit rhythmisch bezeichnet, sondern die linearen Verhältnisse, die Farben- und Helldunkelverteilung ohne Rücksicht auf das Inhaltliche.“ 7

Durch Rhythmisierung mittels Farbflächen und Linien könne so eine Verlebendigung des Bildfeldes erfolgen. Die Kategorie der Lebendigkeit war für ästhetische Theorien in der ersten Hälfte des 20. Jahrhunderts zentral. Ausgehend davon entfalteten sich daher auch Definitionsstreitigkeiten. Denn während in einem allgemeinsten Sinne Rhythmus als zeitliche Sequenz gegensätzlicher Phänomene verstanden werden kann – als Wechsel von Auf und Ab, Dunkel und Hell oder auch Betontem und Unbetontem –, so bestehen doch konträre Konzepte hinsichtlich der Art und Weise des Wechsels zwischen den Elementen sowie hinsichtlich der qualitativen Verhältnisse zwischen ihnen. Während Alois Riegl beispielsweise Rhythmus als „geschlossene Aneinanderreihung gleichgeformter Raumabschnitte“ und eine „reihenweise Wiederholung gleicher Ele-

4 Vgl. Linn Burchert: Breathing within and in Front of Images: Rhythm and Time in Abstract Art. In: Visual Past 4, 2017, S. 59–82 sowie Burchert: Atem- und Pulsbilder und Burchert: Das Bild (Anm. 3). 5 Willi Drost: Die Lehre vom Rhythmus in der heutigen Ästhetik der bildenden Künste, Leipzig 1919, S. 5. 6 Drost (s. Anm. 5), S. 6. 7 Drost (s. Anm. 5), S. 5f.

Natur- und biorhythmische Zeitregime bei Klee, Itten und Kandinsky

13

mente“ 8 definierte, wurde ebenfalls Anfang des 20. Jahrhunderts ein Rhythmuskonzept stark gemacht, das Gleichform und reine Wiederholung ausschloss. Diese Denklinie hat Ludwig Klages in seinem 1934 publizierten Vom Wesen des Rhythmus griffig zusammengefasst: „Wiederholte der Takt das Gleiche, so muß es vom Rhythmus lauten, es wiederkehre mit ihm das Ähnliche; und da nun die Wiederkehr eines Ähnlichen im Verhältnis zum Verflossenen dessen Erneuerung vorstellt, so dürfen wir kürzer sagen: der Takt wiederholt, der Rhythmus erneuert.“ 9 Nicht identische Formen wie in einem Schachbrett konstituierten Rhythmus, sondern Variation und Erneuerung. Diese Erneuerung vollziehe sich dabei fließend, als Wellenbewegung und Übergang zwischen Elementen ohne „brechende […] Kanten“.10 Die zwei Rhythmusbegriffe, die sich aus dem Gegensatz von Metrik und Ametrik ergeben, bilden sich in der uneindeutigen Etymologie ab: Während das Griechische rhythmós Regelmäßigkeit und Proportion betont,11 wurde der Begriff alternativ vom Griechischen rhein – Fließen – abgeleitet.12 Letztere Vorstellung, dies wird bei Klages deutlich, fasst Rhythmizität als gebunden an organische und kosmologische Naturgesetze auf. Eben diese Vorstellungen waren für Klees und Johannes Ittens Bildkonzepte zentral, die immer wieder auf die Fließrhythmen von Atmung und Blutstrom rekurrierten. Natürliche Fließrhythmen und Zyklen

„Die Vorbewegung in uns, die tätige, werkliche Bewegung von uns, in der Richtung des Werkes und die weitere Fortführung der Bewegtheit im Werk auf andere, auf die Beschauer des Werkes, das sind die Hauptabschnitte des schöpferischen Ganzen, als Vorschöpfung, Schöpfung und NachSchöpfung [sic].“ 13

Mit dieser programmatischen Aussage, die aus Bauhaus-Unterrichtsnotizen zur Bild­ ne­rischen Gestaltungslehre von 1924 stammt, band Klee die Bewegungen des ­Künstlers, 8 Drost (s. Anm. 5), S. 9. Drost merkt selbst an, dass Riegl Bewegung und Zeit so ganz aus dem Auge verloren habe. 9 Ludwig Klages: Vom Wesen des Rhythmus, Kampen auf Sylt 1934, S. 32. 10 Klages (s. Anm. 9), S. 17f. 11 Wilhelm Seidel: Rhythmus. In: Karlheinz Barck et al. (Hg.): Ästhetische Grundbegriffe. Historisches Wörterbuch in sieben Bänden, Bd. 5, Stuttgart/Weimar 2003, S. 291–314, S. 292. 12 Simone Mahrenholz, Patrick Primavesi: Einleitung. In: dies. (Hg.): Geteilte Zeit. Zur Kritik des Rhythmus in den Künsten, Schliengen im Markgräferland 2005, S. 9–33, S. 10. 13 Paul Klee: Bildnerische Gestaltungslehre, 1.2/77, siehe http://www.kleegestaltungslehre.zpk.org (Stand: 10/2018).

14

Linn Burchert

das Resultat dieser Bewegungen und deren Wahrnehmung aneinander. Daraus ergibt sich eine Konzeption von Form als „Formung“, das heißt als „Form im Werden, als 1: Paul Klee: Der Kreislauf (Lemniskaten­schwingung I). Genesis“.14 Für Klee war Form(ung) rhythmisch-fließende Bewegung in der Zeit, sodass sich jedes Werk „sowohl entstehend (produktiv) als aufgenommen (rezeptiv) in der Zeit“ bewege.15 Die Länge und Strukturierung der Wahrnehmung von Kunst seien somit durch die Zeit, die produktiv in das Werk eingeflossen ist, bestimmt. Die Betrachtung wird zum Nachvollzug der temporal aufgeladenen ­Produktionsspuren. Zur Erläuterung der Wirkung rhythmischer Farbwechsel im Bild bezog sich Klee auf die in Johann Wolfgang von Goethes Naturphilosophie popularisierte ­Lemniskate – eine Endlosschleife in Form einer liegenden Acht. Das Lemniskatenmodell brachte Klee mit der Atmung und dem Blutkreislauf in Verbindung.16 ◊ Abb. 1 Goethe hatte solche Fließbewegungen als grundlegende, ewige Gesetzmäßigkeiten in der Natur beschrieben: „Das Geeinte zu entzweien, das Entzweite zu einigen, ist das Leben der Natur; dies ist die ewige Systole und Diastole, die ewige Synkrisis und Diakrisis, das Ein- und Ausatmen der Welt.“ 17 Auf diesem organismischen Verständnis des irdischen und kosmischen Lebensraumes basierte das für die Abstraktion zentrale Konzept des Bildes als Organismus:18 Klee differenzierte hierfür bekanntlich zwischen dividuellem und individuellem Rhythmus, zwischen Metrum beziehungsweise Schachbrettmuster und einer sich in Wellenbewegungen selbst erneuernden Organisation. Kompositorische Farbwechsel sind so im Sinne Klages als Erneuerungsbewegungen zu verstehen: Das ‚Ausschwärmen‘ der Lemniskate sei, so Klee, dazu da, „eine Veränderung vorzunehmen“.19 Dementsprechend hatte Klee die Kunst als „Luftwechsel“ sowie Kraft beschrieben, welche die „hungernden Nerven“ der Seele „zu nähren, ihre erschlaffen-

14 Ebd., BG 1.2/21. 15 Ebd. 16 Vgl. Heribert Schulz: Herz-Kreislaufgestaltungen bei Beuys und Klee: Trennendes und Verbindendes. In: Tilman Osterwold (Hg.): Paul Klee trifft Joseph Beuys. Ein Fetzen Gemeinschaft, Ostfildern-Ruit 2000, S. 78–89, hier: S. 82f. 17 Johann Wolfgang von Goethe: Farbenlehre. Vollständige Ausgabe der theoretischen Schriften, Tübingen 1953. Vgl. weiterhin: Johann Peter Eckermann: Goethes Gespräche mit Eckermann, hg. v. Edith Zenker, Berlin 1955, S. 308. 18 Claudia Blümle, Armin Schäfer: Organismus und Kunstwerk. Zur Einführung. In: dies. (Hg.): Struktur, Figur, Kontur. Abstraktion in Kunst und Lebenswissenschaften, Berlin 2007, S. 9–25. 19 Klee (s. Anm. 13), BG 1.2/48.

Natur- und biorhythmische Zeitregime bei Klee, Itten und Kandinsky

den Gefäße mit neuem Saft zu füllen“ vermöge.20 Darin wird die Figur der Füllung der Lungen sowie der Blutgefäße durch ihre Rhythmisierung besonders plastisch. Parallel zu diesen theoretischen Überlegungen schuf Klee um 1923 eine Reihe von Werken, die sich durch eine freie Anordnung viereckiger Formen in verschiedenen Farbnuancen auszeichnen. ◊ Abb. 2+3 Rhythmik nicht im Sinne einer Wiederholung von Elementen, sondern als Erneuerung ist hier durch die Variation von Farbnuancen, Hell und Dunkel, Rein und Trüb gestaltet, ebenso wie durch die Wiederholung freihändig gemalter Vierecke, die in Größe und Form variativ sind. Die Logik der Erneuerung ist den Klees Konzept fundierenden Figuren des Atem- und Blutkreislaufes eingeschrieben, schließlich dient die Atmung der Reinigung des Blutes und der Kreislauf des Blutes hat die Funktion, den Organismus durch stetige Erneuerung am Leben zu halten. In der Farbgestaltung zwischen den Polen Schwarz und Weiß hatte Klee die Möglichkeit zur Gestaltung einer Art Atemrhythmus auf der Fläche gesehen. So notierte er 1924:

15

2: Paul Klee: Bildarchitectur Rot Gelb Blau, 1923, Ölfarbe auf Grundierung auf Karton, 44,3 × 34 cm, Zentrum Paul Klee.

„Grosse Spannweite von Pol zu Pol verleiht […] tiefes Ein[-] und Ausatmen, das bis zum keuchenden Ringen wandlungsfähig ist. Geringe Spannweite dämpft die Atemzüge bis zum sotto voce ab. Es wird hier nur geflüstert um grau herum.“ 21

20 Paul Klee: Schöpferische Konfession. In: Kasimir Edschmid (Hg.): Schöpferische Konfession (= Tribüne der Kunst und Zeit 13), Berlin 1920, S. 28–40, S. 39f. 21 Klee (s. Anm. 13), BG 1.2/104–105, 15.1.1924.

3: Paul Klee: Harmonie aus Vierecken mit Rot Gelb Blau Weiss und Schwarz, 1923, Ölfarbe auf Grun­ die­rung auf Karton, 69,7 × 50,6 cm, Zentrum Paul Klee.

16

Linn Burchert

Erweitern lässt sich diese Überlegung mit Blick auf die Variation der Ausdehnungen der Formen, die im Sinne zeitlicher Ausdehnung wahrnehmbar werden. Ein vergleichbares Konzept findet sich bei Klees Bauhaus-Kollegen Itten deutlicher ausformuliert. Dabei fällt allerdings in beiden Fällen auf, dass die malerischen Kompositionen trotz des ihnen zugrundeliegenden Modells des Fließrhythmus formal durch Brüche statt durch Übergänge von Formen und Farben geprägt sind. Ob und wie dieser Widerspruch aufgelöst werden kann, soll anhand von Itten sowie im Anschluss unter Einbezug Kandinskys beantwortet werden. Die Rhythmen des Kosmos erhielten für Itten im Sinne Goethes und Klages’ mit Blick auf die Spezifika künstlerischer Produktion sowie der Wahrnehmung von Bildern Modellcharakter. So konzipierte Itten das Bild als Organisation analog zu kosmischen Zyklen sowie menschlichen Biorhythmen: Diese umfassten etwa „das Ausund Einatmen, […] Herzschlag, […] Mondrhythmus, Sonnenrhythmen (Tag – Nacht, Sommer – Winter), die riesengroßen Umlaufzyklen der Gestirne“.22 Dabei machte Itten explizit, wie die verschiedenen Dimensionen künstlerischer Produktion und einer spezifisch verzeitlichten Bildwahrnehmung zusammenhängen: Er betonte die Bedeutung der „Pflege der individuellen Atmung“ mit Blick auf die „Gesundheit und Leistungsfähigkeit des Menschen“.23 Die „bewußte Kontrolle des Körpers und seiner Funktionen“ sah er als „die wahre Grundlage zu erfolgreicher Arbeitsleistung“ an.24 Atemübungen hatten bei ihm ausgehend von seiner Auseinandersetzung mit der Heilsdoktrin ­Mazdaznan spirituelle Dimensionen, hoben dabei aber zugleich auf die physische Gesundheit des Organismus ab.25 Das Arhythmische galt Itten in diesem Zusammenhang als Merkmal von Tod und Krankheit, das Rhythmische als Merkmal von Leben und Gesundheit.26 Noch deutlicher als Klee, der von der Übertragung der Bewegung des Künstlers auf das Werk sowie von der atmenden Qualität kontrastiver Bildkompositionen gesprochen hatte, verband Itten die Biorhythmen des Künstlersubjekts produktionstheoretisch engstens mit dem Kunstwerk: So forderte er seine Schülerinnen und Schüler auf, „den Rhythmus der Atmung parallel [zu] stellen zum Rhythmus der zu zeichnenden Formgestalt“.27 Die „Dynamik der Farb-Form-Rhythmen“ stellte 22 Johannes Itten: Elemente der Bildenden Kunst. Studienausgabe des Tagebuchs, Vorwort und Kommentar v. Peter Schmitt, Ravensburg 1980 (1930), S. 108. 23 Anneliese Itten, Willy Rotzler (Hg.): Johannes Itten. Werke und Schriften, Zürich 1972, S. 229. 24 Itten (s. Anm. 22), S. 97. 25 Zu Mazdaznan s. Ulrich Linse: Mazdaznan – die Rassenreligion vom arischen Friedensreich. In: Stefanie von Schnurbein, Justus H. Ulbrich (Hg.): Völkische Religion und Krisen der Moderne. Entwürfe ‚arteigener‘ Glaubenssysteme seit der Jahrhundertwende, Würzburg 2001, S. 268–291. 26 Itten, Rotzler (s. Anm. 23), S. 228. 27 Itten (s. Anm. 22), S. 29.

Natur- und biorhythmische Zeitregime bei Klee, Itten und Kandinsky

17

er in einem Lehrplan von 1926 in Entsprechung zum „Herzrhythmus und der Dynamik der Lunge“. 28 Diese „rhythmisch geschriebenen Formen“ hätten als Resultat „einen Wind, einen Atem in sich […], der sie zu einer lebendigen Formfamilie macht“.29 Zugrunde liegt hier wiederum die Idee eines lebendigen und zugleich verlebendigenden Bildes. Das „An- und Abschwellen“ sei dabei die zentrale „Wesenseigentümlichkeit alles Rhythmischen“.30 Ebenfalls vergleichbar 4: Johannes Itten: Vorfrühling, 1966, Öl auf Leinwand, 120 × 120 cm, mit Klee gestaltete Itten nonfi- Privatsammlung. gurative Viereckkompositionen, die vor allem im Spätwerk der 1960er-Jahre in engem Bezug zu jahreszeitlichen und anderen natürlichen Zyklen standen: In Vorfrühling (1966) ist das Bildfeld durch eine freie Anordnung von Vierecken verschiedener Größen, Ausformungen und Farben strukturiert. ◊ Abb. 4 Farblich dominieren grüne und orangene Töne, ergänzt durch graue, violette, blaue und pinke Einsprengsel. Aufgrund der Horizontlinie im oberen Bildteil wird eine abstrahierte Landschaft suggeriert. Innerhalb dieser gestaltete Itten das Vibrierende und Lebhafte des Frühlings: Das Auge findet in diesem Bild keinen Fixpunkt, sondern springt von Punkt zu Punkt. Eine ähnliche Rezeptionsweise legen auch Klees Bildarchitecturen nahe: Bei Itten wird umso deutlicher, wie durch kleine Formen eine Beschleunigung der Rezeptionsbewegungen entsteht. Diese Bewegungen brachte Itten mit den Charakteristika der Jahreszeiten in Verbindung.

28 Eva Badura-Triska (Hg.): Johannes Itten. Tagebücher. Stuttgart 1913–1916, Wien 1916–1919. Abbildung und Transkription, Wien 1990, S. 229. 29 Johannes Itten: Gestaltungs- und Formenlehre. Mein Vorkurs am Bauhaus und später, Ravensburg 1963, S. 98. Ähnliche produktionstheoretische Überlegungen finden sich bei anderen Künstlern, vgl. dazu die Hinweise unter Anm. 3 und 4. 30 Itten (s. Anm. 22), S. 108.

18

Linn Burchert

5: Johannes Itten: Winter, 1963, Öl auf Leinwand, 100 × 150 cm, Museum Würth, Künzelsau.

Den Ablauf der Jahreszeiten beschrieb Itten beispielsweise 1937 mit der Figur des Ein- und Ausatmens: „Winter: Einatmen. Sommer: Ausatmen“.31 Gemeint war damit der Wechsel vom fruchtbringend-‚ausatmenden‘ Wachstum in Frühling und Sommer zur inspirativen, geistigen Verinnerlichung im Winter.32 Das Winter-Bild seines 1963 entstandenen vierteiligen Jahreszeitenzyklus fällt durch eine weniger kleinteilige, stattdessen großzügigere Untergliederung und die Dominanz gedeckter, pastelliger Farben auf, die, anders als die Orangetöne in Vorfrühling nicht ausstrahlen und stimulieren, sondern eine beruhigende Wirkung entfalten. ◊ Abb. 5 Gemäß der Einfühlungstheorie Ittens sollten die Betrachtenden das Kunstwerk „zu persönlichem Leben erwecken“,33 sich ganz „als Einzelwesen“ aufgeben und sich „als Funktion des Bildes“ fühlen.34 Dementsprechend ging Itten von einer existenziellen Verbindung von Betrachtenden und Bild aus. So wie die Schülerinnen und Schüler bei der Arbeit ihre Atmung an die 31 Itten, Rotzler (s. Anm. 23), S. 84. 32 Itten, Rotzler (s. Anm. 23), S. 84. 33 Johannes Itten: Analysen alter Meister. In: Bruno Adler (Hg.): Utopia. Dokumente der Wirklichkeit, Weimar 1921, o. S. 34 Itten, Rotzler (s. Anm. 23), S. 59.

Natur- und biorhythmische Zeitregime bei Klee, Itten und Kandinsky

19

zu malenden Formen anpassten, sollten Ittens Bilder auch in der Rezeption Atmung, Herzbewegung und Durchblutung ergreifen. Wie bei Klee ist eine fließende Struktur der Bilder auf der reinen Darstellungsebene nicht gegeben. Die Werke sind durch Brüche zwischen den Formen und nicht durch Übergänge geprägt – augenfällig wird dies insbesondere dort, wo starke Kontraste aufeinandertreffen. In der Rezeption jedoch galt es, diese als Fließrhythmen zu erleben beziehungsweise die Fließrhythmen des Organismus – Atem- und Blutwelle – von dieser Rhythmik affizieren zu lassen. Darstellungs- und Wirkungsebene treten dadurch in ein Spannungsverhältnis und komplementieren einander dennoch. Ein ähnlicher Ansatz findet sich bei Kandinsky. Dessen Einbezug hilft dabei, dieses zentrale physiologische Bild- und Wahrnehmungsmodell der nonfigurativen Avantgarde weiter zu durchdringen. Pulsieren, Vibrieren, therapeutische Einwirkzeit von Kunst

Kandinsky verstand unter Rhythmus nicht die „mehr oder weniger klare wiederholung, sondern aufbau der spgen [Spannungen] zwischen den el[ementen]“.35 So hatte er das Bild in Über das Geistige in der Kunst (1911) analog zu einem Luftraum beschrieben und damit als ein fluid-flexibles Gebilde, in dem Bewegungen sich durch Flächen und Linien realisieren: In solchen Kompositionen habe die einzelne Farbe, „richtig angewendet“, das Potenzial, „vor- oder zurück[zu]treten und vor- oder zurück[zu] streben“.36 In der Farbkomposition ergibt sich durch den Wechsel vor- und zurückstrebender Farben so ein Rhythmus, den Kandinsky dezidiert mit der Atmung in Verbindung brachte: So sprach er vom Einbringen des „Atmens in die Farbe“ durch Aufhellung37 und davon, dass das Werk über „selbstständiges Leben“ verfüge und „zu einem selbständig, geistig atmenden Subjekt [werde], welches auch ein materiell reales Leben führt, […] ein Wesen ist“.38 Räumlichkeit und Bewegung entstehe weiterhin aus der Flächigkeit heraus durch „die Dünne oder die Dicke der Linie, […] das Stellen der Form auf der [sic] Fläche, das Überschneiden einer Form durch die andere“.39

35 Angelika Weißbach (Hg.): Wassily Kandinsky. Unterricht am Bauhaus 1923–1933. Vorträge, Seminare, Übungen, Berlin 2015, S. 282 [Herv. i. O. und bei Weißbach unterstrichen; erste und dritte Ergänzung in Klammern von Weißbach]. 36 Wassily Kandinsky: Über das Geistige in der Kunst, Bern (10. Aufl.) 1952, S. 111f. 37 Kandinsky (s. Anm. 36), S. 99. 38 Kandinsky (s. Anm. 36), S. 132. 39 Kandinsky (s. Anm. 36), S. 110.

20

Linn Burchert

Jedem einzelnen linearen und flächigen Element sowie jeder Farbnuance sind gemäß Kandinsky eine Zeitlichkeit sowie ein spezifischer Puls eingeschrieben. Die Wirkung auf die Betrachtenden generiert sich demnach aufgrund von Synästhesien und spezifischen physiologisch wirksamen Eigenschaften der Farbe, die er in seinen Bauhaus-Unterrichtsaufzeichnungen folgendermaßen explizierte: „gelb/weiß: Tempo: presto, Pulsschlag: 135, Temperatur: warm rot/grau: Tempo: moderato, Pulsschlag: 75, Temperatur: warm-kalt blau/schwarz: Tempo: adagio, Pulsschlag: 50, Temperatur: kalt“ 40

Auch Kandinsky verband die Wirkung des Bildes so mit Biorhythmen – vorrangig mit dem Pulsschlag, dem Fließrhythmus des Blutes. Er ging davon aus, dass der Blutstrom durch die Schwingungen beziehungsweise die „Vibrationen“, die von den Farbformen ausgingen, affiziert würde,41 und war der Ansicht, dass in allen Bildern ein kosmischer Rhythmus durch Spannung und Vibration enthalten sei und es einen „drang“ gebe, „diesen pulsschlag mitzumachen“.42 Nicht nur in den theosophischen Auratheorien, auch in diversen heilkundlichen Kontexten war der Vibrationsbegriff zentral. Hier galten Vibrationen als generelle Kennzeichen und Qualitäten des Lebens. Kandinsky interessierte sich in diesem Zusammenhang – ebenso wie Itten43 – besonders für die Chromotherapie. In seinem Besitz befand sich Andrew Osborne-Eaves’ im Talis-Verlag erschienene Schrift Die Heilkraft der Farben (1906), worin es heißt: „Das Leben, gleichgültig, ob es sich als Amoebe oder als Mensch ausdrückt, läuft in Form bestimmter Schwingungen, Rhythmen oder Vibrationen ab. Sind die Vibrationen harmonisch, dann nennen wir diesen Zustand Gesundheit. Unharmonische Vibrationen erscheinen als Krankheit.“ 44

Dabei spielten für Kandinsky ebenso wie in der Chromotherapie Farbtemperaturen eine zentrale Rolle, die auf die Frequenz der Biorhythmen wirkten: Kalte Farben 40 Weißbach (s. Anm. 35), S. 204. 41 Wassily Kandinsky: Essays über Kunst und Künstler, Bern 1963, S. 51. 42 Weißbach (s. Anm. 35), S. 452. 43 Johannes Itten: Kunst der Farbe. Subjektives und objektives Erkennen als Wege der Kunst, Ravensburg 1961, S. 16. 44 Andrew Osborne-Eaves: Die Kräfte der Farben. Der Weg zur Gesundheit. Die Kunst des Schlafes (= Talisman-Bücherei, Bd. 9), Berlin (6. Aufl.) 1931, S. 43.

Natur- und biorhythmische Zeitregime bei Klee, Itten und Kandinsky

21

wurden gegen Fieber und Erregung, warme Farben gegen Unterkühlung und Schwäche eingesetzt.45 In der Anwendung dieser Prinzipien auf die Malerei ging Kandinsky zugleich von einer gewissen Einwirkzeit von Kunst – einer notwendig und idealiter ‚verlängerten‘ Rezeptionsdauer aus. Die Patientinnen und Patienten farbtherapeutischer Anwendungen sollten sich etwa zwischen zwanzig und sechzig Minuten den gefärbten, durchleuchteten Glasscheiben aussetzen.46 Wesentlich in naturheilkundlichen Ansätzen, die in dieser Zeit kursierten und von Kandinsky rezipiert wurden, war die Auffassung, dass Leben und Gesundheit auf dem harmonisierenden Wechsel von Erregung und Beruhigung – etwa gemäß Klages 6: Wassily Kandinsky: Dunkle Kühle, 1927, Öl auf Tafel, „Ebbe und Flut, […] Wachen und Schlafen, 26 × 20 cm, Centre Georges Pompidou, Paris. Frische und Müdigkeit […]“ 47 oder gemäß dem Schweizer Naturheiler Arnold Rikli auf der Abwechslung von Tag und Nacht, Wärme und Kälte, Hell und Dunkel basieren.48 Nach diesem Grundsatz unter Einbeziehung chromotherapeutischer Ideen gestaltete Kandinsky viele seiner Bilder. Dunkle Kühle (1927) etwa ist nach dem prominenten Kandinskyschen Grundsatz „Gegensätze und Widersprüche – das ist unsere Harmonie“ 49 komponiert: Auf einem dunkelblauen Grund erstreckt sich ein komplexes Gefüge aus Linien und Untergliederungen, in dem Gelb- und Rottöne dominieren. ◊ Abb. 6 Weitere, allerdings amorphe Formen in warmen Tönen sind rund um das Gebilde angeordnet. Durch den Kontrast stimulierender und beruhigender Farben sollten die organischen Fließrhythmen der Rezipierenden direkt affiziert werden, hier nicht durch das Nebeneinander der Farbformen, sondern durch das frontale Pulsieren in den Raum der Betrachtenden hinein.

45 Osborne-Eaves (s. Anm. 44), S. 7. 46 Osborne-Eaves (s. Anm. 44), S. 7. 47 Klages (s. Anm. 9), S. 33. 48 Arnold Rikli: Die Grundlehren der Naturheilkunde einschließlich die atmosphärische Cur ‚Es werde Licht‘, Leipzig 1895, S. 23. 49 Kandinsky (s. Anm. 36), S. 109.

22

Linn Burchert

Schlussbemerkungen

Klee, Itten und Kandinsky wollten die Betrachtenden ihrer Werke in Bewegung versetzen – nicht allerdings durch eine Mobilisierung der Gliedmaßen, sondern durch die Ansprache ihrer Biorhythmen – Atem, Herzschlag, Blutzirkulation. Dahinter standen naturheilkundliche und esoterische Heilskonzepte, die mit der modernen Körperkultur des frühen 20. Jahrhunderts in Verbindung standen. Allen drei Positionen ging es darum, Rhythmus nicht einfach zu visualisieren, sondern realiter spürbar zu machen, indem sie ihre Bilder als lebende und vitalisierende Gebilde zu gestalten suchten. Auf Biorhythmik und Natur bezogen sie sich dabei in unterschiedlichen Stufen der Abstraktion sowie der Transformation natürlicher Prinzipien: Bei Itten hat der Atem eine substanzielle Bedeutung, die nicht allein als Metapher für Lebendigkeit figuriert. Sein Bezug zu Naturrhythmen erfolgt außerdem konkret am Beispiel der Jahreszeiten. Klee hingegen rekurriert auf das Modell der Lemniskate, das allgemeine Naturgesetzmäßigkeiten beschreibt. Kandinsky bezieht sich zur Begründung seines Bildkonzepts implizit ebenfalls auf das Lemniskatenmodell, transformiert dieses allerdings ästhetisch in anderer Weise: Unter Einbezug psychophysischer und heilkundlicher Ansätze verlässt er sich auf die rhythmisierenden Wirkqualitäten von einzelnen Farben, die nicht durch die rhythmische Anordnung vieler Farbformen im Bild zustande kommen. In allen drei Fällen wird je eine spezifische Naturrhythmik als Norm essenzialisiert, die vom Kunstwerk auf die Betrachtenden übergehen sollten. Zugrunde liegt das Verständnis und Ideal einer harmonisch geordneten Natur. Wenngleich individuelle Variationen in der Rezeption zu erwarten sind, wurde in den Konzepten ein bestimmtes Zeitregime postuliert, das sich aus diesen Natur- und Rhythmuskonzepten konstituierte.

Stefan Rieger

Zeitseeing. Zur biologischen Modellierung von Temporalität „Dächten wir uns gar das geistige Tempo vertausendfacht oder vermillionenfacht, so würden die Eindrucksqualitäten sich zersetzen, und eine Welt ganz neuer Erscheinungen täte sich auf: der Ton wäre nicht Ton, die Farbe nicht Farbe mehr.“ 1

I. Die Allianzen des Wissens

Der Versuch, Zeit wahrnehmbar zu machen, sie vor Augen zu stellen und zu modellieren, hat seine eigenen Erzählungen und Protagonisten, seine eigenen Orte und Anlässe. Einer davon ist die Großstadt, deren Geistesleben bei Georg Simmel und damit in der frühen Soziologie gebührend Beachtung fand. Im Modus der Beschleunigung wird dieses Geistesleben von Autoren wie dem deutschen Psychologen, Arzt und Politiker Willy Hellpach aufgegriffen. Unter dem Titel Die Beschleunigung der Erlebniszeitmaße („psychophysische Akzeleration“) beim Großstadtmenschen finden Überlegungen statt, die den Topoi der Großstadtbeschreibung eine Quantifizierung an die Seite stellen und sich damit einreihen in eine eindrucksvolle Beforschung, die der Taktung und der Geschwindigkeit von Gedanken, Vorstellungen und Wahrnehmungsweisen überhaupt gelten. Der Veröffentlichungsort ist eine veritable Biologie der Großstadt aus dem Jahr 1940, die versucht, unterschiedliche regional ausdifferenzierte Menschengruppen als Typen für entsprechende Verarbeitungsgeschwindigkeiten dingfest zu machen. Um die Tempowechselbeschleunigung der psychophysischen Akzeleration zu verdeutlichen, wird auf die einschlägige völkerkundliche Literatur verwiesen: „FRIEDRICH KEITER hat in seinem (namentlich methodisch zum Teil sehr originellen) Werke ‚Rasse und Kultur‘ an einem eindrucksvollen und aufschlußreichen Beispiel, nämlich an der (natürlich ideellen) Konfrontierung eines australischen Eingeborenen und eines hamburgischen Studienrates […] für die beiden das Zahlenverhältnis der Erlebniselemente an mitmenschlicher Umwelt zu finden versucht: er findet deren für den Großstadtberufsmenschen 42 und für den Buschwilden 9!“ 2

Mit Blick auf diesen chauvinistischen Punktestand lohnt es sich, den Fokus vom Menschen zu lösen und auf andere Arten zu richten. Damit wird es möglich, am Unterschied der Wahrnehmung die Alterität von Seinsarten, den Status des Lebens und 1 Ludwig Klages: Einführendes Vorwort. In: Melchior Palágyi: Ausgewählte Werke, Bd. 2: Wahrnehmungslehre, Leipzig 1925, XI. 2 Willy Hellpach: Die Beschleunigung der Erlebniszeitmaße („psychophysische Akzeleration“) beim Großstadtmenschen. In: Franz Linke, Bernhard de Rudder (Hg.): Biologie der Großstadt, Dresden/ Leipzig 1940, S. 60–74, S. 68.

24

Stefan Rieger

gar den der Natur selbst dingfest zu machen. Walter Benjamin zufolge erschließen technische Medien, wie er in seinem Aufsatz über die technische Reproduzierbarkeit am Fall der Kinematografie erläutert, einen Zugang zu jenem Optisch-Unbewussten, das Wissensbereiche sui generis ausmacht und eben gerade nicht darin aufgeht, bereits vorhandene Kenntnisse einfach nur zu verdoppeln. Am Beispiel schnell ablaufender Prozesse und namentlich solcher der Motorik wie dem Greifen und Gehen werde jene andere Natur handgreiflich, die, wie Benjamin schreibt, zur Kamera und nicht zum Auge spricht. Das Nicht-Wissen über die Geläufigkeit solcher Prozesse wird so zur epistemologischen Chance für die Technik.3 Dabei bedingen sich die Verwissenschaftlichung des Lebens und das Interesse an der Bewegung wechselseitig. Sie schließen eine Allianz mit der Physiologie, die sich im 19. Jahrhundert als Leitwissenschaft etabliert und diesen Status nicht zuletzt durch massive Anleihen bei technischen Medien absichert. Es sind Vorrichtungen wie das Kymographion, das in der Zeit ablaufende Vorgänge – etwa die Bewegungen des Pulses – registriert und aufzeichnet und damit für Prozesse der Verwissenschaftlichung zur Verfügung stellt.4 Im Schulterschluss von physiologischem und technischem Wissen braucht so nichts unregistriert zu bleiben und einer der hartnäckigen Gründungsgeschichten der Medienwissenschaft zufolge, bei der es einmal mehr um das Gehen geht, sind technische Vorrichtungen wie chronofotografische Flinten oder entsprechend präparierte Rennstrecken sogar in der Lage, Aufklärung über den bis dahin unaufgeklärten Verbleib von Pferdebeinen in der Luft zu geben. Dem korrespondiert eine alternative Mediengeschichtsschreibung, wie sie für die Kinematografie etwa Friedrich Kittler skizziert hat: Mit dem ganzen Pathos, das seinem Schreiben eigen war, konnte er die Bewegtbildaufzeichnung aus den kanonischen Gründungsmythen lösen und mit den Brüdern Weber entsprechend unbekannte Heroen an die Stelle des historiografisch einschlägigen Erfinderpersonals setzen.5 Wie sehr man auch immer solche Neubegründungsbemühungen und damit die Verschiebung des epistemologischen Ortes der Medien als tendenziös veranschlagen mag, so machen sie doch mehrere Dinge sichtbar, die für die Bestimmung der Medienwissenschaft zentral sind: Da ist erstens die Homologie zwischen Medien und Wissen. 3 Vgl. dazu Walter Benjamin: Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit. Zweite Fassung. In: ders.: Gesammelte Schriften, Bd. I.2, Frankfurt a. M. 1980, S. 471–508. 4 Vgl. stellvertretend für die einschlägigen Arbeiten von Étienne-Jules Marey: Jussi Parikka: Insect Technics: Intensities of Animal Bodies. In: Bernd Herzogenrath (Hg.): (Un)easy alliance – thinking the environment with Deleuze/Guattari, Cambridge, UK 2008, S. 339–362. 5 Vgl. Friedrich Kittler: Der Mensch, ein betrunkener Dorfmusikant. In: Renate Lachmann, Stefan Rieger (Hg.): Text und Wissen. Technologische und anthropologische Aspekte, Tübingen 2003 (Literatur und Anthropologie 16), S. 29–43.

Zeitseeing. Zur biologischen Modellierung von Temporalität

25

Zweitens ist festzuhalten, dass dieses Bedingungs- und Wissensbegründungsverhältnis einer Entwicklung und damit dem folgt, was Hans-Jörg Rheinberger als Dynamik einer historischen Epistemologie ausweist. Diesen Befund von der Historizität könnte man als trivial vernachlässigen, wäre drittens nicht auch noch zu beobachten, dass es bestimmte Aussageorte mit deren je eigenen Aussageformen sind, die an der Modellierung von Zeitverhältnissen beteiligt sind. Gedankenspiele der Philosophie und der Science-Fiction-Literatur, imaginierte Antizipationen und Projektemachereien können auch jenseits realer Technikentwicklung Fragen stellen, für deren Beantwortung die entsprechenden Apparaturen noch ausstehen. Wie im Folgenden an der biologischen Modellierung von Temporalität zu zeigen sein wird, können gedankliche Vorwegnahmen technischer Medien – in diesem Fall der Kinematografie mit der Option auf die Dehnung und Raffung von Zeit – vermutete Wahrnehmungsformen und ein konjekturales Wissen zutage fördern, das erst später durch die realen Medien ihre Bestätigung finden wird. Die Berücksichtigung solcher Phänomene und die Ablösung von einer in der Regel oft technik-teleologisch ausgerichteten Datierungsgeschichte von Gerätschaften sind auch dazu angetan, einer kulturwissenschaftlich ausgewiesenen Medientheorie ihren Ort und ihre Rechtfertigung zu weisen. Eine solche Wissenschaft müsste sich nicht mehr zwischen Zugangsarten, also etwa Filmästhetik und Unterhaltungssoziologie, Wirkungsforschung und einer Wissenschafts- und Kulturgeschichte realer oder erdachter Dinge entscheiden, sondern könnte all diese Aspekte selbstbewusst zu einer Disziplin fügen, die ästhetisch interessiert, historisch ausgerichtet, technisch informiert und (sozial)theoretisch angeleitet eben auch die Spiele des Wissens an ihren vielfältigen Schauplätzen nachstellt. II. Die Skalierbarkeit der Zeit

Einer dieser Schauplätze ist die Biologie als Wissenschaft vom Leben. Was sie mit ihrem spezifischen Mediengebrauch an Grenzziehungen zwischen Menschen und Tieren, aber auch zwischen Pflanzen und Maschinen in den Blick nimmt, ist auf ein fundamentales Argument der theoretischen Biologie abgestellt. Dieses Argument zielt auf die grundlegende Bestimmung von Systemen, indem es in der Jeweiligkeit von Wahrnehmungsweisen die Jeweiligkeit von Umwelten und der in diese eingepassten Lebewesen begründet sein lässt. Damit wird einer bestimmten Ent-Anthropologisierung innerhalb der vergleichenden Sinnesphysiologie Vorschub geleistet, für die der Biologe Jakob von Uexküll (1864–1944) Pate steht. Dieser leitete mit der Behauptung und mit dem experimentellen Nachweis unterschiedlicher Wahrnehmungsweisen einen nicht zuletzt für die Systemtheorie folgenreichen – und durch Niklas Luhmann

26

Stefan Rieger

entsprechend gewürdigten – Theoretisierungsschub ein. Das Wahrnehmungs-, Bildbearbeitungs- und damit auch Seins-Primat des Menschen ist dabei durch von Uexküll nachhaltig relativiert worden. Um solche Unterschiede in der Wahrnehmung zu veranschaulichen (und nicht nur auf morphologische Differenzen der jeweiligen Organismen zurückzuführen), greift von Uexküll auf Strategien zurück, mittels derer dieses andere Sehen in der Sehweise des Menschen nachgestellt wird. Derlei Simulationen haben ihrerseits eine Vorgeschichte: Ob Narrationen aus dem Umfeld der phantastischen Literatur, für die alternative Wahrnehmungsweisen immer ein zentrales Thema waren, von den anderen Sichtweisen einfach nur erzählen, ob also Autoren wie Karl Ernst von Baer oder Kurd Laßwitz mit seiner Erzählung Aus dem Tagebuch einer Ameise die andere Zeit- und Sehordnung der Tiere im Gedankenexperiment bemühen oder ob Physiologen wie Sigmund Exner die Sicht der Fliege oder ob Biologen wie eben von Uexküll selbst die Sichtweisen unterschiedlicher Wesen ganz unmittelbar zur Ansicht gelangen lassen, bei all diesen Bestrebungen ist es vorrangig um eines zu tun: nämlich darum, die Frage zu klären, wie Lebewesen Gestalten in Raum und Zeit erkennen, wie sie Zeit modellieren, um sich so in ihrer jeweiligen Umwelt zu orientieren oder, genauer noch, um so die Jeweiligkeit einer Umwelt zuallererst zu konstituieren. Der nicht nur von von Uexküll bemühte russische Arzt, Biologe und Naturforscher Karl Ernst von Baer (1792–1876) spielt für die Modellierung von Wahrnehmungsweisen ein Argument ein, das auf eigenwillige Weise das Tier und unter der Hand die Bildtechnik sowie die Möglichkeiten der Kinematografie in Position bringt. Er tut dies in einer Arbeit mit dem Titel Die Abhängigkeit unseres Weltbilds von der Länge des Moments aus dem Jahre 1864 – zu einer Zeit also, zu der es, jedenfalls nach den Vorgaben gängiger Technikgeschichten, die Kinematografie schlicht noch nicht gab. Rund hundert Jahre später erfolgt eine Neuveröffentlichung dieser Abhandlung, und das in einem Kontext, der seinerseits für die Sensibilität für unterschiedliche Aspekte der Zeit nachgerade paradigmatisch sein sollte: die Kybernetik. Die Herausgeber der Reihe Grundlagenstudien aus Kybernetik und Geisteswissenschaft – u. a. Max Bense, Felix von Cube, Gerhard Eichhorn, Helmar Frank, Gotthard Günther, Abraham A. Moles und Elisabeth Walther – begründen ihre Neuveröffentlichung von 1962 einleitend wie folgt: „Eine in ‚subjektive Zeitquanten‘ (SQZ) oder in ‚Momente‘ gerasterte psychologische Zeit spielt in der kybernetischen Literatur und insbesondere in jener der Informations­psychologie eine große Rolle. N. Wiener (‚Cybernetics‘, 1948, S. 165) vermutet einen ‚zentralen Zeitgeber‘, der beim Menschen mit der Frequenz des Alpha-Rhythmus (8–12 Hz) verschiedene Gehirnfunktionen synchronisiere.

Zeitseeing. Zur biologischen Modellierung von Temporalität

27

1: Gerhard A. Brecher: Die Entstehung und biolo­gi­sche Bedeutung der subjektiven Zeiteinheit, – des Moments. Aus dem Institut für Umweltforschung, Berlin 1932, Tabelle 5.

J. Stroud und L. Augenstein (in: Q ­ uastler, ‚Information Theory in Psychology‘, 1955) betrachten im Einklang damit die Größenordnung 1/10 sec ‚als kleinstes mögliches Zeit­element der Erfahrung‘, welches sie ‚Moment‘ nennen, da dieses Wort ‚­bisweilen von Dichtern in einem ähnlichen Sinne … benutzt worden war‘ (Stroud, a. a. O., S. 180). Daß schon ein Jahrhundert früher K. E. von Baer diesen Begriff einführte und deshalb als Begründer der Momentlehre in die Psychologiegeschichte einging […], scheint den beiden amerikanischen Autoren unbekannt zu sein.“ 6 

Die Reihenherausgeber liefern im Ausgang von Karl Ernst von Baers Abhandlung die Kurzgeschichte einer Psychologie des Moments und der Zeitauflösung. Diese führt direkt zur frühen Systemtheorie, genauer noch zur theoretischen Biologie Jakob von Uexkülls, seinem Hamburger Institut für Umweltlehre und einer dort entstandenen Arbeit mit dem Titel Die Entstehung und biologische Bedeutung der subjektiven Zeiteinheit – des Moments seines Schülers Gerhard A. Brecher aus dem Jahr 1932. ◊ Abb. 1 Brecher bescheinigt von Baer, den Begriff einer absoluten Zeit durch ein zeitliches 6 Karl Ernst von Baer: Die Abhängigkeit unseres Weltbilds von der Länge des Moments. In: Grundlagenstudien aus Kybernetik und Geisteswissenschaft, 1962, Heft 3, Beiheft, S. 251–275, hier ohne Paginierung.

28

Stefan Rieger

Grundmaß ersetzt zu haben, das in den Organismen selbst verankert ist und das ein ganz besonderes Interesse am Tier begründet – unterschiedliche Tiere figurieren dabei als eine natürliche Verkörperung für die Unterschiedlichkeit solcher Grundmaße. „Dieses kleinste Zeitmaß benennt K. E. VON BAER den ‚Moment‘; nach ihm ist ein Moment ‚die Zeit, die wir brauchen, um uns eines Eindruckes auf unsere Sinnesorgane bewußt zu werden‘.“7

Derlei Feststellung ruft förmlich nach systematischer Erforschung, und genau die stellt von Uexküll denn auch in Aussicht. In großer Nähe zur Kinematografie gelangen Anordnungen zum Einsatz, die das, was innerhalb des Bildmediums technisch möglich ist, in biologischen Systemen nachstellen: Tiere, wie die am Hamburger Institut für Umweltforschung mit großem Findungsreichtum untersuchten Schnecken und Kampffische, fördern den Befund vom unterschiedlichen Zeitauflösungsverhalten unterschiedlicher Lebewesen experimentell zu Tage, jenen Befund also, der bei von Baer als eine bloße Science-Fiction aufgeschrieben und der bei von Uexküll nach experimenteller Bestätigung in Form seiner System-/Umwelttheorie ausgearbeitet wird.8 Oder mit den Worten von Uexkülls selbst: „Die Lehre von K. E. von Baer ist durch diese Errungenschaften der modernen Technik [Zeitraffer und Zeitlupe; S. R.] glänzend bestätigt worden.“9 Diese Allianz zwischen Medientechnik und biologischem Wissen ist symptomatisch: Tiere werden in ein epistemisches Feld geführt, und zwar als natürliche Verkörperung dessen, was in der Technik als Auflösung konzeptualisiert und entsprechend implementiert ist. Zugänglich wird so eine Bildverarbeitung, die im Modus von Slow Motion und Zeitraffer eine Welt kultureller, weil technisch vermittelter Bilder zum Vorschein gebracht hat, die in sehenden Tieren, aber auch und ausgerechnet in augenlosen Tieren wie den von Uexküll untersuchten Seeigeln ihre natürliche Umsetzung gefunden haben. Um diese allgemein gehaltene Veränderung möglichst drastisch ausfallen zu lassen, werden in der Gründungsschrift bei von Baer die entsprechenden Vorgaben bis an Extrempunkte ausgedehnt, die Konsequenzen an den Menschen zurückadressiert und dort systematisch als anderes Sehen durchgespielt – als Gedankenexperiment, das in der technischen Umsetzung ebenso wie im natürlichen Leben seine jeweilige Entsprechung hat. ◊ Abb. 2 7 Gerhard A. Brecher: Die Entstehung und biologische Bedeutung der subjektiven Zeiteinheit – des Moments, Berlin 1932, S. 205. 8 Zu den Details dieser Untersuchung vgl. Stefan Rieger: Schnecke. In: ders.: Benjamin Bühler: Vom Übertier. Ein Bestiarium des Wissens, Frankfurt a. M. 2006, S. 221–229. 9 Jakob von Uexküll: Theoretische Biologie, Frankfurt a. M. 1973, S. 85.

Zeitseeing. Zur biologischen Modellierung von Temporalität

„Jetzt erreicht ein Mensch ein hohes Alter, wenn er 80 Jahre alt wird oder 29,200 Tage mit den dazugehörigen Nächten. Denken wir uns einmal, sein Leben wäre auf den tausendsten Teil beschränkt. Er wäre also schon sehr hinfällig, wenn er 29 Tage alt ist. Er soll aber nichts von seinem innern Leben dabei verlieren, und sein Pulsschlag soll 1000 Mal so schnell sein, als er jetzt ist. Er soll die Fähigkeit haben, wie wir, in dem Zeitraum von einem Pulsschlag zum andern 6–10 sinnliche Wahrnehmungen aufzufassen. Er würde z. B. einer ihm vorbeifliegenden Flintenkugel, die wir nicht sehen, weil sie zu schnell ihren Ort verändert, um von uns an einer bestimmten Stelle gesehen zu werden, mit seinen Augen und ihrer raschen Auffassung sehr leicht folgen können.“ 10

29

2: Fliegendes Geschoss M88 mit den Wellen und Wirbeln der umgebenden Luft, aufgenommen nach dem Verfahren von E. Mach.

Im jeweiligen Moment bei Schnecken und Kampffischen, bei Pilgermuscheln und Seeigeln wird deutlich, wie wenig von der als apriorisch veranschlagten Raum- und Zeitordnung der Kant’schen Philosophie im Crossover der Seinsarten geblieben ist. Tiere stellen, vermittelt über Dispositive der Wahrnehmung, dem Menschen sein eigenes Moment, weil seine eigene Zeitauflösung vor Augen – diese menschliche Eigenart, die dazu führt, ab einer Bildfrequenz von 18 Einzelbildern jene Bewegung zu sehen, die die Medienwissenschaften und die Mediengeschichtsschreibung in ihrer Bewegtheit so sehr begleitet haben. Dabei fallen aber auch andere als nur quantitative Momente ab. Von Baers Narrativ leistet vielmehr einer Ästhetik der Geschwindigkeit Vorschub, die ihren Seinsgrund in einem Gedankenexperiment über die unterschiedlich lange Lebensdauer von Organismen hat. Dazu wird ein Modellorganismus erwogen, ­dessen skalierbarer Wahrnehmungsapparat die Konsequenzen unterschiedlich schneller Taktungen sichtbar macht. Wieder ist es das Beispiel einer Flintenkugel, der man unter den veränderten Bedingungen folgen könnte.11 10 von Baer (s. Anm. 6), S. 259. 11 Vgl. ebd.

30

Stefan Rieger

Von Baer variiert weiter, sein Text handelt von Minuten- und selbst von Sekundenmenschen und gelangt schließlich zu synästhetischen Grenzüberschreitungen physikalisch verbürgter Wahrnehmungswelten, in Bereiche etwa, in denen Töne nicht mehr gehört, sondern als Schwingungen gesehen werden. Mit den Wortfügungen, die Zeiteinheiten an den Menschen knüpfen, ist eine Verheißung vorweggenommen, die auf einem ganz anderen Schauplatz von sich Reden macht. In den auf Steigerung angelegten Szenarien des Transhumanismus und namentlich in den Zukunftsentwürfen bei Hans Moravec „sollen sich durch beschleunigte Wahrnehmung dank beschleunigter Intelligenz die Erlebnisse eines Menschenjahres in einer ‚Supermenschenminute‘ zusammenballen“.12 Aber das Gedankenspiel kennt bei von Baer nicht nur die zunehmende Verkürzung. Ausgehend vom menschlichen Pulsschlag moduliert er seine Zeitmaßüberlegungen auch in die andere Richtung: „Wir denken uns also, unser Pulsschlag ginge 1000 Mal so langsam, als er wirklich geht, und wir bedürften 1000 Mal so viel Zeit zu einer sinnlichen Wahrnehmung, als wir jetzt gebrauchen: dem entsprechend verliefe unser Leben auch nicht, ‚wenn’s hoch kommt 80 Jahr’, sondern 80,000 Jahr.“13

Wieder geht mit der Veränderung des Maßstabes eine Veränderung der Wahrnehmung einher – wie er an der visuellen Zugänglichkeit des Pflanzenwachstums hypothetisch dokumentiert („Wir würden das Wachsen wirklich sehen“).14 Im Rückgriff auf von Baer wird dessen Gedankenspiel zum festen Bestandteil einer theoretischen Biologie bei von Uexküll, die eine ganze Palette von Gründen für Unterschiedlichkeit und damit für die Relativität verschiedener Seinsarten anführt. Mit Verweis auf Zeitlupe und Zeitraffer attestiert von Uexküll dem Entomologen von Baer die Richtigkeit seiner Annahmen. Auch bei dem Umwelttheoretiker ist es einmal mehr das schon erwähnte Faszinosum einer Kugel, die in der Topik der gewählten Beispiele nicht fehlen darf – ein Gegenstand, der wie wenige andere Aufmerksamkeit für Fragen seiner Sichtbarkeit auf sich zog und der nach seiner technischen Domestizierung als bullet-time-Effekt den metaphorischen Rahmen für eine ganze eigene Form der Kinowahrnehmung abgeben sollte.

12 Zu dieser Paraphrase von Moravecs Visionen vgl. Philipp von Becker: Der neue Glaube an die Unsterblichkeit: Transhumanismus, Biotechnik und digitaler Kapitalismus, Wien 2015, S. 45. 13 von Baer (s. Anm. 6), S. 264. 14 Ebd., S. 265.

Zeitseeing. Zur biologischen Modellierung von Temporalität

31

3: Screenshot aus dem Film Matrix.

IV. Epistemologischer Showdown: bullet time

Diese Gemengelage macht die epistemische Brisanz solcher Zeitmodellierungen deutlich, und zwar unabhängig davon, ob diese Auflösung nur imaginiert, ob sie technisch nachgestellt oder ob sie als natürliche Umsetzung verschiedenen Lebewesen unterstellt wird. In Filmen wie Matrix, und gebrochen durch sämtliche Spielarten der Virtualisierung von Wahrnehmung und Leben, wird möglich, was als Sekundenmensch nur gedacht und was in den trickreichen Anordnungen zur Momentbestimmung bei Schnecken (circa 1/4 Sekunde) und Kampffischen (circa 1/30 Sekunde) nur experimentell nachgestellt werden konnte. Wenn Neo sich unter den Schüssen eines Agenten wegduckt oder wenn er, im Kugelhagel stehend, mit den Geschossen spielt, indem er ihre Geschwindigkeit in der eigenen Wahrnehmung und damit auch für den Zuschauer beliebig kontrolliert, ist eine Manipulation der Zeit und damit ein wichtiges Moment der Kybernetik selbst aus dem Experiment gelöst und ästhetische Praxis geworden. ◊ Abb. 3 Freigegeben zur Variation dürfen die Standardnormalparameter mit einer Bildrate von 24 Hertz durch sämtliche Sparten nicht nur ihrer technischen Manipulation, sondern auch ihrer natürlichen Verkörperung dekliniert werden. Das beschert solchen Anordnungen stellvertretend für andere Formen animalischer Zeitmodellierung eine Aufmerksamkeit, die auf sehr unmetaphorische Weise das Leben unterschiedlicher Seinsarten im Modus der jeweiligen Momente sichtbar macht. Aber die Aufmerk-

32

Stefan Rieger

samkeit ist nicht nur auf die bloße Visualisierung beschränkt. Vielmehr machen die Techniken der Zeitmanipulation komplexe Bewegungsabläufe auch handhabbar – ob diese für den Erwerb von Kampf- oder Tanzbewegungen eingesetzt werden, ist demgegenüber zweitrangig.15 Die Modellierung von Zeit ist ein eindrucksvoller Beleg für die Mobilität solcher Prozesse und Anliegen: War es etwa der Vorsatz des Kulturfilms, einem Medium zur Popularisierung wissenschaftlicher Erkenntnisse und zugleich einem Reflexionsmedium der frühen Kinematografie,16 den bewegten Bildern einen eigenen Raum kultureller Wahrnehmung und Wertschöpfung zu eröffnen und mittels Zeitraffung und -dehnung seinem eigenen Bildungsauftrag nachzukommen, so greift die Modellierung von Zeit sowohl auf die Phantasmatik der Literatur zurück als auch auf die Filmästhetik vor. Unter Beteiligung von Philosophie und Physiologie, von Biologie und Ästhetik, von Science und Fiction schließt sich um die Belange der biologischen Modellierung ein Wissensverbund, der disziplinär nicht einzuhegen ist. Die Allianzen zwischen Wissen und Technik fördern die Momente einzelner Lebewesen zu Tage und – damit erweisen sie eine Mobilität weit über solche wissenschaftsinternen Homologien hinaus – sie erschließen einen Raum anderer Wahrnehmungen und deren phantasmatischer Ausschreitung. Hier, an solchen Schnittstellen zwischen historischer Semantik und Medientechnik, zwischen Wissenschaftsgeschichte und Kulturgeschichte ist eine Interdisziplinarität verortet, die aller antragsrhetorischen Forderung und allen Legitimationskrisen zum Trotz ein selbstbewusstes Umgehen mit einer Geschichte des Wissens ermöglicht – mit ihren Träumen und ihren Utopien, mit der Mühsal und Kontingenz der Forschung, und nicht zuletzt mit der Vielfalt ihrer Schauplätze. Ob Großstadt oder Australien, ob Aquarium oder Labor, ob in einer als träg getaktet gewerteten Gegenwart oder in der extrem verdichteten Supermenschenminute einer transhumanistischen Zukunft: Sie alle modellieren Temporalität und machen Eigenzeiten an der Schnittstelle von künstlicher Nachstellung oder natürlicher Verkörperung verhandelbar.

15 Vgl. für den Kampfsport Nicole Bandow: Bestimmung der Antizipationsfähigkeit im Karate-Kumite unter Nutzung der virtuellen Realität, Berlin 2016, und für den Tanz Luis Molina-Tanco, Carmen García-Berdonés, Arcadio Reyes-Lecuona: The Delay Mirror: a Technological Innovation Specific to the Dance Studio. In: MOCO ’17. Proceedings of the 4th International Conference on Movement Computing, S. 9:1–9:2. 16 Vgl. dazu Edgar Beyfuss, Alfred Kossowsky (Hg.): Das Kulturfilmbuch, Berlin 1924.

Christian Kassung

Die Flügel der Concorde. Analogsimulation als Sichtbarmachung von Störung Wissensknoten: Flüssigkeiten und Gase

Bereits in der ersten Hälfte des 18. Jahrhunderts konnte der englische Mathematiker Benjamin Robins mithilfe eines ballistischen Pendels feststellen, dass die maximale Geschwindigkeit eines Geschosses nicht bloß von der Feuerkraft des Geschützes, sondern auch und entscheidend von dessen Form abhängt.1 Ein Geschoss ist wie ein Schiff, das sich durchs Wasser schiebt, wobei allerdings der Widerstand des M ­ ediums Luft erst bei sehr viel größeren Geschwindigkeiten relevant wird. Trotzdem war damit der entscheidende Paradigmenwechsel eingeleitet: Wer schnelle Autos und Flugzeuge bauen möchte, muss deren Form genauso sorgfältig planen wie ein Schiffskonstrukteur. Beginnen wir also mit den Flüssigkeiten bzw. dem Wissen der Hydrodynamik. Flüssigkeiten befinden sich im Gleichgewicht, wenn jeder Widerstand gegen Formänderung gleich Null ist. Das heißt nichts anderes, als dass der Druck in der Flüssigkeit überall senkrecht auf der Fläche steht, auf die er wirkt. Allerdings sind Flüssigkeiten nahezu inkompressibel, wohingegen Gase stark kompressibel sind. Ein Schiff kann noch so schnell fahren, es wird das Wasser nicht zusammenpressen. Bei einem Flugzeug hingegen muss mit diesem Effekt buchstäblich gerechnet werden. Solange jedoch keine merkliche Volumenänderung eintritt, lassen sich Gase (zunächst) wie inkompressible Flüssigkeiten behandeln.2 Eine vollständige Kenntnis über die Bewegung einer Flüssigkeit wäre dann gegeben, wenn zu jedem Zeitpunkt der Ort und die Geschwindigkeit eines jeden Teilchens bekannt sein würden. Dies ist jedoch aufgrund der extrem hohen Teilchenanzahl und der damit verbundenen (Über‑)Komplexität schlichtweg unmöglich. Es soll daher im Folgenden einfach davon ausgegangen werden, dass sich in einem ausgewählten Bereich, der zwar klein gegenüber dem Fahrzeug ist, sehr viele Moleküle mit einer bestimmten mittleren Geschwindigkeit in eine bestimmte mittlere Richtung bewegen. Unter dieser Voraussetzung kann deren Dichte bestimmt werden, also das Verhältnis von Masse zu Volumen. Die Dichte besagt, wie viele Moleküle sich beispielsweise in einem Würfel der Kantenlänge 1 cm befinden. Auf ein solches System von Würfeln, auch Strömungszustand genannt, wendete in der zweiten Hälfte des 18. Jahrhunderts erstmals der Mathematiker Leonhard Euler die Newton’schen Kraftgesetze an.

1 Vgl. Christian Kassung: Das Pendel. Eine Wissensgeschichte, München 2007, S. 91–100. 2 Vgl. Ludwig Prandtl: Tragflügeltheorie. Mitteilung I. In: ders., Albert Betz: Vier Abhandlungen zur Hydrodynamik und Aerodynamik, Göttingen 2010, S. 9–35, hier: S. 17.

34

Christian Kassung

„Die Bewegungsgesetze für einen sich selbst überlassenen Körper, in Bezug auf die Fortsetzung der Ruhe oder Bewegung beobachtet, gelten eigentlich für unendlich kleine Körper, die als punktförmig angesehen werden können. In Körpern mit einer endlichen Größe, deren einzelne Teile unterschiedliche Bewegungen ausführen, versucht zwar jeder Teil diesen Gesetzen zu gehorchen, jedoch ist dies aufgrund der Beschaffenheit des Körpers nicht immer möglich. Dieser folgt daher selbst einer Bewegung, die aus den Bestrebungen seiner Einzelteile zusammengesetzt ist.“ 3

Mit anderen Worten konstruierte Euler 1755 eine Bewegungsgleichung für Strö­mungs­ systeme, die als partielle Differenzialgleichung dargestellt werden kann:

Auf der linken Seite dieser Gleichung steht, wie sich die Geschwindigkeit des kleinen Würfels verändert, also wohin er sich bewegen wird. Auf der rechten Seite stehen die auf den Würfel einwirkenden Kräfte: die äußeren Kräfte wie Gravitation – der Würfel wird ja aufgrund seiner Schwere auch nach unten gezogen – und die Druckkraft.4 Hiervon ausgehend, ließe sich fragen, wie ein solcher Strömungszustand visualisiert werden kann. Nehmen wir an, jeder der kleinen Würfel wäre mit einem Lämpchen ausgestattet und das ganze System würde einmal pro Sekunde fotografiert. Während der Belichtungszeit der Kamera bewegen sich die Lämpchen, so dass sie Striche in die Richtung ihrer Bewegung zeichnen. Und zwar umso längere Striche, je schneller sie sich bewegen. Das Ergebnis ist ein perfektes Vektorfeld v(r), das keinerlei mathematische Kenntnis darüber voraussetzt, was ein Vektor ist. Verbindet man die Geschwindigkeitsvektoren mit einem Bleistift, ergeben sich die sogenannten Stromlinien. Diese Linien verlaufen überall in der Richtung der Strömung, das heißt, deren Tangenten zeigen stets in die Richtung des Geschwindigkeitsvektors des zugehörigen Würfelchens. Im realen Laborexperiment lässt sich diese Sichtbarmachung durch Fähnchen im Windkanal oder feine Rauchdüsen bewerkstelligen. ◊ Abb. 1 Was zu der weiterführenden Frage führt, ob dem Muster der Stromlinien noch weiteres physikalisches Wissen eingeschrieben ist.

3 Leonhard Euler: Mechanica Sive Motus Scientia Analytice Exposita. Petropoli: Ex Typographia Academiae Scientiarum, Bd. 1, 1736, S. 37. Übers. C. K. 4 Vgl. Leonhard Euler: Principes généraux de l’état d’équilibre des fluides. In: Histoire de l’Académie Royale des Sciences et des Belles-Lettres de Berlin, Berlin 1757, S. 217–273.

Die Flügel der Concorde. Analogsimulation als Sichtbarmachung von Störung

35

Nun gilt in Flüssigkeiten nicht nur die Kraft- oder Impulserhaltung im Newton’schen Sinne, wie sie Euler reformuliert hatte, sondern auch das Gesetz der Massenerhaltung. In Strömungen verschwinden keine Moleküle, und es tauchen auch keine neuen Teilchen auf. Um die Massenerhaltung oder Kontinuitätsgleichung auf Strömungszustände anzuwenden, wird eine sogenannte eindimensionale Strömung betrachtet, indem aus einer Stromröhre nicht mehr Würfel, sondern Stromfäden herausgeschnitten werden, also gedachte 1: Sichtbarmachen der Strömung um einen abgestumpften Pfeilflügel mit Querruder, 1942. Röhrchen entlang der Strömung, durch die sich die Würfel bewegen und, das ist entscheidend, deren Geschwindigkeit, Druck und Dichte konstant sind. Die Stromfäden sind also die Materialisierung der Stromlinien. Entlang dieser Stromlinien nun ist die Strömung stationär: Ihre Geschwindigkeit verändert sich nicht, das heißt, in der Euler-Gleichung ist der Ausdruck ∂v/∂t gleich Null. Mittels Integralrechnung verwandelt sich dann die Euler-Gleichung in nachfolgenden Ausdruck, den Vater Johann und Sohn Daniel Bernoulli zuvor in den beiden Werken Hydrodynamica (1738) und Hydraulica (1732/1739) publiziert hatten:

Es gilt also die Konstanz der Bernoulli’schen Summe aus dynamischem Druck aufgrund der Strömung, Gravitationsdruck und statischem Druck entlang der Stromlinie. Mit anderen Worten ist die Geschwindigkeit dem Querschnitt eines Stromfadens umgekehrt proportional. Wo also die Geschwindigkeit groß ist, da drängen sich viele Stromfäden zusammen. Die Zahl der Stromfäden pro Fläche ist ein Maß für die Strömungsgeschwindigkeit an diesem Ort. Damit ist ein erster konkreter Hinweis auf das gegeben, was wir den Stromlinien ansehen können: Je dichter diese zusammenliegen, umso schneller ist die Bewegung an dieser Stelle. Und umso höher ist der Druck an dieser Stelle. Stromlinien visualisieren nicht nur die Richtung einer Strömung, sondern auch deren Geschwindigkeitsverteilung: Wer Beschleunigung gestalten will, der muss Linien verdichten. Womit wir zu den Stromlinien und deren Sichtbarkeit zurückgekehrt wären.

36

Christian Kassung

Schallformen: Parabeln und Hyperbeln

Im Gegensatz zu seinem Vater ging es Daniel Bernoulli darum, konkrete experimentelle Beobachtungen zu erklären. Dies ist besonders wichtig, weil es zeigt, wie eng Mathematik und Empirie, Episteme und Technik in der Hydrodynamik miteinander verknüpft sind. Dies gilt auch für die Sichtbarmachung der Schalldynamik, die nicht in den Laboren der Physiker und Ingenieure beginnt, sondern auf den Schlachtfeldern des Krimkriegs 1864 und des Deutsch-Französischen Kriegs 1870/71. Dort trat eine neue Art von Schussverletzungen auf: zerplatzte Knochen, zerrissene Weichteile, großflächige Austrittswunden. Diese ließen unmittelbar erkennen, dass die Geschosse der modernen Gewehre eine Sprengwirkung besaßen und nicht nur ein Loch in die Körper der Feinde bohrten, das in etwa ihrem Querschnitt entsprach. Der belgische Physiker Louis Melsens vertrat bereits 1872 die These, dass die Geschosse an ihrer Spitze quasi ein zweites Geschoss aus Luft mit sich führten. Es waren gar nicht die Kugeln selbst, die durch die Körper drangen, sondern eine Luftschicht, die jeden direkten Kontakt zwischen Mensch und Kugel verhinderte. Das Problem an Melsens Hypothese einer „projectile-air“ war das Fehlen eines sichtbaren Beweises und eine Strömungstheorie, die sich bis dato auf die inkompressiblen Fluide beschränkte. So beginnen die Versuche von Ernst Mach und Peter Salcher, den Flug einer Gewehrkugel fotografisch aufzuzeichnen, genau mit diesem Problem.5 1884 gelingen die ersten Aufnahmen einer Kugel im Flug, doch ohne dass die vom Projektil mitgeführten Luftmassen aufgezeichnet werden. In der Folge greifen beide auf ein Verfahren zurück, das August Toepler Anfang der 1860er-Jahre entwickelt hatte: die sogenannte Schlierenmethode. Eine Schliere ist nichts anderes als eine Stelle in einem lichtdurchlässigen Medium, an dem sich die Dichte verändert. Schlieren entstehen beispielsweise in alten Glasscheiben, in denen das Licht aufgrund unterschiedlicher Dichten in verschiedene Richtungen gebrochen wird. In gleicher Weise verändert eine Gewehrkugel die Dichte der Luft, wenn ihre Geschwindigkeit im Bereich der kritischen Schallgeschwindigkeit liegt. Mach und Salcher verwenden nun einen von der Gewehrkugel selbst ausgelösten Funken, um die Kugel zu beleuchten. ◊ Abb. 2 Das durch die Schlieren hindurchtretende Licht wird von einer Sammellinse an einer Blendenkante gebündelt und fotografiert. Je nach Stellung dieser Blendenkante werden die regulär gebrochenen oder die irregulär gebrochenen Lichtstrahlen ausgeblendet. Der Funke leuchtet für etwa eine fünfhunderttausendstel Sekunde auf – eine Zeit, innerhalb derer die Projektile unge 5 Vgl. hierzu beispielhaft ausführlich: Christoph Hoffmann, Peter Berz (Hg.): Über Schall. Ernst Machs und Peter Salchers Geschoßfotografien, Göttingen 2001.

Die Flügel der Concorde. Analogsimulation als Sichtbarmachung von Störung

37

fähr einen Millimeter weit fliegen. Da alles im Dunkeln liegt und die Kugel den Blitz direkt auslöst, muss kein Kameraverschluss mit dem Kugelflug synchronisiert werden. Im Mai 1886 liegen die ersten Aufnah- 2: Versuchsanordnung zur Geschossfotografie. men vor. Sie zeigen eindeutig, dass eine Schallwelle eine Störung der Dichteverteilung der Luft darstellt und nicht etwa eine Masse, die durch den Raum transportiert wird. Neben den Schlieren am Kopf des Projektils fallen aber noch weitere Streifen auf, die an beiden Seiten des Projektilkörpers ansetzen und geradlinig nach hinten verlaufen. Sie sehen aus wie eine dreidimensionale Bugwelle eines Schiffs und werden deshalb Wellenkegel genannt. Es kommt zu zwei berühmten Aussagen. Erstens: „Die Luftmasse erscheint als ein das Projectil einhüllendes Rotationshyperboloid, dessen Achse in der Flugbahn liegt.“ 6 Die Form des Kegels ist also eine Hyperbel, eine fest definierte, einfache mathematische Kurve. Und zweitens: Der Sinus des Winkels zwischen Wellenkegel und Projektilachse ist gleich dem Quotienten von Schallgeschwindigkeit und Projektilgeschwindigkeit:7

Je schneller also die Kugel fliegt, umso kleiner der Winkel der Stoßwelle. Die Pointe der Schlierenmethode ist somit eine zweifache. Erstens kann man die Verdichtungen der Luft direkt sichtbar machen und damit auf die Geschwindigkeiten zurückschließen. Zweitens zeigt auch die Schlierenmethode Stromlinien und ist so gesehen entbehrlich. Es genügt theoretisch ein Objekt im Windkanal und etwas Rauch.8 Die Dinge weitergedacht, ergibt sich jedoch zwangsläufig ein nicht geringes Problem: Wie soll man und kann man überhaupt einen Windkanal bauen, bei dem die Luft auf Überschallgeschwindigkeit beschleunigt wird? Kann ein Medium, die Luft, schneller strömen als die Ausbreitungsgeschwindigkeit von Information, dem Schall, in diesem Medium? Zur Jahrhundertwende gab es nicht wenige Stimmen, die dies verneinten. Und wie steht es um das Verhältnis von Technik und Ästhetik, wenn es doch gelänge, den Geschwindigkeitsbereich zu verlassen, in dem Stromlinien für gewöhnlich zu beobachten sind? 6 Ernst Mach, zit. nach Hoffmann, Berz (s. Anm. 5), S. 30. 7 Vgl. Ernst Mach, Peter Salcher: Photographische Fixirung der durch Projectile in der Luft eingeleiteten Vorgänge. In: Sitzungsberichte der Kaiserlichen Akademie der Wissenschaften, 1887, Band 95, S. 764–780. 8 Vgl. hierzu auch das Forschungsprojekt zum Windtunnel an der Zürcher Hochschule der Künste, z. B. jüngst in: Florian Dombois, Mario Schulze (Hg.): Wind Tunnel Bulletin, 2018, Heft 8.

38

Christian Kassung

Formwissen: V2 und Concorde

Kaum ein Flugzeug hat die Ästhetik der Stromlinie derart nachhaltig geprägt wie die Concorde. Mit dem ersten Abheben des Prototyps 001 am 2. März 1969 – genau 61 Tage zuvor hatte die russische TU-144 bereits ihren Jungfernflug absolviert – erhielt der Überschallflug seine ikonische Form: den elegant geschwungenen Deltaflügel. Fortan war ein ziviles, wenn auch kostspieliges Durchbrechen der Schallmauer für Jedermann möglich. Der subsonische Geschwindigkeitsbereich ging nahtlos in den transsonischen über, zumindest solange, bis die Concorde ihren zweifachen ‚Heldentod‘ sterben musste: Der Unfall vom 25. Juli 2000 – eine schnöde Reifenpanne aufgrund eines Metallteils auf der Startbahn – durfte den Mythos nicht beenden, weshalb unter enormen Kosten die Tanks verstärkt und stabilere Reifen entwickelt wurden: für knappe zwei letzte Jahre Flugzeit.9 Was man auch an diesem ‚Heldentod‘ sieht: Die Concorde war ein zutiefst politisches Flugzeug. Entstanden im Kalten Krieg und in direkter Konkurrenz zur russischen Tupulev TU-144 ging es um die aeronautische Stärkung und Modernisierung Europas gegenüber Amerika wie um die westliche Beherrschung des irdischen Luftraums.10 Doch die Geschichte der Concorde fängt sehr viel früher an. Bereits 1943 entwickelte die Britische Regierung eine Konzeptstudie für ein Überschallpassagierflugzeug, allerdings wurden diese Ideen erst in den 1950er-Jahren wieder aufgegriffen, der Kooperationsvertrag zwischen Frankreich und England dann 1962 unterzeichnet. 1976 begann der regelmäßige Flugdienst, also nach über 13 Jahren Entwicklungszeit – die Konzeptphasen nicht eingerechnet. Über die Kosten gibt es unterschiedliche Angaben, ein realistischer Mittelwert liegt bei 5 Milliarden Dollar. Ein Gutteil dieser Kosten ist in die Entwicklung der Flügelform gegangen. Sie ist das Ergebnis von 5.000 Stunden Windkanal.11 Wie ist dann aber die Aussage zu verstehen, mit der Kenneth Owen in seinem Concorde-Buch das Kapitel über die Form der Tragflächen beginnt: „Wise men of aviation claim that ‘If an aeroplane looks right, it is right.’ “ 12 Oder Morien Morgan, der Direktor der RAE, der behauptet: „No one can question the loveliness.“ 13 Gibt es etwa eine tiefere Verbindung zwischen der 9 Zur medialen und mythischen Dimension des Unfalls vgl. Christian Kassung (Hg.): Die Unordnung der Dinge. Eine Wissens- und Mediengeschichte des Unfalls, Bielefeld 2009. 10 Vgl. Erik M. Conway: High-Speed Dreams. NASA and Technopolitics of Supersonic Transportation, 1945–1999, Baltimore, MD 2005, S. 66f. und Brian Calvert: Flying Concorde, St John’s Hill (Shrewsbury) 1982, S. 145–152. 11 Vgl. Ken Larson: To Fly the Concorde, Pennsylvania 1982, S. 44. 12 Kenneth Owen: Concorde. New Shape in the Sky, Hitchin (Hertfordshire) 1982, S. 33. 13 Morien Morgan: A New Shape in the Sky. In: The Aeronautical Journal of the Royal Aeronautical Society, 1972, 76, S. 1–18, hier: S. 1.

Die Flügel der Concorde. Analogsimulation als Sichtbarmachung von Störung

39

visuellen Wahrnehmung einer Fahrzeugform und deren hydro- oder aerodynamischen Eigenschaften? Kann man Physik schlichtweg sehen? Am 5. November 1956 machte Dietrich Küchemann, der seine Doktorarbeit am Göttinger Kaiser-Wilhelm-Institut für Strömungsforschung bei Ludwig Prandtl geschrieben hatte und nach dem Zweiten Weltkrieg nach England ausgewandert war, auf der ersten Sitzung des Supersonic Transport Aircraft Committee den entscheidenden Vorschlag: eine deltaförmig gepfeilte Tragfläche, die im vorderen Teil konvex, im hinteren Teil konkav geschwungen ist – wie die flamboyante Form der Spätgotik.14 Zuvor hatte man unter anderem eine m-förmige Tragfläche diskutiert.15 Der Gedanke dahinter: Je schneller ein Flugzeug fliegen soll, umso geringer muss der Strömungswiderstand der Tragfläche gemacht werden. Soweit teilt das Flugzeug das Problem eines jeden schnellen Fahrzeugs. Die beiden zentralen Lösungsstrategien heißen Pfeilung und Flächenregel. Die Pfeilung ist ein Konzept, das bereits 1935 von Adolf Busemann anlässlich des hoch politischen 5. Volta-Kongresses der Accademia d’Italia in Rom vorgetragen, bis zum Ende des Zweiten Weltkriegs jedoch nur innerhalb Deutschlands weiterentwickelt und angewendet wurde. Liegt ein Flügel rechtwinklig zur Rumpfachse, dann wird er auch in Normalrichtung von den Luftteilchen angeströmt. Neigt man aber den Flügel um einen Winkel φ nach hinten, dann kann die Anströmgeschwindigkeit in eine normale und eine tangentiale Komponente zerlegt werden, wobei nur die normale Komponente wirksam ist: Der Strömungswiderstand verringert sich deutlich, weshalb schnelle Autos an ihrer geneigten Windschutzscheibe erkennbar sind. Die kritische Geschwindigkeit, bei welcher der Strömungswiderstand im Bereich der Schallgeschwindigkeit plötzlich steil ansteigt, kann über die Pfeilung verschoben werden. Busemann formuliert mathematisch: Für die wirksame Machzahl gilt M=M0 cos φ. Das Wissen um die Pfeilung war von hohem militärischem Wert, weshalb die Patentierung 1939 geheim erfolgte, also ohne Bekanntmachung und Eintragung in die Patentrolle. Dem Patent waren umfangreiche Windkanalversuche von Alfred Betz in Göttingen zwischen 0,5 und 1,2 Mach vorausgegangen.16 Unabhängig von den intensiven deutschen Entwicklungen veröffentlichte Robert T. Jones erstmals 1945 eine theoretische Arbeit über den Pfeilflügeleffekt. Nach Kriegsende wander 14 Vgl. Dietrich Küchemann, Eric Maskell: Controlled Separation in Aerodynamic Design. In: RAE Technical Memorandum Aero, März 1956, Heft 463. 15 Zur Genealogie der verschiedenen Tragflächenkonzepte vgl. Morgan (s. Anm. 13), S. 3–6. 16 Vgl. Werner Heinzerling: Flügelpfeilung und Flächenregel, zwei grundlegende deutsche Patente der Flugzeugaerodynamik. In: Arbeitskreis Luftverkehr der TU Darmstadt (Hg.): Neuntes Kolloquium Luftfahrt an der TU Darmstadt, Darmstadt 2002, S. 1–44, hier S. 5f.

40

Christian Kassung

ten Personen, Geräte und Wissen um den Hochgeschwindigkeitsflug zügig in alliierte Hände. Allerdings heißt Pfeilung zugleich, dass der Auftrieb verringert wird, wodurch das Flugzeug bei geringen Geschwindigkeiten möglicherweise nicht mehr stabil bleibt. Und genau hier liegt der zentrale Unterschied zum Auto, dessen Form auf hohe Geschwindigkeiten hin optimiert werden kann – weshalb Rennfahrzeuge der Formel-1 ähnliche Grundformen aufweisen. Dagegen stellt jedes Flugzeugdesign grundsätzlich einen Kompromiss dar, und genau deshalb wurde so lange um die Flügelform der Concorde gerungen: „no single speed could be taken as the design speed since 3: Deltaflügel mit gerader Oberfläche bei 55° Anstellwinkel. subsonic, transonic and supersonic performance were all important.“ 17 Was die Concorde nun bei geringer Geschwindigkeit in der Luft hält, ist nicht ihr Auftrieb, sondern sind Luftwirbel, die gezielt an der Vorderkante der Tragfläche entstehen und das Flugzeug nach oben ziehen, natürlich bei entsprechend erhöhtem Luftwiderstand. ◊ Abb. 3 Dies ist der Punkt, an dem die Geschichte der Concorde-Tragflächen wieder zu Maskell und Küchemann zurückfindet: In ihrem Papier von 1956 greifen sie auf die Pfeilung von Busemann/Jones zurück, schlagen aber gleichzeitig vor, „that one could positively stimulate a separation pattern that could be made to generate a stable system of free vortex layers that would exhibit a regular growth with increasing incidence“.18 Anders formuliert: Bei jedem Tragflügel treten Strömungsablösungen auf, und zwar für gewöhnlich dort, wo sich zum Tragflächenende hin der Querschnitt verringert und deshalb nach Bernoulli einen Druckanstieg erzwingt. „The real issue was not wether separation occured or not, but where it occured.“ 19

17 Owen (s. Anm. 12), S. 41. 18 Owen (s. Anm. 12), S. 38. 19 Morgan (s. Anm. 13), S. 7. Vgl. auch Eric C. Maskell: Flow Separation in Three Dimensions. In: RAE Report Aero, Nov. 1955, 2565.

Die Flügel der Concorde. Analogsimulation als Sichtbarmachung von Störung

41

Ins Visuelle zurückübertragen heißt das: Je stärker die Luft oberhalb der Tragflächen kondensiert, je mehr Schlieren man dort sieht, umso besser geht die Rechnung auf. ◊ Abb. 4 Die BernoulliGleichung wird also erneut sichtbar. Dicht aneinandergepresste Stromlinien bedeuten zwangsläufig einen höheren Druck, womit die Trag- 4: Vortex lift der Concorde. fläche nach oben gezogen wird. Damit ist die Form der Concorde theoretisch vollständig, denn die Luftwirbel entstehen bei großem Anstellwinkel, weshalb die Nase der Concorde abgesenkt werden muss, damit die Piloten bei der Landung überhaupt etwas sehen können. Doch das zentrale Problem an der Strömungsablösung bleibt, dass sie als chaotisches Verhalten weder exakt berechenbar noch exakt vorhersehbar ist. Sie ist das Gegenteil von schönen stationären Stromlinien: hässliche Turbulenzen, die sich aufgrund von kleinsten Flügelunebenheiten stark verändern und deshalb im Windtunnel auch nur bis zu einem gewissen Grad simuliert werden können – je größer das Modell, umso genauer. Der Maßstab der verwendeten Concorde-Modelle reichte von 1/75 bis 1/6. Ziel dieser Visualisierungen war es, die vormals als hässlich erachteten Luftverwirbelungen nicht zu minimieren, sondern sie vielmehr kontrolliert auf die Flügeloberseite zu zwingen. Das zweite zentrale Designkonzept schneller Flugzeuge ist die sogenannte Flächenregel. In Dessau entwickelte der österreichische Ingenieur Otto Frenzl für die Firma Junkers Flugzeug- und Motorenwerke den Hochgeschwindigkeitswindkanal HK 900, um den Luftwiderstand unterschiedlicher Flügelformen zu untersuchen. Dabei entdeckte er, dass sich der Strömungswiderstand minimieren lässt, wenn die Querschnittsflächen des Flugzeugs in Längsrichtung möglichst stetig an- und dann möglichst stetig absteigen, bei so geringem Gesamtquerschnitt wie möglich. ◊ Abb. 5 Was bedeutet dies für die sichtbare Form eines Flugzeugs? Beispielsweise erhöht sich an der Stelle des Rumpfes, an der die Flügel ansetzen – zumal, wenn diese nicht gepfeilt sind – der Querschnitt sehr stark. Möchte man derartige Diskontinuitäten gemäß der Flächenregel vermeiden, so bietet es sich an, im Bereich der Flügel den Querschnitt des Rumpfes zu verringern. Mit anderen Worten: Ein schnelles Flugzeug besitzt – genau wie die Coca-Cola-Flasche seit 1915 – eine schmalere Taille. Zwar ist diese bei der Concorde aufgrund ihres langgestreckten Rumpfes kaum zu erkennen, aber es ist vielleicht gerade diese unmerkliche Verjüngung, die formgebend wirkt. ◊ Abb. 6

42

Christian Kassung

Was haben nun diese beiden theoretischen Konzepte der Pfeilung und der Flächenregel mit den Stromlinien zu tun? Der entscheidende Punkt ist, dass die Form der Concorde nicht errechnet wurde. Es gab noch keine Computer, die in der Lage gewesen wären, die numerische Strömungssimulation durchzuführen. Die Form der Concorde basiert also nicht primär auf den theoretischen Konzepten von Pfeilung und Flächenregel, sondern auch und vor allem auf den experimentellen Techniken und Praktiken, die zur Entwicklung dieser Konzepte geführt haben: der Simulation im Windkanal mit Visualisierung der Strömungen und analoger Messung der Kraftwirkungen. Insofern, ausgehend von der Kontinuitität der formerzeugenden Praktiken, ist die Concorde – bei aller Unterschiedlichkeit der Gestalt – ein Nachfahre der V2. Gleichzeitig könnten die Unterschiede nicht größer sein: Vergeltungswaffe versus ziviles Verkehrsmittel, Rakete versus Flugzeug, begrenzte versus freie Flugbahn und so weiter. Doch wären beide Flugkörper nicht möglich gewesen ohne einen Ultraschallwindkanal, in dem die Simulation eines Hochgeschwindigkeitsflugs mit Hunderten von unterschiedlichen Modellen möglich ist. Was zu Ludwig Prandtl und nach Göttingen zurückführt. Das Medium der Stromlinie ist die Luft. Erst deren Kompressibilität erlaubt es, dass sich Informationen darin bis zu einer gewissen Geschwindigkeit ausbreiten. Nun gibt es aber Dinge, die sich schneller bewegen können als das Medium selbst und damit dessen Gesetze schlichtweg auf den Kopf stellen: Was passiert, wenn ein Ding seine eigene Welle überholt, schneller fliegt als die Spuren, die es hinterlässt?20 Welche Gesetzmäßigkeiten treten hier an die Stelle der einfachen Verhältnisse Bernoullis? Und schließlich: Müsste die Geometrie, die Form dieser schnellsten Geschwindigkeit nicht eine grundsätzlich andere sein?21 Eine Antwort auf diese Fragen kann nur ein Windkanal geben, der mit Überschallgeschwindigkeit arbeitet. Windkanäle gibt es seit der zweiten Hälfte des 19. Jahrhunderts, doch mit dem Problem der Überschallströmung von Gasen beschäftigte sich nach der Jahrhundertwende erstmals der Physiker Prandtl. So entsteht 1904 der Windkanal der Modellversuchsanstalt für Aerodynamik der Motorluftschiff-Studiengesellschaft in Göttingen. Hier ging es zunächst um die beste Form für Luftschiffe, also für extrem langsame Fahrzeuge. Im Verlauf des Ersten Weltkriegs kam dann die Gestaltung von Flugzeugrümpfen und -tragflächen hinzu, die Geschwindigkeit nahm 20 Vgl. zu dieser medientheoretischen Überlegung auch Peter Berz: Mach 1. In: Hoffmann, Berz (s. Anm. 5), S. 381–453, 397f. 21 Ich lasse im Folgenden den sehr wichtigen Aspekt der Materialität außen vor, vgl. hierzu beispielsweise Susanne Falk, Roland Schwarz: Aluminium – Metall der Moderne. In: Werner Schäfke et al. (Hg): Aluminium. Das Metall der Moderne. Gestalt Gebrauch Geschichte, Köln 1991, S. 27–70.

Die Flügel der Concorde. Analogsimulation als Sichtbarmachung von Störung

43

also zu. Als der Vertrag von Versailles den Wiederaufbau der Luftstreitkräfte verbot, wurden die Windkanäle zur Karosserieentwicklung von Autos genutzt: So kam etwa 1921 das „Tropfenauto“ des Flugzeugbauers Edmund Rumpler zu seiner legendären Form. Enger sind sich Land- und Luftfahrzeuge in ihrem Design nie- 5: Flächenverteilung der Concorde. mals gekommen, aber weiter voneinander entfernt waren die Theorie des Überschalls und die experimentelle Praxis ebenfalls nie. Es ist also alles andere als verwunderlich, dass sich die Stromlinie, unmittelbar aus den Windkanalversuchen mit Luftschiffen und Flugzeugen hervorgegangen, seit den 1930er-Jahren auch im Rennwagenbau immer mehr durchsetzte. Der ungarische Ingenieur Paul Jaray, der zunächst bei Zeppelin gearbeitet hatte, ließ sich 1922 einen stromlini- 6: Konstruktionsskizzen der Concorde. enförmigen Serienwagen patentieren. Die Situation um 1935 lässt sich damit wie folgt zusammenfassen: Paradoxeroder bezeichnenderweise entwickelt sich gerade im segelfliegenden Deutschland die Theorie des Überschallflugs rasant. Das imaginäre Potenzial dieses Raums jenseits der Schallmauer ist enorm: Das Fliegen mit Überschallgeschwindigkeit wird also wahrscheinlich ein Traum bleiben. Es ist, wenn man an militärische Verwendung denkt, ein sehr verlockender Traum, denn auch der Flugzeugschall kann sich hier nur im Inneren des Machschen Kegels ausbreiten; es würde also das Flugzeug seine Bomben bereits geworfen haben, ehe man überhaupt etwas von ihm zu hören bekommt.22 22 Ludwig Prandtl: Die Rolle der Zusammendrückbarkeit bei der strömenden Bewegung der Luft. In: ders.: Gesammelte Abhandlungen zur angewandten Mechanik, Hydro- und Aerodynamik. Erster Teil, Berlin/Heidelberg 1961, S. 1046–1058, hier: S. 1056.

44

Christian Kassung

So entstanden die ersten Überschallwindkanäle nahezu zeitgleich, während Göring offiziell den Bruch mit dem Versailler Vertrag vollzog, weiterhin aber im Unterschallbereich geflogen wurde, weil es erstens noch keinen Turbinenantrieb und zweitens noch keine dazugehörige Theorie bemannter Flugobjekte gab. Bevor im Sommer 1939 in Peenemünde mit der experimentellen Raketenforschung begonnen wurde, konnte am Institut für Strömungslehre der TU Aachen eine Fläche von 0,1 × 0,1 m mit bis zu 3 Ma beforscht werden, in Göttingen der gleiche Querschnitt mit 1,2 Ma, nicht zu vergessen Zürich unter der Leitung von Jacob Ackeret. In Peenemünde konnten dann erstmals 0,4 × 0,4 m mit bis zu 4,4 Ma beströmt werden, allerdings nur im unterbrochenen Betrieb für etwa 20 Sekunden. Dies war der Experimentalraum, in dem die Form eines Flugobjekts entstand, das nicht Bomben abwarf, sondern selbst eine Bombe war: das Aggregat 4, besser bekannt unter dem Propagandanamen V2. Es wird in Feindesland eingeschlagen sein, bevor man es gehört haben wird – ein doppeltes futurum exactum im Jahr 1939.23 Was ist nun die entscheidende wissenshistorische Verschaltung von V2 und Concorde, von Rakete und Flugzeug? Die Antwort auf diese Frage ist so überraschend einfach wie die daraus resultierenden Probleme weitreichend sind. Einem Geschoss wird zur Stabilisierung der Flugbahn ein Drehmoment mit auf den Weg gegeben, Raketen und Flugzeuge aber drehen sich gerade nicht um die eigene Achse, sondern sind selbststeuernd; beide benötigen daher Flügel.24 Und aus den Raketenleitwerken werden dann, in einem Wissenstransfer von 1.500 Tonnen Papierdokumenten an die USA, unter der Leitung von Theodor von Kármán, die sweepback wings der B-47 Bomber, die den nicht gepfeilten B-29 ablösten. Egal also, ob 911, V2, B-47 oder Concorde: Die Stromlinie ist der epistemische Knoten, der die Form schneller Dinge mit dem Wissen um Geschwindigkeit verbindet. Und der Windtunnel ist der Analogcomputer, in dem sich hydrodynamisches Wissen als Sichtbarkeit von Schlieren, Nebelzügen oder Windfähnchen materialisiert. Rechnen und Abbilden sind darin nicht voneinander zu trennen, sie finden als gemeinsame Praxis im Experimentalraum des Windkanals statt.

23 Vgl. UAH/HVP Archiv Nr. 66/11, Denkschrift über die Windkanäle der Heeres-Versuchsstelle Peenemünde, 1. Juni 1939, S. 3, zit. nach Sebastian Klapdor: Der Technologietransfer Deutschland–USA nach dem Zweiten Weltkrieg am Beispiel der Kochel Windkanalanlage, Norderstedt 2004, S. 18. 24 Vgl. Berz (s. Anm. 20), S. 406.

Till Julian Huss

Zeitwahrnehmung im „Software State of Mind“. Für eine Ästhetik der Simultaneität Wir leben in einer software culture, einer Kultur, in der Computerprogramme inzwischen nahezu alle traditionellen Medientechnologien digitalisiert und dadurch kombinierbar gemacht haben – so Lev Manovichs Ausgangsthese, auf die er seine Softwaretheorie als Kultur- und Medientheorie aufbaut.1 Manovich gelingt es, in der Analyse der Funktionsweise von Mediensoftware zwei wesentliche Aspekte des Prozesses der softwarization zu beschreiben: einen zeittheoretischen, der die variable Gestaltung von Zeitlichkeit meint, und einen epistemologischen, der auf die Auswirkungen auf den Wissensbegriff abzielt. Beide Aspekte bleiben allerdings weitestgehend unverbunden und werden in ihrer wechselseitigen Konstitution nicht weiter herausgearbeitet. Dies liegt im Wesentlichen daran, dass er die aktuelle Ästhetik als eine der Kontinuität von einer avantgardistischen der Diskontinuität abgrenzt. Im Folgenden soll gezeigt werden, dass aber gerade ihr produktives Wechselverhältnis Einblicke in die Möglichkeiten visueller Zeitgestaltung und deren epistemologische Effekte ermöglicht. Der kulturelle Wandel, wie Manovich genauer argumentiert, wird vor allem davon angetrieben, dass der Computer nicht einfach ein weiteres Medium, sondern vielmehr ein metamedium ist, das nahezu alle technischen Medien in numerische Daten und damit in Medieninhalte umwandelt und in einem software environment zusammenfügt. In der neuen, digitalen Arbeitsumgebung können daher auch neue metalanguages der Repräsentation, Bildbearbeitung und -generierung entwickelt werden, da die bisherigen ‚Sprachen’ digitalisiert wurden und frei kombinierbar sind. Manovich fasst dieses Paradigma der visuellen Kultur durch zwei grundlegende Phänomene zusammen: einerseits die media hybridization und andererseits die deep remixability der Techniken und Inhalte beziehungsweise des Materials.2 Eine neue Metasprache und damit auch diese beiden wesentlichen Eigenschaften der softwarization komme etwa in Programmen wie Adobe Photoshop und After Effects zum Ausdruck: Durch eine Vielzahl von Filtern und der Layer-Funktion, die Teile eines Bildes oder einer Komposition als Layer separat zugänglich und manipulierbar macht, können die visuellen Inhalte auf unterschiedliche Weise transformiert werden. Dieser Arbeit mit verschiedenen Ebenen, deren Transparenz und individueller Bearbeitung, attestiert ­Manovich eine neue Logik der Form.3 Alle Formen, räumliche, zeitliche und interaktive, werden als ein Set von 1 Vgl. die Einleitung in Lev Manovich: Software Takes Command, New York/London 2013. 2 Zum Ausdruck „metamedium“, den Manovich von Alan Kay übernimmt, vgl. Manovich: Software (s. Anm. 1), S. 101–106; zur „Hybridisierung“ S. 161–198; zur „deep remixability“ bes. S. 267–276. Seit den 1990er-Jahren werden die Praktiken des „remixing“ und des „deejaying“ als Paradigmen eines neuen Umgangs mit vorhandenem Material herangezogen. Die Theoriebildung zur zeitgenössischen Kunst hat sich besonders stark im Hinblick auf Formen der Wiederholung, Aneignung und Autorschaft dieser Thematik zugewandt. 3 Manovich: Software (s. Anm. 1), S. 307–322.

46

Till Julian Huss

Variablen dargestellt, die sich kontinuierlich und individuell verändern lassen. Die Zeit ist hierbei keine Konstante mehr, weder absolute noch relative Einheit. Er fasst diese neue Zeitlichkeit als Übergang von einer zeitbasierten zu einer kompositions- oder objektbasierten Arbeit. Auch wenn das Ausgabeformat am Ende ein statisches Bild oder ein linear ablaufender Film ist, wird im Herstellungsprozess aus dem relativen Raumzeit-Kontinuum ein Raumzeit-Modulator, der im Wesentlichen okkasionell verfährt, Zeit also beliebig als wandelbare Form einsetzt. Da alle Konstanten in der neuen Softwareumgebung zu Variablen werden, deren Eigenschaften sich im ständigen Fluss befinden und deren Präsens durch Transparenz auch fließend ineinander übergehen kann, spricht 1: Raoul Hausmann: Selbstportrait des Dadasophen, 1920, Collage, Fotomontage auf Japanpapier, 36,2 x 28 cm, Manovich von einer Ästhetik der Privatbesitz, London. Kontinuität.4 Als historische Referenz zieht er mehrfach die avantgardistische Montagetechnik des Films heran, in der er einen Vorläufer der neuen digitalen Kompositionstechnik sieht, die aber einem anderen Paradigma, dem der Diskontinuität, folgt: „Montage aims to create visual, stylistic, semantic, and emotional dissonance between different elements. In contrast, compositing aims to blend them into a seamless whole, a single gestalt.“ 5 Dieser Paradigmenwechsel lässt sich nur aufrecht erhalten, wenn die avantgardistische Ästhetik durch das Prinzip der Diskontinuität erfasst werden kann. Doch bereits ein Blick auf die Verwendung ebenjener Montagetechnik zeigt, dass diese Sicht zu kurz greift. In Arbeiten etwa von Raoul Hausmann wirken zwei 4 Manovich: Software (s. Anm. 1), S. 314. 5 Lev Manovich: The Language of New Media, Cambridge, MA /London 2001, S. 144; vgl. auch Manovich: Software (s. Anm. 1), S. 322. Nicolas Bourriaud betont ebenfalls die Bedeutung der Montage für das vergangene Jahrhundert, schließt sie aber an zeitgenössische künstlerische Praktiken an, vgl. Nicolas Bourriaud: Postproduction, New York 2002.

Zeitwahrnehmung im „Software State of Mind“. Für eine Ästhetik der Simultaneität

47

2: Camille Henrot: The Pale Fox (Austellungsansicht).

wesentliche Kräfte zusammen, die einerseits Disparität und andererseits Einheit anstreben. ◊ Abb. 1 Ebenso verhält es sich mit zeitgenössischen künstlerischen Positionen wie der Videoarbeit Grosse Fatigue von Camille Henrot, deren wesentliche Strategie ein komplexes Wechselverhältnis von Kontinuität und Diskontinuität ist. ◊ Abb. 2 Die neue Logik der variablen Form findet daher nicht nur in einer Ästhetik der Kontinuität Ausdruck, sondern ebenso in einer solchen, die gezielt die Einheit des Disparaten als Zusammenwirken verschiedener räumlicher, zeitlicher und inhaltlicher Aspekte zur Anschauung bringt. In den künstlerischen Avantgarden des frühen 20. Jahrhunderts wurde diese Einheit des Disparaten sowohl im Kubismus, Futurismus, Dadaismus wie auch am Bauhaus unter dem Paradigma der Simultaneität begrifflich fixiert und in Manifesten und Bildwelten theoretisch wie praktisch analysiert.6

6 Zum kulturhistorischen Kontext des modernen Gleichzeitigkeits-Paradigmas und der Bestimmung der Simultaneität als Einheit des Disparaten vgl. Philipp Hubmann, Till Julian Huss: Das Gleichzeitigkeits-Paradigma der Moderne. In: dies. (Hg.): Simultaneität. Modelle der Gleichzeitigkeit in den Wissenschaften und Künsten, Bielefeld 2013, S. 9–36. Zum Streit um die Einführung der Simultaneität als künstlerisches Prinzip vgl. Ester Coen: Simulaneity, Simultaneism, Simultanism. In: Futurism, hg. v. Centre Pompidou, Paris u. a. 2009, S. 52–57. Für die Videokunst seit den 1960er-Jahren arbeiteten Hannelore Paflik-Huber und Christine Ross die Simultaneität als wesentliche künstlerische Strategie aus, vgl. Hannelore Paflik-Huber: Kunst und Zeit. Zeitmodelle in der Gegenwartskunst, München 1997; Christine Ross: The Past is the Present, It’s the Future Too: The Temporal Turn in Contemporary Art, New York/London 2012. Eine detaillierte Studie zur Simultaneität legte Max Jammer vor, allerdings ohne die künstlerische und rein ästhetische Deutung zu berücksichtigen: vgl. Max Jammer: Concepts of Simultaneity. From Antiquity to Einstein and Beyond, Baltimore 2006.

48

Till Julian Huss

Das aus Zeitungsausschnitten zusammengesetzte Selbstportrait des Dadasophen von Raoul Hausmann aus dem Jahr 1920 verdeutlicht auf sehr konkrete Weise die dadaistische Technik der simultanen Montage wie auch die kulturellen und gesellschaftlichen Hintergründe der damaligen Zeit. ◊ Abb. 1 Die klassische Porträtfotografie eines sitzenden Mannes ist überdeckt von Ausschnitten, die sich den jeweiligen Körperteilen von Form und Größe anpassen und diese so mit neuem Sinn belegen: Die Brust wird ersetzt durch eine anatomische Illustration, der Kopf von einer Zeichnung eines technischen Messgerätes. Die Bildteile fügen sich optisch zu einer einheitlichen, prothesenhaften Erweiterung des Menschen zusammen, spiegeln damit aber zugleich das Spannungsverhältnis von Mensch und Maschine des beginnenden 20. Jahrhunderts wider. Technische Errungenschaften wie das Mikroskop und die Röntgentechnik, die Hochgeschwindigkeitsfotografie und die Teletechniken des Radios und Telefons erweiterten und veränderten auf radikale Weise die Wahrnehmung der Umwelt und des eigenen Körpers. Hausmann fasst diesen Wandel in dadaistischer Sprache zusammen: „Mensch ist simultan, Ungeheuer von Eigen und Fremd, jetzt, vorher, nachher und zugleich – platzender Buffalo-Bill von Apachenromantik grenzenlosester Realität des fortwährend widersprüchigste Komplexe umfassenden Erlebens, Beziehungen.“ 7 Ganz im Sinne der avantgardistischen Emphase, Kunst und Leben, Leben und Technik zu verbinden und wieder zur Einheit zu führen, spricht Hausmann von einem schöpferischen und gestalterischen Sehen, das die neuen und vielschichtigen Beziehungen sichtbar machen soll. Für die Simultaneität galt in jener Zeit besonders die reizüberflutende Großstadterfahrung als Paradigma wie sie in den Werken der Berliner Dadaisten Hannah Höch und George Grosz exemplarisch zum Ausdruck kommt. Die Zeichnung Berlin – Friedrichstrasse von Grosz aus dem Jahre 1918 ◊ Abb. 3 stellt den Beginn seiner künstlerischen Auseinandersetzung mit der Urbanität dar und verdeutlicht bereits wesentliche Momente des avantgardistischen Konzepts der Simultaneität: die Vermischung unterschiedlicher Geschwindigkeiten von Fußgängern, Straßenbahnen und Zügen, der Kontrast divergierender Lebensentwürfe und Alltagsrealitäten; in der künstlerischen Umsetzung das Durchdringen und Ineinandergreifen der verschiedenen Bildelemente und als Effekt eine simultane Darstellung des Lebens, die Dissonanz statt Harmonie, aber dennoch Differenz und Einheit erzeugt. Während in der Kunst zuvor schon die Komplexität der Welt als Totalität dargestellt wurde, bringen die Zeichnungen, Malereien und vor allem Montagen des Dada Berlin deren Unvollendetsein zum Ausdruck. 7 Raoul Hausmann: Synthetisches Cino der Malerei. In: Karl Riha, Güter Kämpf (Hg.): Raoul Hausmann. Am Anfang war Dada, Gießen 1992, S. 28–31, hier S. 29.

Zeitwahrnehmung im „Software State of Mind“. Für eine Ästhetik der Simultaneität

49

Die simultane Erfassung ist unvollkommen, bleibt fragmentarisch, auch wenn der Impuls, alle Disparitäten zur Einheit zu bringen, ins Werk gesetzt ist. Die simultane Technik wird zur „höchsten Verzeitlichung des zeitbedingten Chaos“,8 sie ist Pluralzeit, da sie alle Zeitpartikel – der unterschiedlichen städtischen Geschwindigkeiten oder der abgebildeten Szenen der jeweiligen Zeitungsausschnitte – nebeneinanderstellt und aufeinander bezieht. Die einzelnen Partikel behaupten ihre Eigenzeit, die Brüche zwischen ihnen bleiben erhalten als Diskontinuität. Dennoch stellt die Simultaneität eine Art ästhetische Zusammenschau dar, die nicht alle Elemente zusammenzieht und auf eine Zeiteinheit nivelliert, sondern Heterogenität beibehält. Sie ist eine Einheit des Disparaten, sowohl in semantischer als auch zeittheoretischer Sicht. Die Spannung zwischen Diskontinuität (Pluralität) und 3: George Grosz: Berlin, Friedrichstrasse, 1918, Tusche­ dem Verlangen nach Kontinuität (Singu- zeichnung, 48,9 x 32,4 cm, Akademie der Künste, Berlin. larität) wird anschaulich. Ein ebensolches produktives Wechselverhältnis von Kontinuität und Diskontinuität nutzte die Künstlerin Camille Henrot in ihrer Ausstellung The Pale Fox:9 Entlang der Wände des Ausstellungsraumes beschrieb eine Linie als fortlaufende Ansammlung der verschiedensten Exponate und Materialien die Lebensabschnitte von Geburt, Jugend, Reife und Alter als zyklischen Prozess. ◊ Abb. 2+4 Die Linie folgte einer Bewegung die von der Einheit zur Vielheit und wieder zurück zur Einheit wechselte und dabei immer Sprüngen unterworfen war. Bedeutung entsteht, so Henrot, nur durch 8 Hanne Bergius: Montage und Metamechanik. Dada Berlin – Artistik von Polaritäten, Berlin 2000, S. 311. 9 Chisenhale Gallery, London / Kunsthal Charlottenborg, Copenhagen / Bétonsalon, Paris / Westfälischer Kunstverein, Münster / König Galerie, Berlin 2014–2015. Meine Beobachtungen beziehen sich besonders auf die Inszenierung im Westfälischen Kunstverein in Münster. Mein Dank gilt Kristina Scepanski für die aufschlussreichen Gespräche über das Werk der Künstlerin. Alle inhaltlichen Referenzen gehen zurück auf Jacob Bromberg, Michael Connor, Clara Meister, Kristina Scepanski (Hg.): Camille Henrot: Elephant Child, Ausst.kat., London/New York 2016.

50

Till Julian Huss

4: Camille Henrot: The Pale Fox (Austellungsansicht).

diesen ständigen Wechsel zwischen Diskontinuierlichem und Kontinuierlichem. Ausgangspunkt der Installation The Pale Fox und der dazu gezeigten Videoarbeit Grosse Fatigue ist ihr Aufenthalt im Smithsonian Institute in Washington, in dem sie sich intensiv mit der Sammlung, Systematisierung und Präsentation von Wissen befasste. Sammeln sieht die Künstlerin als Passion für Ähnlichkeit, Taxonomie als Obsession der Differenz. In einem enthierarchisierten Rundlauf versammelte sie in ihrer Installation verschiedene Ordnungssysteme, um eine große Erzählung zu entfalten, die multiperspektivisch und damit pluralistisch verfährt. Der titelgebende Weißfuchs ist eine mythologische Figur, die ihr als detaillierte Kosmologie dient: Er steht in der Mythologie des westafrikanischen Dogon-Volkes für die Unordnung in der Ordnung, die notwendige Gegenkraft zur Ordnung. Zu jedem Lebensabschnitt versammelte Henrot verschiedene Materialien wie brancusihafte Skulpturen, großformatige Fotografien, Poster aus der Popkultur, naturwissenschaftliche Darstellungen und vieles mehr. Die Simultaneität der Systeme ist weder Palimpsest noch Kollaps, sondern eine Komplexitätssteigerung und Heterogenisierung innerhalb einer konzeptuellen Einheit: der Mythologie sowie der Zeitlinie. Totalität begreift Henrot als Vielheit im Einen. ◊ Abb. 4 Dieser tritt im Werk aber die ebenfalls titelgebende große Erschöpfung gegenüber. Sie ist eine Form

Zeitwahrnehmung im „Software State of Mind“. Für eine Ästhetik der Simultaneität

51

des Endes, wurde aber durch die mitausgestellte Apple Time Machine für das Betriebssystem MacOS quasi aufgehoben. Der zeitliche Progress, die lineare Zeit wurde – zumindest für den digitalen Raum – außer Kraft gesetzt. Henrots besonderen Umgang mit Zeitlichkeit gibt vor allem die Videoarbeit Grosse Fatigue wieder: Zu sehen ist eine Aufnahme ihres Computerbildschirms, ihres Desktops und der darauf stattfindenden Aktivitäten – Cursorbewegungen, Wechsel und Überlappungen der Programmfenster. In den verschiedenen Fenstern werden Videoausschnitte abgespielt, die mal einfache Gesten wie das Ausdrücken eines Schwammes, das Blättern in ethnologischen Büchern, Formen des Sammelns und Systematisierens wie das fotografische Erfassen von Objekten oder die Lagerräume eines musealen Archivs zeigen. ◊ Abb. 5–7 In dieser technischen Umsetzung greift sie einerseits menschliche Wahrnehmungs- und Organisationsformen auf: inhaltlich durch das Sehen und Anfassen und die darauf aufbauenden wissenschaftlichen Taxonomien sowie 5–7: Camille Henrot: Grosse Fatigue (Stills). medial durch das Rechteck, das sie explizit als menschliche Form der Ordnung in einen kulturanthropologischen Kontext stellt. Andererseits wird durch die Ästhetik der Desktopfenster zudem eine digitale Ordnung aufgerufen, die nach der Logik des Computers verfährt: Mehrere Fenster stehen gleichzeitig nebeneinander oder übereinander; ihre Inhalte sind durch die Präsentation in unterschiedlichen Fenstern zwar funktional getrennt, doch stehen sie anschaulich in unmittelbarer Wechselwirkung. Der Hypertext der Softwareverknüpfungen steht dem menschlichen Assoziationsprinzip gegenüber. Gerade mit der Spannung zwischen (software-)technischer, algorithmischer Unverbundenheit und sichtbarer Überschneidung oder Konfrontation der Fenster spielt Henrot mehrfach im Verlauf der Arbeit. Diese Spannung, die sich auch inhaltlich in den verschiedenen Ordnungssystemen widerspiegelt, steigert sie bis zum Kollaps, indem sie die Desktopfenster übereinander stapelt – die Übersystematisierung zum systematischen Exzess werden lässt. ◊ Abb. 8

52

Till Julian Huss

Camille Henrot führt in ihren Arbeiten die neue digitale Ästhetik der variablen Kombination von Elementen vor, greift dabei aber neben Kontinuität gezielt auf Diskontinuitäten und die damit erzeugten Spannungen zurück, um Narrationen zu erzeugen. ◊ Abb. 9 The Pale Fox und Grosse Fatigue sind auf medial unterschiedliche Weise eine Rückkehr zur großen Erzählung, deren mythologische Einheit eine heterogene Fülle von Narrativen zusammenhält. Sie entwirft eine Multi-Layer-Narration, die einem neuen Zeitverständnis geschuldet ist: Heterogene Vorstellung, Ordnungen und Erzählungen können zusammengesetzt wer8+9: Camille Henrot: Grosse Fatigue (Stills). den, ohne eine einheitliche lineare Struktur zu erzeugen. Hiermit greift sie den Pluralitätsgedanken auf, der im Zentrum der avantgardistischen Auseinandersetzung mit der modernen Lebenswelt steht. Henrot wie auch die Berliner Dadaisten nutzen Strategien der Simultaneität, die in den unterschiedlichen künstlerischen Medien jeweils auf ganz eigene Weise zum Ausdruck kommen. In zeittheoretischer Hinsicht lässt sich ein wesentlicher Unterschied festmachen: Während die Montagen von Hausmann, Grosz und Höch die Linearität der Zeit und den damit verbundenen Fortschritt durch widerstreitende Richtungsimpulse unterlaufen oder sogar auflösen, greift Henrot mit der digitalen Zeitreise durch die MacOS Time Machine einen neuen, der Software geschuldeten Aspekt eines veränderten Gegenwartsverständnisses auf: In unserem Jetzt fallen mehrere Zeiten zusammen, denn wir können durch die Rekonstruktion alter Zeitpunkte unseres Betriebssystems ohne Schwierigkeiten in die Vergangenheit springen. Diese enorme Anreicherung der Gegenwart wird bereits seit den 1990er-Jahren in der Medientheorie unter den Vorzeichen eines Angleichens der medialen Eigenzeiten an kognitive Zeitkonzepte, also unsere innere Zeitlichkeit des Erinnerns und Vorstellens, diskutiert.10 Henrot jedoch verleiht ihr einen irritierenden 10 Vgl. dazu besonders Großklaus’ These der Angleichung der Bildmedien an die innerpsychischen Bilder: Götz Großklaus: Medien-Zeit, Medien-Raum. Zum Wandel der raumzeitlichen Wahrnehmung in der Moderne, Frankfurt a. M. 1995, S. 58. Großklaus bezieht sich auf Vivian Sobchacks These der Erweiterung des Gegenwartsfensters durch neue zeitbasierte Medien. Sie führt hierbei aus, welche Bedeutung der Übergang zu Bewegtbildern für das Konzept der Simultaneität hat: „Im Film kann die Differenz zwischen subjektiven und objektiven Modi der Zeitkonstruktion wahrgenommen werden,

Zeitwahrnehmung im „Software State of Mind“. Für eine Ästhetik der Simultaneität

53

materialen Zugang, indem sie die verschiedenen ‚Desktops‘, die für je einen Zeitpunkt in der Vergangenheit des Betriebssystems stehen, ◊ Abb. 10 als Skulptur in den realen Raum ragen lässt ◊ Abb. 4 – unsere Zeitlichkeit des Erinnerns, unser mentales Aufrufen vergangener Ereignisse und Eindrücke als kognitive ‚Zeitschichten’ und deren metaphorische Entsprechung in der Gestaltung der 10: MacOS Time Machine. Time Machine des Computers werden haptisch. Welche epistemologischen Konsequenzen lassen sich aus den neuen Möglichkeiten der Software und ihren künstlerischen Vereinnahmungen im Hinblick auf den Umgang mit und die Darstellung von Zeitlichkeit ziehen? Wenn Carson Chan den neuen Entwicklungen der bildenden Kunst durch die Nutzung digitaler Techniken mit seinem einflussreichen Ausdruck „Internet state of mind“ 11 eine pointierte epistemologische Tiefenwirkung attestiert, ist nur ein Aspekt des tiefgreifenden Wandels beschrieben, der eher die Verfügbarkeit und Verbreitung von Informationen wiedergibt. Ein weiterer, wesentlicher Teil der neuen Logik der freien Kombination und (Re-)Präsentation von Raum- und Zeitkonzepten wäre im Anschluss an Manovich und Henrot am besten mit „Software state of mind“ beschrieben. Den Fokus auf die innere Logik der Software zu lenken, anstatt sich bei den Oberflächenphänomenen der Verbreitung im Internet aufzuhalten, ermöglicht den Einblick in zeittheoretische Implikationen, die der Aufbau der Software, deren Interface und Benutzermenü, bereits vorentscheidet oder als Möglichkeitsraum zur Verfügung stellt. Es geht also um die medientechnischen Bedingungen jenes von Manovich beschriebenen software environment, das den je singulären Modellen der Zeit einen spezifischen Gestaltungsrahmen vorgibt. und die Simultaneität beider Strukturtypen artikuliert sich in einer Diskontinuität, welche ihrerseits beständig und körperlich erlebbar synthetisiert wird.“ Sobchack: The Scene of the Screen. Beitrag zu einer Phänomenologie der ‚Gegenwärtigkeit’ im Film und in den elektronischen Medien. In: Hans Ulrich Gumbrecht, K. Ludwig Pfeiffer (Hg.): Materialität der Kommunikation, Frankfurt a. M. 1988, S. 416–428, hier: S. 422f. Zur Gestaltung neuer Zeitkonzepte im Film vgl. grundlegend Gilles Deleuze: Das Zeit-Bild. Kino 2, Frankfurt a. M. 1997 [fr. Org. 1985]. 11 Vgl. Carson Chan: The Territory of Versions: Oliver Laric. In: Kaleidoscope, Dezember 2010, Heft 9, S. 90–95.

54

Till Julian Huss

Der Vorzug von Manovichs Ästhetik der variablen Form und Kontinuität ist, dass sie eine formale Kombinatorik der Bildinhalte, die sich im ständigen Übergang befinden, mit einer kommunikationstheoretischen und ontologischen Dimension des ständigen Wandels der Bildform durch Versionen verbindet und somit auch den „Internet state of mind“ mitdenkt.12 Die epistemologische Dimension eines neuen Zeitverständnisses und der damit verbundenen Möglichkeiten neuer Formen der Narration, lassen sich damit aber nicht hinreichend verstehen, da zugunsten des Paradigmas der Kontinuität das ebenso entscheidende und konstitutive Moment der Diskontinuität ausgeblendet wird. Eine Ästhetik der Simultaneität würde die Paradigmen der Diskontinuität und Kontinuität wechselseitig aufeinander beziehen und durch einen wahrnehmungs- und zeittheoretischen Zugriff eine Perspektive auf die epistemologische Dimension ihrer Verbindung ermöglichen. Darüber hinaus bietet die historische Verortung des Konzepts der Simultaneität eine Möglichkeit, aktuelle digitale Techniken der Form- und damit auch der visuellen Zeitgestaltung, in einem kunst-, kultur- und medienhistorischen Kontext zu verorten. Künstlerische Strategien der Simultaneität sind hiernach eine Antwort auf den medialen Wandel und die damit verbundene Revolution von Wahrnehmung und Erkenntnis. Da sie im Wesentlichen ein Zusammensehen des Disparaten verlangen, ist ihnen im Kern ein ästhetisches Moment eingeschrieben, das sich über naturwissenschaftliche Begriffe hinwegsetzt. Wahrnehmungstheoretisch gesehen, sind sie der Wechsel von der chaotischen Pluralität oder Ununterscheidbarkeit zur Heterogeneität als Einheit des Disparaten. Diese Sichtbarmachung wird in der Kunst besonders durch Montage (analoger und statischer wie bei Dada Berlin oder digitaler und bewegter wie bei Henrot), Desynchronisationen und (Kon-)Fusionen erreicht,13 anhand derer die Simultaneität als ein epistemologisches Prinzip zum Ausdruck kommt, das besonders in Bezug auf Zeitlichkeit Anwendung findet. Manovichs Ästhetik der variablen Form bietet einen wichtigen Schlüssel zur Funktionsweise der Software, greift aber bei der Beschreibung der epistemologischen Konsequenzen zu kurz. Wahrnehmungstheoretische sowie mythologische und lebensphilosophische Positionen der Kunst wie Dada Berlin oder aktuell Camille Henrot stellen durch Strategien der Simultaneität unter Beweis, dass der Impuls 12 Dies kommt einer Sicht der vernetzten Bilder entgegen wie sie etwa Christian Höller vertritt, um die zeitgenössische, (post-)digitale Kunst zu charakterisieren: Christian Höller: Scan Scroll Surf. Videoproduktion im postdigitalen Kontext. In: Kunstforum International, 2016, Nov./Dez., Band 243, S. 68–81. 13 Vgl. hierzu Till Julian Huss: De-/Synchronisation. Eingriffe in mediale Wiederholungen bei Bruce Nauman und Janet Cardiff und George Bures Miller. In: ders., Elena Winkler (Hg.): Kunst und Wiederholung. Strategie, Tradition, ästhetischer Grundbegriff, Berlin 2017, S. 181–201.

Zeitwahrnehmung im „Software State of Mind“. Für eine Ästhetik der Simultaneität

55

zur Einheit und Kontinuität im Spannungsverhältnis zur Vielheit und Diskontinuität der Wirklichkeit stehen. Die Fensterästhetik der Interfacekultur hat die anschauliche Gleichzeitigkeit disparater Inhalte zur Alltagserfahrung unserer Zeit gemacht. Die vorgestellten künstlerischen Arbeiten veranschaulichen Weisen, diese zeitliche wie auch semantische Fülle zu bewältigen. Ein zentraler Unterschied zwischen der Simultaneität in den Bildwelten der Avantgarden und der gegenwärtigen digitalen Kunst ist im Hinblick auf die ontologische Dimension der Alltagserfahrung auszumachen: Während Dada Berlin die Gleichzeitigkeit der reizüberflutenden Großstadterfahrung, die dem Kausalgesetz zu trotzen schien, aber dennoch den Gesetzen der Physik unterworfen war, ins Bild setzte, geht Henrots Bildästhetik auch auf die Wahrnehmung einer digitalen Bilderflut ein, deren Kombinatorik Algorithmen statt Naturgesetzen folgt. Ihre inhaltliche Verbindung folgt daher einer freien Kombinatorik, die oftmals rein subjektiv getroffen wird und deren Nachvollzug ein rein ästhetischer ist. Daher können ihre Werke auch als gewinnbringender Kommentar zu Manovichs Ästhetik der Kontinuität gelesen werden: Die Kehrseite einer digitalen Bildmanipulation der variablen Form und steten Übergänge ist eine Disparität des Gleichzeitigen, deren kulturelle Bedeutung nicht zu unterschätzen ist.

1–7: Uchronia Workshop, Gruppe 1 : Auf der Suche nach der verlorenen Zeit, Rotherhithe Library, London, 2014.

Projektvorstellung Helga Schmid

Zeitgeber in der Zeitkrise. Experimente zur alternativen ­Wahrnehmung von Zeit Die Gegenwart steckt in einer Zeitkrise, die als dyschronisches Zeitalter bezeichnet worden ist.1 Gemeint ist damit ein allgemeines Gefühl konstanter Nervosität, das auf unentwegter Beschleunigung und dem daraus folgenden Verlust eines stabilen Zeitempfindens beruht.2 Als Visuelle Gestalterin interessiere ich mich für dieses Phänomen der Dyschronie und die Frage, wie Zeitwahrnehmung gestaltet und verändert werden kann. In einem praxisbasierten Forschungsprojekt, dem ein interdisziplinärer Ansatz an der Schnittstelle von Design, Chro-

1 Byung-Chul Han: Duft der Zeit, Bielefeld 2009, S. 7. 2 Hartmut Rosa, William E. Scheuerman (Hg.): High-speed Society: Social Acceleration, Power, and Modernity, Philadelphia 2010.

nosoziologie3 und Chronobiologie4 zugrunde liegt, versuche ich mit gestalterischen Mitteln ein neues Konzept der Zeitwahrnehmung, die Uchronie, zu erarbeiten. Der Ausdruck leitet sich ab von dem griechischen ou-chronos (nicht existente oder keine Zeit) und basiert auf dem begrifflichen Modell der Utopie. Zielsetzung ist es, mittels uchronischen Denkens eine Plattform für alternative Ansätze im Umgang mit der gegenwärtigen Zeitkrise zu schaffen. Hierfür ist

3 Die Soziologie der Zeit oder Chronosoziologie befasst sich mit gesellschaftlichen Strukturen und Prinzipien temporaler Systeme, insbesondere im Hinblick auf sozial geprägte Eigenheiten, kulturellen Wandel sowie neuen Zeitphänomenen und Zeitnormen; Elzbieta Tarkowska: Time in Contemporary Culture. In: Polish Sociological Review, 1997, Heft 118, S. 191–195. 4 Die Chronobiologie befasst sich mit zeitlichen Dimension von Lebewesen, insbesondere deren biologischen Rhythmen; Russell G. Foster, Leon Kreitzman: Rhythms of Life: The Biological Clocks that Control the Daily Lives of Every Living Thing, London 2004.

Projektvorstellung

57

es entscheidend, sich vorab mit dem heutigen, kulturellen Zeitverständnis zu befassen. Der Umgang mit Zeit wird bereits mit dem Kindesalter gesellschaftlich konditioniert und verinnerlicht. Einheiten wie Stunden, Minuten und Sekunden werden zu unumstößlichen Maßeinheiten der Zeitmessung gemacht.5 Durch den Einsatz von Uhren wird Zeit zudem zu einer greifbaren Größe, die auch unbewusst wahrgenommen wird. Besonders augenfällig tritt dies zutage, wenn die zeitliche Erwartungshaltung und die tatsächliche Dauer eines Vorgangs sich nicht im Einklang befinden.6 Das Projekt ist ein Plädoyer, sich dem Thema Zeit aus einem anderen Blickwinkel zu widmen und vom Schema der Uhrzeit zu lösen. Eine erste Voraussetzung dafür ist das gezielte Verlernen derselben. Der Künstler ­Olafur ­Eliasson hat ein vergleichbares Experiment des Verlernens bereits im Zusammenhang mit der räumlichen Wahrnehmung vorgeschlagen und in einem Vortrag zum Thema „Unlearning Space – Space Unlearning“ zusammengefasst: „It is necessary to unlearn space in order to embody space. It is necessary to unlearn how we see in order to see with our bodies. It is necessary to unlearn knowledge of our body in three dimensions in order to recover the real dimensionality of our body. Let’s dance space. Let’s re-space our bodies. Let’s celebrate the felt feeling of presence.“ 7 5 Norbert Elias: Über die Zeit: Arbeiten zur Wissenssoziologie II, Frankfurt a. M. 1988, S. 120. 6 Der Psychologe Marc Wittmann spricht in diesem Zusammenhang von einem „error signal“, Marc Wittmann: Felt Time: The Psychology of How We Perceive Time, Cambridge 2016. 7 Spaces of Transformation: Continuity/infinity, Olafur Eliasson im Gespräch mit Bruno Latour und Peter Weibel, Tate Modern, 2016: http://www.tate. org.uk/whats-on/tate-modern/talks-and-lectures/ spaces-transformation-continuityinfinity (Stand: 05/2017).

In der künstlerisch-gestalterischen Praxis steht das Verlernen von etwas Erlerntem für einen Prozess des Herauslösens aus den gesellschaftlich Praktiken, Normen und Strukturen.8 Überträgt man diesen Gedankengang auf das Zeit 8 Wie Eliasson, so haben sich auch andere Künstler der Praxis des Verlernens gewidmet, beispielsweise Cy Tyombly in seinen Blackboard Paintings aus den 1960er-Jahren; siehe Jonas Storsve: Cy Twombly, München 2017.

58

Projektvorstellung

liche, eröffnen sich neue Ansätze im Umgang mit Zeit. Ein alternatives Konzept, entwickelt als Teil meiner bisherigen Forschungstätigkeit, basiert auf der Idee des Zeitgebers. Der Begriff wurde von dem Biologen Jürgen Aschoff im Zusammenhang mit chronobiologischen Studien in den 1950er-Jahren geprägt. Er beschreibt äußere Faktoren, die eine synchronisierende Wirkung auf die biologische Uhr von Lebewesen haben. Entscheidende Einflussfaktoren für die innere Uhr des Menschen sind natürliche und gesellschaftliche Rhythmen (etwa Tag-Nacht-Zyklus, Uhrzeit). Den Einfluss von Zeitgebern auf den menschlichen Tagesrhythmus (zirkadianer Rhythmus) hat der Chronobiologe Till Roenneberg in seinen Studien aufgegriffen. Anhand der Metapher einer Schaukel beschreibt er das Verhältnis von äußeren Einflüssen auf den körperlichen Rhythmus.9 Die Schwingbewegung der schaukelnden Person stellt den Tagesrhythmus der inneren Uhr in seiner tagesabhängigen Form dar. Die äußeren Faktoren, wie zum Beispiel Tageslicht, Arbeitszeiten, familiäre Verhältnisse, sind als Impulsgeber dargestellt. Sie beeinflussen die Geschwindigkeit und Amplitude. Je nach Person unterscheiden sich die äußeren Faktoren sowie die Intensität der jeweiligen Zeitgeber. Das Kräfteverhältnis der Zeitgeber ist individuell verschieden und so auch der zirkadiane Rhythmus eines jeden einzelnen Menschen. Diese Metapher des Schaukelnden eignet sich nicht nur für chronobiologische Forschungszwecke. Sie erlaubt eine weitgreifende Veranschaulichung von Zeit, fernab von der 24/7-Taktung der heutigen Gesellschaft, wie Jonathan Crary sie beschreibt.10 An die Stelle einer punktuellen Zeitwahrnehmung tritt eine ganzheitliche Betrachtung der zeitlichen Rhythmen, insbesondere der biologische Rhythmus des Menschen. Ausgehend davon stellen sich für 9 Till Roenneberg, Serge Daan, Martha Merrow: The Art of Entrainment. In: Journal of Biological Rhythms, Jg. 18, 2003, Heft III, S. 183–194. 10 Jonathan Crary: 24/7: Late Capitalism and the Ends of Sleep, London 2013.

Projektvorstellung

jeden Einzelnen folgende Überlegungen: Habe ich ein Bewusstsein davon, wie meine innere Uhr tickt? Was beeinflusst meinen Rhythmus und in welcher Intensität? Welche Gewichtung ordne ich welchem Zeitgeber zu? Ein Anwendungsbeispiel für die Zeitgebermethode wurde 2014 in Form eines sechswöchigen Workshops mit Designstudenten am Royal Collage of Art in London durchgeführt. Im Zentrum stand ein 72-stündiges Experiment, in dem die Studenten nach einem selbstbestimmten Zeitgeber lebten. Vor Beginn des Experiments entwickelten sie in Zweier- bis Vierergruppen ihren Taktgeber. Für das Experiment standen ihnen verschiedene Experimentierräume in und um London zur Verfügung, in denen die Studenten ungestört und ohne jeglichen gesellschaftlichen Einfluss ihr Zeitexperiment durchführen konnten. So wählte eine Vierergruppe Marcel Prousts Buch Auf der Suche nach der verlorenen Zeit als dominanten Zeitgeber aus. Über das gesamte Experiment hinweg hat jeweils ein Mitglied der Gruppe aus dem Buch laut vorgelesen, gehäkelt, Tagebuch geführt oder unter-

59

dessen geschlafen. Jedes Kapitel definierte eine Zeiteinheit und somit den Wechsel der Tätigkeiten. Nach dem Experiment dokumentierte jede Gruppe ihre Erfahrungen in praktischen Arbeiten und präsentierte diese in Form eines Symposiums inklusive Ausstellung. Anhand zweier Auszüge aus Erfahrungsberichten der Studenten lässt sich das Erlebnis wie folgt beschreiben: „In the Uchronia workshop we switched off time for a few days. The replacement of time with the conceit of the new zeitgeber was the switch. and when we came back to it (almost like a space or a condition) it was like we could smell it again, or see its outline.“ „[The experiment] did surprise me and excite me, it entertained me, and most ­importantly made me playfully aware of how little of my life is spent idling in free-form and ­experimenting away from the constrains of time. […] I felt like an explorer in an extra­ ordinary situation.“

60

„[The workshop] has changed my thinking. Perhaps not limited just to time but more broadly on ideas that many human constructions that we live by without thought could be challenged to produce a creative output.“ 11 Die Aussagen verdeutlichen, dass es möglich ist, sich aus der Uhrzeittaktung herauszulösen und spielerisch nachzudenken über alternative Formen der zeitlichen Strukturierung. Der Workshop zeigt auf, dass Zeit ein gesellschaftliches Konstrukt ist, wie es der Soziologe Norbert Elias 11 Aussagen zum Uchronia Workshop, zitiert nach Helga Schmid: Uchronia: Time at the Intersection of Design, Chronosociology and Chronobiology, London 2017, S. 130–183.

Projektvorstellung

in seinem Buch Über die Zeit beschrieben hat.12 Im weiteren Sinne nimmt das Zeitgebermodell außerdem Bezug auf den kulturellen Wandel der westlichen Gesellschaft im Hinblick auf zeitliche Autonomie sowie Individualisierungsund Flexibilisierungsprozesse. Das Zeitgebermodell verzichtet auf die uniforme Normierung von Zeit und reflektiert stattdessen das tägliche Wechselspiel der Kräfte, abhängig von der körperlichen Tagesform und den jeweiligen Zeitgebern. Das Denken in gefestigten Kategorien von Stunden, Minuten und Sekunden wird aufgehoben. An ihre Stelle treten Überlegungen zur individuellen, temporalen Schwerpunktsetzung: den entscheidenden Zeitgebern Zeit zu geben. 12 Elias (s. Anm. 5).

Gabriele Gramelsberger

Matrizen. Schriftbilder diskontinuierlicher Zeitmodelle A set of quantities arranged in the form of a square

„[Arthur] Cayley, in his Memoir on the Theory of Matrices (Phil. Trans., 1858),“ schrieb Henry Taber in seinem Überblicksartikel zur Theorie der Matritzen 1890, „defined a matrix as ‘a set of quantities arranged in the form of a square’.“ 1 Matrizen sind notationelle „shortcuts“ der linearen Algebra und: „Cayley was the first mathematician to realize that the square arrays themselves actually had algebraic properties.“2 ◊ Abb. 1 Dennoch sind Matrizen keine Erfindung aus dem Nichts, sondern das Resultat eines tiefgreifenden Medienwandels der Mathematik, der mit René Descartes’ analytischer Geometrie von 1637 begann.3 Descartes hatte die Geometrie von Zirkel und Lineal losgelöst und in die symbolische Schreibweise der Algebra überführt, indem er S ­ trecken durch Koordinaten in Punktangaben übersetzte. Er reduzierte die Geometrie auf Längenbestimmungen von Strecken, deren Größenbestimmung mit den algebraischen Grundoperationen parallelisierbar waren. Damit stand der Geometrie die Erkundung völlig neuer Objekte wie a4 offen, von der sie jedoch erst nach und nach Gebrauch machte.4 Noch Ende des 18. Jahrhunderts schrieb Gaspard Monge – neben Jean-Victor Poncelet Mitbegründer der deskriptiven und projektiven Geometrie – das Übersetzungsverhältnis zwischen Konstruktion und Symboloperation als Diktum der geometrischen Figur fest.5 Doch erst im Laufe des 19. Jahrhunderts begann der Medienwechsel epistemisch zu Buche zu schlagen, dann aber führte er in rasantem Tempo zur Abschaffung des Primats der Dreidimensionalität, des Parallelaxioms der euklidischen Geometrie sowie der Beschäftigung mit einzelnen, statischen Objekten. Was nun in den Blick rückte, waren die invarianten Eigenschaften von Figuren unter transformativen Bedingungen und deren Ableitbarkeit.6 In den Worten Felix Kleins:

1 Henry Taber: On the Theory of Matrices. In: American Journal of Mathematics, Jg. 12, 1890, Heft 4, S. 337–396, S. 337. 2 Karen Hunger Parshall: Joseph H. M. Wedderburn and the Structure Theory of Algebras. In: Archive for History of Exact Sciences, Jg. 32, 1985, Heft 3/4, S. 223–349, S. 234. 3 René Descartes: Geometrie (1637), hg. v. Ludwig Schlesinger, Darmstadt 1981. 4 Descartes selbst lehnte solche Objekte noch ab und hielt an der Übersetzbarkeit der algebraischen Ausdrücke in geometrisch-konstruierbare Objekte fest; Sybille Krämer: Berechenbare Vernunft. Kalkül und Rationalisierung im 17. Jahrhundert, Berlin/New York 1991. 5 Gaspard Monge: Géométrie descriptive (1794), Paris 1847; Jean-Victor Poncelet: Traité des propriétés projectives des figures, Paris 1822. 6 Beispielsweise ist die Länge einer Geraden invariant gegenüber der Parallelverschiebung auf einer ebenen Fläche.

62

Gabriele Gramelsberger

1: Matrix in der Original­ dar­stellung von Cayley, 1858.

„[…] die projectivische Geometrie erwuchs erst, als man sich gewöhnte, die ur­sprüng­liche Figur mit allen aus ihren projectivisch ableitbaren als wesentlich ­identisch zu erachten und die Eigenschaften, welche sich beim Projicieren über­tragen, so auszusprechen, dass ihre Unabhängigkeit von der mit dem Projicieren verknüpften Aenderung in Evidenz tritt.“ 7

Doch irgendwann im Laufe des 19. Jahrhunderts gerieten auch die geometrischen Figuren und ihre Eigenschaften in den Hintergrund und nur die invarianten Eigenschaften der Transformationen blieben übrig8 – in Gruppen organisiert, wobei Gruppen definiert waren „‘by means of the laws of combination of its symbols’ […] in dealing purely with the theory of groups, no more concrete mode of representation should be used than is absolutely necessary.“9 Ohne diese Loslösung von der Anschaulichkeit der dreidimensionalen Geometrie wäre die moderne Mathematik wie Physik mit ihren neuen Zeitmodellen nicht vorstellbar. Doch auch wenn sich die rein analytische Methode Mitte des 19. Jahrhunderts durchsetzte, so blieb die Frage offen, welche algebraischen Darstellungsmethoden für die linearen Transformationen geeignet waren. Carl Friedrich Gauß’ Theorie quadratischer Formen von 1801, August Möbius’ Barycentrischer Calcül: ein neues Hilfsmittel zur analytischen Behandlung der Geometrie von 1827, William R. Hamiltons algebraische Triplets und Quaternionen als Verallgemeinerung der komplexen Zahlen von 1843 oder Hermann Graßmanns Lineale Ausdehnungslehre als erste Version einer Vektorrechnung von 1844 waren Versuche, Darstellungsmethoden für das Operieren in den unanschaulichen, n-dimensionalen Symbolräumen ohne die Orientierungshilfe geometrischer Konstruktionen zu formulieren.10 Hamiltons Triplets lösten Möbius’ Darstellungspro 7 Felix Klein: Vergleichende Betrachtungen über neuere geometrische Forschungen (1872). In: Mathematische Annalen, Jg. 43, 1893, S. 63–100, S. 69–70. 8 Die geometrischen Transformationen bilden nur eine unter mehreren Transformationsgruppen. Für die euklidische Geometrie bedeutet dies, dass die (geometrische) Hauptgruppe Größe, Orthogonalität, Parallelität und Inzidenzen erhält, während die äquiforme Gruppe Orthogonalität, Parallelität und Inzidenzen, die affine Gruppe Parallelität und Inzidenzen und schließlich die projektive Gruppe nur noch die Inzidenzen erhält. 9 Arthur Cayley, zitiert in William Burnside: Theory of Groups of Finite Order, Cambridge 1897, S. vi. Es war kein Zufall, dass die symbolische Logik wie die Semiotik in dieser Entwicklung mit Protagonisten wie Charles Sanders Peirce, George Boole, Augustus de Morgan, Arthur Cayley, James J. Sylvester und anderen ihren Ursprung hatte. 10 Carl Friedrich Gauß: Disquisitiones Arithmetica (1801). In: ders.: Werke, 1. Bd., Göttingen 1863; August Möbius: Der barycentrische Calcül: ein neues Hilfsmittel zur analytischen Behandlung der Geometrie, Leipzig 1827; William Rowan Hamilton: The Mathematical Papers of Sir William Rowan Hamilton, hg. v. H. Halberstam & R. E. Ingram, 3 Bde., Cambridge 1967; Hermann G. Graßmann: Die Lineale Ausdehnungslehre ein neuer Zweig der Mathematik, Leipzig 1844.

Matrizen. Schriftbilder diskontinuierlicher Zeitmodelle

63

2: Schriftbildlichkeit quadratischer Matrizen.

bleme des Barycentrischen Calcüls und waren gleichzeitig algebraische Notationen von Graßmanns linearen Vektoren. Doch sie alle hantierten in den unanschaulichen Symbolräumen mit mühsamen und aufwendigen Umformungen von Gleichungssystemen. Erst Calyey’s Shortcut der Matrizendarstellung vereinfachte die Situation. „Nevertheless, Hamilton must be regarded as the originator of the theory of matrices, as he was the first to show that the symbol of a linear transformation might be made the subject-matter of a calculus. “ 11 Rechnende Schriftbilder

Matrizen sind Inbegriffe von Schriftbildern, wie sie Sybille Krämer für das Rechnen allgemein beschrieben hat: „Wir können hier von einer ‚Schriftbildlichkeit‘ sprechen, die als zwischenräumlich verfasste notationale Ikonizität allerdings von der kontinuierlich piktoralen Ikonizität zu unterscheiden ist. […] Solche Schriften haben (zusammen mit den Regeln ihrer Formation und Transformation) den Charakter von ‚Symbolischen ­Maschinen‘.“ 12

Insbesondere quadratische Matrizen verknüpfen Eigenschaften von Tabellen mit Diagramen. ◊ Abb. 2 Als Tabellen ordnen sie in ebenso vielen Zeilen wie Spalten Elemente an, die sich symbolisch durch Zeilen- und Spaltenindices eindeutig anschreiben lassen. Als Diagramme stellen sie neben den Rechenregeln (Matrizenaddition und -multiplikation, Skalarmultiplikation, Inversion falls Determinante ≠ 0) spezifische Relationen dar, die sich in den Diagonalen zeigen: Matrizen lassen sich durch Spiegelung an ihrer Hauptdiagonale transponieren. 11 Taber (s. Anm. 1), S. 337. 12 Sybille Krämer: Operationsraum Schrift. In: Gernot Grube, Werner Kogge, Sybille Krämer (Hg.): Schrift: Kulturtechnik zwischen Auge, Hand und Maschine, Stuttgart 2005, S. 23–57, S. 29–30; Eva Cancik-Kirschbaum, Sybille Krämer, Rainer Totzke (Hg.): Schriftbildlichkeit. Wahrnehmbarkeit, Materialität und Operativität von Notationen, Berlin 2012.

64

Gabriele Gramelsberger

3: Strukturchemischer Matrizenformalismus nach Ivar Ugi, 1993.

Auf den euklidischen Raum angewandt, beschreiben quadratische Matrizen geometrische Transformationen von Koordinaten wie Verschiebungen (Translationen), Drehungen und Spiegelungen. Denkt man sich die Koordinaten mit Atomen besetzt, dann repräsentieren Matrizen die geometrischen Transformationen der 32 bekannten Kristallgruppen im euklidischen Raum. In der Strukturchemie werden sie als „echte mathematische Objekte mit wohldefinierten mathematischen Eigenschaften […]“ der „abelschen Gruppen“ verwendet, um Bindungs-, Elektronen- und Reaktionsmechanismen darzustellen.13 Konkret bedeutet dies, dass sich mit dem algebraischen Matrizenformalismus Reaktionen errechnen und damit chemischen Eigenschaften neuer Moleküle vorhersagen lassen. ◊ Abb. 3 Insbesondere die Diagonalisierung machte Matrizen zu den charakteristischen Medien der Mathematik wie auch der Wissenschaft des ausgehenden 19. und beginnenden 20. Jahrhunderts. So nutzte Georg Cantor die Diagonalisierung, um die Frage zu klären, ob die reellen Zahlen auf die natürlichen Zahlen abbildbar waren, sich also durch diese (unendlich) abzählen ließen. Bereits 1874 konnte er beweisen, dass dies nicht der Fall war, indem er einen „Anordnungsmodus“ beschrieb, der zeigte, „daß es in jedem vorgegeben Intervall (α …β) unendlich viele transzendente, d. h. nicht algebraisch reelle Zahlen“ gab.14 Dieser Beweis wurde von Cantor 1890/1891 in vereinfachter Form publiziert, indem er aus dem Anordnungsmodus der Matrix die Diagonalelemente (aν,ν, also: a1,1, a2,2, a3,3 …) gewann und damit neue Zahlen konstruierte 13 Ivar Ugi et al.: Die computerunterstützte Lösung chemischer Probleme. In: Angewandte Chemie, Jg. 105, 1993, Heft 2, S. 210–239, S. 218 und S. 216. 14 Georg Cantor: Über eine Eigenschaft des Inbegriffs aller reeller algebraischer Zahlen (1874). In: ders.: Gesammelte Abhandlungen mathematischen und philosophischen Inhalts, hg. v. Ernst Zermelo 1932, Berlin u. a. 1990, S. 115–118, S. 116.

Matrizen. Schriftbilder diskontinuierlicher Zeitmodelle

65

(Diagonalzahlen wie E0).15 Mit der Frage nach der Abzählbarkeit (natürliche Zahlen) sowie der Überabzählbarkeit (reelle Zahlen) widmete sich Cantor dem seit Aristoteles ausgeblendeten Thema des Aktual-Unendlichen als dem „Eigentlich-Unendlichen“, das im Unterschied zum „Uneigentlich-Unendlichen“ (potenziell Unendlichen) des veränderlich Endlichen der numerischen Analysis, so Cantor, „gewaltsam zu einem eigentlich Unendlichkleinen“ gemacht wurde.16 Später bewies Alan Turing anhand der Diagonalisierung: „computational numbers do not, however, include all definable numbers“ – wie eben Cantors Diagonalzahlen E0.17 Schriftbilder neuer Zeitmodelle

Zwar sorgte Cantors Aktual-Unendliches im Sinne einer Gesamtheit für den Grundlagenstreit in der Mathematik, aber sein Rückgriff auf die Diagonalisierung dokumentierte die Mächtigkeit der Matrizen als Schriftbilder mit algebraischen Eigenschaften.18 Doch Matrizen leisteten, historisch betrachtet, weitaus mehr. Sie ermöglichten es, nichtkontinuierliche Bewegungsmodelle und damit neue Zeitmodelle darzustellen. Kontinuierliche Zeitmodelle lassen sich einfach veranschaulichen, beispielsweise als gerade Linie oder Pfeil (gleichförmige Bewegung), als Kreis (wiederkehrende Bewegung), als Kurve (zusammenhängende, beschleunigte Bewegung) oder als Sinuswelle (gleichmäßige, lineare Oszillationen).19 Die gesamte Newton’sche Physik basierte auf geradlinigen Bewegungen mit konstanter Geschwindigkeit (gleichförmige Translationen), für die einzelne Kräfteeinwirkungen linear supponiert, d. h. durch die parallelogrammatische Translationen von Vektoren addiert werden konnten. Sie stellte mathematisch einen kontinuierlichen Zusammenhang von Ort und Impuls über die Zeit als unabhängige Variable her. Hingegen ist es wesentlich schwieriger und weniger anschaulich, diskontinuierliche Zeitmodelle symbolisch darzustellen und mit ihnen mathematisch zu hantieren. Mit eben dieser Problematik hatte es die frühe Quantenmechanik zu tun.

15 Georg Cantor: Über eine elementare Frage der Mannigfaltigkeitslehre (1890/91). In: ders. (s. Anm. 14), S. 278–281, S. 279. 16 Georg Cantor: Grundlagen einer allgemeinen Mannigfaltigkeitslehre (1883). In: ders.: Über eine Eigenschaft (s. Anm. 14), S. 165–246, S. 172. 17 Alan Turing: On Computable Numbers, with an Application to the Entscheidungsproblem. In: Proceedings of the London Mathematical Society, 1936/37, Heft 42 (2), S. 230–265 und S. 544–546, S. 230. 18 Paul Lorenzen: Das Aktual-Unendliche in der Mathematik. In: Philosophia naturalis, Jg. 4, 1957, Heft 3, S. 3–11; Christian Thiel: Grundlagenkrise und Grundlagenstreit. Studie über das normative Fundament der Wissenschaften am Beispiel von Mathematik und Sozialwissenschaft, Meisenheim am Glan 1972. 19 Zur visuellen Darstellung verschiedener Zeitmodelle vgl. Gabriele Gramelsberger: Figurationen des Phänomenotechnischen. In: Jahrbuch Technikphilosophie 2016, Zürich/Berlin 2016, S. 157–167.

66

Gabriele Gramelsberger

1925 reklamierte Werner Heisenberg, dass „die formalen Regeln, die allgemein in der Quantentheorie zur Berechnung beobachtbarer Größen (z. B. der Energie im Wasserstoffatom) benutzt werden […,] Beziehungen enthalten zwischen Größen, die scheinbar prinzipiell nicht beobachtet werden können (wie z. B. Ort, Umlaufzeit des Elektrons), daß also jenen Regeln offenbar jedes anschauliche physikalische Fundament mangelt, wenn man nicht immer noch an der Hoffnung festhalten will, daß jene bis jetzt unbeobachtbaren Größen später vielleicht experimentell zugänglich gemacht […]“ und „als Abweichungen von der klassischen Mechanik“ interpretiert werden können.20 Heisenbergs Vorschlag war es daher, jede Hoffnung auf zukünftig mögliche Beobachtbarkeit der klassischen Größen, wie sie die Newton’sche Mechanik beschrieb, fallen zu lassen und stattdessen eine quantentheoretische Mechanik so zu formulieren, dass nur tatsächlich beobachtbare Größen enthalten waren. Dazu reformulierte er die klassische, physikalische Darstellungsweise, indem er „die Idee von Elektronenbahnen mit bestimmten Radien und Umlaufperioden“ verbannte, „weil diese Größen nicht beobachtbar“ waren.21 An die Stelle kontinuierlicher Bewegungen trat das diskrete Modell der Quantensprünge und dessen mathematischer Beschreibung als ein Schema von Übergangsamplituden. In eben dieser Auflösung des funktionellen Zusammenhangs kontinuierlicher Bewegung mit der Zeit bestand das Revolutionäre der Quantenmechanik, insofern sich Ort und Bewegung quantenmechanischer Prozesse nicht mehr gleichzeitig beobachten ließen. Mit dieser Nichtbeobachtbarkeit wurden aber auch Differenzialgleichungen als die paradigmatischen Darstellungsmedien veränderlicher Größen obsolet. Mehr noch, der stetige Charakter klassischer physikalischer Prozesse, der sich anschaulich in Kurvenverläufen von zeitabhängigen Funktionen zeigte, wurde durch die Quantenmechanik ausgehebelt. An die Stelle von Bewegung als Funktion der Zeit trat die mathematische Beschreibung eines durch die Multiplikationsregel gewonnenen quadratischen Schemas von Übergangsamplituden. Die Frage, mit welchem Formalismus sich ein solches Schema darstellen ließ, beantworteten Max Born und Pascual Jordan. Sie beschrieben die Aufgabe als „Versuch, den neuen Tatsachen – statt durch mehr oder weniger künstliche und gezwungene Anpassung an alte gewohnte Begriffe – durch die Schaffung eines neuen, wirklich

20 Werner Heisenberg: Über quantentheoretische Umdeutung kinematischer und mechanischer Beziehungen (1925). In: Max Born, Werner Heisenberg, Pascual Jordan: Zur Begründung der Matrizenrechnung, hg. v. Armin Hermann, Stuttgart 1962, S. 31–45, S. 31; Max Jammer: The Conceptual Development of Quantum Mechanics, New York 1966. 21 Max Born: Die statistische Deutung der Quantenmechanik (Nobel-Vortrag gehalten am 11.12.1954). In: Born, Heisenberg, Jordan (s. Anm. 20), S. 1–12, S. 4.

Matrizen. Schriftbilder diskontinuierlicher Zeitmodelle

67

angemessenen Begriffssystems gerecht zu werden“.22 Die Ausgestaltung des neuen Formalismus bestand darin, das von Heisenberg formulierte Multiplikationsgesetz quantentheoretischer Größen als „den Mathematikern wohlbekanntes Gesetz der Multiplikation von Matrizen“ zu erkennen und die Matrize als „Repräsentant einer physikalischen Größe [zu interpretieren], die in der klassischen Theorie als Funktion der Zeit angegeben wird“.23 Dies erforderte einen diskreten Formalismus, der die Wahrscheinlichkeit der Übergänge von einem Zustand in den nächsten darstellbar machte. Die mathematische Erfahrungsmöglichkeit der Quantenmechanik verlangte geradezu die „Benutzung einer Matrizenanalysis an Stelle der gewöhnlichen Zahlenanalysis“, wobei die „Quadrate der Beträge der Elemente der das elektrische Moment eines Atoms darstellenden Matrix das Maß […] für die Übergangswahrscheinlichkeit“ waren.24 Die Wahrscheinlichkeit der Quantensprünge, die Heisenberg mathematisch durch die Multiplikationsregel als quadratisches Schema von Übergangsamplituden gewann, zeigte sich in Borns Matrizenschreibweise in den Größen entlang der Diagonale der Matrize. Streit um Anschaulichkeit

Während es Heisenberg 1925 um die Beobachtbarkeit in Sinne von Messbarkeit ging und er dafür den vertrauten Zusammenhang von Ort und Impuls über die Zeit in Form von stetigen Elektronenbahnen zugunsten von diskreten Quantensprüngen opferte, war Erwin Schrödinger 1926 der Meinung, dass es „kaum nötig [ist], hervorzuheben, um wie vieles sympathischer die Vorstellung sein würde, daß bei einem Quantenübergang die Energie aus einer Schwingungsform in eine andere übergeht, als die Vorstellung von den springenden Elektronen. Die Änderung der Schwingungsform kann sich stetig in Raum und Zeit vollziehen“.25 Die Wahrscheinlichkeit der Quantensprünge als Größen entlang der Diagonale der Matrize lehnte Schrödinger als zu abstrakt ab. Schrödingers Vorwurf der „abschreckenden, ja abstoßenden Unanschaulichkeit und Abstraktheit“ der Matrizenmechanik resultierte aus der symbolischen Anschaulichkeit der vertrauten Darstellung von Zeitlichkeit anhand von Differenzial­

22 Max Born, Pascual Jordan: Zur Quantenmechanik (1925). In: Born, Heisenberg, Jordan (s. Anm. 20), S. 46–76, S. 46. 23 Born, Jordan (s. Anm. 22), S. 47. 24 Born, Jordan (s. Anm. 22), S. 47–48. 25 Erwin Schrödinger: Quantisierung als Eigenwertproblem (I). In: Annalen der Physik, Jg. 79, 1926, Heft 4, S. 361–376, S. 375; Erwin Schrödinger: Über das Verhältnis der Heisenberg-Born-Jordanschen Quantenmechanik zu der meinen. In: Annalen der Physik, Jg. 79, 1926, Heft 8, S. 734–756.

68

Gabriele Gramelsberger

gleichungen für Schrödingers Wellenmechanik.26 Sein wellenmechanischer Ansatz wurde von Heisenberg 1927 zwar als „nicht hoch genug ein(zu)schätzen“ gerühmt, aber sogleich dahingehend verworfen, dass in „den prinzipiellen, physikalischen Fragen […] die populäre Anschaulichkeit der Wellenmechanik vom geraden Weg abgeführt“ würde.27 Schrödingers Idee, Quantenübergänge als Schwingungsformen zu betrachten, lehnte Heisenberg rigoros ab, da dies vielleicht für den Spezialfall des harmonischen Oszillators möglich sei, da hier die Schwingung ein ganzzahliges Vielfaches einer Grundfrequenz ist, aber nicht für die beobachteten Quantenübergänge. Analog zu Albert Einsteins Relativitätstheorie rechtfertigte Heisenberg seine Haltung wie folgt: „Nach der Relativitätstheorie läßt sich das Wort ,gleichzeitig‘ nicht anders definieren, als durch Experimente, in welche die Ausbreitungsgeschwindigkeit des Lichts wesentlich eingeht. Gäbe es eine ,schärfere‘ Definition der Gleichzeitigkeit, also z. B. Signale, die sich unendlich schnell fortpflanzen, so wäre die Relativitätstheorie unmöglich. […] Ähnlich steht es mit der Definition der Begriffe: ‚Elektronenort, Geschwindigkeit‘ in der Quantentheorie. Alle Experimente, die wir zur Definition dieser Worte verwenden können, enthalten notwendig die durch Gleichung angegebene Ungenauigkeit, wenn sie auch den einzelnen Begriff p [Impuls], q [­Koordinate] exakt zu definieren gestatten.“ 28

Für die Quantenmechanik bedeutete dies, dass der Formalismus dem Umstand Rechnung tragen muss, dass „jedes Experiment zur Bestimmung der Phase das Atom zerstört beziehungsweise verändert“.29 Daraus folgte die Unschärfe des einzelnen Experiments, indem es nur eine physikalische Größe in den Fokus nehmen kann: Ort oder Impuls, beide stellen konjungierte Operatoren dar, die zur gleichen Zeit nicht eindeutig bestimmbar sind. Wie Born in seiner Nobelrede von 1954 feststellte, war es Heisenbergs statistische Deutung – die Kopenhagen-Göttingen-Deutung, die Heisenbergs Unschär 26 Schrödinger, paraphrasiert in Werner Heisenberg: Über den anschaulichen Inhalt der quantentheoretischen Kinematik und Mechanik. In: Zeitschrift für Physik, 1927, S. 172–198, hier S. 196. 27 Heisenberg: Über den anschaulichen Inhalt (s. Anm. 26), S. 196, Fn 1; Werner Heisenberg: Die „beobachtbaren Größen“ in der Theorie der Elementarteilchen. In: Zeitschrift für Physik, 1943, S. 513–538. Zum Streit zwischen Heisenberg und Schrödinger vgl. Mara Beller: The Rhetoric of Antirealism and the Copenhagen Spirit. In: Philosophy of Science, Jg. 63, 1996, S. 183–204; Henk de Regt: Erwin Schrödinger, Anschaulichkeit and Quantum Theory. In: Studies in the History and Philosophy of Modern Physics, Jg. 28, 1997, S. 461–481. 28 Heisenberg: Über den anschaulichen Inhalt (s. Anm. 26), S. 179. 29 Heisenberg: Über den anschaulichen Inhalt (s. Anm. 26), S. 177.

Matrizen. Schriftbilder diskontinuierlicher Zeitmodelle

69

ferelation enthielt – von Schrödingers Wellenfunktion von 1927, die der neuen Quantenmechanik zum Durchbruch verhalf, aber von Schrödinger zeitlebens abgelehnt wurde.30 Dirac führte dann 1930 die Matrizen- und Wellenmechanik zusammen.31 Einsteins Relativitätstheorie wäre ein weiteres Beispiel neuer Zeitmodelle in der Physik und der Mächtigkeit von Matrizen in Form der Tensorrechnung gewesen. Wie Gaston Bachelard treffend in Der neue wissenschaftliche Geist bemerkte, war es die Tensorrechnung respektive die Matrizenrechnung, die die moderne Physik erst hervorbrachte, so wie das Mikroskop die Mikrobiologie ermöglichte.32

30 Born: Die statistische Deutung der Quantenmechanik (s. Anm. 21), S. 6. 31 Paul Dirac: The Principles of Quantum Mechanics (1930), Oxford 1958. 32 Gaston Bachelard: Der neue wissenschaftliche Geist (1934), Frankfurt a. M. 1988, S. 57f. Eine Zahl ist ein Tensor 0-ter Stufe, Vektoren sind Tensoren 1-er Stufe und eine Matrix ist ein Tensor 2-ter Stufe. Beispielsweise ist der mechanische Spannungstensor ein Tensor 2-ter Stufe (Stärke der Spannung).

Wiedergelesen Sebastian Gießmann

Arbeit, Zeit und Inskription. John Pattinson Thomas’ Handling London’s Underground Traffic (1928) Zeitgestaltung ist Präzisionsarbeit. Sie entwickelt sich insbesondere dazu, wenn die mit ihr einhergehenden koordinativen Notwendigkeiten ganze Infrastrukturen umfassen. So wird derjenige, der den 1928 im Selbstverlag erschienenen Band Handling London’s Underground Traffic unvorbereitet aufschlägt, von der textlichen Akkuratesse und genauen grafischen Zurichtung überrascht sein.1 Die Sorgfalt, mit der hier die elementaren Operationen eines großstädtischen Verkehrsnetzes vermittelt werden, steht im auffälligen Kontrast zu den im Text stets präsenten alltäglichen Notwendigkeiten des Verkehrsmanagements. Nichts ist dreckig, nichts dysfunktional an diesem Band, der sowohl Lehrmittel für die interne Schulung wie repräsentative Firmenschrift war. Der unübersehbare materielle Aufwand, der ausklappbare Diagramme, Koordinatensysteme und für den Band angefertigte Fotografien umfasste, stand jedoch in Korrespondenz mit den Bemühungen, London Underground in eine kundenorientierte Organisation zu verwandeln. Insbesondere hatte der General Manager Frank Pick, dessen Grußwort den Band eröffnete, in den 1920er-Jahren eine Vielzahl von Maßnahmen zur Öffentlichkeitsarbeit ergriffen, die auf eine umfassende architektonische und grafische Gestaltung der Londoner Verkehrsinfrastrukturen abzielten. Während Pick Architekten wie Charles Holden begeisterte und Plakatwettbewerbe ausrichten ließ, 2 zielte John Pattinson Thomas als Operating Manager of London’s Underground auf alle Fragen des 1 John Pattinson Thomas: Handling London’s Under­ ground Traffic, London 1928. Gedruckt und gebunden wurde bei Curwen Press in Plaistow. 2 Oliver Green: Underground Art. London Transport Posters 1908 to the Present, London 2001.

Betriebsablaufes. Die hierfür nötige koordinative Präzisionsarbeit leitete Handling London’s Underground Traffic an. Im Vordergrund standen dabei zunächst organisationspragmatische Fragen. Neben dem Aufriss entsprechender Organigramme, die eine hierarchische Gliederung entfalteten, dominierten Fragen der sorgfältigen Personalrekrutierung und effizienten Arbeitsteilung das erste Drittel des Buches. Zeitgestaltung war hier zunächst Zeitverwaltung, die von den zu berücksichtigenden Schulungszeiträumen über karrieretechnische Aufstiegsmöglichkeiten bis hin zur Einrichtung konkreter Schichtpläne reichte. Dabei gingen alle praktischen Zurichtungen der Zeitlogistik von ökonomischen Kriterien aus: Wie hoch ist die reale Nachfrage nach Verkehrsdienstleistungen innerhalb welcher Zeiträume? Die hierfür nötige Formular- und Datenarbeit wurde beispielsweise mit train loading diagrams versehen, mit denen die Lastspitzen der verschiedenen Linien dokumentiert wurden. Anhand der entsprechenden Diagramme lässt sich ersehen, wie die laufenden Koordinationsaufgaben einerseits von Normalitätserwartungen (mehr Verkehr im Winter, Anpassungen an das jeweilige Wetter, Feiertage, Rushhours usw.) strukturiert wurden, andererseits aber die grafische Repräsentation mit Irregularitäten, Veränderungen im tatsächlichen zeitlichen Rhythmus und der gelebten Zeit im Verkehrsnetz umzugehen suchte. Die tatsächlich aufgestellten Fahrpläne reflektierten bereits ein umfangreiches Berichtsystem von traffic reports, wobei diese zumeist auf den Erfahrungen des Vorjahres beruhten. Ein vergleichbares Verfahren wurde für die regelmäßige tägliche Taktung etabliert, indem man die tatsächlichen Abfahrtszeiten dokumentierte, mit dem jeweiligen Fahrplan abglich und – wenn notwendig – (wiederholte) Verspätungen durch rote Tinte notierte.3 Der stete Abgleich zwischen der kalendarischen Ordnung der Fahrpläne und den Fluktuationen des laufenden Betriebes machte einen großen Teil der

3 Thomas (s. Anm. 1), S. 27–28.

Wiedergelesen

Synchronisationsarbeit4 am und im Londoner Verkehrsnetz aus. Dies gestaltete sich noch einmal komplexer, wenn die Organisations- und Zeitplanungsbedürfnisse anderer Zuglinien zu beachten waren, die die gleichen Gleise benutzten und zugleich wichtiges Ziel umsteigender Passagiere waren.5 Innerhalb der Londoner Bahntopografie kam erschwerend hinzu, dass eine Linie selten gänzlich linear war, sondern über Einmündungen und Abzweigungen verfügte, die ebenfalls zur genauen zeitlichen Koordination des Zugverkehrs nötigten. Als besondere Herausforderung galt zudem die Einrichtung der lay-over times – der Zeiträume, in denen ein Zug am Ende einer Linie stoppte und wieder seinen Betrieb aufnahm.6 Diese und andere technische Notwendigkeiten korrespondierten dabei immer mit der Frage, wie die Faktoren des Zeitmanagements mit denen der Bezahlung und des Einsatzes von Arbeitern zu koordinieren waren. Durch die 1919 erfolgte Einführung des Achtstundentags waren starke arbeitsrechtliche Vorgaben eingeführt worden, die Thomas’ Text als Rahmen für die Erstellung von duty sheets markiert – nicht ohne dabei offen zu lassen, ob das Bekenntnis zu den Vorschriften tatsächlich mit der geleisteten Arbeit und ihrer Entlohnung übereinstimmte.7 Man kann diese Unmenge an physischer Eisenbahnerarbeit, an Papier- und Formulardarstellung mit ihren Präzisionsnotwendigkeiten und der institutionellen Logistik des entsprechenden Berichtswesens als ganz normale urban-industrielle Zeitgestaltung auffassen. London Underground ging jedoch in der grafischen Koordination und Synchronisation jedoch noch einen wesentlichen Schritt weiter. Paper tools, Uhren und elektromechanische Steuerung wurden für die Bedürfnisse des Arbeitsalltags 4 Vgl. Christian Kassung, Thomas Macho (Hg.): Kulturtechniken der Synchronisation, München 2013. 5 Thomas (s. Anm. 1), S. 31. Tatsächlich war dies in England, in dem traditionell eine Vielzahl privater Eisenbahnen miteinander konkurrierten, auch im Londoner Netz lange der Normalfall. 6 Thomas (s. Anm. 1), S. 32f. 7 Thomas (s. Anm. 1), S. 41f., S. 48.

71

1: London’s Underground: headway chart als Speicher der Zugfrequenz eines Betriebstages, ca. 1928.

eng miteinander verschaltet, so dass grafischelektrische Methoden Inskriptionen erzeugen konnten, die den Betrieb des gesamten Netzes anzeigten und in Gang hielten. Damit ging eine Abstraktion von den laufenden Arbeitspraktiken auf Strecken, in Betriebshöfen und in Stationen einher, zugunsten einer möglichst übersichtlichen Darstellung des Betriebsablaufs. Während Fahrer zur formularbasierten Dokumentation realer Abfahrtszeiten angehalten waren, wurden Durchfahrten in den 1920er-Jahren vermehrt apparativ durch das Überfahren von Schaltern registriert, um den Zugführern zugleich Informationen über Verspätungen oder die eher seltenen Verfrühungen zu geben. Als Grundlage diente dabei die sogenannte headway chart, an der Zugführer den Abstand zum vorausfahrenden Zug ablesen konnten. Zusätzlich zeichneten die rotierenden Papierscheiben der headway clock die Zugfrequenz auf, indem sie pro Durchfahrt eine Einkerbung vornahmen. Je regelmäßiger die Einkerbungen in das Papier, umso normalisierter erschien der Zugverkehr. ◊ Abb. 1 Per elektromechanischer Übermittlung in die general offices von London Underground (55 Broadway, Westminster) wurde so der Zustand aller sechs Linien innerhalb eines train recording

72

Wiedergelesen

­diagram angezeigt. ◊ Abb. 2 Die Registrierung des gesamten 19-stündigen Arbeitstages galt so der Identifikation des synchronen oder asynchronen Status’ des Verkehrsnetzes. In Thomas’ Worten war sie mehr als eine zentralisierte Kontrollinstanz. Ihre Abstraktionsleistung musste wieder in Reparatur- und Instandsetzungsarbeit übersetzt werden: „[T]hese news-recording instruments will be installed at all the depots, so that the engineering and operating staff will be advised at once, and simultaneously, of the occurence.“ 8 Zeitgestaltung, so ließe sich gerade anhand der hier gezeigten Uhren und Synchronisationstechniken bemerken, beruht auf weitgehend „unsichtbarer Arbeit“.9 Was sich in umgeschriebenen Fahrplänen und Indizes von Zugdurchfahrten wie auch insgesamt an einem Handbuch wie Handling London’s Underground Traffic zeigt, ist die sichtbare Seite unsichtbarer Arbeit. Für die Synchronisation und Standardisierung eines komplexen infrastrukturellen Netzwerks bedurfte es offenbar nicht nur einer Vielzahl bürokratischer Inskriptionen, sondern der Gestaltung übersichtlicher Darstellungen, die die Eigenzeit der Londoner Arbeits- und Mobilitätspraktiken repräsentieren konnten. Damit wurde das train recording diagram zu einem Grenzobjekt der Zeit10 – einem infra 8 Thomas (s. Anm. 1), S. 101. 9 Vgl. hierzu Susan Leigh Star, Anselm Strauss: Schichten des Schweigens, Arenen der Stimme. Die Ökologie sichtbarer und unsichtbarer Arbeit. In: Susan Leigh Star: Grenzobjekte und Medienforschung, Bielefeld 2017, S. 287–313. 10 Vgl. ebd.; siehe zur Verzeitlichung von Grenzobjekten Elaine E. Yakura: Timelines as Temporal Boundary Objects. In: The Academy of Management Journal, Jg. 45, 2002, Heft 5, S. 956–970.

2: London’s Underground: Automatisches train recording diagram für das gesamte Londoner Netz, mit elektrischer Übermittlung in Haupt­quartier und Kontrollzentren, ca. 1928.

strukturellen Instrument, mit dem die tagtäglich von Akteuren aus verschiedenen sozialen Welten verfolgten Wege koordiniert wurden. Es fungierte als das zeitgestaltende Pendant der Londoner Tube map, deren bis heute unübertroffene visuelle Form der Zeichner Henry Charles Beck zwischen 1931 und 1933 entwickelt hat.11 So wie das train recording diagram Zeitpraktiken und städtische Rhythmen koordinierte, gliederte Becks Tube map den Navigationsraum der täglichen Wege in der Großstadt wenige Jahre später neu.

11 Vgl. hierzu ausführlich Sebastian Gießmann: Synchronisation im Diagramm. Henry C. Beck und die Londoner Tube Map von 1933. In: Kassung, Macho (s. Anm. 4), S. 339–364.

Katharina Walter

Automobile Typografie. Rhythmen und Beschleunigungen in der buchstäblichen Komfortzone Die Geschwindigkeit, in der ein Text gelesen wird, ist bekanntermaßen abhängig von individuellen Faktoren wie dem Sehvermögen, der Lesefähigkeit oder auch der Motivation des Lesenden, sich dem Inhalt zu widmen. Andererseits beweist die experimentelle Leseforschung, dass Lesezeiten durchaus objektivierbar sind, wenn Anfänger von Schnelllesern aufgrund der gelesenen Wortmenge pro Minute kategorisch unterschieden werden. Doch die Lesegeschwindigkeit ist nicht nur ein Gegenstand wissenschaftlicher Messmethoden, sondern auch ein Kernproblem typografischer Gestaltung. Insbesondere das von den Typografen Hans Peter Willberg und Friedrich Forssman 1997 publizierte Grundlagenwerk Lesetypographie bildet die bis heute umfangreichste, typologische Auseinandersetzung mit den Formen des Lesens und deren typoästhetischen Konsequenzen für eine effiziente Lesedynamik.1 Folglich kreisen die dem Lesen anhängigen Wissensbestände um zwei epistemische Zentren: Während sich die eine Beobachtungs- und Erklärungsstrategie auf das Lesesubjekt richtet, konzentriert sich die andere auf die buchstäblichen Objekte, die dem Lesenden vor Augen liegen. Insofern versucht die Typografie als eine materialbasierte Leseforschung die Zeitlichkeit des Lesens über die Gestalt von Schriftmedien zu begreifen. Dieses gestalterische Wissen um die Korrelation von typografischer Formgebung und Lesezeit kommt bereits 1969 bei dem Schweizer Schriftgestalter Adrian Frutiger zum Ausdruck, wenn er einen außergewöhnlichen Medienvergleich zwischen Lesen und Fahren zieht: „Die eigentliche Aufgabe des Textschriftherstellers liegt darin, den Lesekomfort immer mehr zu steigern, ebenso wie die modernen Transportmittel immer mehr auf ein angenehmeres, aber auch schnelleres Reisen hin ausgebaut werden. Durch ausgewogene Schwarz-Weiß-Verhältnisse und klare Schriftbilder gibt er dem Leser die Möglichkeit, auf schnellerem, leichter auffaßbarem und angenehmerem Wege sich durch die ständig steigende Masse des Gedruckten müheloser, ‚komfortabler‘, durchzulesen.“ 2

Für Frutiger sind die ineinandergreifenden schwarzen und weißen Formen der Buchstaben und Leerräume keine statischen Strukturgebilde, sondern in ihnen wirken Eigenmechanismen, die das Auge quasi als Passagier eines „Typo-Mobils“ mit optischen Lenkungsmanövern aktiv durch den Text führen. Der Typograf selbst wird zum 1 Vgl. Hans Peter Willberg, Friedrich Forssman: Lesetypographie, Mainz 1997. 2 Adrian Frutiger: Die Herstellung von Schriftträgern für Fotosatzsysteme mit hohen Belichtungsgeschwindigkeiten. In: Typographische Monatsblätter, 1969, Heft 1, S. 11.

74

Katharina Walter

Sachverständigen einer schriftbildlichen Eigenbeweglichkeit und mit der mikrotypografischen Gestaltung lesezeitlicher Dynamiken beauftragt. Typografische Strukturen werden nicht mehr nur als typometrisch-konstruktive Satzgebilde wahrgenommen, sondern erhalten darüber hinaus eine temporale Funktion, über die das Lesen be- oder entschleunigt werden kann. Es stellt sich nun im Rahmen des folgenden Textes die Frage nach der besonderen wissenshistorischen Konstellation, die dieses Epistem der Schriftzeitlichkeit in der Typografie des 20. Jahrhunderts hervorgebracht hat. Die Möglichkeit, um eine lesezeitliche Regulierung durch die Typografie zu wissen, setzte zunächst einmal voraus, Buchstaben als Zeitwerte überhaupt wahrnehmen zu können. Eine historische Linie führt dabei zurück zu den Anfängen der Leseforschung und ihrer Entwicklung experimentell-analytischer Verfahren. Typografie hören

In den psychophysiologischen Arbeiten zur visuellen Wahrnehmung um die Mitte des 19. Jahrhunderts bildete das Lesen nur ein randständiges Problem. Buchstaben wurden von Hermann von Helmholtz und seinen Schülern ausschließlich als Reizmaterial im Rahmen ihrer tachistoskopischen Experimente eingesetzt.3 Ansonsten wurde überwiegend am schriftbasierten Modell des buchstabierenden Lesens bis um die Mitte der 1880er-Jahre festgehalten: „Wenn aber nicht buchstabirt wird, kann auch nicht gelesen werden.“ 4 Diese Annahme wurde jedoch bereits 1878 durch die augenmedizinische Forschung in Frankreich widerlegt, deren pathologisches Interesse auf die beunruhigende Diagnose einer massiv zunehmenden Kurzsichtigkeit reagierte, die insbesondere unter Schülern grassierte und die bildungsreformerischen Absichten jener Zeit durchkreuzte. Für den französischen Augenarzt Émile Javal gab dieser Befund den Ausschlag für seine wegweisenden Untersuchungen der Augenbewegungen beim Lesen. In seinem „Essai sur la physiologie de la lecture“, in dem er seine frühen Studienergebnisse zusammenfasste, übte er einleitend eine harsche Kritik an der Typografie, die er als Hauptverursacher der Myopie beschuldigte. Der Buchdruck zeige historisch eine bedenkliche Tendenz zu immer kleineren Schriftgrößen, was die menschliche

3 Vgl. Hermann von Helmholtz: Über die Zeit, welche nöthig ist, damit ein Gesichtseindruck zum Bewusstsein kommt. Resultate einer von Herrn N. Baxt im Heidelberger Laboratorium ausgeführten Untersuchung. In: Monatsberichte der Königlich Preussischen Akademie der Wissenschaften zu Berlin, 1871, S. 333–337. 4 Carl Wernicke: Die neueren Arbeiten über Aphasie. In: Fortschritte der Medicin, 1886, Band 4, S. 470.

Automobile Typografie. Rhythmen und Beschleunigungen in der buchstäblichen Komfortzone

75

Seh- und Lesefähigkeit in generationenübergreifendem Ausmaße zu schädigen drohe.5 Schriftzeichen wurden im Rahmen dieses augenpathologischen Diskurses nicht mehr als Medien wahrgenommen, die Wissensaneignung und Wissensbildung ermöglichten, sondern als solche, die sie durch ihre triviale Materialität beeinträchtigten oder gar verhinderten. Javal entwickelte in der Folge Messverfahren, um zunächst einmal zu erforschen, wie das optische Abtasten der gedruckten Zeile durch das Auge überhaupt funktionierte. Sein Mitarbeiter Lamare bediente sich dafür eines Mikrophons, das jede Augenbewegung mithilfe einer auf dem Oberlid aufgesetzten Spitze in ein akustisches Signal übertrug. Das Auge zerlegte die Zeile für den Forscher hörbar in Abschnitte, die nach weiteren Berechnungen ungefähr eine halbe Sekunde dauerten und circa zehn Buchstaben umfassten. Javals „Mechanismus des Lesens“ 6 setzte sich zusammen aus diesen kurzen Fixationspausen und dem dazwischengeschalteten „blinden“ rhythmischen Rucken. Innerhalb dieses epistemischen Raums verloren die Schriftzeichen gänzlich ihre lautsymbolische Funktion und wurden nunmehr zu Einheiten einer Zeitmessung. Durch die Übertragung der stillen Lektüre in ein akustisches Medium machte der Zuhörer die neuartige Erfahrung eines außersprachlichen Verhältnisses zwischen Auge und Buchstabe. Typografische Strukturen traten darin als eigenrhythmische Kompositionen hervor, in denen Buchstaben über ihre zeilenbildende Funktion hinaus einen zusätzlichen Zeitwert gewannen. Auf diese Weise stellte sich Typografie nicht mehr allein als eine räumliche, sondern auch als eine zeitliche Organisation des Symbolischen dar. Mit der Erkenntnis der augenoptischen Sprachindifferenz wurden die eigenrhythmischen Intervalle des Auges zum Kern eines neuen Lesemodells, das die Zeitlichkeit typografischer Strukturen verstärkt in den Fokus brachte. Typografische Fahrzeuge

Lamare stellte des Weiteren fest, dass das Auge in seiner lesespezifischen Eigenrhythmik eine „Art von Freiheit“ besitze, denn beim mehrmaligen Wiederholen einer Zeile teile es die Abschnitte durchaus unterschiedlich ein.7 Die Sprünge der Augen seien mit den Schrittfolgen eines Menschen vergleichbar, der mehrmals hintereinander durch ein steiniges Flussbett hinabsteige: „Es ist mehr als zweifelhaft, dass er bei jedem neuen, 5 Vgl. Émile Javal: Essai sur la physiologie de la lecture. In: Annales d’Oculistique, 1878, Band 79, S. 97. 6 Javal: Die Physiologie des Lesens und Schreibens. Autorisierte Übers. nach der 2. Aufl. des Originals nebst Anhang über deutsche Schrift und Stenographie von F. Haass, Leipzig 1907, S. 135. 7 Lamare: Des mouvements des yeux dans la lecture. In: Bulletins et Mémoires de la Société Française d’Ophtalmologie, 1892, Heft 10, S. 354–364, S. 358.

76

Katharina Walter

von demselben Ausgangspunkte beginnenden Abstieg denselben Fuss auf dieselbe Stelle setzt, und dass er jedesmal genau dieselbe Zahl von Schritten macht […].“ 8 Der Mensch ist eben, wie es der Geschwindigkeitstheoretiker Paul Virilio einmal formuliert hat, ein „metabolisches Fahrzeug mit eigenem Tempo“,9 das aber nach Lamare seine körperlichen und okularen Bewegungsrhythmen weder exakt kontrollieren noch neuronal speichern kann. Das Auge verhält sich wie ein eigenwilliges Gefährt, das mittels einer typografischen Infrastruktur durch den Text manövriert wird, gerade so, wie man durch eine gezielte Formgebung und Anordnung von Trittsteinen die Überquerung eines Flusses künstlich zu takten versucht. Aus diesem Grund bezeichnet Virilio Infrastrukturen auch als „statische Fahrzeuge“, die trotz ihrer faktischen Immobilität dennoch im Verbund mit dem „dynamischen Fahrzeug“ das Medium Fahren erst vollständig erzeugen.10 Gleichfalls sind typografische Medien nichts anderes als Aktanten des Lesens, die durch ihre optisch-ergonomische Formgebung die Blickbewegungen des Lesers stimulieren und steuern. Dieses Wissen um die intrinsische Wechselwirkung von typografischer Ästhetik und Augenmobilität bestimmte auch von Beginn an Javals wissenschaftlichen Erkenntnisprozess, infolgedessen seine Leseforschung niemals nur Augen-, sondern immer auch Typografieforschung war. So leitete er seinen Essay von 1878 wider Erwarten nicht mit einer Abhandlung über die organischen Funktionen des Auges und seiner Pathologien ein, sondern über die historische Genese der Schrift. Denn Lesen war für Javal eine Kulturtechnik, die genuin und wesentlich an die Schrift gekoppelt war. Folgerichtig begann für ihn deshalb seine Physiologie des Lesens mit der Physionomie der Schriftzeichen, deren historische Transformationen er vielfältig bedingt sah durch Veränderungen des gesellschaftlichen Geschmacks, kunsthandwerkliche Fertigkeiten, augenorganische Fähigkeiten, lichttechnische Mittel und nicht zuletzt durch die zunehmende Verbreitung optischer Sehhilfen.11 Das Lesen wird von ihm als eine kulturtechnische Konstellation vorgestellt, die ein wechselseitiges Verhältnis beschreibt zwischen lautsymbolischer Vermittlung, physischen, psychischen und sozialen Merkmalen des Lesenden, Materialitäten und Techniken sowie räumlichen Bedingungen. Performativer Ausdruck der westlichen Lesekulturalisierung ist selbstredend die horizontale Blickführung: Das Auge des alphabetischen Lesers wird früh auf eine besondere Form der optischen Texterfassung konditioniert – von links nach rechts, Zeile um Zeile. Den empirischen Beweis dafür erbrachte Javal durch die Beobach 8 9 10 11

Lamare (s. Anm. 7), S. 138. Paul Virilio: Fahrzeug. In: ders.: Fahren, fahren, fahren …, Berlin 1978, S. 20. Virilio (s. Anm. 9), S. 23. Vgl. Javal: Essai (s. Anm. 5), S. 97.

Automobile Typografie. Rhythmen und Beschleunigungen in der buchstäblichen Komfortzone

77

tung eigener Nachbilder, auf denen sich die Textzeilen als hellgraue Streifen auf der Netzhaut ablichteten. Er schlussfolgerte, dass es keine vertikalen Abweichungen des Auges geben könne, denn würden die Zeilen nicht beständig auf denselben Stellen der Netzhaut abgebildet werden, so entstünde auch kein derartiges Nachbild.12 Diesen augenoptischen Abbildungsprozess simulierte er anschließend mithilfe eines mit einer Textseite kaschierten Zylinders, den er in Drehung versetzte. Gelang es ihm zwar, den linearen Lesevorgang in seiner zeitlichen Ausdehnung als eine Summe von Nachbildern auf diese Weise anschaulich zu machen, so musste diese Demonstration für jeden Typografen damals dennoch eine Enttäuschung gewesen sein: Augenscheinlich lösten sich die vormals diskreten Schriftzeichen in einem grauen Farbstrom vollständig auf. Javal erhielt zwar mit seinem Experiment ein analoges Zeitbild des Lesens, das über die räumliche Blickführung eine Aussage machte, doch konnten daraus keine Erkenntnisse über die optischen Übertragungsmodi von Buchstabenformen gewonnen werden. Welche Buchstabendetails im Leseprozess überhaupt übermittelt wurden, für dieses Problem konnte Javal der Typografie keine verwertbaren Informationen lie­fern. Immerhin gelang es dem Leseforscher durch eine weitere Untersuchung von Nachbildern den Fixationspunkt der horizontalen Blickführung, das heißt den eingegrenzten Schärfebereich der fovea centralis, zu lokalisieren, der etwas unterhalb des oberen Endes der Kleinbuchstaben lag. Alle anderen Teile der Buchstaben, vornehmlich die Unterlängen, würden demnach nur indirekt gesehen. Für Javal bewies diese Beobachtung zweierlei: „Si le regard se contente de glisser horizontalement, c’est pour éviter des mouvements compliqués et inutiles, et la position de l’horizontale choisie est commandée par la structure de nos caractères typographiques.“ 13 Danach sei das strikt lineare Lesen wechselseitig durch zwei Faktoren bedingt: Erstens durch die natürliche Effizienz augenmuskulärer Mobilität, weil waagrechte Bewegungen sich von Natur aus schneller und exakter vollzögen als senkrechte.14 Zweitens, und hier kommt nun die Schriftästhetik ins Spiel, sei die Position dieser horizontalen Linie nicht arbiträr, vielmehr suche das Auge die größte Signifikanzdichte, die eindeutig in der oberen Hälfte der Zeile liege, also dort, wo sich neben den Kleinbuchstaben, die Großbuchstaben, Akzente, Punkte und Oberlängen befänden.15 Ein einfacher Test, bei dem Javal jeweils die obere und untere Hälfte einer Zeile abdeckte, bewies, dass allein der obere Teil genügte, um einen Text nahezu fließend zu lesen. Daraus zog er die Konsequenz, 12 Vgl. Émile Javal: L’évolution de la typographie considérée dans ses rapports avec l’hygiène de la vue. In: La Revue scientifique de la France et de l’étranger, 1881, Heft 26, S. 804. 13 Javal: L’évolution (s. Anm. 12). 14 Vgl. Javal: Essai (s. Anm. 5), S. 105. 15 Vgl. Javal: L’évolution (s. Anm. 12), S. 804.

78

Katharina Walter

dass hauptsächlich die Formen in diesem Bereich bestmöglich differenziert werden müssten.16 Leserhythmen waren demnach für Javal das Ergebnis eines komplexen medialen Zusammenspiels von Augenoptik und Schriftbildlichkeit, dessen Störungen sich in den von ihm 1: Série Deberny (N° 18), Schriftmusterbuch, Deberny & Cie, Paris 1906. angeprangerten Pathologien des Lesens seiner Zeit niederschlugen. Um die rhythmische Funktionstüchtigkeit und Zügigkeit des Lesemechanismus optimal zu gewährleisten, müsse endlich die „forme typique“ eines jeden Buchstabens freigelegt werden, denn für eine Detailwahrnehmung habe das Auge schlicht keine Zeit: „Pendant la lecture, le regard n’a pas le temps d’examiner chaque lettre dans toutes ses parties.“ 17 Javal plädierte – und das lange vor dem Funktionalismus der späteren typografischen Moderne – für nichts anderes als eine Ökonomie der Schriftform und damit für ein symmetrisches Verhältnis augenoptischer Bewegungen und typografischer Formgebung: Die Lesezeit, die das Auge für das rhythmische Abtasten der Schriftbilder braucht, muss in der Partitur der Buchstabenformen niedergeschrieben sein. So könne der Buchstabe V auf seine unterschiedlichen Strichstärken und Abstriche durchaus verzichten, denn er sei durch zwei Linien von gleicher Länge, die in einem spitzen Winkel aufeinandertreffen, leseökonomisch bestens charakterisiert.18 Über weite Strecken lesen sich Javals Ausführungen zur Typografie wie ein Handbuch, wenn er konstruktive Anweisungen zu einer ophtalmologisch korrekten Schriftformgebung gibt. Unwillkürlich nimmt der Augenarzt dabei die Rolle eines Schriftgestalters ein, und nachweislich unterhielt er enge Kontakte zur Pariser Schriftgießerei Deberny, die seine Vorschläge zur Verbesserung der Lesbarkeit in ihren Schriften Série 17 und Série 18 umsetzten.19 ◊ Abb. 1 Ärztliche Diagnose, wissenschaftliche Analyse und gestalterische Synthese waren in Javals früher Leseforschung untrennbar miteinander verbunden.

16 17 18 19

Vgl. Javal: L’évolution (s. Anm. 12). Vgl. Javal: L’évolution (s. Anm. 12), S. 803. Vgl. Javal: L’évolution (s. Anm. 12). Vgl. dazu Javal: Physiologie de la lecture et de l’écriture, Paris 1905, S. XI, 225f.; vgl. auch die deutsche Übersetzung (s. Anm. 6), S. XXI, 244.

Automobile Typografie. Rhythmen und Beschleunigungen in der buchstäblichen Komfortzone

79

Buchstäbliche Beschleunigungen

Knapp hundert Jahre später zielte Frutiger weniger auf eine Stabilisierung als vielmehr auf eine Beschleunigung der Augenrhythmik ab. Für den Schriftgestalter musste die Lesbarkeit eines Textes primär rationellen Kriterien genügen angesichts der „ständig steigenden Masse des Gedruckten“, die der Leser im 20. Jahrhundert tagtäglich zu bewältigen hatte.20 Vor allem die Pressemedien wurden zu externen Taktgebern, die durch ihr periodisches Erscheinen das Textle2: Rasterschema, Adrian Frutiger, 2005. sen zwangsläufig zeitlich rationierten. Doch welche methodischen und ästhetischen Konsequenzen ergaben sich damit für die Schriftgestaltung? Im Gegensatz zu Javals physiologischer Experimentaluntersuchung des Auges setzte Frutiger in seiner typografischen Leseforschung mit einer morphologischen Analyse an den Schriftobjekten selbst an. Dafür verwendete er die damals weltweit geläufigsten Textschriften, u. a. die Garamond, Baskerville, Bodoni, Excelsior, Times, Palatino und Helvetica, die in dieser Reihenfolge zugleich eine Chronologie typografischer Schriftentwicklung seit dem 16. Jahrhundert abbildeten. Er übertrug jede einzelne Schrift in eine eigene Rasterstruktur und legte sie anschließend übereinander. Abgesehen von den Serifen wichen die Formen wenig voneinander ab, und in der Schnittfläche erschienen die Konturen einer serifenlosen Linearantiqua. ◊ Abb. 2 Das Rasterschema erbrachte für Frutiger den Beweis, dass im Laufe der historischen Schriftgenese die lesbarste Form quasi auf natürliche Weise von selbst emergiert: „Die Grundlagen der Lesbarkeit gleichen einer Kristallisation, geformt durch jahrhundertelangen Gebrauch auserwählter, ausgeprägter Schrifttypen. Das Brauchbare, das sich auf Dauer bewährt hat, bleibt vielleicht für immer als ästhetisches Gesetz im Menschen erhalten.“ 21 In diesem evolutionistischen Erklärungsmodell ist ein Wissen um Lesbarkeit implizit in der Materialität von Buchstaben selbst gebunden und auch nur darin für den Schriftgestalter erkennbar. Das Rasterschema offenbarte für ihn dar 20 Frutiger: (s. Anm. 2), S. 11. 21 Frutiger: Der Mensch und seine Zeichen, Wiesbaden (2. Aufl.) 2011, S. 113.

80

Katharina Walter

über hinaus ein psychisches Schriftmuster: „Das Schema der übereinander gelegten a entspricht der Form einer Matrize, welche der Leser in seinem Unterbewusstsein trägt.“ 22 Konzeptionell näherte sich Frutiger damit Javals These der natürlichen Effizienz von Augenbewegungen an, wenn er die Kritik der Lesbarkeit von Schriftformen einer augenoptischen Evaluierungsinstanz unterstellt. Insofern ist der genealogischen Schriftentwicklung eine Lesebeschleunigung intrinsisch, als sich mit der fortlaufenden Durchsetzung der lesbarsten Schriften auf lange Sicht auch die Lesedynamik proportional erhöht. Für die Schriftgestaltung ergibt sich daraus sinngemäß die folgende methodische Prämisse: Die Lesbarkeit einer Schrift macht sich einzig und allein an der Reformulierung einer impliziten Regel fest, die sich über Jahrhunderte in die Buchstabenformen selbst eingeschrieben hat und die der Schriftgestalter wahrnehmen, verstehen und fortschreiben muss. Dabei stellt sich ihm im Anblick des Rasterschemas die Serifenlose einerseits als genau dieses universale Regelprinzip dar, das die historische Genese der Druckschriften selbst immaniert, das heißt die Antiqua-Schriften immer schon fundamentiert. Andererseits konkretisierte sich dieses Prinzip für Frutiger dann letztendlich selbst in Gestalt der Groteskschriften: „Die Formen der Grotesk zeigen das Wesentliche einer Schrift. Keine Endstriche oder anderweitige Auszierungen lenken das Auge von der wesentlichen Form ab […].“ 23 Mit Javal formuliert, hieße das: Dem Auge bleiben nun ineffiziente Umwege erspart. So bildete die Serife für Frutiger mit Blick auf die Lesbarkeit kein formunterscheidendes, sondern lediglich ein formangleichendes Detail innerhalb eines individuellen Schriftdesigns.24 Frutigers Rasterschema war letztendlich nichts anderes als die nachträgliche theoretische Grundlegung seiner serifenlosen Schrift Univers, die er 1957 für die Pariser Schriftgießerei Déberny et Peignot entworfen hatte: „Die Univers wurde aus einem gründlichen Wissen heraus um die Schriftformen der Vergangenheit geschaffen.“ 25 ◊ Abb. 3 In ihrer bis dato einmaligen Auswahl von 21 Schriftschnitten, wofür eine Basisform in ihrer Strichstärke verändert, horizontal gedehnt, vertikal gestreckt oder geneigt wurde, konkretisierte sich zwar Frutigers universales Gestaltungsprinzip der Lesbarkeit, aber es ging auch weit darüber hinaus. Dem neuartigen systemischen Aufbau der Univers lag vor allem die Erfahrung einer radikal veränderten Medienkultur zugrunde, in der das Buch seine leitgebende Funktion zunehmend verlor. Lesen setzte nicht mehr wie bei Javal an der Textzeile an, 22 Frutiger: Nachdenken über Zeichen und Schrift, Bern u. a. 2005, S. 87. 23 Frutiger: Buch der Schriften. Anleitungen für Schriftenentwerfer. Wiesbaden 2005, S. 100. 24 Vgl. Frutiger: Der Mensch (s. Anm. 21), S. 113. 25 Frutiger: Nachdenken (s. Anm. 22), S. 100.

Automobile Typografie. Rhythmen und Beschleunigungen in der buchstäblichen Komfortzone

sondern bereits an der visuell-systematischen Erfassung von multimedialen Informationen, die sich durch Presse, Werbung, aber auch durch signaletische Leitsysteme dem Menschen ununterbrochen vermittelten. Die Geschwindigkeit des Lesens bemaß sich mittlerweile weniger daran, wie schnell das Auge durch die Zeilen sprang, sondern weit mehr an der Dynamik, mit der typografische Strukturen in ihrer visuellen Logik begriffen und navigiert werden konnten. Angesichts dessen postulierte der Schweizer Typograf Emil Ruder im Jahre 1959 eine „Ordnende Typographie“.26 Bereits zwei Jahre zuvor hatte sich dieses neue strukturelle Ordnungsprinzip in Frutigers vielgestaltigem Aufgebot der Univers kongenial verwirklicht:

81

3: Univers-Schema, Design: Bruno Pfäffli, 1963.

„Das grundlegende Schema einer Schrift gleicht heute deshalb eher einer Landschafts- oder Städteplanung. Die moderne Typographie ist nicht mehr nur dem ‚häuslichen‘ Buch gewidmet, sie reicht hinaus in die weiten Gefilde aller ­menschlichen Tätigkeiten, dazu benötigt sie eine weitausgedehnte Formen-Palette.“ 27

Moderne Schriften mussten den ordnungsästhetischen Anforderungen genügen, räumlich und zeitlich getrennte, semantisch aber zusammenhängende Informationen visuell kohärent zu verknüpfen, wie es vor allem das Corporate Design verlangte. Die Univers, die unter anderem seit 1975 das Erscheinungsbild der Deutschen Bank prägt, gilt dafür nach wie vor als Musterbeispiel eines offenen Schriftsystems, das tendenziell ins Unendliche ausbaubar ist. Typografische Formen sind also historische Amalgamierungen von experimentalanalytischem und gestaltungspraktischem Wissen nicht nur über Räume, Praktiken, Techniken und Materialitäten des Lesens, sondern eben auch über dessen Temporalität. Buchstäbliche Proportionen sagen immer etwas aus über die Zeit, die uns zum Lesen 26 Vgl. Emil Ruder: The Typography of Order/Ordnende Typographie/De l’ordre typographique. In: ­Graphis, 1959, Heft 15, S. 405. 27 Frutiger: Der Mensch und seine Zeichen. Schriften, Symbole, Signete, Signale, Wiesbaden (1. Aufl.) 2006, S. 181.

82

Katharina Walter

bleibt. So zielte das Paradigma der Lesebeschleunigung nicht mehr nur auf die Optimierung einer optischen Ergonomik von Buchstaben und Abständen, auf dass man mit Javal im Gepäck unmerklich und sicher in einer typografischen Komfortzone durch den Text gleitet. Vielmehr müssen seit Frutiger typografische Systeme in ihrer visuellen Logik eindeutig und vor allem so schnell wie möglich gelesen und verstanden werden, auf dass wir als Leser und Leserinnen rechtzeitig den richtigen Abzweig nehmen.

André Wendler

Interfaces der Zeit. Zeitzeichen in grafischen Benutzungssystemen Sanduhren und Wasserbälle

In einem Windows Computerprogramm wurde ein Button gedrückt, eine Menüoption ausgewählt. Die Nutzerin hat einen Befehl erteilt. Es rechnet. Ein kleiner blauer Ring dreht sich und zeigt an, dass die Verarbeitung des Befehls läuft. ◊ Abb. 1 Auf einem Apple Macintosh hat sich ein Programm aufgehängt, es ist eingefroren und kann nicht mehr mit User_innen oder anderen Systemkomponenten kommunizieren. Der Mauszeiger wird zu einer drehenden, regenbogenfarbenen Scheibe. Im Volksmund heißt sie „Spinning Beach Ball“ oder „Spinning Wheel of Death“. ◊ Abb. 2 Eine App auf einem Android-Telefon versucht eine Verbindung mit dem Internet herzustellen und erhält von dem kontaktierten Server noch keine Antwort. Die Verbindungsversuche dauern an. Am oberen Bildschirmrand bewegt sich in einem schmalen hellblauen Streifen ein dunkelblauer Streifen hin und her und verändert dabei mit unregelmäßiger Geschwindigkeit seine Länge. ◊ Abb. 3 Auf einem Gerät mit Apples iOS werden im Hintergrund Daten geladen. Es ist nicht bekannt, wie lang der Prozess dauern wird. In einem Kreis aus zwölf zum Mittelpunkt zeigenden Strichen, angeordnet wie die Stundenstriche eines Ziffernblattes, wird kreisförmig je einer der Striche dunkel hervorgehoben. Er zieht im Weitergehen zum nächsten Strich eine verblassende Spur hinter sich her. ◊ Abb. 4 Diese vier Elemente begegnen so und ähnlich den Nutzer_innen zeitgenössischer Rechentechnik jeden Tag. Sie sagen: „Warten! Es dauert noch. Sie können auf unabsehbare Zeit nicht mit ihrem Gerät kommunizieren.“ Es sind Anzeiger grafischer Benutzungsoberflächen (GUIs, Graphical User Interfaces), die über die Zeitökonomie des Betriebssystems Auskunft geben und es mit dem Zeitregime der Nutzer_innen zu synchronisieren versuchen. Zeitzeichen dieser Art in grafischen Benutzeroberflächen gibt es seit deren Frühzeit. Auf dem von Xerox PARC in den 1970er- und 1980er-Jahren entwickelten System, das als Xerox Star ab 1981 erstmals kommerziell verfügbar war, taucht ihre Urform auf. Eine Sanduhr zeigt dort an, wenn die User_innen warten müssen, weil das System beschäftigt ist. 1983 übernimmt Apple die Sanduhr für sein Lisa-System, 1984 ist sie auch Bestandteil des ersten Apple Macintosh. ◊ Abb. 5 Apple ersetzt sie spätestens 1986 mit Version 1.1 seiner System-Software durch eine stilisierte Armbanduhr. ◊ Abb. 6. In Microsoft Windows hält sich die Sanduhr bis zu Windows XP und bekommt mit Windows NT eine Animation, bei der Pixelsand von einem virtuellen Uhrenglas in das andere fällt.

84

André Wendler

Zeit und Computer 1: Windows 8 und Win­ dows 10 busy cursor.

2: Spinning Wait Cur­sor aus Apple Mac OS.

3: Linear progress indicator aus Google Material Design Components.

4: Loading Spinner aus Apple Mac OS.

5: Sanduhr von Apples Lisa Betriebssystem.

6: ArmbanduhrenCursor aus Mac OS classic.

Wie kommt es, dass zur Synchronisierung der Zeit des Computers und der Zeit der Menschen, die sie benutzen oder bedienen, ausgerechnet ein so grober Anachronismus wie die Sanduhr herhalten muss? Mit Uhr und Computer stehen sich zwei Technologien gegenüber, die ganz unterschiedliche Zeiten geben. Die Uhr bringt, nach Friedrich Kittler „Kontingenzen der Natur auf Gesetze“.1 Sie macht die Dauern und Zyklen der Zeit als Zahlen und Werte der Uhrzeit verständlich und operabel und beansprucht dabei, die Zeit selbst zu repräsentieren. Die falsch gehende Uhr verweist in ihrem möglichst zu eliminierenden Makel auf ihre grundlegende technische Fiktion, die Zeit selbst zu geben. Computer, wie alle elektronischen Schaltungen, haben ein anderes Verhältnis zur Zeit. Sie messen sie nicht oder stellen sie dar, sondern sie produzieren Zeit. Jede elektronische Schaltung benötigt ein Taktsignal, ein clock signal. Dieses wird in einem Oszillatorschaltkreis innerhalb der Schaltung selbst produziert und gibt den Takt, die Frequenz vor, mit der die Schaltung rechnet. Die Zeitreferenz einer Schaltung liegt nicht im messenden Bezug auf eine ‚natürliche‘ Zeit, sondern in der Frequenz des selbst erzeugten Taktsignals. Entscheidend wird damit nicht, wie lang eine digitale Schaltung rechnet, sondern mit welcher Frequenz. Eine digitale Schaltung benötigt für eine Operation eine diskrete Anzahl von Einzelschritten. Wie viel Zeit sie dafür verbraucht, hängt allein an der Frequenz, mit der die Operationen ausgeführt werden. Schaltungen oder Computer können dann externe Signale verarbeiten, wenn sie mit höheren Frequenzen rechnen als diese.2 Sie analysieren den zeitlichen Verlauf von Signalen, indem sie sie räumlich aufzeichnen und unter Verbrauch von Zeit verarbeiten. Die Zeit digitaler Rechner ergibt sich aus diesem doppelten Bezug auf die kontingente Zeitlichkeit einerseits der Eigenfrequenz des Rechners und andererseits der Frequenz der zu verarbeitenden Signale.

1 Friedrich Kittler: Real Time Analysis, Time Axis Manipulation. In: ders.: Draculas Vermächtnis: Technische Schriften, Leipzig 1993, S. 182–207, hier: S. 206. 2 Vgl. Kittler (s. Anm. 1), S. 191ff.

Interfaces der Zeit. Zeitzeichen in grafischen Benutzungssystemen

85

Erst wenn digitale Systeme mit Menschen interagieren müssen, wird dazu benötigte „wirkliche“ Zeit zu einem Problem. Und genau an dieser Stelle kommen Zeitzeichen wie digitale Sanduhren, Spinner und Beach Balls ins Spiel. Als funktionale Bestandteile grafischer Interfaces vermitteln sie zwischen hochfrequenten Rechnern und zeitverhafteten Menschen. Sequenzielle Gleichzeitigkeit

Die frühen grafischen Benutzeroberflächen der 1970er- und 1980er-Jahre kennen vor allem Sand- oder Armbanduhren. Wenn der Mauszeiger von einem Pfeil zu einer dieser Uhren wird, heißt das: Warten! Schon das Öffnen eines Programmes konnte die Uhr erscheinen lassen.3 Die damaligen Systeme verfügten nicht über die Ressourcen, um mehrere Prozesse gleichzeitig auszuführen. Rechner mit nur einem Prozessorkern können jeweils nur eine Operation gleichzeitig ausführen. Mit den grafischen Betriebssystemen konnte man aber auf dem virtuellen Desktop mehrere Fenster und damit mehrere Programme öffnen. Um den Eindruck gleichzeitiger Bearbeitung mehrerer Prozesse entstehen zu lassen, entwickelte man das sogenannte Multitasking. Statt nur ein Programm auszuführen, wurde allen geöffneten Programmen in kurzen Zeitabschnitten abwechselnd Rechenzeit zur Verfügung gestellt. Der Wechsel zwischen den aktiv rechnenden Programmen erfolgte so schnell, dass er menschlichen User_innen als Gleichzeitigkeit erscheinen konnte. In frühen Versionen des Multitasking (dem sogenannten kooperativen Multitasking) konnte es dennoch geschehen, dass ein Prozess so viel Rechenleistung beanspruchte, dass grundlegende Systemeingabeprozesse wie die Bewegung der Maus oder das Betätigen von Tasten der Tastatur nicht mehr möglich waren. Programmierer_innen konnten deshalb bewusst den Mauszeiger in den Wartemodus – angezeigt als Sanduhr – versetzen, um den Nutzer_innen zu signalisieren, dass der Rechner gerade keine weiteren Eingaben akzeptiert. So wie die Uhr für Nicht-Einstein-Leser_innen das Vergehen der einen und nicht einer von mehreren möglichen Zeiten anzeigt, verweist die Uhr auf Rechensystemen mit einem Prozessor auf diese eine Prozessorzeit, die keine echte Parallelität der Operationen kennt.

3 Man kann das in zahlreichen Videoaufzeichnungen historischer Betriebssysteme noch gut sehen, z. B. Computer Clan, 2014: A Tour of Macintosh System 1.1 – Software Showcase; https://www.youtube.com/ watch?v=uHiBj_mb29A (Stand: 04/2018).

86

André Wendler

Parallel rechnen

Ab der Jahrtausendwende änderten sich diese Zeichen mit den 7: Windows 8 und Win­dows 10 technischen Grundlagen der gängigen Endnutzerbetriebssysteme. Working in background pointer. 2001 wurde in Apples neuem Betriebssystem Mac OS X aus der Armbanduhr der Spinning Beach Ball, Microsoft verabschiedete die Sanduhr 2007 mit Windows Vista. In genau dieser Zeit werden PC-Systeme mit mehreren Prozessorkernen erstmals für einen breiten Markt verfügbar. Es hatte sich gezeigt, dass sich die nutzbare Geschwindigkeit von Computern allein über die Anhebung ihrer Taktfrequenz nicht mehr praktikabel steigern ließ. Vor allem wurde die Hitze­ entwicklung sehr schnell getakteter Prozessoren zu einem Problem. Chiphersteller entwickelten nun Systeme, die mit mehreren Prozessor­kernen tatsächlich Rechenprozesse parallel ausführen konnten und diese nicht über Multitasking simulieren mussten. IBMs erster Dual-Core-Prozessor war der POWER4 aus dem Jahr 2001.4 AMD und Intel stellten 2005 mit dem Athlon 64 X2 und dem Pentium D Smith­field ihre ersten Prozessoren mit zwei Rechenkernen für den Consumer-Markt vor.5 Heutige Systeme sind um ein Vielfaches leistungsfähiger als die Rechner der 1980er- und 90er-Jahre, womit gleichzeitig die Wahrscheinlichkeit sinkt, dass ihre Rechenkapazität vollkommen ausgeschöpft wird. War es bei frühen Windows-Versionen noch ein vertrautes Bild, einen eingefrorenen Mauszeiger zu erleben, der sich gar nicht mehr oder nur ruckweise bewegte, während ein rechenintensives Programm gestartet wurde, werden heutige Nutzer_innen dieses Verhalten nicht mehr oft erleben. Ihnen signalisiert ein kleiner, sich neben dem Mauszeiger drehender Kreis, dass im Hintergrund ein rechenintensiver Prozess ausgeführt wird, das System insgesamt aber responsiv bleibt. ◊ Abb. 7 Die sich endlos im Kreis drehenden Ringe, Scheiben und Bälle zeigen das auf doppelte Weise. Einerseits signalisiert schon ihre kontinuierliche Form einen unterbrechungsfreien Datenstrom. Andererseits weist die Animation, die sich in allen Betriebssystemen findet, dezent darauf hin, dass so viel Rechenleistung zur Verfügung steht, dass man sie sogar für so etwas Peripheres wie einen leistungsanzeigenden Mauszeiger zur Verfügung stellen kann. Die Uhren mit ihrer präzisen kultur- und technikgeschichtlichen Verortung werden ersetzt durch fluide und damit auch unbestimmtere animierte Objekte. Die 4 Autorenkollektiv: IBM Power. In: Wikipedia; https://web.archive.org/web/20180409090123/https:// de.wikipedia.org/wiki/IBM_Power (Stand: 04/2018). 5 Autorenkollektiv: Athlon 64 X2. In: Wikipedia; https://web.archive.org/web/20180409090354/https:// en.wikipedia.org/wiki/Athlon_64_X2 (Stand: 04/2018); Autorenkollektiv: Pentium D. In: Wikipedia; https://web.archive.org/web/20180409090627/https://en.wikipedia.org/wiki/Pentium_D (Stand: 04/2018).

Interfaces der Zeit. Zeitzeichen in grafischen Benutzungssystemen

87

Zeitzeichen der zweiten Generation grafischer Benutzersysteme präsentieren sich nicht mehr in erster Linie als Bilder von Uhren samt deren Symbolik, sondern als interaktive digitale Objekte. Sie zeigen nicht mehr nur etwas an, so wie die Uhr die Zeit, sondern sie sind veränderliche virtuelle Objekte mit einer eigenen, jedenfalls anderen Zeitl­ichkeit. Diese Zeitlichkeit bezieht sich auf die doppelte Zeit, die nichtsequenzielle Rechner mit ihrer Parallelgleichzeitigkeit erfinden. 8: Screenshots der Google Home App für Android.

Zeitzeichen 3.0

In einigen Web- und Mobiltelefon-Apps sind in jüngster Zeit ganz neuartige Zeitzeichen aufgetaucht. Wer einen von Googles intelligenten Assistenten in Lautsprecherform (Google Home, Home Mini und Home Max) oder die Medienstreaming-Lösung Google Chromecast verwenden will, muss zur Einrichtung die Google Home App auf einem Mobiltelefon installieren. Die App verbindet die Geräte drahtlos miteinander sowie mit dem Google-Konto der Benutzer_in und installiert zudem notwendige Updates. Während dieses Prozesses werden Wartezeiten von Animationen überbrückt, bei denen einfache geometrische Formen zu beweglichen, zweidimensionalen Skulpturen angeordnet werden, die sich rhythmisch bewegen.6 ◊ Abb. 8 Die Formen haben Googles Markenfarben Blau, Rot, Gelb und Grün. An vielen Stellen des Google-Produktuniversums tauchen Variationen davon auf. Das vierfarbige Google-G wird zu vier Punkten, der Google-Assistent transformiert ein vierfarbiges Mikrofon in vier Punkte, beim Start eines Pixel-Handys wird der Google-Schriftzug zum G zusammengezogen usw. An diesen Interface-Elementen sind mindestens vier Dinge interessant: Sie verflüssigen erstens grafische Benutzungsoberflächen. Wo früher Interface-Buttons feste Funktionen hatten, ändern GUI-Elemente nun je nach Zustand der App ihre Funktion, ihre Ansprechbarkeit und ihr Aussehen. Die Interfaces reagieren nicht nur auf Eingaben der Nutzer_innen, sondern sie reagieren auf Zustände der Programmumgebung. Seitdem in Touchscreens Display und bedienbare Interface-Elemente eins geworden sind, werden sie zu hybriden Elementen, die Knöpfe und Anzeigen im kontinuierlichen Übergang sind. 6 Grafikagentur Gunner, 2018, Google Home App – Case Study; https://vimeo.com/249860593 (Stand: 06/2018).

88

André Wendler

Zweitens verschweißt Google seine Marke und seine Interfaces eng miteinander. Ein Knopf ist nicht nur ein Knopf, sondern er ist das Google-Logo oder zumindest die Google-Farben. Die Allgegenwart der einfachen Elemente (Schriftzug, G, vier Farben, vier Punkte) über fast alle Google-Produkte hinweg unterstreicht den Anspruch des Unternehmens, alles mit allem zu verbinden. Ihre fortwährende Transformation ineinander soll zeigen, wie Google zwischen Anwendungen für unterwegs und zuhause, Freizeit und Arbeit, national und international übersetzen kann. Das aggressive Branding lässt aber keinen Zweifel daran aufkommen, dass all diese Technologien vor allem ein kommerzielles Produkt sind. Drittens handelt es sich hier nicht um vorgefertigte Animationen, die einfach nur abgespielt werden. Die älteren animierten Ringe und Wasserbälle aus Windows und Mac OS funktionierten wie Kino: Einzelbilder wurden in schneller Folge abgespielt und erschienen dann als Bewegung. Die meisten Apps nutzen diese Technik und so setzen sich viele grafische Interfaces letztlich aus einer Vielzahl kleinster Filme zusammen. Für die Animationen aus der Google Home App wurde eine natives Animationsprogramm verwendet.7 Das macht Entwickler_innen unabhängig von Bildschirmauflösungen und Farbräumen und sie können Farben und Formen anpassen, indem sie Werte in dem Code ändern, der der Animation zugrunde liegt. Diese Benutzungsoberflächenelemente werden nicht mehr nur angezeigt, sondern sie werden im Moment der Anzeige auf dem je individuellen Gerät und in seiner Softwareumgebung produziert. Das erlaubt schließlich und viertens wesentlich komplexere Animationen, die etwa auch mit variablen Daten gesteuert werden können. Es könnte zum Beispiel die Position des Gerätes im Raum einfließen, auf dem sie gezeigt werden oder ihre Farbe kann sich entsprechend der Umgebungshelligkeit ändern, sie können auf den Fortschritt beim Laden von Datenmengen eingehen und so weiter. Diese Komplexität entspricht der Komplexität der Vorgänge, die sie gleichzeitig illustrieren und verdecken. Googles abstrakte Animationen zeigen abstrakte Komplexität und signalisieren: Hier passiert gerade einiges. Was genau können, sollen und wollen die Nutzer_innen vermutlich nicht wissen. Tatsächlich werden beim Registrieren und Verbinden drahtloser StreamingGeräte unzählige Transaktionen abgeschlossen, Verbindungen etabliert, Nutzerkonten verifiziert, Handshakes geschlossen und Protokolle ausgetauscht. Wer später zu einem Gerät sagt: „Ok Google, spiele meine Spotify-Playlist im Wohnzimmer!“, reaktiviert all diese Verbindungen und setzt eine Vielzahl von Daten- und Geldströmen in Bewegung. 7 Airbnb, 2017, Lottie for Android, iOS, Reactr Native, and Web; https://web.archive.org/web/20180 409091556/http://airbnb.io/lottie/ (Stand: 04/2018).

Interfaces der Zeit. Zeitzeichen in grafischen Benutzungssystemen

89

The Stack und die Bilder

Benjamin H. Bratton hat mit The Stack einen umfassenden Versuch vorgelegt, diese Komplexität konzeptuell zu fassen und gleichzeitig zu erklären, welchen systematischen Ort Simplifizierungen und Abstraktionen wie Googles freundliche Animationen darin haben. Bratton nennt das System, in dem heutige ultravernetzte Geräte und ihre User_ innen miteinander kommunizieren und funktionieren The Stack, eine „accidental megastructure of planetary-scale computation“.8 Der Begriff stammt aus der Informatik und beschreibt als Stapel oder Stapelspeicher Systeme, die vertikal stratifiziert und als kommunizierende Ebenen oder Layer aufgebaut sind. Als Technology oder Tech Stacks bezeichnet man IT-Infrastrukturen, bei denen die einzelnen Programme und Geräte als Gesamtarchitekturen so konzipiert sind, dass sie alle für die gewünschte Anwendung zusammenarbeiten. Brattons konzeptueller Stack besteht aus sechs Layern: Earth, Cloud, City, Address, Interface, User. Die Layer setzen unterschiedliche Tiefen und Perspektiven an und bewegen sich von der globalen Earth, bei der es um Unterseekabel, Satelliten, Rohstoffausbeutung und verteilte Infrastrukturen geht, bis hin zum lokalen User, bei dem die Interaktion zwischen einem sich bewegenden menschlichen Körper und dem Auslesen des von ihm getragenen Bewegungs-Sensors beobachtet wird. The Stack begreift sich als zugleich politisches, architektonisches, geografisches und technisches Modell, weil traditionelle Beschreibungen nicht mehr dazu geeignet sind, die Realität von planetary-scale computation zu erfassen. Eine Person, die sich mit einem GPS-fähigen Telefon in der Tasche durch eine europäische Stadt bewegt, interagiert zugleich mit dem unmittelbaren Raum um sie herum und mit den Satelliten, deren Zeitsignal sie empfängt, um ihre Position zu markieren. Sie wird Objekt USamerikanischer und europäischer Gesetzgebung und agiert zugleich global und lokal. Zufällig, accidental, ist The Stack, weil er in seiner Geschichte und Struktur keinem einheitlichen Plan entspringt, sondern bottom-up gewachsen ist und sich nur in seinem je zufälligen Zustand beobachten lässt. Der Interface-Layer „consists of any technical-informational machine, compressed into graphical or objective formats, that links or delinks Users and the Addressed entities up and down columns within the Stack. Its role is to telescope, compress, and expand layers of The Stack, routing User actions both up and down as they go“.9 Er ist der Ort, an dem die Übersetzung und Individualisierung zwischen Usern und global zirkulierenden Daten geschieht. Weil User bei Bratton aber nicht nur Menschen, sondern 8 Benjamin H. Bratton: The Stack: On Software and Sovereignty, Cambridge, MA 2015, passim. 9 Bratton (s. Anm. 8), Kindle-Ebook-Version, Abschnitt 51, Position 6861.

90

André Wendler

auch Sensoren, Bots, Skripte und ähnliches sein können, muss es sich bei den Interfaces nicht immer um grafische Systeme handeln, von denen hier die Rede war. Das ruft aber zugleich die Frage auf, wie man über Bilder im Stack sprechen soll, welche Funktion sie haben und wie sie sich zur anthropologisch so herausgehobenen Rolle des Bildes mit großem B verhalten. Bei Bratton spielen Bildpraktiken für die Beschreibung der globalen digitalen Kultur kaum eine Rolle.10 Dafür greift er häufiger auf den Begriff des Diagramms zurück. „The Stack model is a diagram that works only when it is put to use.“ 11 Peirce hat mit seinem Diagrammbegriff oder genauer dem diagrammatic reasoning eine „ästhetisch-epistemologische Strategie“ vorgeschlagen,12 die von der Technisierung des Bildes im 19. Jahrhundert nicht zu trennen ist.13 Mit dem Stack begegnet uns möglicherweise eine Struktur, in der die Logik repräsentationaler Bilder von einer visuellen Diagrammatik abgelöst wird. Bilder zeigen hier nicht in erster Linie an, sondern sie rechnen, sie schalten, sie vermitteln. „Computation turns the image into a technology.“ 14 Wer die technisch-visuelle Funk­tions­ weise der planetary-scale computation verstehen will, muss sich auf Diagrammatologie mehr als auf Bildbeschreibungen verstehen.15

10 Ganz anders etwa bei Lev Manovich: Software Takes Command, New York 2013. 11 Bratton (s. Anm. 8), Kindle-Ebook-Version, Preface, Position 266. 12 Tom Holert: „A fine flair for the diagram“. Wissensorganisation und Diagramm-Form in der Kunst der 1960er Jahre: Mel Bochner, Robert Smithon, Arakawa. In: Susanne Leeb (Hg.): Materialität der Diagramme: Kunst und Theorie, Berlin 2012, S. 135–178, hier: 140. 13 Vgl. Horst Bredekamp (Hg.): Diagramme und bildtextile Ordnungen. Bildwelten des Wissens, Bd. 3,1. Berlin 2005. 14 Bratton (s. Anm. 8), Kindle-Ebook-Version, Abschnitt 51, Position 6874. 15 Vgl. Daniela Wentz: Bilderfolgen: Diagrammatologie der Fernsehserie, Paderborn 2017, S. 31ff.

1: Portrait de Marey dans son laboratoire, um 1890.

Bildbesprechung I Christof Windgätter

Etienne-Jules Marey lässt sich fotografieren (um 1890) Der Gelehrte sitzt am Schreibtisch. So will es die Tradition, zumal in den geisteswissenschaftlichen Disziplinen. Papiere, Stifte und die notwendigen Bücher sollen sich in Reichweite befinden. Auch ein bequemer Stuhl schadet nicht, um die regelmäßige, konzentrierte Dauer des Lesens und Schreibens zu erleichtern. Wer als Gelehrter arbeitet, hat deshalb Teil an einer

Kultur der Sesshaftigkeit. Sein Körper hält still, damit sich der Geist bewegen kann. Das Platznehmen des einen ermöglicht den Fortschritt des anderen. In Schulen, Universitäten und Akademien wird diese Dialektik des bestuhlten Wissens früh geübt, in den Großraumbüros des 19. Jahrhunderts dann massenhaft auf Angestellte und Frauen übertragen. Vor allem Schreibmaschinen führen jetzt zu einer Verbindung von körperlichem Drill und Arbeitsprozess, die zehn Finger rasen lassen, dabei aber Rücken, Kopf und Beine den Eigenschaften einer Statue anverwandeln. Aufstehen verboten! So lautet

92

die Regel moderner Schreib- und Denkarbeit.1 Selbst Nietzsches Polemik gegen „Stubenhocker“, in deren Büchern sich vor allem „das geklemmte Eingeweide verräth“, 2 nimmt nicht nur die medizinischen Konsequenzen dieser Arbeitshaltung ernst, sondern weiß auch um die Bürde ihrer Alltäglichkeit. Die Fotografie Etienne-Jules Mareys verhält sich zu dieser Tradition in mehrfacher Hinsicht ambivalent. ◊ Abb. 1 Um 1890 aufgenommen, zeigt sie zunächst den Wissenschaftler bei der Arbeit: Umgeben von zahlreichen Instrumenten sitzt er an einem massiven, auf gedrechselten Beinen ruhenden Tisch. Der Fußboden besteht aus einfachen Dielen, die Wände des Zimmers sind hell und schmucklos; nur im Hintergrund ist eine getäfelte Tür zu erkennen. So sehr die Fülle an Einzeldingen hervorsticht, so unauffällig und beinahe ortlos gibt sich der Raum. Nichts in der Fotografie deutet an, wo sie aufgenommen worden sein könnte: in Mareys Pariser Privatwohnung, in einem Arbeitszimmer am Collège de France oder schon in seiner berühmten Forschungsstätte bei Boulogne-sur-Seine (tatsächlich ist es Neapel). Der Wissenschaftler selbst ist tadellos gekleidet, mit Überrock, Weste, weißem Hemd und Querbinder. Seine rechte Hand spreizt einen Stechzirkel über mehreren losen Blättern, seine linke Hand stützt in klassischer Denkerpose den Kopf. Insgesamt scheint die Szene arrangiert; nicht nur, weil die Verschlusszeiten damaliger Fotoapparate dies verlangten, sondern auch, weil sich Marey hier auf der Höhe seines Ruhmes präsentiert. Das Foto fungiert in dreifacher Weise als Archiv: indem es das Antlitz des Wissenschaftlers verewigt, indem es seine Gerätschaften (zum Teil eigene Erfindungen) als Zeugen des Erfolges ausstellt und indem es selber zu den Objekten der Erforschung gehört. 1 Vgl. etwa Hajo Eickhoff: Himmelsthron und Schaukelstuhl. Die Geschichte des Sitzens, München 1993. 2 Friedrich Nietzsche: Die Fröhliche Wissenschaft (1882). In: ders.: Kritische Studienausgabe, hg. v. Giorgio Colli und Mazzino Montinari, Bd. 3, München 1999, S. 614.

Bildbesprechungen

Bemerkenswert ist außerdem, dass sich Marey zwar im Vordergrund des Bildes befindet, er dazu aber an die Ecke des Tisches gerückt ist. Sogar das Tischbein zwischen seinen Knien scheint ihn nicht zu stören, ebenso wenig wie die Tatsache, dass auch Papieren nur noch ein Randbereich der Arbeitsfläche zur Verfügung steht. Ausdauerndes Lesen und Schreiben wird an diesem Tisch nicht stattfinden; ja radikaler noch: In der Weise, in der das Foto insgesamt arrangiert erscheint, in der Weise hat sich auch das Sitzen als Bedingung wissenschaftlicher Erkenntnisse in eine flüchtigimprovisierte Haltung verwandelt. Fast könnte man meinen, Marey habe nur aus Anlass der Aufnahme noch einmal Platz genommen, wolle eigentlich aber schnell wieder aufstehen und die Szene verlassen. So würde das Foto zu einem Dokument des Übergangs: Es zeigte, wie das Regime gelehrter Sesshaftigkeit durch eine andere Tradition, eine andere Arbeitsweise begleitet, belagert und offenbar schon marginalisiert worden ist. Kein Übergang ohne Verschiebungen; territorial (auf der Oberfläche des Tisches), körperlich (durch Neueinrichtung der Gelehrtenstube) und intellektuell (da mit Zirkeln keine Texte produziert oder verstanden werden können). Auf einem Großteil des Bildes jedenfalls dominieren technische Medien: Filmspulen, ein Sphygmograph, ein Drehzylinder mit Registriernadel, Schläuche, Gestänge, Ventile, zwei Batterien, ein Manometer, daneben eine Filmkamera, ein Chronometer, im Hintergrund ein Projektor und davor auf einer Bank das berühmte Vogelflugmodell. Kaum weniger als der Wissenschaftler selbst, scheinen Apparaturen das Thema des Porträts zu sein. Wohl gibt es noch die Insignien der Gelehrsamkeit (den Schreibtisch, einige Bücher, die nachdenkliche Haltung), gleichzeitig jedoch weist alles Technische schon hinaus auf seine Anwendung in Laboratorien. Marey war Physiologe. Ihn interessierten organische, biochemische und zelluläre Vorgänge im Allgemeinen sowie Bewegungsabläufe von Lebewesen im Besonderen. Zu deren Erforschung konnte er 1882 nahe Paris seine

Bildbesprechungen

93

2: Portrait de Marey dans son laboratoire, 14,5 × 10,3 cm, Musée des beaux-arts du Canada, Ottawa (Abzug um 1967).

Station physiologique eröffnen, die nicht nur als Hochtechnologiezentrum eingerichtet worden war, sondern auch Feldforschung unter kontrollierten Bedingungen möglich machte. Auf einer eigenen Kreisbahn und in zahlreichen Experimentalräumen wurden dort Pferde geritten, Vögel in speziellen Vorrichtungen zum Flug animiert, Ziegenwettläufe veranstaltet, Katzen von Podesten geschubst, Fußmärsche durchgeführt, Kraftübungen und Weitsprünge betrieben, Bälle geworfen, Hämmer geschwungen, Lastkarren geschoben, am Barren geturnt und vieles mehr. Dabei sind sämtliche Versuche entweder in Kurvendiagrammen aufgezeichnet oder auf lichtempfindlichen Platten bzw. Rollfilmen festgehalten worden. Mareys méthode graphique in Verbindung mit seiner Chronofotografie waren hier einschlägig. Als ihr Programm kann gelten, durch die Konstruktion immer raffinierterer Apparaturen Schritt für Schritt jedwede Funktion des menschlichen und tierischen Körpers in bisher unbekannte, weil

mechanisch hervorgebrachte Zahl-Bilder zu über­tragen.3 Mit der Konsequenz, dass nicht nur Alphabete relativiert und Quantifizierungen zum Ideal von Objektivität erhoben wurden, sondern die Etablierung solcher (foto-)grafischen Messungen auch als eine Pioniertat zur Visualisierung 3 Zu dieser und weiteren (hier ausgelassenen) Eigenschaften der Mareyschen Erfindungen vgl. u. a. Soraya de Chadarevian: Die ‚Methode der Kurven‘ in der Physiologie zwischen 1850 und 1900. In: Hans-Jörg Rheinberger, Michael Hagner (Hg.): Die Experimentalisierung des Lebens. Experimentalsysteme in den biologischen Wissenschaften 1850/1950, Berlin 1993, S. 28−49; Wolfgang Schäffner: Mechanische Schreiber. Jules Etienne Mareys Aufzeichnungsmaschinen. In: Bernhard Siegert, Joseph Vogl: Europa. Kultur der Sekretäre, Zürich/Berlin 2003, S. 221−234; Stefan Rieger: Schall und Rauch. Eine Mediengeschichte der Kurve, Frankfurt a. M. 2009; Christof Windgätter: ZeitSchriften. Von einer Revolution der Experimentalkultur im 19. Jahrhundert. In: Axel Volmar (Hg.): Zeitkritische Medien, Berlin 2009, S. 81–104.

94

temporaler Phänomene zu verstehen ist. Was Marey erforschen wollte, waren Veränderungen, Geschwindigkeiten, Intervalle und Rhythmen – erst recht, wenn sie fürs bloße Auge zu schnell, zu langsam oder zu kompliziert ablaufen.4 Kein Wunder also, dass in der Mitte seiner Fotografie ein großes Chronometer zu sehen ist: weiß auf schwarz als Ein-Zeiger-Uhr. Ihrem minutiösen Lauf wurden sowohl die Registrier­zylinder als auch die Probandenbewegungen unterworfen. Nichts außerhalb dieser Zeit konnte Eingang finden in das Wissen der Experimente. Nach Mareys Willen (und der Gründung einer entsprechenden Kommission) sollte sie sogar international als Laborstandard durchgesetzt werden. Das heißt aber auch: Um 4 Vgl. u. a. Mary Ann Doane: Zeitlichkeit, Speicherung, Lesbarkeit, Freud, Marey und der Film. In: Henning Schmidgen (Hg.): Lebendige Zeit. Wissenskulturen im Werden, Berlin 2005, S. 280–313, hier bes. 291ff.

Bildbesprechung II Claudia Blümle

Das Bild ‚chronometrisieren’. František Kupkas Mesure de temps (1934) Im Jahr 1934 betitelt František Kupka ein abstraktes Gemälde mit Mesure de temps. ◊ Abb. 1 Parallel zur bildnerischen Auseinandersetzung mit der Zeit bekundet Kupka theoretisch in seiner 1923 erschienenen Schrift Die Schöpfung in der bildenden Kunst sein Interesse an der zeitlichen Dimension im Bild und deren gestalterischen Formen in Bezug zu Geschwindigkeit, Rhythmus, Kadenz, Licht oder Bewegung.1 Die Naturwissenschaften bilden in seiner Schrift 1 Meda Mladek: Einige Anmerkungen zum Entstehen des Buches Die Schöpfung in der bildenden Kunst von František Kupka. In: František Kupka: Die Schöpfung in der bildenden Kunst, hg. und übers. v. Noemi Smolik, Ostfildern-Ruit 2001, S. 158–162.

Bildbesprechungen

die Prozesshaftigkeiten physiologischer Funktionen sichtbar zu machen, wurde ihren Aufzeichnungen die Geometrie kartesianischer Koordinatensysteme unterlegt. Auf deren X-Achse organisiert sich jene Zeitlichkeit, die schon für Zifferblätter gilt. Technisch ist es das gleichmäßige Vorwärtsrucken von Zahnrädern, visuell die Markierung einheitlicher Abstände. Mareys Fotografie bestätigt das in zweifacher Weise: Zunächst von außen, da sie Teil einer Serie ist, der die Zeigerstellungen der Chronometer eine Reihenfolge geben. ◊ Abb. 2 Sodann im Arrangement des Fotografierten selbst: Denn sind nicht hinter den Chronometern in den Türfüllungen gekreuzte Achsen zu erkennen und liegen nicht vor ihnen Papier- bzw. Zelluloidstreifen auf den Tischen? Die Visualisierung von Zeit verlangt vorab die Gestaltung einer Zeitweise. Hier scheint es, als wäre die Rundheit von Zifferblättern in Abszissen und Längsformate ausgerollt worden. Über sie können dann auch Stechzirkel zu Erkenntnissen führen.

grundsätzlich eine entscheidende Folie, um den Stellenwert des Bildnerischen in der Kunst zu entwickeln. Auch im Bezug zu Fragen der Verzeitlichung des Bildes knüpft der Maler an Albert Einsteins Relativitätstheorie an. Nicht nur erwähnt er die „Theorien der Relativität“ 2, sondern er betont auch den künstlerischen Versuch, Raum und Zeit eng miteinander zu verbinden und beide Teilgrößen in ihrer Relativität als einen sich wandelnden Prozess vorzuführen und ihn wahrnehmungstheoretisch zu wenden: „Rhythmus, Kadenz, Bewegung, das sind in der bildenden Kunst virtuelle Größen, die sich gegenseitig bedingen und die Verkörperung des Prinzips sind, daß das eine 2 „Die (kartesianische) Theorie der reinen Erkenntnis haben wir zum Glück durch Theorien der Relativität, oder besser gesagt, durch die Theorie der Vergleiche ersetzt, die damit ihre Brauchbarkeit erweitern.“ Kupka (s. Anm. 1), S. 138.

Bildbesprechungen

1: František Kupka: Mesure de temps (Zeitmessung), um 1934, Öl auf Leinwand, 105 × 68 cm.

95

96

aus dem anderen resultiert. ‚Eudia‘- die ­ usammenhänge. Die sinnliche Wirkung Z der einen Ausdrucksform wechselt mit dem Eindruck einer anderen Form ab und mit weiteren Formen, die, obwohl sie alle zugleich wahrgenommen, erst nach und nach ausgewertet werden. Dabei geht es um die Ausweitung in die Dimension der Zeit oder zumindest um das Bemühen, eine Übereinstimmung von Zeit und Raum zu erzielen, und darum, die fortlaufende Dauer von Eindrücken (von Zeitelementen) an die dem Auge präsente Raum- und Flächenaufteilung anzupassen.“ 3 Theoretisch setzt sich Kupka damit sowohl mit der bildnerischen Gestaltung von Zeit als auch mit wahrnehmungstheoretischen Implikationen auseinander, die in der Verabschiedung von bisherigen Erklärungen die Neubestimmung des Bildes begründet und sich zudem auf der Seite der Neurologie verortet: „Im Gehirn werden Tatsachen und Bilder von Gegenständen gespeichert, deren ‚zeitliche und räumliche Aufteilung’ anders als bei jenen Bildern ist, die durch das Fenster der Netzhaut, durch den Tastsinn und über die Bewegung erfahren werden. Das kann jeder Künstler selbst nachprüfen, er kann in den auftauchenden Formen und Farben Bewegungen und bis ins Unendliche sich vermehrende Umrisse ausmachen, die neue Verbindungen eingehen und damit verwandte Gebilde, aber auch ganz neue aus den vorhandenen Elementen bilden. Nach einigen Unterbrechungen und nachdem die einzelnen Umrisse an Konturen verloren haben, erscheint vor ihm eine Struktur, deren Gleichgewicht durch eine Ausgewogenheit zwischen den statischen und dynamischen Elementen, die die Gesamtheit bilden, erzielt wird.“ 4

3 Kupka (s. Anm. 1), S. 122. 4 Kupka (s. Anm. 1), S. 136.

Bildbesprechungen

Insbesondere nimmt das Licht in einer Vielzahl von Kupkas Gemälden wie auch in seiner Schrift eine Schlüsselrolle ein. Neben den kunsthistorischen, physikalischen und rezeptionsästhetischen Auseinandersetzungen mit dem Licht denkt er dieses in Bezug zum Raum und zur Zeit. Denn geht der bildende Künstler „mit den Linien und den Lichtverhältnissen der Flächen“ als Gestaltungselementen um und will „er einen mehr oder weniger von Kadenzen geprägten Rhythmus erzielen, […] so kommt er dazu, die Aufteilung der Zeit mit der räumlichen Aufteilung zu verbinden“. Auch wenn er dabei „in Wirklichkeit“ die einzelnen Elemente „nur im Raum“ anordnet, besitzen diese „auch eine zeitliche Dimension“.5 Die Taktung einzelner Formen und ihrer kontrastreicher Lichtabstufungen als ein lineares Nebeneinander hat Kupka vor Mesure de temps im Bezug zur Chronofotografie behandelt.6 ◊ Abb. 2 Im Gegensatz zur genauen Messung und zur identischen, diskreten Taktung stehen in Les Cavaliers die einzelnen Reiter – sei es als Schattenriss oder als ins Licht tauchende Figuren – in einer unregelmäßigen Ordnung zueinander. Auch in räumlicher Hinsicht treten sie hervor oder zurück, sodass die sukzessive Abfolge als eine chronofotografische Bewegung in der Fläche durchbrochen wird. Die Störungen im linearen Ablauf sind als Überlagerungen innerhalb einer zeitlichen Dimension im Raum dargestellt, die dadurch die visuelle Frequenz ins Bild überführen. Diese wird in Mesure de temps als konkrete Struktur sichtbar gemacht und zwar aufgrund ihres Abstraktionsgrades. Die im Raum rotierenden Flächen nehmen das Prinzip eines von William Georg H ­ orner im Jahr 1833 erfundenen optischen Mediums auf, das als „Wundertrommel, Dädaleum oder ­Zoetrop 5 Kupka (s. Anm. 1), S. 113. 6 Vgl. zu Kupka und die Chrono- wie Momentfotografie Marta Braun: Picturing time. The work of Étienne-Jules Marey (1830–1904), Chicago 1994; Herbert Molderings: Film, Photographie und ihr Einfluss auf die Malerei in Paris um 1900. Marcel Duchamp – Jacques Villon – Frank Kupka. In: Wallraf-Richartz-Jahrbuch, Köln 1975, S. 247–286.

Bildbesprechungen

97

2: František Kupka: Les Cavaliers, 1902–1903, Paris, Centre Pompidou, Musée national d’art moderne.

(Lebensdreher)“ bekannt wurde.7 ◊ Abb. 3 Dieses besteht „aus einem Hohlzylinder mit achsenparallelen Schlitzen, der um seine Achse in rasche Umdrehungen versetzt werden“ 8 kann, sodass – wenn man durch die Schlitze hindurchblickt – die einzelnen Phasenbilder als Bewegung wahrgenommen werden können. Die Überlagerung verschiedener Drehbewegungen löst den Effekt eines visuellen Rhythmus aus. In der Bezugnahme auf diese optischen Medien als Messbilder wird ersichtlich, dass in Mesure de temps nicht figurativ die Wahrnehmung solcher Bewegtbilder, wie sie auch im Bezug zur Chronofotografie untersucht wurden, sondern der technische Apparat als ein Prinzip ins Zentrum gerückt wird, der Licht mit Raum und Zeit in der Fläche zusammenführt. 7 Fiedrich von Zglinicki: Der Weg des Films. Textband, Hildesheim /New York, 1979, S. 119. 8 Von Zglinicki (s. Anm. 7).

Unterschiedliche Bildmedien, wie Stereo­ skop, Fotografie und Film, behandelt Kupka im Bezug zur Darstellung der zeitlich formierten Natur. So wird diese „von der Photographie, dem Kinematographen und auch von den künftigen Psychographen übertroffen, die auf mechanische Art und Weise Raum und Zeit zugleich aufnehmen können. Ein Künstler, der in dreißig Sekunden die Veränderungen der Landschaft oder den vibrierenden Reiz einer Geste für die Ewigkeit einfangen möchte, wurde noch nicht geboren. Um dies zu erreichen, muß er eine ‚Synthese der Natur’ vornehmen und die Vielzahl der Erlebnisse, die in unterschiedlichen zeitlichen Abständen gemacht wurden, miteinander kombinieren sie sozusagen ‚chronometrisieren’. Das ist ein verständliches Vorhaben, das dem aufrichtigen

98

Bildbesprechungen

Wunsch folgt, flüchtige Eindrücke eines leidenschaftlichen Verehrers der Natur zum Ausdruck zu bringen […]“.9 Der Film wie auch die Wundertrommel synthetisieren die Natur, indem in der Abfolge von Schlitzen und von Bildern sich beides überlagert. Das Prinzip der chronometrischen, zeitmessenden Synthese selbst wird wiederum in Mesure de temps als Abstraktion zur Darstellung gebracht. Denn es handelt sich weder um eine Anschauung noch um eine objektive Abbildung. Stattdessen zeigt es, dass die Natur nicht vorrangig und anschaulich ist, sondern durch das wird, was in der Zeit hervortritt. Deshalb kann die Natur nicht beobachtet, sondern nur relativ zu einem Experimentalaufbau synthetisiert werden. Die in Mesure de temps zum Thema des Bildes gemachte Zeitmessung tritt in diesem Sinne zunächst als eine Taktung in Erscheinung, in der sich wiederholende Elemente auf der Fläche verteilen. Doch dieser Takt ist zusätzlich einer relationalen Transformation unterworfen, die sich nicht nur in der Fläche, sondern auch in Verbindung zum Raum entfaltet. Im Sinne einer Ausdehnung von Formen in der Zeit vollzieht sich im unteren Bildfeld ein Farbablauf in horizontaler Reihung von rechteckigen Flächen, der vom Schwarz ins Gelb übergeht und sich wieder zu verdunkeln beginnt. Ein weiterer Verlauf der Farben entwickelt sich in den vertikal angeordneten Rechtecken links im Bild, die sich im Spektrum von Grau zum Weißlich Gelben verändern. In der Transformation eines Rechtecks zu einem Quadrat legt diese Reihung der sich wiederholenden Bildelemente die Ausdehnung der Formen in der Zeit nahe. Auch im unteren Bildfeld entsteht in der Reihung, die zunächst als eine Wiederholung exakt identischer Formen erscheint, eine Bewegung der Kontraktion, indem die Flächen schmaler werden und den Eindruck erzeugen, dass sich die Formen im Laufe der Zeit zusammenziehen.

9 Kupka (s. Anm. 1), S. 144.

3: Zoetrope, Wundertrommel.

Im Gegensatz zur vertikalen Abfolge sich verändernder Farbformen im linken Bildfeld, die über das Bild hinaus fortgesetzt werden kann und dadurch die Anbindung an die Fläche betont, markiert die horizontale Taktung deutlicher eine räumliche Dimension. Diese entsteht in den sich in der Rotation krümmenden Flächen, die sich zusammen mit den weißen Rechtecken im Hintergrund an einer rotierenden Bewegung im Raum orientiert. Ersichtlich wird mit dem Ziel der zeitlichen Dimension im Bild, dass in Mesure de temps die fortlaufenden Zeitelemente in veränderbare Beziehung zur Abstraktion von Raum und Fläche gebracht werden. Schließlich entsteht nicht nur ein linearer und rotativer Fortlauf der Reihung sich dehnender Rechtecke in ihrem Farbverlauf, sondern auch eine Verzeitlichung im Wechselspiel von Hintergrund und Vordergrund sowie von Farbe, Fläche und Raum im Bezug zum ganzen Bild. In der Überlagerung aller Farbflächen ist zunächst ein klarer Vordergrund und Hintergrund auszumachen, der

Bildbesprechungen

ein räumliches Bildgefüge erstellt. Doch die verschieden getönten Farbstreifen des Grundes sowie die Positionierung des violetten Farbfeldes mit dem sich verdunkelnden Streifen lassen zugleich die Elemente im Raum schweben. Indem diese im Zwischenraum nicht zu verorten sind, entsteht neben den Zeitweisen der Sukzession und Rotation die dritte Zeitweise der Interferenzen. Solche unterschiedlichen Zeitweisen wie Sukzession, Rotation und Interferenz in ­Mesure de temps verzeitlichen die Wahrnehmung des Bildes und behandeln zudem den Modellcharakter des kontinuierlichen Verhältnisses von Raum und Zeit, wobei auch die relative Raumpositionierung des Betrachters vor dem Bild mitbedacht werden muss. Denn nicht nur spielt das hier verwendete Hochformat eine entscheidende Rolle für die Dynamik des Bildes, sondern auch, in welcher Weise Bildele­ ahmung des Bildes hinausmente über die R

99

gehen.10 Erkennt man dabei die räumliche Dimension, so wird ersichtlich, dass die einzelnen Bildelemente in der vertikalen Reihung sich ebenfalls krümmen und als weitere Rotation sich über den Bildrahmen hinweg in den Raum erstrecken. Auch wenn es sich um ein abstraktes Gemälde handelt, wird hier eines deutlich: Die Zeit ist trotz ihrer Unanschaulichkeit nicht abstrakt, vielmehr bringt die Form die Zeit hervor, wodurch sie konkret wird.

10 „Ein statisch konstruiertes Bild wirkt gut, wenn sein Inhalt auf einem quadratischen Format untergebracht ist; eine dynamische Bewegung kann sich besser auf länglichen oder hohen Formaten entfalten. Es hängt alles davon ab, wie der Maler die Aufteilung angeht, ob er die meisten Flächen für die aktiven Faktoren, als diejenigen, die am meisten wirken sollen, vorsieht, und die restlichen Flächen den passiven, untergeordneten, weniger bedeutenden Faktoren überläßt.“ Kupka (s. Anm. 1), S. 108.

Robert Matthias Erdbeer

Der Handlungsbildraum.  Zeitgestaltung als Problem der Bildbeschreibung im Videospiel Temporality is not an ecstasis but the unity of ecstases, a perpetual return to the self. Mikel Dufrenne: The Phenomenology of Aesthetic Experience

I. Im Rahmen des Möglichen 1. Die Aufzeichnung

Die Crux dynamischer Fiktionsformate ist die Fliehkraft ihrer Zeichen. Die Textur von Aufführungen ist ereignishaft und flüchtig, nicht als solche wiederholbar und für Analysen unverfügbar. Sie erfordert eine Aufzeichnung. Die Aufzeichnung als Sekundärvertextung tilgt jedoch den Aufführungscharakter, sie verstetigt, was als Unstetes entworfen wurde, sie verdeckt die Aufführungsumgebung, sie verleiht dem NichtBedeuteten Bedeutsamkeit. Wer aufzeichnet und Aufgezeichnetes bezeichnet, ist im Simulakrum, denn die Aufzeichnung verwahrt die Spur des Aufgezeichneten, indem sie sich an seine Stelle setzt und dort – hier ist die Wendung einmal angezeigt – ‚auf Dauer stellt‘. Das Aufgezeichnete jedoch entzieht sich seiner Archivierung; es entgeht der Ein- und Überschreibung durch die Aufzeichnung, da es im Augenblick der Speicherung nicht nur die Seiten wechselt, sondern gänzlich aus der Welt verschwindet. Aufzeichnungen simulieren referenzlos, sie verweisen auf ein eben noch Vorhandenes, ein Original im Schwinden, das mit jedem Gestus seiner flüchtigen Präsenz sein künftiges Vergangensein verkündet: „Ich werde gewesen sein.“ Die Künste, die sich nicht zum Werk versammeln, sondern flüchtig und vergänglich sind, erfordern eine Mitschrift oder einen Mitschnitt, dessen Aufschreibe- und Rekurrenzsystem das Werk als Werk – in seiner Materialität und Wiederholbarkeit – erst her- und sicherstellt. Das stillgestellte Werk der Aufzeichnung ist freilich nicht mehr länger die dynamische Aktion des Auftritts, der Performance und der Aufführung. Es spiegelt nicht nur die Bezugnahmen und Urteile der Aufzeichnungsinstanzen, sondern ändert im Vollzug des notwendigen Medienwechsels Art und Aggregatzustand der Zeichen. Damit aber gibt die Aufzeichnung – im Unterschied zur Aktualisierung einer Partitur und eines Dramentextes – die im Aufzeichnungsobjekt latenten Kontingenzen preis. Für eine Hermeneutik, die auf zuverlässige, sprich: materiell verfügbare, reproduzierbare, beständige, mit einem Wort: befragbare Signifikanten setzt, ist diese Flüchtigkeit der Zeichen analytisch ebenso prekär wie deren Ablösung durch eine Semiosphäre zweiten Grades. Diese nämlich, die das Flüchtige fixiert, forciert ein Aufzeichnungs-

Der Handlungsbildraum.  Zeitgestaltung als Problem der Bildbeschreibung im Videospiel

101

verstehen, das als Supplement des Original-Verstehens eine Medieneinheit sui generis, ein Fabrikat des Aufzeichners erstellt. Der alte Vorwurf, dass die Horizontverschmelzung des Verstehenden mit seinem Gegenstand ein Selbst-Verstehen bleiben müsse, weil der fremde Horizont nur vom Verstehenden entworfen werden könne, wirkt beim Aufzeichnungsverfahren noch berechtigter. Da Aufführungen wesentlich von Visualität getragen sind, erscheint die Flüchtigkeit der Lebendbilder als Zentralproblem der dynamischen Bildwissenschaft. Der Vorteil des tradierten Bildes im Konflikt des Paragone, nämlich mit Präsenz (des Sichtbaren), Abschließbarkeit (der Wahrnehmung), Koexistenz (der Zeichen) und Totalität (des Werks) beschenkt zu sein, verschwindet mit und in den Bilderfluchten visueller Echtzeit. Performanzen stiften damit ein Problem im dreifachen Panofskyschen Sinne – vorikonografisch, weil sich ihre Bildmomente noch nicht zum Sujet verdichten, also noch nicht Stil geworden sind; ikonografisch, weil sich ungefestigte Sujets nicht an Konzepte oder Konventionen binden, also keine Typen bilden; und ikonologisch, weil das Flüchtige noch nicht Diskurs geworden, nicht symbolhaft und infolgedessen nicht durch die „synthetische Intuition“ der Interpreten einzufangen ist.1 Die Ekphrasis der Hermeneuten, ihre Bild-Beschreibung, ist als Zuruf aus dem fremden Zeichen- und Bezeichnungsraum seit jeher ein Modellfall medialer Ekstasis. Trifft diese Ekstasis auf Performanzen, wird sie noch ekstatischer. Der Zeichenwechsel, der die Bildbeschreibung im Vergleich zur textuellen Hermeneutik ohnedies in Nachteil setzt, wird angesichts der nunmehr doppelt unverfügbaren Signifikanten durch den Einzug einer dritten Zeichenschicht noch überboten: durch die Aufzeichnung, die zwischen Performanz und Ekphrasis vermittelt und auf diesem Weg zugleich den Abgrund zwischen bildhaftem Ereignis und Beschreibung des Ereignisses vertieft. Die Emergenz der filmischen Bewegungsbilder, die als motion pictures auf die Verlebendigung des Bildes zielen, bieten hierfür keine Lösung, da der Film als Medium aus flüchtigen stabile Zeichen macht. Da Filme keine Performanzen, sondern – medial verstanden – Aufzeichnungen sind, verschärfen sie vielmehr das Analyseproblem. Das Medium erschöpft sich in der Botschaft, die es selber ist, der Modus Bildfiktion im Simulakrum eines möglichen, doch immer schon vergangenen Realen: „Die Sichtbarkeit selbst wird sichtbar. Man sieht immer nur die Möglichkeit, etwas zu sehen, aber man sieht niemals mehr, weil keine Möglichkeit Wirklichkeit wird.“ 2 Medium und Modus schaffen damit einen Grenzraum, der das Ephemere, Unverfügbare, dem 1 Erwin Panofsky: Ikonographie und Ikonologie (1955). In: ders.: Sinn und Deutung in der bildenden Kunst, Köln 1975, S. 34. 2 Lambert Wiesing: Die Sichtbarkeit des Bildes. Geschichte und Perspektiven der formalen Ästhetik, Frankfurt a. M. 2008 [1. Aufl. 1997], S. 173 (zum Format des Videoclip).

102

Robert Matthias Erdbeer

Zugriff des Betrachters scheinbar preisgibt (aber nur in Simulakren) und zugleich entzieht (da diese Simulakren nur im Grenzraum disponibel sind). Er wird zum passiven Bestauner eines Schattens, den die Sonne des Ereignisses durch den Projektor wirft. 2. Die Bildwelt

Nun hat die Digitalisierung ein dynamisches Format geschaffen, das die Darstellung und Analyse des Prozesshaft-Flüchtigen auf eine neue Stufe stellt. Computerspiele sind hybride Bildaktionen, deren Partitur – das programmierte Game Design mit seinen vorgegebenen Entscheidungsbäumen – Kontingenzen nicht nur auf der Ebene der Deutung zulässt, sondern in ‚Visionen‘ ausführt: durch geteilte Bild-Gebung, als digital video game. Die Spielentscheidungen der Spieler nämlich – dies wird über ihren Handlungszielen gern vergessen – sind auch und vor allem Bildentscheidungen, Entscheidungen für eine Bildoption. Die Spieler sind Gestalter oder Kuratoren, die im Durchgang durch die Matrix des Erfahrungsbildraums Bildoptionen wählen und verwerfen – prospektiv als Seher und Entwerfer eines Spielverlaufs, retrospektiv als Wiederseher und Bewerter ihrer Bildentscheide. Das Computerspiel ist vor allem ein Bildmedium. So wenig tiefgründig sich diese Einsicht ausnimmt, so erstaunlich ist der Umstand, dass das Offensichtliche im weiten Feld der Spielforschung bislang nur schwach belichtet worden ist. Die Konkurrenz von Handeln und Erzählen, die den ludischen Diskurs in seinen Anfängen bestimmte, war kein Bilderstreit. Der Widerspruch von Narration und Gameplay schien sich unterhalb (im Reich der Programmierung und der Skripte) oder oberhalb der Bildgebung (im Reich der Agency und ihrer Ziele) abzuspielen, während das spezifisch Bildhafte des Game Designs, vom visuellen Stil bis zur komplexen Blicklenkung, zwar stets beobachtet, doch kaum je analytisch aufbereitet worden ist.3 Kein anderer Begriff hat 3 Zurecht bemerkt schon Lambert Wiesing: „In der Tat sind die meisten Videospiele Musterbeispiele für die interaktive Form der reinen Sichtbarkeit. In ihnen ist es wesentlich, daß mit der reinen Sichtbarkeit gespielt wird wie mit einem Gegenstand, […] der real ist. Die Interaktion läßt den Schein zu einem Gegenstand besonderer Art werden: zum nursichtbaren Ding.“ Im simulierten Setting werde nämlich „die manipulierte reine Sichtbarkeit [des digitalen Bildes] durch die interaktive reine Sichtbarkeit überwunden“; Wiesing (s. Anm. 2), S. 179f. Auch Stefan Günzel konstatiert in diesem Sinne: „Computerspiele sind in erster Linie Bilderscheinungen […]. Daher liegt die Besonderheit […] in der Manipulationsmöglichkeit des interaktiven Bildes selbst.“ Stefan Günzel: Raum(bild)handlung im Computerspiel. In: Alexandra Strohmaier (Hg.): Kultur – Wissen – Narration. Perspektiven transdisziplinärer Erzählforschung für die Kulturwissenschaften, Bielefeld 2013, S. 489–510, hier S. 490. Dass der Bildbegriff im Titel eingeklammert ist, verweist jedoch auch hier auf den Primat der Narratologie. Zum Ansatz einer ludisch orientierten Bildforschung vgl. dagegen Benjamin Beil: Avatarbilder. Zur Bildlichkeit des zeitgenössischen Computerspiels, Bielefeld 2012. Schon vorher wurde vornehmlich die technische Disposition (Simulation, Manipulierbarkeit) der digitalen resp. algorithmisch generierten Bilder diskutiert, die Vorstellung vom ‚handlungsinduzierenden

Der Handlungsbildraum.  Zeitgestaltung als Problem der Bildbeschreibung im Videospiel

103

diese Abschattung des Visuellen deutlicher markiert als der Begriff der Storyworld. Im Siegeszug der Narratologie und ihres intermedialen Ausgriffs – den Storyworlds across Media (Ryan/Thon) – verschwand nicht nur die ludologische Polemik, sondern auch das ludische Bild. Die Konsequenzen dieser Bildvergessenheit tangieren auch – und insbesondere – die analytische Praxis. Denn als flüchtiges ist das Computerspiel ein höchst perfides Medium. Da sich der Bildraum über die Bewegungen des Avatars formiert und deformiert, trifft man nie zweimal auf dasselbe Bild. Nicht-linear sind die Erzählsequenzen, instabil erscheint die Weise, wie sie mit den emergenten Bildfolgen verbunden sind. Die Storyworld aus Spielen und Erzählen evolviert somit aus einer Bildwelt, die sich als dynamische der Wiederholbarkeit entzieht. Die Imageworld bedingt die Storyworld, der Handlungsspielraum setzt den Handlungsbildraum voraus. Der Raum im Gaming war und ist zuallererst ein technischer Effekt. Das Darstellungskalkül der meisten Mainstream-Spiele zielt darauf, den Handlungs- und Erfahrungsraum der Spielenden an den Realraum anzugleichen. Wie bei allen Performanzen wird auch dieser Spielraum im Verlauf des Spiels erst hergestellt. Im Exploration Game – und nicht nur dort – ist der Ereignisraum, die Storyworld, Ergebnis einer sukzessiven Raumergreifung, der Entdeckung, besser: Aufdeckung des Bildraums und der in den Bildraum eingeschriebenen Erzähl- und Zeitstruktur. Die Raumergreifung wiederum ist eine Selbstergreifung, da der Avatar die eigene Geschichte stets mit einer Amnesie beginnt: er weiß nichts von sich selbst. Die Aufdeckung der Storyworld ist also eine Selbst-Entdeckung, eine Selbst-Erzählung, die von der begrenzten Einsicht – visuell wie epistemisch – in den Status des Im-Bild-Seins führt. Am Ende seiner Reise ist der Avatar im eigentlichen Sinn des Worts ‚im Bilde‘, eingegangen in die visuelle, narrative und vor allem zeitliche Totalität des Spiels. Die Art und Weise dieser Selbstversenkung, die qua Immersion Erkenntnis – oder jedenfalls Erfahrung – stiften soll, trägt Züge eines Selbstexperiments.4 Die virtual humanity, die hierbei zu erringen ist und an der Schnittstelle von Mensch und Avatar entsteht, ist das Ergebnis einer Bildaktion. Computerspielen ist ein Bilderhandeln und ein Bildverhandeln, das die Agency der Bilder aus der medientypischen, als Mangel wahrgenommenen Latenz und Statik des Sich-Gleichbleibens befreit.5 Bild‘ indessen eher als ein bild- und handlungstheoretisches, denn als ein darstellungspragmatisches Problem eruiert. Vgl. dazu Beil: Avatarbilder, S. 24ff., 53. Zum Konzept erspielter Bilder vgl. auch Constanze Bausch/Benjamin Jörissen: Das Spiel mit dem Bild. Zur Ikonologie von Action-Computerspielen. In: Christoph Wulf, Jörg Zirfas (Hg.): Ikonologie des Performativen, München 2005, S. 345–364. 4 Vgl. dazu Robert Matthias Erdbeer: Ludische Intervention. Experiment und Gameplay. In: Séverine Marguin, Henrike Rabe, Wolfgang Schäffner, Friedrich Schmidgall (Hg.): Experimentieren: Einblicke in Praktiken und Versuchsaufbauten zwischen Wissenschaft und Gestaltung, Bielefeld 2019, S. 309–322. 5 Vgl. Wolfram Pichler, Ralph Ubl: Bildtheorie zur Einführung, Hamburg 2014, S. 79f.

104

Robert Matthias Erdbeer

Man kann sich fragen, ob das hochdynamische Format der Games die Einlösung des kunst- und literarhistorischen Versprechens ist, in statischen Produkten die Dynamik ihres Herstellungsprozesses spürbar, den Betrachter oder Leser zum Vollender eines Werks zu machen. Oder werden solche Reden durch die Emergenz des GamingGenres als Metaphern einer Sehnsucht sichtbar, wie sie topisch im Pygmalion verkörpert ist? Polemisch zugespitzt: Ist die Idee der Agency des Bildes (oder der Erzählung) ein Relikt der alten Medien, der begrenzten technischen Reproduzierbarkeit? Ist sie die Hoffnung eines Projektionsverhaltens, das die in den Bildern vorgefundenen Bewegungsthemen für tatsächliche Bewegung hält und nun von der modernen Bildgebung als magisches entzaubert wird? Die Überlegung ist verführerisch, doch sie verstetigt ein Modellverhalten, dass die Handlungsmacht allein im modellierenden Subjekt erkennt. Wer Bilder als Akteure anspricht, predigt keinen Animismus, sondern anerkennt die Steuerungsfunktion, die jedem Artefakt zu eigen ist. Die Möglichkeit des ludischen Bewegungs-, Handlungs- und Bedeutungsraums lässt die von Heinrich Wölfflin bis zum ‚Bildakt‘ von Horst Bredekamp betonte Artefaktdynamik erstmals als modales Phänomen, als Potenzialität im Rahmen einer Gradation erkennen,6 deren vorläufiger Endpunkt in der Aktualisierungsleistung ludischer Interventionen liegt. So setzen die dynamischen Formate jene Produktionsdynamik, die im Bild beziehungsweise in der Aufzeichnung zugunsten ihrer Wahrnehmungs-, Erkenn- und Deutbarkeit sistiert und aufgespeichert wurde, wieder frei. Sie aktualisieren hier – zum einen – die „im Artefakt selbst ruhende Latenz, die auf kaum kontrollierbare Weise von der Möglichkeits- in die Aktionsform umzuspringen und den Beobachter und Berührer mit einem Gegenüber zu konfrontieren vermag“.7 Sie nehmen dabei, zweitens, die pragmatischen Gelenkstellen der Artefakte ernst – die Rahmen, Kontextmarker oder intermedialen Vexationen, die im Spiel zu Schnittstellen realen Handelns werden. Damit aber lassen sie zugleich erkennen, dass geteilte Steuerung seit jeher ein Phantasma des ästhetischen Diskurses war, ein beiderseitiges Begehren, das hervorzubringen und zu kontrollieren, was kaum kontrollierbar ist. Insofern wird die Frage wesentlich, ob die vom Rezipienten ausgeführte Handlung auf die Materialität des Bildes, das ihn steuert, durchschlägt, ob das Bild auf diesen Einfluss reagieren kann beziehungsweise reagieren muss. Erst wenn sie sich in ihrem Kernbestand verändern lassen oder selbst verändern, überwinden Bilder 6 Vgl. Heinrich Wölfflin: Kunstgeschichtliche Grundbegriffe. Das Problem der Stilentwicklung in der neueren Kunst (1915), München (2. Aufl.) 1917, S. 11f.: „Jeder Künstler findet bestimmte ‚optische‘ Möglichkeiten vor, an die er gebunden ist. Nicht alles ist zu allen Zeiten möglich. Das Sehen an sich hat seine Geschichte und die Aufdeckung dieser ‚optischen Schichten‘ muß als die elementarste Aufgabe der Kunstgeschichte betrachtet werden.“ 7 Horst Bredekamp: Theorie des Bildakts, Frankfurt a. M. 2010, S. 31.

Der Handlungsbildraum.  Zeitgestaltung als Problem der Bildbeschreibung im Videospiel

105

den semiotischen Signalcharakter, den Aspekt der bloßen Direktive oder Manipulation; erst dann wird Bildhandeln zum kooperativen Handeln, das Objekt zum Kollaborateur und Gegenspieler ludischer Interaktion. Ein solches Bildhandeln löst die tradierte Unterscheidung zwischen Produktion und Rezeption dynamisch auf, denn es verwirklicht, was im rezeptionsästhetischen Diskurs stets metaphorisch blieb: die interventionistische Potenz der Rezipienten, die sich in der ludischen Aktion nicht länger auf amorphe Wahrnehmungen, Zuschreibungen oder Deutungen beschränkt. Im Bildhandeln des Gaming greifen Spielende auf die Struktur und Materialität der Bilder selber zu, der Bildvehikel wie der Bildobjekte,8 wenn sie deren potenzielles Bildsein aktualisieren, individualisieren und manipulieren. Im Bildhandeln greift aber auch die Bildstruktur auf die Betrachter zu, indem sie diese zu pragmatischen Entscheiden zwingt. Je offener die Welten dabei werden, desto mehr entwickelt sich das kollaborative Game zum Schaukampf um die Freiheitsgrade, die den Kollaborateuren zur Verfügung ­stehen. Bildhandeln ist also ein modales Handeln, das die ontologische Disposition der Bilder wie der Bildagenten modelliert und transformiert. Sie handeln im, sie handeln durch und sie verhandeln den Rahmen des Möglichen – auch den konkreten der gerahmten Bilder und begrenzten Screens.9 Durch ihre Aktualisierung der vom Visual Design erdachten Möglichkeiten bringen sie das Spiel als kooperativen Bildakt, als gemeinsames Produkt hervor.10 Sie produzieren und vollziehen dabei eine image guidance, die – als Bildführung der Spieler-Avatar-Dyade – „nicht allein bestimmte Bildmuster und -ästhetiken“ einschließt, sondern auch „deren iteratives Zusammenspiel mit Strukturen und Prozessen“ erzeugt, „die auf reale Konsequenzen ausgerichtet sind“.11 Die ‚Vibration‘ des vorludischen Kunstwerks (Wölfflin), seine Potenzialität, verwandelt sich dabei in faktische Bewegung, Rezeptionsästhetik in aktive Teilhabe, der Bildakt in Selbststeuerung. 8 Pichler, Ubl (s. Anm. 5), S. 27ff. 9 Ausgehandelt werden damit jene Ebenen der Ikonologie des Performativen, die Bausch und Jörissen als „innerbildliche Performativität“ der inszenierten Bilddynamik, „zwischenbildliche Performativität“ der ästhetischen Wahrnehmung und „außerbildliche Performativität“ der Bildherstellung und -verwendung beschreiben; Bausch, Jörissen (s. Anm. 3), S. 345. 10 Dabei erfüllen sie die drei Funktionen, die Horst Bredekamp im Bildakt erkennt: substitutiv durch die Verbindung zwischen Mensch und Avatar, schematisch durch die Verlebendigung des Bildes in der Avatarbewegung und intrinsisch durch die Reflexion der kollaborativ erzeugten Form. Vgl. Bredekamp (s. Anm. 7), S. 60. 11 Kathrin Friedrich, Moritz Queisner, Anna Roethe (Hg.): Bildwelten des Wissens, Bd. 12: Image Guidance. Bedingungen bildgeführter Operation, Berlin/Boston 2016, S. 8 (Editorial). Die Konzeption des Handlungsbildraums antwortet dabei auf das „methodisch[e] Dilemma“, dass „Betrachtungs- und Handlungssituationen in Kontexten von image guidance“ oftmals „auf der Analyse von Anwendungssituationen“ basieren, die „sich selbst nicht ohne Weiteres abbilden lassen“; ebd., S. 8.

106

Robert Matthias Erdbeer

3. Die Zeitwelt

In den Game Studies erscheinen digitale Spiele vornehmlich als Phänomen des Raums. Das liegt schon deshalb nahe, weil der Handlungsbildraum eine eindrucksvolle intermediale Ausdehnung erfahren hat. Sein Stichwort lautet ‚Welt‘‚ Entsprechend formuliert Rand Miller, CEO von Cyan und Erfinder der Adventure-Serie Myst, den Anspruch: „What we’re doing is not building games, we’re building worlds.“ 12 Allein: Die Kontamination aus imageworld und storyworld ist eine Zeiten-Schleuder, deren Vertigo die räumlichen Paradoxa banal erscheinen lässt. Banal erscheint zugleich die schlichte Trennung, die man zwischen der ‚erzählten Zeit‘ und der ‚Erzählzeit‘ im Gebiet der literarischen Fiktionen macht. Im Gaming trifft man auf ein Amalgam aus Eigenzeiten, das bereits im schlichten Marketing zu unfreiwillig komischen Effekten führt: „Sie haben“, heißt es etwa auf der Sammlerbox von Age of Empires, „10.000 Jahre Zeit, um Ihr Volk aus der Steinzeit in die Eisenzeit zu führen und in ein blühendes Imperium zu verwandeln. Und das alles in Echtzeit.“ 13 In der Zeitwelt einer gaming situation treffen sich die maschinelle Zeit der Eingabe- und Steuerungsgeräte und die Laufzeit der Programme, die das runtime system des Computers regelt, mit den Eigenzeiten der im Spiel gesetzten Reaktions-, Entscheidungs- und Bewertungszwänge, mit der Binnenzeit der nicht-ludischen Cut Scenes, mit den diegetischen Kausalbezügen des erzählten Mythos, mit der Eigenzeit der Spielenden als Teil der Gamer-AvatarDyade und mit deren Eigenzeit als Teil der Mensch-Maschine-Schnittstelle, die diese Temporalitäten prozessiert und orchestriert. So wird das Spielsubjekt zum Kollapsar der Eigenzeiten, die das Spiel durchkreuzen, sein Ereignishorizont zur ontologischen Demarkation des Spiels. Im Strudel dieser raumzeitlichen Sonderzone bildet sich, so kann man schließen, ein ekstatisches Subjekt. Nur wenn er ‚außer sich‘ ist, kann der Spieler ‚bei sich‘ sein, nur in der Dispersion der Zeit wird er verzeitlicht, nur in der Verzeitlichung erscheint er überzeitlich, oder – wie der loading screen der Stanley Parable korrekt vermerkt – „The end is never the end.“ Die Technik solchen Zeit-Vertreibens wirft das ludische Subjekt beständig auf sich selbst zurück – als katatonische Dynamik oder als Motorik einer Selbstentwicklung, die sich der Begegnung mit den Eigenzeiten der ludischen techné verdankt. Erst in der gaming situation wird die temporale Ekstasis als jene Agency des Selbst erkennbar, die Mikel Dufrenne zum Ausweis der ästhetischen Erfahrung erklärt: „Temporality is not an ecstasis but the unity of ecstases, a perpetual return to the self.“ 14 12 https://www.kickstarter.com/projects/1252280491/firmament?ref=darx6x, 00:01:36–00:01:39 (Stand: 11/2019). 13 Age of Empires. Collector’s Edition, Ubisoft/Ensemble Studios 2003, Rückseite. 14 Mikel Dufrenne: The Phenomenology of Aesthetic Experience, Evanston 1973, S. 242.

Der Handlungsbildraum.  Zeitgestaltung als Problem der Bildbeschreibung im Videospiel

107

Der Flüchtigkeit der Spielprozesse antwortet indessen nicht nur das Prinzip des spielerseitigen re-entry, sondern auch die Stetigkeit der maschinellen und programmseitigen Wiederholbarkeit; sie wandelt das Vergängliche zum Unvergänglichen, sie stellt als mächtige ikonodule Praxis die Verfügbarkeit der Bilder sicher und sie garantiert die allseitige, ort- und zeitneutrale Aktivierbarkeit der Agency. Um so bedrohlicher macht sich der Ausfall dieser Stabilisatoren geltend, der das temporale und modale Gleichgewicht – die Aktualisierbarkeit der Potenzialitäten – aus der Fassung bringt. Der Umstand, dass Maschinen und Programme der Vergänglichkeit genauso unterworfen sind wie die durch sie erzeugten Performanzen, wird zum Trigger einer kalkulierten temporalen Krise, einer Krise freilich, die das ludische Dispositiv sowohl erschüttert als auch – ökonomisch, psychologisch und ästhetisch – in Bewegung hält. Die Halbwertszeit der Bildtechnologien ist dabei aufs Engste mit der technischen und logischen Integrität des Handlungsbildraums, seiner Leistung als Ereignisraum und Schnittstelle verknüpft. Als Imaginationsmaschine, deren Ziel die Immersion der Spielenden im Zuge ihres Handeln ist, verliert der Handlungsbildraum seine Fähigkeit, im Sinne dieses Handelns transparent zu sein. Der Auftrag seiner technischen Hinein­ bildungen – seiner imaginationes –, die ‚in-lusio‘ der eingespielten Scheinwelt aufzubauen, wird durch solche Krisen abgebrochen; die Mechanik selbst, die Bildmaschine, spielt sich in den Vordergrund. Nun ist dies keineswegs – wie jeder Indie-Gamer weiß – stets auf ein technisches Problem zurückzuführen, sondern kann im Sinne klassischer Verfremdungsmuster ein strategisches Verfahren sein. Das Spiel verwandelt sich dabei zum Experimentalraum visueller Raum- und Zeitpraktiken mit dem Ziel, den manipulativen Grundzug seines Genres vorzuführen. Einschlägig ist hier zum Beispiel in The Path das unverhoffte zooming out der Kamera, sobald man dazu ansetzt, die gebremste Avatarbewegung zu beschleunigen. Der Zeitgewinn, der so entsteht, wird freilich mit Verlust an visueller Orientierung – Einsicht in die Welt – erkauft. Man sieht den Avatar vor lauter Bäumen nicht, auch weil der Bildraum zeitgleich abgedunkelt, sprich: die Übersicht des Panoramas ausgeschaltet wird. Ergebnis ist ein Zeitverlust: Entschleunigung. Im Sinne solcher Zeitpraktiken wird der Handlungsbildraum zum Modellfall eines Chronotopos – als Empfänger und provider disruptiver Bildlichkeit. ◊ Abb. 1 Der Handlungsbildraum also ist ein Handlungszeitraum, dessen Zeitgestaltung auch als visuelle Agency erlebt, gemanaged, unterlaufen und verteidigt wird. Die Temporalität des Ludischen erweist sich dabei als subtiler agon, der vom zielbewussten Zeitkampf bis zur zeit- und selbstvergessenen Versenkung reicht und der, indem er ludische Verzeitlichungsformate reflektiert, den temporalen Habitus der Performanz bestimmt: als competitio, als contemplatio, als meditatio. Die Zeitergreifung durch die

108

Robert Matthias Erdbeer

1: Entschleunigung als Bildeffekt – Desorientierung in The Path.

Spieler-Avatar-Dyade bildet dabei analog zur Raumergreifung ludonarrative oder metaludisch motivierte Zeitpraktiken aus, die – wie der speed run – das vom Game Design Erwünschte oder Programmierte überschreiten können. Umgekehrt versucht das Game Design die illusionsverhindernden Momente seines Mediums zu kompensieren – die räumlichen genauso wie die zeitlichen –, sofern es diese nicht wie in The Path zum thematischen Zentrum erhebt. In diesem Sinn kaschiert zum Beispiel Life is Strange den Zwang zum Neuansatz, der aus misslungenen Aktionen folgt, gerade dadurch, dass es ihn als narrativen Auftrag deutet: „Rewind time to control your destiny“.15 Indem das Spiel die eigene Protagonistin (und mit ihr die Spieler-AvatarDyade) mit der Fähigkeit begabt, die Zeit zurückzudrehen, wandelt es ein immersives Defizit zum gift, zur Gabe exaltierter Agency. Da diese Agency nur eine kurze Zeitspanne umfasst und überdies – bei dauerhaftem Einsatz – die Gesundheit und die Leistungsfähigkeit des Avatars gefährdet, dient die visuelle Zeitgestaltung hier zugleich als Metronom des spielerischen Zeitbudgets: als Steuer- und Kontrollorgan der temporalen Freiheitsgrade, die der Spieler im Geschehen hat. Auf diese Weise wird die Logik der Maschinenzeit – die Wiedereintrittshäufigkeit, die Steuerung des ludischen re-entry – narrativ begründet, die mechanische durch subjektive Zeit kompensiert. ◊ Abb. 2+3

15 Werbescreenshot im Apple iTunes-Store: https://itunes.apple.com/gb/app/life-is-strange/id1180101534 ?mt=8 (Stand: 11/2019).

Der Handlungsbildraum.  Zeitgestaltung als Problem der Bildbeschreibung im Videospiel

109

2+3: Die Zeitspirale als gift – Bildrücklauf und Bildverwischung beim rewind in Life is Strange.

II. Die Prägnanz des Screenshot

Vor diesem Hintergrund wird Spielbeschreibung – im Vergleich zur herkömmlichen Bildbeschreibung und zur Analyse klassischer Erzähltexte – ein Hassardeursprojekt. Die aporetische Beschreibungslage der enacted narratives, die sich im Fluidum des prozeduralen game space geltend macht, verschärft sich noch durch die diversen Zeitpragmatiken der Spieler und des Spiels. Wie kann man diese Vertigo des Temporalen analytisch fassen, umso mehr, als es sich hier um eine Bilderpraxis, um die Folge visuellen Handelns dreht? Gefordert wäre, was zugleich als metanarrativer Auftrag gelten könnte: eine Offensive der Bildwissenschaft. Denn die Erfassung, Deutung und Bewertung flüchtiger Erscheinungen aus visuellen, narrativen und performativen Akten setzt die Arretierung ihrer Bilder-Zeichen, deren Übersetzung (oder besser: Rückverwandlung) in stabile Aufschreibesysteme oder Skripts voraus. Was aber ist das Aufschreibesystem des Videospiels? Gemeinhin ist der Fixpunkt einer Spielbeschreibung, die kein Playthrough oder bloße Ekphrasis der dargestellten Szene ist, der Screenshot. Im stabilen, nichtdynamischen Beschreibungsrahmen schließt der Screenshot jenen Handlungsbildraum auf, der seinerseits die Bildwelt (und durch sie die Zeitwelt und die Storyworld) erst zu erfassen erlaubt. Er ist zugleich die Nullstufe des Mitschnitts, der ja anders als der Film die Wiedergabe einer individuellen, immer wieder anders durchgeführten Prozessierung ist. Der Mittschnitt eines Spieldurchlaufs ist dabei auch vom Mitschnitt einer theatralischen Performance unterschieden, nämlich dadurch, dass er eine Folge von

110

Robert Matthias Erdbeer

Entscheidungsbäumen mit stabilen nodes durchläuft. Die Analyse kann sich also nicht in gleicher Weise auf den Mittschnitt eines Spiels beziehen, wie sie sich auf den sich immer gleichen Film beziehungsweise die sich niemals gleiche Performance bezieht. Als kleinste Einheit eines Gaming-Mittschnitts ist der Screenshot also zwischen dem Besonderen des Spielens und dem Allgemeinen des Designs gespannt. Der Screenshot allerdings schießt sich nicht selbst. Die Wahl des Screenshots ist – bildanalytisch, aber auch erzählanalytisch – die wohl wichtigste Entscheidung im Beschreibungsvorgang, weil er wie ein Bild- und Textzitat den Analysevorgang steuern und zugleich beglaubigen muss. Im Gegensatz zum Bildzitat ist dieser Screen­ shot freilich nur Momentaufnahme; ungeregelt bleibt, im Gegensatz zum Textzitat, die Einbindung sowohl ins Netz der intermedialen Korrelate Text/Ton/Handlung, als auch in den Rahmen einer Bild- und Medienanalyse. Für den Screenshot gibt es keine Konvention.16 Entsprechend zufällig wirkt meist die Auswahl, die nicht selten rein illustrativen Zwecken dient. Auch solche können freilich instruktiv und analytisch sinnvoll sein, so etwa, wenn die Atmosphäre einer Bildwelt und des game space eingefangen werden soll. Ein Screenshot dieser Art bezeichnet dann den Nullpunkt dessen, was man auch als bildweltkritische Funktion der Repräsentation bezeichnen kann. Sie richtet sich auf das Verhältnis zwischen Bildobjekt und Bildvehikel, Material und Modus einer Bildgebung, Struktur und Aporien einer Bildwelt. So erscheint am Rand des Welt-Designs in Gothic II der Avatar auf einmal in den Polygonen, die der digitalen Bildwelt als Vehikel dienen, hier jedoch erratisch in den malerischen Himmel ragen. Er beobachtet auf diese Weise gleichsam seine Matrix – ein Caspar David Friedrich der kühneren Art. ◊ Abb. 4 In Black and White dagegen zeigt sich eine Modusüberschreitung, wenn das Oberflächenphänomen des Cursors, also eine Steuereinheit, in die Tiefenschicht der Bildwelt greift und dort, im intradiegetisch-fiktionalen Setting, einen extradiegetisch-faktualen Schatten wirft – ein ludischer mise-en-abyme. ◊ Abb. 5 Man könnte also drei Funktionstypen des Screenshots unterscheiden: erstens einen bildweltkritischen, in dem die Bildwelt selber als Problem erscheint, zweitens einen informantenkritischen, der auf die meist mit einem Avatar verbundene Logistik (etwa Interfaceoperatoren, Arsenale, Protokolle/Tagebücher) setzt, und drittens einen handlungs- und entscheidungskritischen. Um diesen dritten Typus geht es hier. Wer einen Screenshot schießt, befindet sich in der prägnanten Position des Malers, der – mit Lessing – ausgedrückt – den „fruchtbaren Augenblick“ sucht. Um die Dyna 16 Auch Beil beklagt hier lediglich den „problematischen Status des herangezogenen Bildmaterials“, der „Screenshots, an denen sich die Bildanalysen entlang bewegen“, und deklariert dieselben als Notbehelf; Beil (s. Anm. 3), S. 31f.

Der Handlungsbildraum.  Zeitgestaltung als Problem der Bildbeschreibung im Videospiel

111

4+5: Screenshots zwischen Welten – Bildgebung am Rand des Game-Designs.

miken von Handlung und Affekt im nichtperformativen Medium zu präsentieren, wählt der Maler einen Augenblick, der vor der eigentlichen Handlung liegt und diese motiviert. Er lässt, so Lessing, „der Einbildungskraft freies Spiel“.17 Im digitalen Spiel besteht das Bildobjekt, das es ermöglicht, ‚mehr zu sehen und hinzuzudenken‘ als der Screenshot zeigt,18 in dessen Entscheidungsumgebung; sie ist Anlass und Voraussetzung des ludischen Entscheidungshandelns im dynamischen Aktionsraum ‚Spiel‘. Zur Dokumentation entscheidungskritischer Umgebungen dient das im folgenden entwickelte Basismodell. Es situiert, fixiert und diskutiert den Handlungsbildraum auf sechs Ebenen, die in sechs Panels dargestellt und aufeinander bezogen sind. ◊ Abb. 6 Beschrieben wird die Ausgangsstellung am Entscheidungsbaum der Stanley Parable,19 in der ein klassischer Erzähler im voice over die Aktion der Spieler-AvatarDyade vorgibt und entsprechend kommentiert. Der Screenshot situiert den Handlungsbildraum als Entscheidungsraum (1), der dann im Diagramm formalisiert (2) und mit den tabellarischen Hierarchisierungen des Skripts und der Erzählfragmente abgeglichen wird (3). Die Ekphrasis beschreibt und kommentiert sodann die Relation aus ludischem und narrativem Game Design sowie die Konsequenzen, die aus den Entscheidungen im Gameplay für die Storyworld und den Verlauf des Gameplay zu erwarten sind (4)–(6). Die ludische Aktion gestaltet dabei eine doppelte Bildreferenz: 17 Gotthold Ephraim Lessing: Laokoon: oder über die Grenzen der Malerei und Poesie [1766]. In: Werke Bd. 6.: Kunsttheoretische und kunsthistorische Schriften, hg. v. Herbert G. Göpfert, Darmstadt 1996, S. 25f. 18 Vgl. ebd., S. 26. 19 The Stanley Parable, Galactic Cafe 2013, Script unter https://github.com/angelXwind/Localization/ blob/master/The%20Stanley%20Parable/subtitles_english.txt (Stand: 11/2019).

112

Robert Matthias Erdbeer

Sechs-Panel-Basismodell Protokoll einer Entscheidungsumgebung im Handlungsbildraum

 DIE IKONISCHE EBENE: Screenshot des Handlungsbildraums mit Entscheidungsumgebung



 

mit Skriptstruktur und Erzählsequenzierung

ϯ

narration.two_doors_ right_00

Ϯ

narration.two_doors_00 When Stanley came to a set of two open doors, he entered the door on his left.

ϭ

narration.office_1_01

 DIE DIAGRAMMATISCHE EBENE: Entscheidungsumgebung mit Ausgangsposition (grau), Entscheidungskern (gelb), Entscheidungsoptionen (grün/rot) und Entscheidungsfolge (Kreuz)

>h/^,^^/'E

 DIE TABELLARISCHE EBENE: Entscheidungsumgebung



SKRIPT

This was not the correct way to the meeting room, and Stanley knew it perfectly well.

Stanley decided to go to the meeting room; perhaps he had simply missed a memo.



NARRATIV (VOICE OVER)

– DIE EKPHRASTISCHE EBENE: Kommentierung der

ludonarrativen Entscheidungsumgebung mit Gameplay

ƐůŝĞŐƚĞŝŶdžƉůŽƌĂƚŝŽŶ^ĞƚƚŝŶŐŝŵ^ŝŶŐůĞͲWůĂLJĞƌͲDŽĚƵƐŵŝƚ&ŝƌƐƚͲWĞƌƐŽŶͲĞŶƚƌĂůƉĞƌƐƉĞŬƚŝǀĞ ŽŚŶĞƐŝĐŚƚďĂƌĞ/ŶƚĞƌĨĂĐĞͲůĞŵĞŶƚĞǀŽƌ͖ĚŝĞůƵĚŝƐĐŚĞ^ŝƚƵĂƚŝŽŶŝƐƚĞŶƚƐĐŚĞŝĚƵŶŐƐŬƌŝƚŝƐĐŚŵŝƚ njǁĞŝǁĞƌƚŝŐĞƌƵƐǁĂŚůͲKƉƚŝŽŶ͖ĚĞƌWŽŝŶƚŽĨĐƚŝŽŶŝƐƚŝŶƚƌĂĚŝĞŐĞƚŝƐĐŚ͕njĞŶƚƌŝĞƌƚƵŶĚĚŝƌĞŬƚ͘



EZZd/s^^/'E ŝĞƌnjćŚůĞƌƐƚŝŵŵĞŬŽŵŵĞŶƚŝĞƌƚĚŝĞǀĂƚĂƌĞŶƚƐĐŚĞŝĚƵŶŐǀŽƌ ĚĞƌĞŶsŽůůnjƵŐ͖ƐŝĞƌĞŬůĂŵŝĞƌƚ ĚĂŵŝƚĚŝĞ