131 119 16MB
German Pages 370 [374] Year 2023
Carolin Scheler Computergrafik – Zur Geschichte und Produktionsästhetik synthetischer Bilder
Image | Band 230
Carolin Scheler, geb. 1989, ist Lehrbeauftragte für Kulturtheorie an der Hochschule Hannover, Fakultät III – Medien, Information und Design, sowie im Fachbereich Kunst und Design an der Hochschule für Künste Bremen. Sie promovierte im Rahmen des DFG Graduiertenkollegs 2477 »Ästhetische Praxis« im Fachbereich Kulturwissenschaften und Ästhetische Kommunikation der Universität Hildesheim und studierte Design und Computeranimation in Hannover sowie Columbus, Ohio.
Carolin Scheler
Computergrafik – Zur Geschichte und Produktionsästhetik synthetischer Bilder
Diese Arbeit wurde durch die Deutsche Forschungsgemeinschaft (DFG) im Rahmen des Graduiertenkollegs 2477 »Ästhetische Praxis« (Projektnummer: 394082147) gefördert und an der Universität Hildesheim als Dissertation vorgelegt. Die Verteidigung fand am 10.11.2022 in Hildesheim statt. Gutachter waren Prof. Dr. Thomas Lange (Universität Hildesheim) und Prof. Dr. Friedrich Weltzien (Hochschule Hannover).
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http:// dnb.d-nb.de abrufbar. © 2023 transcript Verlag, Bielefeld Alle Rechte vorbehalten. Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen. Umschlaggestaltung: Carolin Scheler Umschlagabbildung: Carolin Scheler Lektorat: Oliver Marks Korrektorat: Dr. Kerstin Prietzel, Dr. Corinna Scheler Druck: Majuskel Medienproduktion GmbH, Wetzlar Print-ISBN 978-3-8376-6757-8 PDF-ISBN 978-3-8394-6757-2 https://doi.org/10.14361/9783839467572 Buchreihen-ISSN: 2365-1806 Buchreihen-eISSN: 2702-9557 Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff.
Inhalt
Dank��������������������������������������������������������������������������������������������������������������� 7
1 Einleitung����������������������������������������������������������������������������������������������������� 9 1.1 1.1.1 1.1.2 1.1.3 1.2 1.2.1 1.2.2
Methodik und Auf bau der Studie�������������������������������������������������������� 13 Methode – Sprünge überwinden���������������������������������������������������������� 13 Auf bau der Studie����������������������������������������������������������������������������26 Forschungsstand�����������������������������������������������������������������������������28 Inhaltliche Einführung��������������������������������������������������������������������� 47 Starting from Scratch – Die Praxis der synthetischen Bilderzeugung��������� 47 Die Praxis der 3D-Computergrafik aus historischer Perspektive – Ein Kurzüberblick�����������������������������������60
2
Der Computer als kreativer Partner – Die frühen Entwicklungen der Computergrafik am Massachusetts Institute of Technology��������������������������������� 67
2.1
Ivan E. Sutherlands Sketchpad und die Geburt der ›universellen‹ Computerzeichnung���������������������������� 67 Mehrzweckcomputer und Lichtstif te – Die Hardwareausstattung Sutherlands������������������������������������������������� 71 Entwickler und Anwender – Ein neues Spannungsfeld����������������������������� 75 Copy and Paste – Interaktion und Ef fizienz in Sketchpad�������������������������� 78 Sketchpad und die Kunst – Of fene Arbeitsprozesse am Computer���������������84 Parallelentwicklungen – Der Computer in der bildenden Kunst und im Design der 1960er Jahre���������������������������� 91 Charles A. Csuri – Kreative Arbeit am Computer zwischen Kunst und Wissenschaf t������������������������������������������������������ 93 William A. Fetter – Der Computer als Mittel zum Zweck���������������������������127 Steven A. Coons – Eine neue Zusammenkunf t zwischen Mensch und Maschine��������������������������������������������������������147 Die Grafik als Gedankeninstrument���������������������������������������������������� 157 Der Computer als Erweiterung des Intellekts���������������������������������������� 179
2.1.1 2.1.2 2.1.3 2.1.4 2.2 2.2.1 2.2.2 2.3 2.3.1 2.3.2
3
University of Utah – Die Wiege der zeitgenössischen 3D-Computergrafik����������������������������������� 195
3.1
Ein gemeinsames Ziel – Die 3D-Computergrafik zwischen Glaubwürdigkeit und Realismus�������������������������������������������195 3.2 Opazität, Licht und Animation – Eine Strategie zur Umsetzung des gemeinsamen Ziels���������������������������������������������� 201 3.2.1 Shading-Algorithmen und die Vervollkommnung der 3D-Computergrafik������������������������������� 207 3.2.1.1 Objektive Gestaltungskriterien für Computergrafiken bei Gordon W. Romney...................................... 212 3.2.1.2 Smooth Shading – Henri Gouraud und der Brückenschlag zur heutigen 3D-Sof tware................................. 223 3.2.1.3 Textur und Struktur – Die Ziele nach dem Ziel...................................... 231
4
Realismus in der US-amerikanischen Bildkultur���������������������� 243
4.1
Der Realismus Pixars – Edwin Catmull als Brücke zwischen Produktions- und Bildästhetik�������������������������������������������� 243 4.2 Die Greif barkeit der Dinge – Gefühl und Präzision in der Malerei�������������������������������������������������� 255 4.2.1 Zur Kategorisierung des ›Amerikanischen Realismus‹��������������������������� 256 4.2.1.1 Realismus als historisches Phänomen................................................. 260 4.2.1.2 Realismus als ästhetische Kategorie.................................................... 274
5
Zum Sinnzusammenhang der 3D-Computergrafik������������������297
5.1 5.1.1 5.1.2
Technologischer Fortschritt und Bildpraxis in den USA������������������������� 298 Die Computergrafik als Traditionshüter des ›Amerikanischen Realismus‹������� 301 Pixar und der Sinnzusammenhang der 3D-Computergrafik als visuelles Phänomen����������������������������������� 307 Zum kulturhistorischen Hintergrund synthetischer Bilder������������������������314
5.2
6 Fazit������������������������������������������������������������������������������������������������������������323
Anhang�����������������������������������������������������������������������������������������������������329
Abbildungsverzeichnis������������������������������������������������������������������� 329 Filmverzeichnis���������������������������������������������������������������������������� 339 Literaturverzeichnis���������������������������������������������������������������������� 340 Glossar��������������������������������������������������������������������������������������� 353 Index�����������������������������������������������������������������������������������������360 Organigramm������������������������������������������������������������������������������ 367
Dank Von Herzen möchte ich an dieser Stelle allen Menschen danken, die in den letzten Jahren dieses Projekt auf viele unterschiedliche Weisen unterstützt haben. Mein besonderer Dank richtet sich an meine beiden Gutachter Prof. Dr. Friedrich Weltzien und Prof. Dr. Thomas Lange. Seit meinem Masterstudium an der Hochschule Hannover hat mein Zweitgutachter Friedrich Weltzien alle Schritte begleitet, die mich von meinem praktisch-gestalterischen Hintergrund in die Welt der Kulturtheorie geführt haben. Besonders in Erinnerung bleibt seine Ermutigung, in meinen aus der Praxis rührenden Fragen einen für die Forschung wertvollen Ansatz zu erkennen. Sein behutsames Lenken hat den gesamten Weg geebnet und das Projekt geformt. In persönlich und fachlich wertvoller Ergänzung durfte ich, nachdem ich mit meinem Promotionsprojekt an der Universität Hildesheim beheimatet war, Thomas Lange als meinen Erstgutachter kennenlernen. Sein präzises Feedback und seine Betreuung im Rahmen des DFG-Graduiertenkollegs »Ästhetische Praxis« haben in erheblicher Weise dazu beigetragen, das Projekt erfolgreich zum Ende zu führen. Aus der Zeit des Kollegs gilt – neben der sehr wertvollen finanziellen Unterstützung – mein Dank vor allem Prof. Dr. Andreas Hetzel als damaligem Sprecher und Dr. Sonja Dinter als Koordinatorin. Beide haben an entscheidenden Punkten meinen Platz als Forscherin im Kolleg geprägt und gefördert. Sonja Dinter hat gemeinsam mit meinem Kollegen Tobias Wittchen zudem mit präzisem Feedback zu einzelnen Kapiteln das Projekt konkret vorangebracht. Von Tobias Wittchen habe ich darüber hinaus wertvolle und hilfreiche kollegiale Unterstützung erfahren. Im akademischen Kontext möchte ich außerdem den ehemaligen Mitgliedern des Doktorandenkolloquiums an der Abteilung Design und Medien der Hochschule Hannover danken. Besonders hervorheben möchte ich hier Prof. Dr. Martin Scholz, der auch in besonderer Weise mein Masterstudium sowie meine Lehrtätigkeit förderte, sowie meine Kolleginnen Katrin Brümmer, Dr. Katharina Krämer, Dr. Alexandra Panzert, Dr. Saskia Plankert, Sylvia Thys und Antonia Ulrich. Punktuell, aber sehr wesentlich wurde mein Projekt zudem von Prof. Dr. Annette Geiger (Hochschule für Künste Bremen) unterstützt. Ihr gilt mein besonders herzlicher Dank. Weiterhin danke ich meinen Hochschullehrerinnen Vita Berezina-Blackburn und Prof. Maria Palazzi an der Ohio State University in Columbus (Ohio, USA), die für meinen Weg in die Wissenschaft und meinen hier eingenommenen Blickwinkel einen hohen Stellenwert einnehmen. Die Erkenntnisse aus dem Studium am ACCAD (Ad vanced Computing Center for the Arts and Design) waren für meine Forschung von elementarer Bedeutung. Vita Berezina-Blackburn danke ich zudem, einen für meine Recherchen sehr wertvollen Austausch mit der langjährigen Pixar-Mitarbeiterin Kyoung
8
Scheler: Computergrafik
Swearingen ermöglicht zu haben. Ihr gilt mein Dank für ihre Bereitschaft, mit mir in Austausch zu treten. Das Gleiche gilt für Dominik Pott, der als 3D-Artist wertvolle Einblicke in seine Arbeit gewährt und damit meine Untersuchungen sehr bereichert hat. Ein überaus inniger Dank gilt Dr. Matthias Bock und Dr. Corinna Scheler. Insbesondere zu Beginn meiner Promotionsphase war es ein unermessliches Privileg, mit ihnen das Bibliotheksleben kennenzulernen und in regelmäßigem Austausch zu stehen. Aber auch über diese Zeit hinaus waren beide stets verlässliche und unersetzliche Ansprechpartner für mich – in formaler, fachlich-inhaltlicher, aber vor allem in freundschaftlicher Hinsicht. Corinna Scheler gilt darüber hinaus mein tiefer Dank für das mehrfache aufmerksame Korrekturlesen der Studie. Die Zeit in der Bibliothek wurde von der Pandemie jäh beendet, doch auch darüber hinaus hatte ich fruchtbare Arbeitsgemeinschaften, die für mein Projekt gerade im Lockdown ›lebensnotwendig‹ waren. Neben Matthias Bock möchte ich hier besonders Dr. Petrissa Zell und Hendrik Hachmann sowie Theo Schreiber und Shagana Shanmuganatan meinen Dank für die produktive gemeinsame Arbeitszeit aussprechen. Petrissa Zell und Hendrik Hachmann waren neben ihrer Freundschaft außerdem eine wertvolle Ressource für fachliche Rücksprachen im Bereich der Informatik. Theo Schreiber hat mich zudem insbesondere in Bezug auf den Satz der Druckfassung mit intensivem Rat begleitet. Ebenso zentral war während der Fertigstellung dieses Bands Luisa Bott vom transcript-Verlag, deren rege und hilfreiche Unterstützung die letzten Schritte reibungslos gestaltet hat. Darüber hinaus gilt mein besonders herzlicher Dank meinem Lektor Oliver Marks. Mit Fingerspitzengefühl und unvergleichlicher Präzision hat er dieser Studie den entscheidenden Schliff verliehen. Ebenso danke ich von Herzen Tabea Dreyer, Anja Egbers, Sarah Haggard, Xianyu Bonnie Hao, Kathrin Jobczyk, Almut Schmitt und Lisa Schulten, die mich in unterschiedlichster Weise unterstützt haben. Ich denke hier etwa an Xianyu Bonnie Hao, die mich gelegentlich mit Aufsatzkopien aus den USA versorgt hat, aber auch an Lisa Schulten, die in einer frühen Phase weite Teile der Studie gelesen und mir wegweisendes Feedback gegeben hat. Darüber hinaus war vor allem der Austausch mit Kathrin Jobczyk und Almut Schmitt stets ein wichtiger Anker. Abschließend richte ich einen besonders innigen Dank an meine Familie. Die liebevolle Unterstützung meiner Eltern Dorothea Seyfarth-Scheler und Thomas Scheler bilden ein essenzielles Fundament dieser Arbeit. Sie ist ein Kind eines künstlerischen und kreativen Umfelds, in dem neugieriger Austausch und Gedankenexperimente nicht nur möglich, sondern ausdrücklich erwünscht waren. In diesem Sinne haben sowohl meine Eltern als auch meine Geschwister Corinna und David Scheler durch ihren Freigeist, ihr aufrichtiges Interesse an meinen Recherchen und durch unzählige intensive Gespräche diese Studie maßgeblich geprägt. Mit unermüdlichem Engagement hat mich zu guter Letzt meine Frau Dr. Kerstin Prietzel unterstützt. Ihr bin ich zu besonders tiefem Dank verpf lichtet, denn sie hat dieses Projekt auf vielen verschiedenen Ebenen begleitet und mitgetragen. Ihre moralische Unterstützung und ihr mehrfaches ausdauerndes Korrekturlesen der Arbeit in verschiedenen Entstehungsphasen sind wesentliche Säulen, auf denen dieses Projekt steht. Meine Hoffnung ist, mich für diese außerordentliche Form des Beistands sowohl von ihr, aber auch von allen anderen hier erwähnten Menschen, eines Tages auch nur annähernd revanchieren zu können.
1
Einleitung
Technological systems index their makers’ theories of action, modeling both users and machines by framing their interaction.1 – Daniel Cardoso Llach (2015)
Diese Studie beschreibt eine Ästhetik digitaler 3D-Computergrafiken – eine Ästhetik, die sich in der Analyse auf sämtliche mithilfe von kommerzieller 3D-Grafiksoftware erzeugten Bilder anwenden lässt. Mit dieser Zielsetzung ist zugleich eine Grundannahme dieser Studie formuliert, denn die folgenden Ausführungen basieren auf der Vermutung, dass 3D-Computergrafiken eine gemeinsame Ästhetik und damit auch einen gemeinsamen Sinnzusammenhang besitzen, der für alle Bilder dieser Art gleichermaßen gilt. Der Begriff ›Sinnzusammenhang‹ wird hier im Sinne Hans Blumenbergs verwendet.2 Obwohl diese Prämisse darauf schließen lässt, dass die Studie einen bildtheoretischen Fokus einnimmt, trifft diese Einordnung nur zum Teil zu. Zentral sind im Folgenden zwar Fragen zur Bildlichkeit und auch zur Bilderzeugung, doch lassen sich – so eine weitere Grundannahme der Untersuchung – digitale 3D-Grafiken rein bildästhetisch gar nicht vollumfänglich erfassen.3 1 Daniel Cardoso Llach: Builders of the Vision. Software and the Imagination of Design. New York, NY: Routledge, 2015, S. 46. 2 Das nächste Kapitel befasst sich genauer mit der Bedeutung, die Blumenberg seiner Wortwahl beimisst. 3 Der in der vorliegenden Studie verwendete Bildbegriff orientiert sich an einer Auffassung von Bildlichkeit, wie sie beispielsweise von Annette Geiger und Bianka Holtschke in ihrem Band Piktogrammatik formuliert wird. Obwohl die Autorinnen begrifflich auf das Piktogramm verweisen, verstehen Geiger und Holtschke darunter ein weiter gefasstes Konzept, das auch für die in der vor liegenden Untersuchung thematisierten Computergrafiken zutrifft: »Mit Hilfe des Begriffs ›Pikto grammatik‹ lässt sich ein theoretischer Rahmen aufspannen, der den Blick auf die Systematik der Zeichen schärft und untersucht, wie aus einzelnen Zeichenelementen (Formen, Linien, Pfeilen, Konturen, Strukturen, Farben etc.) ganze Regelwerke und Verweissysteme komponiert werden. In bildlichen Darstellungen werden Formen und Farben eingesetzt, um Wissen und Denken, aber auch Wahrnehmen und Fühlen visuell erfahrbar zu machen. Die dabei entstehenden Piktogramme wären nicht lesbar, würden sie nicht auf ein Zeicheninventar verweisen; jede Kommunikation setzt
10
Scheler: Computergrafik
Der Grund dafür liegt darin, dass die Grafiken – selbst wenn sie aus derselben Softwarelandschaft hervorgehen – unendlich viele unterschiedliche Erscheinungsbilder annehmen können. Dass es sich bei 3D-Computergrafiken also um ein eigenständiges Bildgebungsverfahren handelt, lässt sich – wie die Abbildungen 1 bis 4 veranschaulichen – auch auf der Ebene der Rezeption nur schwer und manchmal gar nicht erkennen. Wie die vier Beispiele verdeutlichen, können 3D-Bilder ebenso eine fotorealistische wie etwa auch eine f lächige Cartoon-Ästhetik besitzen. Diese anfängliche Beobachtung erschwert es nun zu Beginn der Studie, den eigentlichen Forschungsgegenstand darstellen zu können, denn dafür müssten die für diese Untersuchung relevanten Bilder zu einem Zeitpunkt beschrieben werden, an dem sie sich noch gar nicht zufriedenstellend beschreiben lassen. Dies jedoch leisten zu können, nämlich die Spezifik computergenerierter Bilder zu erfassen, ist ein wesentliches Ziel der Studie. Alle vier der genannten Abbildungen sind mit dem gleichen Bilderzeugungsverfahren entstanden. Es handelt sich bei jedem der Bilder um synthetisch mit dem Computer erzeugte 3D-Grafiken, die alle einen ähnlichen Produktionsprozess teilen, was damit zusammenhängt, dass sie aus einer gemeinsamen Softwareumgebung stammen.4 Mit diesem Hinweis auf den Entstehungsprozess zeichnet sich nun der Untersuchungsgegenstand dieser Studie genauer ab. So geht es zwar auf übergeordneter Ebene um Bilder, jedoch rückt aufgrund der uneinheitlichen Erscheinungsweise dieser Bilder vielmehr ihre Produktion in den Fokus. Es ließen sich noch zahlreiche weitere Beispiele zeigen, denn mit den vier Bildern ist die Bandbreite dessen, was sich synthetisch mithilfe von 3D-Grafiksoftware erzeugen lässt, noch nicht ausgeschöpft. Um jedoch das Anliegen dieser Studie zu illustrieren, reichen diese vier Grafiken aus: Es geht darum, herauszufinden, was sie eint, wie sie sich als eigenständiges Ausdrucksverfahren5 begreifen lassen – ähnlich wie es vielleicht für die Malerei oder die Fotografie möglich ist. Wenn eine gemeinsame Ästhetik sich jedoch bildästhetisch nicht nachweisen lässt und auch rezeptionsästhetisch
letztlich den Rahmen einer Grammatik voraus. Die Bildergrammatik beruht zwar auf der Idee des Abbildens von wahrgenommener Wirklichkeit, doch bedeutet dies sicherlich nicht, dass dabei die Realität selbst abgebildet werden könnte. Das Wirkliche wird vielmehr gedeutet und bedeutet. Die Bildzeichen sind als Ermächtigung, gar Selbstermächtigung zu verstehen, die Zeichnung zeigt, dass man etwas erkannt und verstanden hat, dass man die entsprechende Erkenntnis durch eine abstra hierende Wiedergabe zu vermitteln weiß. Gerade weil die gestalterischen Freiheiten dabei größer sind als man denkt, bedarf es einer Grammatik der Bilder. Deren Regeln müssen eigens erstellt wer den und ergeben sich nicht von selbst.« Annette Geiger; Bianca Holtschke: Einleitung. Grafisches Gestalten als Weltwissen und Bilderordnung. In: Piktogrammatik. Grafisches Gestalten als Welt wissen und Bilderordnung. Hrsg. v. dens. Bielefeld: transcript, 2021, S. 10–20, hier S. 11–12. In diesem Sinne macht es sich die vorliegende Studie zur Aufgabe, eine Grammatik der 3D-Computergrafik herauszuarbeiten. 4 Die Softwareumgebung wird in Kapitel 1.2.1 Starting from Scratch – Die Praxis der synthetischen Bilderzeugung beschrieben. 5 Bewusst soll hier der Begriff des Mediums nicht zum Einsatz kommen, da die vorliegende Untersu chung nicht beabsichtigt, eine Medientheorie zu entwickeln. Vielmehr besteht die Annahme, dass eine medientheoretische Auseinandersetzung mit der 3D-Computergrafik erst in Anknüpfung an die hier gewonnenen Erkenntnisse zu ihrem Produktionsprozess erfolgen kann. Dennoch ergeben sich im Verlauf der Studie punktuell signifikante Schnittstellen zu medientheoretischen Fragen, wie beispielsweise im folgenden Kapitel deutlich wird. Vgl. Kapitel- 1.1.1 Methode – Sprünge überwinden in der vorliegenden Studie, S. 13–17.
Einleitung
Abb. 1: eigenes Bild, Studie, 2011, 3D-Computergrafik.
Abb. 2: eigenes Bild, Standbild aus For As Long As It Lasts, 2014, 3D-Computergrafik.
Abb. 3: Trey Parker (Regie), Standbild aus Southpark – The Problem with a Poo, 2018, 3D-Computergrafik.
Abb. 4: John Lasseter (Regie), Standbild aus Toy Story, 1995, 3D-Computergrafik.
11
12
Scheler: Computergrafik
Gemeinsamkeiten nicht ohne Weiteres zu erkennen sind, ergibt sich daraus für diese Studie die Absicht, eine Ästhetik der 3D-Grafiken produktionsästhetisch zu erfassen. Ziel dieses produktionsästhetischen Blickwinkels ist es, anhand der Fokussierung auf den Herstellungsprozess herauszufinden, welche Motivation hinter der Bilderzeugung liegt, in der Annahme, dass beschreibbare Gemeinsamkeiten dort besser zu erkennen sind als in den unterschiedlichen bildlichen Ausformungen der 3D-Computergrafiken. Wenn es also darum geht, herauszufinden, welche Motivation dazu führt, Bilder mit dem Computer zu erzeugen, dann zeichnet sich hier ab, dass die Studie nicht vorrangig den Computer oder die Technologie im Blick hat, sondern vielmehr die Menschen, die aus bestimmten Gründen mit dem Computer arbeiten. Hierzu zählen zum einen jene, die überhaupt die Möglichkeit erschaffen haben, Computergrafiken zu generieren, sowie – jedoch zweitrangig – diejenigen, die diese Möglichkeiten nutzen. Der produktionsästhetische Blickwinkel dieser Studie befasst sich also mit der Praxis, Bilder am Computer zu erzeugen, und der Frage, ob sich diese Praxis mit gemeinsamen ästhetischen Parametern erfassen lässt. Der Begriff der 3D-Computergrafik ist für die Zwecke dieser Studie in einer Hinsicht einzugrenzen: Im Zentrum stehen hier jene Grafiken, die im weitesten Sinne in populärkulturellen oder in künstlerisch-experimentellen Kontexten zum Einsatz kommen. Darstellungen, die hingegen etwa für den Bereich der Architektur oder des Industriedesigns erzeugt werden, stehen nicht im Fokus. Sie lassen sich zwar ebenso als 3D-Grafiken bezeichnen, da sie wie die in dieser Studie thematisierten Bilder einen virtuellen dreidimensionalen Raum visualisieren, stammen jedoch – trotz durchaus gemeinsamer historischer Wurzeln – aus einer anderen Softwarelandschaft.6 Was die Software für populärkulturelle und künstlerisch-experimentelle Anwendungsfelder kennzeichnet und von den Programmen, die in der Architektur und im Industriedesign zum Einsatz kommen, abgrenzt, ist die oben angesprochene Vielfältigkeit der möglichen Bildwelten, die damit erzeugt werden können. Während mit der Software für die Disziplinen der Architektur und des Industriedesigns abgesehen von ihrem Einsatz im Bereich der Baukonstruktion beispielsweise häufig fotorealistische Bilder erzeugt werden, um Konzepte noch nicht realisierter Gebäude und Produkte zu visualisieren, wäre dies zwar mit der Software für den populärkulturellen Einsatz ebenfalls möglich, jedoch ist sie auf eine fotorealistische Bildsprache nicht allein ausgerichtet. So kann mit den Programmen – wie mit den Beispielen veranschaulicht wurde – die Ästhetik vieler verschiedener Bildgebungsverfahren imitiert werden. Neben der Erzeugung vollständiger und eigenständiger Bilder kann das computergrafische Verfahren auch dazu verwendet werden, lediglich einzelne Bildelemente zu erzeugen, die später mit Bildelementen anderer digitaler Verfahren nahtlos zusammengesetzt werden, etwa wenn es darum geht, Fantasiewesen oder Effekte in einen realgefilmten Spielfilm zu integrieren. Wie diese Beispiele sowie die Beispielbilder zeigen, kommt die Software häufig für bewegte Bilder zum Einsatz, doch spielt diese Anwendungsmöglichkeit für die vorliegende Studie eine untergeordnete Rolle. Im Fokus stehen lediglich Aspekte zur Produktion von Bildlichkeit. Neben den Begriffen der 3D-Computergrafik und 3D-Grafik werden im Rahmen der Untersuchung ebenfalls die Bezeichnungen Computergrafik, 3D-Bild oder auch 6 Im Forschungsstand wird der geschichtliche Zusammenhang präziser erläutert, vgl. S. 41–44 in der vorliegenden Studie.
Einleitung
synthetisches Bild zum Einsatz kommen. Mit dem letzteren Begriff greift diese Studie die im französischsprachigen Diskurs häufig verwendete Formulierung »l’image de synthèse« auf. Sie wird dort gelegentlich in Abgrenzung zum Begriff »l’image numérique«7 verwendet, um zu kennzeichnen, dass nicht einfach digitale Bilder gemeint sind, sondern speziell jene Grafiken, die künstlich am Computer erzeugt werden. Obwohl im Gegensatz zu den Begriffen ›3D-Computergrafik‹ und ›3D-Grafik‹ bei den Bezeichnungen ›Computergrafik‹ und ›synthetisches Bild‹ der Hinweis ›3D‹ fehlt, nehmen im Rahmen der vorliegenden Studie alle hier genannten Begriffe gleichermaßen Bezug auf ein Bildgebungsverfahren, das einen virtuellen dreidimensionalen Raum abbildet. Die technologische Umgebung, in der diese Bilder entstehen, wird an späterer Stelle genauer erläutert,8 doch soll bereits hier darauf hingewiesen werden, dass, wenn die Begriffe ›Computergrafik‹ und ›synthetisches Bild‹ im Rahmen der vorliegenden Studie zum Einsatz kommen, sie sich nicht auf 2D-Computergrafiken beziehen, die mithilfe von Illustrationsprogrammen erzeugt werden können. Bilder dieser Art oder auch andere zweidimensionale digitale Erzeugnisse wie etwa digitale Fotografien sind ebenso wenig Gegenstand dieser Untersuchung wie jene Bilder, die etwa im Kinosaal mithilfe einer Brille einen dreidimensionalen Eindruck hinterlassen. Ebenfalls nicht thematisiert werden die aktuell immer relevanter werdenden Grafiken, die mithilfe künstlicher neuronaler Netze erzeugt werden.
1.1
Methodik und Aufbau der Studie
1.1.1
Methode – Sprünge überwinden
Es wird sich nun zeigen, daß das Problem der Technik wesentlich mit der Verantwortung der Geschichte durch den Menschen zu tun hat, und zwar noch bevor fühlbar und eindrucksvoll werden konnte, daß die Technik real das D asein des Menschen bestimmt, ja über seine Möglichkeit entscheidet.9 – Hans Blumenberg (1963)
Warum kann es sinnvoll sein, die Praxis des Bildermachens mit dem Computer vor dem Hintergrund einer einenden Ästhetik für 3D-Computergrafiken zu erkunden? Ein möglicher Ausgangspunkt für eine Antwort auf diese Frage liegt in der Beobachtung, dass mit den verschiedenen digitalen Bildgebungsverfahren, die hier bislang zur Sprache gekommen sind – also etwa der digitalen Fotografie, den künstlichen neuronalen 7 Bspw. Edmond Couchot; Norbert Hillaire: L’art numérique. Comment la technologie vient au monde de l’art. Paris: Flammarion, 2003, S. 22–23. 8
Vgl. Kapitel 1.2.1 Starting from Scratch – Die Praxis der synthetischen Bilderzeugung.
9 Hans Blumenberg: Wirklichkeiten in denen wir leben. Aufsätze und eine Rede. Stuttgart: Reclam, 2012, S. 21. Herv. i. O.
13
Einleitung
synthetisches Bild zum Einsatz kommen. Mit dem letzteren Begriff greift diese Studie die im französischsprachigen Diskurs häufig verwendete Formulierung »l’image de synthèse« auf. Sie wird dort gelegentlich in Abgrenzung zum Begriff »l’image numérique«7 verwendet, um zu kennzeichnen, dass nicht einfach digitale Bilder gemeint sind, sondern speziell jene Grafiken, die künstlich am Computer erzeugt werden. Obwohl im Gegensatz zu den Begriffen ›3D-Computergrafik‹ und ›3D-Grafik‹ bei den Bezeichnungen ›Computergrafik‹ und ›synthetisches Bild‹ der Hinweis ›3D‹ fehlt, nehmen im Rahmen der vorliegenden Studie alle hier genannten Begriffe gleichermaßen Bezug auf ein Bildgebungsverfahren, das einen virtuellen dreidimensionalen Raum abbildet. Die technologische Umgebung, in der diese Bilder entstehen, wird an späterer Stelle genauer erläutert,8 doch soll bereits hier darauf hingewiesen werden, dass, wenn die Begriffe ›Computergrafik‹ und ›synthetisches Bild‹ im Rahmen der vorliegenden Studie zum Einsatz kommen, sie sich nicht auf 2D-Computergrafiken beziehen, die mithilfe von Illustrationsprogrammen erzeugt werden können. Bilder dieser Art oder auch andere zweidimensionale digitale Erzeugnisse wie etwa digitale Fotografien sind ebenso wenig Gegenstand dieser Untersuchung wie jene Bilder, die etwa im Kinosaal mithilfe einer Brille einen dreidimensionalen Eindruck hinterlassen. Ebenfalls nicht thematisiert werden die aktuell immer relevanter werdenden Grafiken, die mithilfe künstlicher neuronaler Netze erzeugt werden.
1.1
Methodik und Aufbau der Studie
1.1.1
Methode – Sprünge überwinden
Es wird sich nun zeigen, daß das Problem der Technik wesentlich mit der Verantwortung der Geschichte durch den Menschen zu tun hat, und zwar noch bevor fühlbar und eindrucksvoll werden konnte, daß die Technik real das D asein des Menschen bestimmt, ja über seine Möglichkeit entscheidet.9 – Hans Blumenberg (1963)
Warum kann es sinnvoll sein, die Praxis des Bildermachens mit dem Computer vor dem Hintergrund einer einenden Ästhetik für 3D-Computergrafiken zu erkunden? Ein möglicher Ausgangspunkt für eine Antwort auf diese Frage liegt in der Beobachtung, dass mit den verschiedenen digitalen Bildgebungsverfahren, die hier bislang zur Sprache gekommen sind – also etwa der digitalen Fotografie, den künstlichen neuronalen 7 Bspw. Edmond Couchot; Norbert Hillaire: L’art numérique. Comment la technologie vient au monde de l’art. Paris: Flammarion, 2003, S. 22–23. 8
Vgl. Kapitel 1.2.1 Starting from Scratch – Die Praxis der synthetischen Bilderzeugung.
9 Hans Blumenberg: Wirklichkeiten in denen wir leben. Aufsätze und eine Rede. Stuttgart: Reclam, 2012, S. 21. Herv. i. O.
13
14
Scheler: Computergrafik
Netzen und den 3D-Grafiken –, inzwischen mehrere Verfahren existieren, mit denen sich Bilder erzeugen lassen, die den Anschein erwecken, fotografisch aufgezeichnet worden zu sein. Zugleich wird ausgehend von der leitenden These für diese Untersuchung jedoch angenommen, dass jedes dieser Verfahren einen eigenen produktionsästhetischen Sinnzusammenhang besitzt. Was damit gemeint sein kann, lässt sich an einem weiteren Bildbeispiel veranschaulichen. Bei den drei Porträts in den Abbildungen 5 bis 7 handelt es sich um eine digitale Fotografie, um eine 3D-Computergrafik und um ein von einem künstlichen neuronalen Netz erstelltes Bild. Obwohl es sich basierend auf einer bildästhetischen und rezeptionsästhetischen Betrachtungsweise klar um drei verschiedene Personen handelt, unterscheiden sich die Porträts rein technisch betrachtet in keiner Weise. Ihre Beschaffenheit – in Falle der Beispiele handelt es sich um gewöhnliche JPG-Dateien – ist jeweils vollkommen identisch. Der US-amerikanische Medientheoretiker Peter Lunenfeld merkt an: »Man beachte, daß die fotorealistische Grafik und die digitale Fotografie in ihrer Zusammensetzung nicht voneinander zu unterscheiden sind, da es sich im Grunde einfach um Repräsentationen von binären Paaren handelt: Ja/Nein, 0/1, An/Aus.«10 Die Bilder beziehungsweise die Bilddateien selbst geben demnach keinen Aufschluss darüber, dass die Personen, deren Gesichter in der Computergrafik und in dem künstlichen Bild gezeigt werden, nicht existieren. Die Porträts lassen sich völlig gleichwertig nebeneinander stellen, in Anlehnung an Nelson Goodman besteht jedoch ein ästhetischer Unterschied erst in dem Moment, in dem die jeweilige Herkunft der Bilder bekannt ist.11 Da allerdings, wie es die hier dargestellten Beispiele vorführen, eine bild- und rezeptionsästhetische Untersuchung die jeweils eigene ästhetische Dimension der drei Bildgebungsverfahren nicht mehr ohne Weiteres erfassen kann, ist es – zumindest wenn es das Ziel sein soll, deren jeweils eigenständige Ästhetik zu begreifen – notwendig, die Produktion der Bilder zu berücksichtigen. Obwohl potenziell auch digitale Bilder existieren, deren Herkunft sich bildästhetisch mitteilt, zeigt das Beispiel, dass in der digitalen Umgebung zur Bestimmung einer Ästhetik ein produktionsästhetischer Blickwinkel, der die Herkunft der Bilder nachvollzieht, immer bedeutsamer wird. Im Übrigen handelt es sich hierbei um eine Beobachtung, die auch für den Bereich der Text- oder Musikproduktion gelten kann. Während es in der Textproduktion auch im Hinblick auf das Phänomen der ›Fake News‹ wichtig ist, den Entstehungskontext etwa eines Tweets zu kennen, ist es in der Musik ähnlich wie im Bereich der Bilderzeugung: Auch hier kann das menschliche Hörvermögen zwischen analog aufgezeichneten und anschließend digitalisierten Klängen nicht mehr ohne weiteres unterscheiden, was auch für synthetische Musik gilt, die von vornherein mit digitalen Samples oder mithilfe eines künstlichen neuronalen Netzes erzeugt wurde. Das Anliegen, mithilfe des produktionsästhetischen Blickwinkels die jeweiligen Erzeugnisse vor dem Hintergrund ihrer eigenen ästhetischen Dimension zu begreifen, kann also – vor allem im Bereich der Textproduktion – auch eine politische Dimension besitzen. Gleichzeitig ist die Frage nach der Manipulierbarkeit des Menschen durch digitale Medien nicht die leitende der vorliegenden Studie. 10 Peter Lunenfeld: Digitale Fotografie. Das dubitative Bild. In: Paradigma Fotografie. Hrsg. v. Herta Wolf. Frankfurt am Main: Suhrkamp, 2002, S. 158–177, hier S. 161, Fn 7. Herv. i. O. 11 Vgl. Nelson Goodman: Sprachen der Kunst. Entwurf einer Symboltheorie. 8. Auflage. Frankfurt am Main: Suhrkamp, 2015, S. 104–107.
Einleitung
Abb. 5: eigene Aufnahme, Porträt, 2022, digitale Fotografie.
Abb. 6: Paweł Somogyi, Steve (fiktive Figur), 2022, 3D-Computergrafik.
Abb. 7: neural.love, portrait of a middle aged black woman looking into the camera, 2023, KI-Bild.
Die Untersuchung schließt mit ihrem Anspruch, zwischen den digitalen Verfahren unterscheiden zu wollen und sie je in ihrer eigenständigen Ästhetik zu betrachten, demnach nicht in direkter Weise an die vor allem in den 1980er, 1990er und 2000er Jahren geführte Debatte zum Thema der Manipulierbarkeit digitaler Bilder an, wenngleich im Folgenden einige dieser Positionen zur Sprache kommen. Vielmehr werden Aspekte dieser Debatte indirekt aufgegriffen. Gedankliche Verwandtschaft besteht etwa mit einer argumentativen Linie, die die Kulturwissenschaftlerin Birgit Schneider verfolgt. In ihrem Aufsatz Wissenschaf tsbilder zwischen digitaler Transformation und Manipulation. Einige Anmerkungen zur Diskussion des »digitalen Bildes«12 stellt Schneider eine alternative Möglichkeit vor, digitale Bilder zu untersuchen. Ihr Anliegen ist es, den Blick auf sogenannte Wissenschaftsbilder zu lenken, in denen es – wie etwa bei Klimamodellen – darum geht, Daten zu visualisieren. Um zu zeigen, dass sich solche Bildformen mit einem sehr prominenten Erzählstrang der Debatte zur digitalen Bildlichkeit nicht erfassen lassen, zeichnet sie zunächst zentrale Positionen dieser Diskussion nach und unterbreitet anschließend den Vorschlag, diese Debatte um einen neuen Blickwinkel zu erweitern. Ihre Zusammenfassung der bisherigen besonders einf lussreichen Positionen setzt neben einer kurzen Erwähnung Marshall McLuhans zunächst bei Max Bense ein, der sich in den 1950er und 1960er Jahren mit frühen Formen der noch auf Papier ausgegebenen Computergrafik befasste.13 Mit Jean Baudrillard springt Schneider darauf hin in die 1970er Jahre, also in einen Zeitraum, in dem digitale Bilder inzwischen auf Displays ausgegeben werden konnten. Sie betont in diesem Zusammenhang, Baudrillards Beitrag zur Debatte präge den Umgang mit digitalen Bildern teilweise noch heute und er setze sich in ähnlicher Form auch in Positionen wie denen Vilém Flussers oder Paul Virilios fort: 12 Vgl. Birgit Schneider: Wissenschaftsbilder zwischen digitaler Transformation und Manipulation. Einige Anmerkungen zur Diskussion des »digitalen Bildes«. In: Logik des Bildlichen. Hrsg. v. Martina Heßler und Dieter Mersch. Bielefeld: transcript, 2015, S. 188–200. 13 Vgl. ebd., S. 188.
15
16
Scheler: Computergrafik
»Seither steuerten die Philosophie und Bildwissenschaft, die Kunstgeschichte, Infor mations- und Medientheorie sowie die Semiotik ganz unterschiedliche Aspekte in der Frage um den Status digitaler Bilder bei, wobei die Thesen nur selten anhand von empirischem Material überprüft wurden. Schnittpunkt war hierbei einerseits die be schworene Krise der Repräsentation, die entweder als Verlust oder Befreiung bewertet wurde. Die Bildwelten, anhand derer diese frühe Debatte entweder implizit oder ex plizit geführt wurde, berührten in dieser frühen Phase […] kaum die Felder einer durch digitale Techniken sich verändernden wissenschaftlichen Bildlichkeit, sondern waren vor allem populärkulturellen Anwendungsgebieten, wie Animationsfilmen, Compu terspielen, Bildmanipulation und Cyberspaceanwendungen entlehnt, die sich unter dem [!] Begriffen der Virtualität und Simulation verhandeln ließen.« 14 Wenngleich die vorliegende Studie an den von Schneider angesprochenen und kritisierten Forschungsgegenstand anknüpft, sich also ebenfalls vorrangig mit jenen Computergrafiken befasst, die im weitesten Sinne einem populärkulturellen Spektrum angehören, lässt sich Schneiders Vorschlag zu einer alternativen Betrachtungsweise digitaler Bilder dennoch für diese Studie aufgreifen und fruchtbar machen. Ihr wesentlicher Kritikpunkt ist, dass in der Debatte zur digitalen Bildlichkeit noch immer überaus selten und in vielen Fällen gar kein Bezug zur numerischen Ebene der Bilder hergestellt wird oder zu jener Ebene, die Frieder Nake, ein Pionier der Computerkunst, – in Abgrenzung zur Oberf läche des Bildes – als die ›Unterf läche‹ des Bildes bezeichnet.15 Diese Ebene wird jedoch gerade im Hinblick auf die Untersuchung von Wissenschaftsbildern relevant, denn hier ist die algorithmische Unterf läche der Bilder elementarer Bestandteil. Die Visualisierung eines Datensatzes ist in diesen Bildern 14 Ebd., S. 189. Schneider nimmt hier Bezug auf Jean Baudrillard: Agonie des Realen. Berlin: Merve, 1978, und Vilém Flusser: Ins Universum der technischen Bilder. 4. durchges. Auflage. Göttingen: European Photography, 1992. In Bezug auf Virilio greif t Schneider zudem die Begrif fe der Derea lisierung und Entmaterialisierung auf. Vgl. hierzu bspw. Paul Virilio: Krieg und Kino. Logistik der Wahrnehmung. Ungekürzte Ausg. Frankfurt am Main: Fischer-Taschenbuch, 1989. Unter der Über schrif t Bilder unter Generalverdacht oder ›das prekäre Bild‹ gibt Schneider zahlreiche weitere zentrale Positionen zur Frage der Manipulierbarkeit digitaler Bilder wieder, darunter jene des Medien theoretikers Jens Schröter oder auch die des Architekten William J. Mitchell (nicht zu verwechseln mit dem Kunsthistoriker William J. T. Mitchell). Vgl. Schneider, S. 190–192. Vgl. zudem William J. Mitchell: The Reconfigured Eye. Visual Truth In The Post-Photographic Era. 4. Auflage. Cambridge, MA, London, UK: MIT Press, 2001, und vgl. Jens Schröter: Das Ende der Welt. Analoge vs. digitale Bilder – mehr und weniger ›Realität‹? In: Analog/Digital – Opposition oder Kontinuum? Zur Theorie und Geschichte einer Unterscheidung. Hrsg. v. dems. und Alexander Böhnke. Bielefeld: transcript, 2004, S. 335–354. In einem weiteren Abschnitt befasst sich Schneider mit Claus Pias’ Vorschlag, di gitale Bilder unter dem Vorwand zu untersuchen, es gebe sie nicht. Wie Schneider darstellt, meint Pias damit, dass »[a]uf Seiten des menschlichen Rezipienten […] die Bilder analog seien.« Schneider (2015): S. 193. Vgl. zudem Claus Pias: Das digitale Bild gibt es nicht. Über das (Nicht-)Wissen der Bilder und die informatische Illusion. In: zeitenblicke 2/1, 2003, Ohne Seitenangabe. URL: https:// mediarep.org/handle/doc/4845. Zugrif f am: 18.03.2022. 15 Vgl. Schneider (2015): S. 194 und S. 196, und vgl. Frieder Nake: Das doppelte Bild. In: BAND 3,2 Di gitale Form, 2006, S. 40–50, hier S. 47. Schneider verweist in diesem Kontext auf eine gedankliche Verwandtschaft Lev Manovichs zu Nakes Position. In seiner einschlägigen Monografie Language of New Media unterscheidet Manovich zwischen einem »cultural layer« und einem »computer layer«. Lev Manovich: The Language of New Media. Cambridge, MA: MIT Press, 2001, S. 46.
Einleitung
nie mimetisch und zugleich ist sie auch keine Täuschung. Stattdessen ist die visuelle Ebene der Wissenschaftsbilder stets ein Versuch, die Unterf läche möglichst objektiv wiederzugeben. Um begreif bar zu machen, »auf welche ›Wirklichkeit‹ hinter den Codierungen die Bilder verweisen«16, schlägt Schneider also unter Bezugnahme auf Bruno Latour vor, für eine Untersuchung von Wissenschaftsbildern die Verweisungsketten zwischen der Bildoberf läche und der algorithmischen Beschaffenheit der Bilder nachzuvollziehen.17 Wenngleich Schneider einen anderen Untersuchungsgegenstand bearbeitet, so knüpft die vorliegende Studie an ihren Ansatz an, die Debatte zur digitalen Bildlichkeit nicht mehr nur noch in Bezug auf die Oberf läche der Bilder zu führen, sondern dabei ebenfalls ihren Herstellungsprozess zu berücksichtigen. Obwohl Schneider selbst den Begriff der Produktionsästhetik nicht verwendet, lässt sich ihre folgende Aussage als methodischer Ausgangspunkt für diese Studie begreifen: »Der Oberfläche allein muss man ihre Bearbeitung nicht ansehen, denn auch wenn es keine a-priori-Eigenschaft digitaler Bilder ist, ihre Konstruktion und Manipulationen zu verbergen, so ist es doch ein Irrtum zu glauben, man sähe einem Bild seine Produk tionsbedingungen zwangsläufig an den formalen Gegebenheiten an; die Bildoberflä chen müssen die Spuren ihrer Konstruktion nicht in sich tragen, meistens ist es an der Bildoberfläche nicht mehr nachvollziehbar, welche Sichtbarmachungseffekte, Pro gramme und Entscheidungen zu einem bestimmten Bild führten.« 18 Wenn in diesem Kapitel also das potenziell identische Erscheinungsbild von den drei verschiedenen Bildgebungsverfahren der digitalen Fotografie, der 3D-Grafik und der künstlichen Intelligenz den Ausgangspunkt bildet, dann nicht, um Fragen zur Manipulierbarkeit von Bildern oder Bildtechniken zu verhandeln, sondern vielmehr, um zu fragen, wie und warum es überhaupt dazu gekommen ist, dass inzwischen gleich drei Verfahren existieren, die fotografische beziehungsweise fotorealistische Bilder hervorbringen können. Dieser Blick ermöglicht es, frei von Argwohn keine manipulativen Absichten mehr hinter den Bildern zu vermuten, sondern sie stattdessen in ihrer Ästhetik zunächst einmal ernst zu nehmen. Der Blick auf die Menschen, die die Möglichkeit, fotorealistische 3D-Computergrafiken zu erzeugen, ursprünglich entwickelt haben, kann dann als Folge auch dazu dienen, die digitalisierte Welt besser zu verstehen und digitalen Bildern, die ihre eigene Beschaffenheit verbergen, nicht zweifelnd,19 sondern mündig zu begegnen. Und entsprechend der Hauptthese dieser Studie lässt sich diese Aufgabe in der vielfältigen digitalen Bilderlandschaft nur noch aus dem Blickwinkel der Praxis erfüllen. 16 Schneider (2015): S. 198. 17 Vgl. ebd., S. 198. Schneider bezieht sich auf Bruno Latour: Die Hoffnung der Pandora. Untersuchun gen zur Wirklichkeit der Wissenschaft. Frankfurt am Main: Suhrkamp, 2002. 18 Schneider (2015): S. 197. 19 Peter Lunenfeld beschreibt Fotografien, die nicht analog, sondern digital aufgenommen wurden, als dubitative Bilder. Das ›Dubitative‹ definiert er beispielsweise in seinem 2002 veröffentlichten Aufsatz Digitale Fotografie. Das dubitative Bild als etwas, »das als geneigt zu zweifeln oder als dem Zweifeln anheimgegeben« ist. Er verwendet den Begriff, um damit das digitale Zeitalter zu beschreiben, das er auch das »Zeitalter des Dubitativen« nennt. Lunenfeld (2002): S. 167 und S. 171. Herv. i. O.
17
18
Scheler: Computergrafik
Auf welches methodische Fundament lässt sich diese Studie nun also stellen? Das Anliegen, eine einende Ästhetik für die so divers erscheinenden 3D-Grafiken herauszuarbeiten, lässt sich technikphilosophisch verorten. Herangezogen wird für diesen Zweck der phänomenologische Denkansatz des Philosophen Hans Blumenberg. Dass für den Ansatz, die Praxis in den Vordergrund zu stellen und die sinnlich erfahrbare Fassade der Bilder mehr oder weniger außer Acht zu lassen, ausgerechnet ein phänomenologisches Denkmodell geeignet sein kann, erscheint an diesem Punkt womöglich widersprüchlich. So soll hier schließlich nicht sinnlich, sondern analytisch auf die 3DComputergrafiken reagiert werden. Wie sich dieser Widerspruch auf lösen lässt, kann Blumenbergs Auseinandersetzung mit Edmund Husserls Phänomenologie aufzeigen. In seinem 1963 erschienenen Aufsatz Lebenswelt und Technisierung unter Aspekten der Phänomenologie ergründet Blumenberg vor der Folie von Husserls Phänomenologie Fragen zur Technisierung des Menschen.20 Gedanklicher Ausgangspunkt ist für Blumenberg die schon seit der Antike etablierte Debatte über eine Trennung zwischen Natur und Technik, also eine seit jeher traditionell fortgeführte Gegenüberstellung der beiden Konzepte ›natura naturans‹ und ›natura naturata‹. Er erinnert hierbei daran, dass spätestens seit der Neuzeit die Technik zudem als ein Instrument der menschlichen Selbstermächtigung aufgefasst wurde. Die Technik schien die Natur immer mehr zu dominieren und damit zunehmend – so von Blumenberg bezeichnete – »Ordnungsrufe«21 zu provozieren, wie zu Beginn des 20. Jahrhunderts auch Husserls bekannte Forderung: ›Zu den Sachen selbst!‹22 Blumenbergs Anliegen ist es, zu begreifen, wie sich dieser Appell in Bezug auf Technik verstehen lässt. So fragt er danach, was »im Falle der Technik ›die Sache selbst‹«23 sein könnte. Er selbst lehnt die Vorstellung eines Urzustands ab, in dem sich der Mensch womöglich einmal befunden und aus dem heraus er sich plötzlich dazu entschieden habe, von einem Tag auf den nächsten statt natürlich von nun an technisiert zu leben. Sein Vorschlag lautet stattdessen, die Technisierung des Menschen nicht als einen Umbruch aufzufassen, sondern als eine Entwicklung, deren Anfang sich nicht bestimmen lasse und die schon immer im Prozess stattgefunden habe. Doch die Annahme, der Mensch sei von Natur aus technisiert, ist auch für ihn zu simpel. Weder die Vorstellung einer Antithese zwischen Natur und Technik noch die Vorstellung, der Mensch sei schon immer technisiert gewesen, könnte eine mögliche Antwort auf die Frage nach ›der Sache selbst‹ in Bezug auf die Technik liefern. Um der Technisierung des Menschen also weder von der einen, ablehnenden, noch von der anderen, zustimmenden, Haltung heraus begegnen zu müssen, sei es angebracht – so Blumenberg –, ein Denkmodell heranzuziehen, mit dem es möglich sei, der Technisierung unvoreingenommen zu begegnen. Er wählt folglich diejenige Methode, die mit genau diesem Anspruch der Unbefangenheit entwickelt wurde: die Phänomenologie Husserls.24 Einige Begriff lichkeiten Husserls nehmen in Blumenbergs Analyse eine besonders zentrale Rolle ein, so zum Beispiel die ›Intentionalität‹, die ›Lebenswelt‹, das ›Universum
20 Vgl. Blumenberg (2012). 21 Ebd., S. 9. 22 Vgl. ebd., S. 9. 23 Ebd., S. 9. 24 Vgl. ebd., S. 17.
Einleitung
der Selbstverständlichkeiten‹ und die ›phänomenologische Reduktion‹. Sie werden im Folgenden kurz erläutert, um im Anschluss gedanklich daran anknüpfen zu können: Für sein Anliegen, den ›Sachen selbst‹ unvoreingenommen gegenüberzutreten, wählt Husserl – so erläutert es Blumenberg – den Begriff der Intentionalität.25 Husserl beschreibt damit den Vorgang, unseren Wahrnehmungsapparat bewusst auf unsere Umwelt zu lenken, um sich den Dingen zielstrebig und im Sinne einer »offenlassende[n] Anschauung«26 zuzuwenden. Blumenberg weist jedoch auf die große Herausforderung hin, sich der Intentionalität im Alltag hinzugeben: »Das alltäglich-praktische Leben […] begnügt sich notgedrungen […] mit dem Hindeuten und Nennen, mit der Formel und dem Zeichen […].«27 Obwohl Blumenberg – anders als Husserl – die Vorstellung eines nicht technisierten Urzustands ablehnt, stimmt er der von Husserl proklamierten Notwendigkeit zu, wieder hinter diese Zeichenebene zu gelangen. Husserl nennt diese unmittelbare, von allen Zwischenebenen befreite Dimension die ›Lebenswelt‹. Hierbei handele es sich um ein »›Universum vorgegebener Selbstverständlichkeiten‹«28, das allerdings nach Blumenbergs Erläuterung einem unerreichbaren Zustand eines geschichtslosen Anfangs entspreche. Sich diesem jedoch wenigstens anzunähern sei schließlich das Ziel der phänomenologischen Reduktion. Blumenberg erläutert diesen Vorgang folgendermaßen: »Die Lebenswelt war eine Entdeckung auf dem Wege der ständigen Verfeinerung des Hauptinstruments der Phänomenologie, der sogenannten ›phänomenologischen Re duktion‹. Mit dieser Reduktion sollten alle Setzungen ausgeschaltet werden, die sich nicht auf unmittelbare Gegebenheiten des Bewußtseins zurückführen ließen, also vor allem die ›Generalthesis‹ der transzendentalen Existenz einer bewußtseinsunabhän gigen Welt.«29 Die phänomenologische Reduktion stehe damit noch über den vermeintlich neutralen Naturwissenschaften, also über der Theoretisierung von Phänomenen. Ein Zugang zur ›Sache selbst‹ könne auch hier nur mithilfe der phänomenologischen Reduktion gelingen, doch solange die Theorie diesem Prinzip nicht folge, befinde sie sich auf einer konstruierten, von der Lebenswelt losgelösten Ebene. Das Gleiche gelte in noch höherem Maße für die Technisierung. Husserl betrachte sie als materielle Verwirklichung vorangegangener theoretischer Überlegungen, also als Fortführung der Theorie.30 Diese Vorstellung Husserls einer extremen Distanz zwischen Lebenswelt und Technik dient Blumenberg als Startpunkt für seine eigene Argumentation. Hier etabliert er auch den Begriff des Sinnzusammenhangs, der für die vorliegende Studie so zentral ist. 25 Vgl. ebd., S. 18. Blumenberg merkt zudem an, Husserl habe den Begriff von Clemens Brentano über nommen. 26 Ebd., S. 18. Herv. i. O. 27 Ebd., S. 18. 28 Ebd., S. 23. Blumenberg zitiert Edmund Husserl: Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie. Eine Einleitung in die phänomenologische Philosophie. Hamburg: Meiner, 2012, S. 195. 29 Blumenberg (2012): S. 25. Herv. i. O. 30 Vgl. ebd., S. 28–33.
19
20
Scheler: Computergrafik
Zur Veranschaulichung der Distanz zwischen Lebenswelt und Technik führt Blumenberg das Beispiel einer elektrischen Türklingel an. Während bei früheren Modellen an einer Schnur gezogen oder an einem Schalter gedreht werden musste, um mechanisch ein Klingeln zu erzeugen, wird der Klang bei der elektrischen Variante nicht mehr erzeugt, sondern nur noch ausgelöst. Zwischen der durchgeführten Handlung und dem Klang existiert keine Verbindung oder, wie Blumenberg es nennt, kein Sinnzusammenhang mehr: »Der gewünschte Effekt liegt apparativ sozusagen fertig für uns bereit […]. Um dieser Suggestion des Immer-Fertigseins willen ist die technische Welt, unabhängig von allen funktionalen Erfordernissen, eine Sphäre von Gehäusen von Verkleidungen, unspezi fischen Fassaden und Blenden.«31 Diesem Umstand sei es auch geschuldet – so führt Blumenberg weiter aus –, dass wir manchmal im Flur eines Mehrfamilienhauses statt der Türklingel den Lichtschalter erwischten. Er stellt deshalb fest: »Die Selbstdarbietung des technischen Gegenstandes […] scheint alles zu tun, um Fragen gar nicht erst aufkommen zu lassen, und zwar nicht nur solche nach dem Konstruktionsgeheimnis und Funktionsprinzip, sondern vor allem solche nach der Existenzberechtigung.«32 Die Technik existiert also wie die ihr vorausgehende Theorie nicht nur losgelöst von der Lebenswelt, die technischen Errungenschaften reihen sich auch versehentlich in die Lebenswelt, in das ›Universum der Selbstverständlichkeiten‹ ein, sie lösen keine Fragen mehr aus – wir nehmen sie, wie sie sind, obwohl sich ihr Sinnzusammenhang nicht mehr mitteilt.33 Blumenbergs Beispiel zur elektrischen Klingel lässt sich in direkter Weise auf die zuvor beispielhaft angeführten Bilder übertragen. Auch sie hinterlassen den Eindruck einer ›immer-fertigen‹ Fassade, deren Existenzberechtigung häufig nicht infrage gestellt wird. Gerade in der alltäglichen Bilderf lut erscheinen sie uns völlig selbstverständlich. Blumenberg nimmt in diesem Zusammenhang Bezug auf das von Husserl beschriebene Paradox, dass technische Errungenschaften zwar einerseits den Anspruch erheben, etwas aufzudecken, sie andererseits jedoch stets dazu beitragen, etwas zu verdecken. Dieses Paradox trifft in hohem Maße auf diese Bilder zu. Blumenberg deutet Husserls Begriffswahl, lediglich vom Verdecken statt beispielsweise vom Zerstören zu sprechen, durchaus positiv: »[E]s ist ein sanftes Bild für den verlorenen Sinnzusammenhang, wenn Husserl sagt, die Wissenschaft ›schwebt so wie in einem leeren Raum über der Lebenswelt‹. Die Position der phänomenologischen Analyse läßt sich nicht bis zur Antithese vorantreiben.«34
31 Ebd., S. 35–36. 32 Ebd., S. 36–37. 33 Vgl. ebd., S. 37. 34 Ebd., S. 34. Blumenberg zitiert Edmund Husserl: Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie. Unter Mitarbeit von Walter Biemel. Den Haag: Nijhoff, 1954, S. 448.
Einleitung
Doch auch wenn die Phänomenologie Husserls keine Gegenposition zur Technik darstellt, bleibt die Frage weiterhin offen, was in Bezug auf die Technik ›die Sache selbst‹ kann. Wie lässt sich mit dem Problem des Entdeckens und Verdeckens umgehen? Für Husserl sei an diesem Punkt geschichtliches Bewusstsein von immenser Bedeutung. Für die durch die Technisierung hervorgerufene lückenhafte Wahrnehmung des Menschen gelte es, Verantwortung zu übernehmen. Blumenberg erläutert, der Mensch »will sozusagen ›im Sprunge‹ vorankommen. Er läßt Geschichte aus.«35 Husserl habe laut Blumenberg mit seiner Phänomenologie »Geschichte, und zwar in einem absoluten Sinne, wiederherstellen [wollen]. Es ist ihre Grundforderung: ›wiederholen wir die ganze bereits geschehene Geschichte subjektiver Leistungen‹.«36 Blumenberg erkennt an diesem Punkt einen der Husserl’schen Phänomenologie inhärenten Widerspruch, den er letztendlich jedoch als konstruktiven Denkansatz nutzt. Husserls Anspruch, sich ›den Sachen selbst‹ zuzuwenden, habe als eine Art Therapie für die auf Abwege geratene theoretisierte und immer weiter technisierte Welt dienen sollen, um zurück zur ›Lebenswelt‹ zu gelangen. Die phänomenologische Reduktion, die er entwickelte, um diesem Anspruch gerecht zu werden, sei jedoch nichts anderes als eine Methode, ein theoretisierter Vorgang. Entscheidend für diese Erkenntnis Blumenbergs ist Husserls Vorstellung, dass die Reduktion in die Unendlichkeit gerichtet ist, denn implizit bedeutet solch ein nicht endender Ablauf, dass der Prozess in auf bauenden und anwendbar gemachten Schritten erfolgt. Es handelt sich also um einen Erkenntnisprozess, der ganz ähnlich in den Naturwissenschaften stattfinden könnte.37 Jeder einzelne Schritt stellt eine Zwischenerkenntnis dar, an die anschließend angeknüpft werden kann. In dieser Hinsicht wäre Husserls Ansatz selbst von der Lebenswelt losgelöst. Nicht einmal seine Phänomenologie kann also das Prinzip der unvoreingenommenen Anschauung erfüllen, weshalb Blumenberg zu der Erkenntnis kommt, dass »auf der untersten elementaren Stufe seiner Leistungen […] der menschliche Intellekt stets schon in der Formalisierung begriffen [ist].«38 Statt jedoch wie Husserl von einem »Sinnverlust«39 der Theorie zu sprechen, schlägt Blumenberg vor, die dem menschlichen Denken zugrundeliegende Formalisierung als einen freiwilligen »Sinnverzicht«40 aufzufassen. Er verweist in diesem Zusammenhang zum Beispiel auf Euklid und seine Geometrie: Bewusst habe dieser in manchen Fällen auf die endgültige Auf lösung eines Problems zunächst verzichtet, um in diesem Verzicht einen Raum zu schaffen, der Erkenntnisse auch dann zulässt, bevor die Argumentation abgeschlossen ist. So folgert Blumenberg, dass womöglich »heute noch keine Geometrie«41 existieren würde, hätte Euklid die endgültige Beweisführung eines theoretischen Problems immer zunächst abgewartet. Auch die phänomenologische Reduktion lässt sich nicht abschließen und dennoch bringt sie Erkenntnisse hervor.
35 Blumenberg (2012): S. 34. 36 Ebd., S. 39. Blumenberg zitiert Edmund Husserl: Erfahrung und Urteil. Untersuchungen zur Genea logie der Logik. 7. Auflage. Hamburg: Meiner, 1999, S. 48. 37 Vgl. Blumenberg (2012): S. 38–43. 38 Ebd., S. 43–44. 39 Ebd., S. 42. Herv. i. O. 40 Ebd., S. 42. Herv. i. O. 41 Ebd., S. 43.
21
22
Scheler: Computergrafik
Husserl sei dieser innere Widerspruch bewusst gewesen, weshalb er Wissenschaften wie beispielsweise der Mathematik ihre Daseinsberechtigung durchaus zugestehen konnte. Wichtig sei es Husserl aber gewesen, dass der ursprüngliche Sinn einer Theorie, aus dem heraus sie entwickelt wurde, stets bekannt sei. Blumenberg deutet Husserl schließlich so, dass dieser die Hauptaufgabe seiner Phänomenologie darin sah, »den Schatz der durch die Technisierung übersprungenen Sinnstrukturen [zu] verwalten«42. Anders als die Mathematik sah Husserl die Phänomenologie dazu imstande, diese Aufgabe zu erfüllen und für die Wiederherstellung des Sinns Verantwortung zu übernehmen. Um diesem Verantwortungsbewusstsein nachzugehen und sich im Hinblick auf die Technisierung wieder auf den Weg zurück zum ›Universum der Selbstverständlichkeiten‹ zu machen, sei es notwendig, sich bewusst dafür zu entscheiden, nichts mehr für selbstverständlich zu halten, weshalb Blumenberg zuspitzend formuliert: »Die letzten und verstecktesten Selbstverständlichkeiten noch in Frage zu stellen, ließe sich geradezu als Programm der Phänomenologie angeben.«43 Doch, wie Blumenberg herausstellt, liegt hier erneut ein tiefer Widerspruch im phänomenologischen Denkansatz. Denn wenn in unserer Wahrnehmung nichts mehr selbstverständlich ist, ist plötzlich alles, was sich uns zeigt, nur noch eine Möglichkeit von vielen, also reine Kontingenz. Doch gerade die Kontingenz macht uns als Menschen erfinderisch. Wenn wir alles als Möglichkeit auffassen, liegt es nahe, dass wir beginnen, die Grenzen dieses Möglichkeitsspielraums auszureizen, um zu testen, wie weit es sich gehen lässt. Kontingenz begünstigt unsere Technisierung. Ja, die Phänomenologie begünstigt die Technisierung, sie ist selbst einer ihrer Motoren.44 Aus diesem Grund ließe sich die Phänomenologie – so lautet Blumenbergs endgültige Schlussfolgerung – ausschließlich im Sinne einer dialektischen Auf hebung verstehen: »Die im Denken Husserls idealisierte ›Lebenswelt‹ dürfen wir damit als das unverstandene Korrelat und Korrektiv für die an der Technisierung unvermerkt mittätige Steigerung der Kontingenz durch die Phänomenologie ansehen.«45 Doch wie lässt sich mit dieser Erkenntnis nun praktisch weiterarbeiten? Wohin würde die Methode Husserls in Bezug auf die Fragestellung der vorliegenden Untersuchung führen? Blumenberg stellt heraus, dass mit dem Anspruch der Phänomenologie, nichts für selbstverständlich zu nehmen, insbesondere in Bezug auf die Technisierung, eine sehr aktuelle und radikale Methode entstanden sei.46 Während das Prinzip der phänomenologischen Reduktion durchaus mit dem Sinnverzicht arbeiten und darauf vertrauen kann, dass Erkenntnisse auch dann entstehen, bevor die gestellten Fragen beantwortet wurden, gelingt dieser Sinnverzicht in Bezug auf die Technisierung nicht. Im Sinne der Kontingenz versteht Blumenberg die Technik als eine »Steigerung einer endlich vorgegebenen Kapazität, nämlich der des menschlichen Daseins«47. Richtet sich die phänomenologische Reduktion auf eine technische Errungenschaft, entlarvt sie immer diese Steigerung und damit auch das Motiv dieser Steigerung.
42 Ebd., S. 44. 43 Ebd., S. 48. 44 Vgl. ebd., S. 46–47. 45 Ebd., S. 49 46 Vgl. ebd., S. 49–51. 47 Ebd., S. 50.
Einleitung
Husserl selbst sei laut Blumenberg die Aktualität, die seine eigene Methode in Bezug auf die Technisierung hat, noch gar nicht bewusst gewesen. Die Sprünge, die durch Technologien verursacht werden, würden beispielsweise insbesondere dann sichtbar, wenn sie in Regionen dieser Welt zum Einsatz kommen, in denen sie nicht entwickelt wurden, in denen die Technisierung gar keine geschichtliche Motivation besitzt. Um sich ›den Sachen selbst‹ in Bezug auf die Technisierung anzunähern und ihren Sinnzusammenhang zu begreifen, sei es laut Blumenberg also notwendig, danach zu fragen, warum wir Menschen unsere eigenen Daseinskapazitäten so weit ausreizen.48 Mit diesem gedanklichen Hintergrund lässt sich nun der eigentliche Fokus der vorliegenden Studie erklären. Statt sich auf die Bildoberf läche zu konzentrieren, soll es darum gehen, den Hintergrund der Bilder zu erhellen, herauszufinden, wie und wa rum 3D-Grafiken auf eine bestimmte Weise erzeugt werden. Es geht also in dieser Studie darum, nach dem Sinn dieser Bilder zu fragen und nach der Motivation, aus der heraus sie entstanden sind. Um Blumenbergs Modell als Methode praktikabel zu machen, eignet sich der zuvor angekündigte produktionsästhetische Untersuchungsansatz. Gedanklich knüpft die vorliegende Studie damit an den von dem Kreativitätstheoretiker Friedrich Weltzien verfassten Aufsatz Produktionsästhetik als Methode an. Weltzien erläutert darin die Vorzüge, die sich ergeben, wenn die Produktion einer Arbeit in den Fokus rückt: »Indem neben der formalen Analyse oder rezeptionsästhetischen Ansätzen, neben einer historischen Kontextualisierung, der Biografik oder der Intentionsforschung zu sätzlich auch der schöpferische Prozess selbst in den Fokus genommen wird, erschlie ßen sich Dimensionen von Bedeutung, die auf anderem Wege sehr viel schwieriger oder garnicht [!] zu erfassen und zu beschreiben wären.« 49 Eine weitere Besonderheit, die Weltzien in Bezug auf die von ihm so definierte produktionsästhetische Forschungsmethode aufführt, liegt darin, dass sie häufig Aspekte miteinander in Verbindung bringen kann, die in anderen Untersuchungsansätzen kaum in ein gemeinsames Blickfeld rücken.50 Inwiefern dies auch in der vorliegenden Studie zum Tragen kommt, wird am Ende dieses Kapitels erneut thematisiert. Ziel soll es also sein, den kreativen Prozess, der zu den 3D-Grafiken führt, Schritt für Schritt und im Sinne des phänomenologischen Grundanspruchs mit größtmöglicher Unvoreingenommenheit nachzuempfinden und wiederzugeben. Welche Entscheidungen wurden von welchen Personen zu welchem Zeitpunkt aus welchem Grund getroffen? Wenn es nun allerdings darum geht, diese Fragestellung nicht nur auf ein einzelnes Bild und seine Erzeugung zu beziehen, sondern insgesamt auf das computergrafische Bildgebungsverfahren, so hat diese grundsätzliche Entscheidung Konsequenzen für den Untersuchungsradius dieser Studie. 48 Vgl. ebd., S. 49–50. 49 Friedrich Weltzien: Produktionsästhetik als Methode. In: Praxis. Ausüben. Begreifen. Hrsg. v. Mi chael Corsten: Velbrück Wissenschaft, 2021, S. 220–236, hier S. 221. Mit dem Phänomen digitaler Erzeugnisse benennt Weltzien einen Untersuchungsbereich, den er für einen produktionsästheti schen Zugriff besonders geeignet sieht, da sich beispielsweise Desinformationen häufig nur mit dem Blick auf den Produktionsweg entschlüsseln lassen. Vgl. ebd., S. 231–232. 50 Vgl. ebd., S. 232–233.
23
24
Scheler: Computergrafik
Der Fokus verlagert sich dann von denjenigen, die die Software nutzen, zu denjenigen, die sie entwickelt haben. Diese Fokusverlagerung basiert auf der Annahme, dass genau in dem Spannungsfeld zwischen Entwicklung und Anwendung von Software jene Sprünge auszumachen sind, von denen Blumenberg spricht. Diese Sprünge zu überwinden, bedeutet, den Sinnzusammenhang der 3D-Grafiken und der Praxis, sie zu erzeugen, zu verstehen, denn die Software ist aus bestimmten Gründen entwickelt worden, die diejenigen, die sie nutzen, womöglich gar nicht kennen. Dennoch wird ihre Praxis, 3D-Grafiken zu erzeugen, stets von bestimmten ästhetischen Parametern geprägt, die der Entwicklung der Software einst zugrunde lagen. Dabei sind einzelne Arbeitsschritte so selbstverständlich, dass ihr kultureller Hintergrund häufig gar nicht mehr wahrgenommen wird. Wenn also die 3D-Grafiksoftware heute weltweit zum Einsatz kommt, um damit synthetische Bilder zu produzieren, werden dabei stets produktionsästhetische Aspekte anderer, vorangegangener Programmierer51 verarbeitet und weitergetragen. Die Entstehungsgeschichte der Software für 3D-Computergrafik betrifft deshalb nicht nur alle 3D-Computergrafiken gleichermaßen, sondern ebenfalls die Praxis, mit der Bilder dieser Art erzeugt werden. Wenngleich also eine einzelne Grafik innerhalb der Software je für sich aus einem eigenständigen produktionsästhetischen Prozess hervorgegangen ist, wird die Praxis immer auch von der Software und damit auch von produktionsästhetischen Merkmalen bestimmt, die in der Software verankert sind. Diese Merkmale bilden den verborgenen Sinnzusammenhang der 3D-Computergrafiken. Bevor also eine einzelne Grafik in den Blick genommen werden kann, um sie vielleicht auch bildästhetisch einzuordnen, ist es notwendig, den geschichtlichen Zusammenhang zu kennen, der dem Bilderzeugungsmedium selbst zugrunde liegt. Blumenbergs Auseinandersetzung mit Husserl zeigt, warum es notwendig ist, auf diese Weise zu arbeiten, wenn der kreative Prozess gleichzeitig in einer hochtechnisierten Umgebung stattfindet. Nur so lassen sich die Sprünge überwinden, um ›zu den Sachen selbst‹ zurückkehren und einen Sinnzusammenhang erkennbar machen zu können. In der Geschichte der Softwareentwicklung befindet sich also der gemeinsame Sinnzusammenhang aller 3D-Grafiken und damit auch jenes Wissen, das dazu benötigt wird, 3D-Computergrafiken ästhetisch begreif bar zu machen. Die produktionsästhetische Methode, wie sie hier vor dem Hintergrund Blumenbergs verstanden werden soll, verleiht der Studie insgesamt eine historische Dimension, wodurch in letzter Konsequenz die Softwareentwicklung zum eigentlichen Untersuchungsgegenstand wird. Die Verlagerung des Ausgangspunkts, der nun nicht mehr bei der 3D-Grafik selbst, sondern vielmehr bei der Geschichte der zur Erzeugung dieser Grafiken benötigten Software ansetzt, ermöglicht es, diese produktionsästhetische Studie nicht allein als bildtheoretische oder praxeologische, sondern vielmehr als eine medienarchäologische Auseinandersetzung zu begreifen, die es vermag, alle diese Blickwinkel miteinander zu vereinen. Der Begriff der Medienarchäologie orientiert sich hierbei an der Definition Erkki Huhtamos und Jussi Parikkas: 51 Aus Gründen der besseren Lesbarkeit wird im Folgenden ausschließlich die maskuline Form perso nenbezogener Substantive verwendet, die jedoch in vielen Fällen genderneutral zu denken ist. Da die geschichtlichen Zusammenhänge zur Entwicklung der Grafiksoftware ohnehin hauptsächlich auf männliche Akteure zurückzuführen sind, verbirgt sich in den meisten Fällen jedoch in dem ge wählten Maskulinum eine präzise Wiedergabe der historischen Ereignisse.
Einleitung
»Media Archaeology rummages textual, visual, and auditory archives as well as collec tions of artifacts, emphasizing both the discursive and the material manifestations of culture. Its explorations move fluidly between disciplines, although it does not have a permanent home within any of them. Such ›nomadicism,‹ rather than being a hindrance, may in fact match its goals and working methods, allowing it to roam across the land scape of the humanities and social sciences and occasionally to leap into the arts.« 52 In vielen Hinsichten trifft die hier von Huhtamo und Parikka dargebotene Beschreibung, wie mit medienarchäologischen Ansätzen gearbeitet werden kann, auf die Vorgehensweise der vorliegenden Studie zu. Der Hauptfokus der Untersuchung liegt auf einem Konglomerat an Archivmaterialien, anhand derer die einzelnen Entscheidungen, die zur Entwicklung von Grafiksoftware geführt haben, nachvollzogen werden können. Um diese Entscheidungen allerdings umfassender auch kulturhistorisch einordnen zu können, behält es sich die Studie vor, am Ende der produktionsästhetischen Auseinandersetzung mit den computertechnologischen Entwicklungen einen Blick in den Bereich der Kunst zu werfen, um wiederum dort gewonnene Erkenntnisse auf die Ergebnisse zur Grafiksoftware anzuwenden. Huhtamos und Parikkas Definition der medienarchäologischen Arbeitsweise legitimiert diesen Schritt, der im folgenden Kapitel zum Auf bau der Studie jedoch noch genauer erläutert werden soll. Dort werden auch die untersuchten Archivdokumente präziser vorgestellt. Ebenfalls zeigen wird sich im folgenden Kapitel, dass die Studie noch ein weiteres für die Medienarchäologie charakteristisches Vorgehen berücksichtigt, denn wenn es das Anliegen ist, eine Geschichte der 3D-Computergrafik zu erzählen, dann sollen dabei ebenfalls Ansätze berücksichtigt werden, die in der heute kommerziell verfügbaren Software nicht verankert wurden. Wie Huhtamo und Parikka treffend zum Ausdruck bringen, haben auch die »[d]ead ends, losers, and inventions that never made it into a material product […] important stories to tell.«53
52 Erkki Huhtamo; Jussi Parikka: Introduction: An Archaeology of Media Archaeology. In: Media Ar chaeology. Approaches, Applications, and Implications. Hrsg. v. dens. Berkeley, CA: Palo Alto, CA: University of California Press, 2011, S. 1–21, hier S. 3. Huhtamo und Parikka führen die Ursprünge der Medienarchäologie auf verschiedene Akteure zurück, unter anderem auf Michel Foucaults ›Archäo logie des Wissens‹. Dessen Ansatz sei anschließend sowohl von der angloamerikanischen als auch der deutschsprachigen Forschung aufgegriffen worden, allerdings dort jeweils auf zwei unter schiedliche Weisen. Während die angloamerikanische Tradition zunächst vorrangig bei sozio-kul turellen Aspekten ansetze, mache der deutschsprachige Ansatz vor allem zunächst die technischen Bedingungen von Medien zum Ausgangspunkt der Untersuchung. Huhtamo und Parikka heben in diesem Zusammenhang insbesondere Friedrich Kittler und seine Publikationen Aufschreibesysteme sowie Grammophon Film Typewriter hervor. Vgl. Huhtamo; Parikka (2011): S. 8–9. Die vorliegende Studie knüpft bei Huhtamo und Parikka an, da die Autoren ein sehr offenes und bewegliches Ver ständnis von der Medienarchäologie zum Ausdruck bringen. Sie führen aus: »Although this term [media archaeology] does not designate an academic discipline […], it has appeared in an increasing number of studies, and university courses and lectures have also been given under this heading. […] [T]here is no general agreement about either the principles or the terminology of media archaeol ogy. Yet the term has inspired historically tuned research and is beginning to encourage scholars to define their principles and to reflect on their theoretical and philosophical implications.« Ebd., S. 2. 53 Ebd., S. 3.
25
26
Scheler: Computergrafik
1.1.2
Aufbau der Studie
Die Untersuchung setzt sich insgesamt aus sechs Teilen zusammen, von denen sich der erste neben den methodischen Erläuterungen mit dem Auf bau der Studie sowie einer technischen und einer kurzen historischen Einführung zur Erzeugung synthetischer Bilder befasst. Die Abschnitte 2 und 3 stellen jeweils die geschichtlichen Entwicklungen am Massachusetts Institute of Technology sowie an der University of Utah dar – zwei Forschungsstätten, die maßgeblich zur Entstehung der 3D-Grafiksoftware geführt haben. In Abschnitt 4 erfolgt eine Auseinandersetzung mit kunsthistorischen Bildkonzepten, welche im Anschluss zu den computertechnologischen Entwicklungen in Beziehung gesetzt werden. In Abschnitt 5 werden die Erkenntnisse aus den vorangegangenen Kapiteln zusammengeführt, in einen größeren kulturhistorischen Kontext gestellt und vor dieser Kulisse gedeutet. Mit einem kurzen Fazit in Abschnitt 6 endet die Studie. Noch im Rahmen dieses ersten Teils wird im nächsten Kapitel ein aktueller Forschungsstand präsentiert, an den die vorliegende Studie anknüpft, gefolgt von einem kurzen technischen Einblick in die Softwareumgebung, in der jene 3D-Grafiken erzeugt werden, deren Entstehungsgeschichte in der vorliegenden Studie untersucht werden soll. Die Praxis wenigstens im Ansatz nachvollziehen zu können erscheint notwendig, um sowohl die Art und Weise der hier vorgenommenen Geschichtsschreibung als auch die Erkenntnisse, die die Studie hervorbringt, insgesamt besser einordnen zu können. Vor dem Übergang zum zweiten Hauptabschnitt der Studie erfolgt eine erste kurze Gesamtübersicht der geschichtlichen Ereignisse, um zentrale Personen oder computertechnologische Meilensteine, die anschließend schrittweise und tie fergehend beleuchtet werden, von vornherein besser einordnen zu können. Die Studie orientiert sich darauf hin in den Abschnitten 2 und 3 an einzelnen historischen Personen, deren Forschung aus produktionsästhetischer Perspektive noch heute die Arbeit mit dem Bildgebungsverfahren prägen. Hier werden zum Vergleich auch einzelne Vertreter aufgegriffen, für die heute kein direkter Einf luss auf die Praxis mehr ausgemacht werden kann. Durch die kurze vorangestellte Übersicht der Geschehnisse lassen sich die im späteren Verlauf einzeln präsentierten Personen jeweils zügiger einordnen. Der Hauptfokus der Untersuchung liegt auf der Entwicklungsgeschichte der Software, die sich in ihren wesentlichen Schritten innerhalb der USA in den 1960er und 1970er Jahren vollzogen hat. Den Kern des herangezogenen Forschungsmaterials bilden vorrangig primäre Quellen aus dem Ingenieurswesen und der Informatik. Aufschlussreich sind in diesem Zusammenhang insbesondere Masterarbeiten und Dissertationen, die in diesen Fachbereichen in Form von technischen Berichten damals neue Erkenntnisse und Entwicklungen im Bereich der Mensch-Maschine-Interaktion oder der computergrafischen Darstellungsmöglichkeiten hervorbrachten. Auch Tagungsbeiträge von Informatikkonferenzen werden berücksichtigt. Während sich der zweite Abschnitt vor allem den Entwicklungen am Lincoln Labo ratory des Massachusetts Institute of Technology (MIT) in Boston, Massachusetts, zuwendet, befasst sich der dritte Abschnitt mit Entwicklungen am Computer Science Department an der University of Utah. Basierend auf den Erkenntnissen der vorangegangenen Abschnitte widmet sich der vierte Teil der Studie schließlich dem Feld der Kunst, genauer dem Phänomen des ›Amerikanischen Realismus‹ – hier verstanden als eine Ansammlung unterschiedlicher
Einleitung
figurativer künstlerischer Strömungen in den USA –, um ein mögliches US-amerikanisches Bildverständnis herauszuarbeiten, vor dessen Hintergrund in den USA die Software als Bildgebungsverfahren entwickelt wurde. Die Entscheidung, sich mit dieser malerischen Richtung auseinanderzusetzen, hängt damit zusammen, dass sich der Begriff des ›Realismus‹ in den computergrafischen Entwicklungen als ein überaus prominenter Bezugspunkt für die Erzeugung der Software identifizieren lässt. Es wird also angenommen, dass sich über den Blick in eine historische Epoche der Kunst Erkenntnisse über das heutige digitale Bildgebungsverfahren gewinnen lassen. Die geschichtliche Entwicklung des ›Amerikanischen Realismus‹ besitzt als ästhetisches Paradigma ein Aktualität stiftendes Potenzial, das diese Studie ausschöpft.54 Um in Abschnitt 5 den Sinnzusammenhang der 3D-Computergrafiken gezielt herauszuarbeiten, geht die Studie hier Hinweisen nach, die sich im Zuge der produktionsästhetischen Übereinkunft zwischen den künstlerischen und computergrafischen Ansätzen herauskristallisiert haben. Die Synthese der beiden Felder erfolgt unter historischer Bezugnahme auf die von dem US-amerikanischen Kulturhistoriker und Amerikanisten Leo Marx 1964 veröffentlichte Monografie The Machine in the Garden. Technology and the Pastoral Ideal in America.55 Seine Auseinandersetzung mit dem 54 Vgl. dazu auch der Geschichtsbegriff, wie er im Sammelband What’s the Use? Constellations of Art, History, and Knowledge entwickelt wird: Hier wird »history as a constantly changing creation of the present« verstanden, da »periods appear also not to be fixed, but reveal their malleable quality be cause they are the subject of working minds, determined to put forward an understanding of the present through reflecting on the past appearing in the present.« Nick Aikens; Thomas Lange; Jorin de Seijdel; Steven ten Thije (Hgg.): What’s the Use? Constellations of Art, History, and Knowledge. A Critical Reader. Amsterdam: Valiz, 2016, S. 11. Thomas Lange beschreibt in Anknüpfung an Walter Benjamins Konstellations-Begriff die fließende Verwobenheit geschichtlicher Epochen mit der Gegenwart: »Constellations show the expanded and interwoven matrix of layers of time revealing multiple connections to later, or previous, past and present times.« Thomas Lange: Constellating History – Introduction. In: What’s the Use? Constellations of Art, History, and Knowledge. A Critical Reader. Hrsg. v. Nick Aikens, Thomas Lange, Jorinde Seijdel und Steven ten Thije. Amsterdam: Valiz, 2016, S. 16–17, hier S. 16. 55 Vgl. Leo Marx: The Machine in the Garden. Technology and the Pastoral Ideal in America. 2. Auf lage. Oxford u. a.: Oxford University Press USA, 2000. Nach der Veröffentlichung seiner Studie war Marx verschiedenen Vorwürfen ausgesetzt, die hier kurz thematisiert werden sollen. Wie die Amerikanisten Eric Erbacher, Nicole Maruo-Schröder und Florian Sedlmeier in der Einführung zu ihrem Sammelband Rereading the Machine in the Garden darstellen, wurde Marx vor allem unterstellt, mit seiner Studie die Erzählung des Amerikanischen Exzeptionalismus fortzuschreiben und damit zugleich die Vorstellung einer einheitlichen und damit auch einseitigen Geschichtsschreibung für die USA zu formulieren. Erbacher, Maruo-Schröder und Sedlmeier ordnen Marx deshalb in eine Tradition amerikanistischer Studien ein, die inzwischen von den sogenannten ›New Americanists‹ abgelöst wurde. Diese neue amerikanistische Theoriebildung greift im Gegensatz zur vorigen etwa Positionen aus den Bereichen der Cultural Studies, Gender Studies oder auch poststruktu ralistische Untersuchungsansätze auf. Wie die Herausgeber des Bandes ebenfalls anmerken, sei Marx auf die ihm entgegengebrachten Vorwürfe in der Neuausgabe seiner Monografie, die auch in der vorliegenden Studie verwendet wird, sowie in einer Reihe weiterer Aufsätze eingegangen. Vgl. Eric Erbacher; Nicole Maruo-Schröder; Florian Sedlmeier: Introduction: Rereading The Machine in the Garden. In: Rereading the Machine in the Garden. Nature and Technology in American Cul ture. Hrsg. v. dens. Frankfurt am Main: Campus, 2014, S. 7–41, hier S. 1–2. Marx selbst schildert, seine Untersuchung unterliege dem Vorwurf, eine elitäre, weiße und männliche Perspektive einzuneh men und damit die Unterschiede in der US-amerikanischen Gesellschaft zu ignorieren. Die neueren
27
28
Scheler: Computergrafik
technologischen Fortschritt in den USA und dessen Auswirkungen auf die dortigen kulturellen Entwicklungen wird so abschließend für die Frage herangezogen, was die Entstehung der Software für die Praxis, am Computer Bilder zu machen, bedeutet.
1.1.3
Forschungsstand
Spanning scientific, academic, and popular discourses, this dominant image of technology in design […] is so engrained that it has become a lens through which we come to see design practices socially, historically, and conceptually in techno logical terms. Furthermore, by organizing views about architecture, product design, engineering, and urbanism our technological imagination of design fundamentally structures the intellectual work of designers across fields […].56 – Daniel Cardoso Llach (2015)
Für die Aufgabe, einen Forschungsstand zu formulieren, lassen sich generell zwei Perspektiven einnehmen: Einerseits ist es möglich, Untersuchungen vorzustellen, in der Software ebenfalls auf phänomenologische oder sogar auf produktionsästhetische Weise untersucht wurde, doch droht bei diesem Blickwinkel die untersuchte Grafiksoftware aus dem Fokus zu rücken, da dieser Untersuchungsansatz dafür noch nicht dezidiert zum Einsatz gekommen ist. Dennoch lässt sich zumindest an der 1987 von dem Philosophen Michael Heim veröffentlichten Studie Electric Language: A Philosophical Study of Word Processing, die sich dem Thema der computergestützten Textverarbeitung
Untersuchungsansätze in seiner Disziplin seien, so beschreibt er in anerkennender Weise, darauf ausgerichtet, auch die Differenzen in der Gesellschaft zu berücksichtigen, also etwa Faktoren wie gesellschaftliche Klassenbildung, ethnische Herkunft oder geschlechtsbezogene Entwicklungen. Er stellt deshalb selbst dar, dass er einige sehr vereinheitlichende Sätze in seiner Studie zum Ver halten ›der Amerikaner‹ so heute nicht mehr schreiben könne, und führt auch weitere Aspekte auf, die er heute bei der Gedankenführung aufgreifen würde. Zugleich verteidigt er seine Studie mit dem Hinweis, dass er nicht etwa mit einer universalisierenden Haltung eine gleichgeschaltete Ge sellschaft beschreibt, sondern dass er durchaus auf Spaltungen hindeutet, hervorgerufen durch die in der US-amerikanischen Geschichte aufkeimende Technologie, die nicht von allen gleichermaßen befürwortet wurde. Er betont hierbei sogar, er habe die Aktualität des Konflikts unterschätzt, den er im Kern im 19. Jahrhundert verortet. Kurz nach Veröffentlichung seiner Studie im Jahr 1964 be gannen die studentischen Proteste, die den von Marx beschriebenen Konflikt in direkter Weise fortführten. Vgl. Marx (2000): S. 381–384. Die vorliegende Studie orientiert sich an der Haltung, die auch Erbacher, Maruo-Schröder und Sedlmeier in ihrer Aufarbeitung von Marx’ Studie einnehmen, denn hier beschreiben sie, das Bild von der Maschine, die in den Garten eindringt, sei noch immer prägend für zahlreiche künstlerische, filmische und literarische Arbeiten. Wenngleich das Bild viel leicht nicht allumfassend für die US-amerikanische Geschichte gelten könne, wollen sie mit ihrem Band dennoch »its significance in artistic productions from a U.S. context« würdigen. Erbacher; Ma ruo-Schröder; Sedlmeier (2014): S. 9. 56 Cardoso Llach (2015): S. xii.
Einleitung
aus phänomenologischer Perspektive zuwendet, aufzeigen, welche Vorzüge ein solcher Zugriff haben kann. Sie wird im Folgenden als Erstes vorgestellt. Da die Grafiksoftware und die damit erzeugten Bilder jedoch für diese Studie zentral sind, lässt sich andererseits ein weiterer Ausgangspunkt zur Darstellung des Forschungsstands auch bei dem grundsätzlichen Anliegen der vorliegenden Studie setzen, hinter die Fassade der Bilder zu blicken. Diesem Anliegen begegnet auch der Medienhistoriker und -theoretiker Jacob Gaboury in seiner 2021 erschienenen Studie Image Objects. An Archaeology of Computer Graphics. Ihm geht es ebenso darum, mehr in den Blick zu nehmen als die reine Bildlichkeit der 3D-Grafiken. Methodisch geht er dabei ebenfalls nicht bildästhetisch, allerdings auch nicht produktionsästhetisch oder phänomenologisch, sondern überwiegend dokumentarisch vor.57 Welche Folgen es haben kann, einen ähnlichen Forschungsgegenstand mit diesen unterschiedlichen Untersuchungsansätzen zu ergründen, wird im weiteren Verlauf dieses Kapitels deutlich. Gabourys Studie wird in umfangreicher Weise an zweiter Stelle vorgestellt. Zum Abschluss des Forschungsstands soll mit der 2015 erschienenen Studie Builders of the Vision. Software and the Imagi nation of Design von dem Architekten Daniel Cardoso Llach eine Untersuchung aufgegriffen und präsentiert werden, die trotz eines anderen fachlichen Schwerpunkts insgesamt ein überaus ähnliches Anliegen verfolgt wie die vorliegende Studie. Cardoso Llachs Monografie kann, da sie ebenfalls aus dem Blickwinkel der gestalterischen Praxis auf die Entwicklung von Software blickt, als konkreter Anknüpfungspunkt für die hier vorgenommene Untersuchung gelten, weshalb sich daran besonders treffend veranschaulichen lässt, welchem Desiderat die vorliegende Ausarbeitung begegnet. Wie lässt sich also Softwareentwicklung phänomenologisch nachvollziehen? In der Studie Electric Language: A Philosophical Study of Word Processing aus dem Jahr 1987 befasst sich Heim mit dem Phänomen computergestützter Textverarbeitung. Obwohl er mit seiner Untersuchung keine Grafiksoftware berücksichtigt, kann die Haltung, mit der er seiner Forschung begegnet, zumindest in Ansätzen als wegweisend für die nachfolgenden Ausführungen gelten, denn mit seinem Wunsch, phänomenologisch zu arbeiten, formuliert er ähnlich wie Blumenberg den Anspruch, seinen Gegenstand zunächst weder aus einer ablehnenden noch aus einer zustimmenden Perspektive zu untersuchen. Bevor sich Bewertungen vornehmen ließen oder man sich einer der beiden Seiten anschließen könne, müssten die Veränderungen, die durch eine neue Technologie hervorgerufen werden, zunächst nachvollzogen werden.58 Zu spüren ist in dieser Ausdrucksweise der Zeitpunkt, zu dem Heim seine Untersuchung vornahm, denn wie er selbst formuliert, bearbeitet er die Thematik in einem Moment, in dem Softwarephänomene wie computergestützte Textverarbeitung noch ein Staunen auslösten. Er erkennt in diesem Staunen sogar ein Potenzial, denn wenn die Technologie erst einmal zur Gewohnheit geworden sei, mache sie sich unsichtbar, womit sie als Untersuchungsgegenstand weniger offenkundig würde.59 Der Moment des Staunens ist im Bereich der 3D-Grafik längst vergangen, da sie häufig als das, was sie ist, nicht einmal 57 Wie der Titel seiner Studie andeutet, bezeichnet Gaboury selbst seinen Ansatz ebenfalls als me dienarchäologisch. Vgl. Jacob Gaboury: Image Objects. An Archaeology of Computer Graphics. Cambridge, MA: MIT Press, 2021, S. 5. 58 Vgl. Michael Heim: Electric Language. A Philosophical Study of Word Processing. New Haven, CT: Yale University Press, 1987, S. 4. 59 Vgl. ebd., S. 6–7.
29
30
Scheler: Computergrafik
mehr erkennbar ist. Gedanklich ist Heim auch hier mit Blumenberg verwandt, denn Heim antizipiert ebenfalls, dass die technisierte Lebenswelt einmal selbstverständlich sein wird. Wenngleich das Zeitalter, in dem Heim seine Studie veröffentlichte, vergangen ist und heute nicht mehr über computergestützte Text- oder Bildbearbeitung gestaunt wird, soll Heims Haltung als Vorbild dienen. Der Blick auf die Entwicklungen, die zur 3D-Grafiksoftware geführt haben, erfolgt, wie auch im Methodenkapitel dargestellt, also weder aus einer euphorischen noch aus einer ablehnenden Haltung. Vielmehr begegnet die vorliegende Studie den geschichtlichen Schritten – ähnlich wie Heim – in dialektischer Weise. Was er darunter versteht, erläutert er in seinem 1999 erschienenen Aufsatz The Cyberspace Dialectic, in dem er zunächst darstellt, wie die meisten Debatten zur damals aufstrebenden Digitalität entweder von einer tiefen Ablehnung oder einer euphorisierten Zustimmung geprägt waren. Statt sich einer der beiden Seiten anzuschließen, schlägt er vor, dem Phänomen dialektisch zu begegnen: »We might learn to balance the idealist’s enthusiasm for computerized life with the need to ground ourselves more deeply in the felt earth that the realist affirms to be our primary reality.«60 Während Heim den am Computer erfolgenden elektronischen Textverarbeitungsprozess selbst phänomenologisch beschreibt und ihn in einen größeren kulturhistorischen Kontext stellt,61 widmen sich die Beschreibungen der vorliegenden Studie allein jenen Schritten, die sich ereignet haben, bevor die heute verfügbare Software überhaupt existierte. Heim gelangt schließlich zu der Erkenntnis, dass die elektronische Textverarbeitung unsere Denk- und Schreibprozesse verändert, wobei er bei dieser Feststellung stets seiner abwägenden Grundhaltung treu bleibt.62 Im Ergebnis unterscheidet er sich dennoch von dem Ansatz der vorliegenden Studie, denn hier geht es nicht mehr darum, einen potenziellen Bruch mit vorherigen Praktiken zu beschreiben, sondern vielmehr darum, Kontinuitäten zu entdecken.63 60 Michael Heim: The Cyberspace Dialectic. In: Digital Dialectic. New Essays on New Media. Hrsg. v. Peter Lunenfeld. Cambridge, MA: MIT Press, 1999, S. 24–45, hier S. 41. 61 Bevor sich Heim in seiner Studie der elektronischen Textverarbeitung zuwendet, zeichnet er aus gehend von der griechischen Antike nach, wie sich das Zusammenspiel von Gedanken, Schrift und Sprache bis heute geformt und gewandelt hat. Er knüpft argumentativ zunächst an Eric Havelock und Walter J. Ong an, jedoch auch, um ihre jeweiligen Positionen in Bezug auf das von Heim be trachtete Phänomen der elektronischen Textverarbeitung mit einem kritischen Blick zu erneuern. Vgl. Heim (1987): S. 21–69. 62 Vgl. ebd., S. 192–224. 63 Heim bleibt trotz seiner abwägenden Haltung dem Duktus der damals geführten Debatten treu. Wie er selbst darstellt, teilten sich diese häufig in befürwortende und ablehnende Positionen. Da mit einher geht häufig die Vorstellung, dass die durch die Digitalität herbeigeführten Neuerungen derart radikal gewesen seien, dass sogar ein Bruch mit vorherigen Medien eingetreten sei. Mit dem Begriff des Bruchs arbeitet etwa Edmont Couchot, ein französischer Pionier digitaler Kunst. In sei ner mit Norbert Hillaire gemeinsam erarbeiteten Studie L’art numérique. Comment la technologie vient au monde de l’art formuliert er die Auffassung, digitale Ausdrucksformen, insbesondere bildliche, würden radikal mit allen vorherigen Techniken brechen: »Le numérique est […] en rupture avec les techniques figuratives traditionelles, mais il est aussi capable de se réapproprier les techniques non numériques qu’il simule de très près et de composer avec elles […].« Couchot; Hillaire (2003): S. 28. Couchot und Hillaire bedauern, dass durch die Möglichkeit, mit dem Computer stets andere Ver fahren zu imitieren, nicht erkenntlich würde, inwiefern er ein neues und eigenständiges Ausdrucks
Einleitung
Mit diesem grundsätzlichen Anliegen folgt die vorliegende Studie einer Agenda, die gedanklich mit dem Konzept der ›Remediation‹ verwandt ist, denn wie Jay D. Bolter und Richard Grusin in ihrer Studie Remediation. Understanding New Media im Jahr 1999 anmerken: »No medium today, and certainly no single media event, seems to do its cultural work in isolation from other media, any more than it works in isolation from other social and economic forces.«64 Wenngleich es nicht vorrangig das Ziel ist, herauszufinden, welche alten Medien den Weg in ein neues gefunden haben,65 sondern vielmehr, ein überdauerndes Konzept von Bildlichkeit herauszuarbeiten, basiert die vorliegende Studie auf der Grundannahme, dass bestimmte Weltbilder in der Software überdauern, die auch das Bildermachen vor der Zeit des Computers geprägt haben. Mit dieser Nähe zu Bolter und Grusin unterscheidet sich das Anliegen der vorliegenden Studie vollständig von dem des Film- und Medienwissenschaftlers Jacob Gaboury, der in seiner zu Beginn dieses Kapitels erwähnten Studie Image Objects. An Archaeology of Computer Graphics betont: »Refusing popular narratives of convergence and remediation, I argue that computer graphics is a unique medium distinct from
mittel darstelle. Gleichzeitig beschreiben sie auch eine Kontinuität, die sich mit dem Computer voll ziehe, denn in ihm setze sich das traditionsreiche Spannungsfeld zwischen Wissenschaft und Kunst fort. Ähnlich wie etwa im Kubismus übersetze die digitale Kunst durch den ihr zugrunde liegenden Algorithmus abstrakte Modelle der Realität in eine sinnlich wahrnehmbare Ebene. Vgl. Couchot; Hillaire (2003): S. 30–33. Mit ihrer Auffassung, der Computer simuliere einerseits vorangegangene Ausdrucksmittel, könne aber auch neue, ihm eigene Ausdrucksweisen erschaffen, nehmen sie – üb rigens wesentlich früher – eine ähnliche Position ein wie Lev Manovich in seiner 2013 erschienenen Studie Software Takes Command. Er definiert den Computer darin als Metamedium, das in Form von Simulationen alle vorangegangenen Techniken aufgreift und reproduziert, aber auch zulässt, dass neue, noch nicht bekannte Techniken daraus hervorgehen. Vgl. Lev Manovich: Software Takes Com mand. New York, NY: Bloomsbury Academic, 2013, bspw. S. 112. 64 Bolter und Grusin gehen davon aus, dass an den neuen Medien lediglich neu sei, wie sie Remediation vollziehen. Vgl. Jay D. Bolter; Richard Grusin: Remediation. Understanding New Media. Cambridge, MA: MIT Press, 1999, S. 15. Ebenfalls einordnen ließe sich gedanklich im Konzept der Remediation auch Jens Schröter: 3D. Zur Geschichte, Theorie und Medienästhetik des technisch-transplanen Bil des. München: Fink, 2009. Schröter entwickelt in seiner Monografie den Begriff und die Geschichte des technisch-transplanen Bildes, womit er jegliche Darstellungsformen einschließt, die sich in der Betrachtung räumlich darbieten, also etwa Stereoskopien, Hologramme und Virtuelle Realitäten mithilfe von Head Mounted Displays. Insbesondere über das letzte Beispiel ergeben sich zur vor liegenden Studie einige Berührungspunkte zu Schröter. Er nimmt in seiner Studie eine umfassende Kritik an Jonathan Crarys These vor, der Modus des Betrachtens habe sich zu Beginn des 19. Jahrhun derts mit dem Wandel von der geometrischen zur physiologischen Optik grundlegend verändert und Verfahren wie die Stereoskopie überhaupt erst möglich gemacht. Während Crary sogar von einem Bruch spricht, schlägt Schröter vor, die Entwicklung des technisch-transplanen Bildes nicht linear zu begreifen, sondern »als eine Schichtung bzw. ein Palimpsest ebenso gleichzeitiger wie ver schiedener Formen des optischen Wissens […].« Weiter merkt er an: »Aus diesen verschiedenen For men des optischen Wissens gehen die optischen/visuellen Medien – und mithin auch die transpla nen Bilder hervor […].« Schröter (2009): S. 12. Herv. i. O. Vgl. zudem ebd., S. 13–22, und vgl. Jonathan Crary: Techniques of the Observer. On Vision and Modernity in the Nineteenth Century. Cambridge, MA: MIT Press, 1992, S. 1–24. 65 Der Gedanke, dass jedes neue Medium ein altes Medium enthält, geht auf Marshall McLuhan zurück. Vgl. Marshall McLuhan: Die magischen Kanäle. Understanding Media. 2. erw. Auflage. Dresden, Ba sel: Verlag der Kunst, 1995, S. 22.
31
32
Scheler: Computergrafik
those earlier visual forms it seeks to simulate.«66 Ein wesentlicher Grund dafür, dass Gaboury für die Untersuchung von Computergrafiken den gedanklichen Ansatz der Remediation ablehnt, liegt darin, dass er die dahinterstehende Technologie nicht exklusiv als Bildgebungsverfahren betrachtet. Wie der Titel seiner Studie ankündigt, entwickelt er im Rahmen seiner Untersuchung den Begriff der Image Objects, womit er zunächst einmal andeuten möchte, dass er die Computergrafik nicht allein als ein bildliches Phänomen betrachten möchte, sondern vielmehr als ein Phänomen, das mehrere Zustände zugleich annehmen kann. So argumentiert Gaboury, dass jedes Smartphone, Auto oder sogar die meisten Gebäude jeweils ebenfalls computergrafische Ausformungen sind. Viele dieser Alltagsobjekte existieren nicht nur als Datei auf einem Computer, sondern zugleich als Visualisierung und als Objekt in unserer Umwelt.67 Gaboury schreibt damit den computergrafischen Entwicklungen eine allgegenwärtige und sehr zentrale Rolle zu: »In fact, computer graphics are as old as the modern computer itself, and their develop ment marks a fundamental transformation not only in the way we make images, but in the way we mediate our world through the computer, and in turn come to reimagine the world as computational. We live in a world that has been structured by the visual regime of computer graphics.«68 Obwohl die vorliegende Studie sich im Unterschied zu Gaboury lediglich dieser von ihm angesprochenen visuellen Ebene sowie der Bildlichkeit von 3D-Computergrafiken zuwendet und die Schnittstellen, in denen computergrafisches Arbeiten in Form von physischen Objekten in unsere Umwelt greift, nicht berücksichtigt, zeigt seine Beobachtung, wie relevant die Auseinandersetzung mit dem Feld der 3D-Computergrafik ist. Den Begriff des Objekts leitet Gaboury in seiner Studie auf zwei miteinander verknüpften Ebenen her. Die erste bezieht sich auf den reziproken Zusammenhang, dass in der Geschichte der Computergrafik zu Beginn häufig Alltagsgegenstände vermessen wurden, um den Prozess des virtuellen Modellierens zu erproben, und dass umgekehrt heute beinahe jeder Alltagsgegenstand in unserer unmittelbaren Umgebung aus ebendieser virtuellen Umgebung stammt. Während also die virtuelle Umgebung von Objekten bevölkert ist, die einst ihren Ursprung in unserem Alltag hatten, ist unsere Umwelt heute von Objekten bevölkert, deren Ursprung in der virtuellen Umgebung auszumachen ist.69 Die zweite Ebene, von der Gaboury den Begrif f des Objekts herleitet, bezieht sich auf die Softwareumgebung selbst und das ihr zugrunde liegende objektorientierte Programmierparadigma, auf dem heute jeder Computer basiert und das auch hier überaus zentral ist.70 Es hat sich langfristig gegenüber dem ursprünglichen und älteren prozeduralen Programmierparadigma durchgesetzt, das im Gegensatz zu dem neuen Ansatz, der eine interaktive Bedienung des Computers ermöglicht hat, prozesshaft und linear funktioniert. Der Wandel, der sich in den
66 Gaboury (2021): S. 4. 67 Vgl. ebd., S. 7. 68 Ebd., S. 3. 69 Vgl. ebd., S. 8–9. 70 Vgl. insbes. Kapitel 2.1.2 Entwickler und Anwender – Ein neues Spannungsfeld in der vorliegenden Studie.
Einleitung
1970er Jahren von dem einen zum anderen Paradigma vollzogen hat, löste weitreichende Konsequenzen aus. Auch für Gaboury ist diese Entwicklung zentral: »Image Objects tells a second story about the emergence of a new object form, and along with it the transformation of computation as a technical and cultural practice. Prior to the 1960s, computers were machines built for the procedural calculation of numerical data. They functioned hierarchically, with large mainframes designed for solving pre determined problems or processing data according to predetermined procedures. […] The development of computer graphics […] marks a reorientation of computer science toward the object world such that it could be made subject to computational forms of simulation, transforming the computer from a tool for procedural calculation into a medium structured by a distinct ontological claim.« 71 Gaboury bezieht sich mit dem Hinweis, das objektorientierte Programmierparadigma habe den Computer zu einem Medium gemacht, auf den Medienkünstler und -theoretiker Casey Alt. Zentral ist für Alt und seine These der Informatiker Alan Kay, der den Begriff ›objektorientiert‹ in den 1970er Jahren bei der Entwicklung seiner Programmiersprache Smalltalk erstmals geprägt hat und auf den zugleich zurückgeht, mit dem ›Dynabook‹ den ersten Prototypen eines Laptops konstruiert zu haben.72 Wie Gaboury anschließend erläutert, ist der reziproke Kreislauf von ›echten‹ und ›virtuellen‹ Objekten nur durch den in seinem Zitat angedeuteten Paradigmenwechsel vom prozeduralen zum objektorientierten Programmieransatz überhaupt möglich geworden.73 Anders als bei Gaboury, der sich hauptsächlich auf das objektorientierte Paradigma fokussiert,74 werden die beiden Ansätze im Rahmen der vorliegenden Untersuchung in ausführlicher Weise gegenübergestellt.75 Ähnlichkeiten zu Gaboury ergeben sich in der vorliegenden Untersuchung aber in Bezug auf die Beobachtung, dass der neuere objektorientierte Ansatz erhebliche und heute noch relevante Änderungen mit sich brachte. Doch während Gaboury diese Neuerungen zum Anlass nimmt, den Image Objects eine eigenständige Medialität zuzuschreiben, die sich nicht an vorangegangenen Medien orientiert, kommt die vorliegende Untersuchung zu dem gegenteiligen Schluss, dass erst durch das objektorientierte Programmierparadigma möglich wurde, Konzepte und Weltbilder in die Software und damit in unseren alltäglichen Umgang
71 Gaboury (2021): S. 6–7. Herv. i. O. 72 Vgl. Casey Alt: Objects of Our Affection. How Object Orientation Made Computers a Medium. In: Media Archaeology. Approaches, Applications, and Implications. Hrsg. v. Erkki Huhtamo und Jussi Parikka. Berkeley, CA: Palo Alto, CA: University of California Press, 2011, S. 278–301, hier S. 284–285. Vgl. zudem Gaboury (2021): S. 17, S. 141 und S. 209. Alt stellt den objektorientierten Ansatz über zeugend in den Kontext der Systemtheorie und der Kybernetik. Aus produktionsästhetischer Per spektive lassen sich hingegen keine expliziten und unmittelbaren Bezüge zu den Feldern erkennen, weshalb diese in der vorliegenden Studie nicht thematisiert werden. Vgl. Alt (2011): S. 280–281. 73 Vgl. Gaboury (2021): S. 7. 74 Gaboury liefert zum prozeduralen Programmierparadigma in Gegenüberstellung zu dem objekt orientierten Ansatz eine kurze Erläuterung und veranschaulicht beide Systeme zusätzlich mit einer schematischen Darstellung. Vgl. ebd., S. 127–129. 75 Vgl. Kapitel 2.1.2 Entwickler und Anwender – Ein neues Spannungsfeld und 2.2 Parallelentwicklungen – Der Computer in der bildenden Kunst und im Design der 1960er Jahre.
33
34
Scheler: Computergrafik
hineinzutragen. Obwohl Gaboury die ›mediale Eigenständigkeit‹ der Image Objects an das objektorientierte Programmierparadigma knüpft und sich dabei zugleich auf Alts These stützt, Kay habe den Computer medialisiert, stellt Alt selbst heraus, inwiefern das objektorientierte Paradigma erst dazu führt, dass Praktiken und Ideologien in die heutige Softwareumgebung gelangen. Wie Alt betont, sei das neue Programmierparadigma von Kay immerhin bewusst konzipiert worden, um glaubwürdige Simulationen zu erzeugen. Kays eigentliche Idee war es, dass jede Person Programme nach eigenen kreativen Vorstellungen erstellen kann, und er selbst bedauert, dass sein System sich nicht in diese offene Richtung entwickelt habe: »In the end, the greatest irony of object orientation may be that no one was more disturbed by its voracious, all-consuming logic than Alan Kay himself, who, only a few years after creating Smalltalk, actively lobbied for its destruction.«76 Gabourys Argument, die objektorientierte Struktur der Image Objects führe zu einer neuen Medialität, die an kein früheres Konzept anknüpfe, lässt sich nicht nur mit Alt, sondern von dem Erfinder des Konzepts selbst demzufolge widerlegen. Auf welche Weise sich die hier nur angedeutete von Alt beschriebene Dynamik entwickelt hat, wird im Rahmen der Studie in einer umfangreichen produktionsästhetischen Untersuchung aufgezeigt. Um Alts Erkenntnisse zum objektorientierten Ansatz hierbei noch vertiefen zu können, wird ein besonderer Fokus auch auf prozedurale Vorgänge gelegt, denn diese kamen ebenfalls zum Einsatz, um Computergrafiken zu erzeugen. Die produktionsästhetische Gegenüberstellung beider Programmieransätze und die Art, wie sie für die synthetische Bilderzeugung zum Einsatz kommen, bilden eines der Hauptanliegen der vorliegenden Studie. Alan Kay wird hierbei allerdings in den Hintergrund gestellt, vielmehr werden vorangegangene Entwicklungen aufgezeigt, an die er mit seinen Ideen in den 1970er Jahren anknüpft. Wie sich nun abzeichnet, wählt Gaboury für seine Untersuchung ebenfalls einen historischen Blickwinkel, um die 3D-Grafik als Image Object zu charakterisieren. Mit seiner historischen Aufarbeitung der Entstehung von Grafiksoftware und -hardware legt er eine überaus aktuelle und umfassende Geschichte der Computergrafik vor.77
76 Alt (2011): S. 299. Manovich, der die Definition des Computers als Metamedium ebenfalls in zentra ler Weise an Alan Kays Entwicklungen knüpft, argumentiert ähnlich wie Gaboury. Auch Manovich genügt das Konzept für Remediation nicht, um die Ausdrucksweisen des Computers zu bestim men. Manovich stützt seine Argumente auf Aussagen Alan Kays, allerdings ohne zu berücksichti gen, dass dieser sich von der Eigendynamik abgrenzt, die seine eigenen Errungenschaften im späte ren Verlauf der Softwareentwicklung hervorgerufen haben. Auch Casey Alts Erkenntnisse beachtet Manovich nicht, stattdessen geht er davon aus, Kays Visionen hätten sich ohne Einschränkung er füllt. Vgl. Manovich (2013): bspw. S. 162. 77 Eine auf den Tag genau zeitgleich mit Gaboury erschienene Veröffentlichung befasst sich ebenfalls mit historischen Entwicklungen im Bereich der Computergrafik, allerdings aus dem Anliegen heraus, die Geschichte des Pixels nachzuvollziehen. Der Autor dieser Arbeit, Alvy Ray Smith, war gemeinsam mit Edwin Catmull an der Gründung der Pixar Animation Studios beteiligt. Er nimmt dadurch selbst in der Geschichte der Computergrafik eine zentrale Rolle ein, weshalb er im Rahmen der vorliegenden Studie als Teil des Untersuchungsgegenstands aufgefasst und in dieser Funktion punktuell erwähnt wird. Erkenntnisse aus seiner Monografie, die für das vorliegende Anliegen relevant sind, werden an entsprechenden Stellen aufgegriffen. Er versucht in seinen historischen Ausführungen umfassend vorzugehen. Gleichwohl bearbeitet er historische Fakten zum Pixel häufig aus mathematischer Per spektive. Bei der Darstellung der jüngeren Geschichte des Pixels verharrt er bei Beispielen aus dem Bereich der populärkulturellen Computergrafik und Computeranimation, statt in die Bereiche des
Einleitung
Die Archivmaterialien, mit denen er arbeitet, weisen zu denen, die auch in der hier vorgenommenen Geschichtsschreibung untersucht werden, eine erhebliche Schnittmenge auf. Da Gaboury seine Forschung erst kurz vor Abschluss der vorliegenden Studie veröffentlicht hat, wird offenkundig, dass die Bearbeitung des Forschungsgegenstands durch Gaboury und parallel durch die vorliegende Studie in überlappenden Zeiträumen und unabhängig voneinander zum ersten Mal in so umfassender Weise erfolgt ist. Diese Parallelität zeigt zum einen, wie relevant der Forschungsgegenstand ist, zum anderen zeigen die Ergebnisse der Studien, wie unterschiedlich Forschungsmaterialien interpretiert und gelesen werden können, wenn sich das grundsätzliche Forschungsanliegen sowie die Methode jeweils unterscheiden. Die nachfolgenden Ausführungen können aufzeigen, weshalb Gaboury mit seinem Untersuchungsansatz zu dem Schluss kommt, es habe keine Remediation stattgefunden, wenngleich schon jetzt vorweggenommen werden kann, dass sich mit der produktionsästhetischen Methode durchaus aufdecken lässt, inwiefern andere bildgebende Medien und damit verknüpfte Bildvorstellungen Einzug in die Grafiksoftware erhalten haben. Sowohl für Gaboury als auch für die vorliegende Studie sind die Entwicklungen, die sich in den 1960er und 1970er Jahren an der University of Utah zugetragen haben, in besonderer Weise zentral, wobei Gabourys Blick sogar in die 1980er Jahre reicht. Der Fokus liegt sowohl bei ihm als auch in der vorliegenden Untersuchung auf dem dort durchgeführten Forschungsprojekt Graphical Man/Machine Communications sowie auf den im Zuge dessen angefertigten Dissertationen und Forschungspapers. Interessant ist, dass diese beiden unabhängig voneinander und parallel entstandenen Studien trotz der unterschiedlichen Deutungen, die sie vornehmen, insgesamt eine überaus übereinstimmende geschichtliche Entwicklung nachzeichnen. Den Ursprung heutiger Grafiksoftware führt auch Gaboury im Kern nicht nur auf Entwicklungen in den USA allgemein, sondern speziell auf das Projekt an der University of Utah zurück. Den Einf luss der dort erfolgten Forschung fasst er folgendermaßen zusammen: »In the period from roughly 1965 to 1980, the faculty and graduates of the Utah pro gram were responsible for no less than inventing the very concepts that make modern computer graphics possible, and many of the school’s graduates went on to become industry leaders in the field of computing in the second half of the twentieth century. The founders of Pixar, Adobe, Silicon Graphics, Netscape, Atari, and WordPerfect were all students at Utah during this period, and dozens of key researchers at Xerox PARC, NASA’s Jet Propulsion Laboratory, the New York Institute of Technology, and Industrial Light & Magic all began their careers in Salt Lake City. The University of Utah was the epicenter of graphical development for the first fifteen years of the discipline, and its archives and papers form the foundation of this book.« 78 Films oder des Gamings zu blicken. Seine Erläuterungen zu den technischen Eigenschaften des Pixels sind prinzipiell jedoch auf alle diese Bereiche anzuwenden. Er unterscheidet generell zwischen jenen Pixeln, die aufgenommen wurden, wie etwa bei digitalen Fotografien, und jenen Pixeln, die synthe tisch erzeugt werden (›take and make‹). Seine Entscheidung, vor allem die letztere Anwendungsmög lichkeit in den Blick zu nehmen, begründet er damit, dass er an dieser Entwicklung selbst beteiligt war. Vgl. Alvy R. Smith: A Biography of the Pixel. Cambridge, MA: MIT Press, 2021, S. 6–7. 78 Gaboury (2021): S. 6. Auffällig ist, dass Gaboury die Entwicklungen an der University of Utah als ver nachlässigt betrachtet. Vgl. ebd., S. 5–6 und S. 21. Seine Einschätzung lässt sich nur damit erklären,
35
36
Scheler: Computergrafik
Der Umgang mit dem Forschungsmaterial, auf das Gaboury hier noch einmal verweist und das wie erwähnt in weiten Teilen ebenfalls die Grundlage der vorliegenden Studie bildet, fällt bei Gaboury wesentlich umfassender aus. Seine Geschichtsschreibung versucht in der Breite alle Entwicklungen und technischen Gegebenheiten präzise einzuschließen. Im direkten Vergleich zur vorliegenden Untersuchung nimmt Gaboury mit diesem Vorgehen einen wesentlich größeren Untersuchungsradius ein, doch zugleich verliert er durch seinen Anspruch, eine allumfassende Geschichte vorzulegen, gelegentlich Details aus den Augen, denen wiederum etwa in der vorliegenden Untersuchung besondere Aufmerksamkeit geschenkt wird.79 Dieser Vorwurf der Ungenauigkeit ließe sich allerdings auch umkehren, denn mit dem produktionsästhetischen Zugriff der vorliegenden Studie wird die Geschichte der Computergrafik keinesfalls allumfassend dargestellt. Obwohl also die vorliegende Studie im Detail oft präziser ist als Gabourys Ansatz, ließen sich viele der hier beschriebenen Entwicklungen mit Gaboury in einem größeren Kontext verorten. Der unterschiedliche Umgang mit dem geschichtlichen Material ist letztendlich dem Blickwinkel beider Studien geschuldet. Denn während Gaboury bei den technischen Bedingungen ansetzt, wählt die vorliegende Studie ihren Ausgangspunkt bei den Menschen, die mit der Technik gearbeitet oder sie entwickelt haben. Mit Gabourys eigenen Worten lassen sich die Auswirkungen dieser grundsätzlichen Entscheidung darlegen, denn allein durch diesen gesetzten Startpunkt kommt Gaboury zu Schlüssen, die denen der vorliegenden Studie konträr gegenüberstehen: »I ask not simply how computer graphics developed over the second half of the twen tieth century, or who helped shape the discipline through research and innovation, but rather what historical technologies structured and limited the field as it evolved, and how those technologies continue to determine the ways we engage with computatio nal images today.« 80
dass er einzelne Studien, die sich mit der Forschung an der University of Utah ebenfalls umfassend beschäftigt haben, nicht nennt, so etwa die historische und praxisorientierte Studie Rigging the World – 3D Modeling and the Seduction of the Real von Rebecca Perry und die ältere geschichtliche Darstellung The Algorithmic Image von Robert Rivlin. Vgl. Rebecca A. Perry: Rigging the World. 3D Modeling and the Seduction of the Real. Dissertation am Massachusetts Institute of Technology, Boston, MA: History, Anthropology, and Science, Technology and Society, MIT Libraries, 2014, und vgl. Robert Rivlin: The Algorithmic Image. Graphic Visions of the Computer Age. Redmond, WA: Mi crosoft Press, 1986. Auch der von Gaboury selbst angeführte Tom Sito liefert in seiner Geschichts schreibung zur Computeranimation umfangreiche Erläuterungen zu den an der University of Utah entstandenen technischen Errungenschaften. Vgl. Tom Sito: Moving Innovation. A History of Com puter Animation. Cambridge, MA: MIT Press, 2013. 79 Beispielhaft lässt sich diese Beobachtung an einer Aussage Gabourys zu dem Computergrafikpio nier William A. Fetter darlegen. Während Gaboury Fetter als Beispiel für das Umdenken anführt, das den Wandel vom prozeduralen zum objektorientierten Programmierparadigma eingeleitet habe, ergibt eine produktionsästhetische Untersuchung von Fetters Vorgehensweise, dass er die Computergrafiken, auf die Gaboury verweist, mithilfe des prozeduralen Programmierparadigmas erstellte. Vgl. Gaboury (2021): S. 12–17, und Kapitel 2.2.2 William A. Fetter – Der Computer als Mittel zum Zweck in der vorliegenden Studie. 80 Gaboury (2021): S 4–5.
Einleitung
Während die vorliegende Studie an den letzten Aspekt dieser Aussage ebenfalls anknüpft und die Frage stellt, wie sich die damals entwickelte Technologie heute noch auswirkt, geht sie nicht davon aus, dass die Arbeit der Entwickler von den technologischen Bedingungen strukturiert wurde, sondern vielmehr davon, dass die Forscher ihre Technologie nach spezifischen Vorstellungen entwickelt und solange vorangetrieben haben, bis ihr Ziel erreicht war – ein Prozess, der zudem heute noch nicht abgeschlossen ist, wie Gaboury übrigens selbst anmerkt.81 So beobachtet er etwa eine »quest for realism«82, die auch aktuell die Forschung noch motiviere. Darüber hinaus spricht er auch von einer übergreifenden Vision, die in der Wissenschaft für die Entwicklung computergrafischer Verfahren notwendig gewesen sei.83 Da Gaboury jedoch bei der Technik ansetzt, erfolgt keine Auseinandersetzung mit der Frage, welche tieferliegenden Motive hinter diesen gemeinsamen Zielen etwa auch bei einzelnen Personen in der Geschichte liegen könnten. In einer Fußnote, in der er eine Anmerkung zu seiner Methodik ergänzend erläutert, wird deutlich, dass ihm bewusst ist, welche Risiken seine Entscheidung, von einer menschenzentrierten Fokussierung abzusehen,84 mit sich bringen kann: »This focus on objects rather than the culture of the people that produced them runs the risk of erasing the agency of human subjects and the deeply political context in which these objects were produced, used, and circulated. As media historian Laine Nooney suggests, ›Media archaeology so often ignores: human specificity, the way enactments of power fall upon certain types of bodies more than others.‹ My hope is that this book creates a space for precisely this work by attending to the material conditions for the emergence of early computer graphics while opening a space for research that expands on the historical articulation of computer graphics within cul tures and communities of practice.« 85 Gabourys Entscheidung, statt beim Menschen bei der Technik anzusetzen, führt schließlich zu einer Dynamik, die es der vorliegenden Studie ermöglicht, Gaboury und seine Geschichtsschreibung als Teil des hier untersuchten Paradigmas zu begreifen, denn auffällig ist, dass Gaboury sich in seiner Darstellung der technologischen Entwicklung nicht von dem Geschehen selbst distanziert, sondern die Entwicklungen 81 Vgl. ebd., S. 28. 82 Ebd., S. 27. Als besonders einflussreich für das Streben nach Realismus stuft Gaboury Ivan E. Suther lands Aufsatz The Ultimate Display ein, in dem er die Vision einer vollkommen immersiven Nachbil dung unserer physischen Realität illustrativ ausformuliert. Eine eingehende Auseinandersetzung mit einem möglichen Realismus-Begriff nimmt Gaboury nicht vor. Vgl. Ivan E. Sutherland: The Ulti mate Display. In: Information Processing 1965. Proceedings of IFIP Congress. Teil 2. 2 Bände. Hrsg. v. Wayne A. Kalenich. Washington D.C., u. a.: Spartan, 1965, S. 506–508. Sutherland nimmt im Rahmen der vorliegenden Studie eine zentrale Rolle ein, sein Beitrag The Ultimate Display tritt hierbei jedoch in den Hintergrund. 83 Vgl. Gaboury (2021): S. 32–33. 84 Vgl. ebd., S. 5–6. 85 Ebd., S. 204. Gaboury zitiert hier Laine Nooney: A Pedestal, A Table, A Love Letter: Archaeologies of Gender in Videogame History. In: Game Studies 13/2, 2013. URL: http://gamestudies.org/1302/arti cles/nooney. Zugriff am: 05.12.2021. In den Abschlussbetrachtungen der vorliegenden Studie wird erneut diskutiert, weshalb die Untersuchung statt etwa posthumanistischen Ansätzen eine men schenzentrierte Perspektive als Ausgangspunkt setzt.
37
38
Scheler: Computergrafik
als selbstverständlich und sogar notwendig betrachtet. Beispielhaft lässt sich dieser Eindruck an einer technischen Erläuterung darlegen, die Gaboury zum Phänomen des sogenannten ›Hidden Surface Problems‹86 anführt, welches punktuell auch im späteren Verlauf der vorliegenden Studie relevant wird. Es handelt sich hierbei um die Berechnung von virtuellen Modellen als opake, also nicht durchsichtige Objekte und damit um einen Vorgang, der zu Beginn der computergrafischen Bestrebungen eine große Herausforderung darstellte. Heute ist diese Funktion im Umgang mit 3D-Grafiksoftware – wie im Folgekapitel dargelegt wird – selbstverständlich: »The hidden surface problem is significant not only because it is such a crucial challenge for the nascent field of computer graphics but because it also forms the basis of a much larger set of concerns for computational visualization. Without an understanding of the opacity of an object, the shape of its surfaces, and their relation to one another, it is im possible to accurately model their interaction with a given environment. Shading, light ing, shadow, collision, and any number of additional effects are dependent on a suitable means of identifying and describing the structure of an object, and a hidden surface algorithm is the first step in calculating a reasonably efficient means to do so since it produces data for each significant point of an object that may be compared against sur rounding points and processed through additional visualization algorithms.« 87 Die von Gaboury hier angesprochenen Phänomene des ›Shadings‹, des Lichts und auch des Schattenwurfs werden von ihm nicht als solche hinterfragt, allerdings stellt diese Absicht im Gegensatz zur vorliegenden Studie auch nicht das Anliegen seiner Untersuchung dar. Ein Aspekt, der den Eindruck weiter bestärkt, dass Gaboury nicht aus dem im Rahmen der vorliegenden Studie untersuchten Paradigma heraustritt, liegt in der Tatsache, dass er in seiner Monografie nicht auf parallele Entwicklungen verweist, wie sie sich etwa in Frankreich ereignet haben. Zu nennen ist hier insbesondere die Software Anyflo des Computerkünstlers Michel Bret, die er seit 1985 entwickelt88 und die stets in einer aktuellen Version kostenlos als Download auf seiner Webseite verfügbar ist. In seinem 1991 veröffentlichten Aufsatz Tools for Artists erläutert er, weshalb er eine eigene Software entworfen hat: »Artists seldom have the choice other than to put up with softwares which they did not develop or to build their own tools. The first choice, being by far the most frequent one, has left most of them hopeless. The second one really affects a small amount of crea tive people. […] In order to give the creators immediate access to the synthesis standard methods, with out rewriting everything and without being dependent of aesthetic choices made or not, I have designed the ANYFLO software which is an interactive open system built around an interpreter.« 89 86 Weitere Bezeichnungen, die für das Phänomen verwendet werden, lauten ›Hidden Surface Algo rithm‹ beziehungsweise ›Hidden Line Algorithm‹. 87 Gaboury (2021): S. 46. 88 Vgl. Michel Bret: Anyflo philosophy. 07.04.2015. URL: https://anyflo.com/distribution/distribution_ eng/env/philosophie.htm. Zugriff am: 05.12.2021. 89 Michel Bret: Tools for Artists. In: Computer Animation ’91. Hrsg. v. Nadia Magnenat Thalmann und Daniel Thalmann. Tokyo: Springer Japan, 1991, S. 187–195, hier S. 187–188. In dem Bewusstsein, dass
Einleitung
Ein Beispiel für die ästhetischen Entscheidungen, die Bret hier anspricht, liefert er in seinem 1994 erschienenen Aufsatz L’artiste et l’ordinateur. Hier merkt er an, dass die allgemein verfügbaren Programme zur Erzeugung synthetischer Bilder ausschließlich ermöglichen, in einem virtuellen Raum zu arbeiten, der zentralperspektivisch kon struiert ist, um darin Objekte mit glatten und makellosen Oberf lächen zu erzeugen.90 Die Aspekte des Shadings, des Lichts und des Schattens, die alle zu der Ästhetik dieser von Bret beschriebenen Objekte beitragen, sind demnach keine Notwendigkeit bei der synthetischen Bilderzeugung. In ihrer Studie Le Réalisme dans l’image informatique aus dem Jahr 2001 bezeichnet die Kunstwissenschaftlerin Ondine Bréaud die makellosen 3D-Grafiken sogar als Verbindung »entre la science et le kitsch!«91 Im Gegensatz zu Bréaud werden die ästhetischen Vorstellungen, vor deren Hintergrund die heute kommerziellen 3D-Grafikprogramme entstanden sind, in der vorliegenden Studie zunächst nicht bewertet, doch zeigt sich an dem hier angedeuteten französischen Diskurs zum synthetischen Bild, dass es auch möglich ist, aus dem Paradigma her auszutreten und die synthetische Bilderzeugung ›von außen‹ zu betrachten. Eine eingehendere Auseinandersetzung mit den computertechnologischen Entwicklungen Brets erfolgt im Rahmen der vorliegenden Studie nicht. Im Fokus stehen wie dargelegt einerseits jene Ansätze, die den Weg in die heutige Software gefunden haben, sowie andererseits parallele Ansätze, die ebenfalls in den USA entstanden sind, bei der künstlerischen Arbeit mit dem Computer die Maschine stets an kreativen Entscheidungen beteiligt ist, setzt sich die Computerkünstlerin Anne-Sarah Le Meur in ihrer Studie Création artistique en image de synthèse. Expression de la corporéité sowohl anhand kreativer Arbeiten anderer als auch anhand ihrer eigenen künstlerischen Praxis intensiv mit dem künstlerischen Schaffensprozess am Computer auseinander. Brets Software Anyflo spielt in ihrer Untersuchung sowie in ihrer künstleri schen Arbeit eine zentrale Rolle. Vgl. Anne-Sarah Le Meur: Création artistique en image de synthèse. Expression de la corporéité. Dissertation, Paris: Université de Paris VIII, 1999, S. 11, 95 und S. 360–361. 90 Vgl. Michel Bret: L’artiste et l’ordinateur. In: Les images numériques. Créations françaises. Hrsg. v. Dai sy Hochart. Condé-sur-Noireau: Ed. Corlet-Télérama (CinémAction TV, 10), 1994, S. 64–68, hier S. 68. 91 Ondine Bréaud: Le Réalisme dans l’image informatique. Étude des années 1980 et 1990. Paris: Har mattan, 2001, S. 114. In ihrer Studie untersucht Bréaud den Realismus synthetischer Bilder auf bild ästhetischer Ebene. Zentral ist für sie das Verhältnis zwischen den kommerziellen realistischen Bildern der 1980er und 1990er Jahre und der Computerkunst aus derselben Zeit. Die Vorstellung eines Bruchs mit vorherigen Ausdrucksmitteln lehnt sie ab, weshalb sie zunächst das Anliegen ver folgt, herauszufinden, inwiefern die am Computer erzeugten Bilder in einer bestimmten Tradition voriger Bilderzeugung stehen. Sie ordnet den Realismus der kommerziellen Bilder ein, indem sie Vergleiche zur Werbeindustrie zieht. Ihrer Auffassung nach handele es sich um eine Zeit, in der nichts gezeigt werden dürfe, was alt oder schmutzig ist – selbst der Golf-Krieg werde sauber und blutlos in den Medien dargestellt und auch Schönheitsoperationen erlebten damals einen Boom. Die synthetischen Bilder lenkten ebenso von der Wahrheit ab wie die Werbefotografie. Auch Bezü ge zur US-amerikanischen fotorealistischen Malerei stellt sie her, doch deren Bilder erfüllten eben falls lediglich den Anspruch des Zeitgeistes. Bréaud fragt demzufolge nicht, warum sich alle diese Bilder ästhetisch stark ähneln. Sie fragt nicht nach einem tieferliegenden kulturellen Kontext der Computerbilder. Sie gelangt stattdessen zu dem Ergebnis, der Realismus der Bilder werde auf der einen Seite nur angestrebt, um die technologischen Möglichkeiten zu präsentieren, was – so ver mutet sie – auf der anderen Seite dazu führe, dass die Bilder, indem sie nur noch auf ihre Technik verwiesen, in einem selbstreferenziellen Kreislauf verharrten. Die Lösung für dieses Problem liegt für Bréaud darin, mit dem Computer nach einer Bildästhetik zu streben, die sich der Hyperrealität und der Transparenz des Mediums widersetzt. Vgl. Bréaud (2001): S. 16, 143–146 und S. 155–157.
39
40
Scheler: Computergrafik
jedoch nicht in den heutigen Programmen fortbestehen. Obwohl eine vergleichende Auseinandersetzung etwa mit Brets Software vermutlich sehr erkenntnisreich ausfallen würde, fiel in der vorliegenden Untersuchung die Entscheidung auf jene Entwicklungen, die eine größere geografische beziehungsweise zum Teil auch inhaltliche Nähe und damit auch eine bessere Vergleichbarkeit zu den Ansätzen aufweisen, die bis heute in der kommerziellen Software überdauern.92 Im Hinblick auf die von Bret und Bréaud hervorgebrachten Hinweise zur 3D-Software beziehungsweise zur Bildästhetik von 3D-Grafiken stellt sich nun die Frage, ob es möglich ist, die Untersuchung dieser Bilder und ihrer Erzeugung vollkommen aus den üblichen Diskursen zur mimetischen Bildgestaltung herauszulösen, so wie Gaboury es vorschlägt: »Popular discourses of realism and fidelity dominate our analy sis of digital image technologies, but are derived from uncritical appropriation of t hose formal qualities that have historically defined prior modes of image making.«93 Der Vorwurf, den Gaboury hier formuliert, hat beispielsweise vor dem Hintergrund von Brets Beobachtungen keinen Bestand, denn dieser setzt sich nicht nur kritisch, sondern als Computerkünstler auch fachkundig mit der in der kommerziellen Software fest verankerten Bildlichkeit auseinander. Grundsätzlich nimmt Gaboury mit seinem Wunsch, nicht ausschließlich die bildliche Ebene der Computergrafiken zu beachten, eine Haltung ein, die dem Anliegen der vorliegenden Studie entspricht. Doch obwohl sich hier einerseits eine Schnittmenge abzeichnet und es lohnend ist, neue Untersuchungsverfahren für das Phänomen der computergrafischen Bilderzeugung zu entwickeln, betrachtet die vorliegende Studie die 3D-Technologie andererseits zunächst einmal als Bildgebungsverfahren. Der Grund dafür liegt erneut in dem produktionsästhetischen Blickwinkel, denn dieser offenbart, wie auch Brets Anmerkungen verdeutlichen, dass Aspekte wie visueller ›Realismus‹ nicht zufällig Teil der 3D-Computergrafiken wurden, sondern aus einem beabsichtigten und begründeten Motiv der Entwickler hervorgehen. Auch Gabourys Kritik an Ansätzen, die die Computergrafik auf bestehende Techniken wie etwa die perspektivische Projektion überprüfen, sowie sein Hinweis, eine Auseinandersetzung mit zentralperspektivischer Konstruktion habe bei der Entwicklung der Computergrafiken nicht stattgefunden,94 hat vor dem Hintergrund einer produktionsästhetischen Untersuchung keinen Nährboden, denn auch hier gilt, dass eine Untersuchung der Arbeitsprozesse und Entscheidungen aufzeigen kann, inwiefern die perspektivische Konstruktion für die Erzeugung von Computergrafiken in aufwändigen und sehr bewussten Abwägungsprozessen in die Softwareprozesse integriert wurde. Der gewählte produktionsästhetische Untersuchungsansatz entspricht also zwar dem Wunsch Gabourys, die Bilder nicht nur anhand ihrer Oberf läche zu analysieren, doch erfüllt sie diesen Anspruch, ohne aus dem Blick zu verlieren, dass 3D-Grafiken oft auch repräsentative und perspektivisch konstruierte Bilder bleiben und nicht jede offene Programmdatei dazu bestimmt ist, ein Alltagsobjekt zu werden. Der in dieser 92 Eine präzisere Erläuterung dieser Entscheidung erfolgt erneut zu Beginn der entsprechenden Ka pitel. Vgl. hierzu insbes. Kapitel 2.2 Parallelentwicklungen – Der Computer in der bildenden Kunst und im Design der 1960er Jahre. 93 Gaboury (2021): S. 11. 94 Vgl. ebd., S. 23 und S. 35.
Einleitung
Studie verfolgte Ansatz kann also als Alternative oder auch als Ergänzung zu Gabourys Untersuchung verstanden werden, die einen sehr zentralen Beitrag dazu leistet, Computergrafiken nicht mehr aus bild- und rezeptionsästhetischer Perspektive zu begegnen. Zugleich wird anhand Gabourys Studie die Tragweite der vorliegenden Untersuchung deutlich, denn wenngleich er diesen Aspekt nicht beachtet, so zeigt sich anhand seiner Studie, dass die Weltbilder und Konzepte von Bildlichkeit, die in der Software verankert sind, nicht nur jede damit erzeugte 3D-Grafik auszeichnen, sondern ebenfalls zahlreiche Objekte und Gegenstände unserer direkten physischen Alltagsumgebung. Die letzte Studie, die im Rahmen dieses Forschungsstands vorgestellt werden soll, ist aus dem Jahr 2015 und trägt, wie eingangs genannt, den Titel Builders of the Vision. Sof tware and the Imagination of Design. Der kolumbianische Autor der Monografie, Daniel Cardoso Llach, wendet sich darin als Architekt der Frage zu, mit welchen Vorstellungen die Software für Computer Aided Design, kurz CAD, die heute in seiner Disziplin regelmäßig zum Einsatz kommt, entwickelt wurde, denn »seeing software systems as infrastructures situates them as cultural artifacts within economic, institutional, and political frames, and as embodiments of their makers’ worldviews, ambitions, and desires.«95 Ähnlich wie in der vorliegenden Studie interessiert ihn demnach, welche Weltbilder sein Handeln als Architekt prägen, wenn er mit der Software arbeitet. Der von Cardoso Llach hier verwendete Begrif f des kulturellen Artefakts soll für die vorliegende Studie aufgegriffen werden. Die Antworten auf seine Fragen sucht Cardoso Llach in der geschichtlichen Entwicklung der Architektursoftware. Er liefert damit eine der wenigen Studien, die technologische Entwicklungen und Zusammenhänge nicht nur beschreiben, sondern die ebenso danach fragen, warum sie auf eine bestimmte Weise entwickelt wurden. Sein Anliegen ist demnach direkt mit dem der vorliegenden Studie verwandt. Auch methodisch lassen sich Parallelen aufzeigen, denn in weiten Teilen weist seine Studie produktionsästhetische Untersuchungsansätze auf, obwohl er mit dem Begrif f selbst nicht arbeitet. Ein wesentlicher methodischer Unterschied zur vorliegenden Studie liegt allerdings darin, dass Cardoso Llach zusätzlich zu seinen produktionsästhetischen Erkundungen eine Einordnung in einen sehr umfassenden historischen Kontext vornimmt, der zunächst einmal bei Leon Battista Alberti in der Renaissance ansetzt, jedoch punktuell um Erkenntnisse aus dem antiken Griechenland und dem antiken Rom ergänzt wird.96 Anhand dieser geschichtlichen Rahmung leitet er ein spezifisches Verständnis her, das sich in Bezug auf das Arbeitsfeld der Architektur spätestens in der Renaissance gebildet habe und welches eng mit der Vorstellung verknüpft sei, die geistige Entwurfsarbeit stehe über der materiellen, also über der handwerklichen Tätigkeit, die Gebäude tatsächlich zu errichten. Cardoso Llach nutzt für diese kulturelle Entwicklung häufig die prägnante Formulierung »mind over matter«97 und bezeichnet die Trennung, die hier zwischen der geistigen und praktischen Arbeit zum Ausdruck kommt, als »Albertian split«98. In Bezug auf die von Cardoso Llach nicht fokussierten 3D-Computergrafiken ist die Rückschau in die Renaissance 95 Cardoso Llach (2015): S. 4. 96 Vgl. ebd., S. 15 und S. 18. 97 Ebd., S. 1 98 Ebd., S. 1.
41
42
Scheler: Computergrafik
ein vertrautes Untersuchungsmuster, da die synthetischen Bilder – wie Gaboury angemerkt hat – häufig ebenfalls mit kulturellen Artefakten aus der Renaissance, hier speziell mit der zentralperspektivischen Konstruktion, verknüpft werden.99 Obwohl die vorliegende Studie diesen Weg bewusst nicht gehen möchte und stattdessen die bildkulturelle Entwicklung in den USA als kulturhistorischen Untersuchungsrahmen setzt, lässt sich das Prinzip des ›mind over matter‹ auch in dieser engeren Rahmung wiederentdecken.100 Eine weitere, wesentlich stärker ausgeprägte Verbindung zu seiner Studie liegt jedoch in dem konkreten Untersuchungsgegenstand, denn die von ihm erforschten – im Vergleich zur Renaissance – neueren geschichtlichen Entwicklungen zur Entstehung der Software sind ebenfalls in den USA angesiedelt. Zu einem nicht unerheblichen Teil führt Cardoso Llachs Studie sogar zu denselben historischen Personen, die auch in der vorliegenden Untersuchung eine zentrale Rolle einnehmen. Hier ist insbesondere der Ingenieur Steven A. Coons zu nennen, der in den 1950er und 1960er Jahren am MIT die CAD-Forschung in besonders aktiver Weise vorangetrieben hat. Sowohl für Cardoso Llach als auch für die vorliegende Untersuchung stellt er eine Schlüsselfigur dar.101 Der Grund für diese Überlappung liegt darin, dass rein geschichtlich die frühen computergrafischen Bemühungen eng mit den Entwicklungen im Bereich des CAD verwandt waren. Da jedoch Cardoso Llach Coons aus dem Blickwinkel der Architektur untersucht und die vorliegende Studie Coons im Hinblick auf ein Konzept von Bildlichkeit ergründet,102 können die Ergebnisse der vorliegenden Studie diesbezüglich als Ergänzung zu Cardoso Llachs Forschung betrachtet werden. Ein verbindendes Untersuchungsfeld, auf dem sowohl Cardoso Llachs Erkenntnisse zur heutigen Architektursoftware als auch die der vorliegenden Studie zur heutigen Grafiksoftware basieren, liegt in Coons’ Überlegungen, wie sich mit dem Computer kreativ arbeiten lasse. Diese Facette an Coons ist deshalb interessant, da er sich umfangreich damit befasst hat, wie und ob kreative Prozesse durch den Computer automatisiert werden können, weshalb sich in seinen Dokumenten zahlreiche Hinweise finden lassen, wie er über Kreativität und Design gedacht hat. Cardoso Llach zufolge waren Coons und seine Kollegen am MIT deshalb nicht einfach nur Ingenieure, die versucht haben, technische Probleme in den Griff zu bekommen, sondern »ambitious design theorists and philosophers reconfiguring the concept of design in computational terms.«103 Cardoso Llach bezeichnet Coons sogar als den Designtheoretiker des 20. Jahrhunderts,104 denn
99 Vgl. bspw. Bolter; Grusin (1999): S. 26. Bolter und Grusin weisen allerdings auch darauf hin, dass in den Computergrafiken die perspektivische Projektion mathematisch perfekt sei, während sie die sen Anspruch in der Renaissance nicht erfüllt habe. Manovich bezieht den Realismus der syntheti schen Bilder zudem auf den Aspekt der Mimesis und die von dem altgriechischen Künstler Zeuxis gemalten Trauben. Vgl. Lev Manovich: Synthetic Realism: The Mythology of Computer Graphics. In: Afterimage 20/2, 1992, S. 12–14, hier S. 14. 100 Vgl. Fn. 84 in Kapitel 5.2 Zum kulturhistorischen Hintergrund synthetischer Bilder der vorliegenden Studie, S. 320–321. 101 Vgl. Cardoso Llach (2015): S. xvi. 102 Vgl. insbes. Kapitel 2.3.1 Die Grafik als Gedankeninstrument. 103 Cardoso Llach (2015): S. xvi. 104 Vgl. ebd., S. 56.
Einleitung
»[w]hile Coons’s important contributions to computational geometry have been recog nized, his key role as a design technologist and theorist has so far been overlooked. […] [T]he fields of architecture and design have yet to recognize and understand how these early theories of computational design, developed outside the field of architecture, came to shape the technological landscapes architects and designers continue to in habit today.« 105 Die Ergebnisse der vorliegenden Studie können diese Erkenntnis Cardoso Llachs nicht nur bestätigen, sondern noch erweitern, denn das, was er in Bezug auf Coons beobachtet, konnte überhaupt nur aufgrund des zuvor beschriebenen Paradigmenwechsels vom prozeduralen zum objektorientierten Programmierparadigma eintreten – eine gedankliche Verknüpfung, die Cardoso Llach nicht in dieser Präzision herausarbeitet. Mit einer Auseinandersetzung, welche Rolle Coons für jenes Programmierparadigma spielt, lassen sich nicht nur Gabourys Hinweise zu diesem für die Computergrafik so zentralen Charakteristikum, sondern auch Cardoso Llachs Ergebnisse nachschärfen. Coons hat erkannt und ref lektiert, wie schwierig es ist, kreativitätstheoretische und computertechnologische Überlegungen zusammenzuführen. Cardoso Llach deutet diese Verbindung ebenfalls an, konzentriert sich jedoch vorrangig auf die gestalterische Ebene und stellt die computertechnologischen Rahmenbedingungen in den Hintergrund. Wie anhand Coons’ deutlich wird, stellt dieser in den geschichtlichen Entwicklungen nicht nur eine Schlüsselfigur dar,106 sondern auch den Punkt einer Weggabelung. Cardoso Llach merkt ebenfalls an, dass Coons nicht nur für die weiteren Entwicklungen im Bereich der Architektur zentral war, sondern dass er zudem Einf luss auf seinen Studenten Ivan E. Sutherland hatte.107 Dieser entwickelte 1963 das Grafikprogramm Sketchpad, das im Rahmen dieser Studie eine zentrale Rolle einnimmt und zugleich als Ausgangspunkt für Alan Kays Programmiersprache Smalltalk gilt.108 Kay und Sutherland trafen an der University of Utah im Rahmen des Forschungsprojekts Graphical Man/Machine Communications aufeinander, an dem Sutherland sich später als Kollege von Dave Evans beteiligte. Sein am MIT erlerntes Wissen gab Sutherland neben Kay auch an Edwin Catmull weiter, der später Gründungsmitglied der Pixar Animation Studios war.109 Beide, Sutherland und Coons, waren Mitglieder im Thesis Committee von Catmulls Dissertation.110 Auch die im Rahmen der vorliegenden Studie fokussierte populärkulturelle Landschaf t von 3D-Grafiken und ihrer Sof tware lässt sich demnach zu Coons zurückführen, doch wurde dieser Pfad der 105 Ebd., S. 54. 106 Auch Gaboury thematisiert den Einfluss Coons’, bezieht sich dabei allerdings lediglich auf den soge nannten ›Coons Surface Patch‹, ein mathematisches Berechnungsmodell zur computergestützten Darstellung geschwungener Oberflächen. Vgl. Gaboury (2021): S. 94–95. 107 Vgl. Cardoso Llach (2015): S. 71. 108 Vgl. Casey Alt: The Materialities of Maya: Making Sense of Object-Orientation. In: Configurations 10/3, 2002, S. 387–422, hier S. 409–410. 109 Vgl. bspw. Cardoso Llach (2015): S. 71–72. 110 Vgl. Edwin Catmull: A Subdivision Algorithm for Computer Display of Curved Surfaces. Disserta tion am Department of Computer Science, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1974, S. [i].
43
44
Scheler: Computergrafik
Weggabelung zumindest im Hinblick auf in der Sof tware verarbeitete Bildkonzepte bislang nicht tiefergehend beleuchtet. Während Cardoso Llach also Coons’ Einf luss auf die heutige Architektursoftware umfassend darlegt, soll mit der vorliegenden Untersuchung aufgearbeitet werden, welche Rolle Coons im Hinblick auf das Bildkonzept spielt, auf dem die heute für 3D-Grafiken zum Einsatz kommende Sof tware basiert, denn es ist anzunehmen, dass Coons nicht nur für den Bereich des CAD, sondern auch für den populärkulturellen Bereich relevant ist. Deutlich wird Coons’ Einf luss auf diesen Pfad der Weggabelung etwa in Rebecca Ann Perrys Studie Rigging the World – 3D Modeling and the Seduction of the Real, in der sie die Geschichte des virtuellen Modellierens nachzeichnet. Perry nimmt dabei selbst einen praktischen Blickwinkel ein, da sie neben ihrer historischen Forschungsarbeit ebenfalls in der Industrie als sogenannter ›3D-Artist‹ tätig ist.111 In ihrer Studie deutet sie zudem auf eine enge Verbindung zwischen Sutherland und Coons hin. Da ihr Fokus jedoch auf dem Bereich der virtuellen Modelle liegt, erfolgt auch bei ihr keine umfassende Auseinandersetzung mit der Bildlichkeit der 3D-Computergrafiken. Eine gezieltere Auseinandersetzung mit ihren Erkenntnissen erfolgt punktuell im weiteren Verlauf der vorliegenden Studie.112 Ähnlich wie es hier – sowie bei Perry – für den einen Zweig der Weggabelung erfolgt, zeichnet Cardoso Llach für den anderen Zweig die weiteren Entwicklungen nach, die sich im Anschluss an Coons’ Zeit am MIT ereignet und zur heutigen Softwareumgebung im Bereich der Architektur geführt haben. Die Ereignisse in Utah besitzen für ihn in diesem Anliegen keine Relevanz.113 Teil seiner Untersuchung ist zudem eine empirische Auseinandersetzung damit, inwiefern seine historischen Erkenntnisse sowie speziell Coons’ Handschrift in heutigen Arbeitskontexten im Bereich der Architektur überdauern und die Arbeit prägen. Gedankliche Basis dieser Untersuchung ist Cardoso Llachs grundsätzliche Annahme: »What the machine offers is not absolute freedom, but the freedom to create exactly what is af forded by the system’s multiple geometric, material, and computational constraints – that is, an infinitely small subset of objects.«114 Um also zu erkunden, inwiefern die Software die Arbeit häufig nicht etwa befreit, sondern oft sogar einschränkt, verbrachte der Autor elf Monate in Abu Dhabi und begleitete dort Bauprojekte als Architekt und Forscher. Wie er selbst darlegt, verfolgt er mit diesem Teil seiner Untersuchung nicht die Absicht, vollumfänglich zu erfassen, inwiefern seine Beobachtungen für Projekte weltweit gelten, in denen die Software zum Einsatz kommt. Vielmehr gewähren, so Cardoso Llach, die spezifischen Ergebnisse, die er mit seinen empirischen Untersu111 Der Begriff wird im nachfolgenden Kapitel erläutert. 112 Auch Alvy Ray Smith räumt Coons in seiner Biografie des Pixels eine zentrale Rolle ein und ver weist in diesem Kontext ebenfalls auf die gemeinsamen Wurzeln des CAD und der Computergrafik. Smith schränkt jedoch ein, dass es Coons nicht um Bilder gegangen sei, sondern vor allem darum, Objekte und Bauteile herzustellen. Vgl. Smith (2021): S. 263. Dass Coons gemeinsam mit seinem Kol legen John T. Rule ein umfangreiches Grafikhandbuch verfasst hat, erwähnt Smith nicht. Es wird in der vorliegenden Studie im Hinblick auf Coons’ Bildbegriff intensiv untersucht. Vgl. John T. Rule; Steven A. Coons: Graphics. New York, NY: McGraw-Hill Book Company, Inc., 1961. Vgl. zudem Kapitel 2.3.1 Die Grafik als Gedankeninstrument in der vorliegenden Studie. 113 Vgl. Cardoso Llach (2015): S. 73–84. 114 Ebd., S. xii.
Einleitung
chungen in Abu Dhabi vornimmt, einen beispielhaften Einblick in den kulturellen und historischen Prozess der Vereinheitlichung im Bauwesen durch die Verwendung von standardisierter Software.115 Diese Dynamik wird in Abu Dhabi besonders augenscheinlich: »Software infrastructures are part of larger political landscapes. The official represen tations of Abu Dhabi, as seen in advertisements, newspapers, and public exhibitions, seek to fashion the emirate’s capital as a global metropolis and as a hub of business and culture. This projected modernity is figured, as anthropologist Ahmed Kanna has pointed out, as a white European upper-class utopia.« 116 Cardoso Llach veranschaulicht diese von Kanna beschriebene Dynamik damit, dass in Abu Dhabi unter der Obhut weltbekannter Architektinnen und Architekten Bauprojekte angestoßen werden beziehungsweise bereits umgesetzt wurden, um etwa Zweigstellen des Guggenheim Museums, des Louvre oder auch der New York University zu errichten.117 Für Bauprojekte dieser Art kommt in der Regel nicht nur standardisierte Software zum Einsatz, sondern zusätzlich eine damit verknüpfte und von den Softwareentwicklern konzipierte Arbeitsinfrastruktur, bei der das 3D-Modell eines künftigen Gebäudes den zentralen Bezugspunkt für alle am Projekt beteiligten Personen darstellt.118 Cardoso Llachs Untersuchungen ergeben schließlich, dass in der Zusammenarbeit mit lokalen Bauunternehmen diese standardisierten Arbeitsabläufe nicht immer so ablaufen, wie sie konzipiert wurden, sondern häufig sogar unterlaufen und nicht ernst genommen werden.119 Insgesamt lassen sich mit diesen Einblicken in die Disziplin der Architektur und die standardisierten technologischen Prozesse, die in Regionen wie den Vereinigten Arabischen Emiraten zum Einsatz kommen, beinahe vorbildlich jene Hinweise von Hans Blumenberg veranschaulichen, mit denen er die Konsequenzen anspricht, die eintreten können, wenn Technologien in Regionen zum Einsatz kommen, in denen 115 Vgl. ebd., S. 8–9. 116 Ebd., S. 108. Cardoso Llach bezieht sich hier auf Ahmed Kanna: Dubai. The City as Corporation. Min neapolis, MN: University of Minnesota Press, 2011. Kannas Beschreibungen über den Einfluss west licher Traditionen auf die Stadtplanung in Dubai ließen sich – so Cardoso Llach – auch auf seine eige nen Erfahrungen und Beobachtungen übertragen, die er in Abu Dhabi machen konnte. Vgl. Cardoso Llach (2015): S. 111–112. 117 Vgl. Cardoso Llach (2015): S. 116–117. 118 Die Infrastruktur, die Cardoso Llach hier thematisiert, wird in der Architektur als Building Informa tion Modeling, kurz BIM, bezeichnet. Wie BIM konzipiert wurde und wie es mit der CAD-Software zusammenhängt, erklärt Cardoso Llach folgendermaßen: »Expressing an economic imperative to reduce the distance between design and manufacturing to increase industrial production, the renewed CAD discourse reimagined design and building practices entirely around a digital model placed at the center of a multidisciplinary array of actors. This ambition of centralized control un derpins the technology project known in industry today as Building Information Modeling (BIM) – essentially an effort towards standardized models containing all aspects of a building’s design in a three-dimensional description. By standardizing design descriptions, the BIM project indexes an infrastructural impulse to colonize and re-organize a vastly complex landscape of design and building practices and actors.« Cardoso Llach (2015): S. 86. 119 Vgl. Cardoso Llach (2015): S. 121–134.
45
46
Scheler: Computergrafik
sie nicht entstanden sind. Auch Cardoso Llach erfüllt also gewissermaßen Blumenbergs Wunsch, die Lücken in der Geschichte der Technologie zu schließen, um die Sprünge, die wir als Menschen damit machen, zu überwinden. Gelingen kann dies ausschließlich, so stellt es auch Cardoso Llach dar, wenn der Mensch den Ausgangspunkt der Untersuchung bildet. Die Technologie als autonome Instanz zu begreifen und den Menschen auszuklammern hält auch er für problematisch, da auf diese Weise diejenigen, die an der Gestaltung der Technik beteiligt waren, und die Konsequenzen, die an dem Einf luss dieser Personen haften, verborgen bleiben.120 Ebenso wie Cardoso Llach es für das Feld der Architektur of fenlegt, möchte die vorliegende Studie anhand der Geschichte der 3D-Grafiksoftware aufdecken, »how […] software is not merely an instrument of design but also a versatile metaphor – and a crucial infrastructure – reconfiguring conceptions of design, work, authorship, and what it means to be human.«121 Die Technologien, die wir Menschen selbst entwickeln und mit denen wir täglich hantieren, stellen demzufolge lediglich einen möglichen Weg dar, uns in der technisierten Welt zu bewegen. Ein Hauptanliegen dieser Studie ist es deshalb, die derart ubiquitär und häufig sogar unsichtbar zum Einsatz kommenden 3D-Grafiken sowie die Praxis, sie zu erzeugen, als »space of possibility«122, also als Möglichkeitsraum zu begreifen.
120 Vgl. ebd., S. 2. 121 Ebd., S. 1–2. 122 Ebd., S. xvii. Herv. i. O. Cardoso Llachs Formulierung erinnert hierbei an Annette Geigers Monogra fie Andersmöglichsein. Zur Ästhetik des Designs. Geiger beschreibt darin eine Designästhetik, die das Feld des Designs als einen Möglichkeitsraum definiert: »Alle Gestaltung beginnt mit der Feststellung, dass wir die Wahl haben, unsere Dinge und Medien, unsere Kommunikationen und Beziehungen, unsere Technologien, Ökonomien und Ökologien auch anders zu gestalten – denn sonst bräuchte man keine Entwerfer, die sich über die gute Wahl der Formen Gedanken machen. Design setzt so mit das Erkennen von gestalterischer Freiheit voraus, es gibt keine Zwangsläufigkeit, die zu einer einzig richtigen Form führen könnte.« Geiger, S. 15. Die Überlegungen der vorliegenden Studie, die sich zwar nicht mit dem Design von Technologie, jedoch mit der Gestaltung computerisierter Vor gänge befasst, antwortet demzufolge auf das von Geiger so betitelte Kapitel Mensch und Technik: Wer gestaltet wen? Vgl. Annette Geiger: Andersmöglichsein. Zur Ästhetik des Designs. Bielefeld: transcript, 2018, S. 103–126.
Einleitung
1.2
Inhaltliche Einführung
1.2.1
Starting from Scratch – Die Praxis der synthetischen Bilderzeugung
If you want to learn Maya, it might seem overwhelming at first. That’s okay, just remember to take it step by step.123 – Autodesk Maya® (2022)
Um an die zum Ende des letzten Kapitels aufgeworfene Begriff lichkeit anzuknüpfen, befasst sich dieses Kapitel mit der Frage, welchen Möglichkeitsraum die heute zur Verfügung stehende 3D-Grafiksoftware für die Praxis, 3D-Bilder zu erzeugen, anbieten kann. So wird nun aus praktischer Perspektive die Softwarelandschaft vorgestellt, deren Entwicklung in den folgenden Abschnitten ergründet werden soll. Nicht nur die Fragen, aus denen sich diese Studie entwickelt hat, stammen in direkter Weise aus der Praxis, sondern auch die Bedeutsamkeit der in den folgenden Abschnitten gewonnenen Erkenntnisse für die Praxis wird vor allem dann nachvollziehbar, wenn bekannt ist, auf welche Weise 3D-Computergrafiken in einer Grafiksoftware überhaupt erzeugt werden können. Im Fokus steht hierbei also jene Softwarelandschaft, die in kommerziellen Kontexten, also etwa für populärkulturelle Nutzungsmöglichkeiten oder auch für künstlerisch-experimentelle Zwecke zum Einsatz kommt. Es existieren zahlreiche verschiedene Programme von unterschiedlichen Konzernen, die sich jeweils in speziellen Einsatzgebieten etabliert haben.124 Eine erste Besonderheit, die diese Softwarelandschaft auszeichnet, ist ein damit verbundener Gemeinschaftssinn unter denjenigen, die damit arbeiten. Mit dieser Software umgehen zu können, bedeutet zugleich, Teil einer weltweiten Community zu sein, die sich oft auch in speziellen Foren im Internet zu Nutzungsweisen, neuen 123 Autodesk Maya Help: Learning Maya. Ohne Datum. URL: https://help.autodesk.com/view/MAY AUL/2022/ENU/?guid=GUID-4191EE54-4500-4FFC-BF29-BA6C1EAD9F58. Zugriff am: 21.01.2022. 124 Bei den nachfolgend aufgeführten Softwarepaketen handelt es sich um eine beispielhafte, jedoch nicht um eine vollumfängliche Auflistung aller Angebote. Besonders in der Spielfilmindustrie eta bliert ist das Programm Autodesk Maya, wobei Autodesk mit 3ds Max® auch eine vor allem im Ga ming-Bereich verwendete Software vermarktet. Vgl. bswp. Alt (2002): S. 395–396. Darüber hinaus existiert mit Maxons Cinema 4D auch ein in Deutschland entwickeltes Produkt und mit Blender eine nichtkommerzielle Open-Source-Plattform, die ihren Ursprung in den Niederlanden hat. Während Cinema 4D als besonders intuitiv in der Bedienung gilt, wie beispielsweise der Medienkünstler Mark Gmehling betont, wird Blender dafür geschätzt, als Open-Source-Software sehr umfangreich um neue Anwendungsmöglichkeiten erweiterbar zu sein. Vgl. Carolin Scheler: Ein Atelier im virtuellen Raum. 3D als Ausdrucksmedium. Masterarbeit an der Fakultät III – Design und Medien, Hannover: Hochschule Hannover, 2015, S. 102; vgl. Blender Foundation: History. Ohne Datum. URL: https:// www.blender.org/about/history/. Zugriff am: 08.12.2021; vgl. Blender Foundation: Japanese anime studio Khara moving to Blender. 15.08.2019. URL: https://www.blender.org/user-stories/japaneseanime-studio-khara-moving-to-blender/?utm_source=www-homepage. Zugriff am: 09.12.2021.
47
48
Scheler: Computergrafik
Verfahren und Anwendungstipps austauscht. Perry ist in ihrer Forschung bei der Durchführung zahlreicher Interviews zur Praxis des virtuellen Modellierens diesem Gemeinschaftssinn begegnet: »Though they [die Interviewpartner] are geographically widely dispersed, and may work either alone or in groups nearly the size of small cities, almost without exception they described themselves as belonging to a close, tight-knit community, where ›every one knows everyone.‹ They felt this to be true even though the community numbers many thousands of people working in studios in many different cities and countries. […] In addition, distances and cultures are bridged and the sense of community is rein forced through interaction with common software packages and concepts, through sharing data, tools and circulating objects, through personal connections with others and through the development of a shared aesthetic.« 125 Was zeichnet also die Softwarelandschaft aus, mit der diese Community arbeitet? Ergänzend zu eigenen Praxiserfahrungen im Umgang mit der Software werden zusätzlich Erläuterungen von dem 3D-Artist Dominik Pott herangezogen, der seit etwa zehn Jahren in der kommerziellen Spielfilmindustrie sowohl für Computeranimationsfilme als auch für Realfilme im Bereich der computergestützten Spezialeffekte tätig ist. Grundlage dieses Kapitels bildet ein mit Pott durchgeführtes Interview.126 Der Begriff 3D-Artist beschreibt ganz allgemein eine Person, die in beliebiger Weise mit der hier beschriebenen Software arbeitet. Noch nicht gekennzeichnet ist damit das genaue Arbeitsfeld, denn wie anhand von Potts Spezialisierung im Bereich der Effekte beziehungsweise von Perrys Fokussierung auf das Modellieren ersichtlich wird, lassen sich für die Erzeugung von 3D-Grafiken unterschiedliche Disziplinen herauskristallisieren, die je eine etwas andere Expertise voraussetzen. In der Regel besitzen jedoch diejenigen, die speziell in einem der Bereiche arbeiten, gleichzeitig eine Vorstellung von den Tätigkeitsfeldern der anderen, denn alle Disziplinen sind zum einen eng miteinander verzahnt und greifen zum anderen im Produktionsablauf in verschachtelter Weise ineinander. Da diese Studie sich vorrangig mit dem Phänomen der computergenerierten Bildlichkeit befasst, werden die Softwarefunktionen, die für die Bereiche der Animation und Simulation von Effekten zum Einsatz kommen, hier nur hintergründig beleuchtet. Im Vordergrund stehen jene Funktionen, die dazu dienen, ein Bild zu erzeugen – unabhängig davon, ob das Bild später als Standbild existieren soll oder in einer animierten Sequenz beziehungsweise in einem Film verwendet wird. Anhand dieses ersten Einblicks in die unterschiedlichen Disziplinen lässt sich veranschaulichen, dass es sich bei 3D-Grafikprogrammen um überaus komplexe Softwaresysteme handelt, die – vergleichbar mit den einzelnen Gewerken an einem Theaterhaus – zahlreiche unterschiedliche Disziplinen in einer einzelnen Computeranwendung vereinen. In der Regel ist es deshalb möglich, die Benutzeroberf lächen eines solchen Programms jeweils für die eigene Disziplin anzupassen und sich nur diejenigen Funktionen anzeigen zu lassen, die für den eigenen Arbeitsbereich relevant sind. Dieser grundsätzliche Auf bau gilt für alle 3D-Grafikprogramme dieser Art 125 Perry (2014): S. 28–29. 126 Vgl. Dominik Pott; Carolin Scheler: Interview mit Dominik Pott. Durchgeführt in Hannover. Göttingen: Research Online / Data, 16.08.2020. URL: https://doi.org/10.25625/Z27EP6. Zugriff am: 08.03.2022.
Einleitung
leichermaßen. Es werden nun die einzelnen Disziplinen, die in der Software verang kert sind, aufgeführt, um anschließend in der geschichtlichen Aufarbeitung zu begreifen, wie diese unterschiedlichen Bereiche entstanden sind und weshalb sie heute überhaupt im Rahmen der Software eine Rolle spielen. Die Bearbeitungsfelder, die an dem Prozess, ein Bild zu erzeugen, beteiligt sind, lassen sich im Wesentlichen auf die Bereiche des Modelings, Shadings, Texturings, Renderings und Compositings beschränken. Mit dem Thema der virtuellen Beleuchtung existiert noch ein weiteres Feld, das für die Erzeugung von 3D-Grafiken zentral ist. Wie sich im weiteren Verlauf der vorliegenden Studie zeigen wird, gilt diese Aussage auch im Hinblick auf die Entstehungsgeschichte der synthetischen Bilder.127 Da es in diesem Kapitel allerdings lediglich darum geht, einen grundlegenden Einblick in die Praxis der synthetischen Bilderzeugung mithilfe von 3D-Grafiksoftware zu gewähren, wird hier der sehr technische Teilbereich des Lichts nicht eigenständig thematisiert, sondern vielmehr in direkter Verknüpfung mit den verwandten Disziplinen des Shadings und Renderings aufgegriffen. Wie im weiteren Verlauf dieses Kapitels und der gesamten Studie verständlich wird, hängen beide Bereiche unmittelbar mit virtuellen Lichtquellen zusammen und würden ohne diese nicht ausführbar sein. Während die Bereiche des Modelings, Shadings und Texturings im Rahmen der Software selbst stattfinden und ihnen hier besondere Aufmerksamkeit geschenkt werden soll, wird der Renderprozess häufig von einem eigenständigen und auch austauschbaren Softwaremodul innerhalb der 3D-Anwendung durchgeführt. Auch separate Rendering-Programme kommen zum Einsatz. Der Bereich des Compositings findet in vollkommen eigenständiger Softwareumgebung statt, ist aber eng mit den zuvor im Rahmen des 3D-Grafikprogramms erfolgten Arbeitsschritten verknüpft. Einige Elemente aus dem Bereich des Compositings sollen deshalb – sofern sie für diese Studie unmittelbar relevant sind – ebenfalls vorgestellt werden. Das Interface einer 3D-Grafiksoftware besteht neben den in Programmen üblichen Menüs und Kontextmenüs für alle Teildisziplinen im Wesentlichen aus einem Viewport, wobei es sich hier um den Blick durch eine virtuelle Kamera handelt. Beim Öffnen des Programms ist hier in der Regel ein sogenanntes ›Grid‹ zu sehen – eine perspektivisch im virtuellen Raum liegende quadratische Fläche, die als Koordinationssystem verstanden werden kann und den mathematischen Nullpunkt im virtuellen 3D-Raum anzeigt. Sie dient vorrangig zur Orientierung im virtuellen 3D-Raum und bietet auch eine Grundlage für Größenverhältnisse, da sie in Maßeinheiten unterteilt ist. Im dem angezeigten Sichtfeld dieser Kamera, dem sogenannten ›perspective view‹, lässt sich interaktiv arbeiten (Abb. 8). Für das Modeling, das bei der Erzeugung von 3D-Grafiken immer der erste Arbeitsschritt ist, ist der Viewport besonders essenziell, da virtuelle Objekte und Figuren direkt im Sichtfeld der Kamera als sogenannte
127 Pott, der im Interview ebenfalls darum gebeten wurde, den üblichen Ablauf zu beschreiben, der zur Erzeugung eines 3D-Bilds durchlaufen werden muss, führt zudem die Konzeptphase an, in der einerseits eine Geschichte und andererseits eine Ästhetik für ein Projekt im Rahmen der Vor produktion zunächst in Form von Skizzen, Collagen oder gemalten Bildern festgelegt wird. Dieser Schritt erfolgt in der Regel, bevor die Software zum Einsatz kommt, beziehungsweise er wird in anderen Computerprogrammen durchgeführt, weshalb diese Phase hier ausgeklammert wird. Vgl. Pott; Scheler (2020): S. 30–31.
49
50
Scheler: Computergrafik
3D-Modelle erstellt werden können.128 Die Kamera bietet für diesen Zweck zudem weitere Sichtperspektiven an, sodass ein Modell beispielsweise auch direkt von oben, von vorne oder von der Seite betrachtet und bearbeitet werden kann. Diese sogenannten ›views‹ mit den Namen ›top‹, ›side‹ und ›front‹ weisen anders als der ›perspective view‹ keine perspektivische Verzerrung auf (Abb. 9). Grundsätzlich lassen sich in den hier beschriebenen 3D-Grafikprogrammen virtuelle Modelle auf zwei verschiedene Weisen erzeugen. Auf der einen Seite existiert ein Verfahren, mit dem sich Objekte auf Basis von mathematischen Funktionen mit höchster Präzision modellieren lassen. Demgegenüber existiert auf der anderen Seite ein polygonbasiertes Verfahren, mit dem sich insgesamt weniger präzise, aber dafür wesentlich f lexiblere Ergebnisse erzielen lassen. Während beispielsweise im Industriedesign präzise Modelle erforderlich sind, um Bauteile akkurat produzieren zu können, kommen im populärkulturellen Bereich überwiegend polygonbasierte Modelle zum Einsatz. Die folgenden Beschreibungen beziehen sich deshalb lediglich auf diese Vorgehensweise. Polygonmodelle bestehen aus Flächen, Linien und Knotenpunkten, sogenannten Vertices (Plural für Vertex). Anhand eines gewöhnlichen Globus lässt sich ein Polygonmodell besonders eindrücklich beschreiben, denn hier würden die Flächen, Linien und Vertices etwa dem Erscheinungsbild der Längen- und Breitengrade auf der Erdkugel entsprechen. Die Vierecke, die durch die sich kreuzenden Linien auf dem Globus entstehen, wären hier die Polygone. Sie bilden also ringförmige Bahnen, was bei komplexeren Modellen grundsätzlich ebenfalls gilt, selbst wenn die Bahnen dort nicht immer so gleichförmig verlaufen wie auf einer Kugel (Abb. 10). Innerhalb des Programms ist es dann möglich, zu entscheiden, ob die Modelle als ›Wireframe‹ oder als ›Solid‹ angezeigt werden sollen (Abb. 11 & 12). Der erste Anzeigemodus stellt das Modell durchsichtig als Gitternetz dar, was gerade bei komplexen Modellen irreführend sein kann, da in diesem Anzeigemodus nicht deutlich ist, welche Linien des Gitters sich im Vorder- und welche sich im Hintergrund befinden. Für den Prozess des Modellierens kann es hilfreich sein, auch die Vertices auf der Rückseite eines Modells im Blick zu behalten, doch um einen besseren Gesamtüberblick zu gewinnen, existiert der Modus, Modelle als ›Solid‹ darzustellen, wodurch sie in einem schlichten Grauton inklusive grundlegender Schattierung angezeigt werden, sodass nur noch diejenigen Flächen zu sehen sind, die sich im Vordergrund befinden. Jedes 3D-Grafikprogramm stellt für den Einstieg in den polygonbasierten Modellierprozess geometrische Basisvolumen, sogenannte ›Primitives‹, zur Verfügung, die sich zu komplexeren Modellen verarbeiten lassen. Diese gängigsten Grundformen beschränken sich auf einen Würfel, eine Kugel, einen Ring, einen Kegel und einen Zylinder, wobei je nach Programm auch noch einige weitere Modelle, wie etwa eine Röhre oder eine Pyramide, zur Verfügung stehen. Wie
128 Pott nennt als zentrale Komponenten der Benutzeroberfläche eines 3D-Grafikprogramms eben falls den Viewport, hier mit dem Verweis, dass sich dort Modelle erzeugen und texturieren lassen. Diese zweite Funktion wird an späterer Stelle im aktuellen Kapitel thematisiert. Darüber hinaus nennt er einen Bereich, in dem sich einzelne Parameter für jedes einzelne 3D-Objekt einstellen las sen, sowie einen Editor, in dem sich die Elemente im Viewport sowie die dazugehörigen Texturen und weitere Eigenschaften in einem Strukturbaum anzeigen lassen. Jede vorgenommene Einstel lung ist Teil einer Hierarchiekette, die dort ebenfalls eingesehen und bearbeitet werden kann. Die von Pott beschriebenen Funktionen gehen über die Grundlagendarstellung der Software hinaus und werden hier deshalb lediglich als Randnotiz aufgeführt. Vgl. Pott; Scheler (2020): S. 28–29.
Einleitung
Abb. 8: eigener Screenshot, ›perspective view‹ in Autodesk Maya, 2021.
Abb. 9: eigener Screenshot, ›perspective, side, front und top view‹ in Autodesk Maya, 2021.
Abb. 10: eigener Screenshot, Wireframe-Darstellung einer Kugel in Autodesk Maya, 2021.
der Modellierprozess konkret abläuft, soll hier ausgeklammert werden, anmerken lässt sich jedoch, dass auch hier in allen Programmen übergreifend ähnliche Werkzeuge existieren, um ausgehend von der Basisform das gewünschte Objekt zu entwerfen.129 Der nächste Schritt, um dem fertigen Bild entgegenzugehen, besteht darin, die Materialität des Objekts zu bestimmen und nachzuempfinden. Für diesen Zweck existiert der Bereich des Shadings. Er ist für das Aussehen der Objekte im Bild entscheidend und zugleich eng mit dem Bereich des Texturierens verzahnt. Es existieren 129 Eine dieser übergreifenden Funktionen, die beim Modellierprozess sehr häufig verwendet wird, stellt etwa die Möglichkeit dar, Flächen zu extrudieren, womit gemeint ist, dass das Modell aus gehend von einem Polygon an dieser Stelle eine Art Auswuchs bekommt. Das Werkzeug eignet sich demnach dazu, ein Objekt um Details zu erweitern und es insgesamt damit komplexer zu gestalten.
51
52
Scheler: Computergrafik
Abb. 11: eigener Screenshot, Wireframe-Darstellung eines Kinosessels in Autodesk Maya (eigenes 3D-Modell), 2021.
Abb. 12: eigener Screenshot, Solid-Anzeige eines Kinosessels in Autodesk Maya (eigenes 3D-Modell), 2021.
z ahlreiche verschiedene sogenannte Shader und grundsätzlich enthält jeder dieser Shader Einstellungsoptionen zum Beispiel in Form von Schiebereglern, hinter denen sich mathematische Befehle verbergen. Mit diesen Einstellungen lässt sich regulieren, wie das künstliche Licht im virtuellen Raum auf die Oberf läche des Materials reagieren soll, also ob sich – wie bei der glatten Oberf läche einer Billardkugel – das Licht in einem kleinen scharf abgegrenzten weißen Punkt bündelt oder ob es sich über einen diffusen Bereich auf der Materialoberf läche streut, so wie es etwa bei einem Tischtennisball geschieht (Abb. 13 & 14). Mithilfe von sogenannten ›Bump Maps‹ kann ein Shader auch Höhen- und Tiefeninformation verarbeiten, zum Beispiel wenn die Noppen eines Basketballs erscheinen sollen. Wird eine Bump Map verwendet, werden also bei der Bildberechnung Schattierungen simuliert, sodass – vereinfacht dargestellt – der Eindruck entsteht, der Ball weise auf der Oberf läche ein Relief, also etwa Noppen, auf. Mithilfe dieser Funktion kann vermieden werden, dass derart feine Strukturen einzeln modelliert werden müssen. Stattdessen können sie später im Shading hinzugefügt werden. Die Idee, einen solchen Effekt auf rein visueller Ebene zu erzeugen statt in der Geometrie des Objekts, wurde von James F. Blinn in den 1970er Jahren entwickelt,130 womit hier eine Person genannt wird, die Teil der Geschichtsschreibung ist, die im Rahmen der vorliegenden Studie vorgenommen wird. Bump Maps lassen sich in jeder 3D-Anwendung nutzen und stellen eine Standardfunktion dar.131 130 Vgl. James F. Blinn: Computer Display of Curved Surfaces. Dissertation am Department of Computer Science, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1978. 131 Neben der Funktion der Bump Maps existiert in allen hier betrachteten 3D-Anwendungen zudem ein Verfahren, das mit sogenannten Displacement Maps durch die Einstellungen im Shading die Geometrie des Objekts verändert. Was dies konkret bedeutet, lässt sich ebenfalls an dem Beispiel des Basketballs erläutern: Beim Bump Mapping bleibt die Silhouette des Balls glatt, weshalb sich
Einleitung
Abb. 13: Pixabay, Billardkugel, 2019, digitale Fotografie.
Abb. 14: Pixabay, Tischtennisball, 2019, digitale Fotografie.
Über die Oberf lächenstruktur hinaus lässt sich mit einem Shader ebenfalls die Farbe eines Objekts bestimmen. Wenngleich es möglich ist, ein virtuelles Objekt vollständig oder auch nur einzelne Polygone einzufärben, wird die Farbgebung allerdings selten auf diese Weise erzeugt. Zur Verwendung kommen in der Regel stattdessen sogenannte Texturen. Sie lassen sich erneut mit dem Beispiel des Globus erläutern. Statt Polygone einzeln in einem blauen Farbton einzufärben, um etwa die Weltmeere zu kennzeichnen, werden alle Details der Weltkarte in einem f lachen Bild dargestellt, das anschließend gewissermaßen um die Kugel ›gewickelt‹ werden kann. Auch Fotografien oder Fotomontagen können dafür zum Einsatz kommen (Abb. 15 & 16). Für diese spezielle Funktion lässt sich rein geschichtlich mit Edwin Catmull erneut gezielt ein Autor identifizieren.132 Seine Idee, Objekte mit Texturen zu versehen, geht den Bump Maps von Blinn um einige Jahre voraus.
Bump Maps vor allem dann eignen, wenn der Umriss eines Objekts nicht zu sehen ist. Mit einer Dis placement Map lässt sich dieser Effekt vermeiden, denn sie erzeugt tatsächliche Unebenheiten auf der Oberfläche eines Objekts, die in der Silhouette erkennbar werden. Die Noppen des Basketballs wären so auch am Rand des Balls erhaben. Der Vorteil einer Displacement Map ist es, dass auch hier nicht jede Noppe einzeln zuvor modelliert werden muss, sondern dass in einem einzelnen Bearbei tungsschritt alle Noppen gleichzeitig erzeugt werden können. Der Nachteil dieses Verfahrens ist, dass es wesentlich rechenintensiver ist als die Bump Map. Erhabene Unregelmäßigkeiten auf der Oberfläche wirken sich jeweils auf den Lichteinfall und Schattenwurf aus, was wesentlich mehr Be rechnungen erfordert als bei der Bump Map, die diesen Effekt in der Silhouette ignoriert. Zur Dar stellung des Unterschieds zwischen Bump und Displacement Map vgl. zudem Matt Pharr; Wenzel Jakob; Greg Humphreys: Physically Based Rendering. From Theory to Implementation. 3. Auflage. Cambridge, MA: Morgan Kaufmann, 2017, S. 592. 132 Vgl. Catmull (1974).
53
54
Scheler: Computergrafik
Abb. 15: James Hastings-Trew, earth texture map, ohne Datum, Fotomontage.
Abb. 16: eigenes Bild, Kugel texturiert mit der earth texture map aus Abb. 15, 2022, 3D-Computergrafik.
Insgesamt lässt sich zu dem Feld des Shadings festhalten, dass es einen besonders zentralen Bereich der 3D-Computergrafik darstellt. In der Regel enthalten 3D-Computerprogramme umfangreiche Bibliotheken mit voreingestellten Shadern, sodass es möglich ist, zügig beispielsweise den Ef fekt von Gold, Glas oder Beton zu erzeugen. Mithilfe von Schiebereglern lassen sich anschließend weitere Einstellungen an dem Shader vornehmen, sodass eigene Vorstellungen bis zu einem gewissen Grad umgesetzt werden können. Diese Shader-Bibliotheken sind nicht zuletzt auch der Ort innerhalb der Software, an dem sich die meisten Hinweise auf die jeweils dahinterstehenden Autoren finden lassen (Abb. 17). Während Catmull im Rahmen der Software namentlich nicht auftaucht, existiert beispielsweise ein Shader mit dem Namen Blinn, weil der im Shader verarbeitete Algorithmus auf einem Lichtberechnungsmodell basiert, das ursprünglich von Blinn entwickelt wurde. Darüber hinaus existieren Shader mit den Namen Phong und Gouraud, die beide ebenfalls auf ihre Autoren Bui Tuong Phong und Henri Gouraud verweisen. Obwohl diese Shader in den 1970er Jahren in den USA entwickelt wurden und längst neuere Shading-Verfahren existieren,133 sind sie heute noch immer in Verwendung. Bei dem deutschen Softwarehersteller Maxon wird etwa in der 3D-Grafiksoftware Cinema 4D standardmäßig ein Gouraud-Shader verwendet, um Modelle als ›Solid‹ anzuzeigen. Auf den Hilfeseiten des Programmherstellers im Internet wird der Shader erläutert: »Diese Option stellt alle Objekte schattiert mit gerundeter Oberf läche dar. Gouraud-Shading ist die qualitativ hochwertigste Darstellungsart im Editor und eignet sich hervorragend, um die Verdeckung der Objekte zu kontrollieren.«134 Die Verdeckung der Objekte bezieht sich hier auf die Anzeigeoption, mit der die Objekte nicht durchsichtig als ›Wireframe‹, sondern blickdicht dargestellt werden können. Anhand der 133 Pott verweist etwa auf den sogenannten Principled Shader, der in Kapitel 5.1.2 Pixar und der Sinnzusammenhang der 3D-Computergrafik als visuelles Phänomen intensiv thematisiert wird. Vgl. Pott; Sche ler (2020): S. 20 und S. 22–23. 134 Maxon: Shading. Ohne Datum. URL: https://help.maxon.net/de/index.html#DBASEDRAW-BASE DRAW_GROUP_VIEW. Zugriff am: 09.12.2021.
Einleitung
Abb. 17: eigener Screenshot, Ausschnitt des Hypershade-Editors in Autodesk Maya, 2022.
Beobachtung, dass der Gouraud-Shader als Standard in das Programm Cinema 4D integriert wurde, zeichnet sich beispielhaft einer der von Blumenberg beschriebenen Sprünge ab, denn der Shader ist nicht – wie die Software – in Europa entwickelt worden. Dass Gouraud bei der Entwicklung seines Shaders spezifische Vorstellungen hatte, spielt in der Praxis, wie die vorliegende Studie aufzeigen kann, zumindest vordergründig keine Rolle. Auch für den Phong-Shader gilt diese Beobachtung. Er wurde ebenfalls in Cinema 4D implementiert und dessen Funktionsweise wird auf den Hilfeseiten folgendermaßen erläutert: »Phong ist eine in Cinema 4D eingebaute Funktion, mit der Sie erreichen können, dass ein aus Drei- und Vierecken aufgebautes Objekt bei der Bildberechnung eine runde, glatte Oberfläche (Phong-Shading) bekommt. Zum Beispiel lässt sich eine Kugel, die aus hundert Flächen aufgebaut ist und normalerweise facettiert erscheint, bei ange schaltetem Phong kaum von der perfekten Kugel unterscheiden.« 135 Die Problematik, die sich hinter der Anmerkung zum facettierten Erscheinungsbild der Kugel verbirgt, wird im späteren Verlauf der vorliegenden Studie in umfassender Weise aufgeklärt,136 doch schon hier veranschaulichen die Beispiele, dass viele der damals an der Entwicklung von 3D-Grafiken beteiligten Personen heute die Softwarelandschaft noch immer prägen. Aus diesem Grund bilden diese Personen den Ausgangspunkt des 135 Maxon: Phong. Ohne Datum. URL: https://help.maxon.net/de/#TPHONG. Zugriff am: 09.12.2021. Pott merkt an, dass ältere Shader, wie beispielsweise das Berechnungsmodell von Phong, heute in der Praxis kaum noch relevant sind. Gleichzeitig zeigen die in Zusammenhang mit Cinema 4D an geführten Beispiele dennoch, dass die ersten entwickelten Shader noch immer genutzt werden, wenngleich es sich hier um spezielle Anwendungssituationen handelt. Darüber hinaus wird im Verlauf der Studie deutlich, dass auch neuere Shading-Verfahren zumindest konzeptionell an die früheren anknüpfen. Vgl. Pott; Scheler (2020): S. 21. 136 Vgl. hierzu insbes. Kapitel 3.2.1.2 Smooth Shading – Henri Gouraud und der Brückenschlag zur heutigen 3D-Software und 3.2.1.3 Textur und Struktur – Die Ziele nach dem Ziel.
55
56
Scheler: Computergrafik
in der Studie verfolgten Erkenntniswegs. Im nächsten Kapitel werden sie deshalb zunächst in einem kurzen geschichtlichen Überblick verortet, um sich mit ihren jeweiligen Beiträgen zur Entwicklung der 3D-Computergrafik anschließend eingehend auseinanderzusetzen. Zunächst werden jedoch die letzten notwendigen Schritte zur Erzeugung einer fertigen 3D-Grafik dargestellt. Nachdem mit dem Shading für alle Objekte definiert wurde, wie jeweils das virtuell erzeugte Licht auf die texturierten Oberf lächen reagiert, folgt mit dem Rendering der Arbeitsschritt, der aus einer offenen Datei, mit der sich innerhalb eines Programms arbeiten lässt, eine festgeschriebene 3D-Grafik erzeugt, die sich – vereinfacht gesagt – am Ende beispielsweise als JPG auf dem Rechner abspeichern lässt (Abb. 18). Beim Rendering handelt es sich also zunächst einmal um die Übersetzung einer virtuellen dreidimensionalen Szenerie in eine zweidimensionale Fläche, wobei dieser Vorgang einen der komplexesten und rechenintensivsten Bearbeitungsschritte darstellt. Die Aufgabe einer sogenannten Render Engine ist es, alle zuvor im 3D-Programm eingestellten Funktionen auf besonders effektive und zugleich ästhetisch ansprechende Weise zu verarbeiten. Der Aspekt des ästhetischen Anspruchs – und das ist ein zentraler Punkt im Rahmen dieser Studie – müsste kein festes Kriterium für die computergestützte Bilderzeugung darstellen und dennoch herrschen für diesen Arbeitsschritt bestimmte Vorstellungen, nach denen in der Regel bei der Erzeugung von 3D-Computergrafiken gestrebt wird. Hier zeichnet sich erstmals ab, worauf die Frage nach einem gemeinsamen Sinnzusammenhang der 3D-Grafiken abzielt, doch bevor die systematische Untersuchung der hier dargestellten Arbeitsschritte erfolgt, lässt sich an dieser Stelle vorwegnehmen, dass ein ästhetisch gelungenes Ergebnis häufig mit fotorealistischen Qualitäten verknüpft wird. Eine Render Engine ist also im besten Falle darauf ausgerichtet, aus der 3D-Szenerie Bilder erzeugen zu können, die sich – wenn man es darauf anlegt – nicht mehr von einer Fotografie unterscheiden. Auch das seit über zehn Jahren in der Industrie etablierte137 ›Physically Based Rendering‹ basiert auf diesem Grundsatz. In ihrem Handbuch Physically Based Rendering System: From Theory to Implementation stellen die Autoren Matt Pharr, Wenzel Jakob und Greg Humphreys ihr Rendersystem pbrt sowie dessen Anwendungsgebiete vor: »pbrt and the contents of this book focus exclusively on photorealistic rendering, which can be defined variously as the task of generating images that are indistinguishable from those that a camera would capture in a photograph or as the task of generating images that evoke the same response from a human observer as looking at the actual scene. There are many reasons to focus on photorealism. Photorealistic images are cru cial for the movie special-effects industry because computer-generated imagery must often be mixed seamlessly with footage of the real world. In entertainment applica tions where all of the imagery is synthetic, photorealism is an effective tool for making the observer forget that he or she is looking at an environment that does not actually exist. Finally, photorealism gives a reasonably well-defined metric for evaluating the quality of the rendering system’s output.«138
137 Vgl. Pharr; Jakob; Humphreys (2017): S. 1. 138 Ebd., S. xx. Alle Herv. i. O.
Einleitung
Abb. 18: eigenes Bild, Kinosessel, 2013, 3D-Computergrafik.
Um der fotografischen Vorlage gerecht zu werden, verarbeitet eine Render Engine beispielsweise die Lichtinformationen aus der virtuellen Umgebung und berechnet Lichtbrechungen und Ref lexionen bei jenen Objekten, denen diese Eigenschaften zuvor mithilfe eines Shaders zugewiesen wurden.139 Die Render Engine kann zudem in den fertigen Bilddateien in Form von Metadaten die Tiefeninformationen des virtuellen Raums speichern, sodass sich entweder beim Renderprozess selbst oder später im Compositing Bereiche des Bildes unscharf abbilden lassen, so wie es üblicherweise bei der Fokussierung durch eine Kameralinse geschieht. Darüber hinaus enthält der Renderprozess auch Bearbeitungsstufen, die nicht unmittelbar mit der Bildästhetik zusammenhängen, sondern vielmehr mit den technischen Bedingungen, die bei der Darstellung von Bildern auf Displays entstehen. So muss eine Render Engine eine kontinuierliche 3D-Szene in ein bildschirmkonformes Raster mit einer bestimmten Auf lösung übersetzen. Üblicherweise entsteht bei diesem Prozess durch das sogenannte Aliasing ein Artefakt, der sich als Treppeneffekt an diagonalen oder gekrümmten Kanten und Konturen im Bild bemerkbar macht. Der Render Engine ist deshalb mit dem ›Antialiasing‹ ein – sehr rechenintensiver – 139 Die Anfänge des Physically Based Renderings können auf die 1980er Jahre zurückgeführt werden. Vgl. Pharr; Jakob; Humphreys (2017): S. 48. Der Entwicklung liegt die Absicht zugrunde, die Bereiche des Shadings und Renderings zu vereinfachen. Ziel sollte es sein, eine umfassende virtuelle physi sche Umgebung zu erzeugen, in der alle Objekte jeweils mit ihren Oberflächen einheitlich auf die äußeren Umstände wie etwa das Licht reagieren, etwas, das beispielsweise mit den Shadern von Phong und Blinn noch nicht möglich war. Wie die Arbeit des Shadings und Renderings sich gestalte te, bevor dieser Ansatz entwickelt wurde, beschreiben Pharr, Jakob und Humphreys: »Earlier, when reflection models that didn’t necessarily conserve energy were used, an object might be placed in a single lighting environment while its surface reflection parameters were adjusted. The object might look great in that environment, but it would often appear completely wrong when moved to another lighting environment because surfaces were actually reflecting too little or too much energy: surface properties had been set to unreasonable values.« Pharr; Jakob; Humphreys (2017): S. 52.
57
58
Scheler: Computergrafik
Algorithmus implementiert, der diesem Effekt entgegenwirken kann. Zusätzlich lässt sich im Renderprozess auch festlegen, in welcher Größe die Bilddateien ausgegeben werden sollen, sodass sie beispielsweise entweder zu hochauf lösenden Videoaufnahmen verarbeitet oder für den Druck vorbereitet werden können. Der Bereich des Renderings ist derart umfassend, dass für diesen Bearbeitungsschritt auch eigenständige Software existiert, die entweder als Plugin in einer 3D-Anwendung eingegliedert werden kann oder als eigenständiges Programm mit der Grafiksoftware kommuniziert. Eine der führenden Render Engines in der kommerziellen Spielfilmindustrie ist die Software RenderMan,140 die ebenfalls auf den Informatiker Edwin Catmull zurückgeht.141 Heute ist der inzwischen verbreitete Ansatz des ›physically based render ing‹ auch in RenderMan implementiert.142 Der letzte Bereich – das Compositing – dient dazu, die von der Render Engine berechneten Bilder nachzubearbeiten. Dieser Schritt erfolgt separat in eigenständigen Softwaresystemen, die auf diese Aufgabe ausgerichtet sind. Da es sich hier aufgrund der Bearbeitung von Bilddateien streng genommen um 2D-Grafikanwendungen handelt, bewegt sich dieser Bereich bereits aus dem Blickfeld der vorliegenden Studie. Er soll dennoch kurz Erwähnung finden, da zahlreiche bildliche Elemente, die für 3DComputergrafiken charakteristisch sind, oft erst in diesem Schritt hinzugefügt werden. Hierzu zählen beispielsweise die nachträglich erzeugte Schärfentiefe, die anhand von Metadaten im Bild ermittelt werden kann, oder eine nachträgliche Bearbeitung der Farbgebung, der Lichtref lexe und Schatten. Auch ›Fehler‹, wie etwa Filmkorn können in diesem letzten Bearbeitungsschritt in die Bilder integriert werden, beispielsweise, wenn die 3D-Grafiken in eine Realfilmumgebung eingeführt werden und sich dem Rauschen der Filmaufnahmen anpassen sollen. Die Entscheidung, 3D-Grafiken im Rahmen des Compositings fertig zu gestalten, basiert darauf, dass es sowohl weniger Zeit als auch Rechenleistung in Anspruch nimmt, wenn beispielsweise eine Schärfentiefe nachträglich in einer 2D-Umgebung eingefügt wird. Würde sie direkt von der Render Engine ausgegeben – was ebenfalls möglich wäre –, müsste bei einem Änderungswunsch erneut die gesamte 3D-Szene in ein 2D-Bild überführt werden. Die nachträgliche Bearbeitung ermöglicht demnach, dass ein Bild nicht neu aus der 3D-Umgebung generiert werden muss, wenn beispielsweise Änderungswünsche bestehen. Stattdessen kann es im Compositing-Programm so lange verändert und bearbeitet werden, bis die gewünschte Bildästhetik erreicht ist. Zusammenfassend lässt sich ein letzter Aspekt anführen, der alle diese unterschiedlichen Arbeitsschritte betrifft, denn in der Regel ist jedes hier angesprochene Softwaresystem Teil eines agilen und reziproken Prozesses. Das bedeutet, dass die Software nie im eigentlichen Sinne fertig ist, sondern grundsätzlich auf einem Feedbackloop zwischen Anwendung und Entwicklung basiert. Auch Pharr, Jakob und Humphreys verweisen in der dritten Ausgabe ihrer Monografie im Rahmen ihrer Danksagung auf das Feedback der Community beispielsweise in Form von sogenannten ›bug 140 Peter Rubin bezeichnet RenderMan in einem für die Zeitschrift Wired verfassten Artikel als »perhaps the most transformative software Hollywood has ever seen.« Peter Rubin: Pixar’s Renderman CGI Software Celebrates Its 30th Birthday. In: WIRED, 2018. URL: https://www.wired.com/story/render man-30th-anniversary/. Zugriff am: 09.12.2021. 141 Vgl. Gaboury (2021): S. 145. 142 Vgl. Pharr; Jakob; Humphreys (2017): S. 51.
Einleitung
reports‹, also Schwachstellen im System, die häufig erst in der Anwendung sichtbar werden und durch solche Feedbackloops später stabilisiert werden können.143 Als Ausgangspunkt für die vorliegende Studie ist es dennoch zentral, darauf hinzuweisen, dass jede neue Softwareentwicklung und -verbesserung für den Bereich der 3D-Grafik sich weiterhin in einem mehr oder weniger festen Rahmen bewegt, der als solcher nicht in Frage gestellt wird. Die These für die nun folgende Untersuchung lautet also, dass alle Verbesserungen stets vor dem Hintergrund eines übergeordneten ästhetischen Ziels erarbeitet werden, dem selbst der Kreislauf aus Feedback und Verbesserung untergeordnet ist. Der weit überwiegende Teil der Neuerungen besteht lediglich darin, die Systeme simpler und effizienter zu gestalten. Grundlegende Veränderungen im Hinblick auf die ästhetischen Möglichkeiten sind dagegen kein Teil der hier beschriebenen Dynamik und werden allenfalls in Open-Source-Systemen angeboten.144 Die einzelnen Teildisziplinen, die in diesem Kapitel beschrieben wurden und die sich in der Software heute abbilden, haben sich ausgehend von dieser übergeordneten Vorstellung entwickelt. Zu Beginn der Geschichte der Computergrafik waren die einzelnen Felder noch nicht in derselben Weise voneinander abgegrenzt, sie haben sich in dieser Klarheit erst allmählich als einzelne Bereiche herauskristallisiert. Zum Schluss dieses Kapitels stellt sich also die Frage, mit welcher bildlichen Vorstellung die Entwicklung der 3D-Computergrafik begann. Warum ereignet sich der kreative Prozess, 3D-Grafiken zu erzeugen, auf die Weise, wie sie hier beschrieben wurde?
143 Vgl. ebd., S. xxvi. Auch Pott ist in seinem Arbeitsalltag in direkter Weise an den hier beschriebenen Feedbackloops beteiligt. Er bezeichnet sich selbst neben seiner Fokussierung auf Effekte als Pipe line-Programmierer, womit er ein Arbeitsfeld beschreibt, bei dem es darum geht, die Arbeitspro zesse der einzelnen Teildisziplinen zu optimieren. Oft handelt es sich hierbei darum, Vorgänge zu automatisieren, wie beispielsweise die automatische Erzeugung und Benennung von Dateien. Auf diese Weise kann jemand, der eigentlich an einer Animationsszene arbeitet, sich allein auf diese Aufgabe konzentrieren, ohne dabei gleichzeitig berücksichtigen zu müssen, wie und wo er seine offene Datei abspeichert. Vgl. Pott; Scheler (2020): S. 3–4. 144 Vgl. Fn. 124 im aktuellen Kapitel der vorliegenden Studie, S. 47. Dennoch merkt auch Manovich an, dass Open-Source-Software häufig nach denselben Prinzipien aufgebaut ist wie das kommerzielle Pendant. Vgl. Manovich (2013): S. 37–38.
59
60
Scheler: Computergrafik
1.2.2 Die Praxis der 3D-Computergrafik aus historischer Perspektive – Ein Kurzüberblick
Almost every influential person in the modern computergraphics community either passed through the University of Utah or came into contact with it in some way […].145 – Robert Rivlin (1986)
Der Einstieg in die historische Untersuchung der Softwareumgebung, aus der 3DGrafiken hervorgehen, erfolgt nun in unmittelbarer Anknüpfung an die im vorigen Kapitel eingenommene Praxisperspektive. Das bedeutet, die in dieser Studie vorgenommene Geschichtsschreibung wird in direkter Weise entlang eines Erkenntniswegs entwickelt, der sich nur dann eröffnet, wenn man praktisch mit der Software arbeitet. Dieser Erkenntnisweg wird nun vorab in kurzer Form dargestellt, um damit zugleich die wesentlichen Schritte der Geschichtsschreibung zum Zwecke der Orientierung zu skizzieren. Im zweiten Abschnitt der Studie beginnt eine umfangreiche Aufarbeitung der nachfolgend umrissenen Ereignisse. Wie im vorigen Kapitel dargestellt, lassen sich innerhalb eines Computerprogramms für 3D-Grafiken mithilfe der zentralen Funktion des Shadings einem virtuellen Objekt Materialeigenschaften zuweisen. Die Besonderheit dieser Bedienkomponente ist, dass – im Unterschied zu anderen Einstellungsbereichen – in den Shader-Bibliotheken verschiedener Programme über die Namen einzelner zur Auswahl stehender Shader direkte Verweise zu ihren Autoren hergestellt werden. Genannt wurden in diesem Zusammenhang unter anderem die drei Informatiker Henri Gouraud, Bui Tuong Phong und James F. Blinn. Obwohl die drei Informatiker ihre Shading-Algorithmen bereits in den 1970er Jahren entwickelt haben, ist die Frage nach ihrer Herkunft aus dem Blickwinkel des Produktionsprozesses also überaus aktuell. Zudem kann ausgehend von den Shadern die Überlegung aufgestellt werden, ob nicht auch andere Programmfunktionen, die einen neutralen Namen tragen, auf spezifische Personen zurückgehen, die einst mit bestimmten Vorstellungen an die Entwicklung dieser Bedienmöglichkeit herangegangen sind. Um einen Einstieg in die Untersuchung dieser Vorstellungen zu finden, ist es also möglich, erst einmal den Namen Gouraud, Phong und Blinn zu folgen und damit direkt in die 1970er Jahre zurückzuspringen. Alle drei Forscher haben aufeinanderfolgend und unter Bezugnahme auf den jeweils vorangegangenen die drei Shader im Rahmen ihrer Dissertationen entwickelt: Gouraud im Jahr 1971, Phong im Jahr 1973 und Blinn im Jahr 1978.146 Der Sprung aus der heutigen Praxis, der ohne Zwischenschritte 40 bis 50 Jahre in die Vergangenheit 145 Rivlin (1986): S. 27. 146 Vgl. Henri Gouraud: Computer Display of Curved Surfaces. Dissertation am Department of Com puter Science, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1971; Bui T. Phong: Illumination for Computer-Generated Images. Dissertation am Department of Computer Science, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1973; vgl. Blinn (1978).
Einleitung
führt, ist durchaus überraschend, da sich die Software üblicherweise innerhalb von wenigen Jahren erneuert und in der Regel jährlich eine neue Programmversion vorgestellt wird. Wie kann es also sein, dass trotz der rasanten technologischen Entwicklung, die in dieser Branche üblich ist, nicht nur Fragmente, sondern sogar zentrale Bedienkomponenten existieren, die inzwischen etwa 40 beziehungsweise 50 Jahre alt sind? Es muss sich, so erneut die These, zu jener Zeit ein Konzept davon abgezeichnet haben, auf welche Weise computergestützte dreidimensionale Darstellungen produziert werden können und welchen Maßstäben oder Prinzipien sie vor allem visuell folgen. Die grundsätzlichen Auffassungen darüber sind zudem bis heute aktuell. Diese Annahme erlaubt und erfordert es sogar, den direkten Sprung in die Vergangenheit zu wagen, um dort dem Verständnis dieser damals neuartigen Computergrafiken nachzuspüren. Mit welchem Ziel und vor welchem Hintergrund wurden Technologien wie die drei Shader entwickelt? Und lassen sich weitere Errungenschaften aus jener Zeit herausfiltern, die noch immer ihre Gültigkeit besitzen und damit noch heute Werte vermitteln, die damals den Entwicklungsprozess geprägt haben? Das sind die zentralen Fragen, denen im zweiten und dritten Teil der Studie nachgegangen werden soll. Der praktische Erkenntnisweg lässt sich weiter über die drei Shader beziehungsweise über ihre Autoren fortsetzen. Die Dissertationen Gourauds und Phongs fanden im Rahmen desselben Forschungsprojekts statt, Blinn bezieht sich einige Jahre später auf beide seiner Vorgänger, insbesondere auf Phong, da seine Arbeit in direkter Weise auf dessen Ansatz auf baut.147 Bei dem Projekt, in dem Gouraud und Phong ihre Shader entwickelten, handelt es sich um das im Forschungsstand erwähnte Forschungsvorhaben Graphical Man/Machine Communications, das in den Jahren von 1966–1973 unter der Leitung des Physikers und Informatikers Dave Evans an der University of Utah am Computer Science Department durchgeführt wurde und das auch bei Gaboury im Fokus seiner Untersuchung steht.148 Evans war 1965 an der Gründung dieses Fachbereichs beteiligt, 147 Vgl. Blinn (1978): S. vii. 148 Der Zeitraum lässt sich anhand von Forschungsberichten ermitteln, die Evans im Halbjahrestakt anfertigte, um den Projektstand darzulegen. Das Projekt teilt sich in zwei Forschungsperioden, weshalb die Berichte nicht durchgehend im gleichen Takt angefertigt wurden. Vgl. David C. Evans: Graphical Man/Machine Communications: November 1966. Forschungsbericht, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1966; David C. Evans: Graphical Man/Machine Com munications: May 1967. Forschungsbericht, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1967; David C. Evans: Graphical Man/Machine Communications: February 1968. Forschungs bericht, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1968; David C. Evans: Graphi cal Man/Machine communications: November 1968. Forschungsbericht, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1968; David C. Evans: Graphical Man/Machine Communications: May 1969. Forschungsbericht, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1969; David C. Evans: Graphical Man/Machine Communications: November 1969. Forschungsbericht, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1969; David C. Evans: Graphical Man/ Machine Communications: May 1971. Forschungsbericht, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1971; David C. Evans: Graphical Man/Machine Communications: June 1971. Forschungsbericht, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1971; David C. Evans: Graphical Man/Machine Communications: December 1971. Forschungsbericht, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1971; David C. Evans: Graphical Man/Machine Com munications: June 1972. Forschungsbericht, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1972; David C. Evans: Graphical Man/Machine Communications: December 1972. Forschungs bericht, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1972.
61
62
Scheler: Computergrafik
der inzwischen den Namen The School of Computing trägt.149 Bis zum Abschluss des Forschungsprojekts war er zudem der Vorsitzende des neuen Fachbereichs und holte in dieser Funktion im Jahr 1968 Ivan E. Sutherland als weiteren leitenden Forscher in das Projekt.150 Zeitgleich gründeten die beiden Kollegen die noch heute unter anderer Führung aktive Firma Evans & Sutherland, die sich vorrangig auf die Erzeugung computergrafischer Flugsimulationen spezialisierte151 und laut der eigenen Webseite »the world’s first computer graphics company«152 ist. Aufgrund seiner eigenen Forschungsschwerpunkte war es naheliegend, Sutherland in das Projekt zu integrieren, denn er verfolgte schon 1963 am MIT mit der Entwicklung des Programms Sketchpad ein ähnliches Anliegen wie Evans später an der University of Utah: Der schriftliche Report, der das Dissertationsprojekt Sutherlands zusammenfasst und das Programm Sketchpad beschreibt, trägt den Namen Sketchpad – A Man-Machine Graphical Communication System.153 Ziel seines Programms sollte es sein, die Kommunikation zwischen Mensch und Computer mithilfe grafischer Befehle zu erleichtern. Sutherland führte damit grundsätzlich ein Umdenken im Programmierprozess herbei, weshalb Sketchpad häufig als eines der ersten objektorientierten Programme bezeichnet wird, wenngleich der Begriff selbst erst in den 1970er Jahren von Alan Kay eingeführt wurde.154 Da Sketchpad nicht nur allgemein im Hinblick auf die computertechnologische Entwicklung eine zentrale Rolle einnimmt, sondern ebenfalls in Bezug auf die Geschichte computergrafisch erzeugter Bilder, erfolgt in Kapitel 2.1 Ivan E. Sutherlands Sketchpad und die Geburt der ›universellen‹ Computerzeichnung eine präzise Auseinandersetzung mit dem Programm und Sutherlands Vorstellungen. Das Kapitel zu Sutherland bildet damit zugleich den Einstieg in die hier verfolgte Geschichtsschreibung. Obwohl sich Sutherland erst zwei Jahre nach der Etablierung des Forschungsprojekts in Utah und damit insgesamt fünf Jahre nach seiner Arbeit an Sketchpad inhaltlich mit eigenen Forschungsarbeiten an dem Forschungsprojekt von Evans beteiligte, spielte er in anderer Funktion von Beginn an eine einf lussreiche Rolle für das Vorhaben seines Kollegen. So hatte Sutherland nach Abschluss seiner Dissertation am MIT von 1963 bis 1965 die Leitung des Information Processing Techniques Office (IPTO) inne, eine Abteilung der Advanced Research Projects Agency (ARPA), die heute unter dem
149 Vgl. University of Utah: History | School of Computing. Ohne Datum. URL: https://www.cs.utah.edu/ about/history/. Zugriff am: 09.12.2021. 150 In den von Evans halbjährlich verfassten Zwischenberichten erscheint Sutherlands Name erstmalig in dem Bericht vom November 1968. Vgl. Evans (1968b): S. 7. Erst im November 1969 wird Sutherland als »senior investigator« im Bereich »Computer Graphics Techniques« aufgeführt. Evans (1969b): S. 1. 151 Vgl. Gaboury (2021): S. 147 und S. 245. 152 Evans & Sutherland, A Cosm Company: About – Evans & Sutherland. Ohne Datum. URL: https://www. es.com/about/. Zugriff am: 09.12.2021 Gaboury wählt eine vorsichtigere Formulierung und betont, das Unternehmen sei »one of the first commercial computer graphics firms in the United States […].« Gaboury (2021): S. 18. 153 Vgl. Ivan E. Sutherland: Sketchpad. A Man-Machine Graphical Communication System. Dissertation am Department of Electrical Engineering and Computer Science, Cambridge, MA: Massachusetts In stitute of Technology, MIT Libraries, 1963. 154 Vgl. Alt (2011): S. 282. Vgl. dazu auch den Forschungsstand in der vorliegenden Studie, S. 32–34.
Einleitung
Namen Defense Advanced Research Projects Agency (DARPA) bekannt ist.155 Es handelt sich dabei um eine im Jahr 1958 vom US-amerikanischen Militär eingerichtete Forschungsagentur, die mit erheblichen Geldsummen militärisch potenziell relevante Forschungsprojekte fördert. Die Gründung der Organisation erfolgte als direkte Reaktion auf den Erfolg der Sowjetunion, als erste Nation im Jahr 1957 einen Satelliten, genannt Sputnik I, in die Umlauf bahn der Erde zu bringen.156 Die NASA beschreibt den Einf luss, den dieses Ereignis auf die USA hatte, folgendermaßen: »While the Sputnik launch was a single event, it marked the start of the space age and the U.S.–U.S.S.R space race.«157 In der geschichtlichen Dokumentation der DARPA wird der Schock, den der Vorsprung der Sowjetunion in den USA auslöste, ebenfalls thematisiert: »›Now, somehow, in some way, the sky seemed almost alien,‹ then-Senate Majority Leader Lyndon B. Johnson recalled feeling on that night, adding that he remembered ›the profound shock of realizing that it might be possible for another nation to achieve technological superiority over this great country of ours.‹ Ever since its establishment on February 7, 1958, ARPA – which later added the D for defense at the front of its name – has been striving to keep that technological superiority in the hands of the United States.« 158 Im Rahmen seiner Position als Leiter des IPTO war es schließlich Sutherlands Aufgabe, dieses hier formulierte Ziel der »technological superiority« weiterhin zu gewährleisten sowie Projekte im Bereich der Computertechnologie auszuwählen, die seiner Einschätzung nach die entsprechenden Kriterien erfüllen und sich als förderwürdig erweisen. In dieser Funktion war er deshalb unmittelbar dafür verantwortlich, dass Dave Evans am Computer Science Department der University of Utah das Forschungsprojekt Graphical Man/Machine Communications durchführen konnte.159 Darüber hinaus hatte Sutherland, wie er selbst in einem Interview berichtet, im Hinblick auf die Projektauswahl große Freiheiten: »There really was not very much fuss in ARPA. In fact, to get something done, what I had to do was convince myself and convince my boss. […] [M]y understanding of the mechanism was that if I could convince the ARPA director that something was sensible to do, it got done. […] I do not think that I did anything that was so outrageous that it would be brought into question. But there was really very little required. There were justifications required.« 160 155 Vgl. Ivan E. Sutherland; William Aspray: Oral history interview with Ivan Sutherland. Durchgeführt in Pittsburgh, PA. Minneapolis, MN: Charles Babbage Institute, University of Minnesota, 01.05.1989, S. 2. URL: https://conservancy.umn.edu/handle/11299/107642. Zugriff am: 08.03.2022. 156 Vgl. DARPA: The Sputnik Surprise. Ohne Datum. URL: https://www.darpa.mil/about-us/timeline/ creation-of-darpa. Zugriff am: 10.12.2021. 157 NASA: Sputnik and the Dawn of the Space Age. Ohne Datum. URL: https://history.nasa.gov/sputnik. html. Zugriff am: 10.12.2021. 158 DARPA (Ohne Datum.). 159 Vgl. Sutherland; Aspray (1989): S. 15–17. 160 Ebd., S. 11. Aus dem Interview geht zudem hervor, dass Evans für ein früheres Projekt veranlasst durch Sutherlands Vorgänger J. C. R. Licklider ebenfalls bereits Fördergelder von der ARPA erhalten hatte. Evans und auch andere Forscher, denen Licklider Finanzierung ermöglicht hatte, nahmen für
63
64
Scheler: Computergrafik
Aus produktionsästhetischer Perspektive zeichnen sich hier zwei Aspekte ab, die für die Entwicklung computergrafischer Bilder wegweisend erscheinen. So spielt nicht nur Ivan E. Sutherland auf mehreren Ebenen eine zentrale Rolle, auch die geschichtlichen Zusammenhänge, die zur Gründung der ARPA geführt haben, liefern ein signifikantes produktionsästhetisches Detail, das zumindest hintergründig die Entwicklung von 3D-Computergrafiken vorangetrieben hat. Denn obwohl Evans’ Forschungsprojekt erst neun Jahre nach dem sowjetischen Sputnik-Erfolg ins Leben gerufen wurde, wird hier deutlich, von welchem Forschungsgeist die Untersuchungen an der University of Utah begleitet wurden: Eine technologische Niederlage gegenüber einer anderen Nation sollte sich nach Möglichkeit nicht wiederholen, und wie sich anhand Gourauds, Phongs und Blinns Shader-Algorithmen zeigt, wurden so in der Tat innerhalb des Forschungsprojekts Graphical Man/Machine Communications sowie in daran anschließenden Studien am selben Standort die wesentlichen Komponenten entwickelt, die global auch heute noch in erheblicher Weise Einf luss auf die Arbeitsweise in der computergrafischen Softwarelandschaft nehmen.161 Bevor allerdings der Blick auf Evans’ und Sutherlands Arbeit in Utah gerichtet wird, soll in einem ersten Schritt die gedankliche Vorarbeit Sutherlands vorgestellt werden, da das von ihm praktisch herbeigeführte Umdenken im Programmierprozess ein Fundament bildet, auf dem alle weiteren Erkenntnisschritte dieser Studie auf bauen. Zentral ist dafür der Technical Report, den er im Rahmen seiner Doktorarbeit verfasste, um die Entwicklung und die Funktionsweise des Programms Sketchpad darzustellen. Neben den technisch-mathematischen Erläuterungen gibt der Bericht in entscheidender Weise Aufschluss über die Motivation Sutherlands. So lässt sich produktionsästhetisch erschließen, mit welchen Impulsen er später neben seinen rein technischen Errungenschaften in Evans’ Forschungsprojekt Einf luss genommen hat. Um diese weltanschaulichen Aspekte besser einordnen zu können, wird zudem Sutherlands Forschungskontext am MIT in die Untersuchung einbezogen, da anzunehmen ist, dass seine Intentionen durch dieses Umfeld beeinf lusst wurden. Im Fokus steht hier Steven Anson Coons, der in den 1960er Jahren als Associate Professor für ›Engineering Graphics‹ am MIT im Fachbereich des Maschinenbaus tätig und in dieser Funktion Mitglied von Sutherlands Thesis Committee war.162 Robert W. Mann, ein MIT-Kollege von Coons, berichtet, dieser sei unter den Betreuern der Einzige gewesen, der einen Hintergrund als Entwurfszeichner besaß.163 Zudem beschäftigte sich Coons intensiv mit der Frage, an welchen Punkten menschliche Kreativität mit maschineller Intelligenz vereinbart werden könne. Laut Mann sei Sutherland auf Coons aktiv zugegangen, Sutherland eine Art Vorbildrolle ein: »I felt that those were the kind of senior people in the field, and they had a pretty clear idea as to what good things to do were.« Sutherland; Aspray (1989): S. 8. 161 Eine detaillierte Darstellung dieser Entwicklungen erfolgt in Abschnitt 3. University of Utah – Die Wiege der zeitgenössischen 3D-Computergrafik in der vorliegenden Studie. 162 Vgl. bspw. Sutherland; Aspray (1989): S. 5. 163 Den Vorsitz des Thesis Committee hatte der Elektrotechniker Claude E. Shannon. Vgl. Robert W. Mann: Computer-Aided Design – 1959 Through 1965 – in the Design and Graphics Division of MIT’s Mechanical Engineering Department. In: Fundamental Developments of Computer-Aided Geometric Modeling. Hrsg. v. Les A. Piegl. London: Academic Press, 1993, S. 381–396, hier S. 385. Punktuell wird in den nachfolgenden Kapiteln auf Shannon erneut Bezug genommen. Vgl. hierzu insbes. Kapitel 2.1.1 Mehrzweckcomputer und Lichtstif te – Die Hardwareausstattung Sutherlands.
Einleitung
um ihn als Mitglied für das Thesis Committee zu gewinnen,164 weshalb sich die von Sutherland hervorgebrachten Erkenntnisse wesentlich tiefgreifender verstehen lassen, wenn Coons in dieser Geschichtsschreibung ebenfalls berücksichtigt wird. Um die neuen Programmieransätze und ihre Auswirkungen auf den Produktionsprozess besser einordnen zu können, ist es erkenntnisreich, weitere parallele Entwicklungen in den Fokus zu nehmen, die nicht unmittelbar mit der University of Utah und dem MIT zusammenhängen. Hierfür eignet sich insbesondere die Forschung von Charles A. Csuri und William A. Fetter, ebenfalls Pioniere im Bereich der Computergrafik. Csuri ist ein bildender Künstler, der in den 1950er Jahren begann, den Computer als Ausdrucksmittel zu erkunden. Fetter war – wie auch Coons vor seiner Tätigkeit am MIT – als Entwurfszeichner im Bereich des Flugzeugbaus tätig, wobei Fetter sich selbst vor allem als Kommunikationsdesigner verstand.165 Beide arbeiteten etwa zeitgleich zu Sutherland und Coons mit prozeduralen Programmierverfahren, jedoch auf Basis ganz eigenständiger Vorstellungen sowohl in Bezug auf das Thema der Bildlichkeit als auch im Hinblick auf die Frage, welche Rolle der Computer bei ihrer kreativen Arbeit spielt. Sie bilden nicht nur eine Kontrastfolie zueinander, sondern ebenso zu den Entwicklungen am MIT und zu denen an der University of Utah. Die Entwicklungen am MIT werden nun in folgender Weise vorgestellt: Zunächst wird anhand von Sutherlands Programm Sketchpad das Umdenken dargestellt, das in den 1960er Jahren im Programmierprozess erfolgt ist. Darauffolgend werden in Kapitel 2.2 Parallelentwicklungen – Der Computer in der bildenden Kunst und im Design der 1960er Jahre zunächst Csuris und anschließend Fetters Produktionsprozesse aufgezeigt sowie Sutherlands Ansatz kontrastierend gegenübergestellt. In Kapitel 2.3 Steven A. Coons – Eine neue Zusammenkunf t zwischen Mensch und Maschine wird zudem Coons vorgestellt. Dieser bildet den Übergang zum dritten Teil der Studie, der sich mit der Forschung an der University of Utah befasst. Den Endpunkt der historischen Untersuchung bildet Edwin Catmull, einer der späteren Gründer des Animationsstudios Pixar, da bei ihm die zeichnerischen und weltanschaulichen Impulse Coons’ und Sutherlands erstmals
164 Sutherland schildert dieses Ereignis in seinem Report ebenfalls: »I made contact with the Computer Aided Design Group at MIT which was composed partly of the people of the MIT Electronic Systems Laboratory […] who developed APT [Automatically Programmed Tool] and partly of people in the Mechanical Engineering Department who brought a knowledge of the problems faced by designers to the project. […] I was able to visit many separate laboratories for discussion and ideas without becoming so attached to any one that I was forced into its way of thinking. In particular, members of the Mechanical Engineering Department, notably Professor Steven A. Coons, who agreed to serve on my thesis committee, suggested mechanical design problems and applications.« Sutherland (1963a): S. 25–26. 165 Coons arbeitete von 1940 bis 1947 als Mathematiker und Designer für Chance-Vought Aircraft. In den 1930er Jahren hatte er zudem eine Tätigkeit als Illustrator im Verlagswesen aufgenommen, die er auch während seiner Anstellung am MIT weiter ausübte. Vgl. Mann (1993): S. 382. Fetter arbeitete für die Boeing Company und fertigte Computergrafiken vor allem für Flugzeuge im militärischen Be reich an. Gleichzeitig verstand er seine computergrafischen Kommunikationsmethoden als über tragbar auf andere Bereiche, beispielsweise die Gestaltung von Autobahnen, die Architektur, den Schiffbau, das Industriedesign oder auch die Stadtplanung. Vgl. hierzu die Kapitel ›Typical Applica tions‹ und ›Other Applications‹ in William A. Fetter: Computer Graphics in Communication. Written for the Course Content Development Study in Engineering Graphics, supported by the National Sci ence Foundation. New York, NY u. a.: McGraw-Hill, 1965.
65
66
Scheler: Computergrafik
in vollem Umfang nicht nur auf produktionsästhetischer, sondern auch auf bildästhetischer Ebene Ausdruck finden. Eine Übersicht aller im Rahmen der Geschichtsschreibung erwähnten Personen befindet sich in einem Organigramm auf der letzten Seite dieses Buchs.
2
Der Computer als kreativer Partner – Die frühen Entwicklungen der Computergrafik am Massachusetts Institute of Technology
2.1
Ivan E. Sutherlands Sketchpad und die Geburt der ›universellen‹ Computerzeichnung
The Sketchpad system makes it possible for a man and a computer to converse rapidly through the medium of line drawings. Heretofore, most interaction between men and computers has been slowed down by the need to reduce all communication to written statements that can be typed; in the past, we have been writing letters to rather than conferring with our computers.1 – Ivan E. Sutherland (1963)
Sutherland untersuchte im Rahmen seines Dissertationsprojekts in den Jahren von 19612 bis 1963 schon vor seiner Tätigkeit in Utah die Interaktion zwischen Mensch und Computer. Seine Forschungsarbeit bestand dabei aus zwei Bausteinen: erstens dem praktischen Anliegen, ein Computerprogramm zu entwickeln, das er Sketchpad nannte und dessen hauptsächliche Aufgabe es sein sollte, die Kommunikation zwischen dem Computer und dem Menschen zu erleichtern, sowie zweitens einer schriftlichen Dokumentation seiner Vorgehensweise in Form eines technischen Reports, der die Evolution des Programms darlegt und wesentliche Erkenntnisse der Forschungsarbeit erläutert. Der Report Sutherlands mit dem Titel Sketchpad: A man-machine graphical communication system bildet die Grundlage dieses Kapitels. Herangezogen wird eine in Großbritannien am Computer Laboratory der University of Cambridge erschienene Ausgabe des Reports, die im Jahr 2003 von Alan Blackwell und Kerry Rodden 1 Ivan E. Sutherland: Sketchpad: A man-machine graphical communication system. Hrsg. v. Alan Blackwell und Kerry Rodden. Cambridge, UK: University of Cambridge, Computer Laboratory, 2003, S. 17. 2 Vgl. Sutherland (1963a): S. 24.
68
Scheler: Computergrafik
herausgegeben und mit einem Vorwort kontextualisiert wurde. Die Schlüsse, die aus Sutherlands Forschungsleistung gezogen werden können, lassen sich anhand dieser Kontextualisierung in erheblicher Weise vertiefen. Sutherland selbst unterstützte die neue Herausgabe seines Reports – einerseits ideell, andererseits auch ganz praktisch, indem er selbst die vom Original gescannten Texte lektorierte.3 Im vorigen Kapitel wurde angemerkt, dass er mit Sketchpad ein Umdenken im Programmierprozess ausgelöst hat. Blackwell und Rodden bestätigen die besondere Rolle, die nicht nur das Programm, sondern auch der dazugehörige Report einnimmt: »Ivan Sutherland’s Sketchpad is one of the most influential computer programs ever written by an individual, as recognized in his citation for the Turing award in 1988. The Sketchpad program itself had limited distribution – executable versions were limited to a customized machine at the MIT Lincoln Laboratory – so its influence has been via the ideas that it introduced rather than in its execution. Sutherland’s dissertation de scribing Sketchpad was a critical channel by which those ideas were propagated, along with a movie of the program in use, and a widely-cited conference publication […]. [W]e believe it [der Report] deserves wider readership – hence the electronic archival publication.« 4 Blackwells und Roddens Anmerkung verdeutlicht, dass sich insbesondere die konzeptionellen Erneuerungen, die mit Sketchpad hervorgebracht wurden, anhand des Reports herausarbeiten lassen. Die Annahme lautet, dass sich Sutherlands gedankliche und auch praktische Konzeption von Sketchpad vor dem Hintergrund eines bestimmten Bild- und Weltverständnisses sowie einer bestimmten Vorstellung von Kreativität ereignet hat, die den heutigen Produktionsprozess synthetischer Bilder noch immer in entscheidender Weise prägt. Ziel ist es demnach für dieses Kapitel, anhand von Sutherlands Dokumentation sowie anhand des Vorworts von Blackwell und Rodden
3 Die Originalfassung wurde textlich hierbei nicht verändert: »We also chose not to correct any er rors we found in the original document, in order to provide the textual equivalent of a facsimile edition. These include a few spelling errors (to Ivan’s embarrassment), and also the rather idiosyn cratic fact that the original dissertation had two pages 106.« Alan Blackwell; Kerry Rodden: Preface. In: Ivan E. Sutherland: Sketchpad: A man-machine graphical communication system. Hrsg. v. dens. Cambridge, UK: University of Cambridge, Computer Laboratory, 2003, S. 3–6, hier S. 5. 4 Blackwell; Rodden (2003): S. 3. Das Conference Paper, auf das hier Bezug genommen wird, trägt denselben Namen wie der Report und fasst die darin ausführlich dargestellten Ergebnisse in ver kürzter Form zusammen. Die Seitenzahlen, die Blackwell und Rodden in ihrer Bibliografie nennen, weichen von den im Verzeichnis der Konferenz vermerkten Angaben ab. Vgl. Ivan E. Sutherland: Sketchpad. In: Proceedings of the Spring Joint Computer Conference – AFIPS ’63. Hrsg. v. E. Calvin Johnson. New York, NY: ACM Press, 1963, S. 329–346. Eine bibliografische Angabe zu dem Film, den die Autoren hier nennen, fehlt. Es ist anzunehmen, dass sie sich auf einen 1964 erschienenen Fernsehbeitrag beziehen, der vom MIT selbst produziert wurde und nicht nur die Verwendung von Sketchpad, sondern auch die von dem späteren Masterstudenten Timothy Johnson entwickelte Pro grammversion Sketchpad III zeigt, in der erstmals auch perspektivische Zeichnungen ermöglicht wurden. Sowohl Johnsons Beitrag als auch der Film werden in den Kapiteln 2.3 Steven A. Coons – Eine neue Zusammenkunft zwischen Mensch und Maschine und 3.2 Opazität, Licht und Animation – Eine Strategie zur Umsetzung des gemeinsamen Ziels erneut thematisiert. Vgl. John Fitch: MIT Science Reporter. Computer Sketchpad. Regie: Russell Morash. Boston, MA: National Educational Television, 1964.
Der Computer als kreativer Partner
Abb. 19: MIT Museum (Hg.), TX-2-Computer, ohne Datum, Fotografie.
Abb. 20: Ivan E. Sutherland, TX-2 operating area – Sketchpad in use, 1963, Fotografie.
herauszuarbeiten, inwiefern sich diese Annahme bestätigen lässt, und so Erkenntnisse darüber zu gewinnen, auf welche Weise Sketchpad den Produktionsprozess heutiger 3D-Computergrafiken beeinf lusst. Sutherlands zentrale Idee war es, potenziellen Anwendern des Computers die Kommunikation mit der Maschine mittels grafischer Eingaben zu ermöglichen, ohne besondere computertechnische Vorkenntnisse besitzen zu müssen,5 wobei hier angemerkt sein sollte, dass der Computer, an dem Sutherland arbeitete, in keiner Weise heutigen Geräten ähnelt (Abb. 19 & 20). Die Maschine wird im weiteren Verlauf des Kapitels eingehender vorgestellt, doch vorwegnehmen lässt sich, dass bis zum damaligen Zeitpunkt der kommunikative Zugang zu Computern ausschließlich jenen Personen vorbehalten war, die mit der Nutzung programmiersprachlicher Befehle vertraut waren. Auch ein einige Jahre zuvor entwickelter Lichtstift, mithilfe dessen Eingaben auf 5 Vgl. Sutherland (2003): S. 35.
69
70
Scheler: Computergrafik
einem Röhrenbildschirm vorgenommen werden konnten, änderte nichts daran, dass ein spezielles Wissen die Voraussetzung für die Bedienung des Computers blieb. Suth erland machte sich für sein Vorhaben diese neue Vorrichtung zunutze. Ohne sie wäre seine Idee einer grafischen Eingabemöglichkeit am Computer, die sich auch für Laien eignet, gar nicht realisierbar gewesen. Er selbst stellt dar, inwiefern er mit seinem Vorhaben an ein noch junges Forschungsfeld anknüpft: »I had been surprised that so little practical work had been done in application of computers to line drawing, especially since display systems and light pens were relatively common when my work began.«6 Die Möglichkeit, auf einem Display zu zeichnen, lernte er bei seinem Kollegen Herschel H. Loomis kennen, der »some preliminary drawing work«7 leistete und diese Erfahrungen mit Sutherland teilte. Loomis’ Forschungsabsicht war es, ein Programm zu entwickeln, das als »›sketch pad‹ for the drawing of logical block diagrams«8 zum Einsatz kommen könne. Obwohl er hier mit derselben Begrif f lichkeit arbeitet wie Sutherland, führt Loomis bis auf die Möglichkeit, Schaltpläne zu zeichnen, keine weiteren Anwendungsmöglichkeiten oder bildästhetischen Hinweise an. Sutherland entwickelte für sein Zeichenprogramm wesentlich umfangreichere Visionen. Er erweiterte mit Sketchpad also nicht nur die zeichnerischen Absichten Loomis’ in erheblicher Weise, sondern er entwickelte vor allem im Hinblick auf den Umgang mit dem Computer einen grundsätzlich neuen Ansatz.9 Was stellte sich Sutherland unter den von ihm so bezeichneten ›line drawings‹ vor? Eine Antwort auf diese Frage lässt sich anhand der Anwendungsbereiche erschließen, die er zu Beginn seiner Arbeit präsentiert. So erläutert er, es hätten sich im Laufe seiner Projektarbeit insgesamt vier Felder herauskristallisiert: Die Nutzung (1) für kleine Änderungen an bereits bestehenden Zeichnungen, (2) für das Erlangen eines wissenschaf tlichen oder technischen Verständnisses grafisch darstellbarer Operationen, (3) als topologisches Eingabegerät beispielsweise für die Simulation von Schaltkreisen und (4) für das Fertigen hochgradig repetitiver Zeichnungen.10 Die Anwendungsgebiete Sketchpads zielen dieser Auf listung zufolge vorrangig auf die Lösung technischer Fragen und Probleme ab. In seiner Einführung stellt Sutherland heraus, dass zu Beginn seiner Recherchen noch nie technische Zeichnungen auf einem Bildschirm in der Art und Weise gefertigt wurden, wie er sie mit Sketchpad ermöglicht hat: »[C]onsequently no one knew what it would be like.«11 Anhand der Einordnung Blackwells und Roddens lässt sich diese Aussage Sutherlands noch verdeutlichen, denn ausgehend von der heute ubiquitären Verbreitung von Computern ist es schwierig nachzuvollziehen, vor welchen Herausforderungen Sutherland stand:
6
Ebd., S. 32.
7
Ebd., S. 31. Vgl. Herschel H. Loomis: Graphical Manipulation Techniques Using the Lincoln TX-2 Com puter. Massachusetts Institute of Technology, Lincoln Laboratory, Lexington, MA. Cambridge, MA: MIT Libraries, Distinctive Collections, 1960.
8
Loomis (1960): S. 1.
9
Loomis führt gemäß dem prozeduralen Programmierparadigma in seinem Dokument sogenannte ›Program Flow Diagrams‹ auf, in denen die prozedurale Struktur seines Ansatzes sichtbar wird. Vgl. Loomis (1960): S. 16–18.
10 Nach Sutherland (2003): S. 28–29. 11 Ebd., S. 28.
Der Computer als kreativer Partner
»As with many early publications of computer science, this dissertation is also interest ing for the way in which it explores important concepts that are now considered famil iar, but which at the time demanded continual small discoveries by every researcher. […] The struggles of developing custom hardware while also exploring far-reaching ab stractions are also far removed from current research experiences.« 12 Blackwell und Rodden heben in ihrem Vorwort einige Kapitel aus Sutherlands Report besonders hervor. Eines davon, Kapitel 9 ›Examples and Conclusions‹, ist auch für diese Studie von besonderer Bedeutung. Neben den vier technischen Anwendungsgebieten von Sketchpad erörtert Sutherland darin in Form eines Ausblicks weitere Verwendungszwecke seines Programms. Zentral für diese Studie ist insbesondere sein Unterabschnitt »Artistic Drawings«13. Ohne zu definieren, was den künstlerischen Anspruch an eine Zeichnung ausmachen könnte, widmet Sutherland sich hier der freien und kreativen Nutzung seines Programms und liefert damit besonders zentrale Erkenntnisse über sein Bild- und Weltverständnis. Dieser Ausblick Sutherlands wird im letzten von den vier folgenden Themenblöcken untersucht: Zunächst soll in einem ersten Schritt seine technische Ausstattung sowie im zweiten Schritt die Veränderung herausgestellt werden, die sich durch Sketchpad im Programmierprozess vollzogen hat. In einem dritten Schritt wird danach gefragt, wie durch die Veränderungen kreative Prozesse am Computer nicht nur damals, sondern auch heute beeinf lusst werden. Im vierten und letzten Schritt befasst sich die vorliegende Studie mit der freien Nutzung Sketchpads.
2.1.1
Mehrzweckcomputer und Lichtstifte – Die Hardwareausstattung Sutherlands
Obwohl Sutherland nicht als Erster die Idee hatte, mit einem Stift auf einem Bildschirm zu zeichnen, lässt sich bei ihm ein Startpunkt setzen, grafische Eingaben am Computer systematisch als Bedienelemente aufzufassen. Seine zu jener Zeit aus der Entwicklung von Sketchpad hervorgebrachten Erkenntnisse tragen grundlegend zu der Art und Weise bei, wie Computer heute bedient werden. Die Veränderung, die sich im Umgang mit dem Computer allein durch diese Absicht Sutherlands abzeichnen lässt, verdeutlichen auch Blackwell und Rodden in ihrem Vorwort: »After 40 years, ideas introduced in Sketchpad still influence how every computer user thinks about computing. It made fundamental contributions in the area of human-com puter interaction, being one of the first graphical user interfaces. It exploited the light-pen, predecessor of the mouse, allowing the user to point at and interact with objects displayed on the screen. This anticipated many of the interaction conventions of direct manipula tion, including clicking a button to select a visible object, and dragging to modify it.«14 Wenngleich mit dieser Aussage Blackwells und Roddens ein Bezug zu der heutigen Nutzung von Computern sehr anschaulich gemacht werden kann und der Einf luss 12 Blackwell; Rodden (2003): S. 4. 13 Sutherland (2003): S. 107. 14 Blackwell; Rodden (2003): S. 3.
71
72
Scheler: Computergrafik
der Sketchpad-Entwicklung nicht relativiert werden soll, ist dennoch anzunehmen, dass Sutherland mit seiner Erfindung nicht bei null begonnen hat, sondern auch über Loomis hinaus an bereits bestehende Arbeitsstrukturen anknüpfen konnte, die seine Ideen begünstigt haben. Ein Indikator für diese These ist die Interdisziplinarität des Programms. Schon in der Danksagung seines Reports wird deutlich, von welchen Arbeitsfeldern Sutherland während seiner Projektarbeit beeinf lusst wurde. Er selbst hatte ein Elektrotechnikstudium absolviert,15 weshalb es naheliegend ist, dass er zunächst einmal seinen Doktorvater, den Mathematiker und Elektrotechniker Claude E. Shannon, hervorhebt. Darüber hinaus führt er Marvin Minsky an, der 1951 die erste Simulation eines neuronalen Netzes entwickelt hatte.16 Andererseits dankt er Steven Anson Coons und Douglas T. Ross, beide Mitglieder einer damals am MIT verorteten Forschungsgruppe, die sich mit dem Feld des Computer Aided Design (CAD) befasste. Nicht zuletzt nennt er beispielsweise ebenfalls Wesley A. Clark, der schon im Jahr 1957 maßgeblich daran beteiligt war, den Computer TX-2 zu entwerfen17, auf dem Sutherland Sketchpad später entwickeln konnte. Der Bereich der Informatik existierte zu jener Zeit noch nicht.18 Coons nimmt insbesondere in Bezug auf das Bildverständnis, das auch heutigen Computergrafiken noch zugrunde liegt, eine besonders zentrale Rolle ein. Ihm wird deshalb im weiteren Verlauf dieser Studie ein eigenes Kapitel gewidmet. Es folgt nun ein Blick auf Clark und den Computer TX-2, denn die Art und Weise, wie er gestaltet wurde, antizipierte eine Anwendung wie Sketchpad bereits. Bevor Sutherland sein Programm Sketchpad an dem Computer TX-2 realisierte, arbeitete er noch im Jahr 1960 an dem Vorgängermodell TX-0, der ebenfalls mit einem 15 Seinen Bachelor-Abschluss absolvierte er am Carnegie Institute of Technology (heute Carnegie Mellon University), Master-Abschluss am California Institute of Technology. Vgl. bspw. Ivan. E. Sutherland; Karen A. Frenkel: An interview with Ivan Sutherland. In: Communications of the ACM 32/6, 1989, S. 711–718, hier S. 711. 16 Den Mathematiker und Elektrotechniker Claude E. Shannon lernte Sutherland gemeinsam mit des sen Bruder Bert in seiner Jugendzeit kennen, also lange bevor er später am MIT forschte. Shannon habe durch diese frühe Begegnung großen Einfluss auf Sutherland gehabt, wie dieser selbst dar stellt. Vgl. Sutherland; Frenkel (1989): S. 712; vgl. MIT; Marvin Minsky: Marvin Minsky. Ohne Datum. URL: https://web.media.mit.edu/~minsky/. Zugriff am: 11.12.2021. 17 Vgl. Wesley A. Clark: The Lincoln TX-2 computer development. In: Western joint computer confer ence – IRE-AIEE-ACM ’57. Hrsg. v. M. M. Astrahan. New York, NY: ACM Press, 1957, S. 143–145. 18 Noch während Sutherland am MIT an der Fertigstellung von Sketchpad arbeitete, formte sich im Jahr 1963 dort ein neuer Fachbereich, der zunächst als Project MAC (Multiple Access Computing or Machine-Aided Cognition) bekannt war und erst später den Begriff Informatik, also im Englischen ›Computer Science‹, aufgriff. Sutherland selbst verweist in einem 1989 geführten Interview darauf, dass er Sketchpad einigen an der Gründung von Project MAC Beteiligten zeigen konnte, an dem er selbst jedoch nicht mitgewirkt hatte. Gleichzeitig geht aus dem Interview hervor, dass Project MAC ebenfalls von der ARPA gefördert wurde, allerdings vor Sutherlands eigener Anstellung dort. Vgl. Sutherland; Aspray (1989): S. 4 und S. 8. Heute heißt der Fachbereich Computer Science & Artificial Intelligence Lab (CSAIL). Ähnlich wie das Forschungsprojekt in Utah wurden die Anfänge dieser For schungsfelder auch am MIT mit Militärgeldern gefördert: »CSAIL has its roots in two MIT computing powerhouses: The Laboratory for Computer Science (LCS) and the Artificial Intelligence Laboratory (AI Lab). […] LCS was founded in 1963 as Project MAC (Multiple Access Computing or Machine-Aided Cognition), a project sponsored by the Department of Defense to develop a computer system acces sible to a large number of people.« MIT CSAIL: Mission & History. Ohne Datum. URL: https://www. csail.mit.edu/about/mission-history. Zugriff am: 11.12.2021.
Der Computer als kreativer Partner
Bildschirm sowie einem Lichtstift ausgestattet war. Schon zu jener Zeit habe er den Einfall gehabt, die Fertigung von Strichzeichnungen (›line drawings‹) künftig am Computer zu ermöglichen.19 Er wandte sich mit seiner Idee schließlich an Clark, um mit ihm die potenzielle Nutzung des TX-2 für sein Vorhaben zu vereinbaren: »I owe a great deal to Mr. Clark’s initial enthusiam and, though I didn’t know it at the time, to the many design features he had incorporated into TX-2 seemingly with just such a proj ect in mind.«20 Sutherland verweist mit seiner Aussage zu den Designmerkmalen des Computers auf einen von Clark (et. al.) verfassten technischen Bericht zur Entwicklung des Computers im Jahr 1957.21 Ein Hauptmerkmal beider Modelle, also des TX-0 und des TX-2, auf das Clark gleich zu Beginn seines Berichts hinweist, ist die Fähigkeit der Computer, Operationen in Echtzeit zu bearbeiten. Neben dem Röhrenbildschirm, mit dem auch der TX-2 ausgestattet war, wurde beim TX-2 vor allem Wert auf eine gesteigerte Leistungsfähigkeit gelegt. In einem Unterabschnitt, den Clark mit dem Titel ›Design Objectives‹ versieht, betont er allerdings: »In describing design objectives, it should be pointed out that speed of operation was not the primary consideration to which all other attributes were sacrificed. […] The prin cipal objective was rather that of achieving a balance among the factors of speed, reli ability, simplicity, flexibility, and general virtue.«22 In einer Diskussion, die im Zusammenhang mit Clarks Beitrag geführt und in dem Bericht ebenfalls abgedruckt wurde, führt Clark weiter aus, welchen Einsatz er für seinen Computer im Blick hatte: »What motivated the computer was an obvious desire to make something better. […] This machine is to be used in simulating physical systems.«23 Die abstrakte Ebene, auf der Clark die Nutzung des TX-2 beschreibt, wird anhand des auf ihn folgenden Beitrags auf derselben Tagung im Jahr 1957 etwas konkreter. Darin bezeichnen die Autoren J. M. Frankovich und H. P. Peterson den TX-2 als einen »general purpose computer«24. Die Bezeichnung gewährt einen Einblick in die sich damals entwickelnde Vorstellung, Computer nicht nur für spezielle Felder, sondern auch allgemein zu nutzen. Es wurde zu jener Zeit erstmals der Anspruch an eine Universalität der Geräte formuliert. In der Zusammenfassung des Berichts von Frankovich und Peterson wird dieser Anspruch erneut aufgegriffen, allerdings eröffnen sie hier den Blick auf eine Problematik, die noch heute debattiert wird und mit der sich auch Sutherland bei seiner Entwicklung von Sketchpad konfrontiert sah: »However, 19 Vgl. Sutherland (2003): S. 31. 20 Ebd., S. 31. 21 Die Benennung der beiden Generationen des Computers leitet sich von technischen Merkmalen ab, die die beiden Geräte charakterisieren, es existiert deshalb kein Modell TX-1: »After some thought about the various possible minimal machines, a design was completed in which the word length would be 18 bits – a graceful half of the projected final form. We began to refer to this computer as the TX-0 and to the projected machine as the TX-2.« Clark (1957): S. 144. 22 Clark (1957): S. 144. Herv. i. O. 23 Ebd., S. 145. 24 J. M. Frankovich; H. P. Peterson: A functional description of the Lincoln TX-2 computer. In: Western joint computer conference – IRE-AIEE-ACM ’57. Hrsg. v. M. M. Astrahan. New York, NY: ACM Press, 1957, S. 146–155, hier S. 150.
73
74
Scheler: Computergrafik
this versatility and efficiency is not accompanied by a disastrous loss in simplicity. The system organization is such that details can be easily ignored by the naive programmer, without the details having even subtly obtrusive effects.«25 Zentral ist die hier zum Ausdruck gebrachte Gegenüberstellung einer vielseitigen Nutzung auf der einen Seite mit der Sorge um einen möglichen Verlust an Komplexität auf der anderen Seite. Die Autoren versichern, dass der TX-2 trotz seiner vielfältigen Einsatzmöglichkeit nicht zu einer Vergröberung der Vorgänge führe, dass jedoch auch ein ›naiver‹ Nutzer ihn leichter bedienen könne. Laut der Definition der beiden Autoren muss dieser Nutzer allerdings noch immer als jemand verstanden werden, der programmieren kann, denn in ihren Schilderungen zur Bedienung des TX-2 wird deutlich, dass die Eingaben über sprachliche Befehle erfolgen.26 Wie angekündigt, veränderte Sutherland mit Sketchpad die Voraussetzungen für die Bedienung des Computers und ermöglichte die Eingabe von grafischen Elementen, ohne programmieren zu können. Auf welche Weise sich die Bedienung für unerfahrene Nutzer gestaltete, beschreibt er folgendermaßen: »The user group experience showed that relatively new users with no programming knowledge could produce simple drawings with the system if a skilled user (myself) prepared the building blocks necessary.«27 Sutherland eröffnet hier ähnlich wie Frankovich und Peterson eine Gegenüberstellung zwischen erfahrenen und ›naiven‹ Anwendern. Die Problematik, die sich bei den beiden Autoren abzeichnet, verschärft sich allerdings bei Sutherland weiter. Die Trennung, die Sutherland hier so explizit eröffnet, erinnert an eine Aussage des Medienphilosophen Vilém Flusser, die er jedoch erst rund dreißig Jahre später 1991 in seinem Aufsatz Digitaler Schein trifft. Ohne sich auf Sutherland zu beziehen, spricht Flusser hier von einer »Spaltung der Gesellschaft in wenige Programmierer, die numerisch denken, und viele Programmierte, die buchstäblich denken«28. Auch Blackwell und Rodden thematisieren in ihrem Vorwort die Gegenüberstellung dieser beiden Gruppen. Sie veranschaulichen, inwiefern die Herausforderung, vor der Sutherland mit seinem Anspruch stand, auch heute noch Relevanz besitzt. Sutherland selbst habe noch versucht, mithilfe der grafischen Eingabemöglichkeiten die Kommunikation mit dem Computer zwar zu erleichtern und damit auch zu verallgemeinern, dabei jedoch gleichzeitig die Komplexität, die sich mit der Eingabe von sprachlichen Befehlen erzielen lässt, aufrechtzuerhalten. Anhand der gegenwärtigen Gestaltung von Benutzeroberf lächen zeigt sich jedoch, dass sich Sutherlands Anspruch langfristig nicht durchsetzen konnte: »In contrast, direct manipulation interfaces have since succeeded by reducing the levels of abstraction exposed to the user. Ongoing research in end-user programming contin ues to struggle with the question of how to reduce the cognitive challenges of abstract manipulation. Nevertheless, Sutherland’s attempt to remove the division bet ween us ers and programmers was not the only system that, in failing to do so, provided the imaginative leap to a new programming paradigm.«29 25 Frankovich; Peterson (1957): S. 154. 26 Vgl. ebd., S. 146. 27 Sutherland (2003): S. 35. 28 Vilém Flusser: Digitaler Schein. In: Digitaler Schein. Ästhetik der elektronischen Medien. Hrsg. v. Florian Rötzer. Frankfurt am Main: Suhrkamp, 2001, S. 147–159, hier S. 151. 29 Blackwell; Rodden (2003): S. 3–4.
Der Computer als kreativer Partner
Blackwell und Rodden nehmen hier Bezug auf die Programmiersprache Simula, die gedanklich einen ähnlichen Ansatz verfolgte wie Sketchpad und ebenfalls dem objektorientierten Programmierparadigma zugeordnet werden kann.30 Während Simula die erste offizielle und weit verbreitete Programmiersprache war, fand sich, wie in der Einführung thematisiert, auf konzeptioneller Ebene die Herangehensweise in Sketchpad schon einige Jahre früher wieder. Zentral für den weiteren Verlauf dieses Kapitels sowie für die gesamte Studie ist nun also Blackwells und Roddens Hinweis auf das damals neue Programmierparadigma.
2.1.2 Entwickler und Anwender – Ein neues Spannungsfeld Die bis zu Sutherlands Sketchpad übliche Vorgehensweise war es, einen Vorgang am Computer prozesshaft vom Anfang bis zum Ende zu beschreiben, womit einhergeht, dass das Arbeitsziel zu Beginn eines Vorgangs bekannt sein und von vornherein angestrebt werden muss.31 Sketchpad war demgegenüber auf eine Weise gestaltet, dass der Prozess of fen beginnen sowie ein einmal produziertes Ergebnis auch nachträglich verändert werden konnte. Mit Sutherlands Sketchpad ist demnach erstmals ein Wechsel vom prozeduralen zum sogenannten objektorientierten Programmierparadigma erfolgt. Obwohl Sutherland selbst den Begrif f des objektorientierten Programmierens noch nicht verwendet hat, entwickelte er für seine entworfenen Programmfunktionen eigene Bezeichnungen, anhand derer der Paradigmenwechsel erkennbar wird. In einem Glossar am Ende seines Berichts werden die einzelnen Operationen vorgestellt und definiert. Zahlreiche dieser Bedienelemente sind noch heute in Verwendung, beispielsweise das Kopieren oder Löschen eines Elements. Besonders gut veranschaulichen lässt sich der objektorientierte Programmierprozess anhand sogenannter Instanzen. Sutherland selbst schreibt ihnen eine besonders zentrale Rolle innerhalb von Sketchpad zu, denn sie seien »[t]he most powerful tool […] for creating large complex drawings quickly and easily«32. Sutherland erläutert den Begrif f folgendermaßen: »A fixed geometry subpicture represented very compactly in storage by reference to a master and indication by four numbers of the size, rotation, and location of the subpicture. Internal structure of an instance is visible and may contain other instances, but since it is
30 Simula ist eine von den zwei norwegischen Informatikern Ole-Johan Dahl und Kristen Nygaard in den 1960er Jahren entwickelte Programmiersprache. Casey Alt schildert, inwiefern sich Alan Kay, der den Begriff ›objektorientiert‹ etwas später prägte, intensiv sowohl mit Simula als auch mit Sketchpad auseinandersetzte, bevor er seine eigene Sprache Smalltalk entwickelte. Er erkannte, dass beide Systeme überaus ähnlich funktionieren. Vgl. Alt (2002): S. 409–410. Vgl. zudem Ole-Jo han Dahl; Kristen Nygaard: SIMULA: an ALGOL-based simulation language. In: Communications of the ACM 9/9, 1966, S. 671–678. 31 Für eine umfassende Erläuterung zu verschiedenen prozeduralen Programmieransätzen vgl. Alt (2011): S. 288–291. 32 Sutherland (2003): S. 82.
75
76
Scheler: Computergrafik
identical in appearance to the master it cannot be changed without changing the master. Except for size, rotation, and location, all instances of one master look the same.«33 Diese abstrakte Definition lässt sich beispielsweise anhand einer schematischen Darstellung eines elektrischen Schaltkreises veranschaulichen. Sollen in einem solchen Schaltkreis etwa mehrere Glühbirnen verzeichnet sein, reicht es aus, vorab eine Glühbirne als Masterbild zu zeichnen, um davon anschließend Instanzen zu bilden, die dann alle weiteren Glühbirnen darstellen. Jede Instanz kann eine eigene Position im Bild einnehmen, ihr Erscheinungsbild ist jedoch immer identisch mit dem Masterbild. Sollte der Wunsch bestehen, eine Veränderung an allen Glühbirnen vorzunehmen, reicht es aus, lediglich das Masterbild zu verändern. Alle Instanzen im Schaltkreis passen sich zur gleichen Zeit an. Und sollte eine der Glühbirnen für etwas anderes verwendet werden, lässt sich beispielsweise eine der Instanzen in eine Kopie umwandeln, wodurch sie ein unabhängiges Objekt wird und verändert werden kann, ohne das Erscheinungsbild der vorher verbundenen Instanzen zu beeinf lussen. Die Instanz würde dafür aus der hierarchischen Struktur herausgelöst und als Kopie parallel zu der Master-Zeichnung der Glühbirne als eigene Struktur abgespeichert.34 Diese von Sutherland entwickelte Gegenüberstellung von Instanz und Kopie ist bis heute erhalten geblieben. Sowohl die Software als auch die Hardware ist heute eine andere, allerdings finden sich vergleichbare Bausteine heutzutage im täglichen Umgang mit dem Computer.35 An diesen beiden Funktionen Sketchpads und insbesondere an den dargestellten parallelen Vorgängen und Hierarchien wird sichtbar, was das neue Paradigma auszeichnet: Ein prozeduraler Programmiervorgang hätte im Kontrast dazu bei einem Änderungswunsch an einer fertigen Schaltkreiszeichnung neu begonnen werden müssen. Sutherland erkannte, dass die Möglichkeit, nachträgliche Veränderungen vornehmen zu können, den Arbeitsprozess öffnet. Die für diese Studie besonders relevante Konsequenz, die mit diesem neuen Arbeiten am Computer einherging, ist die Möglichkeit, von nun an das Arbeitsziel bei Beginn der Tätigkeit nicht mehr kennen zu müssen. Erst während seiner Arbeit an Sketchpad gelangte Sutherland zu der Erkenntnis, dass diese neue Offenheit im Arbeitsprozess ein wesentlich größeres Anwendungsfeld für sein Programm eröffnete, als er vorab antizipiert hatte:
33 Ebd., S. 142. Herv. i. O. 34 Vgl. ebd., S. 142. 35 In der 3D-Grafiksof tware Autodesk Maya wird der Begriff der Instanzen auch heute noch verwen det. Auch die Funktion ist ähnlich wie in Sutherlands Programm: »The Duplicate and Duplicate Special commands let you create either a complete duplicate or a lightweight instance of the origi nal. For example, you could create armies and forests full of duplicate objects without needing the memory or computing power to handle that much actual geometry. An instance is like an alias or shortcut or symbolic link in a file system: it’s a visual pointer back to the original. However, each instance has its own transform node so it can have its own position, rotation, and scaling. An in stance stays linked to the original so when the original changes, the instance changes too. If you move a control point on the original, all instances automatically update. Instances do not have their own control points.« Autodesk Maya Help: Copies vs. instances. Ohne Datum. URL: https://help. autodesk.com/view/MAYAUL/2022/ENU/?guid=GUID-2851AE11-C3EF-4AE1-B7C5-8773E2068BB9. Zugriff am: 11.12.2021.
Der Computer als kreativer Partner
»The organization of the elements of the drawing into types has facilitated the generali zation of the programs which comprise the Sketchpad system. The effort toward gener ality came relatively late in the research effort because I did not at first appreciate the power that a general approach could bring. Considerable reprogramming was done, however, to include as much generality as possible.«36 Sutherlands Verwendung des Begriffs ›generality‹ erinnert an die Vorarbeit seiner Kollegen, die den TX-2, an dem Sutherland Sketchpad programmierte, als ›general purpose computer‹ entwarfen. Dadurch, dass Sketchpad jedoch erstmals die Möglichkeit bot, mit dem Computer zu arbeiten, ohne programmieren zu können, ergibt sich für den Begriff ›generality‹ eine neue Bedeutungsebene. So ließ sich Sketchpad nicht nur als ein generelles Zeichenprogramm zum Einsatz bringen, es eröffnete zudem erstmals generell jedem Menschen die Möglichkeit, damit zu arbeiten. Mit dieser Öffnung, die sich nicht nur auf den Arbeitsprozess selbst, sondern darüber hinaus auch auf den Kreis der Anwender bezieht, liefert Sutherland eine zentrale Grundlage für die in dieser Studie verfolgte Fragestellung nach dem Produktionsprozess und die Annahme eines gemeinsamen Sinnzusammenhangs computergenerierter Bilder: Solange nicht jede Person die Fähigkeit besitzt, zu programmieren, lässt sich die Möglichkeit einer generellen Nutzung des Computers nur erlangen, indem Arbeitsprozesse am Computer vorgegeben werden. Sutherland hat demnach einen Rahmen, oder genauer: eine Begrenzung schaffen müssen, um eine größere Freiheit in der Anwendung seines Programms zu ermöglichen. Darüber hinaus hat er die Spaltung zwischen Programmierer und Anwender, also zwischen Experten und Laien, vorangetrieben. Der Wechsel zum objektorientierten Programmierparadigma hat deshalb zur Folge, dass der Produktionsprozess digitaler Erzeugnisse zur Hälfte im Verborgenen bleibt. Denn während der prozedurale Programmierprozess bis zum fertigen Bild den gesamten Produktionsprozess abbildet, weil hier die Felder der Entwicklung und Anwendung noch zusammenfallen, teilt sich mit dem objektorientierten Programmierparadigma der Produktionsprozess erstmals in zwei Phasen auf: eine, die den Entwickler betrifft, und eine, die den Anwender betrifft. Die erste Phase ist jedoch lediglich als Spur37 in Form von bereitliegenden Operationen zu erahnen, während die Anwendung dieser Operationen wesentlich prominenter wird, da beispielsweise der Gestaltungsprozess einer Grafik auf der Oberf läche erst hier beginnt. Für alle digitalen Erzeugnisse, die nicht im Rahmen eines prozeduralen Programmiervorgangs entstanden sind, gilt demzufolge, dass ihr Produktionsprozess sich in zwei Phasen teilt und dass sie in der ersten, verborgenen Phase einen gemeinsamen Sinnzusammenhang teilen, unabhängig davon, welche Produktionsschritte in der zweiten Phase erfolgen. Sutherlands Anteil am gemeinsamen Sinnzusammenhang synthetischer Bilder lässt sich deshalb zunächst einmal auf dieser grundlegenden Ebene herausarbeiten. Doch um im 36 Sutherland (2003): S. 47. 37 Der Begriff wird hier im Sinne von Sybille Krämer verwendet, die eine wesentliche Eigenschaft der Spur klar herausstellt: »Spuren sagen uns nichts, sondern sie zeigen uns etwas. Vor allem aber: das, was sie uns zeigen, muß beiläufig, also unbeabsichtigt entstanden sein – anderenfalls handelte es sich nicht um eine Spur, sondern um ein bewußt als Spur inszeniertes Zeichen.« Sybille Krämer: Das Medium als Spur und Apparat. In: Medien, Computer, Realität. Wirklichkeitsvorstellungen und Neue Medien. Hrsg. v. ders. Frankfurt am Main: Suhrkamp, 1998, S. 73–94, hier S. 79.
77
78
Scheler: Computergrafik
produktionsästhetischen Sinne die Erzeugung synthetischer Bilder begreifen zu können, ist es notwendig, nicht nur zu wissen, dass bereitliegende Operationen existieren, hinter denen sich ein Programmierprozess verbirgt, sondern auch zu fragen, wie die Auswahl an Operationen zustande gekommen ist. Mit welcher Intention wurden bestimmte Programmfunktionen entwickelt und andere nicht? Welche Beweggründe liegen hinter der Intention? Anhand der Auswahl der Programmfunktionen, die Sutherland für Sketchpad entwickelt hat, lässt sich – so die schon anfangs formulierte Annahme – ein bestimmtes Welt- und Bildverständnis herauslesen. Um dies zu veranschaulichen, sollen daher in den letzten beiden Unterkapiteln dieses Kapitels einige Programmfunktionen mitsamt ihrer künstlerischen Anwendung vorgestellt werden.
2.1.3 Copy and Paste – Interaktion und Effizienz in Sketchpad Die zuvor angeführte Beobachtung Blackwells und Roddens, Sutherland habe die Grenze zwischen Nutzer und Programmierer nicht überwinden können,38 lässt sich nach den Erkenntnissen aus dem vorigen Kapitel weiter zuspitzen. An den zwei Phasen im Produktionsprozess wird deutlich, dass Sutherland die Trennung zwischen der Entwickler- und Anwenderseite erstmals in dieser Deutlichkeit überhaupt herbeigeführt hat. Obwohl es laut Blackwell und Rodden Sutherlands eigener Anspruch war, die Komplexität der Kommunikation mit dem Computer nicht zu verringern, war er, da sich sein Programm auch für Laien eignen sollte, dazu gezwungen, bestimmte Operationen festzulegen, die ihm für die Arbeit mit Sketchpad nützlich erschienen. Da er zudem seinem Programm eine generelle Anwendbarkeit attestierte, die sich von fachspezifischen Belangen beispielsweise aus dem Bereich der Ingenieurszeichnung abhebt, sind seine entwickelten Programmfunktionen Ausdruck seiner Überzeugung, diesen generellen Nutzungsanspruch umsetzen zu können. In seinem Bericht wird deutlich, dass er nicht infrage stellt, ob generelle Funktionen überhaupt möglich sind, vielmehr setzt er sie voraus: »In the process of making the Sketchpad system operate, a few very general functions were developed which make no reference at all to the specific types of entities on which they operate. These general functions give the Sketchpad system the ability to oper ate on a wide range of problems. The motivation for making the functions as general as possible came from the desire to get as much result as possible from the program ming effort involved. For example, the general function for expanding instances makes it possible for Sketchpad to handle any fixed geometry subpicture. The rewards that come from implementing general functions are so great that the author has become reluctant to write any programs for specific jobs.«39 Wie kommt es, dass Sutherland so selbstverständlich von der Möglichkeit eines generellen Nutzens seines Programms ausging? Implizit geht aus seiner Formulierung
38 Vgl. Kapitel 2.1.1 Mehrzweckcomputer und Lichtstifte – Die Hardwareausstattung Sutherlands, S. 73–75. 39 Sutherland (2003): S. 77. Herv. i. O.
Der Computer als kreativer Partner
»as general as possible«40 hervor, dass ihm selbst bewusst gewesen sein muss, inwiefern mit jeder generellen Funktion trotzdem eine Einschränkung oder zumindest eine Festlegung einhergeht, allerdings wird hier erneut deutlich, dass eine solche Festlegung für ihn nicht im Gegensatz zu seiner Vorstellung von Generalität steht. Zuspitzen lässt sich diese Haltung Sutherlands anhand seiner Verwendung von sogenannten ›Constraints‹. Es handelt sich dabei um programmiersprachliche Befehle, die in Form von Bedingungen die Beziehung mehrerer Elemente zueinander definieren.41 Sutherlands eigene Definition des Begriffs bestätigt, dass es sich bei der Verwendung von Constraints um bewusst eingesetzte Einschränkungen handelt: »A specific storage representation of a relationship between variables which limits the freedom of the variables, i.e., reduces the number of degrees of freedom of the system.«42 Sutherland hat eine Reihe solcher Constraints programmiert, um sie beim Anfertigen einer Zeichnung in Sketchpad zu jeder Zeit abrufen und anwenden zu können. Sie bilden für ihn neben den Funktionen der Kopie und Instanz einen wesentlichen Bestandteil von Sketchpad, »for relating the parts of a drawing in any computable way«43. An einem Beispiel erläutert Sutherland, welche Constraints er für Sketchpad entwickelt hat: »When we asked that the vertices of the hexagon lie on the circle we were making use of a basic relationship between picture parts that is built into the system. Basic relation ships (atomic constraints) to make lines vertical, horizontal, parallel, or perpendicular; to make points lie on lines or circles; to make symbols appear upright, vertically above one another or be of equal size; and to relate symbols to other drawing parts such as points and lines have been included in the system. It is so easy to program new con straint types that the set of atomic constraints was expanded from five to the seven teen listed in Appendix A in a period of about two days; specialized constraint types may be added as needed.« 44 Um die Constraints zu programmieren, hat Sutherland demnach versucht, viele verschiedene Gegebenheiten, die sich während eines Zeichenprozesses eröffnen können, zu antizipieren, also etwa, wie sich Linien im Bild zueinander verhalten, ob sie zum Beispiel parallel oder im rechten Winkel zueinander erscheinen sollen. Gleichzeitig erläutert er in der Einführung seines Berichts, die ursprüngliche Entscheidung, eine Zeichenmöglichkeit auf dem Computer zu schaffen, habe nicht darin gelegen, herkömmliche Werkzeuge, die für die Fertigung von Entwurfszeichnungen benötigt werden, nachzuempfinden, sondern vor allem darin, herauszufinden, für welche Zwecke 40 Ebd., S. 77. 41 Noch heute ist in der Software Autodesk Maya dieser Begriff und auch ein damit verwandtes Kon zept enthalten: »Constraints let you constrain the position, orientation, or scale of an object to other objects. Further, with constraints you can impose specific limits on objects and automate anima tion processes. […] Note that other software packages use the term ›animation controllers‹ to refer to what Maya calls constraints.« Autodesk Maya Help: Constraints. Ohne Datum. URL: https://help. autodesk.com/view/MAYAUL/2022/ENU/?guid=GUID-7665A291-FAA7-44C0-BDEB-A6C83482116C. Zugriff am: 11.12.2021 Herv. i. O. 42 Sutherland (2003): S. 141. Herv. i. O. 43 Ebd., S. 17. 44 Ebd., S. 24–25.
79
80
Scheler: Computergrafik
ein solches System sich später eignen könne. Im Ergebnis sei der Zeichenvorgang in Sketchpad deshalb nicht direkt vergleichbar mit dem Zeichnen auf Papier, was auch die Abbildung 21 veranschaulichen kann: »[I]t was implicit in the research nature of the work that simple new facilities should be discovered which, when implemented, should be useful in a wide range of applications, preferably including some unforseen [!] ones. It has turned out that the properties of a computer drawing are entirely different from a paper drawing not only because of the accuracy, ease of drawing, and speed of erasing provided by the computer, but also primarily because of the ability to move drawing parts around on a computer draw ing without the need to erase them. Had a working system not been developed, our thinking would have been too strongly influenced by a lifetime of drawing on paper to discover many of the useful services that the computer can provide.« 45 Sutherlands Beschreibung deutet auf eine Reziprozität zwischen alten und neuen Produktionsprozessen hin, die den Entwicklungsprozess von Sketchpad geprägt hat. So können einerseits gerade die Unterschiede, die Sutherland zum herkömmlichen Zeichenprozess aufführt, verdeutlichen, dass sie noch immer als Ausgangspunkt des Programmierprozesses dienen, denn eine Abweichung kann nur von einem bestehenden Phänomen aus gedacht werden. Andererseits zeichnet sich hier jedoch ab, inwiefern Sutherland für die Verwendung des Computers klare Vorstellungen formuliert, die dem Zeichenprozess einen ganz eigenen, neuen Charakter geben, obwohl sie auf den herkömmlichen Vorgang rekurrieren. Dass dieser neue Charakter, also diese damals neue, so durch Sutherland veranlasste Art, mit dem Computer zu arbeiten, bis heute überdauert, zeigt sich daran, dass die Bearbeitungsmöglichkeiten, die Sutherland entwickelte, an die heute alltägliche Nutzung von Computerprogrammen erinnern. Schon gängige Textverarbeitungsprogramme bieten einfache Layoutoptionen, bei denen mit vergleichbaren Funktionen Objekte dupliziert, verschoben, rotiert, gelöscht oder in einem bestimmten Verhältnis zueinander ausgerichtet werden können.46 Die Auseinandersetzung mit Sutherlands Sketchpad verdeutlicht also, dass jede dieser auch heute noch verfügbaren und so selbstverständlich wirkenden Funktionen zu einem bestimmten Zeitpunkt mit einer bestimmten Motivation festgelegt und entwickelt wurde. Und obwohl sich anhand Sutherlands beispielhafter Beschreibung zeigt, dass er sich mit der Erweiterbarkeit der Constraints darum bemüht hat, eine möglichst große Freiheit in ihrer Nutzung herbeizuführen, bleibt ein unbedarfter Nutzer des Programms abhängig von den vorher festgelegten Funktionen. Die damit verbundenen Einschränkungen, die – wie erwähnt – zugleich paradoxerweise den allgemeinen Zugang zu den Geräten erleichtern und damit demokratisieren, spiegeln sich in dem Begriff der ›Constraints‹ im Wortsinn wider. Doch vor welchem Hintergrund hat Sutherland seine Constraints entwickelt? Wenn er sich – wie dargestellt – mit Sketchpad vom herkömmlichen Zeichnen auf dem Papier lösen wollte und er selbst betont, »the Sketchpad drawing itself is entirely different 45 Ebd., S. 17. 46 Sutherland stellte ebenso Überlegungen zu Einstellungsmöglichkeiten an, mit denen sich Linien in unterschiedlichen Stilen und Stärken darstellen lassen könnten, beispielsweise um Unterstrei chungen gepunktet oder gestrichelt anzuzeigen. Vgl. Sutherland (2003): S. 71.
Der Computer als kreativer Partner
Abb. 21: Ivan E. Sutherland, Line and circle drawing, 1963, Sketchpad-Zeichnung.
from the trail of carbon left on a piece of paper«47, wie hat er dann entschieden, welche Funktionen Teil von Sketchpad werden und welche nicht? Da es – wie er selbst konstatiert – für ihn keine Herausforderung dargestellt hätte, weitere Operationsmodi zu entwickeln, so hat er mit denen, die seine Programmversion am Ende seiner Forschung bereithielt, dennoch bestimmte Produktionsschritte priorisiert. Wie zu Beginn dargelegt, eignete sich laut Sutherland der Einsatz von Sketchpad vor allem für Zeichnungen, die der Lösung technischer Fragen und Probleme dienen. Trotz der Hinweise auf die Unterschiedlichkeit der Zeichenwerkzeuge, die am Computer beziehungsweise auf Papier zum Einsatz kommen, liefert sein Bericht im Sinne der angemerkten Reziprozität Anhaltspunkte, dass ihm eine bestimmte Vorstellung eines herkömmlichen Zeichenprozesses zwar nicht handwerklich, aber zumindest konzeptionell in Sketchpad als Orientierungspunkt diente:
47 Sutherland (2003): S. 25.
81
82
Scheler: Computergrafik
»Construction of a drawing with Sketchpad is itself a model of the design process. The locations of the points and lines of the drawing model the variables of a design, and the goemetric [!] constraints applied to the points and lines of the drawing model the design constraints which limit the values of design variables. The ability of Sketchpad to satisfy the geometric constraints applied to the parts of a drawing models the ability of a good designer to satisfy all the design conditions imposed by the limitations of his materials, cost, etc. In fact, since designers in many fields produce nothing themselves but a drawing of a part, design conditions may well be thought of as applying to the drawing of a part rather than to the part itself. If such design conditions were added to Sketchpad’s vocabulary of constraints the computer could assist a user not only in arriving at a nice looking drawing, but also in arriving at a sound design.« 48 Sutherlands Auffassung, der Zeichenprozess innerhalb von Sketchpad sei selbst das Modell eines Designprozesses, unterstreicht hier explizit, dass die Gestaltung dieser ersten grafischen Computeranwendung vor der Folie bestehender Arbeitsprozesse entworfen wurde, bevor in der Bedienung des Computers selbst neue Abläufe und Prozesse entstehen. Wie sich an späterer Stelle dieser Studie herausstellen wird, veranschaulicht diese dem Entwicklungsprozess von Sketchpad innewohnende Reziprozität ein Phänomen, das im Rahmen der Softwareentwicklung auch an anderer Stelle zu beobachten ist.49 Sutherlands Rückbesinnung auf herkömmliche Designprozesse liefert Einblicke in seine Auffassung von gestalterischen Prozessen, wodurch sie zugleich Anhaltspunkte für sein Bildverständnis bereithält. Ruft man sich die Anwendungsfelder in Erinnerung, die Sutherland primär für die Nutzung von Sketchpad vorsah, wird deutlich, dass es ihm zunächst vorrangig um Zeichnungen in technischen Kontexten ging. Seine Auffassung von ›Allgemeingültigkeit‹ könnte sich daher beispielsweise ausschließlich auf das Spektrum technischer Zeichnungen beschränken, die tatsächlich einem bestimmten Regelwerk folgen und aufgrund ihres Einsatzes bei der Produktion von Bauteilen unmissverständlich lesbar sein müssen. Dennoch gibt Sutherlands Bericht Anlass, zu vermuten, seine Vorstellung eines universellen Einsatzgebiets von Sketchpad schließe Zeichnungen außerhalb technischer Berufsfelder ein. Allein im Abstract kündigt er an: »[Sketchpad] has been seen to draw electrical, mechanical, scientific, mathematical, and animated drawings; it is a general purpose system.«50 Obwohl also klar ist, dass Sutherland nicht auf allgemeine, sondern auf bestimmte, vermutlich in seinem Umfeld gewohnte Gestaltungsprinzipien Bezug genommen hat, lässt sich anhand seines Reports herausarbeiten, dass er diesem sehr einseitigen Zugriff eine universelle Gültigkeit zuspricht. Begründen lässt sich diese Haltung damit, dass Sutherland offenkundig die Vorstellung einer universell gültigen Bildlichkeit besitzt, oder umgekehrt, dass die Bilder, die in seinem Umfeld traditionell zum Einsatz kommen, seiner Auffassung nach das gesamte Spektrum aller möglicher Bildwelten darstellen:
48 Ebd., S. 28. Herv. i. O. 49 Es wird beispielsweise erneut im Kapitel über Steven Coons aufgegriffen und ausführlich themati siert. Vgl. Kapitel 2.3.2 Der Computer als Erweiterung des Intellekts in der vorliegenden Studie. 50 Sutherland (2003): S. 9.
Der Computer als kreativer Partner
»The usual picture for human consumption displays only lines, circles, text, digits, and instances. However certain very useful abstractions are represented in the ring struc ture storage which give the drawing the properties desired by the user. […] To make it possible for a user to manipulate these abstractions, each abstraction must be able to be seen on the display if desired. […] The light pen demonstrative language […] is suffi cient for making all changes to objects or abstractions which can be displayed. To make Sketchpad’s light pen language universal, all objects and abstractions represented in Sketchpad’s ring structure can be displayed.« 51 Es lässt sich nicht klar ermitteln, welche Art von Bild Sutherland hier mit der Wendung ›usual picture‹ beschreibt. Sein Hinweis auf die Darstellung von Instanzen lässt jedoch zunächst darauf schließen, dass er sich ausschließlich auf Bilder bezieht, die in Sketchpad erzeugt wurden. Doch während dieses gewöhnliche Bild für ihn in der Regel aus Linien und Kreisen sowie Textelementen, Ziffern und Instanzen besteht, so liefert er mit den möglichen Abstraktionen dieser Komponenten einen Ansatz, mit dem sich jede erdenkliche Veränderung daran vornehmen ließe, sofern sie auf dem Display darstellbar sei. Diese Eigenschaft seines Programms veranlasst ihn dazu, seine entwickelten Bedienmöglichkeiten innerhalb von Sketchpad als universell einzustufen, wodurch die Vermutung nahe liegt, dass er mit seiner Formulierung ›usual picture‹ tatsächlich zum Ausdruck bringen möchte, dass allgemeingültige Bilder nicht nur existieren, sondern auch, dass sie sich mithilfe ebenso allgemeingültiger Gestaltungsprinzipien erzeugen lassen. Vor diesem Hintergrund lässt sich nachvollziehen, weshalb für ihn die eröffnete Diskrepanz zwischen Experten und Laien kein Problem darstellt. Denn wenn sein Programm nach seiner Vorstellung universell gültige Parameter wiedergibt, handelt es sich genau genommen bei den bereitliegenden Programmfunktionen nicht um Einschränkungen, oder wenn lediglich um solche, die für alle Formen von Bildlichkeit gleichermaßen gelten, unabhängig davon, ob ein Computer zum Einsatz kommt oder nicht. Sutherland befürchtete offenkundig nicht, etwas übersehen zu können oder auf einseitige Weise Einf luss auf potenzielle Anwender auszuüben. Besonders eindrücklich lässt sich diese Haltung anhand seines letzten Unterabschnitts veranschaulichen, in dem er seine »Artistic Drawings«52 vorstellt. Darin wird deutlich, inwiefern die von ihm entwickelten Bedienelemente für ihn die Vorstellung einer universellen Einsatzmöglichkeit einlösen. Zugleich lässt sich an ebendiesen Beispielen aufzeigen, dass die vermeintliche Universalität eine sehr bestimmte Vorstellung von Bildlichkeit wiedergibt, die sich in einem engen Rahmen bewegt. Um die bisher präsentierten Ergebnisse zu verdichten und zuzuspitzen, sollen deshalb nun im letzten Teil dieses Kapitels Sutherlands ›Artistic Drawings‹ als Gegenstand herangezogen werden.
51 Ebd., S. 72–73. Herv. i. O. 52 Ebd., S. 107–110.
83
84
Scheler: Computergrafik
2.1.4 S ketchpad und die Kunst – Offene Arbeitsprozesse am Computer Die künstlerische Anwendung seines Programms Sketchpad erkundet Sutherland in einem eigenen Unterabschnitt, den er ›Artistic Drawings‹ nennt. Eingebettet ist dieser in das Schlusskapitel »Examples and Conclusions«53, in dem Sutherland Aussichten für die weitere Nutzung Sketchpads formuliert. Bereits aufgezeigt werden konnte, dass Sutherland die Offenheit in der Bedienung von Sketchpad an eine universelle Einsatzmöglichkeit des Programms knüpfte. Überspitzt formuliert ließe sich deshalb behaupten, dass Sutherlands Vorstellung von der ›Universalität‹ seines Programms freie künstlerische Zeichnungen nicht nur einschließt, sondern sie davon geradezu abhängig macht. Demnach kann nur eine vollkommen freie Nutzung von Sketchpad für ihn die Rechtfertigung dafür sein, das Programm schon im Abstract als »general purpose system«54 anzumoderieren. Wäre Sketchpad ausschließlich für die Fertigung regelbehafteter technischer Zeichnungen konzipiert gewesen, hätte weder diese Bezeichnung noch die Ankündigung einer universellen Einsatzmöglichkeit Bestand. Gleichzeitig soll jedoch infrage gestellt werden, ob Sketchpad eine vollkommen freie Nutzung erfüllen kann. Dieses letzte Kapitel zu Sutherland wendet sich deshalb der Hypothese zu, dass allein seine Vorstellung, er könne mit vorprogrammierten Anwendungsbausteinen ein universelles Gestaltungswerkzeug entwickeln, ein bestimmtes Bildverständnis zum Ausdruck bringt. Dieses wiederum wird insbesondere dann sichtbar, wenn die Beispiele, die Sutherland für eine freie Nutzung vorschlägt, in den Fokus gerückt werden. Sutherlands Vorstellung künstlerischer Arbeit, die er in seinem Unterabschnitt ›Artistic Drawings‹ zum Ausdruck bringt, soll hierbei nicht bewertet werden, im Vordergrund steht vielmehr, welche Erkenntnisse sich davon im Hinblick auf das Anliegen der vorliegenden Studie, 3D-Computergrafiken produktionsästhetisch zu erfassen, ableiten lassen. Bereits in einem früheren Abschnitt formuliert Sutherland die Vision eines unendlich erweiterbaren Programms und damit indirekt einer unerschöpf lichen Quelle freien, kreativen Arbeitens. Er nennt den Abschnitt »The as yet undreamt of things that will be displayed«55. Diese Formulierung lässt darauf schließen, dass Sutherland beinahe stolz zu sein scheint, einen Weg gefunden zu haben, die Programmierung eines Computers so offen zu denken, dass kein Ziel mehr formuliert werden muss. Die Erläuterung, die anschließend folgt, bleibt im Hinblick auf die künstlerische Anwendung seines Programms noch vage, sie nimmt den Eifer des Titels allerdings auf: »At the present time the need for dotted lines and circles, including center lines, dark lines, etc. and the need for a ratio type unitless scalar for representing angles and proportions is clear. Conic sections would be useful. What other kinds of things may become useful for special purposes is as yet unknown. Sketchpad attempts to be big enough to incorporate anything easily.« 56
53 Ebd., S. 99–116. 54 Ebd., S. 9. 55 Ebd., S. 75. 56 Ebd., S. 75–76.
Der Computer als kreativer Partner
Abb. 22: Ivan E. Sutherland, Hexagonal pattern, 1963, Sketchpad-Zeichnung.
In der Zusammenfassung seines Reports – noch bevor er sich den ›Artistic Drawings‹ zuwendet – formuliert er diese Vision klarer aus. Er beginnt sein Fazit zunächst mit dem Aspekt der Effizienz. So betont er beispielsweise, dass die Anfertigung komplexer technischer Zeichnungen mithilfe des Systems im Gegensatz zur manuellen Herangehensweise wesentlich zügiger zu bewerkstelligen sei. So habe eine Zeichnung von 900 Hexagonen etwa eine halbe Stunde Zeit in Anspruch genommen, »including the time taken to figure out how to do it.«57 Manuell hätte die Ausführung laut einer Prognose des ›drafting departments‹ zwei Tage gedauert (Abb. 22).58 Neben zahlreichen weiteren Beispielen zur Verwendung von Sketchpad im Bereich technischer Zeichnungen oder für Ingenieursberechnungen, die vor allem der Optimierung bestehender Prozesse dienen,59 wendet Sutherland sich einer Funktion seines Programms zu, die für ihn »[b]y far the most interesting application of Sketchpad«60 darstellt. Auch für die vorliegende Studie ist dieses produktionsästhetische Detail aufschlussreich. Es handelt sich dabei um sogenannte ›Linkages‹, also Getriebe und Mechaniken, in denen sich unterschiedliche Elemente eines Bauteils – und in Sutherlands Fall einer Zeichnung – verknüpfen und in Bewegung bringen lassen. Ein Beispiel, das nicht von Sutherland genannt wird, mit dem sich jedoch veranschaulichen lässt, was im Ingenieurswesen 57 Ebd., S. 99. 58 Vgl. ebd., S. 99–100. 59 Er führt beispielsweise die Zeichnung einer Verzögerungsleitung an, die in der Darstellung von Schaltkreisen vorkommen kann und sich aus einem repetitiven Treppenmuster zusammensetzt. Ein weiteres Beispiel stellt die Codierung einer digitalen Uhr dar, die im Erscheinungsbild jedoch einem analogen Ziffernblatt ähnelt. Weitere Abschnitte wenden sich darüber hinaus der Bema ßung technischer Zeichnungen oder der grafischen Darstellung und Berechnung der Spannung von Brücken zu. Vgl. Sutherland (2003): S. 100–102 und S. 104–107. 60 Sutherland (2003): S. 102.
85
86
Scheler: Computergrafik
darunter verstanden wird, ist der Scherenmechanismus, der bei Hebebühnen zum Einsatz kommt.61 Sutherland betont, eine Manipulationsmöglichkeit in Form von bewegten Computergrafiken habe es nie zuvor gegeben,62 und so ist es gerade diese Funktion, die für ihn das größte Potenzial für eine freie, kreative Nutzung von Sketchpad bereithält, wie er in dem Unterabschnitt ›Artistic Drawings‹ erläutert: »Sketchpad need not be applied only to engineering drawings. The ability to put motion into the drawings suggests that it would be exciting to try making cartoons. The capa bility of Sketchpad to store previously drawn information on magnetic tape means that every cartoon component ever drawn is available for future use. If the almost identi cal but slightly different frames that are required for making a motion picture cartoon could be produced semi-automatically, the entire Sketchpad system could justify itself economically in yet another way.«63 Obwohl diese Prognose Sutherlands innerhalb von Sketchpad in größerem Umfang keine Umsetzung erfahren hat, wird deutlich, dass er mit seiner Idee, computergrafische Elemente zu animieren, eine spätere, wirtschaftlich sehr aussichtsreiche Nutzung von Computergrafiken antizipiert hat. Auch Blackwell und Rodden betonen: »Now, of course, we are used to seeing entire feature films created from computer graphics.«64 Schlüssig erscheint vor diesem Hintergrund, dass Sutherland etwa zehn Jahre später selbst Mitglied des Thesis Committee von Edwin Catmull geworden ist, der, wie in der Einführung beschrieben, als Doktorand in Utah geforscht und später mit den Pixar Animation Studios die Vision animierter Computergrafiken in wirtschaftlich überaus erfolgreicher Pionierarbeit realisiert hat. Während der Aspekt der Animation in dieser Studie nicht im Vordergrund steht, ist für die weiteren Untersuchungen umso bedeutender, dass sich von Sutherland zu Catmull auf einer bildästhetischen Ebene eine Brücke schlagen lässt. Die Verknüpfung liegt darin, dass Catmull mit den Pixarfilmen erstmals das Bildverständnis sichtbar machte, das sich schon bei Sutherland in Grundzügen erkennen lässt. Die bildlichen Ansätze, die die sich bei ihm im Rahmen von Sketchpad zeigen und mit Catmull in Verbindung bringen lassen, sollen nun im letzten Teil dieses Kapitels herausgearbeitet werden. Eine umfassende Verbindung Sutherlands mit Catmulls erfolgt allerdings erst an späterer Stelle, nachdem auch Coons’ Verständnis von Bildlichkeit ins Blickfeld gerückt wurde. Dennoch lässt sich schon jetzt feststellen, dass, bevor ein spezifisches Bildverständnis bei Catmull in umfassender Weise auf visueller Ebene zum Vorschein kam, es sich in Form von bereitliegenden Programmfunktionen, wie Sutherland sie etabliert hat, nach und nach in die Genealogie der computergrafischen Softwareentwicklung eingeschrieben hat. Zentral ist deshalb noch immer die Frage, welches Bildverständnis Sutherland seinen Programmfunktionen zugrunde gelegt hat, um 61 In einem Beispiel zeigt er anhand von Standbildern die schematische Darstellung einer Schwinge, einem mechanischen Bauteil mit mehreren ineinandergreifenden Gelenken und Rotationsbewe gungen, die er mithilfe von Sketchpad in Bewegung gesetzt hat. Er weist darauf hin, dass es schwie rig sei, ein solches Getriebe physisch zu bauen. Vgl. Sutherland (2003): S. 102–104. 62 Vgl. Sutherland (2003): S. 102. 63 Ebd., S. 107. 64 Blackwell; Rodden (2003): S. 5.
Der Computer als kreativer Partner
Abb. 23: Ivan E. Sutherland, Winking girl and components, 1963, Sketchpad-Zeichnung.
letztendlich den Ausgangspunkt der Entwicklungen, die bei Catmull aus dem Blickwinkel dieser Studie an einem Endpunkt angelangt sind, nachzuvollziehen. Um nun eigene kreative Beispiele vorzuführen, mithilfe derer Sutherland die Offenheit von Sketchpad und auch das Potenzial, darin zu animieren, darlegen möchte, demonstriert er anhand einer mit dem Lichtstift erstellten Zeichnung das stilisierte Gesicht eines Mädchens.65 Mit einfachen Konturen, die sich aus geometrischen Elementen wie Linien und Kreisen zusammensetzen, werden wesentliche Merkmale der Figur dargestellt (Abb. 23). Er beschreibt, wie er sie zwinkern lassen kann, indem er jeweils Detailzeichnungen von einem der beiden Augen in geöffnetem, halb geöffnetem und geschlossenem Zustand anfertigt und diese in schneller Abfolge hintereinander anzeigen lässt. Er nennt dieses Verfahren »cartooning by substitution«66 und stellt damit eine von zwei Möglichkeiten vor, mithilfe von Sketchpad zu animieren. Sutherland zeigt sich mit der Wirkung dieser Methode zufrieden: »Doing this on the computer display has amused many visitors.«67 Mit dem zweiten Animationsverfahren, das sich die zuvor erläuterten ›Linkages‹ zunutze macht, ließe sich auch das Haar 65 Ohne nähere Erläuterung gibt er im Fließtext seines Berichts dem dargestellten Mädchen den Na men Nefertite, womit Sutherland implizit einen Bezug zu der altägyptischen Königin Nofretete herstellt. Im Titel der Abbildung des Mädchens greift er den Namen nicht erneut auf. Hier spricht er lediglich vom »winking girl and components«. Eine äußerliche Ähnlichkeit zu den überlieferten Darstellungen der altägyptischen Königin ist nicht gegeben. Vgl. Sutherland (2003): S. 107–109. 66 Sutherland (2003): S. 107. 67 Ebd., S. 107.
87
88
Scheler: Computergrafik
des Mädchens zum Schwingen bringen. Dieser Ansatz sei laut Sutherland »the more usual form of cartooning seen in movies.«68 Warum Sutherland diese Ansicht vertritt, erläutert er nicht. Auch Beispiele, auf die er sich beziehen könnte, werden von ihm nicht angeführt, allerdings lassen sich für seine Verwendung des Begriffs ›cartooning‹ zwei verschiedene Bedeutungsebenen herauslesen. Zum einen verwendet er ihn, wie das angeführte Zitat verdeutlicht, synonym mit dem Begriff der Zeichentrickanimation, zum anderen beschreibt er damit den Vorgang des Entwurfszeichnens, wie sein zweites Anwendungsbeispiel zeigt. Er stellt darin abermals die Zeichnung eines weiblichen Gesichts vor und betont: »Aside from its economics as a teaching or amusement device, cartooning can bring the insights which are the prime value of Sketchpad drawings. The girl seen in Figure 9.9 was traced from a photograph into the Sketchpad system. The photograph was read into the computer by a facsimile machine used in another project and shown in outline on the computer display. This outline was then traced with wax pencil on the display face. Later, with Sketchpad in the computer, the outline was made into a Sketchpad drawing by tracing the wax line with the light pen.« 69 Sutherland kündigt hier eine für ihn zentrale Erkenntnis an. Diese bezieht sich, wie er im weiteren Verlauf des Kapitels aufzeigt, nicht nur auf den beschriebenen Zeichenvorgang selbst, sondern vor allem auf eine von ihm vorgenommene Nachbearbeitung des Bildes, die auf diese Weise mithilfe von Sketchpad erstmals möglich war. Mit Bildbeispielen stellt Sutherland seine Experimente dar. Während die eine Darstellung die ›originale‹ Linienzeichnung zeigt, wurden in einer Bearbeitungsvariante des Gesichts der Mund und die Augen zunächst entfernt, um ein Gesicht völlig ohne Gesichtszüge zu erzeugen (Abb. 24). Anschließend wurde von einer gespeicherten Version der Originalzeichnung alles bis auf ein Auge und in einem zweiten Vorgang alles bis auf den Mund entfernt, sodass nun drei einzelne Komponenten des Gesichts einzeln abgespeichert werden konnten: das ›leere‹ Gesicht, ein Auge und der Mund. Die einzelnen Gesichtsmerkmale ordnete Sutherland schließlich neu an, wofür er das einzelne Auge zunächst duplizierte, um anschließend das neue Augenpaar gemeinsam mit dem Mund in leicht vergrößerter Form an ihrer ursprünglichen Position wieder einzufügen (Abb. 25). In seinen Schilderungen über diesen freien und kreativen Zugang zu Sketchpad wird nicht nur deutlich, dass er diese Arbeitsschritte als einen künstlerischen Prozess auffasst, sondern vor allem auch, dass Sutherland das Programm als Teil dieses Prozesses begreift. Es entsteht der Eindruck, als betrachte Sutherland sein Programm als einen gleichberechtigten und eigenständigen Partner, von dem er etwas lernen und mit dem er in kollaborativer Zusammenarbeit einer kreativen Aufgabe nachgehen kann:
68 Ebd., S. 107. 69 Ebd., S. 107. Bei dem Projekt, auf das sich Sutherland hier bezieht, das ebenfalls Gebrauch von dem Faxgerät gemacht hat, handelt es sich um ein parallel am MIT durchgeführtes Forschungsprojekt von Lawrence G. Roberts, dessen Ziel es war, dreidimensionale Objekte auf einem zweidimensio nalen Bildschirm mithilfe von ›line drawings‹ als räumliche Projektion anzuzeigen. Vgl. Lawrence G. Roberts: Machine perception of three-dimensional solids. Dissertation am Department of Electri cal Engineering, Boston, MA: Massachusetts Institute of Technology, MIT Libraries, 1963.
Der Computer als kreativer Partner
Abb. 24: Ivan E. Sutherland, Girl traced from photograph, 1963, Sketchpad-Zeichnung.
Abb. 25: Ivan E. Sutherland, Girl with features changed, 1963, Sketchpad-Zeichnung.
»In refitting the features to the blank face, we discovered that, although the original girl was a sweet looking miss, an entirely different character appears if her mouth is made larger […]. Using a computer to partially automate an artistic process has brought me, a non-artist, some understanding of the effect of certain features on the appearance of a face. It is the understanding that can be gained from computer drawings that is more valuable than mere production of a drawing for shop use.« 70 Sutherlands Überlegungen, auf welche Weise Sketchpad über rein technische Belange hinaus eingesetzt werden kann, lassen Erkenntnisse auf zwei Ebenen zu: Erstens wird deutlich, dass er künstlerische Prozesse als offene Prozesse begreift, bei denen die Formulierung eines Ziels nicht im Vordergrund steht, zweitens bestätigt er hier die zu Beginn dieses letzten Kapitelabschnitts angeführte Vermutung, dass es gerade solche künstlerischen Arbeitsansätze sind, die es ihm ermöglichen, von einem ›general purpose system‹ zu sprechen. Seiner Auffassung nach sind es demnach ausgerechnet künstlerische Tätigkeiten, die das Potenzial seines Programms ausschöpfen können. Obwohl es richtig ist, dass mit Sketchpad erstmals eine so große Of fenheit in der Arbeit mit dem Computer entstanden ist, dass auch künstlerische oder zumindest freie, kreative Prozesse davon profitieren können, zeigen die beispielhaften Zeichnungen, wie stark der kreative Prozess durch die Funktionen innerhalb von Sketchpad vorgegeben wird. Im vorigen Kapitel wurde die Überlegung formuliert, ob Sutherland
70 Sutherland (2003): S. 107/110.
89
90
Scheler: Computergrafik
sich mit seiner Aussage zum »usual picture for human consumption«71, das lediglich aus Linien, Kreisen, Text, Zif fern und Instanzen bestehe, ausschließlich auf Entwürfe in technischen Kontexten bezieht. In Zusammenhang mit den Bedienfunktionen Sketchpads, die er als universell einstuft, ergab die Schlussfolgerung, dass Sutherland tatsächlich die Vorstellung allgemeingültiger Gestaltungsprinzipien beziehungsweise einer allgemeingültigen Bildlichkeit besitzt, die über technische Belange hinausragt. Anhand der beiden Zeichnungen, die er als ›artistic drawings‹ ankündigt, lässt sich diese Schlussfolgerung bestätigen. Es soll hierbei jedoch nicht behauptet werden, dass er seiner Entwicklung der Zeichen-Werkzeuge innerhalb von Sketchpad ganz bewusst einen bestimmten Bild- oder Kunstbegrif f zugrunde gelegt hat, allerdings wird anhand der Bildbeispiele deutlich, dass er die Werkzeuge, die er für technische Zwecke entwickelt hat, auch für einen künstlerischen und damit für einen allgemeinen Einsatz geeignet sieht. Zugespitzt ließe sich deshalb behaupten, dass Sutherland Bilder ganz allgemein, also auch künstlerische Bilder, als technische Zeichnungen betrachtet und damit als Zeichnungen, die nicht nur sehr präzise, sondern die auch vorhersehbar sind. In diesem festgelegten Rahmen hat Sutherland demzufolge Bedienfunktionen entwickelt, die sich zwar vielseitig und auch von Laien einsetzen lassen und mit denen sich zudem – wie er vorführt – experimentell umgehen lässt, die jedoch entsprechend der eingangs formulierten Annahme zu Beginn dieses Abschnitts zugleich stets seine Vorstellung von Bildlichkeit und damit verbunden eine bestimmte Arbeitsweise reproduzieren. In zweierlei Hinsicht lässt sich nun aufzeigen, inwiefern diese in Sketchpad verankerte Bildsprache nicht – wie von Sutherland behauptet – als allgemeingültig gelten kann: Erstens eignet sich hierfür der Forschungskontext, in dem Sutherland sich mit seiner Arbeit bewegte. Wie anfangs angekündigt, wird in diesem Zusammenhang Steven A. Coons in den Fokus gerückt. Coons war Mitglied in Sutherlands Thesis Committee und der Einzige unter den von Sutherland selbst, beispielsweise in seiner Danksagung, namentlich hervorgehobenen Mitgliedern, der einen Hintergrund als Entwurfszeichner sowie Erfahrungen im Bereich des Computer Aided Design besaß. Anhand von Coons kann demnach einerseits das bildsprachliche Paradigma Sutherlands endgültig abgeleitet werden, andererseits lässt sich über Coons auch verdeutlichen, wie dieses Bildverständnis Einzug in die Bedienung des Computers erhalten konnte. Zweitens lassen sich die Erkenntnisse zu Sutherlands Bildbegriff schärfen, wenn der Pfad der hier verfolgten Geschichtsschreibung um einige beispielhafte parallele Entwicklungen im Bereich der Computergrafik ergänzt wird. Als parallel sind diese Entwicklungen allein deshalb aufzufassen, da sie anders als Sutherland nicht das Ziel verfolgten, die Kommunikation zwischen Mensch und Computer zu ergründen, sondern stattdessen die Bilderzeugung selbst als Ausgangspunkt zu setzen. Da Sutherlands neuer Ansatz noch nicht verbreitet war, folgen zudem diese alternativen Ansätze dem prozeduralen Programmierparadigma. Produktionsästhetisch betrachtet bilden sie demnach einen Kontrast zu Sutherlands Herangehensweise. Bevor Coons in den Fokus gerückt wird, erfolgt nun zunächst eine Darstellung dieser parallelen Entwicklungen.
71 Ebd., S. 72.
Der Computer als kreativer Partner
2.2
Parallelentwicklungen – Der Computer in der bildenden Kunst und im Design der 1960er Jahre
Dieses Kapitel dient dazu, Zeitgenossen von Sutherland in den Blick zu nehmen, die sich ebenfalls mit der Frage befassten, wie der Computer für die Erzeugung von Bildern oder sogar für künstlerische Zwecke zum Einsatz kommen kann. Die Entscheidung, künstlerische Ansätze in diesem Kapitel aufzugreifen, ergibt sich daraus, dass Sutherland selbst diese Kategorie eröffnet, um die Vielseitigkeit seines Programms zu belegen. Naheliegend wäre beispielsweise ein Vergleich mit den Produktionsprozessen Frieder Nakes aus Deutschland, der etwa zur selben Zeit als Computerkünstler Pionierarbeit leistete. Die von ihm produzierten Bilder weisen weder auf bildästhetischer noch auf produktionsästhetischer Ebene Ähnlichkeiten zu Sutherlands experimentellen Ansätzen auf (Abb. 26).72 Obwohl sich anhand dieses starken Kontrasts bereits aussagekräftige Erkenntnisse über Sutherlands Auffassung von Bildlichkeit ableiten ließen, erscheint es ertragreicher, statt Sutherland Nake gegenüberzustellen, eine parallele Entwicklung zu wählen, die im Ansatz zunächst große Ähnlichkeiten zu Sutherlands Vorstellungen aufweist und damit in der Tat vergleichbar mit dessen Arbeit ist, im Resultat jedoch zu völlig anderen Produktionswegen und Bildergebnissen führt. Für einen derartigen Vergleich eignen sich die Arbeiten des US-Amerikaners Charles A. Csuri, der als bildender Künstler in den 1960er Jahren dazu überging, mit frühen Formen der Computertechnologie zu experimentieren, nachdem er zuvor hauptsächlich mit Techniken der Malerei gearbeitet hatte.73 Csuris computergestützte künstlerische Arbeit wurde 2006 in der Ausstellung Charles A. Csuri – Beyond Boundaries, 1963 – present umfassend aufgearbeitet und kontextualisiert. Veranstaltet wurde die Ausstellung gemeinsam von der Special Interest Group on Computergraphics (SIGGRAPH), einer der führenden Konferenzen im Bereich der Computergrafik, und dem Advanced Computing Center for the Arts and Design (ACCAD), das Csuri selbst am College of Arts and Sciences der Ohio State University (OSU) im Jahr 1986 gründete.74 In der Einführung des dazugehörigen Ausstellungskatalogs betont die Kunsthistorikerin Janice M. Glowski in ihrer Rolle als Herausgeberin des Katalogs: »It’s easy to look at the history of computer graphics and to note Charles Csuri’s role as the ›father
72 Eine umfassende Aufarbeitung der Computerkunst in den 1960er Jahren wurde beispielsweise von Christoph Klütsch vorgenommen. Vgl. Christoph Klütsch: Computergrafik. Ästhetische Ex perimente zwischen zwei Kulturen. Die Anfänge der Computerkunst in den 1960er Jahren. Wien: Springer, 2007. 73 Vgl. bspw. Margit Rosen: A Record of Decisions: Envisioning Computer Art. In: Charles A. Csuri. Be yond Boundaries, 1963 – present. Hrsg. v. Janice M. Glowski und SIGGRAPH. Columbus, OH: The Ohio State University, College of the Arts, Advanced Computing Center for the Arts and Design, 2006, S. 25–46, hier S. 25. 74 Das ACCAD geht aus der 1971 gegründeten Computer Graphics Research Group (CGRG) hervor, eine ebenfalls von Csuri an der OSU eingerichtete Forschungseinheit. Vgl. Janice M. Glowski; SIGGRAPH (Hgg.): Charles A. Csuri. Beyond Boundaries, 1963 – present. Columbus, OH: The Ohio State University, College of the Arts, Advanced Computing Center for the Arts and Design, 2006, S. 173–174.
91
92
Scheler: Computergrafik
Abb. 26: Frieder Nake, 6/7/64 Nr. 20 Zufälliger Polygonzug, 1964, computergeneriert, Tusche auf Papier, 21,1 x 15,1 cm. © Nachdruck mit freundlicher Genehmigung von Frieder Nake.
of digital art and animation.‹«75 Mit Csuri lässt sich zeigen, wie sich Sutherlands Wunsch, kreative Prozesse am Computer of fen zu gestalten, ebenfalls hätte einlösen lassen. Der Blick auf Csuri ermöglicht auf sehr anschauliche Weise eine Perspektive darauf, dass die Softwareentwicklung stets von einer bestimmten Haltung der Gestaltung gegenüber abhängig ist. Oder andersherum formuliert: Wäre Csuri Teil der Entwicklungsgeschichte heute kommerziell verfügbarer Computergrafiksoftware gewesen, würde sie vermutlich andere gestalterische Parameter abbilden als die, die die vorliegende Studie versucht nachzuzeichnen. Im Anschluss an Csuri und als Übergang zu Coons wird mit William A. Fetter ein weiterer Akteur vorgestellt, der parallel zu Sutherland im Bereich der Computergrafik tätig war. Seine Arbeitsweise weist sowohl Anknüpfungspunkte als auch erhebliche Unterschiede zu Csuris Ansatz auf.
75 Janice M. Glowski: Introduction to the Catalogue. In: Charles A. Csuri. Beyond Boundaries, 1963 – present. Hrsg. v. Janice M. Glowski und SIGGRAPH. Columbus, OH: The Ohio State University, Col lege of the Arts, Advanced Computing Center for the Arts and Design, 2006, S. 17–21, hier S. 17. Auch Tom Sito hebt Csuri in seinen geschichtlichen Darstellungen zur Computeranimation in besonderer Weise hervor. Er bezieht sich mit der folgenden Aussage auf Csuris Arbeit Hummingbird aus dem Jahr 1967: »The film is considered one of the landmarks of CG, because it is the first time someone attempted to move a living thing rather than geometric shapes.« Sito (2013): S. 58. Vgl. zudem Hummingbird (USA 1967, R: Charles Csuri).
Der Computer als kreativer Partner
2.2.1 Charles A. Csuri – Kreative Arbeit am Computer zwischen Kunst und Wissenschaft
I feel like an old-fashioned expressionist painter who got caught in some kind of time warp that included the computer. My spirit and temperament is that of a romantic who is involved in symbols and icons representing humanistic values which may belong in another era.76 – Charles A. Csuri (1989)
In Kapitel 2.1 Ivan E. Sutherlands Sketchpad und die Geburt der ›universellen‹ Computerzeichnung konnte aufgezeigt werden, dass Sutherland mit Sketchpad und dem objektorientierten Programmierparadigma einen Ansatz entwickelte, mit dem es langfristig möglich sein würde, einer größeren Gruppe von Personen umfassendere Gestaltungsmöglichkeiten in der Arbeit mit dem Computer zu ermöglichen, als es prozedurale Programmiervorgänge leisten können. Im Hinblick auf dieses Ziel war es im Rahmen der Programmiertätigkeit zentral, für einen potenziellen Anwender bestimmte Funktionen im Vorfeld zu antizipieren und zu programmieren, um sie zu einem späteren Zeitpunkt lediglich abrufen zu müssen. Die Besonderheit des objektorientierten Paradigmas war es zudem, dass diese Funktionen dazu genutzt werden konnten, um nachträglich Veränderungen an einem Ergebnis vornehmen zu können. Ergebnisse wurden damit stets zu Zwischenergebnissen. Sutherland erachtete deshalb seinen neuen Ansatz als weniger einschränkend als den prozeduralen Programmiervorgang. Zugleich musste festgestellt werden, dass der prozedurale Ansatz dennoch eine größere gestalterische Freiheit ermöglicht, solange im objektorientierten Paradigma die Arbeitsweise mit vorprogrammierten Funktionen vorgegeben wird. Es entstand damit ein Paradox. Wollte man aus dem Paradox heraustreten und die Vorzüge des objektorientierten Ansatzes mit der Freiheit des prozeduralen Paradigmas vereinen, müsste man demnach die Fähigkeit besitzen, eigene Bedienelemente zu programmieren. Aus diesem Defizit heraus haben sich Operationssysteme, Computerprogramme und Interfaces entwickelt, mit denen alle Menschen gewissermaßen frei und offen arbeiten können, wenngleich sie dabei stets an die Entscheidungen anderer gebunden sind. Der Künstler Charles A. Csuri kann als Beispiel dafür dienen, diesem Paradox entkommen zu sein. Anhand seiner Arbeiten lässt sich aufzeigen, dass seine gestalterische Freiheit von dem prozeduralen Verfahren nicht eingeschränkt war. Vielmehr war es gerade sein Verständnis für Programmiervorgänge – so die These für dieses Kapitel –, das ihm einen freien Ausdruck in seiner Kunst ermöglichte.
76 Charles A. Csuri; Kerry J. Freedman: Oral history interview with Charles A. Csuri. Durchgeführt in Co lumbus, OH. Minneapolis, MN: Charles Babbage Institute, University of Minnesota, 23.10.1989, S. 6. URL: https://conservancy.umn.edu/handle/11299/107236. Zugriff am: 08.03.2022. Eine Erläuterung des Charles Babbage Institute erfolgt in Fn. 79 im aktuellen Kapitel der vorliegenden Studie, S. 94.
93
94
Scheler: Computergrafik
Der Aspekt der Freiheit im Ausdruck dient nun auch als Ausgangspunkt für einen Vergleich zwischen Sutherland und Csuri. Denn obwohl letztendlich Csuris produktions- und bildästhetischer Ansatz sich nur punktuell mit Sutherland in Übereinstimmung bringen lässt, formuliert Csuri prinzipiell einen ähnlichen Anspruch an die künstlerische Produktion wie Sutherland und liefert damit eine entscheidende Vergleichsgrundlage: »The creative process works when I am able to live in a space of psychological uncertainty. I’m comfortable with the notion that I don’t know where I’m going. It is a journey to somewhere, and I can not anticipate where it will end.«77 Csuris hier vorgenommene Beschreibung erscheint zunächst vollkommen im Einklang mit Sutherlands Vorstellung, nach der die Kunst im Arbeitsprozess eine Offenheit brauche, ohne ein potenzielles Ziel vorab definieren zu müssen. Erst im Hinblick auf die Verwendung des Computers wird deutlich, dass dennoch beide Pioniere unterschiedliche Vorstellungen davon hatten, wie sich dieser Gedanke eines offenen Prozesses umsetzen lässt. Der Unterschied zwischen Sutherland und Csuri ist demzufolge ihr jeweiliges Selbstverständnis, mit dem sie an die Arbeit mit dem Computer herantreten. Während Sutherland zwar von künstlerischen Prozessen spricht, betont er zugleich, er sei kein Künstler.78 Csuri zählt wiederum zwar zu denjenigen, die heute als Computerpioniere bezeichnet werden, doch ist er allein schon aufgrund seiner künstlerischen Ausbildung in erster Linie ein Künstler. Seine technologischen Errungenschaften im Bereich der Computergrafik erfolgten alle vor der Folie dieser künstlerischen Perspektive. Dieses Kapitel möchte nun auf die Frage antworten, auf welche Weise Csuri diesen Anspruch an seinen künstlerischen Prozess mithilfe des Computers einlösen konnte. Dazu soll zunächst kurz sein künstlerischer Werdegang nachgezeichnet werden, um von dort aus nachvollziehen zu können, welche Konzepte er schließlich in die Arbeit mit dem Computer überführte. Als wesentliche Grundlage für die in diesem Kapitel zusammengetragenen Ergebnisse dienen auf der einen Seite der Ausstellungskatalog zu der 2006 veranstalteten Ausstellung Charles A. Csuri – Beyond Boundaries, 1963 – present sowie auf der anderen Seite zwei Interviews mit Charles A. Csuri, die beide im Rahmen von unterschiedlichen ›Oral History‹-Projekten durchgeführt wurden, das erste im Jahr 1989 am Charles Babbage Institute der University of Minnesota,79 das zweite im Jahr 2003 an der Ohio State University.80
77 Charles A. Csuri: Beyond Boundaries. In: Charles A. Csuri. Beyond Boundaries, 1963 – present. Hrsg. v. Janice M. Glowski und SIGGRAPH. Columbus, OH: The Ohio State University, College of the Arts, Advanced Computing Center for the Arts and Design, 2006, S. 21–22, hier S. 22. 78 Vgl. Sutherland (2003): S. 110. 79 Das Charles Babbage Institute, benannt nach dem gleichnamigen englischen Mathematiker, ist eine der University of Minnesota zugeordnete Institution, die der Initiative nachgeht, archivarisches Ma terial zur Geschichte der Informationstechnologie zusammenzutragen sowie beispielsweise mit hilfe der Interviews zusätzliche Primärquellen in dem Fachgebiet zu erzeugen und bereitzustellen. Vgl. Charles Babbage Institute, College of Science and Engineering: About CBI. Ohne Datum. URL: https://cse.umn.edu/cbi/about. Zugriff am: 11.12.2021. 80 Vgl. Csuri; Freedman (1989) und vgl. Charles A. Csuri; Robert W. Butche: Interview of Charles A. Csuri by Robert Butche. Durchgeführt in Columbus, OH. Columbus, OH: Ohio State University Archives, 10.06.2003. URL: https://kb.osu.edu/handle/1811/5928. Zugriff am: 08.03.2022.
Der Computer als kreativer Partner
In dem 1989 durchgeführten Interview bezeichnet Csuri sich selbst als »artist and computer graphics researcher«81. Er schildert darin Eindrücke seiner künstlerischen Ausbildung, die er in den 1940er Jahren an der Ohio State University absolvierte, an der er anschließend selbst zunächst als Lehrbeauftragter und später als Professor in einer Festanstellung tätig war. Einige seiner Professoren hebt Csuri besonders hervor, so beispielsweise James Hopkins, der als junger Künstler in Paris gearbeitet hat und seinen Studierenden in den USA von seinen Begegnungen mit Edgar Degas und Auguste Renoir berichtete.82 In Erinnerung an diese Erzählungen fasst Csuri zusammen: »[H]is experiences offered to us a very romantic view of the artist.«83 Mit seinem Kommilitonen Roy Lichtenstein, der zugleich ein enger Freund Csuris wurde, studierte er zudem bei Hoyt L. Sherman, der – wie Csuri darstellt – mit seinen Konzepten zur Wahrnehmungstheorie und seiner Vorstellung visueller Strukturierung von Farben und Formen nicht nur auf Lichtenstein großen Einf luss hatte, sondern auch auf Csuri selbst. Er beschreibt die Beziehung zu seinem Professor als konf liktbehaftet, aber zugleich als dynamisch und für die damalige Zeit progressiv.84 Rückblickend erinnert sich Csuri beispielsweise an eine Lehrmethode, bei der die Studierenden in einem vollkommen abgedunkelten Raum für die Dauer einer Zehntel-Sekunde eine Diaprojektion gezeigt bekommen haben, um anschließend in der Dunkelheit das gezeigte Bild anhand des in der Wahrnehmung zurückbleibenden Nachbildes innerhalb von einer Minute mit Kohle auf einem großen Papierbogen nachzuzeichnen. Die Art der gezeigten Bilder beschreibt Csuri als »abstract shapes in a variety of combinations representing formal concepts of visual structure.«85 Der US-amerikanische Kunsthistoriker Michael Lobel widmet dem Kunstprofessor und dem Einf luss, den er auf Lichtenstein hatte, in seiner Monografie Image Duplicator: Roy Lichtenstein and the Emergence of Pop Art ein eigenes Kapitel. Darin beschreibt er neben der »Flash Drawing Technique«86 weitere Lehrmethoden Shermans, anhand derer sich Csuris Ausführungen ergänzen und veranschaulichen lassen. So hatte Sherman für seine Lehren im Bereich der menschlichen Wahrnehmung ein sogenanntes »Visual Demonstration Center«87 errichtet, wobei es sich um einen Raum handelte, in dem Sherman Grafiken und Modelle ausstellte, um »various principles of visual perceptions, particularly optical illusions«88 zu veranschaulichen. Auf ein Modell mit der Bezeichnung ›Distorted Room‹ weist Lobel dezidiert hin. Es handelte sich dabei um einen perspektivisch verzerrten Raum, der die Illusion eines quadratischen Grundrisses evozierte, obwohl die hintere Wand nicht im rechten Winkel zu den anderen Wänden, also nicht parallel, sondern schräg zum Betrachter ausgerichtet war. Die linke Raumecke befand sich vom Betrachter aus gesehen sehr viel weiter hinten als die rechte, wenngleich sich diese Verzerrung rein optisch nicht mitteilte. Für den Betrachter erschien eine unauffällige zentralperspektivische Darstellung eines Raums. 81 Csuri; Freedman (1989): S. 3. 82 Vgl. ebd., S. 3. 83 Ebd., S. 3. 84 Vgl. ebd., S. 14. 85 Ebd., S. 3. 86 Ebd., S. 3. 87 Michael Lobel: Image duplicator. Roy Lichtenstein and the Emergence of Pop Art. New Haven: Yale University Press, 2002, S. 77. 88 Ebd., S. 77.
95
96
Scheler: Computergrafik
Lobel verweist in diesem Zusammenhang auf eine von Sherman selbst erstellte Illus tration, die die Wirkung des verzerrten Raumes veranschaulicht. In der Zeichnung wird ersichtlich, dass in die schräge Rückwand des Modells nebeneinander zwei Fenster eingelassen waren, die selbst so verzerrt konstruiert wurden, dass sie den Eindruck tadelloser Rechtecke wiedergeben. Blickten zwei Menschen gleichzeitig durch die beiden Scheiben, so erschien einer der beiden aufgrund der größeren Distanz zum Betrachter erheblich kleiner als der andere (Abb. 27 & 28).89 Lobel leitet von der Vorliebe Shermans für optische Illusionen ab, dass der Kunstprofessor nicht im positiven Sinne darüber auf klären wollte, wie der menschliche Wahrnehmungsapparat funktioniert, sondern im defizitären Sinne, wie fehlbar unser Wahrnehmungsapparat sei: »Sherman intended to show the viewer how various components of the perceptual pro cess (such as binocular vision or the individual’s prior knowledge of objects in the world) infringed on the possibility of an ostensible pure – that is to say, immediated – percep tion of the visual field.«90 Wenngleich Csuri in seinen Ausführungen nicht explizit auf den ›Distorted Room‹ eingeht, verweist er zumindest allgemein auf Shermans Interesse an gestaltpsychologischen Theorien.91 Csuri betont zwar, er zähle sich selbst nicht zur Schule der Gestaltpsychologie, er bestätigt jedoch gleichzeitig, dass er die darin zum Ausdruck gebrachten Prinzipien für selbstverständliche Phänomene hält: »I think that it’s just the nature… Things are never really quite simple.«92 Auch Csuri wurde demnach von seinem akademischen Lehrer zumindest dafür sensibilisiert, seiner eigenen Wahrnehmung gegenüber eine kritische und hinterfragende Haltung einzunehmen. Er stellt dar, wie die von Sherman vermittelten Konzepte noch lange über das Studium hinaus den Gegenstand gemeinsam mit Lichtenstein geführter Dialoge bildeten. Im Studium war für beide längst klar: »Three dimensional space, perspective and chiaroscuro did not exist for us. Everyone who did not agree with us, of course, were simply romantics and fools.«93 Schon jetzt lässt sich verdeutlichen, inwiefern Csuri im Rahmen seiner künstlerischen Ausbildung völlig anderen Einf lüssen ausgesetzt war als Sutherland am MIT oder schon vorher in seinem Elektrotechnikstudium. Die Auseinandersetzung mit Steven A. Coons wird letztendlich Aufschluss darüber liefern, von welchen visuellen Konzepten Sutherland im Gegensatz zu Csuri umgeben war. Woher kam also Csuris technisches Interesse? Die Impulse erhielt er in keiner Weise aus dem künstlerischen Umfeld der Universität. Als er vollständig in die Arbeit mit dem Computer einstieg, war er bereits festangestellter Kunstprofessor für Malerei, weshalb er sich zu jener Zeit – auch aufgrund von Ausstellungen in New York94 – einen gesicherten Status als Künstler erarbeitet hatte. Dennoch waren die Personen in 89 Vgl. ebd., S. 77–78. 90 Ebd., S. 78. 91 Vgl. Csuri; Freedman (1989): S. 3. 92 Ebd., S. 12. 93 Ebd., S. 3. 94 In den Jahren von 1955 bis 1966 wurden Csuris Arbeiten in New York sowohl in Einzel- als auch in Gruppenausstellungen ausgestellt. Vgl. Csuri; Butche (2003): S. 35, und vgl. Glowski, SIGGRAPH (Hgg.) (2006): S. 173. Siehe auch Rosen (2006): S. 26.
Der Computer als kreativer Partner
Abb. 27: Hoyt L. Sherman, Visual Demonstration Center in A Manual for Operation: Second Draf t, 1951, Zeichnung.
Abb. 28: Hoyt L. Sherman, Visual Demonstration Center im Vision to Action-Katalog, ohne Datum, Fotografie.
diesem künstlerischen Umfeld nicht aufgeschlossen für sein Interesse an der Computertechnologie. Insbesondere Sherman habe seine Hinwendung zum Computer abgelehnt: »Sherman and I simply had no dialogue. Once I got involved with the computer, that simply dissolved whatever relationship we had.«95 Csuri selbst verweist auf das Jahr 1955, in dem er erstmals in Berührung mit der Computertechnologie kam. Er nennt in diesem Zusammenhang einen persönlichen Freund, Jack Mitten, der als Professor für Maschinenbau ebenfalls an der Ohio State University tätig war. Mitten führte Csuri an die wesentlichen Eigenschaften der Computertechnologie und an deren Anwendungsmöglichkeiten heran. Explizit erinnert Csuri in seinen Ausführungen daran, dass zu jener Zeit Computer noch nicht mit grafischen Ausgabegeräten verbunden waren, mit denen sich Berechnungen hätten visualisieren lassen können. Auch Plotter, also automatisierte Ausgabegeräte für Zeichnungen, waren noch nicht verfügbar. Dennoch spekulierten Csuri und Mitten in privaten Gesprächen darüber, ob sich die Computertechnologie nicht eines Tages auch für künstlerische
95 Csuri; Butche (2003): S. 36. Zum Verhältnis mit seinem künstlerischen Umfeld an der OSU siehe auch ebd., S. 35.
97
98
Scheler: Computergrafik
Zwecke eignen könnte: »During the cocktail hour, we would talk about computers, and as the martinis began to f low more freely, so did our ideas about computers and art.«96 Der Katalog, der im Zuge der 2006 veranstalteten Csuri-Ausstellung zusammengestellt wurde, gibt Aufschluss darüber, dass Csuris Zugang zu technischem Wissen aufgrund seines Einsatzes im Zweiten Weltkrieg schon früher angelegt war. Die in dem Band vertretene deutsche Kunsthistorikerin und Medienkünstlerin Margit Rosen klärt in ihrem Beitrag A Record of Decisions: Envisioning Computer Art darüber auf. Sie verfolgt darin das Ziel, Csuris kreativem Prozess nachzuspüren, und legt dabei besonderen Wert darauf, Aspekte seiner künstlerischen Haltung herauszuarbeiten, die sich bereits vor seiner Arbeit mit dem Computer abzeichneten, die jedoch anschließend weiterhin seine kreativen Entscheidungen und seinen künstlerischen Geist prägten.97 Nachdem Rosen wesentliche Meilensteine von Csuris künstlerischer Entwicklung vorgestellt hat, greift auch sie den 1955 beginnenden Austausch mit Jack Mitten auf.98 Ihr Verweis auf Csuris Kriegsdienst liefert eine plausible Erklärung dafür, warum der Künstler überhaupt mit so großem Interesse Entwicklungen im Bereich der Computertechnologie verfolgte beziehungsweise warum er in fachlicher Hinsicht dazu fähig war, seinem Freund zu folgen: »Csuri brought with him prior knowledge to the topic. In 1943, he had been drafted into the Army to fight in Europe during World War II. Before he was transferred, the Army sent him to the Newark College of Engineering, where he passed a one-year program of algebra, trigonometry, analytic geometry, calculus, physics, chemistry, and engineer ing drawing.«99 Csuri selbst verweist in beiden Interviews nicht auf dieses historische Detail, er erwähnt lediglich, dass sein Studium noch vor seinem Bachelorabschluss durch einen etwa dreijährigen Einsatz im Zweiten Weltkrieg unterbrochen wurde. In Bezug auf die Frage, welche Schulen er besuchte, nennt er ausschließlich die Ohio State University.100 Auch in einem 1990 in der Zeitschrift IEEE Computer Graphics and Applications veröffentlichten Interview findet seine Ausbildung am Newark College keine Erwähnung.101 Seine technische Affinität zur Computertechnologie und sein Verständnis dafür stützt er allein auf den Austausch mit seinem Freund und Kollegen Jack Mitten: »Because of the dialogue over 10 years with my engineer friend, it all made sense to me.«102 Im Kontext dieser Aussage bezieht er sich auf ein konkretes Ereignis, das ihn etwa zehn Jahre nach Beginn seiner Gespräche mit Jack Mitten unmittelbar dazu motiviert habe, den Computer als künstlerisches Ausdrucksmedium einzusetzen. Im 96 Csuri; Freedman (1989): S. 4. 97 In ähnlicher Weise fasst auch die Herausgeberin des Bandes in ihrer Einführung Rosens Absicht zusammen. Vgl. Glowski (2006a): S. 17, und vgl. Rosen (2006): S. 25–46. 98 Rosen datiert den Beginn des Austauschs mit Jack Mitten auf 1954. Csuri selbst datiert ihn in dem 1989 geführten Interview auf 1955. Vgl. Csuri; Freedman (1989): S. 4, und vgl. Rosen (2006): S. 26. 99 Rosen (2006): S. 26. 100 Vgl. Csuri; Freedman (1989): S. 13–14. 101 Vgl. Charles A. Csuri; John Staudhammer; Tom Culviner; Margaret Neal: An Interview with Charles Csuri. In: IEEE Computer Graphics and Applications 10/1, 1990, S. 5–9. 102 Ebd., S. 7.
Der Computer als kreativer Partner
Jahr 1964103 entdeckte Csuri in einer wissenschaftlichen Publikation des Departments of Electrical Engineering an der Ohio State University ein computergeneriertes Bild, das mithilfe einer automatisierten elektrischen Schreibmaschine, eines sogenannten Flexowriters, erzeugt wurde. Bei dem Bild, das ein weibliches Gesicht im Profil zeigte, handelte es sich um die digitalisierte Kopie einer Fotografie, die zuvor in mehrere Abstufungen von Grautönen unterteilt worden war. Die unterschiedlichen Grauwerte wurden anschließend in einen Computer eingegeben, um sie mit der Schreibmaschine auf einem neuen Bogen Papier wieder auszugeben (Abb. 29–31).104 Der Flexowriter erfüllte für diese Aufgabe die nötige Voraussetzung, Grautöne in unterschiedlicher Stärke auszugeben.105 Csuri misst der Entdeckung dieses Bildes für seinen eigenen künstlerischen Werdegang einen großen Stellenwert bei: »All it took for me was to see that one picture produced by computer and everything just simply came together for me. And I knew instantly, I literally knew instantly that this is what I had to do.«106 Nach seiner Entdeckung meldete Csuri sich umgehend für einen Programmierkurs an der Ohio State University an, um so den Weg dafür zu bereiten, sich selbst am Computer künstlerisch zu betätigen.107 Die Gespräche mit seinem Freund Jack Mitten hatten ihn gut vorbereitet: »At least at a conceptual level, I had a pretty good idea of what I was getting into.«108 Diese konzeptionelle Ebene, auf die Csuri hier zu sprechen kommt, lässt sich bereits in künstlerischen Arbeiten von ihm wiedererkennen, die er gefertigt hat, kurz bevor er damit begann, den Computer als Ausdrucksmedium zu gebrauchen. Diese Arbeiten sollen nun in den Fokus gerückt werden, um zu verstehen, inwieweit schon Csuris rein konzeptionelles Verständnis der Computertechnologie seine künstlerische Praxis beeinf lusst hat. Dieser Schritt dient dazu, um nachfolgend zu erörtern, wie es Csuri gelungen ist, die Eigenarten des Computers zwar für sich zu nutzen, ohne dabei jedoch die Hoheit über seine kreativen Entscheidungen zu verlieren. Besonders anschaulich wird Csuris Aussage über seine Computer-Kenntnisse vor dem Hintergrund seiner Arbeit She’s Watching Superman, entstanden in den Jahren 1963 und 1964. Es handelt sich dabei um ein mit Tinte gezeichnetes Porträt einer alten Frau, die ihren Kopf, umhüllt von einem Tuch, auf ihrer linken Hand abstützt. Während Csuri den Körper und das Tuch lediglich mit feinen Konturen darstellte, arbeitete
103 Csuri selbst verweist im Interview auf das Jahr 1965. Rosen nennt hingegen 1964 als Entdeckungs jahr, was plausibel erscheint, da Csuri 1964 selbst mit den ersten computergrafischen Experimenten begann. Vgl. Csuri; Freedman (1989): S. 14–15; vgl. Rosen (2006): S. 26. 104 Um die Unterteilung der Grautöne vorzunehmen, wurde anhand der Fotografie zunächst ein Ge mälde gefertigt, in dem die Grauabstufungen verringert wurden. Das Bild wurde auf diese Weise in Zonen eingeteilt, denen je ein Grauwert zugeordnet war. Diese Zonen mit ihren jeweiligen Grauab stufungen konnten anschließend in den Computer eingegeben werden, damit dieser die Information wiederum an den Flexowriter weitergibt. Vgl. J. G. Raudseps: Picture Regeneration from Quantized Data. The Antenna Laboratory, Department of Electrical Engineering, The Ohio State Universit y Re search Foundation. Columbus, OH: The Ohio State University Libraries Archives, 1963, S. 4–9. 105 Vgl. Csuri; Staudhammer; Culviner; Neal (1990): S. 3. Vgl. auch Csuri; Freedman (1989): S. 4, und Rosen (2006): S. 26. 106 Csuri; Freedman (1989): S. 15. 107 Vgl. ebd., S. 15. 108 Ebd., S. 15.
99
100
Scheler: Computergrafik
Abb. 29: J. G. Raudseps, Picture af ter quantizing by artist, 1963, Farbe auf Papier.
Abb. 30: J. G. Raudseps, Quantized picture produced from scan data for checking purposes, 1963, Ausgabe über Flexowriter.
Abb. 31: J. G. Raudseps, Picture smoothed on basis of both horizontal and vertical scans, 1963, Ausgabe über Flexowriter.
Der Computer als kreativer Partner
Abb. 32: Charles A. Csuri, She’s Watching Superman, 1963–1964, Tinte auf Papier, prozedurale Zeichnung, 147 x 104 cm.
er die Hand und das Gesicht mit f lächigen Schattierungen heraus (Abb. 32). Auf visueller Ebene teilt sich Csuris Auseinandersetzung mit der Computertechnologie nicht mit, doch die Art und Weise, wie er vorgegangen ist, sowie seine eigenen Äußerungen zum Produktionsprozess stellen den Bezug explizit her. Seine im Kunststudium erlernten Techniken wie beispielsweise Shermans »Flash Drawing Technique«109erschienen für ihn in einem neuen Licht: »I began questioning the role of a tactile-kinesthetic approach to painting and drawing. What is the relationship between the mind and the hand? As an experiment, I made this drawing, one dot at a time, with a pen. It was a procedural approach in which I worked mechanically like a machine. I also wondered if words and comments could attribute to and become part of an art object. I was curious to see if in the end, there would still be an aesthetic quality.« 110 Unmissverständlich beschreibt Csuri hier die Natur des prozeduralen Programmierparadigmas, das, wie die Auseinandersetzung mit Sutherland ergeben hat, zu jener Zeit im Bereich der Computertechnologie als Standard zum Einsatz kam. Etwa zeitgleich zu dieser Schaffensphase Csuris entwickelte Sutherland mit Sketchpad die ersten Ansätze des neuen objektorientierten Programmierparadigmas, auch wenn die Bezeichnung dafür erst einige Jahre später entstand. Csuris Aussage, er sei wie eine Maschine vorgegangen, scheint zunächst eine Verwandtschaft zu jenen gedanklichen Ansätzen aufzuweisen, in denen die Vorstellung eines sich künstlerisch ausdrückenden Subjekts abgelehnt wurde. Rosen stellt jedoch treffend heraus, dass Csuri sich in 109 Ebd., S. 3. 110 Glowski, SIGGRAPH (Hgg.) (2006): S. 48.
101
102
Scheler: Computergrafik
diese Strömung nicht einordnen lässt. Wie schon das diesem Kapitel vorangestellte Zitat verdeutlicht, vertritt Csuri seiner eigenen Auffassung nach eine humanistische Haltung, die – wie er selbst sagt – womöglich nicht in seine Zeit passe111: »Charles Csuri’s concept of art only seemed to resemble the militant ideas of ›the com puter as an artist.‹ Csuri never called into question the authority of the human artist. He did not cultivate the rhetoric of the extinction of the subject, of a transhuman art. As much as he explored the computer, the machine itself as a symbol of rationality and discipline never stood in the center of his reflection.« 112 Eine andere Arbeit Csuris, die er ebenfalls fertigte, kurz bevor er sich vollkommen dem Computer zuwandte, kann den von Rosen hier erläuterten gedanklichen Horizont Csuris veranschaulichen. So entwickelte er in den Jahren von 1963 bis 1964 eine Reihe von neun Zeichnungen, die er als Serie mit dem Namen After the Artist betitelte. Wie der Titel der Reihe andeutet, ging es Csuri in den Zeichnungen darum, Arbeiten anderer Künstler nachzuempfinden.113 Er verwendete dafür einen Pantographen, also ein Zeichengerät, mit dem sich eine Zeichnung entweder in ihrer originalen Größe oder in einem anderen Maßstab duplizieren lässt.114 Csuri begnügte sich jedoch nicht damit, Bilder schlicht zu vervielfältigen, stattdessen nahm er an dem Pantographen eine bauliche Veränderung vor, sodass sich damit stark verzerrte Kopien erzeugen ließen. Innerhalb einer Zeichnung vereinte er so mehrere Ansichten eines fremden Kunstwerks. Abbildung 33 zeigt ein Beispiel, in dem Csuri mit seinem Verfahren etwa auf den deutschen Maler Paul Klee rekurriert.115 Nicht nur die Reproduktion der Arbeiten anderer Künstler, sondern auch der Titel der Reihe lassen die Erkenntnis zu, dass Csuri Wertschätzung für die zitierten Kollegen und ihren subjektiven Ausdruck empfand. 111 Vgl. Csuri; Freedman (1989): S. 6. 112 Rosen (2006): S. 40. Herv. i. O. 113 Die Künstler, die er ›kopierte‹, waren Gentile Bellini, Paul Cézanne, André Derain, Albrecht Dürer, Francisco Goya, Jean-Auguste Ingres, Paul Klee, Piet Mondrian und Pablo Picasso. Vgl. Ariana Maki: After the Artist Series. In: Charles A. Csuri. Beyond Boundaries, 1963 – present. Hrsg. v. Janice M. Glowski und SIGGRAPH. Columbus, OH: The Ohio State University, College of the Arts, Advanced Computing Center for the Arts and Design, 2006, S. 52–58. 114 Der Kreativitätstheoretiker Friedrich Weltzien bezeichnet den Pantographen, auch bekannt als Stor chenschnabel, zwar nicht – wie Csuri – als Computer, er ordnet ihn jedoch als selbsttätige Bildpraxis ein, die neben anderen autopoietischen Verfahren in der romantischen Kunst zum Einsatz kam. Den Mechanismus beschreibt er folgendermaßen: »Die Funktionsweise des Storchenschnabels ist in sei nem mechanischen Prinzip simpel: Es müssen vier Latten zu einem Parallelogramm gegeneinander beweglich, mobile, zusammengeschraubt werden. Wenn ein Winkel dieses Parallelogramms fixiert wird, kann im benachbarten Winkel ein Stift befestigt werden, so dass dessen Spitze auf einem Papier aufliegt […]. Fährt man dann mit dem Winkel, der dem Stift gegenüber liegt, eine Kontur ab, so wird der Stift auf dem Papier ebenjene Kontur nachzeichnen. Nach dem mathematischen Prinzip des Strahlensatzes kann durch Verschiebung der Längenverhältnisse der Latten der Pantograph so eingestellt werden, dass diese Zeichnung das Vorbild vergrößert oder auch verkleinert. In jedem Fall bleiben aber alle Verhältnisse erhalten.« Friedrich Weltzien: Fleck – das Bild der Selbsttätigkeit. Justi nus Kerner und die Klecksografie als experimentelle Bildpraxis zwischen Ästhetik und Naturwissen schaft. Göttingen: Vandenhoeck & Ruprecht, 2011, S. 296. Herv. i. O. 115 Vgl. Rosen (2006): S. 32.
Der Computer als kreativer Partner
Abb. 33: Charles A. Csuri, Af ter Paul Klee, aus der Reihe Af ter the Artist, 1963, Tinte auf Papier, Pantograph, 51 x 61 cm.
Abb. 34: Charles A. Csuri, Leonardo da Vinci Series, 1966, Tinte auf Papier, IBM 7094 und Trommelplotter, 51 x 152 cm.
Obwohl er seinen Pantographen als ›analogen Computer‹ bezeichnete, steht für ihn die Automatisierung des künstlerischen Prozesses nicht im Widerspruch mit der Vorstellung eines künstlerischen Subjekts. Wie Rosen betont, setzte Csuri seine Reihe Af ter the Artist mit Leonardo da Vincis Vitruvian Man im Jahr 1966 an einem digitalen Computer sogar weiter fort (Abb. 34).116 116 Vgl. ebd., S. 32. Rosen erläutert zudem, wodurch Csuri zu der Serie inspiriert wurde, und verweist in diesem Zusammenhang auf den Biologen und Mathematiker D’Arcy Thompson sowie sein 1917 veröffentlichtes Buch On Growth and Form: »Thompson sought a tool to deduce from a particular ani mal the ideal form, similar to the Aristotelian genus, as well as the laws of evolution. Csuri reversed Thompson’s enterprise. Rather than seeking the laws of transformation, he created them. He did not seek to reduce variety, but to produce it.«
103
104
Scheler: Computergrafik
Wie sich an Rosens Ausführungen zu der Serie Csuris zeigt, steht dessen Arbeitsweise der Vorstellung, ein künstlerisch arbeitendes Subjekt abzulehnen, konträr gegenüber. So schildert sie, inwiefern Csuri seine künstlerischen Ideen am Computer entwickeln konnte, gerade weil er vorab künstlerische Prozesse anderer Künstler studierte: »Constructing a tool presupposes the analysis of the production process. Csuri, the artist, was prepared. He followed up an aesthetic interest rooted in his study with im pressionist painters John Hopkins and Hoyt Sherman, who taught him to understand Monet, Cézanne, Braque, and Picasso – an interest in the structure of artworks and the decision-procedures involved in their production.« 117 Wie hier deutlich wird, interessierte sich Csuri demzufolge nicht vorrangig für die Automatisierung von künstlerischen Prozessen, sondern vielmehr dafür, die Produktionsschritte und verwendeten Techniken nachzuvollziehen. Rosen verweist in ihrem Beitrag darauf, dass dieses Interesse am künstlerischen Prozess in einem 1967 entwickelten Forschungsantrag sogar den Kern eines seiner Forschungsvorhaben bildete. Csuri greife damit etwas auf, was unter anderen Pionieren, die sich mit der Erzeugung von Computergrafiken aus künstlerischer Perspektive befasst haben, ebenfalls verbreitet war. Explizit nennt Rosen hier beispielsweise A. Michael Noll aus den USA oder auch den deutschen Philosophen Max Bense, »who sought to detect within the framework of his ›information aesthetics‹ the elements and rules of artworks.«118 Ein wesentlicher Unterschied zwischen Bense und Csuris Interesse sei jedoch, dass Bense fertige Kunstwerke analysierte, während Csuri den Fokus auf die Produktionsprozesse legte. Wie Rosen darlegt, lässt sich dieses Interesse Csuris wiederum mit den konzeptionellen Ansätzen des deutschen Computerkünstlers Frieder Nake in Übereinstimmung bringen, die er 1968 in seinem Beitrag Die Kunstproduktion als Entscheidungsprozeß für die zweite Ausgabe der Zeitschrift bit international 2 vorstellt.119 Obwohl Nake mit seinen Überlegungen eine Möglichkeit entwickelt, wie mit dem Computer künstlerische Entscheidungsprozesse nachempfunden werden können, ergänzt er besänftigend: »Nicht im entferntesten [!] besteht die Gefahr, daß von Mathematikern oder gar Com putern das Bildermachen völlig okkupiert werden könnte. Ein starker Einbruch der ex akten Wissenschaft – also des diskursiven Denkens – in den produktiven Bereich des intuitiven Denkens wird dieses nicht abschaffen, sondern vielmehr dazu provozieren, voranzuschreiten.« 120 Diesem intuitiven Zugang zur Kunst galt, wie Rosen herausstellt, Csuris hauptsächliches Interesse. Sie gibt seine Auffassung wieder, nach der nicht alle Facetten eines künstlerischen Produktionsprozesses dem Computer überlassen werden können.121 Auffällig ist, dass Csuri trotz seiner mit Nake grundsätzlich vergleichbaren Haltung in 117 Rosen (2006): S. 30. Bei dem hier als John bezeichneten Maler handelt es sich um James Hopkins. 118 Ebd., S. 36. 119 Vgl. ebd., S. 36. 120 Frieder Nake: Die Kunstproduktion als Entscheidungsprozeß. In: bit international, Bd. 2. Hrsg. v. Boris Kelemen und Radoslav Putar. Zagreb: Galerije grada Zagreba, 1968, S. 45–50, hier S. 49. 121 Vgl. Rosen (2006): S. 36–37.
Der Computer als kreativer Partner
Abb. 35: Charles A. Csuri, Sine Curve Man, 1967, Tinte auf Papier, IBM 7094 und Trommelplotter, 104 x 104 cm.
seinen frühen Arbeiten ein ganz anderes Erscheinungsbild anstrebte. Während Nakes Bilder abstrakte Kompositionen darstellen,122 weisen Csuris Arbeiten stets figurative Elemente auf. Auch Rosen macht die Beobachtung, dass »[m]ost of the artists and scientists producing images and movies with the computer in the 1960s designed abstract imagery. They inquired in a nonfigurative way about vari ability, randomness, and complexity – aspects that represented the potential of the new medium. Csuri never focused his imagination on the visualization of the structure of the computer itself. Neither did he entertain a mythical relation to the eternal world of mathematics. Rather, Csuri used mathematics as a means of representation. He did not seek to represent the idea of mathematics itself.« 123 In dem 1989 geführten Interview liefert zudem Csuri selbst eine mögliche Erklärung für sein geringes Interesse an abstrakten Kompositionen. Unter Bezugnahme auf seine Arbeit Sine Curve Man aus dem Jahr 1967 (Abb. 35) wird er gefragt, ob er schon immer an einem figurativen Ausdruck interessiert gewesen sei. Csuri bestätigt die Frage und betont, er sei stets an der Malerei Rembrandts oder Frans Hals’ sowie generell an Porträtmalerei interessiert gewesen. Er verweist außerdem darauf, dass selbst seine eigenen abstrakten Kompositionen in der Regel auf menschliche Figuren Bezug nehmen. Bündig fasst er seine Haltung zur Abstraktion in der Kunst zusammen: »While I think I know a fair amount about visual organization and abstraction, that as an end is not very interesting to me. I just find it kind of boring.«124 122 Vgl. Abb. 26, S. 92, in der vorliegenden Studie. 123 Rosen (2006): S. 40. 124 Csuri; Freedman (1989): S. 7.
105
106
Scheler: Computergrafik
Anhand dieser Aussage lässt sich erahnen, nach welcher Art von Werkzeugen Csuri im Computer suchte. Es mussten welche sein, die einerseits seinen Nachforschungen anderer künstlerischer Prozesse und andererseits seinen eigenen künstlerischen Vorstellungen entsprachen. Gleichzeitig stand Csuri vor der Aufgabe, diese Ansprüche zudem noch mit den Eigenschaften zu verbinden, die die Computertechnologie selbst mitbrachte. Wie ging er also dabei vor? Csuris Entscheidung, bei der Entwicklung von ›Computerwerkzeugen‹ zunächst andere künstlerische Prozesse zu analysieren, veranschaulicht einen Aspekt, der sich auch bei Sutherland angedeutet hat und der für diese Studie eine besondere Relevanz besitzt: Die Funktionen, die für den Computer entwickelt werden, orientieren sich häufig an bereits bestehenden und vertrauten Arbeitsprozessen. Softwareentwicklung erfolgt demnach ebenfalls sehr häufig – wie diese Studie – vor dem Hintergrund produktionsästhetischer Analysen.125 Wie allerdings verdeutlicht werden konnte, analysierte Csuri offenkundig andere Produktionsprozesse als Sutherland. Obwohl also beide Pioniere beispielsweise von der Offenheit im künstlerischen Prozess ausgehen, zeigt sich nun, dass Csuri sich anders als Sutherland nicht nur mit künstlerischen Prozessen durch seine eigene Praxis auskannte, sondern dass er sich zudem auch mit künstlerischen Produktionsverfahren anderer Kunstschaffender eingehend auseinandergesetzt hatte. Sutherlands Argument, sein Programm sei auch aufgrund künstlerischer Anwendungsmöglichkeiten besonders offen gestaltet, verliert vor dem Hintergrund von Csuris künstlerischen und computertechnologischen Überlegungen an Schlagkraft. Langfristig betrachtet haben jedoch Sutherlands Vorstellungen anders als Csuris in späteren Softwareentwicklungen überdauert. Begünstigend trug hierzu der objektorientierte Ansatz bei, der eine einfachere Anwendbarkeit des Computers ermöglichte. Obwohl nun Csuri von solchen Entwicklungen zunächst keinen Gebrauch machte, ist es ihm gelungen, die Offenheit in seinem künstlerischen Prozess nach seinen Vorstellungen zu wahren. Wie ging er dabei vor? Um diese Frage zu beantworten, lässt sich erneut eine Aussage Csuris aus dem 1989 geführten Interview heranziehen. Obwohl Csuri genau wie Sutherland letztendlich dazu überging, eigene Software zu entwickeln, und beide grundsätzlich einen ähnlichen Anspruch an die Leistung dieser Software stellen, verdeutlicht die folgende Aussage Csuris, dass für ihn der Ausgangspunkt immer ein künstlerisches Ziel war, im Gegensatz zu Sutherland, der die künstlerische Nutzung seines Programms als ein zusätzliches Argument für die Anwendung anführte: »When I began working with the computer, I had to look closely at how it could be used within an artistic context. How might I work with this new medium in a way that would offer me greater freedom? Where is the sense of play and fun in this universe of linear logic? Is there something new buried in this logic or is the innovation within me? Over many years, I have shaped a software environment that offers me methods and strate gies that allow me to work more freely. I realized early on that I preferred an approach to making art that allowed for multiple solutions to a problem. The software was de signed to reflect this idea. As a consequence of this choice, an art object becomes many statements about the same thing.« 126 125 In Kapitel 2.3.2 Der Computer als Erweiterung des Intellekts wird dieser Zusammenhang genauer be schrieben. 126 Csuri (2006): S. 21.
Der Computer als kreativer Partner
Diese Beschreibung von Csuris grundsätzlicher Herangehensweise an die Arbeit mit dem Computer zeigt an, dass er von Beginn an nach Wegen gesucht hat, sich nicht den Entwicklungen der Technologie hinzugeben, sondern sie mitzugestalten. Für Csuri war deshalb die Unterscheidung zwischen dem prozeduralen und objektorientierten Programmierparadigma anders als für Sutherland zunächst völlig unerheblich. Entscheidend war hingegen sein Sinn für Kollaboration, denn sein künstlerischer Ausdruck mithilfe des Computers zeichnet sich stets durch die Zusammenarbeit mit Informatikern und Mathematikern aus. Auch hier besteht ein entscheidender Unterschied zu Sutherlands Vorgehensweise in der Entwicklung seiner Grafiksoftware – er suchte einen Dialog mit Künstlern nicht in so offenkundiger Weise, wie Csuri es umgekehrt pf legte. Die Art und Weise, wie Csuri diese Zusammenarbeit gestaltete, soll im Folgenden beleuchtet werden. Wie angemerkt, veränderte sich durch die für Csuri ab den frühen 1960er Jahren verfügbaren automatisierten Elemente im Produktionsverfahren seine Einstellung zum eigenen künstlerischen Prozess. Die Unvorhersehbarkeit der Ergebnisse wurde für ihn zunehmend zentraler. So beschreibt Rosen beispielsweise: »Already while he was using the pantograph, Csuri started playing with the notion that he could not anticipate or imagine the result of the rules he had set up.«127 Er selbst konnte Veränderungen in seinem Produktionsprozess vor allem in Bezug auf die Malerei feststellen – das Ausdrucksmedium, mit dem er zuvor hauptsächlich gearbeitet hatte und das für einen Zeitraum von knapp 20 Jahren während seiner Kunstprofessur den Hauptgegenstand seiner Lehre128 bildete: »When I did a traditional painting, I was thinking in terms of start, beginning, and some end point – a painting, a drawing. Today I don’t have the expectation in the same way. I explore the computer as a search engine for art. I am hoping that when I set up that environment, there will be something I cannot think of.« 129 Von dem Moment an, als Csuri sich dem Computer zuwandte, rückte seine Verbindung, die er zuvor zur Malerei pf legte, stark in den Hintergrund. Zudem wurde ihm bewusst, dass dieses für ihn neue Ausdrucksmittel sehr kostspielig war und dass er, wenn er eigene künstlerische Vorstellungen umsetzen wollte, auf finanzielle Unterstützung angewiesen sein würde. Zwischen 1965 und 1968 befasste er sich noch hauptsächlich damit, künstlerisch mit den damals verfügbaren Mitteln der Computergrafik zu experimentieren, wie es zum Beispiel die Arbeit Sine Curve Man aus dem Jahr 1967 veranschaulichen kann. Ab den späten 1960er Jahren war er zunehmend damit beschäftigt, die Forschung im Bereich der Computergrafik und Computeranimation selbst voranzutreiben und dafür Gelder einzuwerben.130 Da er sich selbst bis zu jenem Zeitpunkt in 127 Rosen (2006): S. 33. 128 Vgl. Maria Palazzi: Exploration and the Artist’s Tools. In: Charles A. Csuri. Beyond Boundaries, 1963 – present. Hrsg. v. Janice M. Glowski und SIGGRAPH. Columbus, OH: The Ohio State University, Col lege of the Arts, Advanced Computing Center for the Arts and Design, 2006, S. 93–96, hier S. 94. 129 Zitiert nach Rosen (2006): S. 33. Rosen nennt in ihrem eigenen Aufsatz für diese Aussage Csuris keine Quelle. In ihren bibliografischen Angaben verweist sie auf Gespräche, die sie zum Anlass ihres Auf satzes mit Csuri geführt hat. Es wird davon ausgegangen, dass sie aus einem dieser Gespräche zitiert. 130 Vgl. Csuri; Freedman (1989): S. 5.
107
108
Scheler: Computergrafik
keinem wissenschaftlichen und als Kunstprofessor auch nicht in einem naturwissenschaftlichen Kontext profiliert hatte, waren es letztendlich Freunde von ihm, darunter Mathematiker und Physiker, die ihn dazu inspirierten und ermutigten, aus seinen künstlerischen Ambitionen ein Forschungsprojekt zu entwickeln und sich damit bei der National Science Foundation vorzustellen. Csuri folgte dem Vorschlag seiner Kollegen und bekam entgegen seinen Erwartungen schließlich Forschungsgelder bewilligt. Aus diesem Ereignis entwickelte sich eine fortwährende Förderung von Csuris Arbeit durch die National Science Foundation für einen Zeitraum von über 20 Jahren. Obwohl die Organisation Csuris künstlerische Ideen zu Beginn unterstützte, war sein Erfolg langfristig betrachtet nur deshalb möglich, weil er schon beim Folgeantrag seine künstlerischen Ambitionen nicht mehr offenkundig als Gegenstand seiner Forschung präsentierte und stattdessen computertechnologische Entwicklungen im Rahmen der Antragstellung in den Fokus rückte.131 Wenngleich er mit seiner Forschung rein konzeptionell noch immer die Ziele seiner künstlerischen Praxis verfolgte, rückte die Produktion eigener Arbeiten in dieser Zeit vollkommen in den Hintergrund: »As I understood the broader implications of computer graphics, I became very involved in basic research and set aside my attempt to produce art. I shifted my emphasis because it was the only way I could acquire the necessary resources to develop some of my ideas.«132 Erst Ende der 1980er Jahre nahm Csuri die Arbeit als Künstler wieder auf. Auch die Malerei spielte zu dieser Zeit wieder eine größere Rolle in seinem künstlerischen Ausdruck. In ihrem Beitrag Exploration and the Artist’s Tools für den 2006 erschienenen Ausstellungskatalog erläutert Maria Palazzi in ihrer Rolle als Direktorin des ACCAD, dass Csuri in dieser Phase eigene Zeichnungen und Malereien nicht nur generell wieder in seinen Produktionsprozess aufnahm, sondern dass er darüber hinaus auch damit begann, sie in seine Arbeit am Computer zu integrieren.133 Wie Palazzi darstellt, baute Csuri in dieser Zeit seine Zusammenarbeit mit Informatikern systematisch aus. Ziel dieser Kollaboration war es, maßgeschneiderte Software für seine künstlerischen Vorstellungen zu entwickeln.134 Zahlreiche für Csuris Arbeiten sehr charakteristische Merkmale seien in dieser Schaffensphase entstanden, darunter solche, die Palazzi
131 Vgl. Csuri; Butche (2003): S. 38, und vgl. Csuri; Freedman (1989): S. 5 und S. 20. In dem vom Charles Babbage Institute durchgeführten Interview liefert Csuri einen detaillierten Einblick in die hinter den Antragsverfahren stehende Politik und seine Rolle darin: »There’s a kind of politics involved, too, in that you really need to get to know who are the top researchers, because you know, only too well, that they’re going to be your reviewers on your next grant, and they know I’m going to be their re viewer, you see? I don’t have any proposal spending, but right now I’m very involved with the 30 most credible people… I’m part of the group. I’m on the advisory board of a prestigious publication, IEEE Computer Graphics and Applications, and I’m on the Board of Directors for the National Computer Graphics Association.« Csuri; Freedman (1989): S. 21. 132 Csuri; Freedman (1989): S. 5. 133 Vgl. Palazzi (2006): S. 93. Die Integration von Csuris malerischer Tätigkeit erfolgte häufig über die Verwendung von zwei miteinander zusammenhängenden Funktionen: Er nutzte zum einen die Möglichkeit, virtuelle Objekte mit einer Textur zu versehen, und zum anderen verwendete er die Funktion des Bump Mappings, um seinen Objekten eine Oberflächenstruktur zu verleihen. Hierfür hat er beispielsweise die Farbwerte der verwendeten Textur in Höhenwerte übersetzt, sodass die gemalte Textur nicht glatt, sondern als Relief erscheint. Vgl. Palazzi (2006): S. 94. 134 Vgl. Palazzi (2006): S. 93.
Der Computer als kreativer Partner
Abb. 36: Charles A. Csuri, Horse Play, 1999, UnixUmgebung, LightJet auf Papier mit Laminat, 76 x 102 cm.
als »fragmentation«, »ribbon« und »colormix«135 bezeichnet. Wie erwähnt, arbeitete Csuri oft mit figurativen Darstellungen und auch in dieser späteren Schaffensphase Ende der 1980er Jahre verfolgte er diesen Ansatz weiterhin. Auch in den 1990er und 2000er Jahren stellte er beispielsweise menschliche Figuren, Objekte oder Tiere häufig in Form einer Art Wolke dar, die sich entweder aus einem Fadenknäuel oder aus Partikeln zusammensetzt (Abb. 36), eine Ausdrucksweise, deren Entstehung im letzten Teil des Kapitels noch eingehender beleuchtet wird: »Works from this and subsequent periods demonstrate increased mastery and subtle use of his core programming scripts, or ›tools‹ as the artist often refers to them. Csuri speaks of a greater sense of freedom as his familiarity with these programs deepened.«136 Csuri erreichte seine künstlerischen Vorstellungen und seine Freiheit im Ausdruck demzufolge dadurch, dass er stets einen kontinuierlichen und vor allem interdisziplinären Dialog mit Kollegen und, wie Palazzi herausstellt, auch mit Masterstudierenden und Promovierenden aus dem Bereich der Informatik pf legte.137 Dieser Arbeitsweise Csuris wird im Ausstellungskatalog schließlich ein eigenes Kapitel gewidmet. Verfasst ist es von Wayne Carlson, einem ehemaligen Kollegen Csuris, selbst Informatiker und ebenfalls ein ehemaliger Direktor des ACCAD. In seinem Beitrag Dialogue and Creativity: The Faces of Collaboration setzt er sich umfassend mit Csuris kollaborativem und interdisziplinärem Arbeitsansatz und mit dem Dialog, den er mit Personen aus anderen Fachbereichen permanent aufrechterhielt, auseinander. Anhand Carlsons Ausführungen wird erneut deutlich, dass Csuris Arbeitsprozesse schon lange vor dieser von Palazzi fokussierten späteren Schaffensphase von einem Austausch mit anderen Disziplinen geprägt waren. Indem Csuri die Arbeit mit dem Computer aufnahm, begann sein Produktionsprozess eine Dynamik zu entwickeln, die Rosen in ihrem Aufsatz unter Bezugnahme auf Bruno Latour als reziprok bezeichnet:
135 Ebd., S. 94. 136 Ebd., S. 93. 137 Vgl. ebd., S. 94–95.
109
110
Scheler: Computergrafik
»The computer was a tool, which he tried to master and enhance. Foremost in his mind was that the relationship between man and machine was always, to a certain degree, reciprocal, and that in the process of taming, so to speak, the one who tames is trans formed as well.« 138 Obwohl es richtig ist, dass Csuris Produktionsprozess sich durch die Maschine veränderte, lässt sich mit Carlson jedoch auch eine Perspektive eröffnen, mit der sich der von Wechselwirkungen geprägte Arbeitsablauf Csuris weniger als eine reziproke Zusammenkunft mit der Maschine als vielmehr eine reziproke Zusammenkunft mit anderen Menschen betrachten lässt. Denn obwohl Csuri sich im Programmieren schulte, um die Maschine mit Rosens Worten zu ›zähmen‹, konnte er seine künstlerischen Visionen erst vollkommen frei und offen entfalten, indem er, wie zuvor erwähnt, den Dialog mit gleichgesinnten Informatikern und Mathematikern suchte. Auch Rosen schließt diese Zusammenarbeit in ihre Ausführungen ein. So berichtet sie beispielsweise von der Kollaboration Csuris mit den Mathematikern Leslie Miller und James Shaffer, die Csuri zwischen 1965 und 1972 bei der Entwicklung eines Codes unterstützten, um seine künstlerischen Ideen umzusetzen. In diesem Zusammenhang hebt Rosen sogar hervor, dass die Kollegen aus der Mathematik Csuri mit ihrer Hilfe auch deshalb sehr entgegenkamen, weil er seine kreative Energie nicht vorrangig dafür auf bringen wollte, selbst zu programmieren, obwohl er sich in diesem Bereich wie beschrieben weiterbildete. Auch Rosen gelangt demnach zu dem Schluss, dass für die Umsetzung von Csuris Vorstellungen nicht nur seine eigene Auseinandersetzung mit der Maschine, sondern vor allem die Zusammenarbeit mit Experten aus dem Bereich der Computertechnologie ausschlaggebend war: »Csuri’s vision was brought ever-closer through the process of interdisciplinary discussion and collaborative realization.«139 Carlson arbeitet Csuris Art und Weise, mit den Programmierern und Mathematikern zu kollaborieren, in seinem Beitrag systematisch heraus. Er eröffnet seinen Bericht ebenfalls mit der Zusammenarbeit zwischen Csuri und Shaffer und legt hierbei Wert darauf, hervorzuheben, dass Csuri ein Künstler mit einem ausgesprochen ausgeprägten Interesse an Computern und Shaffer umgekehrt ein Mathematiker mit einem ausgesprochen ausgeprägten Interesse an der computergestützten Bilderzeugung war: »Together, these two started what would turn out to be a legacy of two divergent backgrounds coming together to press the boundaries of their research areas, and to make art with a computer.«140 Carlson zeichnet hiermit ein Bild, das nicht nur die Zusammenarbeit zwischen Csuri und Shaffer, sondern ganz allgemein die Art der Kollaboration, die Csuri stets in seiner Arbeit mit vielen verschiedenen Menschen aufrechterhielt, veranschaulichen kann. Obwohl er sich selbst technisch schulte, so erläu-
138 Rosen (2006): S. 40. Rosen nimmt hier Bezug auf Bruno Latour: Mixing Humans and Nonhumans Together: The Sociology of a Door-Closer. In: Social Problems 35/3, 1988, S. 298–310. 139 Rosen (2006): S. 35. 140 Wayne E. Carlson: Dialogue and Creativity: The Faces of Collaboration. In: Charles A. Csuri. Beyond Boundaries, 1963 – present. Hrsg. v. Janice M. Glowski und SIGGRAPH. Columbus, OH: The Ohio State University, College of the Arts, Advanced Computing Center for the Arts and Design, 2006, S. 85–90, hier S. 85.
Der Computer als kreativer Partner
tert Carlson, habe Csuri erkannt, dass das größte kreative Potenzial dann entstehen kann, wenn Experten aus unterschiedlichen Fachbereichen zusammenkommen.141 Den Begriff der Reziprozität, den Rosen einführt, verwendet Carlson selbst nicht, doch wird auch bei ihm deutlich, dass Csuris Produktionsprozess von einer Wechselwirkung geprägt war. Carlson eröffnet dabei allerdings eine Perspektive, die besonders sichtbar macht, inwiefern diese Wechselwirkung sich nicht nur in der Arbeit mit dem Computer, sondern vor allem in der Zusammenarbeit mit anderen Menschen zeigte: »Csuri, as an artist, would have an idea about how he wished to represent something. He would approach the scientists and make inquiries. When engaged with requests for computer code that could transform Csuri’s mental images into reality, a dialogue between artist and scientist would ensue. Csuri would press on with questions. The scientist would attempt to envision his words and to explain to him the current state of technological capabilities. After numerous discussions, it was time for the scientists to explore the creative boundaries of technology within the realm of their skills and knowledge base. Through such ongoing dialogue, creativity exploded within the dif ferent disciplinary spheres, eventually coming together in the form of artistic tools that allowed computer art to be made.« 142 Um diese noch abstrakte Darstellung von Csuris Arbeitsweise exemplarisch zu veranschaulichen, hebt Carlson die Entwicklung des ›ribbon‹-Werkzeugs aus Csuris späterer Schaffensphase in den 1990er Jahren besonders hervor, also jenes, das auch von Palazzi in ihrem Beitrag als eines der »signature elements in his artwork«143 aufgeführt wird. Csuri trat mit einer sehr genauen Vorstellung dieses Werkzeugs an Steve May heran, damals Doktorand im Bereich der Informatik an der Ohio State University.144 Er suchte nach einer Möglichkeit, Zeichnungen von der Fläche in den Raum zu bringen. Er wollte nicht mehr nur noch auf einer zweidimensionalen Ebene, sondern stattdessen direkt räumlich zeichnen können: »Where I may have a brush mark going around your face, that blocks part of your face, but I can see the back of the brush mark behind your head.«145 Laut Carlson wurde er durch den japanischen Künstler Kitagawa Utamoro zu diesem Wunsch inspiriert, der im 18. Jahrhundert hauptsächlich mit den Techniken der Kalligrafie sowie dem Holzschnitt arbeitete. Ausschlaggebend für Csuris Ideen war insbesondere die Qualität der Linien in der Kalligrafie Utamoros. Er teilte May seine Vorstellung mit, dass er im Raum mit Linien zeichnen wolle, die denen der Kalligrafie Utamoros entsprechen. Er stellte sich diese Linien als räumliche Gebilde vor, in denen sie selbst eine Tiefe und Breite entwickeln und sich in jede Richtung bewegen können. Er wünschte sich zudem, dass seine räumlichen Linien zu Objekten werden, die anders als ihr zweidimensionales Pendant Licht ref lektieren und Schatten werfen können. Carlsons Darstellung der Zusammenarbeit zwischen Csuri und May 141 Vgl. Carlson (2006): S. 86. 142 Ebd., S. 86. 143 Palazzi (2006): S. 93. 144 Seit über 20 Jahren ist May inzwischen bei dem Animationsstudio Pixar angestellt. Aktuell übernimmt er die Rolle des technischen Vorstands sowie die des Vizepräsidenten. Vgl. Pixar Animation Studios: Leadership. Ohne Datum. URL: https://www.pixar.com/leadership#may. Zugriff am: 12.12.2021. 145 Csuri; Freedman (1989): S. 22.
111
112
Scheler: Computergrafik
kennzeichnet besonders deutlich, mit welchem Nachdruck Csuri seine künstlerischen Vorstellungen am Computer umsetzen wollte. Er beharrte stets darauf, einen Weg zu finden, bei dem nicht er den Ansprüchen des Computers, sondern bei denen umgekehrt der Computer seinen Ansprüchen gerecht wird: »May noted, as any competent computer scientist of the time would, that a line, by definition, is a two-dimensional concept, with no breadth or depth and, therefore, no ability to interact with a light source in three-dimensional space. Csuri pressed on with his inquiries, in his usual fashion, asking ›But what if it could? What if line had depth and could be rendered in three-dimensional space?‹ Then came the familiar request, ›I want to be able to do this. Can you help me?‹« 146 May entwickelte darauf hin mit der Programmiersprache Scheme147 einen Code, den Csuri immer wieder zum Einsatz bringen und dessen Parameter er in jeder neuen Situation anpassen konnte. Sowohl die Breite, die Länge als auch die Bewegung der Linien ließen sich einzeln einstellen. Den Anteil, den diese Personen an seiner künstlerischen Arbeit hatten, erkennt Csuri explizit als Teil des Produktionsprozesses an. Nicht nur Palazzi hebt diesen Aspekt hervor,148 in dem 1989 geführten Interview äußert er sich auch selbst dazu. Darin wird er gefragt, ob der Ausgangspunkt für seine Arbeiten stets eine Zusammenkunft mit einem Mathematiker oder Programmierer sei und ob er seine Arbeiten deshalb als eine Art Gruppenprojekt begreift, ähnlich wie es bei der Filmproduktion der Fall sei. Csuri bestätigt diesen Eindruck, allerdings mit dem Einwand, dass diese Beobachtung eher für die Vergangenheit als für die Zukunft gelte. Mit dem Einzug der kommerziellen Software würde der Fokus wesentlich schneller auf den Künstler gelegt, der mit der Software arbeite, als auf diejenigen, die die Software entwickelt haben. Er überträgt diesen Gedanken auf den Vorgang, einen Roman zu schreiben: »[M]aybe this is an oversimplification, but if I’m typing a novel do I credit everybody who manufactured the typewriter?«149 In Bezug auf seine eigene Arbeit betont er allerdings: »But in my case because I was so involved in basic research, it involved many graduate students and staff, that indeed credit had to be shared.«150 Er stellt zugleich jedoch klar, dass dies vorrangig für die frühe Phase seiner Karriere gelte und für die aktuelle Zeit, also für das Jahr 1989, weniger relevant sei.151 Csuri steht mit diesen Aussagen zur aktuelleren Softwareum146 Carlson (2006): S. 87. 147 Die Programmiersprache Scheme wurde 1975 von Gerald Jay Sussman und Guy Lewis Steele Jr. entwi ckelt. Sie ist ein Dialekt der Sprache Lisp. Beide Sprachen entsprechen nicht prinzipiell dem objekt orientierten Programmierparadigma, sind jedoch dahingehend erweiterbar. Vgl. Ronak K. Dybvig: The Scheme Programming Language. 4. Auflage. Cambridge, MA: MIT Press, 2009, S. ix und S. 381. 148 Vgl. Palazzi (2006): S. 94–95. 149 Csuri; Freedman (1989): S. 15. 150 Ebd., S. 16. 151 Vor dem Hintergrund der Beschreibungen Palazzis erscheint diese Aussage Csuris widersprüchlich. Die 1980er Jahre stellen, wie sie schildert, einen Höhepunkt seiner Zusammenarbeit mit Informati kern dar, mit denen er gemeinsam seine Werkzeuge entwickelte. Worauf er hier vermutlich Bezug nimmt, ist, dass die Entwicklung dieser Werkzeuge sich zu jener Zeit nicht mehr klar auf eine einzel ne, sondern auf ein Konglomerat vieler Personen zurückführen lässt.
Der Computer als kreativer Partner
gebung zwar einerseits mit einem der Hauptanliegen der vorliegenden Studie im Widerspruch, denn sie sucht auch in den aktuellen computergrafischen Erzeugnissen die Handschrift Einzelner herauszuarbeiten, er lässt sich andererseits auch als Legitimation dieses Vorgehens heranziehen, denn gerade ihm ist bewusst, dass die Erzeugung von Computergrafiken ein kollaborativer Prozess ist. Anhand seiner eigenen Arbeit wird besonders deutlich, auf welche Weise ein bestimmter persönlicher Hintergrund die Entwicklung von Software formen kann. Insbesondere bei kommerzieller Software ist es aus praktischer Perspektive deshalb relevant zu fragen, welche Personen an dem eigenen Produktionsprozess beteiligt waren und welche Absichten sie verfolgten. Csuris Handschrift begegnet man heute in der Praxis nicht mehr, oder zumindest dann nicht, wenn kommerzielle Softwarepakete zum Einsatz kommen. Er hat noch lange über die 1990er Jahre hinaus mit den Codes, die er in dieser Zeit in Zusammenarbeit mit May und anderen entwickelte, weitergearbeitet. In dem von der OSU geführten Interview aus dem Jahr 2006 spielt die Art und Weise, wie Csuri auf die weitere Entwicklung der Software blickt, sowie seine Haltung zu diesen Entwicklungen eine zentrale Rolle, denn zu jener Zeit hatte sich ein Industriestandard im Bereich der 3D-Computergrafik bereits etabliert. Vor diesem Hintergrund bringt Csuri sein Bedauern über die Tendenz zum Ausdruck, dass Studierende in dem von ihm entwickelten Studienprogramm mit der Technologie nur noch selten eigenen künstlerischen Ambitionen folgen und dass sie stattdessen versuchen, sich dem Standard anzupassen, um nach dem Studium eine Anstellung zu finden.152 Der Interviewpartner Robert Butche greift kontrastierend Csuris eigene Arbeitsweise auf, in der es stets darum geht, Algorithmen so einzusetzen, dass zuvor entworfene künstlerische Konzepte schließlich vom Computer umgesetzt werden. Die Beschreibung mündet in die Frage, ob Csuri der Ansicht sei, diese Form der algorithmischen Kunst könne aussterben. Csuri lehnt diese Prognose ab, vielmehr glaubt er, es könne noch eine lange Zeit dauern, bis sich wesentlich mehr Menschen dieser Art von Kunst zuwendeten.153 Er betont hier, dass es für den eigenen künstlerischen Ausdruck zentral sei, Kenntnisse im Bereich des Programmierens oder im Bereich der dreidimensionalen Computergrafik zu besitzen, statt lediglich auf vorgegebene Software zurückzugreifen, und fügt unter Bestätigung von Butche ergänzend hinzu: »I might mention one other thing, is that a friend of mine observed that the software that I use is not that sophisticated. […] It’s not the state of the art. But it’s the way that I use it, I think that makes the difference. And there are much more powerful tools out there that one could use.« 154 Auf die Frage, ob er sich damit auseinandergesetzt hätte, was mit seiner Arbeitsweise geschehen könnte, wenn er diese neueren, leistungsstärkeren Werkzeuge in sein Repertoire aufnähme, entgegnet Csuri, dass er in dieser Hinsicht einem inneren Widerstand begegne. Er habe Sorge, sich den zeitgemäßen Entwicklungen zuzuwenden, aus Angst, von der Technologie vereinnahmt zu werden.155 152 Vgl. Csuri; Butche (2003): S. 73. 153 Vgl. ebd., S. 74. 154 Ebd., S. 75. 155 Vgl. ebd., S. 75
113
114
Scheler: Computergrafik
Abb. 37: Charles A. Csuri, Venus in the Garden Frame 73, venus series, 2005, Unix-Umgebung, Farbtinte auf Leinwand, 97 x 132 cm. Matthew Lewis, ebenfalls ein Kollege Csuris, der ihn in den 1990er Jahren bei der Entwicklung von Codes unterstützte, liefert in einem eigenen Beitrag im Ausstellungskatalog einen umfassenden Einblick in Csuris Arbeitsweise bei seinen sogenannten Infinity-Serien aus den 2000er Jahren (Abb. 37). Er verwendete dafür generative Codes, bei denen der Computer eigenständig Bildergebnisse produziert, ausgehend von Parametern, die an einem Startpunkt gesetzt wurden. Lewis gibt Csuris Auffassung wieder, die Serie habe konzeptionell betrachtet schon im Jahr 1966 mit den Arbeiten Feeding Time und Random War begonnen (Abb. 38 & 39). Für beide Arbeiten nutzte Csuri den Computer, um nach einem Zufallsprinzip Bilder automatisiert generieren zu lassen.156 Während Feeding Time die Bewegungsmuster von Hausf liegen simuliert, befasst sich Random War mit der Generierung von unterschiedlichen Kampfsituationen zwischen Soldaten, die alle in derselben unbewegten Pose, jedoch in unterschiedlichen Farben – jeweils in rot oder schwarz – mithilfe eines Plotters auf einem Papierbogen aufgebracht wurden. Die Figuren sind mit einfachen Konturen einer damals in den USA verbreiteten Spielzeugfigur nachempfunden, dem »little green army man«157, der in unterschiedlichen Posen die Soldaten des 156 Vgl. Matthew Lewis: Randomness, Chance, Process: The Infinity Series. In: Charles A. Csuri. Beyond Boundaries, 1963 – present. Hrsg. v. Janice M. Glowski und SIGGRAPH. Columbus, OH: The Ohio State University, College of the Arts, Advanced Computing Center for the Arts and Design, 2006, S. 147–153, hier S. 147. 157 Janice M. Glowski: Random War. In: Charles A. Csuri. Beyond Boundaries, 1963 – present. Hrsg. v. Janice M. Glowski und SIGGRAPH. Columbus, OH: The Ohio State University, College of the Arts, Advanced Computing Center for the Arts and Design, 2006, S. 76–79, hier S. 76.
Der Computer als kreativer Partner
Abb. 38: Charles A. Csuri, Feeding Time, 1966, Tinte auf Papier, IBM 7094 und Trommelplotter, 91,44 x 78,74 cm.
Abb. 39: Charles A. Csuri, Random War, 1967, Tinte auf Papier, IBM 7094 und Trommelplotter, 104 x 229 cm.
115
116
Scheler: Computergrafik
ietnamkriegs darstellt.158 Sowohl auf der inhaltlichen als auch auf der bildästhetiV schen Ebene unterscheidet sich die Infinity-Serie der 2000er Jahre erheblich von den beiden Arbeiten aus den 1960er Jahren. Die Bilder geben nicht mehr lediglich schwarze oder rote Konturen auf einem Papierbogen wieder, sie ähneln stattdessen in ihrem Erscheinungsbild anderen zeitgemäßen Computergrafiken, in denen dreidimensionale geometrische Objekte in einem virtuellen Raum angeordnet werden, die je auf Licht reagieren und Schatten werfen. Lewis bestätigt hier allerdings erneut, dass Csuris Herangehensweise sich seit den 1990er Jahren nicht wesentlich verändert hat: »While most three-dimensional computer graphics images are created by artists using highly interactive commercial computer graphics software packages, Csuri composes his scenes primarily by writing short programs in an environment built upon the old but well-respected computer language Scheme. The code is assembled in an ancient text editor on what was once a very expensive workstation. Csuri rarely sculpts geometry using direct interactive modeling. He creates designs more commonly by intuitive se lection from computer-generated options, exploring the results of numerical parame ter changes and exchanging procedures.« 159 Lewis merkt in seiner Beschreibung von Csuris Vorgehensweise an, dass der konzeptionelle Hintergrund der einzelnen Bilder im fertigen Ergebnis nie zu sehen sei. Vielmehr ließe sich die Art und Weise, wie die abgebildeten Szenerien durch die Veränderung einzelner Parameter ein neues Erscheinungsbild annähmen, ausschließlich durch eigene Experimente mit dem von Csuri verwendeten Code erkunden. In der Regel verbrachte Csuri mehrere Wochen damit, virtuelle Umgebungen zu gestalten, um später durch die teilweise mithilfe der unterschiedlichen Parameter automatisch generierten Landschaften zu ›wandern‹ und einzelne Ausschnitte als Einzelbild vom Computer berechnen zu lassen. Bei jeder dieser Wanderungen werden einzelne ›Aussichtspunkte‹ als Bilder in einer Art Serie abgespeichert, die zugleich Metadaten über den exakten Ort im virtuellen Raum enthalten, um später ermitteln zu können, wo die virtuelle Aufnahme gemacht wurde. Lewis bezeichnet diese zwischengespeicherten Blickpunkte als »metadrawing«160. In dieser Form sind diese Blickpunkte nie zu sehen, sie werden implizit lediglich im Rahmen einer Bildersequenz abgebildet, die Csuri selten jedoch in Gänze ausstellt. In der Regel wählt er einzelne, für ihn besonders 158 Ergänzend zu der Darstellung der Kampfsituationen werden oberhalb des ›Schlachtfelds‹ in Lis tenform eine Reihe von Namen ausgeführt, darunter sowohl Kollegen Csuris als auch sein eigener Name sowie zudem zahlreiche prominente Personen wie beispielsweise Ronald Reagan. Den Na men ist jeweils in randomisierter Weise ein Status zugeordnet, so etwa ›wounded‹, ›missing‹ oder ›surviving‹ – durch die Verwendung realer Personen unterstreiche Csuri laut Glowski die willkür liche Natur von Kriegssituationen. Glowski geht vor dem Hintergrund des Vietnamkriegs in ihrer Auseinandersetzung mit Random War vertiefend auf die Bedeutungsebene des von Csuri verwen deten Computers für diese Arbeit ein: »Technology was enthusiastically embraced in suburban households and touted by many as the savior of countless social and medical ills. Simultaneously, many perceived it as a demonic force that introduced chaos, depersonalizing and degrading hu man beings. To many in the art community, creating art with a computer was an act of evil in itself.« Glowski (2006b): S. 76. 159 Lewis (2006): S. 148. 160 Ebd., S. 149.
Der Computer als kreativer Partner
Abb. 40: Charles A. Csuri, Complexity (auch: Festive Frame 47, leo series), 2006, Unix-Umgebung, LightJet auf Papier mit Laminat, 183 x 244 cm. interessante Standbilder einer Sequenz aus, dabei »sometimes the final destination, but more often an image discovered along the way.«161 Gelegentlich, so berichtet Lewis, lasse Csuri den Computer die Spaziergänge machen und Bilder aussuchen, während er selbst schläft.162 Das Bild Complexity sei – so formuliert es Csuri selbst auf seiner Webseite – beispielsweise von seinem »virtual me«163 gefunden worden (Abb. 40). In kritischer Selbstref lexion setzt er sich mit diesem Fund auseinander: »I’m told there may be a way to give the image an aura of complexity. Maybe even a niche for my work. I need to bring attention to the algorithms I use. Make the code part of the aesthetic. I might find a home with generative art, artificial life, or even multiagent systems. But these are procedures and processes or recipes which have little to do with art. So how do we tell if its [!] art?« 164 In Ergänzung zu dieser Herangehensweise habe Csuri in manchen Fällen nicht nur Bilder ausgesucht oder aussuchen lassen, sondern die virtuelle Umgebung nach einem Fund noch weiter verändert. Lewis stellt dar, dass Csuri diese Option insbesondere dann genutzt hat, wenn der Computer andere Wege beschritten hat, als Csuri es ursprünglich vorhergesehen hatte. 161 Ebd., S. 149. 162 Vgl. ebd., S. 149. 163 Charles A. Csuri: Complexity. Oktober 2008. URL: http://www.csurivision.com/index.php/2008/10/ complexity/. Zugriff am: 12.12.2021. 164 Ebd.
117
118
Scheler: Computergrafik
Mehrere Erkenntnisse lassen sich aus diesen Beschreibungen von Lewis ableiten. Zum einen wird deutlich, dass sich Csuris Bilder aus verschiedenen Schaffensphasen zwar nicht auf einer bildästhetischen Ebene, aber dafür auf einer produktionsästhetischen Ebene miteinander in Verbindung bringen lassen. Lewis lässt sich zum anderen so deuten, dass diese produktionsästhetische Ebene zudem maßgeblich zum ästhetischen Wert von Csuris Arbeiten beiträgt. Immerhin wird insbesondere bei den späteren Arbeiten ab den 1990er Jahren erst durch die Auseinandersetzung mit der Produktion der Bilder deutlich, dass Csuri sich nicht die kommerziell verfügbare Software zu Nutze machte, die sich zu jener Zeit begann zu etablieren. Als wichtiges Zwischenergebnis lässt sich deshalb festhalten, dass Csuri die Offenheit in seinem künstlerischen Prozess am Computer auch deshalb bewahren konnte, weil er den Codes, die er mit seinen eigenen künstlerischen Vorstellungen entwickelt hat oder hat entwickeln lassen, bis zuletzt treu geblieben ist. Zudem hat er Codes verwendet, die ihn selbst überraschen, bei denen er stets etwas Neues finden würde. Die Offenheit war also auch in der Herangehensweise bei der Entwicklung der Codes von vornherein beabsichtigt. Im 1989 geführten Interview bestätigt er diesen Eindruck: »I mean with computer graphics you can end up doing what every traditional painter has ever done, or what photographers do. But I think the more interesting challenge is really to do things that one would not ordinarily think of. I think from my point of view, I sort of have a rule. I ask myself a question: ›Can I do this by conventional means?‹, then I’m on the wrong track.« 165 Was an seiner hier zum Ausdruck gebrachten Selbsteinschätzung erneut deutlich wird, ist, dass für ihn die künstlerische Absicht stets Vorrang vor dem technologischen Anteil an seiner Kunst hatte. Häufig werden Csuris Arbeiten sogar als organisch bezeichnet. Wie Palazzi darlegt, verwendet er auch selbst diesen Begriff, um jene Bilder, die er in den späten 1980ern und frühen 1990ern fertigte, zu charakterisieren.166 Bonnie Mitchell, die Kuratorin der 2006 veranstalteten Ausstellung, stellt die organische Erscheinung der Arbeiten sogar als einen Widerspruch zu dem von Csuri verwendeten Ausdrucksmittel dar. Sie nimmt dabei Bezug auf eine Paneldiskussion mit dem Namen New Methods, New Artforms, die 1990 im Rahmen einer SIGGRAPH-Veranstaltung durchgeführt wurde. Csuri war einer der Podiumsgäste und brachte in dem Gespräch seine in diesem Kapitel herausgearbeitete Vorstellung zum Ausdruck, dass er den Computer nicht als Kontrollinstanz verstehe, mit dem er den gesamten Prozess vorab planen wolle, sondern dass er ihn vielmehr dazu nutze, um sich von zufälligen Ergebnissen überraschen zu lassen.167 Mitchell formuliert zurückblickend: »I was inspired by Csuri’s ability to communicate human spirituality using tools that were so inorganic in nature.«168 Der
165 Csuri; Freedman (1989): S. 8. 166 Vgl. Palazzi (2006): S. 94. 167 Vgl. Barbara Mones-Hattal; Ken Snelson; Sally Weber; Charles Csuri; Tony Longson: New Methods, New Artforms (Panel Session). In: ACM SIGGRAPH Panel Proceedings, 1990, S. 901–925, hier S. 904. 168 Bonnie Mitchell: Introduction to the Exhibition. In: Charles A. Csuri. Beyond Boundaries, 1963 – pres ent. Hrsg. v. Janice M. Glowski und SIGGRAPH. Columbus, OH: The Ohio State University, College of the Arts, Advanced Computing Center for the Arts and Design, 2006, S. 13–15, hier S. 13.
Der Computer als kreativer Partner
Computer bleibt demzufolge Csuris Arbeiten im Sinne John Deweys169 äußerlich oder wie er selbst 1989 formuliert: »It doesn’t matter whether it’s a keyboard or a brush, it’s all the same.«170 Noch ungeklärt ist nun die Frage, aus welchem Grund Csuris Konzepte nicht oder kaum dazu beigetragen haben, die heute verfügbare 3D-Software und damit die Praxis der synthetischen Bilderzeugung zu formen. Woran kann es liegen, dass die von ihm mitentwickelte Software in den heute verfügbaren Anwendungen nicht überliefert worden ist, obwohl er an der Entwicklung von 3D-Grafiksoftware nicht nur als Künstler, sondern auch im Rahmen seiner finanziell geförderten Forschung über 20 Jahre lang beteiligt war und stets darum bemüht war, die Ausdrucksmöglichkeiten am Computer durch neue Codes zu erweitern? Aufschluss liefert in diesem Zusammenhang erneut Wayne Carlsons Auseinandersetzung mit Csuris interdisziplinärer Arbeitsweise. In seinem Beitrag lenkt er den Fokus auf die Vision Csuris, einerseits ein akademisches Programm zu entwickeln, bei dem Kunst und Technologie in interdisziplinärer Weise zentraler Bestandteil der Lehre sein sollten, und andererseits das Potenzial der computergrafischen Ausdrucksmöglichkeiten auch wirtschaftlich auszuloten. Im Jahr 1971 gründete Csuri die Computer Graphics Research Group (CGRG) an der Ohio State University. Aus dieser Forschungseinheit formte sich im Jahr 1986171 das Advanced Computing Center for the Arts and Design (ACCAD), das fortan als eigenständige Abteilung in das College of Arts and Sciences eingegliedert wurde. Nachdem die CGRG einige Jahre die Forschung im Bereich der Computergrafik vorangebracht hatte, gründete Csuri mit der Unterstützung des Investors Robert Kanuth von The Cranston Companies im Jahr 1981 die Produktionsfirma Cranston/Csuri Productions, Inc. (CCP), um die neuen technischen Möglichkeiten im Bereich der Computergrafik sowohl für die 169 In seiner Monografie Kunst als Erfahrung entwickelt Dewey die Definition eines künstlerischen Me diums. Er unterscheidet dafür zwischen Mittel und Medium und dem ersten Anschein nach stellt für Csuri der Computer lediglich ein Mittel dar: »Es gibt zwei Arten von Mitteln. Die eine ist dem, was ausgeführt wird, äußerlich; die andere wird in die erzeugten Ergebnisse aufgenommen und bleibt ihnen immanent. Es gibt Ziele, die bloß ein erwünschtes Ende sind, und andere, die einen vorausge henden Prozeß vollenden. […] Solche äußerlichen oder bloßen Mittel (wie wir sie ganz richtig nennen) sind gewöhnlich von der Art, daß andere als Ersatz dafür eintreten können; die jeweils aufgewende ten Mittel sind durch einen äußeren Grund wie den billigen Preis bestimmt. Doch mit dem Moment, das wir Medien nennen, beziehen wir uns auf Mittel, die mit dem Ziel verbunden sind.« John Dewey: Kunst als Erfahrung. Frankfurt am Main: Suhrkamp, 1980, S. 229. Herv. i. O. Zugleich wird ebenfalls anhand von Deweys Definition deutlich, dass der Computer Csuris künstlerische Arbeiten dennoch prägt und er damit, anders als er selbst annimmt, mehr ist als lediglich ein Mittel zum Zweck. Dewey hätte Csuri gegenüber deshalb vermutlich widersprochen und ihn vielleicht sogar kritisiert: »Selbst Ziegelsteine und Mörtel werden ein Bestandteil des Hauses, zu dessen Bau sie verwendet werden; sie sind nicht bloße Mittel zu dessen Errichtung. Farben sind das Gemälde; Töne sind die Musik. Ein mit Wasserfarben gemaltes Bild besitzt eine andere Qualität als ein mit Ölfarben gemaltes. Ästheti sche Wirkungen gehören wesentlich zu ihrem Medium; sobald ein anderes Medium verwendet wird, haben wir eher ein ›Kunststückchen‹ als ein Kunstobjekt vor uns.« Dewey (1980): S. 229. 170 Csuri; Freedman (1989): S. 10. 171 In der institutseigenen Übersicht zu Geschichte des ACCAD ist als Zeitpunkt der Gründung das Jahr 1987 angegeben, während in der Zeitleiste wesentlicher Ereignisse in Csuris Biografie des Ausstel lungskatalogs das Jahr 1986 genannt wird. Vgl. ACCAD: ACCAD History. Ohne Datum. URL: https:// accad.osu.edu/about/accad-history. Zugriff am: 18.02.2021, sowie vgl. Glowski, SIGGRAPH (Hgg.) (2006): S. 174.
119
120
Scheler: Computergrafik
Filmindustrie als auch für das Fernsehen kommerziell zu vermarkten. Im Zuge dieser Entwicklung modifizierten die Mitarbeiter der neu gegründeten Produktionsfirma die von der Forschungsgruppe entworfene Software, um sie benutzerfreundlicher zu gestalten. Die Software wurde in dieser Zeit um Bausteine erweitert, mit denen Charaktere leichter zu animieren waren oder sich virtuelle Objekte interaktiv modellieren ließen. Auch eine Funktion für prozedurale Effekte sowie eine Render Engine wurden hinzugefügt. Die Software kam bis zur Auf lösung des Unternehmens im Jahr 1987 zum Einsatz und wurde anschließend von der in Minneapolis ansässigen Produktionsfirma Lamb and Company erworben.172 Über einen Zeitraum einiger Jahre erzielte Csuris Unternehmen sichere Erfolge am Markt, weshalb er den Wunsch entwickelte, einen Teil der Einnahmen in die experimentelle Erkundung des Feldes zu investieren. Langfristig ließ sich diese Vorstellung nicht mit den Ansichten des Unternehmensvorstands sowie denen der Investoren vereinbaren, weshalb Csuri die Produktionsfirma 1985 verließ und vollständig an die Ohio State University zurückkehrte. Parallel zu seiner Tätigkeit im Unternehmen hatte er dort seine künstlerische Forschung weiterhin vorangetrieben.173 Das Unternehmen scheiterte letztlich an massiven Veränderungen im Bereich der Computer-Hard- und Software. Carlson erläutert: »While CCP was directing much of its investment capital to the mainframe technology that was available at the time, the computer hardware industry was introducing the workstation, and the per-cycle cost was dropping dramatically. In addition, while the conversion from the lab-oriented software base to dependable commercial software was eating its share of the company assets, the computer software industry was intro ducing licenses for integrated CG software that was designed from the contributions we and other pioneers made, but it was also built on very significant and ongoing research efforts of others.« 174 Anhand dieser Zusammenfassung Carlsons lässt sich nun erschließen, weshalb Csuris Handschrift die heute verfügbare Software kaum prägt. Obwohl also in dem Umfeld, das Csuri in Ohio erschaffen hat, eigenständig Software zur Erzeugung von 3D-Computergrafiken entwickelt wurde, setzten sich, wie Carlson verdeutlicht, längerfristig betrachtet für den kommerziellen Vertrieb von 3D-Grafiksoftware vorwiegend die Errungenschaften anderer Forschungsstätten durch. Noch in dem Interview von 1989 bekundet Csuri, dass er von der Überlegenheit der in Ohio entwickelten Software gegenüber den von anderen entwickelten Anwendungen überzeugt ist. Auf die Frage beispielsweise, welche Software Csuri und seine Kollegen entwickelt hätten, die er selbst als besonders einf lussreich einschätzt, entgegnet er lediglich, dass 172 Vgl. ACCAD (Ohne Datum). Lamb and Company produzierten ähnlich wie das Filmstudio Pixar in den 1990er Jahren computeranimierte Kurzfilme. Zu nennen ist hier insbesondere The Incredible Crash Dummies (USA 1993, R: Mark Mariutto), die erste für Kinder konzipierte computeranimierte Fernseh produktion mit einer damals beachtlichen Dauer von 22 Minuten. Vgl. Wayne E. Carlson: Computer Graphics and Computer Animation. A Retrospective Overview. Columbus, OH: The Ohio State Uni versity, 2017, S. 367. 173 Vgl. ACCAD (Ohne Datum) und vgl. Carlson (2006): S. 88–89. 174 Carlson (2006): S. 89.
Der Computer als kreativer Partner
sie von Beginn an für die Erzeugung von 3D-Computergrafiken alle Komponenten der Software selbst entwickelt hätten und selten auf kommerzielle Produkte zurückgreifen würden.175 Er beschreibt zudem ein damals aktuelles Projekt, das sich mit der nachträglichen Bildbearbeitung digitaler Fotografien befasst. Als Besonderheit hebt er hier hervor, dass er an der Entwicklung eines Programms beteiligt gewesen sei, bei dem man, statt Code schreiben zu müssen, Icons zur Bedienung des Computers nutzen kann, hinter denen sich eine Funktion verbirgt – etwa ein Werkzeug, mit dem sich der Kontrast eines Bildes ändern lasse, oder eines, das digitalen Fotografien ein malerisches Erscheinungsbild verleihen könne: »[T]he code will make it work and then it’s almost like pushing buttons.«176 Csuri führt hier Funktionen an, die heute für Bildbearbeitungsprogramme wie beispielsweise Photoshop oder für Apps wie Instagram völlig selbstverständlich sind. Obwohl er selbst herausstellt, dass die Anwendung des von ihm beschriebenen Programms kaum Kenntnisse über die dahinterstehende Computertechnologie voraussetzt, unterstreicht er, es sei stets vorteilhaft, ein grundsätzliches Verständnis für die Computertechnologie und die hintergründigen Abläufe zu besitzen. Warum er diese Ansicht teilt, führt er an dieser Stelle nicht aus. Er beendet seinen Redebeitrag zu der Frage, in welcher Hinsicht seine Arbeit einf lussreich sei, mit einem Verweis auf das interdisziplinäre Arbeitsumfeld, in dem er und seine Kollegen die Software wie beispielsweise das Bildbearbeitungsprogramm erarbeiten. Er erkennt darin eine Besonderheit, die sich von den anderen Umfeldern, an denen Grafiksoftware entwickelt wird, sowie von der Entstehungsgeschichte der meisten zu jener Zeit verfügbaren kommerziellen Programme unterscheidet: »In this environment, you would have a very good relationship between the technical and the art people. So there’s a great deal of interaction and an influence on the way that software is often put together, and some of the features in software that will need some fine arts requirements that you’re not going to find in commercial software.« 177 Der Versuch Kerry Freedmans, der Interviewpartnerin Csuris, das Gespräch auf die Entwicklungen anderer Personen zu lenken, gelingt nur, indem sie mehrmals und sehr gezielt danach fragt. Eine dieser sehr beharrlichen Fragen bezieht sich beispielsweise auf die Technologien des Texture- und Bump-Mappings, die für Csuris Arbeitsweise zu jener Zeit besonders zentral waren. Beide Technologien gehen im Ursprung auf Entwicklungen am Computer Science Department der University of Utah zurück, doch erst auf Freedmans Nachfrage nennt Csuri den Namen Jim Blinn. Auf die Annahme Freedmans, Blinn habe Csuris eigene Forschung beeinf lusst, entgegnet dieser: »Yes. But we did it as early as anybody else. In fact, we’re probably doing it better.«178 Er nimmt in diesem Zusammenhang zudem Bezug auf den damals sehr weit fortgeschrittenen Renderalgorithmus von Pixar mit dem Namen RenderMan, mitentwickelt 175 Er räumt zugleich jedoch ein, dass diese Entwicklung sich zum Zeitpunkt des Interviews, also 1989, beginnt zu verändern. Vgl. Csuri; Freedman (1989): S. 24. Auch im aktuellen Kapitel wurde seine Hal tung zu kommerziellen Softwareprodukten bereits thematisiert, vgl. S. 112–113. 176 Csuri; Freedman (1989): S. 25. 177 Ebd., S. 25. 178 Ebd., S. 27.
121
122
Scheler: Computergrafik
von Edwin Catmull. Csuri stellt heraus, er und sein Team arbeiteten parallel ebenfalls an einem Renderalgorithmus, der wesentlich effizienter gestaltet sein soll. Seine beinahe ablehnende Reaktion auf die Fragen nach den Errungenschaften anderer kann darin begründet sein, dass er seine Leistung den parallelen Entwicklungen gegenüber in der Tat als überlegen einstuft. Seine Haltung kann jedoch wohlwollend auch in einer Weise verstanden werden, dass er seinen Ansatz tatsächlich als einzigartig unter all den anderen empfindet. So räumt Csuri beispielsweise ein, dass die Entwicklung des Algorithmus an der OSU von künstlerischen Interessen angetrieben sei – anders als es in seinen Augen beispielsweise bei der Entwicklung von RenderMan der Fall war: »The scientists are perfectly happy with what they have now, but we want to do something that’s better for the artist.«179 Die Trennung, die Csuri hier zwischen Künstlern und Wissenschaftlern vor dem Hintergrund der Softwareentwicklung vornimmt, ist für diese Studie von besonderem Interesse, denn für die heutige Praxis der synthetischen Bilderzeugung ist – sofern man nicht selbst ein Bild von Grund auf programmiert – der Weg, den die ›Wissenschaftler‹ gewählt haben, wesentlich prägender. Folgt man Csuris Trennung in der Begriff lichkeit, so hat sich aus heutiger Sicht in der kommerziell verfügbaren Software der von ihm so bezeichnete ›wissenschaftliche‹ Zugriff auf die synthetische Bilderzeugung durchgesetzt. So wird etwa RenderMan von Pixar weltweit im Bereich der Filmproduktion eingesetzt, und zwar sowohl für die Erzeugung computeranimierter Filme als auch für Effektsequenzen in Realfilmen.180 Und da der Renderprozess die letzte Stufe in der synthetischen Bilderzeugung darstellt, also für die finale Bildästhetik verantwortlich ist, lässt sich rückblickend feststellen, dass – überspitzt formuliert – die Bilder, die heute zu einem großen Teil die Populärkultur prägen, aus produktionsästhetischer Perspektive die Handschrift Pixars und nicht etwa die Handschrift Csuris tragen. In Bezug auf die gesamte 3D-Grafiksoftware, also den Teil der Anwendung, der vor dem Renderprozess benötigt wird, spielten neben Ed Catmull und Pixar auch andere Personen eine Rolle, doch auch hier gilt, dass Csuris Handschrift nicht oder kaum darin erkennbar wird. Die Trennung, die er selbst zwischen sich und den anderen Akteuren eröffnet, erklärt diese Beobachtung. Einen der größten Unterschiede zwischen seiner eigenen Herangehensweise und derjenigen der ›Wissenschaftler‹ formuliert Csuri in Bezug auf die Vorstellung, was die synthetische Bilderzeugung auf der bildästhetischen Ebene leisten können muss. Wie er selbst herausstellt, unterscheidet sich die Motivation, aus der heraus er selbst derartige Bilder überhaupt erzeugt, stark von den Interessen der ›Wissenschaftler‹. Diese seien hauptsächlich daran interessiert, fotorealistische Bilder zu erzeugen, eine Möglichkeit, die Csuri zwar selbst als besonders revolutionär einstuft,181 die ihn von seinem künstlerischen Blickwinkel aus betrachtet jedoch nicht inspiriert:
179 Ebd., S. 28. 180 Vgl. hierzu auch Kapitel 1.2.1 Starting from Scratch – Die Praxis der synthetischen Bilderzeugung, S. 58. 181 Er beschreibt in detaillierter Weise, welche Aspekte dieses Verfahrens in seinen Augen revolutionär erscheinen: »[T]he algorithms where you can create objects, that’s one aspect. But then where peo ple have come up with solutions that deal with perspective, with lighting models, with color, with transparency, material types, things of that nature, where we have the ability to literally represent a physical universe very realistically. I think that has to be a very significant development in computer graphics.« Csuri; Freedman (1989): S. 23.
Der Computer als kreativer Partner
»The kind of issues that researchers deal with are so basic, like how do I develop a technique to make something look like this table or this woodgrain? There’s a preoc cupation with realism, photo-realism. Or in the case of animation they’re trying to […] come up with algorithms to determine how the body should move. […] Well, I’m inter ested in that, but I’m much more interested in the algorithms and the techniques, and I don’t want to do realistic people moving. I want to do some abstract shapes that are in motion. I want to think of it in a more expressive way. But in order to do that I need to understand the technology. So I suppose in that regard it stimulates my thinking. I mean it’s important that I understand the graphics algorithms and how they work, and as I understand them, then I can think of ways of using them artistically that the researcher would never think of.« 182 Obwohl diese Studie nicht bewertet, ob die Ambitionen der Wissenschaftler als künstlerisch gelten können, folgt sie Csuris Beobachtung über die stilistischen Entscheidungen dieser Gruppe von Entwicklern, von denen er sich so entschieden abgrenzt. Die Studie betrachtet die Bestrebungen nach einem computergrafisch erzeugten Fotorealismus als ein ästhetisches Phänomen, das wie Csuris bildsprachliche Ansätze ebenso einen kulturellen Ursprung hat und aus einer spezifischen Motivation heraus entstanden ist. Csuris Differenzierung konnte nun die entscheidende Begründung dafür liefern, weshalb er aus dem Blickwinkel der hier verfolgten Geschichtsschreibung als Parallelerscheinung aufgefasst wird, denn die Geschichte, die mit dieser Untersuchung nachvollzogen werden soll, bezieht sich auf ebendiese fotorealistischen Bemühungen sowie auf ihren Ursprung. Csuri selbst zählt sich nicht dazu. Wie lässt sich nun anhand dieser Erkenntnisse auf den Weg der hier verfolgten Geschichtsschreibung zurückkehren und Sutherland zu Csuri in Bezug setzen? Suth erland lässt sich, wie angedeutet, zu derjenigen Gruppe von Wissenschaftlern zählen, von denen sich Csuri abgrenzte. Im Smithsonian Magazine, das dem Künstler 1995 seine Titelstory widmete, wird sogar über eine Begegnung der beiden Pioniere berichtet. Die Darstellung dieses Zusammentreffens verdeutlicht besonders anschaulich, wie unterschiedlich Sutherland und Csuri an ihre jeweilige Aufgabe, Computergrafiken zu erzeugen, herangingen. Auch der anderen – ›wissenschaftlichen‹ – Seite schien der Unterschied zu Csuri, hier genannt Chuck, aufzufallen: »Lee [Csuris Ehefrau] recalls a conference where Csuri met Ivan Sutherland, an engineer who pioneered in developing the graphics for pilot-training simulators. ›He was dispar aging toward Chuck, yet he seemed selfconscious about doing art with an engineering background. And Chuck was feeling that engineers were so much smarter than he was. So one night after the meeting, as we were all sitting around drinking and feeling no pain, I told Ivan, when you go home tonight you should stand in front of the mirror and say, ›I am an artist! I am an artist!‹ And I’m going to stand Chuck in front of the mirror and he’s going to say, ›I am a scientist! I am a scientist!‹ They started laughing, and got along fine after that.‹« 183
182 Csuri; Freedman (1989): S. 22–23. 183 Paul Trachtman: Charles Csuri is an ›Old Master‹ in a New Medium. (Cover Story). In: Smithsonian 25/11, 1995, S. 56–65, hier S. 62/64.
123
124
Scheler: Computergrafik
Diese hier dargebotene Anekdote von Csuris Ehefrau Lee Csuri bestätigt die Vermutung, dass Sutherland sich für seine Entwicklungen nicht in der Art und Weise um einen Dialog mit Künstlern bemüht hat, wie Csuri ihn umgekehrt mit Wissenschaftlern pf legte. In jedem Fall vertritt er offenkundig eine andere Auffassung davon, was Kunst oder auch was ein Bild leisten sollte, als Csuri. Sehr treffend kommt hier demzufolge zum Ausdruck, inwiefern sich die beiden in ihren Haltungen gegenüberstanden. Die eingangs formulierte Grundlage für die Gegenüberstellung Sutherlands mit Csuri setzte bei der prinzipiell vergleichbaren Haltung beider an, künstlerische Prozesse sollten offen verlaufen können, ohne dass ein Ziel vorab formuliert werden muss. Beiden ist bewusst gewesen, dass die Unberechenbarkeit im Arbeitsprozess nicht der damaligen Arbeitsweise am Computer entsprach, weshalb beide es als erstrebenswert erachteten, wenn der Computer, sofern er für künstlerische Zwecke zum Einsatz kommt, dennoch einen offenen Arbeitsprozess ermöglichen kann. Am Ende dieses Kapitels angelangt, wird nun deutlich, dass sich über diesen Ausgangspunkt hinaus nur wenige weitere Anknüpfungspunkte zwischen Csuri und Sutherland finden lassen. Der wesentliche Unterschied zwischen beiden Pionieren bleibt nach wie vor, dass Sutherland im Ursprung ein anderes Ziel mit seinen Untersuchungen verfolgte als Csuri. Obwohl beide je für sich einen plausiblen Weg fanden, den Computer auf eine Weise zu konfigurieren, dass sich damit frei arbeiten ließ, muss hier klar herausgestellt werden, dass beide dieser Aufgabe aus einer völlig unterschiedlichen Motivation heraus nachgingen und unter dem Konzept der Freiheit jeweils etwas anderes verstanden. Während Sutherland ganz allgemein die Interaktionsmöglichkeiten mit dem Computer erleichtern wollte und dabei seiner Vorstellung nach ein Werkzeug entwickelte, mit dem sich auch künstlerisch arbeiten ließe, war für Csuri sein künstlerischer Hintergrund stets der Ausgangspunkt und Motor für seine computertechnologischen Entwicklungen. Margit Rosen bestätigt diese Beobachtung, obwohl sie sich nicht explizit auf Sutherland bezieht. Auch sie trennt ähnlich wie Csuri zwischen den Künstlern und den Wissenschaftlern, wenngleich sie die Begriff lichkeiten von ihm nicht übernimmt: »It should be remembered that it was primarily the military, automotive, and the avia tion industries that had been defining the goals for interactive graphical systems and computer simulation. Now, an artist appeared on the scene, defining different goals. He wanted to develop tools for artists – software and hardware – that would enable them to subject drawings to mathematical transformations, to construct multidimensional pictorial spaces, to virtually render sculptures that then could be milled automatically, and to draw objects that could move in these spaces and be manipulated in real time.«184 Deutlich wird hier erneut, dass die Freiheit, die Sutherland im Arbeitsprozess am Computer entdeckte, vor dem Hintergrund bestimmter Anforderungen sowie lediglich im Rahmen der von ihm entwickelten Bedienfunktionen gegeben war. Deshalb lässt sich nun auch vor der Folie von Rosens Beschreibung die Annahme formulieren, dass Sutherlands Programm Sketchpad womöglich trotz der offenen Arbeitsstruktur mit großer Wahrscheinlichkeit für Csuri nicht frei genug gewesen wäre. Womöglich hätte ihn das Programm, umgekehrt formuliert, sogar eingeschränkt. Zudem konnte 184 Rosen (2006): S. 27.
Der Computer als kreativer Partner
herausgearbeitet werden, dass es Csuri bereits vor dem durch Sutherland herbeigeführten Paradigmenwechsel im Programmierprozess gelungen war, den Computer als ein künstlerisches Werkzeug zu nutzen, mit dem sich sein künstlerischer Prozess in eine offene, unberechenbarere Richtung wenden würde. Völlig unabhängig von Sutherland und zu einer Zeit, als das zielgerichtete prozedurale Programmieren noch Standard war, löste die Computertechnologie bei Csuri ein Umdenken aus, sodass er seinen künstlerischen Prozess nicht mehr wie noch in der Malerei als etwas verstand, was ein Ende hat, sondern als etwas grundlegend Offenes. Die von Sutherland damals selbst als sehr weitreichend eingestufte Erkenntnis, dass seine mit Sketchpad hervorgebrachte Veränderung des Programmierprozesses Arbeitsabläufe vollkommen erneuern würde, insbesondere in Bezug auf die nachträgliche Veränderbarkeit eines Arbeitsergebnisses, war demnach für Csuri zunächst unerheblich. Letztendlich hat es ohnehin – wie im Rahmen der Studie mehrfach dargestellt – noch einige Jahre in Anspruch genommen, bis das objektorientierte Programmierparadigma etabliert war, beziehungsweise bis es überhaupt von Alan Kay als solches bezeichnet wurde. Auch Csuri arbeitete schließlich mit Programmiersprachen, die den objektorientierten Ansatz unterstützten, und er äußert sich in dem 2006 an der OSU geführten Interview sogar explizit zu den Vorzügen objektorientierter Sprachen wie C++.185 Doch auch hier ist anzumerken, dass er sich bei der Verwendung des objektorientierten Paradigmas nie vollkommen auf vorprogrammierte Bausteine verließ, es sei denn, er hätte sie selbst mitentwickelt oder in einer Weise genutzt, wie sie nicht konzipiert waren.186 In Bezug auf Csuri ist deshalb die produktionsästhetische Unterscheidung zwischen den beiden Paradigmen wenig ausschlaggebend. Für ihn gilt das eingangs formulierte Paradox nicht, dass das objektorientierte Programmierparadigma zwar einerseits dazu imstande ist, Prozesse zu öffnen, es andererseits jedoch einschränkend wirken kann, wenn Bedienschritte vorgegeben werden. Aufgrund seiner Kenntnisse der technischen Implikationen war es für ihn zwar nicht unerheblich, aber wesentlich weniger entscheidend, ob er ein Ergebnis nachträglich verändern kann oder nicht. Wenn es also nach Csuris eigener Überzeugung notwendig war, für die freie Arbeit am Computer direkt mit dem Gerät zu interagieren, dann kann im Ergebnis festgehalten werden, dass auch rein hypothetisch betrachtet ein Computerprogramm, welches Csuris künstlerische Vorstellungen als vorgefertigte Bedienelemente enthält, vollkommen widersprüchlich erscheinen würde. Obwohl Rosen herausstellt, dass Csuri Werkzeuge für Künstler am Computer erzeugen wollte, muss gleichzeitig festgestellt werden, dass es seiner Haltung entgegenstehen würde, hätte er dieses Ziel in großem Stil verfolgt und kommerzielle Grafiksoftware mit seinen ›Tools‹ wirtschaftlich vermarktet. Wie dargestellt wurde, betont er immerhin selbst in Bezug auf das Bildbearbeitungsprogramm, auf das er im Interview eingeht, es sei stets vorteilhaft, nicht nur Knöpfe bedienen zu können. In diesem zentralen Punkt liegt einer der größten 185 Csuri formuliert hier eine ähnliche Vision wie Alan Kay ursprünglich für seine Sprache Smalltalk. Beide teilen die Vorstellung, mithilfe objektorientierter Ansätze in modularer Weise eigene Werkzeuge und Programme am Computer entwickeln zu können. Vgl. Csuri; Butche (2003): S. 70; vgl. Alt (2011): S. 299. 186 Csuri verwendete häufig Digitalisate seiner Ölgemälde als Texturen für virtuelle Objekte, jedoch in einer Weise, dass Textur und Objekt nicht zusammengehören. Seine Arbeit A Child’s Face aus dem Jahr 1989 ist hierfür ein Beispiel. Vgl. Palazzi (2006): S. 94.
125
126
Scheler: Computergrafik
Unterschiede zu Sutherland, war es doch für ihn bei der Entwicklung von Sketchpad ein hauptsächliches Anliegen, auch Laien die Bedienung des Computers zu ermöglichen. Vor diesem Hintergrund verwundert es nicht, dass sich langfristig der Ansatz der Wissenschaftler, also auch der Sutherlands, in den kommerziell verfügbaren Softwarepaketen durchgesetzt hat. Hier galt das Interesse nicht vorrangig der Kunst, sondern dem wirtschaftlichen Erfolg und dieser lässt sich wiederum nur erzielen, wenn die Einstiegshürden für die Bedienung möglichst niedrig sind. Eine Frage, die in diesem Zusammenhang bislang jedoch noch nicht geklärt werden konnte, ist der Ursprung des Fotorealismus in den Bildern der ›Wissenschaftler‹. Obwohl Rosen daran erinnert, dass die heute verfügbaren interaktiven Grafikprogramme aus den Bereichen des Militärs sowie der Flug- und Automobilindustrie hervorgingen, und sie damit eine Linie angibt, die einen Sinnzusammenhang zumindest andeutet, reicht dies noch nicht dafür aus, die realistisch-figurative Ausdrucksweise der aus diesen Bereichen entspringenden Bilder zu erklären. Csuri selbst liefert mit seiner Begriffswahl des ›Fotorealismus‹ explizit bildästhetische Hinweise, die in späteren Kapiteln dieser Studie in den Fokus gerückt werden sollen. Im Gegensatz zu der Darstellung von Csuri soll das Interesse für fotorealistische Computergrafiken im Rahmen dieser Studie nicht bloß als eine Notwendigkeit wissenschaftlicher Genauigkeit verstanden werden, sondern vielmehr als ein kulturelles Phänomen, das es gilt, tiefgreifender zu verstehen. Die Frage lautet noch immer, warum sich dieses Interesse herausgebildet hat. Diese Studie fußt auf der Grundannahme, dass die wissenschaftliche Genauigkeit nicht von einer tadellos fotorealistischen Bildästhetik abhängig ist, wenn es beispielsweise um die Darstellung von physikalischen Verhältnismäßigkeiten geht.187 Dennoch wurde genau diese Ästhetik – so wie es Csuri darstellt – in der Wissenschaft hauptsächlich verfolgt. Auch das Forschungsprojekt an der University of Utah unter der Leitung von Dave Evans und Ivan Sutherland lässt sich hier einordnen. Wenn William A. Fetter nun im Anschluss als weiterer Vertreter von Entwicklungen parallel zu denen am MIT angeführt wird, so lässt sich mit ihm eine erste Annäherung an die bildsprachlichen Mittel dieses Phänomens erreichen. Fetter kann als Brücke zwischen Csuri und Coons verstanden werden. Rosen führt Fetter unter zahlreichen anderen Pionieren als einen derjenigen Zeitgenossen Csuris an, der wie dieser daran interessiert war, die sichtbare Welt mit neuen technischen Verfahren wiederzugeben.188 Das Ziel, selbst Software oder Hardware zu entwickeln, um dies zu ermöglichen, verfolgte er dabei nicht, womit er sich sowohl von Csuri als auch von Sutherland unterscheidet. Der Bezug zu Coons und infolgedessen der zu Sutherland leitet sich aus der von Fetter angestrebten Bildästhetik sowie aus seinem Bildverständnis ab. Und ganz oberf lächlich betrachtet lässt sich diese Übereinkunft auch daran festmachen, dass Fetter – wie Coons und Sutherland – an der grafischen Darstellung von Flugzeugen interessiert war.
187 In dieser Grundannahme folgt die vorliegende Studie beispielsweise – wie im Methodenkapitel an gemerkt – Birgit Schneider und ihren Hinweisen zu Wissenschaftsbildern. Vgl. Schneider (2015). 188 Vgl. Rosen (2006): S. 40.
Der Computer als kreativer Partner
2.2.2 William A. Fetter – Der Computer als Mittel zum Zweck
Computer Graphics [...] make it possible to have the results available in a form that is understandable by the engineer and the non-technical observer as well.189 – William A. Fetter (1966)
William A. Fetter gilt als einer der Ersten, der perspektivische computergrafische Darstellungen hervorgebracht, und zudem als derjenige, der auf diese Weise Mitte der 1960er Jahre190 erstmals perspektivische Ansichten eines Menschen erzeugt hat.191 In Abbildung 41 ist eine dieser ersten Grafiken zu sehen, die die Absicht verfolgt, die maximale Reichweite eines Menschen im Flugzeugcockpit darzustellen. Fetter ging der Aufgabe, Bilder wie diese zu erstellen, in seiner Funktion als Grafikdesigner für den Flugzeughersteller Boeing nach. Seiner Überzeugung nach ließen sich die technischen Details der Flugzeugproduktion besonders gut mithilfe von perspektivischen Illustrationen kommunizieren, »rather than in verbal or numerical form alone.«192 Diese These ist nicht zuletzt auch Grundlage seiner 1965 veröffentlichten Monografie Computer Graphics in Communication. Die Aufgabe, Entwürfe von Flugzeugen und Bauteilen anzufertigen, teilte sich aufgrund seiner Überzeugung in zwei unterschiedliche Bereiche: So erforderte die Produktion von Bauteilen einerseits maßstabsgetreue technische Zeichnungen ohne Perspektive sowie andererseits perspektivische Illustrationen, mit denen sich die Bauteile auf zugängliche Art und Weise veranschaulichen ließen – ein Zugriff, den die technischen Zeichnungen laut Fetter nicht leisten können. In dieses zweite Feld integrierte Fetter ebenfalls die Visualisierung der im Einsatz befindlichen Flugzeuge, beispielsweise den simulierten Vorgang einer Landung aus dem Blickwinkel des Cockpits. Für die präzisen technischen Bauzeichnungen auf der einen Seite herrschten völlig andere Voraussetzungen als für die illustrativen Entwürfe auf der anderen Seite. Die Unterscheidung dieser beiden Varianten von Zeichnungen nimmt in diesem Kapitel einen zentralen Stellenwert ein. Fetters Anliegen war es, die Fertigung beider Formen von Zeichnungen mithilfe eines Computers zu automatisieren. In der Zeitschrift Design Quarterly aus dem Jahr 1966 mit dem Ausgabentitel Design and the Computer veröffentlichte Fetter den Aufsatz Computer Graphics, in dem er seine seit Beginn der 1960er Jahre verfolgten computergrafischen Errungenschaften aufführt. Fetter wird in der Ausgabe als »supervisor of Computer Graphics at Boeing in Seattle Washington«193 vorgestellt. Es folgt hier zudem der Hinweis, dass der 189 William A. Fetter: Computer Graphics. In: Design Quarterly 66/67, 1966, S. 14–23, hier S. 19. 190 Fetter stellt die Computerzeichnungen menschlicher Figuren beispielsweise 1966 in seinem Paper Computer Graphics vor. Vgl. Fetter (1966). 191 Vgl. Fetter (1966): S. 15. 192 Fetter (1965): S. ix. 193 Fetter (1966): S. 15.
127
128
Scheler: Computergrafik
Abb. 41: William A. Fetter, First Boeing Man, 1966–1969, Tinte auf Papier, IBM 7094 und CDC 6600, Gerber Plotter, 18,2 × 24 cm.
lugzeughersteller als Ursprungsort der Computergrafik gelte. Erstmals sei die TechF nologie dort als Werkzeug für die Produktion von Flugzeugen verfügbar gemacht worden. Fetter selbst merkt in dem Aufsatz an, dass der Begriff ›Computer Graphics‹ seit 1960 gebräuchlich sei und im Ursprung ebenfalls auf die Boeing Company zurückgehe. Darüber hinaus geht aus dem Artikel hervor, dass er im selben Jahr ein neues Konzept für perspektivische Zeichnungen entwickelt habe, mit dem bis dahin im Bereich der Entwurfszeichnung übliche Herangehensweisen abgelöst wurden. In ähnlich interdisziplinärer Weise wie Csuri erarbeitete Fetter die Übersetzung seines Konzepts in mathematische Prinzipien sowie anschließend in programmiersprachliche Befehle gemeinsam mit Mathematikern und Programmierern.194 Mithilfe der Befehle für den Computer, die noch dem damals üblichen prozeduralen Programmierparadigma folgten, wurde ein Plotter dazu veranlasst, die schwarz-weißen Linienzeichnungen auf einen Papierbogen aufzutragen. Eine Bildschirmröhre, wie Sutherland sie nutzte, stand Fetter als grafisches Ausgabegerät zunächst nicht zur Verfügung. In seinem Aufsatz versucht Fetter einzugrenzen, was das Phänomen der Computergrafik überhaupt sei. Indirekt geht aus seinen Überlegungen hervor, dass der Gedanke der Interdisziplinarität die Technologie besonders treffend charakterisieren kann, obwohl er selbst betont, wie schwierig es sei, positiv zu umschreiben, was genau die Computergrafik auszeichne. In seinem Artikel geht er deshalb umgekehrt vor und versucht sie darüber zu definieren, was sie nicht sei: »It is not a machine. It is not a computer, nor a group of computer programs. It is not the know-how of a graphic designer, a programmer, a writer, a motion picture specialist, or a reproduction specialist. Computer graphics is all these – a consciously managed and documented technology directed toward communicating information accurately and descriptively.« 195
194 Vgl. ebd., S. 15. 195 Ebd., S. 15.
Der Computer als kreativer Partner
Mit seiner Beschreibung, die Computergrafik sei ›consciously managed‹, liefert Fetter erste Anhaltspunkte, mit denen er sich in die hier verfolgte Geschichtsschreibung einordnen lässt. Für ihn ist die Computergrafik ein bildgebendes Medium, das einer aufwändigen und akribischen Planung bedarf. In direktem Vergleich zu Sutherland zeigt sich hier gleich zu Beginn ein erheblicher Unterschied, denn für Sutherland war genau das Gegenteil das Ziel seiner Entwicklungen, also nicht mehr akribisch planen zu müssen, was am Ende bei der Arbeit mit dem Computer herauskommt. Doch obwohl Fetter und Sutherland mit unterschiedlichen Vorstellungen an die Arbeit mit dem Computer herangingen, hatten sie, so die These für dieses Kapitel, ähnliche Vorstellungen davon, was ein Computerbild leisten können sollte. Implizit unterstreicht diese These den Standpunkt dieser Studie, dass die von Sutherland proklamierte Offenheit im Gestaltungsprozess ebenso an klare Vorstellungen gebunden war, wie es auch für die heutigen Anwendungen gilt. Die Unterschiede der beiden Pioniere im Umgang mit dem Computer bilden unter Berücksichtigung ihres vergleichbaren Bildverständnisses den Hauptgegenstand dieses Kapitels. Vollständig nachvollziehen lässt sich Sutherlands Bildverständnis allerdings erst, wenn auch Steven A. Coons in das Blickfeld der Untersuchung rückt. Fetter kann deshalb auch als Vorbereitung für die Auseinandersetzung mit Coons’ und infolgedessen mit Sutherlands Vorstellung von Bildlichkeit verstanden werden. Mit seiner Beschreibung der beiden unterschiedlichen Typen der Entwurfs- beziehungsweise der technischen Zeichnung hat Fetter ein Konzept formuliert, das den Sinnzusammenhang der heutigen Computergrafiken bereits andeutet, obwohl Fetter als historische Person selbst nicht aktiv dazu beigetragen hat, dass dieser Sinnzusammenhang in die Software Einzug erhält. Während Csuri also vergleichend herangezogen wurde, um aufzuzeigen, welche alternativen Konzepte von Kunst und Bildlichkeit die Softwareentwicklung beeinf lussen können, wird nun Fetter in den Fokus gesetzt, um zu zeigen, dass eine bestimmte Vorstellung von Bildlichkeit nicht Teil des Computers beziehungsweise der Software werden muss. Die Maschine blieb in Fetters Fall von seinem Bildverständnis nahezu unberührt. Er unterscheidet sich in dieser Hinsicht sowohl von Sutherland als auch von Csuri. Die Klärung der Frage, warum sich diese Aussage über Fetter so treffen lässt, bringt Aufschluss darüber, warum dies für Sutherland nicht gilt, beziehungsweise wie es bei ihm dazu kam, dass er in der Tat ein Bildverständnis in seine Software ›hineinprogrammiert‹ hat. Um dieser Frage nachzugehen, teilt sich das Kapitel in zwei Themenbereiche. Der erste Teil befasst sich mit der Vorstellung, die Fetter von seiner Arbeit mit dem Computer hegte, um anschließend im zweiten Teil seine zeichnerischen Konzepte näher kennenzulernen und damit eine Brücke zu Coons herzustellen. Im Mittelpunkt der Auseinandersetzung mit diesen beiden Facetten von Fetters Arbeit steht seine zu Beginn genannte 1965 veröffentlichte Monografie Computer Graphics in Communication.196 Ausführlich legt er darin dar, wie er bei der Erzeugung von Computergrafiken vorgeht sowie welchen grafischen Parametern er dabei folgt. Vor dem thematischen Einstieg in seine eigenen Ausführungen erfolgt zunächst eine historische Einordnung Fetters, wie sie beispielsweise Rebecca Perry in ihrer Studie Rigging the World – 3D Modeling and the Seduction of the Real vornimmt. Perry wird nun in den Kapiteln zu Fetter und Coons punktuell herangezogen, denn, wie 196 Vgl. Fetter (1965).
129
130
Scheler: Computergrafik
im Forschungsstand dargelegt, zeichnet auch sie wesentliche historische Meilensteine in der Entwicklung der 3D-Computergrafik nach. Perry liefert mit ihrer Untersuchung eine mögliche Erklärung dafür, warum Fetter mit seiner Herangehensweise an die Arbeit mit dem Computer die Software nicht in der Weise beeinf lusst hat wie Sutherland, aber dennoch für den Sinnzusammenhang heutiger 3D-Grafiken als aufschlussreich erscheint. Die heutige Praxis, im digitalen Raum virtuelle Modelle für den Bereich der Entertainment-Industrie zu erzeugen, teile sich laut Perry in zwei miteinander verbundene Entwicklungsstränge: »the creation of computer hardware and software in military-funded academic re search centers, and the evolution of digital objects as analytical and communication tools. The first is connected to the invention of calculating machines and their applica tion to the manufacture and analysis of physical objects, and the second is connected to the production of virtual objects-visual representations that connect technical and non-technical audiences, performed in the spaces of the computer.« 197 Perry selbst ordnet im Zusammenhang dieser Darstellung den einzelnen Entwicklungslinien noch keine Personen zu. Dennoch ließe sich den bisherigen Erkenntnissen der vorliegenden Studie zufolge Sutherland zunächst einmal bei der ersten und Fetter bei der zweiten Linie einordnen. So galt Sutherlands Interesse historisch betrachtet zunächst der Maschine sowie ihren Bedienmöglichkeiten, während Fetter sich damit befasst hat, für Kommunikationszwecke computergestützte Zeichnungen von Flugzeugen und Bauteilen anzufertigen – auch der Titel seiner oben genannten Monografie Computer Graphics in Communications deutet darauf hin. Für die geschichtliche Herleitung des 3D-Modells, das bei ihr im Fokus steht, nimmt Perry noch eine weitere Einteilung in drei historische Entwicklungswellen vor. Sie eignet sich ebenfalls für die in dieser Studie vorgenommene Fokussierung auf die Produktion synthetischer Bilder und die Einordnung Fetters darin. Auch die anderen in dieser Studie vorgestellten Akteure lassen sich anhand Perrys Einteilung in ihrer Konstellation zueinander erfassen. Im Zuge der ersten Welle seien computergenerierte Modelle vorrangig in Form von Umrisslinien dargestellt worden. Laut Perry entsprach dieser frühe Ansatz den lange etablierten Konzepten, die der Erstellung von Diagrammen und Plänen zugrunde lagen. In der zweiten Welle, die sie auf die frühen bis späten 1960er Jahre datiert und in die sie unter anderem Fetter einordnet,198 entwickelten sich Bestrebungen, die Umrisszeichnungen der dargestellten Objekte um Oberf lächeninformationen zu erweitern und ihnen eine Dimensionalität zu verleihen. Die dritte Welle führte schließlich zu der Ausarbeitung von Oberf lächen und Materialien der dargestellten Objekte, ihrer Texturierung und der Art und Weise, wie sie auf Licht und Ref lexionen reagieren. Perry bezeichnet den mit der zweiten Welle in den 1960er Jahren auftretenden Wechsel in der computergestützten Darstellung von Objekten mithilfe von Umrisslinien hin zu der Darstellung von Objekten mit Oberf lächeninformationen als »geometric turn«199. Anhand dieser von Perry entwickelten geschichtlichen Struktur lässt sich herleiten, inwiefern Sutherland und Fetter als Teil 197 Perry (2014): S. 17. 198 Vgl. ebd., S. 95–96. 199 Ebd., S. 37.
Der Computer als kreativer Partner
eines gemeinsamen historischen Zusammenhangs betrachtet werden können, obwohl sie sich dem Gegenstand der Computergrafik auf der Basis völlig unterschiedlicher Interessen zuwandten. Zudem vermag Perrys Struktur darüber hinaus eine Erklärung dafür zu leisten, weshalb Csuri in diesem Gefüge als Randfigur erscheint: Er war an dem ›geometric turn‹ nicht in der gleichen Weise beteiligt wie Sutherland und Fetter, was sich allein schon an seinem mangelnden Interesse an den aufstrebenden fotorealistischen Tendenzen im Bereich der Computergrafik zeigt. In einem gesonderten Kapitelabschnitt, den Perry ›The Digital Shadow of Real Objects‹ nennt, wendet sie sich zunächst Fetter sowie Pierre Bézier zu, der für den französischen Autohersteller Renault in ähnlicher Funktion arbeitete wie Fetter für Boeing. Sie betont: »For both Fetter and Bézier, the ability to think broadly and collaborate outside of their own departments was key to their achievements.«200 Ein Detail, das für Perrys Studie keine Relevanz besitzt, das sich jedoch für den Blickwinkel der vorliegenden Studie als überaus interessant erweist, ist, dass man im Gegensatz zu Fetter dem Franzosen Bézier heute noch in grafischen Computeranwendungen sowohl im 2D- als auch im 3D-Bereich begegnet. Im letzteren Feld stellen die von ihm entwickelten Bézier-Kurven eine Möglichkeit dar, um virtuelle Objekte zu modellieren. Sie können als Alternative zum polygonbasierten Modellieren aufgefasst werden, das, wie in Kapitel 1.2.1 Starting from Scratch – Die Praxis der synthetischen Bilderzeugung erläutert, in weiten Teilen der Entertainment-Industrie verbreitet ist. Bézier-Funktionen kommen meistens in solchen Fällen zum Einsatz, in denen grafische Informationen einen hohen Grad an mathematischer Präzision benötigen, beispielsweise im Bereich des Industriedesigns, wenn es um die Produktion von Bauteilen geht. Da für Perry nicht bedeutsam ist, weshalb Fetters Handschrift gegenüber der von Bézier den heutigen Produktionsprozess nicht prägt, setzt sie sich nicht mit der Frage auseinander, worin dies begründet sein kann. Für die vorliegende Studie ist jedoch genau diese Frage relevant. Um ihr nachzugehen, eignen sich Fetters eigene Aufzeichnungen, mit denen er seine Arbeitsweise und insbesondere seinen Umgang mit dem Computer minutiös dokumentiert hat. Insbesondere seine Monografie Computer Graphics in Communication liefert hierfür die entscheidenden und erkenntnisreichsten Hinweise. Wie zu Beginn des Kapitels angedeutet, fällt bei der Gegenüberstellung Sutherlands mit Fetter auf, dass Fetters Arbeit mit dem Computer stets ein Arbeitsziel vorausging, während dies bei Sutherland nicht der Fall war. Allein der Umstand von Fetters Anstellung bei einem Flugzeughersteller gab die generelle Ausrichtung seiner mit dem Computer gefertigten Zeichnungen vor,201 doch wie er selbst in seiner 200 Ebd., S. 96. 201 Parallel zu seiner Tätigkeit bei Boeing war Fetter Mitglied des 1967 in New York gegründeten Ver bands Experiments in Art and Technology (E.A.T.), ein Zusammenschluss von Künstlern und Ingenieu ren, die auf experimentelle Weise die grafischen Möglichkeiten der damaligen Computertech nologie ausloteten. Gründungsmitglieder waren die Künstler Robert Rauschenberg und Robert Whitman sowie die Ingenieure Billy Klüver und Fred Waldhauer. Vgl. Patricia Failing; Robin Oppen heimer: History. 16.09.2002. URL: http://courses.washington.edu/eatreun/html/history/h_intro. html. Zugriff am: 05.03.2021. Fetter selbst war daran beteiligt, eine E.A.T.-Gruppe in Seattle zu gründen, wo er aufgrund seiner Tätigkeit für Boeing arbeitete. Inspiriert wurde er dazu durch ein Treffen mit anderen Computergrafikpionieren im Jahr 1965, ausgerichtet von den Bell Telephone Laboratories. Seiner Wahrnehmung nach versammelte sich dort beinahe jeder, der damals dem Ex periment nachging, mithilfe des Computers Bilder zu erzeugen, und er stellte fest: »I was the only
131
132
Scheler: Computergrafik
Publikation schildert, ist für ihn nicht nur dieses übergeordnete Ziel vorgegeben, er beginnt auch jede einzelne computergrafische Darstellung zunächst mit einer konkreten Zielsetzung: »Steps toward producing simple or complex communications by Computer Graphics are (1) Aims Definition, a careful examination of the requirement; (2) Communication Design, a mental image or a careful plan of the desired end result; (3) Data Transcrip tion, putting data in a form acceptable to the computer; (4) Computer Programing, a careful preparation in machine language of the generalized mathematical capabilities necessary to calculate any projection; (5) Automatic Drawing, the actual production of the image; (6) Final Rendering, any treatment of the drawing such as adding shading
one with an art background and an art degree. Surprisingly, I was still the only one of this group do ing perspective images. Some present were Ken Knowlton and Ed Zajac of Bell Laboratories, George Michaels and Bob Crowley of Lawrence Livermore National Laboratories, myself from Boeing and others. E.A.T. was first described to me during a meeting in New York at a conference and I felt the rich mix of art and technology interactions already in progress in the Northwest might benefit by tying in with that group. I contacted Dr. Kluver [!], obtained a film about their show at the Armory in New York, and called a meeting of like-minded people [in Seattle].« Patricia Failing; Robin Oppen heimer: Northwest Chapters. William Fetter (1928–2002). 16.09.2002. URL: http://courses.washing ton.edu/eatreun/html/history/h_nw.html. Zugriff am: 05.03.2021. Im Jahr 1969 wurden Arbeiten von Fetter (sowie u. a. von Charles A. Csuri und Frieder Nake) in der Galerija suvremene umjetnosti (Ga lerie zeitgenössischer Kunst) in Zagreb in der Ausstellung tendencies 4. computers and visual research präsentiert. Die Ausstellung war Teil einer Reihe von Veranstaltungen und Magazinen, hervorge bracht durch eine Bewegung mit dem Namen New Tendencies, die sich 1961 in Jugoslawien gebildet hatte. Eine Jury, darunter u. a. Umberto Eco, hatte die Entscheidungskraft darüber, mit welchen Arbeiten die Ausstellung bestückt sein würde. Neben Fetters perspektivischen Computerbildern, die er für Boeing entworfen hatte, wurden auch Beiträge von Mitarbeitern der Bell Telephone Laboratories Inc., darunter Leon O. Harmon, Kenneth C. Knowlton, A. Michael Noll und Manfred R. Schroeder, berücksichtigt. Ihre Entscheidung begründete die Jury wie folgt: »The works that were produced by Boeing Computer Graphics and the Bell Telephone Laboratories exhibit, in our opinion, the best developed technology and programming of visual phenomena.« Umberto Eco; Karl Gerst ner; Vera Horvat-Pintarić; Boris Kelemen; Martin Krampen: Program Information 13. tendencije 4/ tendencies 4. Computers and Visual Research. Decision of the Competition Jury. In: A Little-Known Story about a Movement, a Magazine, and the Computer’s Arrival in Art: New Tendencies and Bit International, 1961–1973. Bit International. [Nove] tendencije. Computer und Visuelle Forschung Za greb 1961–1973, exhibitions Neue Galerie Graz am Landesmuseum Joanneum April 28–June 17, 2007, ZKM, Center for Art and Media Karlsruhe February 23, 2008–January 18, 2009. Hrsg. v. Margit Rosen, Darko Fritz, Marija Gattin und Peter Weibel. Karlsruhe, Germany: Cambridge, MA: London, Eng land: ZKM Center for Art and Media; MIT Press, 2011, S. 368–370, hier S. 369. Zu den Entscheidungs kriterien geben die Mitglieder den folgenden Hinweis: »In our opinion, in view of the experimental nature and completely open domain represented by the materials exhibited, it is not possible at the present time to establish criteria for judging the entries, for example, aesthetic quality, complexity of programming, or mathematical ingenuity. This holds particularly if we consider the fact that the goal of computer-aided aesthetic research is to suggest new aesthetic parameters for the future. It would be ›authoritarian‹ to submit such research to judgement in terms of traditional parameters. Furthermore, early individual work should be considered in terms of our own human and technical premises. As a whole, the exhibited materials can be treated from different points of view, and the interesting characterizations of individual works can be highlighted from these viewpoints.« Eco; Gerstner; Horvat-Pintarić; Kelemen; Krampen (2011): S. 368.
Der Computer als kreativer Partner
and coloring for a conventional communication media; and (7) Reproduction, a repeti tive processing to increase the total number of copies, as in the process of photopro cessing and printing.«202 Aus dieser Beschreibung geht klar hervor, dass Fetter im Gegensatz zu Sutherland mit dem prozeduralen Programmierparadigma arbeitete. Neben seiner vorab formulierten Zielsetzung wird zudem an dieser Beschreibung deutlich, dass Fetter nicht wie Sutherland daran interessiert war, den Umgang mit dem Computer selbst zu gestalten. Bei Sutherland war die Computergrafik erst einmal ein Mittel zum Zweck, eine Möglichkeit, den Computer mithilfe grafischer Befehle zu bedienen. Bei Fetter hingegen lag in der Erzeugung von Computergrafiken von vornherein das Ziel. Die Motivation, den Computer zum Einsatz zu bringen, war für Fetter allein an dieses Ziel geknüpft. Erneut bestätigt sich hier die Beobachtung, dass die Erzeugung computergrafischer Bilder bei beiden jeweils auf völlig unterschiedlichen Motivationen basiert. Als besonders erkenntnisreich für die vorliegende Studie erweist sich, dass Fetter Sutherlands alternativen Arbeitsansatz selbst kannte. Aus Fetters Ref lexionen lässt sich zudem ableiten, dass er seine Herangehensweise nicht nur bewusst gewählt hat, sondern auch, dass er sich bewusst gegen Sutherlands Ansatz entschieden hat. Er wählte also aktiv ein anderes Vorgehen. An mehreren Stellen verweist er in seiner Monografie auf Sketchpad. Wirft man zunächst einen Blick in die Bibliografie, so wird sowohl auf Sketchpad als auch auf Sketchpad III verwiesen, das in Kapitel 3.2 Opazität, Licht und Animation – Eine Strategie zur Umsetzung des gemeinsamen Ziels eingehender thematisiert wird. Auch Coons wird verzeichnet, doch weist Fetter in einem Kommentar zu seiner Bibliografie allgemein darauf hin, dass seine eigenen Entwicklungen unabhängig von den genannten Titeln entstanden seien: »While references were not used directly in the development of Computer Graphics, the following may be of value to the reader in understanding engineering graphics and perspective theory.«203 Obwohl Fetter seine Bibliografie mit diesen begleitenden Worten versieht, lassen sich in seinem Fließtext an zwei verschiedenen Punkten Bezüge zu Sketchpad erahnen. In der ersten Textstelle, in der er darauf verweist, lässt sich lediglich über seine inhaltliche Darstellung darauf schließen, dass er sich auf Sutherlands Sketchpad-System oder zumindest auf dessen Forschungskontext bezieht: »In the developments of computer-related graphics there appear to be two major avenues of effort. One avenue is the use of generally available digital equipment and t rained computer programers. The other is the development and use of new equipment by means of which the designer draws with a light pen directly on a cathode ray tube (CRT) screen with virtually immediate response in the form of drawings, dimensions, computations, and views at his request. While the techniques described here may be useful and complementary to the CRT approach, this monograph concentrates on the digital computer-programer approach only.«204
202 Fetter (1965): S. 8. 203 Ebd., S. 105. 204 Ebd., S. 5.
133
134
Scheler: Computergrafik
Einen Grund, warum er dem von Sutherland verfolgten Ansatz nicht folgen möchte, nennt Fetter nicht. Eine mögliche Erklärung liegt darin, dass die beiden Herangehensweisen, die er hier beschreibt, zu unterschiedlich waren und es für ihn einen erheblich größeren Aufwand bedeutet hätte, sich zunächst mit einem anderen Verfahren vertraut zu machen, wenn er doch wusste, dass er zu seinem vorab festgelegten Ziel auch mit seinem prozeduralen Ansatz gelangt. Zudem war die Hardwareausstattung, die Sutherland zur Verfügung stand, noch nicht allgemein verfügbar, sondern in der Nutzung weitgehend auf die Forschung am Lincoln Laboratory des MIT beschränkt. Diese Annahme lässt sich anhand der zweiten Textstelle, in der Fetter diesmal das SketchpadSystem auch explizit erwähnt, bestätigen. Fetter nennt Sketchpad zwar nach wie vor nicht im Fließtext, allerdings führt er das System in einer schematischen Darstellung auf, mit der er seine eigene Herangehensweise illustriert. Die Übersicht zeigt in Form einer Liste mehrere Ansätze, von denen sich Sketchpad an letzter Stelle befindet. Anhand der Grafik und seiner dazugehörigen Erläuterung wird deutlich, inwiefern sich Fetter davon abgrenzt: »The next figure shows the equipment near the top of the diagram which has been used within the Computer Graphics technology and the equipment near the bottom which is expected to be significantly productive in a reoriented approach that falls outside the scope of this monograph […].«205 Der Kommentar Fetters verdeutlicht erneut, dass er nicht nur von Sutherlands Ansatz wusste, sondern auch, dass er ihn darüber hinaus sogar als überaus vielversprechend einstufte. Welche genauen programmiertechnischen Erneuerungen Sutherlands Sketchpad-System bereithielt, führt Fetter in seiner Publikation nicht differenziert aus. Lediglich die Verwendung des Stifts und die Möglichkeit, damit auf einem Bildschirm zu zeichnen, wird von ihm aufgegrif fen. Der paradigmatische Wechsel vom prozeduralen zum objektorientierten Programmieren hatte zu jener Zeit noch nicht in weit verbreiteter Form stattgefunden. Der Begriff des objektorientierten Paradigmas wurde schließlich, wie mehrfach dargelegt, erst von Alan Kay in den 1970er Jahren eingeführt. Fetter geht demzufolge nicht darauf ein, dass sich mit Sutherland die Arbeit mit dem Computer grundlegend veränderte. Dennoch lassen seine Darstellungen zum Programmiervorgang Erkenntnisse über die Unterschiede zwischen seinem und Sutherlands Ansatz zu. Fetters Auseinandersetzung mit der Arbeit seines Kollegen machen die Neuerungen, die Sutherland hervorbrachte, sogar besonders anschaulich. So erläutert Fetter die Arbeitsschritte mit dem Computer folgendermaßen: »Many basic tasks must precede the arrival of the subject data cards prepared for the computer. These are (1) direction, the accurate definition of a distinct graphic need; (2) re search, the basic solution to mathematically treating the graphic need; (3) programing, the translation of these mathematical advances in the form of workable subroutines; and (4) production programing, the placing of a number of programing routines in a form which allows conventional solutions to recurring Computer Graphics needs.«206 205 Ebd., S. 9. 206 Ebd., S. 17.
Der Computer als kreativer Partner
Auch Fetter hatte dieser Beschreibung zufolge im Blick – ähnlich wie Sutherland –, dass bestimmte Subroutinen für andere grafische Ziele wiederverwertet werden können. Allerdings war es für Fetter nicht möglich, seine fertigen Ergebnisse nachträglich zu verändern. Wenn er an einem grafischen Element seiner Zeichnung später eine Veränderung hätte vornehmen wollen, wäre er dazu gezwungen gewesen, schon bei seinem mit der Nummer (1) gekennzeichneten Arbeitsschritt neu zu beginnen, also eine neue präzise Definition seines Ziels zu entwickeln. Anhand dieser Beschreibung Fetters wird also besonders deutlich, welche Auswirkungen die von Sutherland bewirkten Veränderungen im Programmieransatz auf die Arbeit mit dem Computer generell, aber auch auf die gestalterische Arbeit mit dem Computer hatten. Die heutige Art und Weise, am Computer mit grafischen Anwendungen zu arbeiten, lässt Sutherlands Einf luss vor dem Hintergrund von Fetters Beschreibungen deutlich erkennen. Fetters eigener Ansatz wäre heute undenkbar. Anhand von Fetters Prozessbeschreibung bestätigt sich erneut, dass der Computer seinem Ziel in gewisser Weise äußerlich bleibt. Im Sinne John Deweys ist für Fetter der Computer weniger ein Medium, das das Ergebnis maßgeblich charakterisiert, als vielmehr ein Mittel, das austauschbar wäre, wenn es etwa Alternativen gegeben hätte.207 Fetter selbst war vermutlich davon überzeugt, dass er den Computer im Sinne Deweys nicht nur als Mittel, sondern auch als Medium nutze, denn für ihn stellte der Computer eine Instanz dar, die die Fähigkeiten des Designers, komplexe Entwürfe anzufertigen und seine Ideen zu kommunizieren, erleichtert und erweitert. In dieser Hinsicht bezieht sich Fetter auch auf abstrakte Darstellungen von Datensätzen, also zum Beispiel die dreidimensionale Visualisierung von aerodynamischen Akustiksignalen.208 Dennoch – so lässt es sich aus Fetters eigener Vorgangsbeschreibung ableiten – geht die Planung sowohl für abstrakte Visualisierungen als auch für konkrete, perspektivische Entwürfe der Hinzunahme des Computers stets voraus. Die Maschine kommt erst im Anschluss zum Einsatz, um die minutiöse – oder mit Fetters Worten »tedious«209 – Arbeit des präzisen Zeichenvorgangs durchzuführen. Im Umkehrschluss wird an den Arbeitsschritten Fetters jedoch deutlich, dass es – mit sehr viel Aufwand – auch möglich gewesen wäre, diese Zeichnungen per Hand anzufertigen. In seinem Paper Computer Graphics schildert Fetter sogar, dass noch nicht einmal zwingend der Computer zum Einsatz kommen muss, sofern sich das Konzept, das vorgestellt werden soll, auch anders kommunizieren ließe: »In Computer Graphics, three aspects have to be understood: first, the communicator who has an idea or message to communicate; second, the communication specialist who decides whether the problem should be solved graphically, verbally or as a combi nation of both; third, the computer specialist who selects the computer equipment and interprets the problem so that the computer can act upon it.«210
207 Vgl. Dewey (1980): S. 229. Vgl. zudem Fn. 169 in Kapitel 2.2.1 Charles A. Csuri – Kreative Arbeit am Computer zwischen Kunst und Wissenschaf t der vorliegenden Studie, S. 119. 208 Vgl. Fetter (1966): S. 15. 209 Ebd., S. 15. 210 Ebd., S. 15.
135
136
Scheler: Computergrafik
Ausgangspunkt war für Fetter stets der Gedanke der Kommunikation, und obwohl ihm ein Gerät zur Verfügung stand, dem er – wie anhand von Csuris Arbeitsansatz deutlich wurde – mithilfe des prozeduralen Programmierens alles hätte auftragen können, bleibt Fetter dabei, den Computer lediglich etwas ausführen zu lassen, das er mit großem Aufwand auch händisch hätte umsetzen können. Wie in dem Zitat dargestellt, muss nach Fetter ein bereits existentes Konzept für die Umsetzung am Computer sogar zunächst so interpretiert werden, dass die Maschine überhaupt dafür zum Einsatz kommen kann. Im Vergleich zu Csuri wird nun augenscheinlich, dass Fetter die Freiheit des prozeduralen Programmierens demnach nicht in gleicher Weise ausnutzte. Dieser übertrug dem Computer selbst einen Teil der Verantwortung für die künstlerischen Ergebnisse und band so die Maschine wesentlich stärker in seine kreativen Prozesse ein als Fetter. Csuri nutzte den Computer und das prozedurale Programmierparadigma im Sinne Deweys demnach als Medium. Für Sutherland gilt diese Aussage in ähnlicher Weise. Auch er erkannte, dass der Computer das Potenzial besitzt, Arbeitsprozesse nachhaltig zu verändern, sodass sie in gleicher Weise nicht manuell hätten imitiert werden können. Auch bei ihm hinterließ der Computer neue, eigene mediale Spuren im fertigen Produkt, doch hat Sutherland in nachhaltigerer Weise dazu beigetragen, diese Spuren zu formen. Die Art und Weise, wie er den Computer einerseits auf neue Weise zum Einsatz brachte und ihn andererseits in eigene Bahnen lenkte, bildet die eigentliche Schnittmenge zu Fetter – Sutherland setzte für die vorgefertigten Programmbausteine bei ähnlichen grafischen Parametern an, wie Fetter sie für seine Arbeit definiert. Es folgt nun also der zweite Teil des Kapitels, in dem diese Parameter vorgestellt und untersucht werden sollen. Was war für Fetter eine gelungene grafische Darstellung? Wie zu Beginn des Kapitels dargelegt, teilte er seinen Tätigkeitsbereich, Grafiken zu erstellen, in zwei Felder, denen jeweils unterschiedliche Anforderungen zugrunde lagen. So war es einerseits seine Aufgabe, technische Zeichnungen anzufertigen, die für die Produktion präzise und verständlich sein mussten, andererseits benötigte er zudem Darstellungen, die seine Ideen für diejenigen zugänglich machen konnten, die nicht die Fähigkeit besitzen, technische Zeichnungen zu lesen. Das Problem der Kommunikation von Konzepten ist also stets Kern von Fetters grafischem Interesse – dies gilt gleichermaßen für beide Formen der Zeichnung, wenngleich sich die Ebene der Kommunikation für beide Formen unterschiedlich charakterisiert. Einen ersten Hinweis zum Charakter der verständlicheren Variante von Zeichnungen liefert in der Einführung von Fetters Monografie Edward C. Wells, damals Vizepräsident der Produktentwicklungsabteilung im Boeing-Unternehmen. Er erklärt, weshalb es sich für das Ingenieurswesen anbiete, zum Zwecke der besseren Kommunikation statt auf fachinterne Begriffe und Konzepte auf das fachfremde Feld der ›graphics‹ zurückzugreifen: Es sei, so Wells, »among the most universal means of depicting phenomena or solving engineering problems.«211 Um diese Zeichenprozesse besonders ökonomisch zu gestalten, eigne sich laut Wells die Computertechnologie. Die Trennung, die er hier zwischen dem Feld der Grafik und dem Feld der Computertechnologie vornimmt, verdeutlicht zwei Aspekte: Erstens zeigt sich hier erneut, dass in dieser Denkweise der Computer noch ein 211 Edward C. Wells: Introduction. In: William A. Fetter: Computer Graphics in Communication. Written for the Course Content Development Study in Engineering Graphics, supported by the National Sci ence Foundation. Hrsg. v. Steve M. Slaby. New York, NY u. a.: McGraw-Hill, 1965, S. vii–viii, hier S. vii.
Der Computer als kreativer Partner
Mittel zum Zweck ist, er also eine andere Rolle spielt als bei Sutherland, zweitens jedoch bildet die Vorstellung einer universellen Ausdrucksweise eine direkte Brücke zu Sutherland, denn auch er ging, wie in Kapitel 2.1 Ivan E. Sutherlands Sketchpad und die Geburt der ›universellen‹ Computerzeichnung herausgearbeitet wurde, von universellen Gestaltungsprinzipien aus. Darüber hinaus zeichnet sich hier noch deutlicher als bei Sutherland ab, dass auch in Fetters Umfeld nicht nur überhaupt die Vorstellung einer universellen grafischen Ausdrucksweise existierte, sondern dass diese darüber hinaus auch mit perspektivischen Darstellungsformen verknüpft wurde. In der Auseinandersetzung mit Fetter wird erstmals deutlich, wie diese Verknüpfung entsteht. Um seine kommunikativen Ziele zu veranschaulichen, verweist er gleich zu Beginn seiner Monografie auf Étienne-Jules Marey, der Ende des 19. Jahrhunderts mit der Chronofotografie ebenfalls ein neues technisches Verfahren entwickelt hatte, um grafisch beziehungsweise fotografisch einen Sachverhalt zu veranschaulichen und zu kommunizieren – in seinem Fall waren es Bewegungsabläufe. Fetter stellt seinem eigenen Text ein Zitat von Marey voran, in dem dieser seine Auffassung vom Potenzial grafischer Darstellungsmethoden darlegt: »The graphic method, with its various developments, has been of immense service to almost every branch of science, and consequently many improvements have of late been effected. Laborious statistics have been replaced by diagrams in which the vari ations of a curve express in a most striking manner the several phases of a patiently observed phenomenon, and, further, a recording apparatus which works automatically can trace the curve of a physical or physiological event, which by reason of its slowness, its feebleness, or its rapidity, is otherwise inaccessible to observation. Language is as slow and obscure a method of expressing the duration and sequence of events as the graphic method is lucid and easy to understand. As a matter of fact, it is the only natural mode of expressing such events; and, further, the information which this kind of record conveys is that which appeals to the eyes, usually the most reliable form in which it can be expressed.«212 Marey führt hier eine ganze Reihe von Aspekten an, die den Sinnzusammenhang synthetischer 3D-Computergrafiken andeuten – etwa seine Formulierung, die grafische Methode sei die einzig ›natürliche‹ Form, die Dauer oder den Ablauf einer Gegebenheit zu veranschaulichen. Der Begriff der ›Natürlichkeit‹ lässt sich mit dem oben durch Wells eingeführten Begriff der ›Universalität‹ in eine Reihe stellen. Auf welche Weise haben Wells und Marey diese Begriff lichkeiten ausgelegt? Mit Fetter lässt sich die Bedeutung etwas eingrenzen, wenngleich auch er nicht infrage stellt, dass es einen natürlichen oder universellen Ansatz gibt, Bilder zu erzeugen oder zu lesen. Ein Aspekt, den Fetter in Reaktion auf Mareys Aussage in seinen eigenen Ausführungen besonders hervorhebt, ist der Gedanke der verlässlichen Kommunikation. Obwohl Mareys Aussage schon zu Fetters Zeiten veraltet sei, besitze sie vor dem 212 Zitiert nach Fetter (1965): S. 1. Fetter zitiert Marey aus dessen Monografie Movement aus dem Jahr 1895, jedoch ohne eine Seitenangabe vorzunehmen. Bei genauerer Betrachtung der Quelle stellt sich heraus, dass der erste Absatz aus dem Vorwort, der zweite aus dem ersten Kapitel stammt. Vgl. Étienne-Jules Marey: Movement. Übersetzung ins Englische von Eric Pritchard. New York, NY: D. Appleton and Company, 1895, S. vii und S. 2.
137
138
Scheler: Computergrafik
Hintergrund der neuen computergrafischen Methoden noch immer oder gerade erneut eine Gültigkeit. Sogar in den zusammenfassenden Gedanken am Ende seiner Monografie greift er diesen Aspekt auf: »An aim of Computer Graphics is to improve the directness with which the engineer communicates and each new generation of equipment furthers this aim.«213 Fetter zählte Mareys technisches ›Equipment‹ zwar zu einer vorigen Generation, die Ansprüche an ihre Bilder waren jedoch vergleichbar: »His [Mareys] work provided science with descriptive tools that were both technically valid and strikingly descriptive.«214 Auch Fetter strebte nach einem Verfahren, mit dem sich Bilder erzeugen ließen, die über einen Sachverhalt sowohl zuverlässig, aber zugleich in anschaulicher Weise informieren können. Mit dem Bezug zu Marey führt Fetter direkt zum Einstieg in seine Ausführungen zwei Aspekte an, die bei der Erzeugung von Computergrafiken für ihn eine zentrale Rolle spielen und die er anschließend häufig erneut aufgreift: die technische Präzision auf der einen Seite sowie die unmittelbare Verständlichkeit einer Zeichnung auf der anderen Seite. Die beiden Kriterien spiegeln die beiden Formen von Zeichnungen wider, also die maßstabsgetreuen technischen Zeichnungen einerseits sowie die illustrativen perspektivischen Entwurfszeichnungen andererseits. Um die Anforderungen an die beiden Formen von Zeichnungen zu beschreiben, verwendet Fetter für die erste Variante den Begriff der ›Messbarkeit‹ und für die zweite den Begriff der ›Klarheit‹, wobei er das Konzept der Klarheit explizit an perspektivische Gestaltungsprinzipien knüpft.215 Auch eine Begründung führt er für diesen von ihm eröffneten Zusammenhang an: »Central projections or perspectives, common in production illustrations, are most valuable for the clarity of the elements and the true appearance of the subject, since they are presented just as they are seen by the eye. Each addition of shading, color, and movement enhances the degree of realism and special clarity in the drawing. A prin cipal advantage of Computer Graphics is the ability to produce any projection in this spectrum from a single set of data.«216 Fetter führt für die Begriffe ›clarity‹, ›true appearance‹ und ›realism‹ jeweils keine eingehenderen Definitionen an. Er erläutert lediglich, dass die perspektivische Darstellung allen diesen Kriterien, also der bereits genannten Klarheit, einer wahrheitsgetreuen Erscheinung sowie nicht zuletzt der Funktionsweise unseres Sehapparats, gerecht werden kann. Die technische Zeichnung könne dies hingegen nicht leisten. Die beiden Arten, Entwürfe zu fertigen, stehen sich für Fetter demnach konträr gegenüber. Er veranschaulicht seine Definition der beiden Formen von Entwurfsarbeit anhand von zwei schematischen Darstellungen. Jede enthält einen Graphen, von denen er den ersten »Ease of measuring drawings« und den zweiten »Ease of understanding drawings«217 nennt. In beiden Diagrammen vereint Fetter auf der X-Achse die beiden
213 Fetter (1965): S. 100. 214 Ebd., S. 2. 215 Vgl. ebd., S. 5–7. 216 Ebd., S. 7. 217 Ebd., S. 6.
Der Computer als kreativer Partner
Abb. 42: William A. Fetter, Ease of measuring drawings und Ease of understanding drawings, 1965.
139
140
Scheler: Computergrafik
unterschiedlichen Darstellungsformen, indem der Grad der perspektivischen Verzerrung von links nach rechts allmählich wächst. Die Abstufungen, von denen die erste Stufe das eine sowie die letzte Stufe das andere Extrem bildet, bezeichnet Fetter als »orthographic«, »oblique«, »isometric«, »dimetric«, »trimetric« und »perspective«218. Mit dem Begriff ›orthografisch‹ werden im Ingenieurswesen Darstellungen bezeichnet, die keine perspektivische Verzerrung besitzen. Tiefeninformationen werden nicht mithilfe von Fluchtpunkten dargestellt, stattdessen würden, für das Beispiel eines Würfels, die vordere und die hintere Seite die gleichen Dimensionen besitzen. Alle weiteren Schritte bezeichnen Formen von perspektivischen Darstellungen, die bis zur letzten Stufe unterschiedlich starke Verkürzungen und Verzerrungen aufweisen. Auf der Y-Achse unterscheiden sich die beiden Diagramme. Bei dem ersten Diagramm gibt Fetter hier den Wert der Messbarkeit von den unterschiedlichen Darstellungsformen an. Anhand einer von links nach rechts abfallenden Kurve veranschaulicht er, dass eine orthografische Projektion am ehesten für den Zweck der Messbarkeit geeignet ist und sich von einer Zeichnung mit zunehmender perspektivischer Verzerrung keine verlässlichen Maßangaben ablesen lassen (Abb. 42). Auf der Y-Achse des zweiten Graphen verzeichnet Fetter den Wert der Verständlichkeit der unterschiedlichen Darstellungsformen. Hier arbeitet er sogar mit vier Kurven, die sich jeweils auf unterschiedlich fein ausgearbeitete Formen perspektivischer Darstellungen beziehen: Fetter differenziert mit den vier Kurven zwischen einer einfachen Linienzeichnung, einer solchen Zeichnung mit zusätzlicher Schattierung, anschließend einer farbig gestalteten Grafik sowie zuletzt einer kolorierten Illustration in Bewegung. Diese letzte Form, also eine animierte Sequenz, liefert laut Fetter die größte Klarheit. Letztendlich steigen jedoch alle vier Kurven von links nach rechts an, sie bringen also zum Ausdruck, dass mit der Steigerung der perspektivischen Verzerrung jeweils auch der Grad der Verständlichkeit zunimmt. In seinem ein Jahr später, 1966, veröffentlichten Paper Computer Graphics zeigt er zwar die beiden Diagramme nicht, doch greift er die darin dargestellte Verhältnismäßigkeit erneut auf und fasst die Aussage, die er damit treffen wollte, bündig zusammen: »Since perspective projections represent objects just as the eye sees them, measuring becomes difficult while understanding increases. With the addition of shading, color and especially motion to the perspective projection, the graphic effect can be most ef fective and thus facilitate communication.«219 Erneut nimmt Fetter hier Bezug auf den menschlichen Wahrnehmungsapparat – ein Hinweis, der am Ende des vorliegenden Kapitels nochmals relevant wird. Um vorab jedoch Fetters Beschreibungen und ihre Auswirkung auf seine computergestützte Praxis noch umfassender nachvollziehen zu können, ist es hilfreich, sich in Erinnerung zu rufen, dass von den vier Aspekten der perspektivischen Zeichnung, also den Linien, 218 Ebd., S. 6. Steven A. Coons und John T. Rule erläutern in ihrem Handbuch Graphics ebenfalls die Re geln zur Erzeugung dieser verschiedenen Arten von Entwurfszeichnungen. Vgl. Rule; Coons (1961): S. 78 und S. 231. In der Auseinandersetzung mit Coons werden die Begriffe erneut relevant, weshalb sie dort ausführlich erläutert werden. Vgl. Kapitel 2.3.1 Die Grafik als Gedankeninstrument, S. 164–165 in der vorliegenden Studie. 219 Fetter (1966): S. 17. Herv. i. O.
Der Computer als kreativer Partner
Abb. 43: William A. Fetter, Stereo views of two transport aircraf t windshield designs, 1965. den Schattierungen, der Kolorierung und der Bewegung, ausschließlich die erste Stufe, die Linienzeichnung, mithilfe des Computers umgesetzt werden konnte. Es ließen sich auf diese Weise zwar zügig verschiedene perspektivische Ansichten eines Objekts automatisch vom Computer erzeugen sowie mithilfe eines Plotters ausgeben. Auch für bewegte Bilder konnten die Linienzeichnungen in einer Abfolge auf Film übertragen werden, doch jede Form der Schattierung oder Kolorierung musste sowohl auf den Papierbögen als auch für die Erstellung eines Films nach der abgeschlossenen Arbeit des Computers manuell vorgenommen werden. Wie in der Übersicht zu den einzelnen Arbeitsschritten aufgeführt, nennt Fetter diese Feinausarbeitung der computergenerierten Linienzeichnungen »Final Rendering«220. Er definiert den Begriff folgendermaßen: »[Final rendering] involves final preparation of the computer-produced drawings. The range of activity in this step can be wide. In some cases no further work need be done if the initial planning took all possible end uses into account. For plots intended as standardized engineering drawings, docu ments, or films, the Final Rendering may be resolved by arranging the line weight, scaling, number of data, and other factors from a format predesigned to be compati ble with the current graphic design and reproduction requirements. In specialized drawings, brochures, documents, and film, considerable art work may be required for clarity or realism.«221 220 Fetter (1965): S. 8. Vgl. auch ebd., S. 23–24. 221 Ebd., S. 23.
141
142
Scheler: Computergrafik
In einem der letzten Kapitel seiner Monografie führt Fetter zahlreiche typische Anwendungsbeispiele seines computergrafischen Verfahrens an. Die Vielzahl an Beispielen verdeutlicht, welchen Umfang der Begriff des ›Final Renderings‹ hatte – einige der fertigen Bilder verwenden für die Darstellung unterschiedlicher Flugsituationen lediglich einfache Konturen (Abb. 43), andere schenken der Oberf lächenbeschaffenheit aller dargestellten Materialien besondere Aufmerksamkeit und sind überaus fein ausgearbeitet. Ihr Erscheinungsbild erinnert stilistisch an die fotorealistische malerische Strömung, die sich zur selben Zeit in den USA etablierte222 (Abb. 44 & 45). Zu der in Abbildung 44 gezeigten Grafik kommentiert Fetter: »For one illustration need, an artist heightened realism by carefully rendering the view of a low approach angle […].«223 Der Begriff des ›Final Renderings‹ wird im Bereich der Computergrafik gelegentlich auch heute verwendet und beschreibt zudem einen ähnlichen Vorgang, wie ihn Fetter schon zu seiner Zeit schildert. Exemplarisch lässt sich eine Parallele der damaligen ›Final Renderings‹ mit heutigen fertigen 3D-Computergrafiken etwa so herleiten: Damit der Künstler damals ein solches Bild erzeugen konnte, musste er zuvor aus der Gitterzeichnung des Computers ermitteln, welche Flächen in der Grafik andere verdecken, also welche sich im Vordergrund und welche sich im Hintergrund des Bildes befinden. Die parallelperspektivische Linienzeichnung eines Würfels in Abbildung 46 kann diese Problematik veranschaulichen. Während im linken Modell das Bild kippt und jede der beiden quadratischen Flächen jeweils Vorder- oder Rückseite des Würfels darstellen kann, wird bei dem mittleren sowie dem rechten Modell durch die Aussparung der entsprechenden Linien unmittelbar deutlich, dass sich – je nachdem welche Fläche als Vordergrund definiert wird – der Würfel im Raum jeweils anders verhält und welches Quadrat die Vorderseite bildet. Die unterschiedliche perspektivische Darstellung des mittleren und rechten Würfels erfolgt allein durch die Entscheidung, welche der drei Querlinien im Bild erhalten bleiben sollen, die drei rechts oben oder die drei links unten. Für ein ›Final Rendering‹ musste also zunächst einmal entschieden werden, welche Linien für die Darstellung der Objekte und ihrer Oberf lächeneigenschaften überhaupt benötigt werden. Fetter erläutert in seinem Paper Computer Graphics: »The hidden contour lines, also drawn by the computer, had to be removed manually.«224 Wie schon im Forschungsstand thematisiert, entstanden basierend auf dieser Problematik einige Jahre später – so auch in Utah – Ansätze für verschiedene ›Hidden-Line-Algorithmen‹, um den Entscheidungsprozess darüber, welche Oberf lächen den Vorder- und welche anderen den Hintergrund bilden, zu automatisieren und die Linien vom Computer eigenständig ausblenden zu lassen. Auch die in Utah erzeugten ›Final Renderings‹ greifen häufig die fotorealistische Bildsprache wieder auf.225 Anhand von Fetters historischem Beitrag zu der Entwicklung computergrafischer Beispiele wird ersichtlich, wo die beiden Darstellungsformen, also die ›Wireframes‹ und die ›Solids‹, ihren Ursprung haben. Mit dem Würfel konnte zudem veranschaulicht werden, warum Fetter die mit Oberf lächeninformationen versehenen ausgearbeiteten 222 Zu nennen sei hier beispielsweise Richard Estes oder auch Ralph Goings. 223 Fetter (1965): S. 59. 224 Fetter (1966): S. 19. 225 Kapitel 3.2 Opazität, Licht und Animation – Eine Strategie zur Umsetzung des gemeinsamen Ziels befasst sich ausführlich mit dieser Entwicklung.
Der Computer als kreativer Partner
Abb. 44: William A. Fetter, Illustration of CV A-59 landing rendered by an artist from computer plots, 1965.
Abb. 45: Richard Estes, Bus with Reflection of the Flatiron Building, 1966–1967, Öl auf Leinwand, 91,4 x 121,9 cm. © Richard Estes. Nachdruck mit freundlicher Genehmigung der Schoelkopf Gallery.
Abb. 46: eigene Grafik, Das Hidden-Line-Problem dargestellt anhand eines Würfels, 2021.
Illustrationen mit realistischer Bildsprache als ›klar‹ auffasst, wenngleich sie sich nicht dazu eignen, um Maß zu nehmen. Die Gegenüberstellung, die Fetter mit den beiden Formen von Zeichnungen vornimmt – also den perspektivischen und ›klaren‹ auf der einen und den technischen und präzisen auf der anderen Seite –, erscheint auf den ersten Blick schlüssig. Wirft man jedoch einen eingehenderen Blick auf die Begriffe, mit denen er die perspektivischen Grafiken beschreibt, wird deutlich, dass die Begriffswahl paradox erscheint. So geht aus Fetters eigenen schriftlichen Dokumentationen nicht hervor, warum eine technische Zeichnung, die zwar messbar ist, seiner Auffassung nach nicht auch wahrheitsgetreu ist. Er führt in diesem Zusammenhang
143
144
Scheler: Computergrafik
als Argument stets den menschlichen Sehapparat an. Die abstrakt erscheinenden technischen Zeichnungen, die in der Tat nur mithilfe einer vorangegangenen Schulung lesbar werden, entsprechen zwar womöglich nicht der Art und Weise, wie unsere Augen sehen, doch können sie prinzipiell gerade aufgrund ihrer präzisen und maßstabsgetreuen Darbietung ebenfalls den Anspruch der Wahrheit erfüllen – unabhängig davon, ob dieser Begriff als solcher tragfähig erscheint. Eine ähnliche Schlussfolgerung ließe sich auch für jeden der anderen von Fetter verwendeten Begriffe vornehmen, mit denen er die bunten perspektivischen Illustrationen beschreibt. In Ergänzung zu dem Begriff der ›clarity‹ und der von Marey geliehenen Bezeichnung der ›reliability‹ spricht er ebenfalls von »realism«226 und »credibility«227. Lediglich vor dem Hintergrund der kommunikativen Ebene, die für Fetter als Grafikdesigner die höchste Priorität besitzt, lässt sich nachvollziehen, weshalb er technische Zeichnungen nicht als zuverlässig oder glaubwürdig einstuft. Als problematisch erweist sich, dass Fetter für die meisten Begriffe keine Definition anführt. Lediglich in Bezug auf seine Wortwahl ›realism‹ lässt sich erahnen, welche Bedeutungsebene er damit verknüpft. In Bezug auf die Darstellung einer Flugzeuglandung formuliert er: »Further, a new approach was to be added to improve realism. It was felt that, the closer the display came to recreating the actual visual experience, the more the attention of the audience would be focused on the subject, rather than their being asked to inter pret a more symbolic representation.«228 Den Begriff des Realismus bezieht er demnach auf Bilder, die keiner Interpretation bedürfen, die also unmittelbar verständlich sind. Technische Zeichnungen lassen sich mit dieser Definition nicht umschreiben. Fetters Bezug zum menschlichen Sehapparat orientiert sich demzufolge offenkundig an diesem Gedanken der unmittelbaren Wahrnehmung, die keine Schulung voraussetzt. Zu vermuten ist, dass Fetter aus demselben Grund seinen Realismus-Begriff eng mit der Vorstellung von Glaubwürdigkeit verknüpft. Die Farbfotografie führt laut Fetter beide Konzepte in Reinform zusammen: »Color photography from a landing aircraft could provide a high degree of realism plus credibility.«229 Wenngleich aus heutiger Perspektive – vor allem vor dem Hintergrund digitaler Bilder – infrage zu stellen ist, ob Fotografien den Anspruch der Glaubwürdigkeit immer oder überhaupt erfüllen können, lässt sich anhand von Aussagen wie dieser nachvollziehen, weshalb mit dem neuen Verfahren der Computergrafik von Beginn an eine fotorealistische Darstellungsweise verfolgt wurde. Insbesondere in Gegenüberstellung mit der schwer zu erfassenden Form der technischen Zeichnung bot die fotorealistische Bildgestaltung effektivere Kommunikationsmöglichkeiten, auch für jene Menschen, die nicht unmittelbar an den technischen Facetten eines Produktionsprozesses beteiligt sind. Allein in dem Kontrast zur technischen Zeichnung erscheinen Fetters Schlussfolgerungen plausibel – ohne diesen Kontrast jedoch verlieren sie an Halt.
226 Fetter (1965): bspw. S. 23 und S. 62. 227 Ebd., bspw. S. 50. 228 Ebd., S. 62. 229 Ebd., S. 50.
Der Computer als kreativer Partner
Zusammenfassend lässt sich demnach herausstellen, dass Fetter mit seinen beiden Graphen, in denen er jeweils die Messbarkeit und die Lesbarkeit von Bildern thematisiert, den Begriffen des ›Realism‹ und der ›Credibility‹ eine neue Lesart verleiht, die zum ersten Mal ermöglicht, sich dem Sinnzusammenhang synthetischer Bilder anzunähern. Mit den Graphen gesteht sich Fetter ein, dass er das Prinzip der Maßstabs treue nicht als ein Kriterium für den ›Realismus‹ einer Darstellung begreift. Seine schematische Übersicht legt also offen, dass die perspektivischen Bilder Konstruktionen sind, aber eben welche, die uns Menschen vertraut sind. Auch in Zusammenhang mit Coons wird die Frage relevant, woher dieser Gedanke der Vertrautheit stammen könnte und inwiefern es sich hier um eine kulturelle Entwicklung handelt. Ähnlich wie Fetter setzt auch Coons die gewohnte Sehweise einfach voraus. Beide argumentieren hier vor dem Hintergrund der Vorstellung, es gäbe universell verständliche Bilder, womit sie sich gedanklich auf der Ebene befinden, die bereits in der Einführung zu Fetters Band von Edward C. Wells, dem Produktionsleiter der Boeing Company, eröffnet wurde. Paradoxerweise verleiht Fetter den konstruierten perspektivischen Bildern – allein aufgrund der Vertrautheit ihres Anblicks – das Prädikat der Glaubwürdigkeit. Vor dem Hintergrund dieser Zuspitzung ist es erstaunlich, dass er für die ›verlässliche‹ Informationsvermittlung im Bereich des Ingenieurswesens nicht etwa auf technische Darstellungen, sondern auf Illustrationen zählt. Charles A. Csuri konnte dieser fotorealistischen Bildsprache, die er ganz klar den Wissenschaften zuordnete, aus seiner eigenen künstlerischen Perspektive keinen besonderen Wert beimessen. Er äußerte sich zwar nicht zu den händisch gefertigten fotorealistischen Grafiken, die Fetter exemplarisch zeigt, doch ist anzunehmen, dass sie für ihn ähnlich uninteressant gewesen wären wie die späteren vollkommen am Computer erzeugten Grafiken, vergleichbar auch mit denen, die in Utah entstanden sind. Anhand dieser Äußerungen Csuris sowie der Auseinandersetzung mit Fetter zeichnet sich ab, dass die heutigen Computerbilder gedanklich nicht etwa Csuris bildsprachlichen Ansätzen, sondern der von Fetter beschriebenen Maxime der zentralperspektivischen Glaubwürdigkeit entsprechen, der zufolge mithilfe von Illustrationen in der Wissenschaft oder zumindest im Ingenieurswesen neue technische Phänomene greif bar und niedrigschwellig vermittelt werden sollten, obwohl sie rein technisch betrachtet keine korrekte Wiedergabe des Phänomens darstellen. Die Wahrheitstreue wird allein an den Grad der Vertrautheit, nicht aber an die Messbarkeit geknüpft. Computergrafiken sind also Bilder, die auf einer intuitiven Ebene verständlich sein sollen.230 230 Der Informatiker Alvy Ray Smith macht in seiner Biografie des Pixels ebenfalls die Beobachtung, dass es im Bereich der synthetischen Bilderzeugung eine Vorliebe für die Zentralperspektive gebe, und etabliert daher für sich den Begrif f des »Central Dogma«. Smith (2021): S. 7. Er führt die Ver wendung der Zentralperspektive allein auf die euklidische Geometrie zurück. Darüber hinaus seien die Bilder des Central Dogma später auch von der Simulation der physikalischen Realität geprägt gewesen, die für ihn auf die Gesetze der Newton’schen Physik zurückgehen. Einen Haupt grund für die realistische Bildsprache erkennt er in den frühen militärischen Ansprüchen, für den Bereich der Raumfahrt Bilder des Weltalls zu erzeugen, die als Wiedergabe der tatsächlichen Ge gebenheiten wahrgenommen werden sollten. Andere kulturelle Referenzen für die Bildgestal tung führt er nicht an, er weist allerdings ausdrücklich darauf hin, dass der Computer auch jede andere beliebige Bildästhetik erzeugen könnte. Gleichzeitig ist er jedoch – wie Fetter und viele andere der noch folgenden historischen Akteure – davon überzeugt, dass sich das Central Dog ma deshalb durchgesetzt habe, da es uns aufgrund unseres Netzhautbildes vertraut sei. Er bringt
145
146
Scheler: Computergrafik
Mit Fetter und dem Prinzip der Glaubwürdigkeitsmaxime konnten wesentliche Eigenschaften des Sinnzusammenhangs synthetischer 3D-Computergrafiken gedanklich hergeleitet werden. Problematisch ist an dieser Herleitung jedoch, dass Fetter selbst zu der Softwareentwicklung nicht beigetragen hat, weshalb seine hier dargelegten Vorstellungen die heutige Software und damit auch die heutigen Bilder noch nicht in direkter Weise prägen. Die Frage, wie seine Vorstellung von Bildlichkeit, also die Glaubwürdigkeitsmaxime, letztendlich als kulturelles Artefakt Einzug in die Software und damit auch in alle damit erzeugten Bilder erhält, ist deshalb noch offen. Ein Anhaltspunkt ergibt sich aus einem Blick zurück auf Sketchpad, denn anhand von Fetters Arbeitsweise wird deutlich, dass Sutherland auf gestalterische Bedürfnisse reagiert hat, die zunächst einmal aus dem Bereich der technischen Zeichnung hervorgehen und dabei nicht vorrangig die Arbeitsweise freier Künstler widerspiegeln. Der Einsatz von Sketchpad wäre – anders als für Csuri – gerade für Fetters gestalterische Arbeit also besonders gut geeignet gewesen. Da sich über Fetter selbst jedoch die Linie zu Sutherland nicht auf historischer Ebene ziehen lässt, muss die Frage danach, wie Fetters Bildvorstellungen überdauert haben, anders beantwortet werden, und zwar indem nun Steven Coons’ Beitrag zu den computergrafischen Entwicklungen untersucht wird. Er war ursprünglich – wie Fetter – technischer Zeichner im Flugzeugbau, weshalb es nicht überrascht, dass sich bei ihm ähnliche grafische Prinzipien herausarbeiten lassen und sich dort die Maxime der zentralperspektivischen Glaubwürdigkeit fortsetzt. Eine Ebene, die bei Coons neu hinzukommt, ist die Art und Weise, wie er über die Nutzung des Computers dachte. In der Auseinandersetzung mit dieser gedanklichen Ebene lässt sich endgültig auf klären, vor welchem Hintergrund sich der programmiersprachliche Paradigmenwechsel in Sutherlands Sketchpad ereignet hat. Mit Coons kann veranschaulicht werden, dass dieser Wechsel konzeptionell angelegt war, bevor Sutherland sein Programm entwickelte. Zudem wird die bildsprachliche Ebene bei ihm noch wesentlich anschaulicher als bei Sutherland selbst. Bei Coons treten erstmals die paradigmatischen technologischen Veränderungen in Verbindung mit den grafischen Vorstellungen, wie sie etwa auch Fetters Arbeit prägten. Coons ist demnach eine besonders zentrale Figur, die den Sinnzusammenhang heutiger 3DComputergrafiken in wesentlicher Form auszeichnet. Sutherlands Sketchpad ist in letzter Konsequenz lediglich eine praktische Ausformung einer Entwicklung, die bei Coons zuvor auf konzeptioneller Ebene stattgefunden hat.
z udem in seiner Monografie eine Verwunderung darüber zum Ausdruck, dass niemand jemals ex plizit die Entstehung dieser Norm reflektiert habe. Die in der vorliegenden Studie vorgenommene Auseinandersetzung mit C oons sowie die eingehende Untersuchung einzelner Akteure an der University of Utah kann allerdings aufzeigen, dass in der historischen Entwicklung synthetischer Bilder immer wieder Reflexionen zu unterschiedlichen perspektivischen Darstellungsmöglichkeiten vorgenommen wurden. Coons’ Vorstellungen gehen beispielsweise bewusst nicht auf Euklid zu rück. Gleichzeitig kommen – wie auch Smith – alle beteiligten Personen stets zu dem Schluss, dass das Netzhautbild die Zentralperspektive vorgebe. Vgl. Smith (2021): S. 279 und S. 327. Vgl. zudem bspw. Kapitel 2.3.1 Die Grafik als Gedankeninstrument sowie Kapitel 3.2.1.1 Objektive Gestaltungskriterien für Computergrafiken bei Gordon W. Romney in der vorliegenden Studie.
Der Computer als kreativer Partner
2.3
Steven A. Coons – Eine neue Zusammenkunft zwischen Mensch und Maschine
Man is quite good at inventing and organizing ideas, making associations among apparently unrelated notions, recognizing patterns and stripping away irrelevant detail; he is creative, unpredictable, sometimes capricious, sensitive to human values. The computer is almost exactly what man is not. It is capable of paying undivided attention to unlimited detail; it is immune to distraction, precise and reliable; it can carry out the most intricate and lengthy calcula tion with ease, without a flaw and in much less than a millionth of the time that would be required by its human counterpart. It is emotionless, or so we suppose. It suffers from neither boredom nor fatigue. It needs to be told only once; thereafter it remembers perfectly until it is told to forget, whereupon it forgets instantly and absolutely.231 – Steven A. Coons (1966)
In ihrer Studie Rigging the World: 3D Modeling and the Seduction of the Real hebt Rebecca Perry den Einf luss Steven Coons’ auf die Entwicklung der 3D-Computergrafik besonders hervor. Sie führt nicht nur in ihre gesamte Untersuchung mit einem Bezug zu Coons ein, sie wendet sich in einem Unterkapitel sogar eigens den Verquickungen zwischen Sutherlands und Coons’ jeweiliger Forschung zu – sie nennt es ›Steven Coons, Ivan Sutherland and Sketchpad‹.232 Perry bezeichnet Coons als eine »important but somewhat overlooked figure in computer graphics history«233. Diese Einschätzung ist stimmig, da Cardoso Llach, der sich mit Coons im Hinblick auf heutige Architektursoftware sehr eingehend befasst hat, seine Studie ein Jahr nach Perry veröffentlicht hat.234 Wie im Forschungsstand dargestellt, bildet Coons eine Art Weggabelung, von der aus sich Entwicklungen in der Architektur und im Bereich der 3D-Computergrafik nachzeichnen lassen. Obwohl Perry wichtige Verknüpfungen zwischen Coons und den heutigen 3D-Grafiken herausstellt, lassen sich ihre Erkenntnisse zu dieser historischen Person, die sich vor allem auf den Prozess des virtuellen Modellierens beziehen, im Hinblick auf die Bildlichkeit von 3D-Grafiken und die Softwareumgebung, in der sie entstehen, noch in erheblicher Weise ergänzen. Es lassen sich mehrere Gründe dafür herleiten, dass Coons lange eine so wenig prominente Stellung in der Geschichte der Computergrafik eingenommen hat. So schildert sogar sein Freund und Kollege Bertram Herzog in einer Trauerrede, die er zum Anlass von Coons’ Tod im Jahr 1979 vorgetragen hatte: »His nature was such that 231 Steven A. Coons: The Uses of Computers in Technology. In: Scientific American 215/3, 1966, S. 176–191, hier S. 177. 232 Vgl. Perry (2014): S. 5 233 Ebd., S. 10. 234 Aus der Danksagung Cardoso Llachs geht hervor, dass er sich mit Perry ausgetauscht hat. Vgl. Car doso Llach (2015): S. xxi.
147
148
Scheler: Computergrafik
many details about Steve Coons are not readily accessible for this occasion.«235 Über Coons war also selbst im Rahmen seines Umfelds wenig bekannt. So zeichnet auch Herzog ein Bild von Coons, das insgesamt einen zurückhaltenden oder unscheinbaren Eindruck hinterlässt. Wie zuvor dargestellt, war Coons seit Ende der 1940er Jahre im Fachbereich des Maschinenbaus am MIT tätig.236 Nachdem er sich dort zunächst als einfaches Fakultätsmitglied (faculty member) in die Hochschullehre einbrachte, wurde er im Jahr 1961 zum Associate Professor befördert.237 In dieser Funktion war er zudem Mitglied in Sutherlands Dissertationskomitee, während dieser sein Programm Sketchpad entwickelte. Dass Coons in dieser Weise Teil eines akademischen Umfelds sein würde, überrascht vor dem Hintergrund, dass er nie ein Hochschulstudium abgeschlossen hatte. Wie Herzog darstellt, hatte Coons als Student selbst nur kurze Zeit am MIT verbracht und sein Studium nach etwa einem Jahr wieder abgebrochen.238 Herzog hebt hervor, dass vielen dieses biografische Detail über Coons gar nicht bekannt war: »This was always most surprising to those of us who first met him under professional circumstances. He was often and mistakenly introduced as Dr. Coons. Steve would then quietly chuckle with close friends about his ›f lunking‹ out of MIT and reentering degreeless.«239 Obwohl er keinen Abschluss hatte, arbeitete er – bevor er ans MIT zurückkehrte – von 1940 bis 1948 als Ingenieur für die Vought-Sikorsky Aircraf t Corporation. Laut Herzog habe sich Coons dort darauf spezialisiert, komplexe Bauteile und Oberf lächen grafisch zu illustrieren, wodurch John T. Rule vom MIT auf Coons aufmerksam wurde und ihn als Hochschullehrer an seine ehemalige Ausbildungsstätte zurückholte. Rule war seit 1938 der Leiter des Graphics Departments zunächst als Associate Professor und seit 1947 mit einer vollen Professur.240 Coons blieb bis 1969, also beinahe 20 Jahre, am MIT und trat später an der Syracuse University eine Stelle als Professor an. Seine Anstellung an diesen beiden Universitäten wurde durch viele kürzere Forschungsaufenthalte an zahlreichen anderen US-amerikanischen Universitäten erweitert. So hielt er Gastvorträge an der University of Michigan, verbrachte ein Jahr an der Harvard University und ein weiteres an der University of Utah. Da die 235 Bertram Herzog: Eulogy Delivered at the Memorial Service of Steven A. Coons (22.08.1979). Syra cuse University Clipping Files, Steven A. Coons-Ordner, Syracuse, NY: Syracuse University Libraries, Special Collections Research Center, S. 1–4, hier S. 1. 236 Vgl. hierzu Kapitel 1.2.2 Die Praxis der 3D-Computergrafik aus historischer Perspektive – Ein Kurzüberblick in der vorliegenden Studie. 237 Vgl. The Tech (Hg.): 28 Faculty Members Receive Promotions. In: The Tech 81/6, 1961, S. 1. 238 Herzog nennt für diesen Zeitraum keine Jahreszahlen. Geboren wurde Coons im Jahr 1912, weshalb anzunehmen ist, dass er sein Studium am MIT Ende der 1920er Jahre aufnahm und es entweder noch vor dem Wechsel in das neue Jahrzehnt abgebrochen hat oder kurz danach. 239 Herzog (1979): S. 1. 240 Rule hatte selbst am MIT im Jahr 1921 einen Abschluss im Fach ›Science‹ erworben. Im Jahr 1936 wurde er am MIT als Assistant Professor für den Fachbereich des technischen Zeichnens eingestellt. Zwei Jahre später, im Jahr 1938, wurde er zum Associate Professor ebenfalls für den Fachbereich des technischen Zeichnens sowie für den Bereich der darstellenden Geometrie. Eine volle Professur erhielt er im Jahr 1947. Rules Forschungsinteresse galt der Entwicklung dreidimensionaler Darstel lungen, hier vor allem auch der Erstellung von stereoskopischen Zeichnungen, Fotografien und Fil men. Während des Zweiten Weltkriegs trug er seine Forschungserkenntnisse zu stereoskopischen Verfahren in den Bereich der Kampfsimulation. Vgl. The Tech (Hg.): Killian Names Rule to Head Course IX. Will Still Administer Graphics Department. In: The Tech 70/15, 1950, S. 1 und S. 4.
Der Computer als kreativer Partner
vorliegende Untersuchung im folgenden Abschnitt an den Entwicklungen dort ansetzt, ist die Verbindung zwischen Coons und Utah für den weiteren Verlauf der Studie besonders interessant. Herzog verweist nicht zuletzt auch auf Coons’ Tätigkeit als »photographic illustrator and color consultant«241 für den Verlag Ginn and Company, die er ebenfalls während seiner Anstellung am MIT ausübte. Die Einblicke, die Herzog im Rahmen seiner Trauerrede in Coons’ Leben gewährt, liefern für diese Studie wertvolle Hinweise. Anhand des wenig geradlinigen Werdegangs von Coons lässt sich die Vermutung äußern, dass er sein Leben nach eigenen Vorstellungen gestaltete und seine kreative Energie für die Umsetzung eigener Ideen nutzte, statt sich nach den gesellschaftlichen Konventionen oder Ideen anderer zu richten. Wenn also Coons wesentlich daran beteiligt war, die Art und Weise, wie heute 3D-Computergrafiken erzeugt werden, mitzugestalten, dann zeichnet sich nun ab, dass er dieser Entwicklung eine eigene Handschrift verliehen hat. Ziel ist es, herauszufinden, welche der heute noch vorhandenen Aspekte womöglich auf grundsätzlichen Ideen und Vorstellungen von Coons basieren. Aus inhaltlicher Perspektive mag eine mögliche weitere Begründung für Coons’ unscheinbare Rolle in der Geschichte computergrafischer Entwicklungen darin liegen, dass sein Beitrag erst von einem produktionsästhetischen Blickwinkel aus betrachtet augenscheinlich wird. Beide, Perry und Cardoso Llach, lassen sich hier ebenfalls einordnen, obwohl sie den Begriff der Produktionsästhetik nicht nutzen. Während Perry also vor allem die Teildisziplin des Modellierens im Blick hat, geht das vorliegende Kapitel nun der Frage nach, welche Rolle Coons auch auf übergeordneter Ebene für den gemeinsamen Sinnzusammenhang heutiger 3D-Computergrafiken spielt. Zunächst schließt die nun folgende Untersuchung Coons’ bei Perry an, denn auch sie schreibt Coons für die 3D-Computergrafik eine zentrale oder – um ihre Worte zu verwenden – eine sinnbildliche (emblematic) Rolle zu: »Coons’ approach is emblematic of the productive bridge between engineering and art that evolved and became a defining characteristic of the field of computer graphics. Coons’ thinking combined tacit knowledge and a tactile understanding of materials – an understanding acquired when he worked in an aircraft manufacturing company, and which augmented his formal training in draftsmanship at MIT. Evidence suggests that this type of thinking was critical to the path that computer graphics and 3D modeling took – the creation of interactive digital objects that combine virtual and physical realities.«242 Perry führt in ihrer Aussage einen Kunstbegriff an, dem in diesem Kapitel nachgegangen werden soll. Es geht dabei weniger darum, zu beurteilen, ob Coons eine valide künstlerische Auffassung hatte, als vielmehr darum, herauszufinden, mit welchen kulturellen Vorstellungen er an die grafische Arbeit mit dem Computer ging und auf welche Weise er damit auf die späteren Entwicklungen Einf luss nahm. Perrys Auseinandersetzung mit Coons fällt vor dem Hintergrund der prominenten Stellung, die sie ihm zuteilt, dennoch knapp aus. Für sie steht von vornherein nicht die Frage im Vordergrund, warum die Entwicklung der Computergrafik sich auf eine bestimmte Weise gestaltet hat – sie fragt also nicht nach ihrem Sinnzusammenhang. 241 Herzog (1979): S. 1. 242 Perry (2014): S. 11.
149
150
Scheler: Computergrafik
Vielmehr setzt Perry den Schwerpunkt bei der Frage, wie sich einzelne Entwicklungsschritte vollzogen haben. Sie stellt die geschichtlichen Schritte dar, als seien sie selbstverständlich und notwendig gewesen, um an dem Punkt anzugelangen, an dem wir uns heute befinden.243 Coons’ größter Beitrag für das von ihr untersuchte Phänomen der virtuellen Modelle habe vor allem darin gelegen, dass er – wie sich in ihrer vorigen Anmerkung andeutet – ein so umfassendes und taktiles Verständnis für die physische Beschaffenheit von Objekten mitbrachte: »His most valuable contribution to problems of digital representation may have been a tactile understanding of physical materials, possibly gained through his work on air craft surfaces. Coons added his voice, his drawings and his understanding and tacit knowledge of the craft of constructing physical objects to the discussion in the early days of 3D modeling and computer graphics research as it took shape in the 1960s.«244 Obwohl Perry Coons’ Sinn für Oberf lächenbeschaffenheiten in dieser Aussage vor allem auf seine Tätigkeit als Zeichner im Flugzeugbau zurückführt und sie hier nicht direkt darauf verweist, in welcher Weise er dieses Wissen weitergab, ist zu vermuten, dass sie als eines der Sprachrohre etwa sein Handbuch Graphics begreift, das er gemeinsam mit seinem Kollegen John T. Rule im Jahr 1961 veröffentlicht hat. Obwohl die Computertechnologie darin noch keine vordergründige Rolle spielt, hebt sie dieses Handbuch explizit hervor, da es ihrer Ansicht nach Coons’ Beitrag zur Geschichte der Computergrafik in besonderer Weise kennzeichnet. Im Gegensatz zu den anderen Lehrbüchern dieser Zeit habe dieses Nachschlagewerk dafür geworben, sich im Rahmen des Ingenieursstudiums auch in Techniken der Freihandskizzen zu üben. Um diesen Schwerpunkt des Handbuchs zu veranschaulichen, zeigt Perry eine Seite des Lehrwerks, auf der die Autoren Anweisungen für einen ›realitätsnahen‹ Zeichenstil erteilen (Abb. 47). Sie verweist allerdings darauf, dass in dem Buch keine Angaben darüber getroffen werden, wer von den beiden Autoren die Zeichnungen gefertigt hat. Dennoch, so formuliert es Perry, seien sie charakteristisch für Coons’ Denken.245 Sie begründet ihr Argument damit, dass zuvor eigenständig von Rule herausgebrachte Handbücher 243 Ihre folgende Aussage kann diesen Eindruck beispielhaft bestätigen: »The evolution of represen tational forms from diagrams and plans into visual displays of three-dimensional objects was prompted by the search for improved manufacturing methods. But it soon became evident that interactions that evoked the objects themselves, using compelling visualizations, were engaging on multiple levels, and involved many different modes of thought.« Perry (2014): S. 67. Perry erweckt hier den Eindruck, als habe die Suche nach verbesserten Herstellungsverfahren automatisch die Entwicklung von ›compelling visualizations‹, also in Übersetzung etwa von ›überzeugenden Visua lisierungen‹, evoziert. Die Bildästhetik, die sich demnach allmählich entwickelt hat, betrachtet sie offenbar als alternativlos. In einem weiterführenden Gedanken differenziert Perry zwischen zwei Feldern, die zur Entwicklung computergrafischer Verfahren beigetragen haben. Auf der einen Seite stehen diejenigen, die gezielt nach grafischen Darstellungsmethoden am Computer gesucht ha ben, auf der anderen Seite stehen jene, bei denen Bilder nur als Beiwerk entstanden sind, da sie eigentlich auf der Suche nach Verfahren waren, die die Bedienung des Computers erleichtern. Den noch stellt sie auch hier nicht die Frage, warum sich eine bestimmte Vorstellung von Bildlichkeit in dem Bereich entwickelt hat. Vgl. Perry (2014): S. 67. 244 Perry (2014): S. 58. 245 Vgl. ebd., S. 56.
Der Computer als kreativer Partner
Abb. 47: John T. Rule, Steven A. Coons, Fig. 5-21–5-23, 1961, Zeichnung.
zum selben Thema einen ganz anderen Charakter aufwiesen als das Lehrwerk, das er in Zusammenarbeit mit Coons entwickelte.246 Sie entdeckt in dem Handbuch einen Aspekt wieder, den sie auch zu Beginn ihrer Studie aufführt und den sie in direkter Weise mit Coons verknüpft. Wie angemerkt, führt sie gedanklich mit ihm in ihre Untersuchung ein – sie stellt dafür sogar ihrer gesamten Studie ein Zitat aus einem von Coons veröffentlichten Paper voran. Sie räumt Coons damit nicht nur eine zen trale Stellung ein, sie bringt damit auch zum Ausdruck, dass diese Aussage für sie sein Denken besonders treffend zu veranschaulichen vermag: »The design process begins with a graphical description of a proposed device or system to satisfy a human need. To say that the description is graphical is to assert that at the very inception of an idea the designer’s understanding of his creation is almost visceral instead of intellectual. He perceives his idea at first not in the perfection of a well-turned English word description, nor in the precision of a mathematical formula, but in some nebulous assembly of building blocks of structure, vaguely beheld; he ›feels‹ his crea tion. The sketch forms the natural bridge between these vague stirrings of the imagi nation and the subsequent precise statement of the refined details of the concept.«247 Das Bild, das Coons hier mit seiner Formulierung der ›natural bridge‹ zeichnet, greift Perry an verschiedenen Punkten ihrer Studie erneut auf.248 Die von Coons so bezeichnete 246 Perry verweist auf diesen Sachverhalt lediglich im Rahmen einer Fußnote. Vgl. Perry (2014): S. 57. 247 Steven A. Coons: An Outline of the Requirements for a Computer-Aided Design System. In: Proceed ings of the Spring Joint Computer Conference – AFIPS ’63. Hrsg. v. E. Calvin Johnson. New York, NY: ACM Press, 1963, S. 299–304, hier S. 300. 248 Vgl. Perry (2014): S. 10–11 und S. 57.
151
152
Scheler: Computergrafik
Transformation einer vagen Idee in ein greif bares Objekt bildet für Perrys Auseinandersetzung mit dem virtuellen Modell die gedankliche Basis. Um ihr Argument weiter zu stärken, dass Coons das Grafikhandbuch mit seinem Denken maßgeblich geprägt hat, zitiert sie eine Textstelle aus dem Handbuch, mit der eine überaus ähnliche Aussage getroffen wird, wie sie im oben angeführten Coons-Zitat ebenfalls zum Ausdruck kommt. In der Tat lässt sich durch einen Vergleich der Zitate der Schluss ziehen, dass nicht etwa Rule, sondern dass Coons für den Inhalt der folgenden Aussage maßgeblich verantwortlich ist oder dass sich beide Autoren in ihrem Denken zumindest sehr einig waren: »When an association is first made in the mind (when we get the first glimmer of an idea) it is usually vague and not clearly perceived. It is at this early stage in the creative pro cess that mankind has learned to use the sketch and the written symbol as aids to the thinker’s memory and imagination. These graphic devices, whether pictorial, diagram matic, or abstract (like words or algebraic symbols), enable us to make solid and tangible the shifting images of our minds, so that we may examine them at our leisure. Through this recording art we free ourselves of the effort to hold ideas in memory, an effort that we must constantly sustain lest as in a dream they change form and fade away.«249 Ähnlich wie im zuvor angeführten Textausschnitt kommt auch hier zum Ausdruck, dass Coons den grafischen Ausdrucksmitteln250 eine bestimmte Kraft beimisst, die in seinen Augen kaum ein anderes Ausdrucksmittel in gleicher Weise besitzt. Coons hatte jedoch auch sehr klare Vorstellungen davon, wie gezeichnet werden musste, um von dieser Kraft Gebrauch machen zu können. Diese konkreten Anweisungen beachtet Perry nicht. Obwohl also mit diesem von Coons gezeichneten Bild der ›natural bridge‹ zwischen Idee und Entwurf bereits eine bestimmte Vorstellung von Coons’ Denken vermittelt werden kann, beleuchtet Perry nicht tiefergehend, welche Merkmale für Coons eine gelungene Entwurfszeichnung konkret kennzeichnen. So setzt sie sich beispielsweise nicht mit seinen beziehungsweise Rules Zeichnungs-Anweisungen in ihrem eigenen Bildbeispiel auseinander. Ihre Beschreibung der Zeichnung beschränkt sich auf die folgende Beobachtung: »Coons and Rule present abstract mathematical constructs such as cones, cubes and spheres sketched with an artist’s lively line, as if drawn from life.«251 Die vorliegende Studie und insbesondere das folgende Kapitel setzt demnach bei der Frage an, was Perry unter einem ›lebendigen‹ künstlerischen Zeichenstil verstanden haben könnte, beziehungsweise welche Kriterien für Coons eine ›gute‹ Zeichnung ausmachten. Einen weiteren Aspekt, den Perry neben dem Handbuch explizit hervorhebt, der ebenfalls für sie Coons’ Einf luss besonders kennzeichnet, ist der von ihm entwickelte sogenannte ›Coons Surface Patch‹. Es handelt sich dabei um ein mathematisches Modell, das eine präzisierte und vereinfachte Beschreibung geschwungener Oberf lächen
249 Rule; Coons (1961): S. 66. 250 Coons und Rule zählen in ihrem Handbuch auch das geschriebene Symbol – also etwa Worte oder mathematische Zeichen – zu den grafischen Ausdrucksformen. Sie stellen in ihren Augen eine ab strakte Form des grafischen Ausdrucks dar. Vgl. Rule; Coons (1961): S. 66. 251 Perry (2014): S. 57.
Der Computer als kreativer Partner
virtueller Objekte ermöglichte.252 Anhand des ›Coons Surface Patches‹ wird zunächst einmal der Einf luss Coons’ etwas deutlicher als an seinen grafischen Ansätzen, die er im Handbuch zum Ausdruck bringt. So wurde 1983 – vier Jahre nach seinem Tod – aufgrund dieser so zentralen Entwicklung von ihm durch die ACM SIGGRAPH, eine der größten Konferenzen zur Computertechnologie, ein nach ihm benannter Preis ins Leben gerufen, der alle zwei Jahre an diejenigen verliehen wird, die im Bereich der Computergrafik besondere Errungenschaften hervorgebracht haben.253 Vor dem Hintergrund dieser Auszeichnung verwundert es, dass Coons neben Perrys Studie in anderen Geschichtsschreibungen zu den frühen computergrafischen Entwicklungen bislang kaum berücksichtigt wird. Mehrere Personen, die in dieser Studie eine zentrale Rolle spielen, haben die Auszeichnung erhalten – so etwa Sutherland als Erster im Jahr 1983, darauffolgend im Jahr 1985 der Franzose Pierre Bézier oder auch Edwin Catmull im Jahr 1993.254 Die Preisvergabe sagt jedoch noch nichts über den Einf luss aus, den Coons auf die Arbeit Sutherlands und Catmulls auch in direkter Weise ausübte. Wenngleich die Fokussierung auf Catmull erst später erfolgen soll, kann dennoch hier erneut hervorgehoben werden, dass dieser in seiner eigenen Dissertation im Jahr 1974 mit dem ersten Satz seiner Danksagung Coons explizit und in besonderer Weise hervorhebt: »I express my appreciation to Steve Coons who gave me considerable help in writing this report.«255 Catmull knüpfte in seiner Dissertation nicht nur gedanklich mit seinen mathematischen Berechnungen bei dem ›Coons Surface Patch‹ an, Coons war offenkundig auch aktiv in die Entwicklung von Catmulls Projekt eingebunden.256 In ihrer eigenen Argumentation, nach der Coons Sutherlands Arbeit an Sketchpad beeinf lusst habe, stützt sich Perry vor allem darauf, dass Sutherland in seiner Sketchpad-Dokumentation Coons mehrfach erwähnt. Um ihre Beobachtung zu stärken, zitiert sie Sutherlands Text: »Evidence suggests that Coons’ and Rule’s approach, of thinking with physical objects such as aircraft parts, influenced Sutherland’s design thinking. In the introduction to his dissertation he thanks, ›...Members [!] of the Mechanical Engineering Department, notably Professor Stephen A. Coons, who agreed to serve on my thesis committee [and who] suggested mechanical design problems and applications.‹ A discussion of dimen sioning and conics in the ›Examples‹ section also reflect Coons’ contributions.«257
252 Vgl. Perry (2014): S. 57. Ausgearbeitet hat Coons das Konzept im Rahmen einer Forschungsarbeit mit dem Namen Surfaces for Computer-Aided Design. Vgl. Steven A. Coons: Surfaces for Computer-Aided Design of Space Forms. Boston, MA: Massachusetts Institute of Technology, 1967. Häufig wird auf seine Studie auch unter dem Namen Little Red Book verwiesen. Vgl. Perry (2014): S. 257; vgl. Gaboury (2021): S. 94. 253 Vgl. ACM SIGGRAPH: Steven Anson Coons Award. Ohne Datum. URL: https://www.siggraph.org/ about/awards/steven-anson-coons-award/. Zugriff am: 12.12.2021. 254 Vgl. ACM SIGGRAPH (Ohne Datum). 255 Catmull (1974): S. [i]. 256 Zu dem Einfluss von Coons’ mathematischem Modell auf Catmulls Forschung äußert sich auch Robert Rivlin in seiner geschichtlichen Zusammenstellung zu den Entwicklungen der 3D-Compu tergrafik The Algorithmic Image. Vgl. Rivlin (1986): S. 55. Vgl. zudem Catmull (1974): S. [i]. 257 Perry (2014): S. 66. Perry zitiert hier aus Sutherland (2003): S. 30.
153
154
Scheler: Computergrafik
Wie im Falle der von Perry angeführten Beispiele zum Zeichenstil Coons’ arbeitet sie auch hier nicht in tiefergehender Weise heraus, mit welchen Vorstellungen und Konzepten Coons an seine Arbeit heranging. Wenngleich sich über diese hier von ihr angeführten Textstellen bei Sutherland zwar ein inhaltlicher Bezug zwischen ihm und Coons deutlich abzeichnet, wird bei Perry letztendlich nicht klar, in welcher Weise sich dieser Bezug gestaltete. In einer Fußnote liefert Perry einen Hinweis, der den Bezug zwischen Coons und Sutherland noch wesentlich anschaulicher machen kann. Sie zitiert hier aus der zuvor angeführten Trauerrede zum Anlass von Coons’ Tod. Herzog lässt darin Sutherland mit einem eigenen Text zu Wort kommen, den die beiden zuvor durch einen Briefwechsel ausgetauscht hatten. Was Perry ausklammert, ist, dass Sutherland sich mit seiner Aussage auf seine Zusammenarbeit mit Coons an der Harvard University bezieht, an der Sutherland im Anschluss an seine Zeit am MIT als Associate Professor in den Jahren zwischen 1965 bis 1968 forschte: »We are deeply saddened by the passing of our teacher and friend Steven Coons. We re call with joy the days sepnt [!] with Steve at Harvard: his work was central to our activity in three-dimensional computer graphics; his enthusiasm was fundamental to our progress; his openness and approachability provided a rare cameraderie [!] between generations; we still feel his influence.«258 Die Forschung an dem Sketchpad-System liegt zu dem Zeitpunkt von Sutherlands Aussage bereits über 15 Jahre zurück. Dass Herzog zu Coons’ Tod ausgerechnet Suth erland zu Wort kommen lässt, zeigt hierbei an, dass der Einf luss offenbar weit über die gemeinsame Zeit am MIT reichte. Obwohl Sutherland im Rahmen der Trauerrede selbst nicht auf seine Zeit am MIT und einen damals möglichen Einf luss durch Coons eingeht, kommt die Verbindung zwischen den beiden in der Trauerrede dennoch zur Sprache. Herzog selbst greift sie auf und liefert damit einen entscheidenden Hinweis für die damals am MIT erfolgte Zusammenarbeit zwischen Coons und Sutherland. In einer Passage, auf die Perry nicht Bezug nimmt, schildert Herzog: »About 1962 it became apparent that computers would be able to produce graphical images and, more important, to receive instruction from humans in human ways, i. e., one could sketch pictures which a computer could understand. Steve Coons was an important member of the thesis committee of Ivan Sutherland. The thesis is entitled Sketchpad – a scheme which clearly demonstrated this concept. Steve Coons advised on this hallmark achievement. More important, however, was Steve’s ability to perceive, and perceive very sharply, the significance of this achievement.« 259
258 Herzog (1979): S. 3. Den Brief, aus dem Herzog zitiert, verfasste Sutherland gemeinsam mit seinem Kollegen Robert F. Sproull. Über die Zeit, die Sutherland in Harvard verbracht hat, berichtet auch ein historischer Rückblick auf den Internetseiten des AR/VR-Studio der Harvard University (AR steht für Augmented Reality, VR für Virtual Reality). Vgl. Harvard innovation labs: AR/VR Studio. Harvard’s Role in the History of AR/VR. Ohne Datum. URL: https://innovationlabs.harvard.edu/arvr-studio/. Zugriff am: 13.05.2021. 259 Herzog (1979): S. 2.
Der Computer als kreativer Partner
Herzog führt nicht tiefgehender aus, welchen Aspekt des Sketchpad-Systems er selbst oder auch Coons als so bedeutsam einstufte. Er betont lediglich, Coons habe mit bemerkenswerter Wortgewandtheit in Form von Reden im In- und Ausland das Potenzial der damals neu auf keimenden Computergrafik angepriesen. Anstatt zu fokussieren, wie sich dieses Potenzial beschreiben lässt, hebt Herzog Coons’ Fähigkeit hervor, sprachlich sehr überzeugend gewesen zu sein: »His keen sensitivity could rapidly appraise the background of an audience. Then he would quickly relate the kernel of the notion of computer graphics to that audience in terms they easily understood.«260 Vor dem Hintergrund der Annahme, dass die dabei in Erscheinung tretenden Ergebnisse maßgeblich zu dem Blumenberg’schen Sinnzusammenhang heutiger 3D-Computergrafiken beitragen, ist es das Ziel der Auseinandersetzung mit Coons, herauszuarbeiten, was für ihn diesen von Herzog so bezeichneten ›Kern‹ der Computergrafik auszeichnete. Um Coons’ Fähigkeit zu veranschaulichen, mit der er das Potenzial der Computergrafik wortgewandt zur Schau stellte, eignet sich ein vom MIT eigens produzierter Fernsehbeitrag aus dem Jahr 1963 für das National Educational Television.261 Gleichzeitig lässt sich mit diesem Beitrag und den von Coons darin getroffenen Aussagen herleiten, wie die nachfolgenden Kapitel zu ihm aufgebaut werden, um seine Konzepte erschließen zu können. Thema des Fernsehbeitrags ist das Programm Sketchpad, wobei Suth erland lediglich erwähnt wird und nicht selbst zu Wort kommt. Zwei Personen sind in dem Beitrag zentral, sie stellen das von Sutherland entwickelte System vor: Steven Coons und Timothy Johnson. Johnson war zu jener Zeit ein Masterstudent am MIT, der aus Sutherlands 2D-Anwendung eine 3D-Variante entwickelte, mit der nicht etwa nur f lächige Schaltkreise, sondern auch dreidimensionale Objekte gezeichnet und dargestellt werden konnten. Sketchpad III, wie Johnson das Programm nannte, soll in der hier erfolgenden Auseinandersetzung mit dem Thema nicht in den Vordergrund gerückt werden. Obwohl Johnson mit seiner Programmversion zahlreiche Merkmale entwickelte, die auch heute noch in 3D-Anwendungen relevant sind, wird spätestens in der Auseinandersetzung mit Coons sichtbar, dass Johnson sich an Konzepten orientierte, die schon existierten, bevor er sie in den Computer überführte.262 Es ist deshalb zielführender, statt von Johnson die Konzepte direkt von Coons abzuleiten.263 Der berichtende Reporter im Fernsehbeitrag wendet sich an Coons, um mehr über das am Lincoln Laboratory des MIT verfolgte Forschungsvorhaben zur Kommunikation zwischen Mensch und Maschine zu erfahren. Er stellt Coons als Associate Professor sowie als Mitdirektor des sogenannten Computer Aided Design Project vor.264 In dem kurzen Gespräch zwischen dem Reporter und Coons werden zahlreiche für diese Studie sowie für dieses Kapitel zentrale Punkte angesprochen. In seinem Redebeitrag liefert Coons eine allgemeine und gedankliche Einführung in die Funktionsweise von 260 Ebd., S. 2. 261 MIT Science Reporter. Computer Sketchpad (USA 1964, R: Russell Morash). 262 Vgl. Timothy E. Johnson: Sketchpad III. Three Dimensional Graphical Communication With a Digital Computer. Masterarbeit am Institut für Maschinenbau, Cambridge, MA: Massachusetts Institute of Technology, MIT Libraries, 1963. 263 Dennoch wird Johnsons Arbeit in Kapitel 3.2 Opazität, Licht und Animation – Eine Strategie zur Umsetzung des gemeinsamen Ziels in der vorliegenden Studie eingehender beleuchtet. 264 Fitch (1964).
155
156
Scheler: Computergrafik
Sketchpad. Er selbst verweist in diesem Zusammenhang auf Sutherland, indem er ihn als Initiator von Sketchpad hervorhebt. Hierbei nutzt er zugleich die Gelegenheit, anzukündigen, worin der innovative Beitrag von Sketchpad in seinen Augen liegt. Anhand seiner Antwort lässt sich nachvollziehen, was Herzog in der Trauerrede damit gemeint haben könnte, wenn er Coons darin die Fähigkeit zuschreibt, die innovative Kraft von Sutherlands Arbeit präzise beschreiben zu können. Während Herzog nicht wiedergibt, was Coons als innovativ einstuft, gibt dieser im Fernsehbeitrag selbst darüber Aufschluss: »And you’ll see a designer, effectively, solving a problem step by step and he will not at the outset know precisely what his problem is. Nor will he know exactly how to solve it. But little by little he will begin to investigate ideas, and the computer and he will be in cooperation, in the fullest cooperation in this work.«265 Vor dem Hintergrund dieser Aussage lassen sich die Ergebnisse aus dem SutherlandKapitel in Erinnerung rufen. So konnte dort verdeutlicht werden, dass Sutherland ein Umdenken im Programmierprozess herbeiführte, das den Arbeitsprozess am Computer zugleich öffnete und einschränkte, da erstmals jemand anderes Programmfunktionen festlegte, die später nur noch abgerufen werden müssen. Coons geht im Fernsehbeitrag auch darauf ein, wie zuvor am Computer gearbeitet wurde. Er beschreibt damit die Arbeitsweise, die auch an Fetters Ansatz erinnert: »Well, the conventional way, the old way of solving problems with the computer, has been to understand the problem very, very well indeed and moreover to know at the very outset just exactly what steps are necessary to solve the problem. So, the computer has been in a sense nothing but a very elaborate calculating machine, but now we’re making the computer be more like a, almost like a human assistant and the computer will seem to have some intelligence. It doesn’t really, only the intelligence that we put in it. But it will seem to have intelligence.« 266 In der Auseinandersetzung mit Coons im Rahmen dieses Kapitels wird sich zeigen, woran Sutherland gedanklich mit Sketchpad anknüpfte. Es wird sich zeigen, dass er etwas ausformte und sichtbar machte, was Coons zuvor antizipiert hatte. Sutherland führte auf programmiersprachlicher Ebene eine umfassende Veränderung herbei, doch, so lautet die Annahme für dieses Kapitel, setzte er dabei eigentlich ein Konzept um, das in letzter Konsequenz nicht ihm selbst, sondern Coons und auch anderen Akteuren zuzuschreiben ist.267 Es ist demnach anzunehmen, dass er sich bei dieser Aufgabe zudem auch vom Bild- und Weltverständnis derjenigen leiten ließ, die vor ihm die Kommunikation mit der Maschine auf neue Weise angingen. Durch Sutherland hat sich also nicht nur technisch ein Konzept von Coons in die Maschine eingeschrieben, sondern in Form der vorprogrammierten Bausteine auch dessen Weltbild. Da sich 265 Ebd. 266 Ebd. 267 Vgl. bspw. Douglas C. Engelbart: Augmenting Human Intellect. A Conceptual Framework, Menlo Park, CA: Stanford Research Institute, 1962 Die Positionen und Konzepte Engelbarts werden im fol genden Kapitel aufgegriffen, wenn Coons’ softwaretechnische Überlegungen im Fokus stehen.
Der Computer als kreativer Partner
dieses Weltbild zum einen durch seine grafischen Vorstellungen mitteilt und es dort zum anderen auch heute weiter in Form der 3D-Bilder fortgeschrieben wird, ist es notwendig, diese grafischen Vorstellungen kennenzulernen. In der Auseinandersetzung damit wird deutlich, dass sich hier insbesondere zu Fetters Bildverständnis Parallelen ziehen lassen. Ähnlich also wie bei Fetter teilen sich die folgenden Ausführungen zu Coons in zwei große Themenbereiche. So wird sich der erste Teil damit befassen, welchen Stellenwert das grafische Ausdrucksmittel für Coons hatte und welche Kriterien seiner Auffassung nach für eine gelungene grafische Darstellung notwendig sind. Der zweite Teil thematisiert Coons’ Forschungsbeiträge im Bereich Computer Aided Design (CAD). In diesem Zusammenhang wird deutlich, welches Verständnis Coons für die Nutzung des Computers hatte und wie er seine Vorstellung von Grafik in die Arbeit mit dem Computer, beziehungsweise umgekehrt, welche Vorstellung vom Computer er in seine Arbeit mit grafischen Methoden einbringt. Beide Felder im Zusammenhang vermögen einen Einblick in sein Weltverständnis zu gewähren, das anschließend durch Personen wie Sutherland oder auch Edwin Catmull den Weg in die Bilderlandschaft synthetischer 3D-Grafiken gefunden hat. Coons’ Weltverständnis trägt in ausschlaggebender Weise zum gemeinsamen Sinnzusammenhang der 3D-Computergrafiken bei. Ziel dieses Kapitels zu Coons ist es also, eine Basis herauszuarbeiten, auf der nicht nur alle weiteren in dieser Studie vorgestellten historischen Entwicklungen auf bauen, sondern an die auch die Argumentationslinie dieser Untersuchung anknüpfen kann.
2.3.1 Die Grafik als Gedankeninstrument Wie angekündigt, dient dieses Kapitel dazu, Coons’ Verständnis einer gelungenen Grafik beziehungsweise seine Auffassung von Bildlichkeit tiefergehend kennenzulernen und zu analysieren. Als Grundlage eignet sich hierfür das in der Einführung dieses Kapitels genannte gemeinsam mit Rule 1961 verfasste Handbuch Graphics. Die Auseinandersetzung mit den von Coons aufgestellten Kriterien für eine gelungene Grafik erfolgt vor dem Hintergrund der Annahme, dass diese Kriterien bis heute den Sinnzusammenhang synthetischer Computergrafiken im Wesentlichen prägen. Die Ergebnisse dieses Kapitels ermöglichen deshalb, in den nachfolgenden Abschnitten dieser Studie zu erkunden, auf welche Weise Coons’ Überzeugungen Einzug in die Computertechnologie erhalten haben. Rule und Coons vertreten mit ihrem Handbuch eine ähnliche Grundhaltung wie Fetter – auch sie sind davon überzeugt, dass Grafiken sich in besonderer Weise dazu eignen, Ideen und Konzepte zu kommunizieren. Deutlich wird dies an einem Leitgedanken, den die Autoren zu Beginn ihres Handbuchs vorstellen. Sie bezeichnen darin das grafische Zeichnen als Gedankeninstrument268 und knüpfen damit an einen Aspekt an, den Perry – wie dargelegt – als Kern von Coons’ Denken herausarbeitet. Laut Perry steht für Coons stets die Vorstellung im Mittelpunkt, ein Gefühl oder eine vage Idee in ein handfestes und greif bares Konzept zu überführen, um Gedanken oder auch diffuse Überlegungen festzuhalten. Auch in dem gemeinsam mit Rule verfassten Handbuch wird dieser Impuls formuliert: 268 Vgl. Rule; Coons (1961): S. v.
157
158
Scheler: Computergrafik
»Just as we use pencil and paper and set down figures to aid us when we multiply two large numbers, so the sketch is an aid to the mind, a tangible record of an idea, at first perhaps elusive and only dimly perceived. We fix the idea and make it permanent in the sketch, and we can then marshal our critical forces to test it and our creative forces to refine and develop it.«269 Ausgehend von diesem Verständnis für grafische Arbeit bezeichnen die Autoren alternativ zu ihrem Begriff des ›Gedankeninstruments‹ die Skizze auch als »memory device«270. Während Fetter deutlich macht, grafische Kommunikation sei oft noch wesentlich effektiver und eindeutiger als beispielsweise schriftliche Kommunikation, lässt sich bei Rule und Coons erkennen, dass sie die Sprache als gleichwertiges Ausdrucksmittel betrachten. Sie sei ebenso ein Gedankeninstrument wie die Grafik. Laut den beiden Autoren gebe es insgesamt sogar drei verschiedene solcher Instrumente – die »extended symbols« der Sprache, die »compact symbols« der Mathematik sowie den Bereich, den sie schlicht »graphics«271 nennen. Mit allen dreien ließe sich – wenn auch auf unterschiedlichem Wege – dasselbe Ziel verfolgen: »Each of these instruments permits three modes of manipulation of ideas: creation, or the formation of an initial concept; analysis, or the systematic evaluation and criticism of the concept; and communication, or the comprehensible transmission of the refined and elaborated concept to others. These three instruments are equally powerful and equally necessary, and the scope of the intellect is limited in proportion to limitations in any one of them.«272 Obwohl die Autoren mit dieser Aussage also herausstellen, dass sich alle drei Gedankeninstrumente gleichermaßen dazu eignen, Konzepte zu formulieren und sie zu kommunizieren, verfolgen sie mit ihrem Handbuch das Anliegen, die Spezifika und Vorzüge des dritten Feldes, der Grafik, herauszuarbeiten. Ein wesentlicher Aspekt ist hier der im vorigen Zitat von den Autoren angeführte Begriff der ›tangibility‹ – der Greif barkeit. Am Ende dieses Kapitels erfolgt eine präzise Auseinandersetzung damit, welche Bedeutung der Begriff für Rule und Coons hat. Bevor sie in ihre Instruktionen einsteigen, weisen sie darauf hin, dass ihr Handbuch nicht dazu gedacht ist, Studierende in allumfassender Weise zum Entwurfszeichnen auszubilden, sondern dass sie vielmehr das übergeordnete Anliegen verfolgen, den angehenden Ingenieuren eine Vorstellung davon zu vermitteln, welche Art von Denken für das Aufgabenfeld eines Entwurfszeichners notwendig sei. Ohnehin stelle jede Industrie unterschiedliche Anforderungen, weshalb etwa für die Automobilbranche andere Detailkenntnisse benötigt würden als im Bereich des Flugzeug269 Ebd., S. vi. Um jederzeit bereit zu sein, eine Idee auf die im Zitat beschriebene Weise festzuhalten und greifbar zu machen, empfehlen die Autoren, stets einen Stift bei sich zu tragen – sei es einen Bleistift, einen Kugelschreiber oder auch einen Füller. Wichtig sei es zudem, zu lernen, ohne ein Ra diergummi zu zeichnen. Es folgen noch weitere Anweisungen wie diese, unter anderem sogar eine Hilfestellung zum richtigen Anspitzen des Bleistifts. Vgl. Rule; Coons (1961): S. 67. 270 Rule; Coons (1961): S. vi. 271 Ebd., S. v. 272 Ebd., S. v.
Der Computer als kreativer Partner
baus.273 Gleichzeitig wiesen die Grafiken, die für unterschiedliche Fachbereiche erstellt werden, jedoch grundlegende Gemeinsamkeiten auf. Sie zu kennen, ist für die Autoren wesentlich. Insbesondere der letzte Satz in ihrem Vorwort verdeutlicht die zentrale Bedeutungsebene, auf der sie ihre Abhandlung platzieren: »The ultimate educational goal of this text is to provide the student with an awareness of and some familiarity with the third instrument of thought, graphics. Then, when in later professional life he is confronted with an entirely new unsolved problem, he will have an augmented advantage over nature.« 274 Die Autoren bringen hier ihre Überzeugung zum Ausdruck, dass dem Gedankenin strument der Grafik unabhängig von der fachbezogenen Ausformung ein gemeinsamer Sinnzusammenhang zugrunde liege, wenngleich sie selbst mit diesem Begriff nicht arbeiten. Ein sehr zentrales Element dieses Sinnzusammenhangs, das sich anhand dieser von Rule und Coons getroffenen Aussage herleiten lässt, ist deren grundsätzliche Haltung, die sie gegenüber dem Prozess des ›Denkens‹ einnehmen. Zu denken bedeutet für die Autoren, sich einen Vorteil in einer unbekannten Situation zu verschaffen, wobei die Disziplin der Grafik in ihren Augen hierfür ein besonders geeignetes Mittel darstellt. Obwohl sich nicht vollständig entschlüsseln lässt, was es für Rule und Coons konkret bedeutet, einen ›erweiterten Vorteil gegenüber der Natur‹ zu besitzen, und sie auch den Begriff der Natur nicht definieren, lässt sich dennoch die Deutung ihrer Aussage dahingehend zuspitzen, dass die Autoren das menschliche Denken als etwas betrachten, das außerhalb der Natur liegt und das sich ihr deshalb überordnen lässt. Auch der Gedanke der Greif barkeit lässt sich hiermit in Verbindung bringen – implizit kennzeichnet der Begriff einen Vorgang, mit dem etwas Diffuses, Ungebändigtes – etwa die Natur – handhabbar gemacht wird. Die Frage für dieses Kapitel lautet deshalb, wie diese grundsätzliche Haltung sich bei Rule und Coons in grafische Ausdrucksweisen übersetzen lässt. Wie sich anhand ihrer Gliederung ablesen lässt, fassen sie mit dem Begriff der ›Grafik‹ sehr unterschiedliche Arten zu zeichnen zusammen – auch hier lassen sich in direkter Weise Parallelen zu Fetter erkennen, denn ähnlich wie dieser treffen auch Coons und Rule eine grundsätzliche Unterscheidung zwischen den präzisen technischen Zeichnungen und perspektivischen Illustrationen. Da sie mit ihrem Handbuch eine andere Zielgruppe bedienen als Fetter mit seinen Dokumentationen, lässt sich bei Rule und Coons wesentlich vielschichtiger herausarbeiten, welche Kriterien beide Darstellungsformen erfüllen müssen. Sie geben anders als ihr Kollege auch praktische Handlungsanweisungen für die Fertigung der unterschiedlichen Zeichnungen, welche sich für die vorliegende Studie als besonders ertragreich erweisen. Die Autoren ergänzen die Anweisungen zudem durch eine metaref lexive Ebene, auf der sie darlegen, warum sie bestimmte Regeln aufstellen – sie legen erheblichen Wert darauf, herauszustellen, dass sie ihre Anweisungen nicht als Dogmen verstehen. Sie erkennen darin ihr Alleinstellungsmerkmal gegenüber anderen Lehrbüchern:
273 Vgl. ebd., S. v-vi. 274 Ebd., S. vii.
159
160
Scheler: Computergrafik
»In the past most graphics texts concentrated on the communication phase, as though the design of a machine consisted only in drawing it in final form according to estab lished rules and conventions. This is an incomplete treatment of graphics and leaves a good two-thirds of the subject submerged. In this volume, the chapters devoted to the formalities of communication – that is, the chapters on dimensioning, sectioning, fasteners, and the like – set forth only the most important rules but with an explanation of the reasons for these rules. Rules by themselves seem entirely arbitrary to a beginner, and since this book will be read by critical and inquiring minds, it is essential that the rules be explained on a logical basis (so far as one exists) and not merely stated as ele ments of dogma.«275 Wie die Autoren in dieser Aussage verdeutlichen, führen sie metaref lexive Kommentare hauptsächlich in jenen Kapiteln an, die sich mit formalen Regeln zur Erzeugung technischer Zeichnungen befassen, also dem ersten der beiden zeichnerischen Hauptfelder. Doch auch im zweiten Feld, dem der perspektivischen und – wie Fetter sagen würde – verständlicheren Illustration zeichnet sich ab, dass die Autoren klare Vorstellungen vom grafischen Entwurfsprozess besitzen, deren Einhaltung sie für den Zweck der Kommunikation als wesentlich ermessen. Sie legen die Beweggründe für diese Vorstellungen jedoch kaum explizit offen. Wenn deshalb die Autoren wie im oben angegebenen Zitat die Regeln für die technischen Zeichnungen selbst als ›willkürlich‹ bezeichnen,276 solange sie nicht erklärt werden, erscheinen im Kontrast dazu gerade ihre Vorstellungen für die perspektivischen Illustrationen als besonders willkürlich. Einzelne Hinweise lassen sogar die Deutung zu, dass sie sich über diesen inneren Widerspruch ihres gedanklichen Ansatzes bewusst sind: »Perhaps the hardest concept for the beginner to grasp is the need of adhering to con ventions in drawing. In any form of symbolic communication, we depend strongly upon well-established forms which are familiars of our experience. Drawings have a gram mar (or perhaps more accurately, an idiom) which is better established and more filled with implicit meaning than we might suspect at the beginning. When we study the de tails of these conventions, we should carry in mind the reader and his needs. He is by long experience (as we have said before) trained to read and interpret not only what is put on the drawing, but how it appears there, and a substantial part of the meaning of the drawing is conveyed in this implicit way.«277
275 Ebd., S. v. 276 Beispielhaft wird etwa in der folgenden Beschreibung deutlich, dass die Autoren bestimmte Regeln nicht nur aufstellen, sondern dass sie darüber hinaus auch minutiös erklären, weshalb die Richt linien, um die es ihnen geht, existieren: »The assembly drawing (and copies of the original layout drawing, too, if necessary) are next turned over to detailers, who make separate drawings of each of the constituent parts, excluding, of course, the standard items that may be purchased. These detail drawings are for the use of machinists (and in the case of castings, for the use of patternmakers), and they must contain accurate dimensional information. Machinists and patternmakers are accus tomed by years of experience to having this information presented to them in a certain formal and conventionalized way. Since these conventions are rather complicated, we shall devote a chapter to them later on.« Rule; Coons (1961): S. 4. 277 Rule; Coons (1961): S. 8. Herv. i. O.
Der Computer als kreativer Partner
Ohne konkret zwischen den beiden grundsätzlichen Typen von Zeichnungen zu unterscheiden – den technischen oder den illustrativen – kennzeichnen sie die grafische Darstellungsmethode hier klar als eine symbolische Ausdrucksform. Die Regeln für diese Symbolik würden hierbei auf Konventionen beruhen, und wenngleich Rule und Coons andeuten, die überlieferten Traditionen eingehend zu studieren, geben sie zugleich preis, dass es aufgrund der kommunikativen Ebene, also dem Betrachter gegenüber, wichtig sei, die Regeln einzuhalten – neue Herangehensweisen würden einer gelungenen Kommunikation im Wege stehen. Ihr Spielraum, diese Konventionen also wirklich tiefgreifend zu hinterfragen und womöglich neue Regeln zu erschaffen, ist damit eingeschränkt. Diesen Umstand, eine symbolische Kommunikationsebene einhalten zu müssen, betrachten die Autoren jedoch nicht als ein Hindernis, sondern als Erfordernis. Das eigene Bewusstsein der Autoren für die Symbolik der Grafiken erinnert an Erwin Panofskys Aufsatz Die Perspektive als »symbolische Form«278, doch aufgrund der Haltung der Autoren, die Symbolik als Erfordernis zu betrachten und nicht als ein kontingentes Phänomen, zeichnet sich schon jetzt ein klarer Widerspruch zu Panofsky ab. Im späteren Verlauf dieses Kapitels wird diese Diskrepanz erneut thematisiert, indem konkret einige der zeichnerischen Anweisungen von Rule und Coons vor der Folie Panofskys untersucht werden. Gemäß Rule und Coons sollen also Grafiken entstehen, die nicht nur Konventionen aufgreifen, sondern die diese zugleich auch selbst zum Ausdruck bringen, um vor allem auf der Ebene der Vermittlung besonders zuverlässig zu funktionieren. Ihre Ausführungen beziehen sich demnach nicht nur auf die Rolle des Zeichners, sondern auch auf die Rolle des Betrachters. Aus diesem Grund betonen Rule und Coons auch explizit, dass es nicht nur für den Zeichner von elementarer Bedeutung ist, die zeichnerischen Konventionen zu kennen, sondern dass dies ebenfalls für alle am Kommunikationsprozess beteiligten Personen gelten sollte. Sie begründen diese Überlegung mithilfe eines Beispiels aus dem Arbeitsalltag des Ingenieurszeichners: »As the work progresses, the designer will have on paper an increasingly clear and more and more detailed study of the device. When he is quite certain of its form, a confer ence is usually called in which representatives of management, sales, engineering, and styling (if such a division exists in the company) get together to discuss the merits and shortcomings of the proposed design. It is, of course, necessary for the drawings and pictures of the machine to be clear and understandable, and for various conferees to be able to visualize the machine from these drawings. This naturally makes it desirable for everyone concerned to have some training in graphics.«279 Mit dieser Darstellung sprechen die Autoren eine ähnliche Problematik an, die auch für Fetter zentral war, denn wie im Kapitel zu ihm herausgearbeitet wurde, misst er gemäß der Glaubwürdigkeitsmaxime den perspektivischen Illustrationen auch deshalb einen so hohen Stellenwert bei, da sie seiner Ansicht nach einfacher und intuitiver zu verstehen sind als die technischen Zeichnungen, für deren Verständnis es einer 278 Vgl. Erwin Panofsky: Die Perspektive als »symbolische Form«. In: Erwin Panofsky: Aufsätze zu Grund fragen der Kunstwissenschaft. Hrsg. v. Hariolf Oberer und Egon Verheyen. 2. Auflage. Berlin: Wis senschaftsverlag Volker Spiess, 1998, S. 99–167. 279 Rule; Coons (1961): S. 3.
161
162
Scheler: Computergrafik
Schulung bedarf. In der Aussage von Rule und Coons zeichnet sich also endgültig ab, dass die grafische Kommunikation in ihren Augen misslingen kann, wenn nicht alle einen Erfahrungsschatz derselben Regeln teilen. Die Regeln als solche stellen sie in keiner Weise infrage. Jede Grafik, die demzufolge nach den Anweisungen von Rule und Coons erzeugt wird, reproduziert deshalb die Konventionen aufs Neue und damit auch die implizite Bedeutungsebene, von der die Autoren sprechen. Führt man diesen Gedanken weiter, so lässt sich jetzt erstmals herleiten, dass auch die 3D-Computergrafik, da sie sich geschichtlich mit Coons in Verbindung bringen lässt, die von ihm als wertvoll erachteten Konventionen mit jedem neuen Bild fortschreibt. Um genauer nachzuvollziehen, welche Konventionen hier weitergetragen werden und sich als gemeinsamer Sinnzusammenhang in den heutigen Bildern manifestieren, ist es ein Hauptanliegen dieses Kapitels, ein tieferes Verständnis sowohl für die Konventionen als auch für die implizite Bedeutungsebene, die damit zum Ausdruck kommt, zu gewinnen. Ähnlich wie Rule und Coons es formulieren, lautet hierbei die Vermutung, dass die Bilder sich besser lesen lassen, wenn auch der Rezipient zumindest grundlegende Kenntnisse über die Konventionen besitzt. Oder um diesen Gedanken zuzuspitzen und in Übereinstimmung mit dem Hauptanliegen dieser Studie zu bringen: Die Vermutung lautet, dass sich der Sinnzusammenhang heutiger 3D-Computergrafiken ausschließlich dann vollumfänglich erfassen lässt, wenn die Tradition, aus der die Grafiken entstanden sind, bekannt ist. In diesem Sinne sollen in diesem Teil der Untersuchung nun deshalb vor allem diejenigen Anweisungen fokussiert werden, die die Autoren für den Bereich der illustrativen Freihandskizze aufführen, also für jene Zeichnungen, für die die besonders willkürlichen, impliziten Regeln gelten. Da es den Autoren für dieses Feld schwerer fällt, ihre Regeln zu hinterfragen, liegt den nachfolgenden Überlegungen dieses Kapitels die Annahme zugrunde, dass insbesondere diese Grafiken, also die perspektivischen Illustrationen, durch ein Weltbild beziehungsweise durch kulturelle Einf lüsse geprägt sind, die heute den Sinnzusammenhang der 3D-Grafiken noch immer auszeichnen. Diese Einf lüsse lassen sich nicht so unmittelbar identifizieren und begründen wie die Regeln für die technischen Zeichnungen, die ja vor allem gewährleisten sollen, ein Bauteil oder Objekt präzise herstellen zu können. Zum Verständnis des Sinnzusammenhangs der heutigen 3D-Bilder erscheint es deshalb relevanter, sich nicht vorrangig mit den Regeln zur Fertigung solch technischer Zeichnungen zu befassen, sondern vielmehr mit den symbolisch aufgeladenen zeichnerischen Konventionen, die Rule und Coons vorrangig für die perspektivischen Zeichnungen herleiten. Auch aus bildästhetischer Perspektive lässt sich diese Fokussierung begründen, denn die heutigen Grafiken folgen in der Regel perspektivischen Prinzipien. Angemerkt sei dennoch, dass sich der Sinnzusammenhang heutiger 3D-Grafiken aus beiden Feldern speist – also dem der perspektivischen Illustration sowie dem der technischen Zeichnungen. Während also für die bildästhetische Ausformung insbesondere die perspektivischen Anweisungen interessant sind, nehmen auf einer produktionsästhetischen Ebene daneben auch die technischen Anweisungen eine nicht unerhebliche Rolle ein. Zahlreiche Hinweise zur Fertigung technischer Zeichnungen überdauern in der heutigen Software.280 280 Einige dieser technischen Aspekte des grafischen Zeichnens von Plänen zur Fertigung von Bauteilen werden im dritten Teil der vorliegenden Studie erneut aufgegriffen. Vgl. S. 202–205.
Der Computer als kreativer Partner
Für die präzise Auseinandersetzung mit den zeichnerischen Konventionen, an die Rule und Coons anknüpfen und die sie mit ihrem Handbuch vermitteln wollen, werden nun insbesondere zwei Kapitel aus dem umfangreichen Lehrwerk herangezogen: Kapitel 5 ›Freehand Sketching‹ und Kapitel 16 ›Pictorial Drawing‹.281 Beide sind thematisch miteinander verwandt, denn sie befassen sich auf je unterschiedliche Weise mit verschiedenen Möglichkeiten, perspektivische Zeichnungen anzufertigen. Das übergeordnete Ziel beider Kapitel ist es, neben den technischen zeichnerischen Verfahren, die die Produktion von Bauteilen gewährleisten müssen, ein zusätzliches illustratives Darstellungsverfahren zu vermitteln, das entweder – wie eingangs erwähnt – dazu zum Einsatz kommen kann, die Ideenfindungsphase grafisch zu begleiten oder um die Gestaltung eines Bauteils in Ergänzung zu den oft abstrakten technischen Zeichnungen zu veranschaulichen: »Projections which permit easy visualization of objects are called pictorial views.«282 Häufig verwenden die Autoren mehrere Bezeichnungen für dasselbe Phänomen. Die ›pictorial views‹ bezeichnen sie deshalb gelegentlich ebenfalls als »space Sketches«283 oder auch als »pictorial projection«284. In der Einleitung zu ihrem 5. Kapitel merken die Autoren an: »This book, and particu larly this chapter, is devoted to the diagrammatic and pictorial aspects of the graphic art.«285 Die Begriffe ›diagrammatic‹ und ›pictorial‹ werden im Folgenden jeweils mit schematisch und illustrativ übersetzt. Anzumerken sei hier, dass die Autoren den Begriff ›diagrammatic‹ in ihrem Handbuch nur an zwei Stellen verwenden, beide im Rahmen des 5. Kapitels.286 Im Kontext anderer Abschnitte des Handbuchs nutzen die Autoren allerdings häufig die Bezeichnung »diagram«287. Anhand von Bildbeispielen wird ersichtlich, dass die Autoren von Diagrammen sprechen, wenn es sich um schematische Darstellungen zur Veranschaulichung etwa von Verhältnissen auf der einen Seite oder um die Darstellung von Maßen auf der anderen Seite handelt – in zahlreichen Bildbeispielen werden beide Darstellungsformen in Kombination verwendet, wobei insbesondere die Diagramme zur Veranschaulichung häufig auch perspektivisch gezeichnete Elemente enthalten.288 Die ›pictorials‹ sind hingegen ausnahmslos perspektivisch gefertigt, wobei hierfür verschiedene perspektivische Verfahren zur Verfügung stehen, auf die im folgenden Absatz erneut Bezug genommen werden soll. Die Illustrationen dienen dazu, wie bereits erwähnt, technische Entwürfe anschaulich zu gestalten. Sie sind häufig aufwändiger ausgearbeitet als die perspektivisch anmutenden Diagramme, wie es beispielsweise die Abbildung 48 beweist, in der Rule und Coons anhand eines quaderförmigen Bauteils die Fertigung einer isometrischen Zeichnung vorführen. Die Absicht für die perspektivischen Illustrationen ist demzufolge eine aufwändigere und 281 Vgl. Rule; Coons (1961): S. 66–91 und S. 231–246. 282 Ebd., S. 231. Herv. i. O. 283 Ebd., bspw. S. 39. 284 Ebd., S. 78. 285 Ebd., S. 67. 286 Vgl. ebd., S. 66 und S. 67. 287 Ebd., bspw. S. 223. Rule und Coons differenzieren vereinzelt auch Untergattungen von Diagram men, wenn sie etwa Begriffe wie alignment diagram oder nomogram anführen. Bei diesem Begriffs paar handelt es sich um denselben Diagrammtyp, für den jedoch zwei gebräuchliche Bezeichnun gen zur Verfügung stehen. Vgl. hierzu Rule; Coons (1961): bspw. S. 314. 288 Vgl. Rule; Coons (1961): bspw. S. 223 und S. 292.
163
164
Scheler: Computergrafik
zudem eine ähnliche wie die, die Fetter mit seinen beiden Graphen beschrieben hat (Abb. 42). In Kapitel 5 leiten die Autoren ihre Überlegungen zur Fertigung der unterschiedlichen Typen von Zeichnungen ideell und konzeptionell her, es ist daher besonders aufschlussreich für die vorliegende Studie. In Kapitel 16 hingegen steht die konkrete Praxisübung im Vordergrund. Hier werden schrittweise präzise zeichnerische Anweisungen erteilt. Einige Erkenntnisse lassen sich auch aus dieser praxisbezogenen Perspektive für den weiteren Verlauf dieser Studie ableiten. Alle Darstellungsformen, die im Rahmen der beiden Kapitel vorgestellt werden, fassen die Autoren unter dem Begriff der »pictorial projection«289 zusammen. Sie bezeichnen damit unterschiedliche Zeichenverfahren, die jeweils einen anderen Ansatz perspektivischer Projektion verfolgen. Rule und Coons teilen die verschiedenen Verfahren hierbei grundsätzlich in zwei Kategorien auf, einerseits solche, die parallelperspektivisch, und andererseits solche, die zentralperspektivisch erzeugt werden. Zur ersten Kategorie zählen sie das »oblique pictorial«290, in Abbildung 49 links zu sehen, sowie die sogenannten trimetrischen, dimetrischen und isometrischen Zeichnungen. Diese Darstellungsformen besitzen im Gegensatz zu der Zeichnungsform der zweiten Kategorie, dem sogenannten »perspective pictorial«291, keinen Fluchtpunkt, weshalb jegliche Linien, die die Tiefe eines Objekts anzeigen sollen, im Rahmen der ersten Gruppe nicht aufeinander zulaufen (Abb. 49). Wie Fetter treffen auch Rule und Coons in Bezug auf die unterschiedlichen Darstellungsformen Aussagen zum Grad ihres jeweiligen Realismus’. So seien die tri-, di- und isometrischen Zeichenverfahren »[s]omewhat more realistic«292 als beispielsweise das »oblique pictorial«293 In Übereinstimmung mit ihrem Kollegen Fetter bezeichnen jedoch auch Rule und Coons die letzte Kategorie, das »perspective picture«, als »most realistic«294. In Kapitel 5 nehmen sie mit dieser Aussage Bezug auf eine Zeichnung mit zwei Fluchtpunkten, in Kapitel 16 wiederum auf eine Zeichnung mit nur einem Fluchtpunkt.295 Aus diesen beiden sich ergänzenden Hinweisen lässt sich insgesamt ableiten, dass die zweite Kategorie der ›perspective pictorials‹, bei der nicht nur eine perspektivische Verkürzung, sondern auch eine Verjüngung der Fluchtlinien erfolgt, sowohl für Rule und Coons als auch für Fetter die realistischste Darstellungsoption von Objekten ermöglicht. In Kapitel 16 erfolgt jedoch zugleich der Hinweis, dass für den Zweck der Veranschaulichung häufig dennoch gar nicht die perspektivischen Darstellungen zum Einsatz kommen, weil sie in keiner Weise messbar seien: 289 Ebd., S. 78. 290 Ebd., S. 78. Herv. i. O. 291 Ebd., S. 79. 292 Ebd., S. 78. 293 Ebd., S. 78. Herv. i. O. Bei einem Würfel, der auf diese Weise gezeichnet wird, wäre eine Seite des Würfels frontal zu sehen, während die Hinterseite des Würfels mit denselben Maßen dargestellt wird, dabei jedoch zum Beispiel leicht zur Seite und nach oben verschoben platziert wird. Die je weiligen Eckpunkte der Vorder- und Rückseite werden mit parallel zueinander verlaufenden Linien verbunden. Da die Vorder- und Rückseite des Würfels dieselben Maße besitzen, verjüngen sich die Fluchtlinien nicht, weshalb es sich streng genommen nicht um Fluchtlinien handelt. (Vgl. auch Abb. 46 in der vorliegenden Studie.) 294 Rule; Coons (1961): S. 78. 295 Vgl. ebd., S. 78–79 und S. 240.
Der Computer als kreativer Partner
Abb. 48: John T. Rule, Steven A. Coons, Fig. 16-7–16-8, 1961, technische Zeichnung.
Abb. 49: John T. Rule, Steven A. Coons, Fig. 5-22–5-23, 1961, Zeichnung.
»Judicious orientation of an object can yield an orthographic projection which is not only an acceptable pictorial view, but is also easier to construct and to measure than a perspective projection. Such projections are consequently much more commonly used in engineering practice than are perspectives when pictorial views are desired.«296 Mit den orthografischen Ansichten, die Rule und Coons hier ansprechen, bezeichnen sie die oben erläuterten obliquen, iso-, di- und trimetrischen Zeichnungen, die alle ohne Fluchtpunkt konstruiert werden können. Ähnlich wie Fetter kommen sie hier zu dem Schluss, sie seien etwas messbarer als die Darstellungen mit perspektivischer Verzerrung. Gleichzeitig zeigt ihre Formulierung an, dass ihnen bewusst ist, inwiefern alle diese Formen von Zeichnungen Konstruktionen sind. Dennoch knüpfen sie ebenso wie Fetter ihren Realismusbegrif f eng an die f luchtpunktgestützten Perspektivdarstellungen. Ausgangspunkt für diese Argumentation ist für sie, wie es für Fetter und seine Maxime der zentralperspektivischen Glaubwürdigkeit gleichermaßen gilt, der menschliche Sehapparat. Während Fetter keine Auskunft darüber gibt, wie er zu dieser Einsicht gelangt, lässt sich die Überzeugung Rules und Coons’ anhand ihres Handbuchs herleiten. Wenngleich sie im Ergebnis in Übereinstimmung mit Fetter zu bringen sind, nähern sich Rule und Coons in wesentlich umfangreicherer und selbstkritischerer Weise an ihre Behauptung an als ihr Kollege. Veranschaulichen lässt sich dies an dem im 5. Kapitel des Handbuchs angeführten Unterabschnitt »What we know and what we see«297. Rule und Coons wenden sich darin explizit der menschlichen Sicht aus physiologischer und wahrnehmungstheoretischer Perspektive sowie unter Berücksichtigung zeichnerischer Konventionen zu. Kurz: Sie befassen sich mit der Frage nach dem gelernten Sehen, der auch Panofsky in seinem Aufsatz Die Perspektive als »symbolische Form« nachgeht. Der Abschnitt enthält die entscheidenden Hinweise zur ›Grammatik‹ von Grafiken und deren ›impliziter Bedeutungsebene‹, auf die Rule und Coons selbst verweisen und die oben bereits angeführt wurden. 296 Ebd., S. 231. 297 Ebd., S. 67.
165
166
Scheler: Computergrafik
Sie eröffnen den Abschnitt mit der Frage, was ein Kind zeichnen würde, würde man es darum bitten, ein Haus oder auch ein Glas Wasser darzustellen. Sie machen hier sogar eigene gezeichnete Vorschläge, wie solche Skizzen aussehen könnten (Abb. 50), und kommentieren ihre Versuche folgendermaßen: »At first glance, these drawings seem distorted, as in truth they are. But upon examina tion, we see that they are mixtures of what the child sees and what he thinks (or knows) about the true shapes of the two objects. He draws the front of the house as though he were standing in front looking at it and seeing what he knows to be the true shape of angles and true proportions of lines; then the side of the house also has a true shape, and it is only natural to try to tell the truth by drawing it so. Paradoxically, a good draw ing is more naïve and at the same time more sophisticated than the drawings made by a child.«298 Besonders deutlich wird hier, dass es den Autoren um einen Wahrheitsanspruch geht, den es gilt, mit grafischen Darstellungen einzufangen, und den sie insbesondere den perspektivischen Zeichnungen zuschreiben. Denn obwohl sie zeigen, dass auch ein Kind das, was es zeichnet, für wahrheitsgetreu hält, sehen sie den richtigen Weg in der perspektivischen Zeichnung, weshalb sie diese als ›gute Zeichnung‹ bezeichnen. Obwohl sie sich dabei sogar eingestehen, dass eine solche Darstellung prinzipiell ›naiver‹ sei als die Kinderzeichnung, legen sie anhand von zwei solcher ›guten Zeichnungen‹ schließlich dar, wie es ›richtig‹ geht – hierbei zeigt die eine Darstellung ein Haus mit zwei Fluchtpunkten und die andere eine einfache Freihandskizze eines perspektivisch verzerrten Glases, dessen Boden und Öf fnung jeweils als Ellipse dargestellt sind (Abb. 50). Zuletzt erfolgt noch ein Hinweis darauf, dass keiner der beiden Ansätze – also der des Kindes und der ›richtige‹ – die tatsächliche Geometrie eines Hauses oder Glases wiedergeben. Doch warum ist laut Rule und Coons die perspektivische Darstellung für den menschlichen Wahrnehmungsapparat einfacher zu verstehen und weshalb halten die Autoren sie für fortgeschrittener als die Kinderzeichnung? Sie begründen ihre Unterstellung damit, dass wir gelernt haben, die perspektivischen Verzerrungen in unserem Geist in geometrische Formen, die wir im Raum wahrnehmen können, zu übersetzen: »For instance, the retinal elliptical image of the top of the drinking glass is interpreted quite automatically into a circle. It is ›seen solid.‹ The geometrical interpretation into three dimensions is so well learned, so unconscious, and so instantaneously auto matic that it is difficult to produce on paper the halfway point of perception, the copy of the retinal image that occurred before our minds took over and interpreted the image into an intellectual space concept of reality in agreement with what we have learned to know.« 299 Wie aus dieser Aussage hervorgeht, beschreiben die Autoren einen intellektuellen und erlernten Vorgang des Sehens. Sie bringen dabei das Zeichenkonzept der Zentralperspektive in Übereinstimmung mit unserem Netzhautbild und bleiben damit der 298 Ebd., S. 68. 299 Ebd., S. 68.
Der Computer als kreativer Partner
Abb. 50: John T. Rule, Steven A. Coons, Fig. 5-1–5-4, 1961, Zeichnung.
Glaubwürdigkeitsmaxime treu. Auch Panofsky bezieht in seinem Aufsatz Die Perspektive als »symbolische Form« Überlegungen zur Zentralperspektive und einen möglichen Zusammenhang dieser mit unserem Netzhautbild ein. Er kommt jedoch zu einem entgegengesetzten Ergebnis: »Diese ganze ›Zentralperspektive‹ macht, um die Gestaltung eines völlig rationalen, d. h. unendlichen, stetigen und homogenen Raumes gewährleisten zu können, still schweigend zwei sehr wesentliche Voraussetzungen: zum Einen [!], daß wir mit einem einzigen und unbewegten Auge sehen würden, zum Andern [!], daß der ebene Durch schnitt durch die Sehpyramide als adäquate Wiedergabe unseres Sehbildes gelten dürfe. In Wahrheit bedeuten aber diese beiden Voraussetzungen eine überaus kühne Abstraktion von der Wirklichkeit (wenn wir in diesem Falle als ›Wirklichkeit‹ den tat sächlichen, subjektiven Seheindruck bezeichnen dürfen). Denn die Struktur eines un endlichen, stetigen und homogenen, kurz rein mathematischen Raumes ist derjenigen des psychophysiologischen geradezu entgegengesetzt […].« 300 In seinem Aufsatz macht Panofsky sich zur Aufgabe, darzulegen, inwiefern die Zentralperspektive nur eine von vielen verschiedenen Möglichkeiten ist, eine bildliche Darstellung zu konstruieren. Mit seiner Aussage zur psychophysiologischen Wahrnehmung und schon mit dem Titel seines Aufsatzes nimmt Panofsky Bezug auf Ernst Cassirers Studie Philosophie der symbolischen Formen, II (Das mythische Denken) und seine darin zum Ausdruck gebrachte Gegenüberstellung des mathematischen Raums zu dem »Raum der unmittelbaren Wahrnehmung«301. Cassirer argumentiert, dass die Art und Weise, wie wir Räume subjektiv wahrnehmen, sich nicht in Übereinstimmung mit der mathematischen Beschreibung von Räumen bringen lässt. Während diese sich als homogen bezeichnen lassen können, sei die unmittelbare Wahrnehmung inhomogen. Cassirer gelangt deshalb zu dem Schluss: »Der homogene Raum ist daher niemals der gegebene, sondern der konstruktiv er zeugte Raum – wie denn der geometrische Begriff der Homogenität geradezu durch das Postulat ausgedrückt werden kann, daß von jedem Raumpunkte aus nach allen Or ten und nach allen Richtungen gleiche Konstruktionen vollzogen werden können.«302 300 Panofsky (1998): S. 101. 301 Ernst Cassirer: Philosophie der symbolischen Formen. Zweiter Teil. Das mythische Denken. Ham burg: Meiner, 2002, S. 99. 302 Ebd., S. 99.
167
168
Scheler: Computergrafik
Cassirer hält obiger Beschreibung Rules und Coons’ entgegen, dass es im »Raum der unmittelbaren Wahrnehmung […] keine strenge Gleichartigkeit der Orte und Richtungen«303 gebe. Eine Gegenüberstellung seiner Beobachtungen mit den Annahmen Coons’ und Rules führt daher zu dem Ergebnis, dass die technischen Zeichner – Fetter eingeschlossen – vorschnell die Zentralperspektive mit unserem Netzhautbild gleichsetzen. Auch der Wahrheitsanspruch, den sie an solche Zeichnungen haften, greift vor dem Hintergrund Panofskys und Cassirers nicht mehr. Die den zentralperspektivischen Illustrationen zugrunde gelegte Maxime der Glaubwürdigkeit schwebt demnach ohne Fundament in der Luft, oder anders ausgedrückt: Sie ist eine reine Konstruktion. Panofsky spitzt Cassirers Beobachtungen zudem weiter zu. Er weist darauf hin, dass die mathematische Konstruktion stets davon ausgehe, wir würden die Umgebung mit nur einem Auge betrachten, das noch dazu stillstehe. Dass unsere Augen jedoch immer in Bewegung sind, würde von der homogenisierten mathematischen Zentralperspektive ebenso wenig berücksichtigt wie die Tatsache, »daß dieses Netzhautbild – ganz abgesehen von seiner psychologischen ›Ausdeu tung‹, und abgesehen auch von der Tatsache der Blickbewegung, – schon seinerseits die Formen nicht auf eine ebene, sondern auf eine konkav gekrümmte Fläche projiziert zeigt, womit bereits in dieser untersten, noch vor-psychologischen Tatsachenschicht eine grundsätzliche Diskrepanz zwischen der ›Wirklichkeit‹ und der Konstruktion (und selbstverständlich auch der dieser letzteren ganz analogen Wirkungsweise des Photo graphieapparates) gegeben ist.« 304 Rule und Coons berücksichtigen die Tatsache nicht, dass das Netzhautbild im Gegensatz zu der planen Fläche einer Perspektivzeichnung gekrümmt ist, und für sie spielt auch die subjektive ›psychophysiologische‹ Raumwahrnehmung keine Rolle. Sie liegen mit dieser Annahme klar im Widerspruch zu Panofsky, denn dieser verweist sogar darauf, dass bereits in der Renaissance ein Bewusstsein für die »Diskrepanz zwischen Netzhautbild und planperspektivischer Darstellung«305 existierte. Auch vermerkt Panofsky, dass unsere Augen aufgrund der Krümmung der Netzhaut gerade Linien »als (vom Bildzentrum aus betrachtet konvex gekrümmte) Kurven«306 wahrnehmen. Rule und Coons bewegen sich mit ihren Überlegungen vorrangig in dem Bereich, den Cassirer als homogen bezeichnen würde, also dem mathematischen Raum. Dies gilt für alle von ihnen vorgestellten Formen von Zeichnungen. Die Ebene der menschlichen Wahrnehmung und der mathematischen Übersetzung dieser in ein Bild weist für Rule und Coons keine Unterschiede auf oder umgekehrt formuliert, die menschliche Wahrnehmung betrachten sie nicht als ein subjektives Phänomen, sondern vielmehr als eines, das sich mathematisch präzise beschreiben lässt. Wie oben angemerkt kommen sie aufgrund dieser Grundeinstellung zu dem Schluss, das ›perspective pictorial‹ sei am realistischsten. Es entspräche nicht nur dem Netzhautbild, sondern ebenfalls dem der Kamera:
303 Ebd., S. 99. 304 Panofsky (1998): S. 102. 305 Ebd., S. 103. 306 Ebd., S. 103.
Der Computer als kreativer Partner
»The best visual picture is given by a photograph which is a perspective projection. Such a perspective produces exactly the same retinal image, geometrically speaking, if the eye is placed at the center of projection, as the object itself would have produced. Thus a perspective projection is as nearly as possible the same as viewing the object itself in space.«307 Cassirer würde kritisieren, dass Rule und Coons mit ihrer mathematischen Sicht auf die menschliche Wahrnehmung den Aspekt der ›psychophysiologischen‹ Sicht außer Acht lassen. Diese mathematische Sichtweise von Rule und Coons ist es jedoch, die sie dazu veranlasst, der Zentralperspektive einen Wahrheitsanspruch zu attribuieren. Denn das Argument, die Betrachtung einer zentralperspektivischen Zeichnung unterscheide sich kaum noch von der Betrachtung eines physisch anwesenden Gegenstandes, lässt sich nur anführen, wenn die psychophysiologischen Merkmale der menschlichen Sicht unbeachtet bleiben. Immerhin ref lektieren die Autoren, dass ihre Schlussfolgerungen aus geometrischer Perspektive erfolgen; ob sie jedoch zu einem anderen Schluss kämen, würden sie einen anderen Blickwinkel einnehmen, bleibt offen. Obwohl nun geklärt werden konnte, warum Rule und Coons die ›perspective pictorials‹ als besonders realistisch auffassen, wird deutlich, dass sich ihre Auffassungen mithilfe der Argumente Panofskys sowie derjenigen Cassirers in Zweifel ziehen lassen. Auch Rule und Coons selbst liefern in zahlreichen Textpassagen Anhaltspunkte, die sich mit Panofsky und Cassirer in Übereinstimmung bringen lassen, weshalb sich die Autoren – zugespitzt formuliert – an diesen Punkten im Widerspruch zu ihren eigenen Überzeugungen befinden. So weisen sie etwa in Bezug auf die Perspektivzeichnungen selbst darauf hin, dass, um tatsächlich den Eindruck eines physisch im Raum anwesenden Gegenstands zu erzielen, unser Auge stillhalten muss. Um ihr Argument zu veranschaulichen, bringen sie erneut die menschliche Sicht und die Kameralinse in Bezug zueinander: »You will achieve a perspective pictorial if you keep your eye fixed (at one point only) and trace the object on the glass. Note that this is the sort of picture a camera takes.«308 Neben der Anweisung, das Auge für eine gelungene Perspektivzeichnung stillzuhalten, sprechen die Autoren zudem vom Auge im Singular. Es ist nicht anzunehmen, dass sie die Studierenden damit tatsächlich dazu auffordern wollten, sich ein Auge zuzuhalten, doch auch unabhängig davon, wie genau sich die Autoren den Vorgang vorstellen, wird deutlich, dass sie ein formalisiertes und in keiner Weise intuitives Sehverhalten beschreiben. Ihre sterilen Anweisungen, wie wir unsere Augen für eine gelungene Perspektivzeichnung zum Einsatz bringen, stehen ihrer Vorstellung von der Skizze als intuitivem Gedankeninstrument konträr gegenüber. Für die Autoren entsteht hier allerdings kein Widerspruch. Der geometrische Blick scheint für sie ihren eigenen Anspruch an die menschliche Intuition zu erfüllen. 307 Rule; Coons (1961): S. 231. 308 Ebd., S. 79. Sie verweisen an mehreren Stellen in ihrem Handbuch darauf, dass der Blick sich nicht bewegen darf, um erfolgreich ein zentralperspektivisches Bild zu zeichnen – so auch in den folgen den Anweisungen: »If we stand on the ground and place our glass window in front of us, our view to the distant horizon at ground level is substantially horizontal, and holding our eye still, we can trace this horizon on the glass or picture plane at eye level. We can also trace the scene on the glass, and the retinal image produced by the drawing will, geometrically, exactly coincide with the image produced by the scene itself […].« Rule; Coons (1961): S. 85.
169
170
Scheler: Computergrafik
Auch in weiteren Handlungsanweisungen lassen sie außer Acht, dass unsere Sicht durch das Zusammenspiel zweier Augen erzeugt wird. Stattdessen erinnern ihre Hinweise an Albertis Sehpyramide oder an die Funktionsweise einer Camera obscura: »The rays of light from an object to the eye are in effect projectors which pass through the optical center of the eye’s lens and are focused on the retina. Imagine looking at a scene through a glass window. If you photographed the scene from the position of the eye, you could enlarge the picture to the proper size and paste it on the window so that the projectors from every point in the scene would pass through the image of the same points on the picture and into the eye. Thus geometrically, the picture would produce exactly the same image on the retina as the scene itself. Obviously such a projection is the most realistic of all forms of pictorial projections.« 309 Erneut lässt sich hier ableiten, dass Rule und Coons ihren Realismus-Begriff an ein mathematisches Bildmodell knüpfen, das aus ihrer Perspektive zudem gleichermaßen für unsere Augen und für die Kameralinse gilt. Doch der Brückenschlag zwischen Netzhautbild und Zentralperspektive erscheint nicht nur vor der Folie Panofskys widersprüchlich. Er ist auch vor dem Hintergrund der von den Autoren eigens angeführten Kinderzeichnungen nicht schlüssig, denn sie selbst gestehen sich damit immerhin ein, dass der zentralperspektivische Zeichenvorgang nicht auf natürliche Weise aus unserer Hand f ließt. Mit ihrer Begründung versuchen sie diesen Widerspruch aufzulösen: So behaupten sie, der Mensch würde immerzu vergessen, wie das eigene Netzhautbild eigentlich aussehe, da unser Gehirn alles direkt in räumliche Eindrücke übersetze. Als Lösung schlagen sie deshalb vor, sich in Erinnerung zu rufen, dass sich in unserem Auge alles als plane Fläche abbildet, um von dort aus das Zeichnen zu erlernen. Auch bei einer planen perspektivischen Zeichnung müsse man sich zunächst in Erinnerung rufen, dass es sich nicht um dreidimensionale Objekte handele und dass sich die räumliche Wahrnehmung nur in unserem Kopf ereigne: »This, and not manual skill, is the most difficult obstacle for the beginner to overcome.«310 Zentralperspektivisch zu zeichnen ist für Rule und Coons demnach nicht in erster Linie an einen Lernprozess des Handwerks geknüpft, sondern an einen Lernprozess, der das eigene Sehen betrifft. Weder ein Anfänger noch ein Kind hätten demzufolge ein Bewusstsein für diese Vorgänge. So lässt sich hier schlussfolgern, dass die Autoren von einem gleichgeschalteten intuitiven Sehverhalten bei allen Menschen ausgehen – sofern sie ein Bewusstsein für ihre eigene Intuition entwickelt haben. Mit ihren Hinweisen auf die Kinderzeichnungen hebeln sie jedoch ihre eigene Gedankenkonstruktion selbst aus, denn gerade anhand dieses Beispiels ließe sich ebenfalls das gegenteilige Argument ableiten, dass die intuitive Sicht jedes Menschen sehr individuell ist und dass Kinder ihre Zeichnungen lediglich deshalb nicht nach spezifischen zeichnerischen Konstruktionsprinzipien fertigen, da sie diese noch nicht verinnerlicht haben. Dass der menschliche Wahrnehmungsapparat durch erlernte Konzepte wie etwa die Perspektivzeichnungen sowie durch kulturell vermittelte Traditionen gelenkt wird und sich deshalb verändern kann, schließen Rule und Coons offenbar aus – obwohl sie selbst das Argument der Konventionen und Traditionen anführen. 309 Rule; Coons (1961): S. 240. 310 Ebd., S. 69.
Der Computer als kreativer Partner
Unstimmigkeiten in der Argumentation von Rule und Coons zeigen sich darüber hinaus auch in Hinweisen, die die Betrachtung perspektivischer Zeichnungen betreffen – im Kontrast zu ihren Anweisungen, die sich auf die Fertigung von Perspektivskizzen beziehen. Ihre Beobachtungen lassen sich beinahe vollkommen mit Panofskys Position in Übereinstimmung bringen, jedoch ziehen sie gänzlich andere Schlüsse und Konsequenzen daraus als dieser: »In a perspective picture it is possible to look along all projectors at once. This happens when the eye is placed in the position from which the picture was drawn – the center of projection. In this position there is no distortion of the object at all. By this we mean simply that the retinal image is the same as it would be if we were actually looking at the object. As we move to some other viewing position, the image becomes more and more distorted, but we are not greatly aware of this distortion over an acceptably large area around the center of projection, because the geometrical differences between the reti nal images made by the incorrectly viewed picture and retinal images made by real ob jects are second-order differences that do not easily catch the attention of the mind.«311 Abermals ziehen die Autoren hier eine Brücke zum Netzhautbild und erneut liefern sie selbst Anhaltspunkte, nach denen sich das vermeintliche Netzhautbild eigentlich nur unter ganz spezifischen Voraussetzungen einstellt – etwa, wenn wir unsere Augen nicht bewegen, und auch nur dann, wenn wir einen ganz bestimmten, nämlich mittigen Blickwinkel zum Bild einnehmen. Mithilfe einer schematischen Darstellung veranschaulichen sie ihre Vorstellungen zum Betrachten eines Bildes (Abb. 51). Gezeigt wird in Vogelperspektive ein Würfel sowie etwas unterhalb davon ein Punkt, der den Standort einer potenziellen Beobachtungsposition kennzeichnet. Eine zwischen diesem Punkt und dem Würfel eingezeichnete waagerechte Linie deutet in der Draufsicht die Bildf läche an, auf der sich eine Zeichnung des Objekts aus der Beobachtungsperspektive befinden würde. Links und rechts vom Würfel werden zudem auf der Linie zwei Fluchtpunkte markiert, die für eine Zeichnung des Würfels aus dieser spezifischen Beobachtungsposition zum Einsatz kommen würden. Unterhalb dieser Darstellung wird nun angezeigt, wie die Zeichnung des Würfels aus der Perspektive der eingezeichneten Person aussehen würde, wenn die markierten Fluchtpunkte planmäßig zur Konstruktion verwendet würden. Dargestellt ist hier nicht nur der Würfel selbst, auch die Fluchtlinien werden präsentiert. Die Autoren verweisen schließlich darauf, dass ein Betrachter dieser Zeichnung nun, wolle er einen wahrheitsgetreuen Eindruck vom Würfel erhalten, theoretisch die in der Vogelperspektive gekennzeichnete Entfernung zwischen Betrachter und Würfel einnehmen und sich damit also etwa 5 Zentimeter vor der Buchseite platzieren müsste. Gleichzeitig gestehen sie sich ein, dass dieser Umstand so eigentlich nur möglich sei, wenn wir eine Linse zur Verfügung hätten, die mithilfe der richtigen Brennweite die geringe Distanz zwischen Beobachter und Bild kompensiert. Ohne Linse, bei einer Betrachtungsdistanz von etwa 20 bis 25 Zentimetern zur Buchseite, würde der Würfel zwar etwas tiefer erscheinen, als er sei, »but even so its appearance is quite realistic.«312 Sie kommen aufgrund der Schwierigkeiten, die sich bei der Betrachtung von solchen perspektivischen Zeichnungen einstellen, zu 311 Ebd., S. 80. 312 Ebd., S. 88.
171
172
Scheler: Computergrafik
Abb. 51: John T. Rule, Steven A. Coons, Fig. 5-35, 1961, Zeichnung.
dem Schluss, dass kleinformatige Darbietungen nicht so zufriedenstellend seien wie etwas großformatigere. Bei einer Betrachtungsdistanz von etwa 25 Zentimetern zum perspektivischen Bild sei es demzufolge optimal, wenn die Fluchtpunkte etwa 50 bis 60 Zentimeter voneinander entfernt seien.313 Während Panofsky hier den Schluss ziehen würde, dass die Zentralperspektive mit unserer ›psychophysiologischen‹ Raumwahrnehmung in keiner Weise in Übereinstimmung zu bringen sei, kommen Rule und Coons sowie selbst William A. Fetter zu einem gegenteiligen Ergebnis. Vor dem Hintergrund, dass alle drei Akteure mit den Konstruktionszeichnungen noch weitere zeichnerische, oft wesentlich präzisere Verfahren kannten, denen ebenfalls ein Realitäts- oder Wahrheitsanspruch hätte zugesprochen werden können, überrascht das Vertrauen, das sie für eine vermeintlich besonders realistische Veranschaulichung von Konzepten und Ideen in die perspektivischen Illustrationen legen. Offen ist deshalb noch die Frage, warum Rule, Coons und Fetter trotzdem zu dem Schluss kommen, ausgerechnet die perspektivischen Illustrationen entsprächen der ›Wahrheit‹ oder der ›Realität‹. Letztendlich haben alle drei offenkundig auf empirische Weise die Erfahrung gemacht, dass die perspektivischen Illustrationen sich von vielen Menschen, auch jenen, die nicht tiefergehend im grafischen Zeichnen geschult sind, intuitiv begreifen lassen – diese Wahrnehmung soll auch hier nicht abgestritten werden. Sicherlich waren zum Zwecke der Kommunikation die perspektivischen Zeichnungen für die drei Ingenieure zielführend und gut geeignet. Wenn jedoch ihre jeweilige Begründung für ihre Schlussfolgerungen widersprüchlich erscheint, warum funktioniert ihr zeichnerischer Ansatz für ihre Zwecke dennoch? Mögliche Anhaltspunkte, mit denen sich diese Frage beantworten lässt, bietet erneut Panofsky an:
313 Vgl. ebd., S. 88.
Der Computer als kreativer Partner
»Und wenn von den heute lebenden Menschen die wenigsten jemals diese Krümmun gen gesehen haben, so ist das sicher z. T. ebenfalls in dieser (durch die Betrachtung von Photographien noch verstärkten) Gewöhnung an die planperspektivische Kon struktion begründet, – die freilich ihrerseits nur aus einem ganz bestimmten und eben spezifisch neuzeitlichen Raum- oder, wenn man so will, Weltgefühl verständlich ist.«314 Panofskys Aussage zufolge liegt die Begründung für die erfolgreiche und vor allem intuitive Kommunikation mithilfe der perspektivischen Illustrationen darin, dass Rule und Coons mit ihrem Grafikverständnis ein ›Weltgefühl‹ aufgreifen, in dem sowohl sie als Zeichner als auch diejenigen, denen sie ihre Bilder vermitteln, vereint sind. Dass eine zentralperspektivische Zeichnung deshalb jedoch auch den Anspruch der Realität erfüllt, ist damit – Panofsky und auch Cassirer folgend – noch nicht gewährleistet. Vor diesem gedanklichen Hintergrund erscheint es nun besonders widersprüchlich, dass die Autoren selbst von einer langjährigen Konvention sprechen, auf der ihre Lehre auf baue, denn sie implizieren damit zunächst zumindest ein Bewusstsein für die Möglichkeit anderer Konventionen. Mit der engen Verbindung, die sie jedoch permanent zwischen den ihnen vertrauten zentralperspektivischen Konventionen und der ›Realität‹ beziehungsweise ›Wahrheit‹ knüpfen, bringen sie in letzter Konsequenz zum Ausdruck, es gäbe keine andere Darstellungsmöglichkeit, mit der sich wahrheitsgetreu arbeiten ließe. Für die Autoren entsteht in dieser Hinsicht jedoch kein Konf likt. Ihre Hinweise auf eine symbolische und implizite Bedeutungsebene, die sich in Form von zeichnerischen Konventionen immer weiter fortschreibt, steht für sie in keiner Weise im Widerspruch zu der Vorstellung eines Wahrheits- oder Realitätsanspruchs. Im Gegenteil, für Rule und Coons ist das Konzept der Wahrheit ein wesentliches Element dieser symbolischen Ebene. Wenn sie also von einer Grammatik der Bilder sprechen, so sind sie vollkommen davon überzeugt, dass in dieser Grammatik nicht nur die Realität, sondern auch die Wahrheit aufgehoben ist. Ihre Legitimation für die perspektivischen Bilder ziehen sie allein aus dieser Überzeugung, nicht jedoch aus dem von Panofsky angebotenen Gedanken einer Gewöhnung. Für sie ist deshalb beispielsweise die fotografische Linse lediglich ein Beweis dafür, dass sich die Wahrheit unserer menschlichen Sicht auch apparativ imitieren ließe. Panofsky hingegen dient die Fotografie als Beweis dafür, dass sich unsere erlernten zentralperspektivischen Konventionen in dem Apparat lediglich weiter manifestieren. Während deshalb für Rule und Coons hinter der von ihnen so bezeichneten ›impliziten Bedeutungsebene‹ der Grafiken der Gedanke der Wahrheit steht, ließe sich mit Panofsky diese implizite Ebene als ›Weltgefühl‹ beschreiben. Ausgehend von einer Wahrheit, die nach Rule und Coons für alle gelte, und einem damit einhergehenden gleichgeschalteten Wahrnehmungsverhalten wäre ihrer Perspektive zufolge in einer letzten Zuspitzung Panofskys Weltgefühl ferner als ein universelles Prinzip zu verstehen. Diese gedankliche Herleitung stellt nun die Grundlage für die weitere Untersuchung dar. Es erfolgt jetzt im letzten Schritt dieses Kapitels anhand von Panofskys Aufsatz eine weitere Begriffsherleitung, die – neben dem Konzept des Weltgefühls – für die nachfolgenden Abschnitte der vorliegenden Studie wesentlich ist. Rückblickend lässt sich auch William A. Fetters Konzept in dieses Weltgefühl einschließen, wenngleich er keinen konkreten Beitrag zur heutigen Software geleistet hat. Mithilfe von Fetter 314 Panofsky (1998): S. 104.
173
174
Scheler: Computergrafik
lässt sich außerdem die Vorstellung davon, wofür dieses Weltgefühl steht, noch weiter schärfen. Wie dargestellt wurde, knüpft auch er – ähnlich wie Rule und Coons – das perspektivische Bild an den menschlichen Sehapparat. Er führt in diesem Zusammenhang nicht nur, wie dargelegt, den Begriff des ›Realismus‹ an, sondern ebenfalls den Begriff der »Credibility«315, also die Maxime der Glaubwürdigkeit. Für Fetter ist demzufolge eine perspektivische Konstruktion nicht nur besonders realistisch, sondern auch besonders glaubwürdig – im Gegensatz etwa zu einer nicht perspektivisch gezeichneten und deshalb messbaren technischen Darstellung eines Phänomens. Den Begriff der Glaubwürdigkeit verwenden Rule und Coons in ihrem Handbuch nicht, sie arbeiten stattdessen jedoch mit dem Begriff der ›tangibility‹, also einem Prinzip, das sich auf Deutsch etwa mit der Bezeichnung ›Greif barkeit‹ übersetzen lässt. Zu Beginn des Kapitels wurde auf den Begriff bereits hingewiesen. Das damit von Rule und Coons angesprochene Konzept soll nun abschließend mit Fetters Begriffswahl der ›Glaubwürdigkeit‹ in Bezug gesetzt und mit Panofsky ausgewertet werden. Dieser Schritt dient dazu, um für die Studie einen Anknüpfungspunkt herzuleiten, mit dem auch Fetters Beitrag für die weitere Untersuchung fruchtbar gemacht werden kann. Wenngleich im Verlauf des aktuellen Kapitels bereits Hinweise darauf erfolgt sind, wird über die gedankliche Nähe zu Fetter endgültig deutlich, dass sich die Maxime der Glaubwürdigkeit auch in dem historischen Erzählstrang von Rule und Coons fortsetzt. In ihrer Einführung machen die beiden Autoren erstmals von dem Begriff der ›tangibility‹ Gebrauch. Wie im Zitat zu Beginn dieses Kapitels angegeben, verweisen sie immer wieder auf die Kraft der Skizze, um etwa eine f lüchtige Idee greif bar zu machen. Sie verwenden den Begriff sowie das dahinterstehende Konzept erneut in einem Kapitel, das sich mit geometrischen Zeichenverfahren für mathematische Zwecke befasst. Es trägt den Namen ›Graphics and Accuracy‹.316 Obwohl die Autoren darin keine repräsentativen Zeichenverfahren thematisieren und damit auch nicht den kommunikativen Aspekt einer Zeichnung, sondern stattdessen schematische Darstellungen beispielsweise von Kräfteverhältnissen, lässt sich über die Einleitung des Kapitels eine genauere Vorstellung der beiden Autoren vom Konzept der Greifbarkeit ableiten. Rule und Coons differenzieren in dem Kapitel zwischen zwei Verfahren zur Darstellung mathematischer Probleme und stellen sie einander gegenüber. Auf der einen Seite geht es ihnen um die Disziplin der euklidischen Geometrie und auf der anderen Seite um ein Feld, das sie als grafische Geometrie bezeichnen. Obwohl sich beide Ansätze für die Visualisierung mathematischer Probleme eignen würden, wiesen sie in ihrer jeweiligen Umsetzung erhebliche Unterschiede auf. Der hauptsächliche Unterschied liege, wie der Titel des Kapitels andeutet, im Aspekt der Präzision beider Verfahren. Diese Unterscheidung ist für die vorliegende Untersuchung deshalb von besonderer Bedeutung, da die Autoren das Konzept der Greif barkeit nur dem zweiten Verfahren, also der grafischen Geometrie, zuschreiben. Um dieses Kapitel zu schließen, soll nun hergeleitet werden, wie sie zu dieser Einsicht gelangen. Was sich jetzt zeigt, ist, dass beide Verfahren unterschiedliche Ansprüche an die fertige Darstellung richten. Die euklidische Geometrie charakterisieren die Autoren
315 Fetter (1965): bspw. S. 50. 316 Vgl. Rule; Coons (1961): S. 247–258.
Der Computer als kreativer Partner
als ein Verfahren, das zwar theoretisch betrachtet stets perfekt, jedoch zugleich sehr aufwändig und deshalb auch fehleranfällig sei.317 Sie sei vor allem dazu geeignet, »to establish true theorems about relationships of ideal geometric elements – points, lines, planes, circles, curves, surfaces – under severely restricted postulates of con structibility and with the use of only certain tools. Euclid permitted the use of the un marked straightedge and the compass only.« 318 Was Rule und Coons in ihrer Auseinandersetzung mit den beiden Ansätzen verdeutlichen möchten, ist, dass der euklidische Ansatz nicht nach einem zeichnerischen Verfahren strebt, mit dem Entwürfe etwa für den Bereich des Ingenieur- oder Bauwesens gefertigt werden sollen, sondern um sich mathematischen Sachverhalten auf abstrakte, theoretische Weise zu nähern. Die Autoren heben deshalb hervor: »To a student who prides himself on his practical-mindedness, these efforts may seem artificial.«319 Zu dieser Einschätzung gelange jedoch nur derjenige, der die hinter dem euklidischen Ansatz stehenden Prinzipien und Anforderungen nicht kenne. Konkret unterscheiden die Autoren in ihrem Kapitel zur grafischen Präzision demnach zwischen zwei Personengruppen: den »geometers«320, also den Vermessungsingenieuren beziehungsweise Fachspezialisten im Bereich der Geometrie, auf der einen und den »draftsmen«321, den Entwurfszeichnern, auf der anderen Seite. Diese griffen vor allem auf die Prinzipien der grafischen Geometrie zurück. Sie sei aus verschiedenen Gründen intuitiver als die euklidische Methode – so stehe etwa bei der grafischen Geometrie jedes Werkzeug zur Umsetzung zur Verfügung, sodass ein zeichnerisches Ziel unmittelbar zu erreichen sei.322 Zugleich sei das Verfahren aufgrund der weniger strengen Vorgaben wesentlich weniger fehleranfällig. Dass es damit insgesamt weniger präzise ist als die euklidische Geometrie, betrachten die Autoren jedoch nicht als 317 Sie setzen sich schon in der Einführung ihres Handbuchs mit den beiden Verfahren auseinander und unterstreichen auch hier die Unterschiedlichkeit der Herangehensweisen: »We shall refer to them as Euclidean and graphical constructions. The draftsman performs Euclidean constructions under the rigorous restrictions of plane geometry, using as tools only the compass and unmarked straight edge, and using as principles only the axioms of construction of Euclidean plane geome try. In performing graphical constructions, on the other hand, the draftsman employs many other axioms of construction and uses many other tools. For example, in the preceding chapter on instru ments we saw that by using a pair of triangles we could construct parallels and perpendiculars to given lines very easily and quickly. This is a typical graphical construction, very different from and much more accurate than the corresponding Euclidean construction. […] The Euclidean method, although theoretically perfect, has too many steps and therefore too many chances for error; the graphical method, on the other hand, is self-checking, and we can see at a glance the precision of the result.« Rule; Coons (1961): S. 23–24. Herv. i. O. 318 Rule; Coons (1961): S. 247. 319 Ebd., S. 247. 320 Ebd., bspw. S. 248. 321 Ebd., bspw. S. 248. 322 Sie führen zur Veranschaulichung beispielhaft auf, welche Werkzeuge sich für die grafische Me thode eignen würden: »In graphics, there is no restriction on tools. We may use marked straight edges, transparent overlays, triangles, T squares, and any other device that serves a useful purpose. There is no restriction on permissible constructions, so long as these constructions produce results
175
176
Scheler: Computergrafik
Nachteil. In der Regel würde mit dem grafischen Verfahren lediglich ein anderes Ziel verfolgt – eines, bei dem die Einbußen an Präzision unerheblich sind: »The central purpose of graphics […] is to deal with tangible physical elements of our real world. For example, graphics deals with lines which may not be perpendicular or parallel in the precise mathematical sense, but which are for some immediate purpose sufficiently perpendicular or parallel to satisfy immediate requirements of accuracy. These matters have been discussed at length in the chapter on line and circle construc tions. Notably the construction of parallels and the construction of tangents to a curve or circle by graphical means allow operations which can be made as accurate as the immediate purpose may require but which, not being theoretically exact, cannot be tolerated by geometers. This merely means that the purposes of the draftsman and the purposes of the geometer are different.« 323 Wenngleich die Autoren hier thematisch weiterhin bei der Auseinandersetzung mit mathematischen Problemen bleiben, wird dennoch deutlich, dass die grafische Geometrie für sie in einem unmittelbaren Zusammenhang mit unserem ›echten‹ Leben steht – oder wie sie selbst formulieren: mit der ›realen Welt‹.324 Ähnlich wie in ihren Überlegungen zur Skizze, die dazu dienen kann, eine f lüchtige Idee in greif barer Darbietung festzuhalten, verwenden sie den Begriff der Greif barkeit auch hier, um darzulegen, dass die grafische Geometrie – im Gegensatz zur euklidischen – vor allem dafür geeignet ist, die Ereignisse unserer realen Umgebung visuell greif bar zu machen. Mithilfe einer gedanklichen Zuspitzung präzisieren die Autoren ihre Auffassung noch einen Schritt weiter. Denn sie unterscheiden zwar zwischen der präziseren euklidischen und der weniger präzisen grafischen Geometrie, allerdings räumen sie zugleich ein, dass der Begriff der Präzision sich gar nicht auf die Welt bezieht, in der wir leben, sondern vielmehr auf die Maßeinheiten, mit denen wir die Welt vermessen. Im Kern hinterfragen Rule und Coons also das Prinzip der Präzision als solches, denn die Welt war schon anwesend, bevor wir für alle Kräfte und Phänomene Einheiten geschaffen haben: »We can make the case for graphics somewhat stronger if we consider the assumption of absolute precision. A problem stated in an arithmetic text is indeed composed of data of an absolutely precise nature, but in the real universe no such precision exists; all we know about the universe is what we can measure, and since measurement is in herently graphical, we are forced to the conclusion that data can only be known to a certain imperfect degree of accuracy.« 325 Indem die Autoren hier die Grafik mit der realen Welt verknüpfen und zugleich darlegen, dass die reale Welt ohnehin nicht präzise ist, kann und soll die grafische Methode of acceptable accuracy. We may draw curves through points, slide or roll curve on curve, draw tan gents to curves by eye, use methods of successive approximation, and even compare small areas by eye, so long as we are aware of the ultimate accuracy of the operation.« Rule; Coons (1961): S. 248. 323 Rule; Coons (1961): S. 248. 324 Vgl. ebd., S. 248. 325 Ebd., S. 251.
Der Computer als kreativer Partner
demzufolge dem Anspruch der Präzision nicht genügen. Mit dieser Argumentation, die Grafik müsse oder könne gar nicht präzise sein, aber dennoch oder gerade deshalb den Anspruch an die Greif barkeit erfüllen, bewegen sie sich auf einer ähnlichen Ebene wie William A. Fetter. Auch dieser knüpfte die Maxime der Glaubwürdigkeit nicht an die präzisen Zeichnungen, anhand derer auch die Maße eines Objekts abzulesen wären, sondern an die perspektivisch verzerrten Bilder, die zwar anschaulich sind und womöglich intuitiv betrachtet näher an die ›reale Welt‹ rücken, die jedoch für die Produktion eines Bauteils völlig ungeeignet wären. Alle drei Akteure machen demnach die mathematische Genauigkeit nicht zur Voraussetzung, um die Maxime der Glaubwürdigkeit oder Greif barkeit zu erfüllen. Für Rule und Coons steht der Gedanke der Präzision ihrem Anspruch an Greif barkeit sogar entgegen. Genauigkeit ist für sie gar nicht erstrebenswert, wenn es darum geht, die Welt zu erfassen. Obwohl Rule und Coons ihre Überlegungen in dem Kapitel ›Graphics and Accuracy‹ thematisch anhand mathematischer Probleme und nicht für den Bereich der Perspektivzeichnung herleiten, wird anhand ihrer in diesem Kapitel vorgenommenen grundsätzlichen Unterteilung in die ›euklidische‹ und die ›grafische‹ Geometrie deutlich, dass alle grafischen Anweisungen in ihrem Handbuch, die nicht explizit den Prinzipien Euklids folgen, der zweiten Kategorie zuzuordnen sind. Vor dem Hintergrund dieser von den Autoren unternommenen Unterscheidung der beiden Felder lässt sich nun begreifen, welche Bedeutung sie dem Begriff der Grafik beimessen und weshalb sie nicht etwa die euklidische Geometrie als Gedankeninstrument betrachten. Auch der Titel ihres Handbuchs – Graphics – bekommt durch die Abgrenzung der beiden Felder zueinander eine klarere Ausrichtung. Die Äußerungen, die die Autoren also zum Verhältnis von Präzision und Greif barkeit treffen, lassen sich nunmehr als Teil der Glaubwürdigkeitsmaxime verstehen, wodurch diese sich schließlich auf die per spektivischen Illustrationen beziehen lässt, die für die vorliegende Untersuchung und die Entwicklung der 3D-Computergrafik eine besondere Relevanz besitzen. Wenn also Rule und Coons von einer idiomatischen Symbolik ausgehen, die sich über die Grammatik einer Grafik implizit mitteilt, so lässt sich nun festhalten, dass sowohl ihr Begriff der Greif barkeit als auch für Fetter der Begriff der Glaubwürdigkeit ein wesentliches Element dieser symbolischen Bedeutungsebene darstellt. Fetter knüpft sein Konzept von Glaubwürdigkeit zudem unmittelbar an die Zentralperspektive. Doch da auch für Rule und Coons die perspektivischen Illustrationen einen hohen Stellenwert besitzen und sie aus dem Blickwinkel der Autoren einem Wahrheitsanspruch am ehesten gerecht werden können, gilt nun auch hier, dass die mathematische Präzision im Rahmen der Perspektivzeichnung für eine wahrheitsgetreue Darstellung nicht ausschlaggebend ist. Vor dem Hintergrund der Tatsache, dass sich sowohl Rule und Coons als auch Fetter neben den Perspektivzeichnungen mit diversen anderen, sogar mathematisch präziseren zeichnerischen Verfahren befassen, wird nun besonders deutlich, dass ihre Hinwendung zur Zentralperspektive zur Wiedergabe der ›Realität‹ eine aktive, aber zugleich auch willkürliche Entscheidung ist – wenngleich sie sich für alle drei womöglich als alternativlos darstellte. Diese Schlussfolgerung mündet – vor allem vor dem Hintergrund von Cassirers Formulierung der psychophysiologischen Wahrnehmung – zudem in einen Widerspruch, denn alle drei Akteure argumentieren auf der einen Seite mit einem mathematisch berechenbaren Modell des menschlichen Sehverhaltens und knüpfen daran ihren Wahrheitsbegriff, während sie zugleich mathematische Ungenauigkeiten zu einem Kriterium für Zeichnungen machen, die
177
178
Scheler: Computergrafik
esonders greif bar oder glaubwürdig sein sollen. Um diesen Widerspruch zu versteb hen und damit dieses Kapitel zu schließen, kann erneut Panofsky herangezogen werden. Mit ihm lässt sich die symbolische Ebene präzise begreifen, die die Hinwendung zur Zentralperspektive birgt, obwohl sie sich weder auf mathematischer noch auf psychophysiologischer Ebene legitimieren lässt: »Allein wenn Perspektive kein Wertmoment ist, so ist sie doch ein Stilmoment, ja, mehr noch: sie darf, um Ernst Cassirers glücklich geprägten Terminus auch für die Kunstge schichte nutzbar zu machen, als eine jener ›symbolischen Formen‹ bezeichnet werden, durch die ›ein geistiger Bedeutungsinhalt an ein konkretes sinnliches Zeichen geknüpft uns diesem Zeichen innerlich zugeeignet wird‹; und es ist in diesem Sinne für die einzel nen Kunstepochen und Kunstgebiete wesensbedeutsam, nicht nur ob sie Perspektive haben, sondern auch welche Perspektive sie haben.«326 Um Panofskys Begriff zu leihen, ist es also wesensbedeutsam, wenn Rule, Coons und Fetter die perspektivische Illustration als angemessene und wahrheitsgetreue Darstellung ihrer Wirklichkeitswahrnehmung auffassen. Und es ist ebenso wesensbedeutsam, wenn die Illustration dabei isometrischen, trimetrischen oder gar zen tralperspektivischen Prinzipien folgt. Deutlich wird hier, dass Rule und Coons dieser Gedanke Panofskys nicht fremd ist – auch für sie macht es einen Unterschied, welche Perspektive sie wählen, um die Glaubwürdigkeitsmaxime zu erfüllen, während es für sie nicht ausschlaggebend ist, ob sie mathematisch exakt ausgeführt wird. Der große gedankliche Unterschied jedoch, der sich zwischen Panofsky und ihnen eröffnet, liegt in der Vorstellung, sie könnten die ›Wirklichkeit‹ nur auf einem einzigen Weg adäquat glaubwürdig und greif bar zum Ausdruck bringen. Obwohl Panofsky Rule und Coons demnach nicht zustimmen würde, bietet er mit seiner hier getroffenen Aussage zugleich eine Möglichkeit, jede Entscheidung für eine bestimmte Perspektive wertfrei zu betrachten. Diese Haltung soll im Rahmen der weiteren Untersuchung als Vorbild dienen. Wenn also die computergrafischen Bilder, die sich zu jener Zeit allmählich entwickelten, das Weltgefühl Rules und Coons’ aufgreifen, so ist dies zwar wesensbedeutsam für sie, jedoch soll diese Erkenntnis nicht als Grundlage für ein Werturteil über diese Bilder dienen. Die Absicht ist es, anzuerkennen, dass die 3D-Bilder nicht nur produktionsästhetisch, sondern auch stilistisch in einer Tradition stehen, die sich anhand einer kunstgeschichtlichen Untersuchung in geeigneter Weise aufzeigen lässt. Panofsky liefert also die entscheidende Legitimation, die vorliegende Untersuchung um einen stilgeschichtlichen Exkurs zu erweitern. Die Frage, ob mit der entstehenden Computergrafik letztendlich Kunst produziert wird, ist zwar für die vorliegende Studie unerheblich, doch ist es für den gemeinsamen Sinnzusammenhang der heutigen 3DComputerbilder allemal wesensbedeutsam, wenn die computergrafische Softwareentwicklung eine bestimmte Perspektive sowie ein bestimmtes Weltgefühl integriert. Ziel ist es also für die nachfolgenden Kapitel, aufzuzeigen, inwiefern die Ansätze Rules und Coons’ sowie damit zusammenhängend die Glaubwürdigkeitsmaxime in der weiteren Entwicklung der 3D-Grafik verankert bleiben und verstetigt werden. 326 Panofsky (1998): S. 108. Panofsky zitiert hier Ernst Cassirer: Wesen und Wirkung des Symbolbegriffs. 8. Auflage. Darmstadt: Wiss. Buchges., 1994, S. 175. Cassirer verwendet im Originaltext nicht, wie von Panofsky zitiert, den Begriff ›Bedeutungsinhalt‹, sondern die Bezeichnung ›Bedeutungsgehalt‹.
Der Computer als kreativer Partner
2.3.2 Der Computer als Erweiterung des Intellekts Um in diesem Kapitel Coons’ Beitrag zu computertechnologischen Entwicklungen allgemein und seinen Beitrag zu computergrafischen Errungenschaften im Besonderen zu untersuchen, soll Sutherlands Sketchpad noch einmal in den Vordergrund gerückt werden, da sich anhand dessen Forschungsarbeit sowie anhand der Neuerungen, die Sketchpad im Umgang mit dem Computer herbeigeführt hat, Coons’ Beitrag besonders anschaulich darlegen lässt. Gedanklich dient also das Sutherland-Kapitel zunächst als Ausgangspunkt für die folgenden Ausführungen. Eine für die anschließenden Überlegungen wesentliche Erkenntnis aus dem Sutherland-Kapitel – sie soll hier noch einmal wiederholt werden – liegt in dem Paradox, das bei Sutherland erstmals in praktischer Hinsicht aufgetreten ist, nachdem er die bis dato übliche Herangehensweise des Programmierprozesses grundsätzlich erneuert hatte. Statt prozedural zu arbeiten, führte er einen Ansatz ein, der einige Jahre später als objektorientiertes Programmieren bezeichnet wurde. Die Besonderheit dieser Herangehensweise war es, dass nunmehr im Arbeitsprozess mit dem Computer vorab kein Ziel formuliert werden musste. Da es sich um ein Zeichenprogramm handelte, war es hier zum Beispiel nicht mehr notwendig, vorab eine Vorstellung der fertigen Zeichnung zu entwickeln, denn seit Sketchpad war es nun möglich, auch nachträglich an einer eigentlich fertigen Zeichnung noch Veränderungen vornehmen zu können. Paradox ist an diesem Ansatz, dass er den Arbeitsprozess zwar öffnet, ihn gleichzeitig jedoch auch einschränkt – zumindest in der Art und Weise, wie ihn Sutherland konzipiert hat: Sein Anspruch war es, den Computer für alle Menschen verfügbar zu machen, also nicht nur den Arbeitsprozess zu öffnen und damit auch weniger spezifisch zu gestalten, sondern auch die Nutzergruppe zu erweitern. Für diesen Zweck gestaltete er deshalb ein Programm, das durch Bedienelemente nach einer kurzen Schulung prinzipiell von jeder Person gehandhabt werden konnte. Diese Bedienelemente stellten Sutherland jedoch vor das Problem, dass er nun antizipieren musste, welche Funktionen andere Menschen womöglich für ihren Arbeitsprozess benötigen würden. Obwohl er den Anspruch verfolgte, möglichst wenig einzuschränken, wird nun klar, dass hier trotz einer größeren Offenheit in der Nutzung des Computers eigentlich eine Fokussierung auf eine bestimmte Nutzungsweise stattgefunden hat. Eine Voraussetzung für diese grundlegende Veränderung war die Analyse von Arbeitsprozessen, um sie später im Programm abbilden zu können. Da es jedoch nicht möglich ist, unendlich viele Arbeitsprozesse zu antizipieren, standen die Softwareentwickler vor der Aufgabe, auszuwählen, welche Arbeitsprozesse sie aufgreifen wollten und welche nicht. Durch diesen Auswahlprozess gelangten demzufolge spezifische Überzeugungen dieser einzelnen Persönlichkeiten in die Softwarelandschaft, denn durch die Öffnung der Computer für alle Menschen wurden sie geradezu zu dem Schritt gezwungen, bestimmte Programmfunktionen als relevant oder irrelevant einzustufen. Die Entwickler waren also richtungsweisend für die Art und Weise, wie am Computer gearbeitet werden kann – ihre Handschrift bildet sich in der Software ab. Welche Rolle spielt nun Coons in diesem Prozess? In der Auseinandersetzung mit seinen computertechnologischen Ideen wird sich zeigen, dass er dieses Paradox antizipiert hatte, bevor Sutherland es mit seinem Programm Sketchpad erstmals in der Praxis realisiert hat. In Zusammenhang mit Sutherland wurde herausgearbeitet, dass ihm die Paradoxie seines Programms nur bedingt bewusst war. Er war von der
179
180
Scheler: Computergrafik
Existenz universeller Gestaltungsprinzipien überzeugt, sodass er in seiner Auswahl an Gestaltungsparametern im Programm kein Problem erkannte. Coons äußert sich wesentlich differenzierter zu dem Problem. Anhand seiner Überlegungen lässt sich deutlich tiefgreifender nachvollziehen, warum bestimmte Konzepte über Sutherland und die Entwicklungen an der University of Utah bis heute in der Software überdauern. Coons’ Position soll hier deshalb nun aufgearbeitet werden. Aus dem Zusammenspiel von Sutherlands Sketchpad und Coons’ eigenen Positionen ergeben sich nun mehrere Thesen für dieses Kapitel. In der Einleitung zum CoonsKapitel wurde Bezug auf eine Trauerrede zum Anlass von Coons’ Tod genommen, verfasst von dessen Kollegen Bertram Herzog. Darin behauptet Herzog, Coons habe nicht nur stets die Bedeutsamkeit von Sutherlands Sketchpad-Programm erkannt, er habe die Neuerungen auch präzise und wortgewandt präsentieren können. Herzog betont gar, Coons habe ›den Kern des Begriffs der Computergrafik‹327 gekannt. Da Herzog selbst in seiner Trauerrede auf diesen Kern nicht zu sprechen kommt, wurde in diesem Zusammenhang auf einen Fernsehbeitrag verwiesen, in dem das Programm Sketchpad von Coons vorgestellt wird. In seinen Erläuterungen zeichnet sich ab, was für ihn dieser Kern sein könnte und warum er ihn so eloquent vermitteln konnte. Wenn also Herzog davon überzeugt war, Coons’ Fähigkeit habe darin gelegen, »to perceive, and perceive very sharply, the significance of this achievement«328, dann leitet sich für das vorliegende Kapitel daraus die These ab, dass Coons nicht etwa nur die Begabung besaß, die Bedeutsamkeit von Sutherlands Beitrag zu erkennen, sondern umgekehrt, dass er sie deshalb so treffend beschreiben konnte, weil er die Veränderungen, die Sutherland darin präsentierte, in entscheidender Weise mitgestaltet und gedanklich schon vorab ausformuliert hatte. Die Ausführungen in diesem Kapitel folgen deshalb der Annahme, dass die wesentlichen, bis heute im Rahmen der 3D-Softwarelandschaft überlieferten Konzepte ›im Kern‹ nicht auf Sutherland, sondern auf Coons und auch auf andere seiner Zeitgenossen zurückzuführen sind. Zu betonen ist hierbei, dass Coons selbst nicht zu umfassenden Softwarelösungen beigetragen hat, doch hat sein Umdenken das Überdauern kultureller Artefakte in der Softwarelandschaft eigentlich erst möglich gemacht. Gleichzeitig verfolgte Coons zudem nicht wie Sutherland das Anliegen, die Nutzung des Computers für alle verfügbar zu machen – er legt den Fokus hingegen gezielt auf gestalterische Tätigkeitsfelder. Dennoch soll hier angenommen werden, dass für Sutherland – trotz einer etwas anderen Zielsetzung – Coons’ Konzepte nicht nur fruchtbar waren, sondern dass er sie mit seinem Programm auch weitergetragen hat. Das Problem, das also Coons’ Denken inhärent ist, findet bei Sutherland erstmals eine praktische Ausformung, die sich – so schon hier die These für den Folgeabschnitt – in den Entwicklungen in Utah weiter verschärft. Doch fokussiert werden soll zunächst einmal Coons. Die Besonderheit von dessen Rolle für den Forschungsgegenstand der vorliegenden Studie ist, dass er sowohl ein grafisches als auch ein gestalterisches Interesse in seine computertechnologischen Errungenschaften integrierte. Er bringt mit diesen interdisziplinären Interessen ähnliche Voraussetzungen mit wie Csuri und letztendlich hat dieser sich sogar wesentlich aktiver und konkreter in die Entwicklung von Software eingebracht als Coons. Doch anders als bei Csuri, anhand dessen aufgezeigt werden konnte, dass 327 Nach Herzog (1979): S. 2. 328 Ebd., S. 2.
Der Computer als kreativer Partner
seine Vorstellungen von Bildlichkeit nicht oder zumindest kaum in der heute kommerziell verfügbaren Software überdauert haben, geht es nun darum, herauszufinden, auf welche Weise ausgerechnet Coons’ Grafikvorstellungen überliefert wurden, obwohl er Software nicht im selben Umfang entwickelt hat wie Csuri. Wenngleich Coons anders als Csuri also nicht aktiv versucht hat, seine Grafikvorstellungen in die Sprache des Computers zu übersetzen, folgt die vorliegende Studie der Annahme, dass von Coons vor allem eine Haltung überliefert wurde, die sich bis heute aufrechterhält und die sowohl seine grafischen als auch seine computertechnologischen Vorstellungen auszeichnet. Coons hat mit dieser Haltung eine Denkmöglichkeit zur Nutzung des Computers angeboten, die sich mit seinen Vorstellungen zur Grafik gut vereinbaren ließ und mit der sich – zum Beispiel vor dem Hintergrund einer Demokratisierung der Nutzung des Computers – wesentlich besser weiterarbeiten ließ als etwa mit Csuris oder Fetters Ansätzen. Beide Akteure sollen zur Veranschaulichung an entsprechenden Punkten im Laufe des Kapitels berücksichtigt werden. Coons’ Denkmodell knüpft zudem an einen Diskurs an, der auch von anderen Ingenieuren zur damaligen Zeit geführt wurde. Im Rahmen dieses Kapitels sollen deshalb auch Positionen eines weiteren Ingenieurs, Douglas C. Engelbart, punktuell herangezogen werden, auf die Coons Bezug nimmt. Engelbarts Beitrag zur Computertechnologie fand jedoch auf einer übergeordneten Ebene statt und bezieht sich deshalb häufig nicht direkt auf das Feld der computergrafischen Anwendungen, sondern vielmehr ganz allgemein auf die Zukunft der Interaktion zwischen Mensch und Maschine. Zentral ist hier vor allem Engelbarts Publikation Augmenting Human Intellect: A Conceptual Framework329 aus dem Jahr 1962. Er stellt darin ein Konzept vor, mithilfe dessen die Intelligenz und der Intellekt des Menschen erweitert und unterstützt werden könne. Im Vordergrund steht bei ihm die Absicht, »to [improve] the intellectual effectiveness of the individual human being.«330 Den Computer sieht er hier unter bestimmten Voraussetzungen beispielhaft als ein besonders geeignetes Werkzeug für dieses Anliegen. Engelbarts Überlegungen sollen im Laufe dieses Kapitels vereinzelt aufgegriffen werden, um die Positionen Coons’ zu veranschaulichen.331 Als hauptsächliche Grundlage für dieses Kapitel dienen jedoch Coons’ eigene Textbeiträge, hier in erster Linie sein Aufsatz An Outline of the Requirements for a ComputerAided Design System332, mit dem er sich an der in Detroit, Michigan, veranstalteten Spring Joint Computer Conference im Mai 1963 beteiligt hat. Er stellt darin ein am MIT angesiedeltes Forschungsprojekt vor, das sich mit der Frage befasst, wie Designprozesse vom Computer unterstützt werden können. Sein im Paper beschriebenes Forschungsvorhaben verfolgte das Anliegen, zu untersuchen, inwiefern Mensch und Maschine in Bezug auf Designaufgaben effektiv zusammenarbeiten können – ähnlich 329 Vgl. Engelbart (1962). 330 Ebd., S. ii. Engelbart ist der Ansicht, »man’s problem-solving capability represents possibly the most important resource possessed by a society«, weshalb er es für sinnvoll hält, den menschlichen Intel lekt zu erweitern. Engelbart (1962): S. 131. 331 Engelbart gilt zudem als Erfinder der Computermaus, wenngleich das Computer History Museum auf seiner Webseite darauf hinweist, dass auch Telefunken etwa zur selben Zeit eine Maus vorgestellt hat. Vgl. Computer History Museum: The Mouse. Ohne Datum. URL: https://www.computerhistory. org/revolution/input-output/14/350. Zugriff am: 12.12.2021. 332 Vgl. Coons (1963).
181
182
Scheler: Computergrafik
wie auch Sutherland mit Sketchpad oder Dave Evans einige Jahre später auf einer übergeordneten Ebene an der University of Utah. Um in seinem Paper insgesamt seinen Forschungsprozess darzulegen, geht Coons zunächst darauf ein, was den Designprozess für ihn auszeichnet, um anschließend zu erörtern, welchen Anforderungen ein Computersystem vor dem Hintergrund der Designfragen gerecht werden müsste. Seine Ausführungen zum Designprozess greifen in stark verkürzter Form zahlreiche Aspekte auf, die aus seinem Handbuch bekannt sind. In Form eines Ausblicks führt Coons Sutherlands Sketchpad sowie Timothy Johnsons Sketchpad III an. Beide Programme erachtet er als praktische Lösungsansätze für sein theoretisch ausgearbeitetes Konzept, weshalb er unter Bezugnahme auf die jeweiligen Beiträge Sutherlands und Johnsons die folgende Einschätzung formuliert: »We have already come quite a way toward accomplishing some of the desired ends as outlined.«333 Erneut wird an diesem Ausblick Coons’ ersichtlich, dass er mit seinen Überlegungen den Bestrebungen von Sutherland und Johnson vorausging. Einen für die vorliegende Studie besonders relevanten Aspekt, der die gedanklichen Unterschiede zu Csuri und Fetter aufdeckt, hebt Coons schon in der Einleitung seines Papers hervor, bevor er im weiteren Verlauf seiner Überlegungen tiefer in das Thema einsteigt. So ist er auf der einen Seite davon überzeugt, dass sich der Designprozess durch den Computer optimieren und vereinfachen lässt, auf der anderen Seite bildeten sich aus diesen Erforschungen als Nebenprodukt darüber hinaus auch »new computer techniques and an enriched understanding of the creative thought process.«334 Seine Erkenntnisse darüber, inwiefern die Verwendung eines Computers Einblicke in kreative Gedankenprozesse liefert, vermögen anzuzeigen, dass er das bei Sutherland entstehende Paradox nicht nur antizipiert, sondern auch Überlegungen anführt, wie damit umzugehen ist. Gleichzeitig zeigt seine Vorstellung von neuen Computertechniken an, dass er dem Computer eine Eigenständigkeit beimisst. In diesem Punkt unterscheidet sich Coons in seinem Denken in erheblicher Weise sowohl von Fetter als auch von Csuri, wenngleich aus unterschiedlichen Gründen. Während Fetter den Computer lediglich dazu nutzt, sehr aufwändige Zeichenaufgaben zu automatisieren, und er den Computer in keiner Weise eigenständig arbeiten lässt, greift Csuri zwar die Eigenheiten der algorithmischen Denkweise eines Computers auf, achtet jedoch zugleich darauf, dass er als Künstler noch immer die Hoheit darüber bewahrt, wie der Computer arbeitet. Prozesse vollkommen an den Computer abzugeben, ohne zu wissen, auf welche Weise sie entstanden sind, lehnt auch Csuri ab. Die Vorstellung Coons’, der Computer solle den kreativen Arbeitsprozess durch neue, eigenständige Techniken erweitern, steht den Ansätzen von Fetter und Csuri also konträr gegenüber. Der Computer bleibt der kreativen Arbeit nicht mehr äußerlich, er arbeitet in Coons’ Vorstellung als kreativer Partner selbst an den Designaufgaben mit: »The different powers of man and machine are complementary powers, cross-fertilizing powers, mutually reinforcing powers. It is becoming increasingly clear that the combined intellectual potential of man and machine is greater than the sum of its parts.«335 Während also weder Fetter noch Csuri bereit sind, die intellektuelle Arbeit an den Computer abzugeben, wird hier deutlich, dass Coons nicht nur davon überzeugt ist, die Maschine könne 333 Ebd., S. 302. 334 Ebd., S. 300. 335 Ebd., S. 300.
Der Computer als kreativer Partner
zu der menschlichen intellektuellen Arbeit einen eigenständigen und ergänzenden Beitrag leisten, sondern auch, dass es ein Ziel für ihn darstellt, diesem Potenzial des Computers aktiv nachzuspüren. Auch in dem Fernsehbericht, in dem das Programm Sketchpad vorgestellt wird, betont Coons, dass mit Sutherlands Projekt der Computer nicht mehr nur eine sehr komplexe Rechenmaschine sei, sondern dass er sich beinahe zu einem »human assistant« entwickele, der zudem eine eigene Intelligenz besitze. Gleichzeitig merkt er an: »It doesn’t really, only the intelligence that we put in it. But it will seem to have intelligence.«336 Wenngleich er mit seinen Prognosen noch vorsichtig umgeht, betont Coons mit dieser Aussage nicht nur erneut klar seine Vorstellung einer Eigenständigkeit des Computers, er spricht hier zugleich auch die Problematik an, die in dieser Eigenständigkeit entsteht, denn sie wirft die Frage auf, woher der Computer die neuen Techniken kennt. Es handelt sich demnach um die Problematik, die auch Sutherlands Sketchpad zugrunde liegt. Während Sutherland glaubte, einen Ansatz gefunden zu haben, der auf der einen Seite keine Programmierkenntnisse erfordert und auf der anderen Seite dennoch so komplex ist wie eine Programmiersprache, erkennt Coons, dass diese Diskrepanz eigentlich nicht zu überwinden ist. Für die vorliegende Studie ist allerdings von besonderer Relevanz, dass er in seinem Aufsatz eine Legitimierung herleitet, mit der sich für ihn die Problematik auf lösen lässt. Da Coons Suth erlands Sketchpad selbst anführt, schließt er das Programm in seine Legitimation ein. Wie gelangt Coons also zu seiner Lösung des Problems? Die grundsätzliche Voraussetzung für Coons, von einem Computer-Aided Design auszugehen, leitet er selbst zu Beginn seines Aufsatzes historisch her. So ist die Bezeichnung dieser fachlichen Disziplin Ende der 1950er Jahre aus einer Zusammenkunft zweier am MIT angesiedelter Fachbereiche hervorgegangen: der Computer Applications Group auf der einen und der Design Division des Mechanical Engineering Departments auf der anderen Seite. Bei einem ersten Treffen einzelner Vertreter der beiden Gruppen legten sie das Ziel fest, ein System zu entwickeln, in dem die Stärken beziehungsweise wesentlichen Merkmale beider Felder zusammentreffen: »[T]he creative and imaginative powers of the man and the analytical and computational powers of the machine […].«337 Die Zuschreibung der unterschiedlichen Qualitäten, die jeweils der Mensch und die Maschine für die gemeinsame Arbeit an Designaufgaben mitbringen, deutet darauf hin, dass sowohl Coons als auch seine Kollegen eine klare Vorstellung davon hatten, welche Aufgaben eher ›menschlich‹ und welche eher ›technisch‹ oder maschinell sind: »We envisioned even then the designer seated at a console, drawing a sketch of his proposed device on the screen of an oscilloscope tube with a ›light pen,‹ modifying his sketch at will, and commanding the computer slave to refine the sketch into a perfect drawing, to perform various numerical analyses having to do with structural strength, clearances of adjacent parts, and other analyses as well.«338 336 Fitch (1964). 337 Coons (1963): S. 300. 338 Ebd., S. 300. Die Bezeichnung ›slave‹, die Coons hier verwendet, überdauert im computertechnolo gischen Sprachgebrauch bis heute. Aufgrund der damit verbundenen Konnotationen, insbesonde re zum häufig ebenfalls verwendeten Begriff ›master‹, erfolgen derzeit Bestrebungen, für die Ver hältnisse von hierarchischen Strukturen innerhalb der Computertechnologie neue Bezeichnungen
183
184
Scheler: Computergrafik
Die Beschreibung Coons’ zeigt zunächst einmal sehr offenkundig an, dass Sutherland zumindest im Ansatz eine Vision realisierte, die in dieser Form bereits vier Jahre zuvor formuliert wurde. Insbesondere der Aspekt der nachträglichen Bearbeitung, eines der Hauptmerkmale des bei Sutherland auftretenden neuen Programmierparadigmas, kommt hier zum Ausdruck, obwohl zu jener Zeit bislang lediglich das prozedurale Paradigma zur Verfügung stand. Coons’ Paper zeigt darüber hinaus an, dass ihm bewusst war, inwiefern diese Umstellung in der Arbeit mit dem Computer die Art und Weise verändert, wie wir gestalten und arbeiten. Coons ref lektiert hierbei sogar, dass seine Vorstellung, den Computer eigenständig arbeiten zu lassen, mit der Festlegung von Arbeitsschritten einhergeht: »A computer system, to work in partnership with a designer, must have several clearly definable capabilities. It must be able to accept, interpret, and remember shape de scriptive information introduced graphically. When such a graphical input capability is properly designed, the man-computer combination can manipulate the elements of a drawing in an entirely new way, with a freedom and precision far surpassing what is possible with pencil and paper.«339 Neben der Begeisterung, die Coons für die Zusammenarbeit zwischen Designer und Computer zeigt, bringt seine Formulierung zum Ausdruck, dass er die Eingabe von grafischen Befehlen für alle Designprozesse als geeignet erachtet – hier handelt es sich demnach um eine Funktion, die Coons für jede gestalterische Disziplin gleichermaßen festlegen würde. Seine Zuversicht den Computer betreffend bestätigt zudem erneut, dass er mit der Festlegung bestimmter Aufgaben im Computer Designprozesse nicht nur automatisieren, sondern kreative Prozesse auch verändern und neugestalten wollte. Erstmals zeichnet sich in seiner Formulierung jedoch ein Widerspruch ab, denn er selbst legt im Rahmen seines Papers zunächst großen Wert darauf, dem Computer lediglich Aufgaben zuzuteilen, die von menschlichen Entscheidungen vermeintlich weniger abhängig sind. Er nimmt für diesen Zweck eine umfassende Analyse der ihm vertrauen Entwurfsprozesse im Bereich des Ingenieurswesens vor, um im Ergebnis zwischen kreativen und weniger kreativen Aufgaben zu unterscheiden. In dieser Analyse liegt die entscheidende Erkenntnis für die vorliegende Studie, denn mit seiner Unterteilung legitimiert er, Aufgaben an den Computer abzugeben. Coons’ Entscheidung, computergestützte Verfahren von einer vorausgehenden Analyse des Designprozesses abhängig zu machen, erinnert hierbei an Csuri, denn auch dieser wollte mit seinen Algorithmen künstlerische Prozesse nachempfinden. Bei Coons zeichnet sich jedoch konzeptionell noch klarer als bei Csuri ein reziproker Kreislauf ab, bei zu etablieren. Vgl. Elizabeth Landau: Tech Confronts Its Use of the Labels ›Master‹ and ›Slave‹. In: WIRED, 2020. URL: https://www.wired.com/story/tech-confronts-use-labels-master-slave/. Zugriff am: 14.06.2021 Für Cardoso Llach stellt das Wort einen Schlüsselbegriff dar. Er drückt für ihn eine von zwei Positionen aus, die sich seiner Ansicht nach in den 1960er Jahren in Bezug auf die Verwen dung von Computern gebildet haben. So wurde die Maschine von manchen als Entlastung für auto matisierbare und mühsame Arbeitsschritte betrachtet, von anderen wurde sie als gleichwertiger kreativer Partner eingestuft. Cardoso Llach erkennt ähnlich wie die vorliegende Studie bei Coons Züge beider gedanklichen Ansätze. Vgl. Cardoso Llach (2015): bspw. S. 54. 339 Coons (1963): S. 301.
Der Computer als kreativer Partner
dem zunächst menschliche Arbeitsweisen analysiert und untersucht werden, um sie anschließend algorithmisch nachzuempfinden, wodurch letztendlich eigenständige, neue Prozesse entstehen, die den ursprünglichen menschlichen Handlungsweisen nur noch ähneln. Diesen letzten Schritt im Kreislauf hätte Csuri vermutlich vermieden. Bei Coons werden die ursprünglichen menschlichen Prozesse im Hegel’schen Sinne aufgehoben, denn sie werden in den Computer einerseits übertragen, andererseits jedoch auch erneuert. Um diese Reziprozität, die Coons’ Konzept zugrunde liegt, besser nachvollziehen zu können, soll nun der im Einstieg des Kapitels genannte Ingenieur Engelbart für einen kompakten, aber für die vorliegende Untersuchung aufschlussreichen gedanklichen Exkurs herangezogen werden. Anhand seiner Ideen lässt sich zeigen, dass die Weiterentwicklung des Computers auch in einem größeren Umfang und von anderen Zeitgenossen Coons’ reziprok gedacht wurde. Die Art und Weise, wie wir generell heute am Computer arbeiten, also auch über die Nutzung grafischer Anwendungen hinaus, lässt sich von diesen sehr früh entwickelten Konzepten in direkter Weise ableiten. Anschließend werden die Ergebnisse von Coons’ Analyse in den Blick genommen, in denen er darlegt, welche Aufgaben er als kreativ einstuft und welche nicht. Coons bezieht sich auf Engelbart in einem ganz spezifischen Zusammenhang, bei dem es zunächst einmal um die Überlegung geht, Arbeitsfunktionen am Computer grafisch zu organisieren. Dieser Schritt eigne sich dafür, Parallelität und Vernetztheit verschiedener Befehle auch visuell zu unterstreichen, da sprachliche Befehle eher einer ›eindimensionalen‹ Logik folgen, wodurch sich Querverbindungen zwischen Funktionen möglicherweise nicht eindeutig hervorheben lassen.340 Da Coons in seiner Quellenangabe bei Engelbart auf keine konkrete Textstelle verweist, wird hier davon ausgegangen, dass er auch allgemein mit dessen Ideen vertraut war und Aspekte seines Denkens aufgreift. Zudem deutet Coons’ grundsätzliche Vorstellung, die Arbeit des Menschen mithilfe des Computers effizienter zu gestalten, auf eine Nähe zu Engelbart hin, denn – wie einführend dargelegt – geht auch Engelbart davon aus, dass sich der Computer dazu eignet, den Intellekt des Menschen zu erweitern. Er legt für seine These in einem umfassenden Konzept seine Vorstellungen dar, wie diese Erweiterung gelingen kann. Dafür definiert er zunächst auf einer sehr grundlegenden Ebene, was er sich unter der Erweiterung des Intellekts vorstellt: »By ›augmenting human intellect‹ we mean increasing the capability of a man to ap proach a complex problem situation, to gain comprehension to suit his particular needs, and to derive solutions to problems. Increased capability in this respect is taken to mean a mixture of the following: more-rapid comprehension, better comprehension, the
340 Die hier vorgenommene Beschreibung versucht Coons’ sehr fachspezifische Ausführungen sach gemäß, aber allgemein verständlicher wiederzugeben. Im Original formuliert er seine Vorstellung folgendermaßen: »Beyond shape description, such a graphical facility should be an extension of language in general. It should be possible, as has been indicated earlier, to use such a graphical mode to structure abstractions. This has been brought out with great force and clarity by Engelbart, where he remarks in effect that the essentially one-dimensional nature of symbolic language is not wholly adequate to exhibit the interconnections of ideas.« Coons (1963): S. 301.
185
186
Scheler: Computergrafik
possibility of gaining a useful degree of comprehension in a situation that p reviously was too complex, speedier solutions, better solutions, and the possibility of finding solutions to problems that before seemed insoluble.«341 Wie Engelbart anschließend darstellt, gelten seine Überlegungen für viele verschiedene Tätigkeitsfelder, etwa die Diplomatie, die Physik, das Rechtswesen oder auch das Design. Zentral ist bei ihm zudem der Gedanke, dass er nach einer technischen Lösung sucht, die mit der Art und Weise, wie Menschen arbeiten und denken, verschmilzt, sodass intuitives Verhalten, Gefühle oder auch vermeintliche Irrwege weiterhin Teil von Gedankenprozessen bleiben.342 Hier lässt sich eine gedankliche Parallele zu Coons erahnen, der ebenfalls von intuitiven und vagen Gedankenprozessen spricht, die es für ihn gilt – etwa mithilfe des Gedankeninstruments der Grafik – festzuhalten und zu konkretisieren. Um geeignete technische Mittel zu entwerfen, die in dieser Weise in die menschliche geistige Arbeit unterstützend eingreifen, geht Engelbart zunächst davon aus, jene Mittel feiner auszugestalten, die wir ohnehin nutzen, also »all of which appear to be but extensions of means developed and used in the past to help man apply his native, mental, and motor capabilities […].«343 Er ist davon überzeugt, dass »[i]ndividuals who operate ef fectively in our culture have already been considerably ›augmented‹.«344 Für die Entwicklung neuer Verfahren schlägt Engelbart als ersten Schritt demnach vor, auf der einen Seite herauszufinden, in welchen Situationen die Ef fektivität einzelner Individuen eingeschränkt ist 345, und auf der anderen Seite präzise zu analysieren, mit welchen bisherigen Verfahren Individuen ihr »present level of ef fectiveness«346 erreichen. Er stuf t hierbei diese Mittel im weitesten Sinne als symbolische Kommunikationsformen ein, seien es Sprachen, Piktogramme, Logik oder Mathematik. Indem er konzeptionell an solche Konzepte anknüpf t, geht er davon aus, dass Menschen, die auf diese Weise ohnehin miteinander interagieren oder ihren Aufgaben begegnen, von seinen Erweiterungen in bedeutender Weise profitieren würden.347 Als Ausgangspunkt für seine Analyse entwickelt er deshalb entsprechend seiner Annahme vier Kategorien, nach denen er die bisherigen vom Menschen genutzten ›augmentation means‹ klassifiziert:
341 Engelbart (1962): S. 1. In seinem Report stellt Engelbart beispielsweise eine ›writing machine‹ vor, die der Beschreibung nach an heutige Textverarbeitungsprogramme erinnert. Sowohl Funktionen wie ›kopieren‹ als auch die Möglichkeit, alte Entwürfe zu laden und weiterzuverarbeiten, werden hier von Engelbart als Vision formuliert. Vgl. Engelbart (1962): S. 13–14. 342 Vgl. Engelbart (1962): S. 1. 343 Ebd., S. 2. 344 Ebd., S. 15. 345 Vgl. ebd., S. 6. 346 Ebd., S. 8. Die Denkweise Engelbarts lässt zudem erahnen, vor welchem Hintergrund große TechUnternehmen heute Nutzungsanalysen durchführen und das Nutzerverhalten dokumentieren, um anhand der dadurch generierten Daten ihre Produkte weiter zu verfeinern. 347 Vgl. Engelbart (1962): S. 6.
Der Computer als kreativer Partner
»(1) Artifacts--physical objects designed to provide for human comfort, for the manipu lation of things or materials, and for the manipulation of symbols. (2) Language--the way in which the individual parcels out the picture of his world into the concepts that his mind uses to model that world, and the symbols that he attaches to those concepts and uses in consciously manipulating the concepts (›thinking‹). (3) Methodology--the methods, procedures, strategies, etc. with which an individual organizes his goal-centered (problem-solving) activitiy. (4) Training--the conditioning needed by the human being to bring his skills in using Means 1, 2, and 3 to the point where they are operationally effective.«348 Engelbart versucht vor der Folie dieser vier ›augmentation means‹ in kleinsten Schritten nachzuvollziehen, wie Menschen lernen und wie sie Entscheidungen treffen. Deutlich wird in der Auseinandersetzung mit seinem Konzept, dass er einen bestimmten Wissensschatz als wertvoll oder zumindest als besonders effizient erachtet, während er andere Wissensformen als nicht fortschrittlich einstuft. Diese von ihm vorgenommene Wertung wird etwa deutlich, wenn er zur Veranschaulichung seiner Ideen gegenüberstellend Lebens- und Wissensstrategien von Naturvölkern wie den Aborigines heranzieht. So schildert er, dass beispielsweise ein Aborigine, der zwar die gleichen sensomotorischen Voraussetzungen mitbringe wie jemand aus unserem Kulturkreis, dennoch nicht das »indirect knowledge«349 besäße, um jeweilige Handlungsschritte zu antizipieren, die beispielsweise dafür benötigt würden, mit dem Auto eine Verkehrssituation zu bewältigen, ein Buch auszuleihen, einen Anruf zu tätigen oder einen Brief auf einer Schreibmaschine zu tippen.350 Seine Begründung für diese Annahme gibt einen ersten Einblick in eines seiner Analyseergebnisse: »While an untrained aborigine cannot drive a car through traffic, because he cannot leap the gap between his cultural background and the kind of world that contains cars and traffic, it is possible to move step by step through an organized training program that will enable him to drive effectively and safely. In other words, the human mind neither learns nor acts by large leaps, but by steps organized or structured so that each one depends upon previous steps.«351 Engelbart kommt demzufolge zu der Einsicht, dass unser menschliches Gehirn Abläufe schrittweise erlernt und nicht in der Lage ist, ausgelassene Entwicklungsschritte mit einem großen Sprung zu überwinden. Überraschenderweise erinnert seine Wortwahl stark an Hans Blumenbergs Formulierung, der Mensch wolle mit der Technisierung der Welt im Sprunge vorankommen.352 Während jedoch Blumenberg zu dem Schluss kommt, wir müssten die Geschichte eines technisierten Gegenstands auf klären, um zu großen Sprüngen entgegenzuwirken, geht Engelbart offenkundig davon aus, dass 348 Ebd., S. 9. Herv. i. O. 349 Ebd., S. 8. 350 Vgl. ebd., S. 8. Ein weiteres Beispiel, das er aufführt, spricht zudem die Fähigkeit an, eine Ausschuss sitzung einzuberufen, um über eine vorläufige Planung zu diskutieren. 351 Engelbart (1962): S. 9–10. 352 Vgl. Kapitel 1.1.1 Methode – Sprünge überwinden, S. 21, in der vorliegenden Studie.
187
188
Scheler: Computergrafik
auch im Falle technisierter Vorgänge zu große Sprünge nicht mehr zu überwinden sind. Er würde also Blumenbergs Sorge nicht teilen, dass Technologien sich in Kulturen verbreiten, die die einzelnen Entwicklungsschritte der Technik nicht miterlebt haben, sofern sie sich nicht nachträglich damit auseinandersetzen. Für Engelbart eignen sich die ›augmentation means‹ darüber hinaus dazu, die einzelnen Schritte im Arbeitsprozess des Menschen geordnet darzulegen und abzubilden,353 doch ist anhand seiner Aussagen über die Aborigines davon auszugehen, dass er mit dieser Annahme nicht die Verhaltensweisen des Naturvolks einschließt. Verdeutlichen lässt sich diese Annahme anhand von Formulierungen wie »representative human« oder auch »characteristically ›human‹ activities«354, womit Engelbart ähnlich wie das Autofahren beispielsweise die Fertigung von Texten, Zeichnungen, Diagrammen oder Listen anspricht. Dass sich in der Kultur der Aborigines womöglich ebenfalls die vier von Engelbart definierten Klassen von ›augmentation means‹ entwickelt haben – wenn auch mit anderen Ergebnissen –, thematisiert Engelbart nicht. Rückt man nun ausgehend von dieser Grundhaltung Engelbarts das von ihm vorgeschlagene Gesamtkonzept in den Fokus, wird zudem ein Paradox sichtbar. Es handelt sich hierbei um einen ähnlichen Widerspruch, wie er auch bei Coons herausgearbeitet wurde, denn Engelbart geht zwar auf der einen Seite von der schrittweise erfolgenden Herangehensweise des Menschen aus, auf der anderen Seite formuliert er jedoch die Vision, nach der der Mensch nicht mehr alle Schritte selbst ausführen muss, sondern dabei von der Maschine unterstützt wird. Beide, Coons und Engelbart, begegnen menschlichen Handlungsschritten demnach einerseits mit Wertschätzung und Aufmerksamkeit, andererseits mutmaßen beide, dass viele dieser Schritte durch den Computer ersetzt werden können. Engelbart und Coons tragen also aktiv zu der Problematik bei, die Blumenberg beschreibt, denn sie haben beide nichts anderes im Sinne, als Menschen dabei zu unterstützten, im Sprunge voranzukommen – wenn auch nur Menschen aus einem bestimmten Kulturkreis, sofern man Engelbarts Ausführungen folgt. In dieser Widersprüchlichkeit liegt jedoch nicht zuletzt die Begründung für die Reziprozität, mit der Prozesse zunächst nachempfunden und anschließend neugestaltet werden. Mit Engelbart lässt sich veranschaulichen, dass sich diese Dynamik nicht versehentlich einstellt, sondern dass es sich – im Gegenteil – um ein explizites Ziel handelt, mit der technologiegestützten Optimierung Veränderungen im Verhalten des Menschen hervorzurufen: »A concept structure often grows as part of a cultural evolution – either on a large scale within a large segment of society, or on a small scale within the activity domain of an in dividual. But it is also something that can be directly designed or modified, and a basic hypothesis of our study is that better concept structures can be developed – structures that when mapped into a human’s mental structure will significantly improve his capa bility to comprehend and to find solutions within his complex-problem situations.«355 353 Vgl. Engelbart (1962): S. 10. 354 Ebd., S. 16. 355 Ebd., S. 34–35. Engelbart geht davon aus, dass Menschen nach einem bestimmten Muster in hie rarchischer Weise einzelnen Handlungsschritten folgen, von denen einzelne optimiert oder neu gestaltet werden können. Im Englischen verwendet er hierfür den Begriff ›redesign‹: »Increasing the effectiveness of the individual’s use of his basic capabilities is a problem in redesigning the
Der Computer als kreativer Partner
Engelbart legt mit dieser Aussage offen, dass bestimmte Denkweisen absichtsvoll in technologiegestützte Vorgänge hineingelegt werden, um Verhaltensweisen vorzugeben und zu lenken. Er legitimiert damit das Anliegen der vorliegenden Studie, herauszufinden, welche kulturellen Artefakte den Produktionsprozess am Computer prägen – zumal nun deutlich wird, dass diese Artefakte nicht zufällig überdauern, sondern gezielt zur Formung der Computer- und Softwarelandschaft zum Einsatz kamen. In Bezug auf die Entwicklung computergrafischer Software rückt nun demzufolge wieder Coons in den engeren Fokus. Blickt man auf Coons’ Vorgehensweise, entsteht der Eindruck, er sei bei seiner eigenen Analyse bisheriger gestalterischer Verfahren Engelbarts Hinweisen direkt gefolgt: »To redesign a structure, we must learn as much as we can of what is known about the basic materials and components as they are utilized within the structure; beyond that, we must learn how to view, to measure, to analyze, and to evaluate in terms of the func tional whole and its purpose. In this particular case, no existing analytic theory is by it self adequate for the purpose of analyzing and evaluating over-all system performance; pursuit of an improved system thus demands the use of experimental methods.«356 Mit dem Begriff der ›structure‹ bezeichnet Engelbart hier die schrittweise Struktur einer menschlichen Handlung. Die Frage, die nun für dieses Kapitel bleibt, ist, welchen experimentellen Weg Coons für seine Analysen einschlägt. Sowohl Engelbarts als auch Coons’ Analysen erinnern an den produktionsästhetischen Untersuchungsansatz der vorliegenden Studie, denn um im Sprunge vorankommen und bewerten zu können, an welchen Punkten der Computer zum Einsatz kommt, müssen zunächst einzelne Handlungsschritte und Entscheidungen engmaschig nachvollzogen werden. So legitimiert Engelbart mit seinem Konzept nicht nur das Anliegen dieser Studie, sondern auch ihre Methode, denn, um den Sprung rückwirkend überwinden zu können und den gesamten Produktionsprozess nachzuvollziehen, ist es sinnvoll – ähnlich wie Engelbart es vorschlägt –, die einzelnen Arbeitsschritte und Entscheidungen zu analysieren, die für die Entwicklung der Technologie berücksichtigt wurden. Wie beschreibt Coons in seinem Paper also den Designprozess und was leitet er daraus für einen computergestützten Designprozess ab? Wie aus dem vorigen Kapitel bekannt ist, beginnt für ihn der Gestaltungsprozess mit einer vagen Idee, die mithilfe von ersten Skizzen allmählich zu einem Konzept entwickelt wird. Coons führt in diesem Zusammenhang den Gedanken an, den Perry in ihrer Studie mehrmals hervorhebt, weil er in ihren Augen Coons’ Denken in besonderer Weise charakterisiert: »The sketch forms the natural bridge between these vague stirrings of the imagination changeable parts of a system. […] To redesign the system’s capability for performing these processes means redesigning all or part of the repertoire hierarchy.« Engelbart (1962): S. 16. Die oben im Zitat angesprochene ›concept structure‹ ist eine von fünf sogenannten Strukturen, die der Mensch laut Engelbart entwickelt, um sich komplexe Fähigkeiten anzueignen: »Tentatively we have isolated five such t ypes--although we are not sure how many we shall ultimately want to use in considering the problem of augmenting the human intellect, nor how we might divide and subdivide these different manifestations of physical-process structuring. We use the terms ›mental structuring‹, ›concept struc turing‹, ›symbol structuring‹, ›process structuring‹, and ›physical structuring‹.« Engelbart (1962): S. 32. 356 Engelbart (1962): S. 15–16. Herv. i. O.
189
190
Scheler: Computergrafik
and the subsequent precise statement of the refined details of the concept.«357 Coons schildert anschließend, dass im Gestaltungsprozess zunächst qualitative Entscheidungen darüber getroffen werden, ob ein Entwurf beibehalten werden soll oder ob das Gesamtkonzept beziehungsweise einzelne Details darin verändert werden sollen. In Feedbackschleifen nähert sich ein Entwurf einer finalen Idee immer weiter an, bis schließlich präzisere Bearbeitungsschritte einsetzen, mit denen ein Entwurf etwa auch zur Produktion von Bauteilen weiterentwickelt wird. In diesem letzten Arbeitsschritt erfolgen dafür zum Beispiel Analysen zum physikalischen Verhalten des Bauteils, im Flugzeugbau also etwa aerodynamische Untersuchungen oder Belastungsberechnungen. Die ersten von ihm als ›qualitativ‹ bezeichneten Schritte in diesem Prozess stuft Coons als hochgradig kreativ ein. Während an dieser Phase nur einige wenige Ingenieure beteiligt seien, arbeiteten ebenfalls sehr früh eine große Anzahl an technischen Zeichnern daran, die Ideen grafisch zu veranschaulichen. Da dieser Aufgabenbereich auch die mathematischen und physikalischen Analysen beinhaltet, kommt Coons zu dem Schluss, sie seien »not in themselves of a creative nature«358, sofern nicht eigens neue mathematische Modelle entwickelt würden. Andere Aufgaben im Gestaltungsprozess lassen sich darüber hinaus lediglich als rein mechanisch charakterisieren: »[F]or example, a detail draftsman does nothing creative whatever. At the worst, he merely traces the outline of a part from the layout drawing, and adds the dimensions. Usually this drawing goes directly to some machinist or patternmaker in the shop, but sometimes it is used by a part programmer and converted by him into symbolic infor mation for use by a computer to prepare punched tape for automatic fabricating ma chinery. These are all essentially mechanical operations, however, and it is quite clear that at least in principle, the computer can be made to deal with them all.«359 Anhand seiner Unterscheidung zwischen den kreativen und unkreativen Aufgabenbereichen im Designprozess gelangt Coons zu einem Vorschlag, wie der Computer in die einzelnen Schritte einbezogen werden kann. Insbesondere die unkreativen Aufgaben stellen für ihn eine Legitimierung dar, den Computer eigenständig arbeiten zu lassen, denn hier geht Coons davon aus, dass sie für jeden, der mit dem Computer arbeitet, gleichermaßen gelten müssten. Coons differenziert hier weiter in Aufgabenbereiche, die sehr grundlegend sind und die für alle Designaufgaben gleichermaßen erforderlich seien. Ein umfassendes Programm, das jeder Designaufgabe mit ihren jeweiligen Spezifikationen gerecht werden würde, lehnt er ab. Er ist nicht davon überzeugt, dass sich im Computer hinreichend viele unterschiedliche Funktionen hinterlegen ließen, um allen möglichen Arbeitssituationen im Designprozess gerecht zu werden, denn »[i]f the assembly of such a library of special routines could be made complete enough, then the system would exhibit to the user on the outside an appearance of complete flexibility and generality. This would be satisfactory so long as the designer never called for a capability not already rigidly imbedded in the mechanism. But the process 357 Coons (1963): S. 300. 358 Ebd., S. 301. 359 Ebd., S. 301.
Der Computer als kreativer Partner
is unpredictable. Indeed part of the design process consists in designing new ways to perform the design function itself. This is a higher order of design activity, a sort of meta-design […] that clearly is outside the scope of any rigid set of special processes that can be anticipated at the beginning.« 360 Vor dem Hintergrund seiner Entwurfstätigkeit wird hier besonders deutlich, dass Coons in Bezug auf Designfragen zwar auf der einen Seite von der Zusammenarbeit zwischen Mensch und Computer überzeugt ist, dass er auf der anderen Seite jedoch auch klare Grenzen sieht. Um diesem Problem zu begegnen, dass sich nicht alle Designschritte antizipieren lassen, schlägt er deshalb vor, statt eine große Anzahl an einzelnen spezifischen Programmierroutinen zu entwickeln, lediglich wenige, »perhaps indeed only one«361, zu konzipieren, die so allgemeingültig gestaltet sind, dass ein Designer sie für seine Zwecke selbst schnell und einfach ausbauen sowie anpassen kann: »Finally, the system will be so general that it will be applicable to any creative activity. For example, the general problems of the architect, the machine designer, and the elec tronic designer are the same, but the specific details of their problems bear scant resem blances one to another. Yet an appropriately designed system will be so flexible that it will enable each discipline to modify the structure to fit its purpose.« 362 Die zu Beginn genannte grafische Eingabemöglichkeit, die Coons und seine Kollegen als Vision formuliert hatten, stellt für Coons beispielsweise eine der Basisfunktionen dar, die für jede Designdisziplin gleichermaßen nützlich sei. Er führt auch noch weitere Merkmale an, die er sich für den Designprozess ganz grundlegend wünscht, bei denen in dieser Form bislang nur der Computer aushelfen kann – zum Beispiel das Speichern von Ergebnissen, um zu einem späteren Zeitpunkt erneut daran weiterzuarbeiten, oder auch, die Bewegung von Objekten anzuzeigen, statt sie schematisch und statisch darzustellen, wie es für Entwurfszeichnungen bis zu jener Zeit üblich war.363 Seine Argumentationsweise erinnert an die Vorgehensweise im Grafikhandbuch, denn wie im vorigen Kapitel dargestellt, lag für ihn und seinen Kollegen Rule die Priorität ihres Lehrwerks darin, die Disziplin des Entwurfszeichnens nicht im Detail für alle Fachbereiche, also etwa die Automobil- oder aber die Flugzeugindustrie, vorzustellen, sondern sich auf die Bereiche zu konzentrieren, die für alle Felder gleichermaßen gelten.364 Vor dem Hintergrund seiner Überzeugung, es gebe unabhängig von der jeweiligen Disziplin grundlegende Gemeinsamkeiten, erschließt sich, weshalb er auch in der Entwicklung potenzieller Computeranwendungen zu dem Schluss gelangt, es gebe eine gemeinsame und allgemeingültige Ausgangsbasis für alle gestalterischen Disziplinen. Im Unterschied zum Handbuch, auf das prinzipiell niemand angewiesen gewesen wäre, wird Coons’ Vorstellung einer gemeinsamen Basis im Rahmen von Computeranwendungen wesentlich bedeutsamer, denn während es möglich ist, ein
360 Ebd., S. 301 361 Ebd., S. 302. 362 Ebd., S. 302. Herv. i. O. 363 Vgl. ebd., S. 302. 364 Vgl. Kapitel 2.3.1 Die Grafik als Gedankeninstrument, S. 158, in der vorliegenden Studie.
191
192
Scheler: Computergrafik
Buch infrage zu stellen und es gegebenenfalls wegzulegen, ist dies mit dem Computer – zumindest für einen Laien – nicht möglich. Er ist auf die Funktionen, die am Computer zur Verfügung stehen, angewiesen. Coons selbst leitet gedanklich her, welche Auswirkungen diese Dynamik entwickeln kann: »There is considerable evidence that our intellectual tools influence to a very great extent the form and scope of our intellectual works. It is quite certain that when the computer replaces pencil and paper in this very real way, it will bring about a truly miraculous chance in man’s intellectual potential.« 365 Bedeutend an dieser Einsicht Coons’ ist, dass der Einf luss auf den Intellekt des Menschen, den eine vorgegebene Arbeitsweise am Computer bewirke, für ihn nicht etwa ein Problem darstellt, sondern vielmehr ein Potenzial. Im Vergleich zu Sutherland wird nun deutlich, dass Coons sich in seinem Konzept auf dieser selbstref lexiven Ebene wesentlich grundlegender damit auseinandersetzt, welche Implikationen damit verbunden sind, wenn der Computer auf eine bestimmte Weise in kreative Arbeitsprozesse einbezogen wird. Wenngleich Coons zwar die Dynamik nicht problematisiert, so findet bei ihm zumindest ein Ref lexionsprozess noch statt. Bei Sutherland fehlt diese gedankliche Ebene. Vielmehr wirkt es so, als ob er mit der Legitimation, die ihm Coons in seinem eigenen Konzept herleitet, nunmehr ganz selbstverständlich weiterarbeitet. So bietet Sutherland mit Sketchpad in geradliniger Weise für Coons’ Überlegung eine Lösung an. So wie es Coons selbst vorschlägt, formuliert Sutherland, er habe ein grundlegendes Programm entwickelt, das sich für jede Aufgabe beliebig erweitern ließe. Durch Coons’ gedankliche Vorarbeit und zumindest noch selbstref lexive Auseinandersetzung mit der Problematik, gestalterische Prozesse zu beeinf lussen, kann Sutherland mit seinem Vorhaben seinem eigentlichen Ziel nachgehen, den Computer für jeden verfügbar zu machen. Mit den Grenzen des Computers oder dem Einf luss, den er auf die intellektuelle Arbeit hat, muss er sich nicht mehr auseinandersetzen – solange er sich an Coons’ Ideen hält, das Programm allgemein genug zu formulieren. Problematisch an dieser Entwicklung ist, dass Sutherland eine andere Nuancierung in seine Programmentwicklung hineingetragen hat, die Coons’ Ref lexionsprozess nicht mehr gerecht wird, denn anders als Coons geht Sutherland von noch gleichförmigeren Gestaltungsprinzipien aus. Zieht man hier erneut Engelbart heran, wird sichtbar, dass zwischen Coons und Sutherland auf dieser Ebene sogar ein klarer Widerspruch entsteht. So formuliert Engelbart eine ähnliche Ansicht wie Coons: »There are, of course, the explicit computer processes which we use, and which our philosophy requires the augmented man to be able to design and build for himself. A number of people, outside our research group here, maintain stoutly that a practical augmentation system should not require the human to have to do any computer pro gramming--they feel that this is too specialized a capability to burden people with.«366 365 Coons (1963): S. 302. 366 Engelbart (1962): S. 93. In einer fiktiven Vorausschau, die in dieser Form damals noch nicht einge treten war, sondern von Engelbart als Zukunftsvision formuliert wurde, stellte sich ebenfalls her aus, dass er nicht davon ausging, den Facettenreichtum des Computers vollumfänglich nutzen zu können, sofern man keine eigenen Programmierkenntnisse besitze: »It is true that the more of the
Der Computer als kreativer Partner
Sutherland, der kurz nach Engelbarts Bericht seine Arbeit an Sketchpad fertigstellte, formulierte, wie herausgearbeitet wurde, explizit den Anspruch, ein Programm zu entwickeln, das an Komplexität keine Einbußen machen müsse, das jedoch keine Programmierkenntnisse erfordere.367 Es lässt sich deshalb behaupten, dass Sutherland versucht, dem Anspruch Engelbarts und Coons’ zwar gerecht zu werden, also einen hohen Grad an Vielfalt und Komplexität zu bewahren, doch wird an der Argumentation Coons’ deutlich, dass dieser Anspruch mit der Art und Weise, wie Sutherland sein Programm konzipierte, in letzter Konsequenz nicht zu erfüllen war. Im Ergebnis lässt sich nun festhalten, dass in der Abfolge der Entwicklungsschritte von Coons bis Sutherland eine Ref lexionsebene verloren gegangen ist. Dieser Verlust ist maßgeblich dafür verantwortlich, so die These für die weiteren Schritte in dieser Studie, dass sich die Computergrafik mit einem spezifischen Bildverständnis weiterentwickelt hat. In der weiterführenden Erforschung der Mensch-Maschine-Interaktion wird es nicht mehr als Notwendigkeit erachtet, abzuwägen, ob gestalterische Entscheidungen durch die Übersetzung in den Computer ausgeschlossen werden. Der Anteil also, den Coons noch als individuell und nicht festlegbar bezeichnet hat, geht vollkommen verloren und damit auch der Teil, bei dem Coons dem Menschen noch eigene kreative Entscheidungskraft beimisst. Es ist also in der weiteren Entwicklung der Software grundsätzlich angelegt, dass der Computer eigenständig arbeitet – das Ziel, sich als Mensch mit eigenen freien Konzepten einzubringen, ist auf ein Minimum reduziert. Coons hat diese Entwicklung in dieser Form nicht beabsichtigt, allerdings hat er ein gedankliches Konzept entwickelt, in dem die weitere Entwicklung, wie sie sich schließlich ereignete, angelegt war. Zum Schluss bleibt die Frage, wie seine Grafikvorstellungen in die Software gelangt sind. Er selbst hat dazu nicht beigetragen. Vielmehr hat er zwei Bausteine geliefert, die erst später zusammengefunden haben: einen, der die Grafik, und einen, der den Computer betrifft. In welcher Weise dies geschehen ist, soll im anschließenden Teil dieser Untersuchung herausgearbeitet werden. Zusammenfassen lässt sich allerdings, dass in einem sehr grundlegenden Aspekt seine Grafikvorstellungen und seine computertechnologischen Überlegungen aus einer übereinstimmenden Haltung heraus entstanden sind, weshalb es naheliegt, dass beide Bausteine später zusammenfinden konnten. So wird sowohl in der Auseinandersetzung mit seinen grafischen Prinzipien als auch mit seinen Überlegungen zur Computertechnologie deutlich, dass er im Rahmen beider Felder dem menschlichen Denkvermögen eine zentrale Stellung einräumt. Wenn die Grafik – neben der Sprache und der Mathematik – für ihn ein Gedankeninstrument darstellt, mit dem sich ein ›augmented advantage over nature‹ erzielen ließe, dann erschließt sich nun, warum er auch den Computer als ein Instrument begreift, mit dem sich der intellektuelle sophisticated tricks you learn the more computer power you can harness and the more powerful you become--but very significant and personally thrilling practical problem-solving capabilities have been developed by quite few subjects who were given only fifteen hours of training at one of these stations.« Engelbart (1962): S. 107. In seiner Vision antizipierte er zudem ein Programm, in dem es ein Werkzeug gibt, mit dem sich Computer-Werkzeuge selbst gestalten lassen, falls eine Funktion fehlt. Vgl. Engelbart (1962): S. 103. 367 Vgl. Kapitel 2.1.1 Mehrzweckcomputer und Lichtstifte – Die Hardwareausstattung Sutherlands, S. 74, in der vorliegenden Studie.
193
194
Scheler: Computergrafik
Denkprozess des Menschen optimieren lässt. Insgesamt setzt sich also ein Narrativ fort, bei dem es darum geht, sich grafisch denkend mithilfe des Computers die Welt zu erschließen. Woher im kulturellen Sinne die Wurzeln für dieses Denken liegen könnten, soll im vierten und fünften Teil dieser Studie herausgearbeitet werden. Bevor dieser kulturhistorische Hintergrund ergründet wird, erfolgt zunächst eine Darstellung der weiteren computergrafischen Entwicklungen an der University of Utah, um herauszufinden, inwiefern die bisherigen Konzepte und Prinzipien eine Fortführung erfahren haben.
3
U niversity of Utah – Die Wiege der zeitgenössischen 3D-Computergrafik
3.1
Ein gemeinsames Ziel – Die 3D-Computergrafik zwischen Glaubwürdigkeit und Realismus
Sutherland and Dave Evans […] were magnets for bright students with iverse interests, and they led us with a light touch. Basically they welcomed d us to the program, gave us workspace and access to computers, and then let us pursue whatever turned us on. The result was a collaborative, supportive community so inspiring that I would later seek to replicate it at Pixar.1 – Edwin Catmull (2014)
Im Jahr 1988 erhielt Ivan Sutherland für seine Pionierarbeit im Bereich der Computergrafik den renommierten Turing Award.2 Vergeben wird die Auszeichnung seit 1966 im Jahrestakt von der Association for Computing Machinery (ACM), um jene Personen zu ehren, die den Bereich der Informatik in besonderer Weise vorangetrieben und geprägt haben. Einige der Preisträger wurden im Rahmen dieser Studie bereits erwähnt, so zum Beispiel Douglas C. Engelbart, der die Auszeichnung im Jahr 1997 erhielt, oder auch Edwin Catmull, der erst kürzlich, im Jahr 2019, mit dem Preis geehrt wurde und im Rahmen dieses dritten Teils eine zentrale Rolle einnehmen wird. Zum Anlass von Sutherlands Auszeichnung wurde im Juni 1989 in der von der ACM herausgegebenen Fachzeitschrift Communications of the ACM ein Interview mit ihm veröffentlicht, das entscheidende Hinweise liefert, um die zentrale Fragestellung für diesen Abschnitt der Studie herzuleiten. Das Gespräch deckt verschiedene Themenfelder ab, wie beispielsweise den Bereich des Programmierens, Sutherlands spätere Tätigkeit am California Institute of Techno-
1 Edwin Catmull; Amy Wallace: Creativity, Inc. Overcoming the Unseen Forces That Stand in the Way of True Inspiration. New York, NY: Random House Inc., 2014, S. 12. 2 Auch in Kapitel 2.1 Ivan E. Sutherlands Sketchpad und die Geburt der ›universellen‹ Computerzeichnung wurde auf dieses Ereignis verwiesen. Vgl. S. 68 in der vorliegenden Studie.
196
Scheler: Computergrafik
logy3 oder auch das Themengebiet der Robotik. Einen weiteren Gesprächspunkt bildet das Feld der Computergrafik, in dem auch das Forschungsprojekt an der University of Utah inhaltlich aufgegriffen wird. Zu Beginn des Interviews wird Sutherland zunächst allgemein zu seinem Werdegang befragt, wie er in das Feld der Informatik und speziell in das Gebiet der Grafik gelangt ist. Obwohl er einzelne Personen, die Einf luss auf ihn hatten, namentlich nennt,4 erwähnt er Coons im Rahmen dieses Interviews, also 26 Jahre nach seiner Entwicklung von Sketchpad, nicht erneut. Auf die Frage, woher er damals die Idee für sein Programm hatte, antwortet er: »Where do ideas come from? I haven’t a clue as to where ideas come from. Ideas just come around.«5 Ein grafisches Interesse sei bei ihm allerdings früh angelegt gewesen, da sein Vater selbst als Bauingenieur tätig war und Sutherland schon in jungen Jahren mit dem Verfahren des technischen Zeichnens vertraut machte.6 Obwohl nicht davon ausgegangen werden soll, dass Coons in direkter Weise für die späteren Karriereschritte oder konkrete Ideen Sutherlands verantwortlich ist, zeigt sich im weiteren Verlauf des Interviews, dass Coons’ Verständnis grafischer Kommunikation in Sutherlands Denken überdauert hat oder zumindest ebenfalls erkennbar ist. Auch Fetters verwandte Vorstellungen grafischer Kommunikation lassen sich in dem Gesprächsabschnitt zur Computergrafik wiederfinden. Anhand dieser Bezüge, die nun hergeleitet werden sollen, lässt sich anschließend die zentrale Fragestellung für diesen Abschnitt formulieren. Zunächst einmal ist es bemerkenswert, dass sich Bezüge zwischen Coons beziehungsweise Fetter und Sutherland überhaupt herauslesen lassen, da Sutherland seine Gedanken in dem Interview zu einem Zeitpunkt äußert, als das Verfahren der Computergrafik etabliert und keinen grundsätzlichen Überlegungen mehr ausgesetzt war – ein Aspekt, der zum Ende dieser Abschnittseinführung noch einmal aufgegriffen werden soll. Mit ihren Fragen spricht Sutherlands Interviewpartnerin Karen A. Frenkel auch die besonders einf lussreiche Forschung an der University of Utah an. In diesem Zusammenhang nimmt sie zudem Bezug auf einen Sachverhalt, der schon früh die computergrafische Forschung allgemein, aber auch gezielt die Untersuchungen an der University of Utah prägte und der auch heute noch die Entwicklungen in dem Fachbereich antreibt: Es geht um das Spannungsfeld »photorealism versus fast image processing«7, also zwei potenziell zueinander im Gegensatz stehende Aspekte der Computergrafik. Insbesondere in der frühen Zeit der Computerbilder musste häufig grundsätzlich entschieden werden, ob die Bilder zeitlich besonders effizient erzeugt werden oder ein fein ausgearbeitetes, also in diesen Fällen ein als fotorealistisch zu bezeichnendes Erscheinungsbild besitzen sollen. Obwohl sich im weiteren Verlauf dieses Abschnitts zeigen wird, dass diese Grundsatzentscheidung in vielen der in Utah verfassten Forschungsberichte erwähnt wird, reagiert Sutherland abweisend auf die 3 Sutherland war im Jahr 1975 an der Gründung des Studienzweigs Computer Science am California Institute of Technology beteiligt. Vgl. Caltech Computing | Mathematical Sciences: History and Facts. Ohne Datum. URL: https://cms.caltech.edu/about/history. Zugriff am: 13.12.2021. 4 Explizit nennt Sutherland beispielsweise die in Kapitel 2.1 Ivan E. Sutherlands Sketchpad und die Geburt der ›universellen‹ Computerzeichnung thematisierten Wesley A. Clark und Claude E. Shannon. Vgl. Sutherland; Frenkel (1989): S. 712. 5 Sutherland; Frenkel (1989): S. 712. 6 Vgl. ebd., S. 713. 7 Ebd., S. 713.
University of Utah
Thematik: »I mean, you’re making a dichotomy that I don’t understand very well.«8 Anzunehmen ist, dass Sutherland zu jener Zeit mit dem Erscheinungsbild der Grafiken sowie mit ihrer Berechnungszeit zufrieden war. Dennoch handelt es sich um eine Dichotomie, deren weiterer Auf lösung zum Beispiel die heutige Gaming-Branche noch immer großes Gewicht beimisst.9 Für die vorliegende Studie steht die Gegensätzlichkeit, die Frenkel mit ihrer Frage eröffnet, nicht im Vordergrund. Wesentlich ist hingegen ihr Hinweis auf die fotorealistische Bildsprache. Auch Sutherland äußert sich dazu, betont allerdings zunächst, der Fotorealismus sei zu Beginn noch gar nicht relevant gewesen. Zentral sei in Utah Mitte der 1960er Jahre, also zu Beginn der dortigen Forschung, vor allem der Wunsch nach opaken Darstellungen von dreidimensionalen Objekten gewesen, im Gegensatz zu den damals üblichen Linienzeichnungen.10 Sutherland hebt Evans in diesem Zusammenhang besonders hervor – er habe nicht nur in technischer Hinsicht wesentlich dazu beigetragen, am Computer grafisch arbeiten zu können, sondern in Utah auch einen Ort geschaffen, an dem viele verschiedene Akteure in dem Forschungsbereich in Utah zusammenkamen, wodurch eine große Dichte an Ansätzen und Ideen entstanden sei, die die Entwicklung der Computergrafik vorangetrieben habe.11 Dass Sutherland selbst, wie in der geschichtlichen Übersicht zu Beginn der vorliegenden Studie dargestellt, als Mitarbeiter der ARPA die Finanzierung des Projekts ermöglichte, erwähnt er 8 Ebd., S. 713. 9 Darauf verweist beispielsweise der gemeinsam mit Edwin Catmull an der Gründung der Pixar Animation Studios beteiligte Alvy Ray Smith: »We were certainly limited to low-resolution displays in the old days (nominally 512x512). We knew that film required much higher resolution, but the com puters weren’t up to it yet. We designed for higher resolution, however, and also for vastly more computational power. My brilliant colleague Loren Carpenter suggested that we set our sights on 80 million polygons per picture (NOT per second, but per frame). This was in the 1980s. Our mantra was (and I said this in public often): Reality begins at 80 million polygons. In other words, scenes start to reach a level of verisimilitude there where people stop paying close attention to the details (and pay attention instead to the characters). We were just guessing really, but the estimate turned out to be a good one. One of the results was that none of our code would fail when numbers as large as 80 million polygons were thrown at it, even in the bad old days of exceedingly slow machines. By free association, I came up with this quote as perhaps the one you remember. The quote is silly, of course, because reality is of far far higher resolution, but it served to set the stage for us and our code. [Just this last year, the Unreal engine has achieved this level of shaded, lit, polygons, with hidden surfaces removed, IN REAL TIME! It had to happen, but it still astonishes me.]« Alvy R. Smith: Realism and Resolution in Early Computer Graphics. E-Mail an Carolin Scheler, 27.09.2021. Eckige Klammern und Herv. i. O. 10 Sowohl in Zusammenhang mit Gabourys Studie im Forschungsstand als auch in Kapitel 1.2.1 Starting from Scratch – Die Praxis der synthetischen Bilderzeugung wurde diese Problematik unter dem Stich wort ›Hidden Surface Problem‹ thematisiert. 11 Wörtlich beschreibt Sutherland Evans’ Forschungsbeitrag folgendermaßen: »The man who figured out the basic techniques that made modern graphics possible was David Evans. He had come out of a whole collection of early computing experiences in which incremental computing was used simply because that was all that could be done with the available equipment. He knew that incremental computing was a powerful way to get more results for less work. He suggested to a collection of his students, and to me, that we make use of all of the information that we’d computed for one pixel in doing the computations for the adjacent pixel – that we try never to recompute ab initio, but rather to compute on the basis of nearby changes.« Sutherland; Frenkel (1989): S. 713. Herv. i. O.
197
198
Scheler: Computergrafik
in diesem Interview nicht. Obwohl also Sutherland selbst Evans in den Vordergrund stellt und er an dessen Forschungsprojekt auch erst zwei Jahre nach Projektstart mitwirkt, lässt sich einerseits anhand seines Programms Sketchpad und andererseits über die mit Coons geschlagene Brücke auch Sutherlands Einf luss auf die Entwicklungen an der University of Utah klar herausarbeiten. Im Interview mit Frenkel geht er in eine differenziertere Auseinandersetzung mit der Frage, welcher Zweck mit den repräsentativen Bildern verfolgt werden soll. Obwohl es inzwischen – also 1989 – möglich sei, sehr gelungene repräsentative Grafiken zu erzeugen, seien einige Bilder technisch zwar sehr ausgereift, besäßen jedoch auf der anderen Seite überhaupt keine »underlying meaning«12. Wichtiger als lediglich die technischen Möglichkeiten auszustellen, ist ihm hingegen die Frage, wie die Technologie zur Visualisierung abstrakter wissenschaftlicher Phänomene zum Einsatz kommen kann: »How do I make a beautifully realistic photograph of an atom? Well, atoms are smaller than the wavelength of light, so no one’s ever seen one. So I don’t know what an atom looks like. Any picture that I make of an atom is going to be a representative picture that may be beautifully rendered with the most gorgeous techniques and have shiny globular parts, shiny electrons and shiny neutrons. That may be very impressive, but it may not correspond good physics. The important underlying question is, does it convey a meaning that’s of some importance? So I don’t see the realism per se as being controversial.« 13 Obwohl Sutherland in seinem Beispiel eine abstrakte Gegebenheit schildert, lässt sich anhand seiner Äußerungen nicht nur ein Bezug zu Coons und Fetter herstellen, ihre Positionen lassen sich mit Sutherlands Überlegung sogar noch zuspitzen. Wie zuvor herausgearbeitet, war es sowohl für Coons als auch für Fetter ein Anliegen, nicht nur repräsentative Darstellungsmodi zu nutzen, um Konzepte zu visualisieren, ihnen war zudem wichtig, dass die zeichnerischen Verfahren dazu imstande sind, eine Idee glaubwürdig und greif bar zu vermitteln. Beide knüpften diese Anforderung an eine Darstellungsweise, die sie als realistisch bezeichneten. Auffällig ist, dass alle drei nicht primär Wert darauf legen, ob die Zeichnung beziehungsweise das fotorealistische Computerbild physikalisch korrekt ist, solange die Maxime der Glaubwürdigkeit beachtet wird. Sutherland spricht diesen Aspekt sogar explizit an, indem er darlegt, dass es bei der Darstellung des Atoms nicht darum ginge, dessen Eigenschaften physikalisch einwandfrei darzubieten, sondern dass das Ziel sein sollte, ein Bild mit einer innewohnenden Bedeutung zu erzeugen. Seine Formulierung erinnert hierbei an Rules und Coons’ eigene Formulierung der »implicit meaning«14, die sich ihrer Ansicht nach allein durch die zeichnerischen Konventionen ausdrücke. Der Fotorealismus ist für Sutherland, um den Bildern eine tiefere Bedeutungsebene zu verleihen, nicht zwingend erforderlich, aber er stellt für ihn auch kein Hindernis dar. Wovon jedoch Sutherland in jedem Fall ausgeht, ist eine repräsentative Darstellung. Unabhängig davon, wie er sich eine solche Darstellung in Bezug auf ein Atom vorstellt, wird deutlich, dass auch Coons und Fetter in ähnlicher Weise ihre Vorstellung einer glaubwürdigen 12 Sutherland; Frenkel (1989): S. 713. 13 Ebd., S. 713. Herv. i. O. 14 Rule; Coons (1961): S. 8.
University of Utah
und greif baren Darstellung nicht an die technischen Bauzeichnungen, sondern stets an die perspektivischen, repräsentativen Illustrationen knüpfen. Die Zuspitzung liegt nun in dem Aspekt, dass Fetter und Coons sich noch auf Zeichnungen beziehen, die konkrete physikalische Objekte zeigen beziehungsweise solche, die künftig etwa als Bauteil existieren sollen, während Sutherland eine repräsentative Darstellung sogar für Phänomene nutzen würde, die im Ursprung stets abstrakt bleiben. Hierfür sieht er, wie er im Interview darlegt, offenkundig den größten Nutzen für die am Computer erzeugten Bilder: »The most exciting power of computer graphics is to make abstract concepts real, and that’s also the hardest because it involves visualizing new ideas.«15 Auch Sutherland stellt also eine Verknüpfung zwischen einem realistischen Darstellungsmodus und perspektivischen beziehungsweise repräsentativen Prinzipien her, wobei er diese zugleich ebenfalls der Glaubwürdigkeitsmaxime unterordnet. Aus dieser Beobachtung leitet sich nun die Frage ab, auf welche Weise, in welchem Umfang und vor allem aus welchem Grund sich Coons’ und Fetters Überzeugung in den weiteren Entwicklungen im Bereich der Computergrafik weiter verfestigt hat. Sutherland bietet, wie nun deutlich gemacht werden konnte, einen möglichen Anknüpfungspunkt, um dieser Frage nachzugehen. Er hat an der University of Utah in entscheidender Weise dazu beigetragen, die Vorstellungen Coons’ weiterzutragen. Zugleich basieren die nachfolgenden Kapitel auf der Annahme, dass mit den Entwicklungen in Utah die eigentliche Entwicklung eines Sinnzusammenhangs, der den 3D-Grafiken zugrunde liegt, abgeschlossen ist. Obwohl in dieser Studie kulturelle Artefakte im Querschnitt in der Entstehungsgeschichte von 3D-Computergrafiken erstmals umfassend herausgearbeitet werden, ist die Beobachtung, dass die Forschung der 1970er Jahre für den Entwicklungsprozess richtungsweisend und damit auch im Wesentlichen abgeschlossen war, nicht neu. Mit dem Animationshistoriker Tom Sito lässt sich dieser Eindruck beispielsweise bestätigen: »Ever since the 1960s, when pioneers like John Whitney, Ivan Sutherland, Ken Knowl ton, and Charles Csuri set out the basic principles, CG technology had been slowly building. The 1970s were about creating the basic tools, and the 1980s mostly about improving the power of these tools and making them user-friendly enough that crea tive minds could be free to explore. The development of CG had been advanced by governments, scientists, engineers, game makers, architects, motion picture visual effects studios, and university academics. As the 1980s moved into the 1990s, all these diverse strands, operating on heretofore separate tracks, began to merge into one grand convergence.« 16 Sitos Übersicht liefert gleich mehrere Anknüpfungspunkte für den weiteren Verlauf dieser Studie. Zum einen legitimiert er mit seiner Aussage, dass sich in den 1970ern die Werkzeuge im Wesentlichen fertig entwickelt haben, im Kontext der vorliegenden Studie den Fokus insbesondere auf die 70er Jahre zu lenken, um herauszufinden, inwiefern die ›basic tools‹ die bisher herausgearbeiteten Werte von Coons, Fetter und Sutherland aufgreifen. Zum anderen deutet Sito mit seiner Formulierung der 15 Sutherland; Frenkel (1989): S. 714. 16 Sito (2013): S. 253.
199
200
Scheler: Computergrafik
›grand convergence‹ an, dass eine Art Konsens darüber existiert, was eine Computergrafik auszeichnet und wie sie funktioniert. Seine Schilderungen erinnern hierbei an Gabourys Hinweis, die Forschung habe für ihren Fortschritt eine übergreifende Vision benötigt.17 Die Frage lautet also, was diese gemeinsame Vorstellung für die Erforschung eines Verfahrens, mit dem sich 3D-Computergrafiken erzeugen lassen würden, auszeichnete. Die Forscher an der University of Utah, also Sutherland, Evans, Catmull sowie Phong, Blinn und Gouraud, haben neben vielen anderen wesentlich zu dieser richtungsweisenden Entwicklung beigetragen. Obwohl Gaboury, wie im Forschungsstand dargelegt, die dortigen Entwicklungen als bislang vernachlässigt einstuft, wird die University of Utah in verschiedenen Geschichtsschreibungen stets als zentrale Forschungsstätte hervorgehoben. Nicht nur Rebecca Perry verweist in ihrer Studie auf die wesentliche Rolle Utahs, indem sie die dortige Forschung als »foundation for computer graphics«18 bezeichnet, auch Robert Rivlin stellt in seiner 1986 erschienenen Monografie The Algorithmic Image in ähnlicher, sogar noch deutlicherer Weise die besondere Rolle Utahs heraus. Obwohl er auch auf andere Forschungsstätten verweist, an denen die Entwicklung von Computergrafiken vorangetrieben wurde – so zum Beispiel die Ohio State University, das MIT, Cornell, New York Institute of Technology, Carnegie Mellon und Stanford, hebt er die University of Utah unter allen Institutionen hervor: »Virtually every modern concept in computer graphics either had its origin or received significant further development at the University of Utah in the late 1960s 17 Vgl. Gaboury (2021): S. 32–33. 18 Perry (2014): S. 26. Sie betont zudem, dass »anyone with a serious interest in computer graphics was drawn to Utah, whose graduates began to decisively shape the field.« Perry (2014): S. 73. Sie bezieht sich mit dieser Aussage beispielsweise darauf, dass einflussreiche Unternehmen wie Adobe und die Pixar Animation Studios oder auch die von Alan Kay vorangetriebene Entwicklung des Laptops auf Alumni dieses Computer Centers in Utah zurückgehen. Vgl. Perry (2014): S. 73, Fußnote 106. Vor dem Hintergrund dieser zentralen Stellung der University of Utah und des Wis sens darum, dass die dort erfolgte Forschung im Bereich der Computergrafik von staatlichen und militärischen Geldern subventioniert wurde, verwundert es, dass der Professor für Queer und Gender Studies Jack Halberstam die computergrafischen Entwicklungen allgemein und insbe sondere Pixar im Rahmen seiner Monografie The Queer Art of Failure in seine Theorie des Versagens einordnet. Er möchte damit einen Raum für alternative wissenschaf tliche Herangehensweisen und Erzählstränge eröf fnen, die nicht dem heteronormativen Leistungsbild der Gesellschaf t und Wissenschaf t entsprechen: »[T]he computer scientists who pioneered new programs to pro duce computer-generated imagery (CGI), as many accounts of the rise of Pixar have chronicled, were academic rejects or dropouts who created independent institutes in order to explore their dreams of animated worlds. These alternative cultural and academic realms, the areas beside academia rather than within it, the intellectual worlds conjured by losers, failures, dropouts, and refuseniks, of ten serve as the launching pad for alternatives precisely when the university can not.« Judith/Jack Halberstam: The Queer Art of Failure. Durham, NC u. a.: Duke University Press, 2011, S. 7. Halberstam bezieht sich hier ohne eine Angabe genauerer Passagen auf die Geschichts schreibung der Pixar Animation Studios von David A. Price. Er zeichnet die Entwicklung des Unter nehmens sehr umfassend nach, macht es sich aber nicht zur Aufgabe, die historischen Fakten im Hinblick auf einen größeren kulturellen Rahmen einzuordnen oder zu bewerten. Halberstams Auslegung basiert also vermutlich auf einer Selbstdeutung der an der Gründung des Animations studios beteiligten Personen. Vgl. David A. Price: The Pixar Touch. The Making of a Company. New York, NY: Vintage Books, 2009.
University of Utah
and early 1970s.«19 Um also der Frage nach einer gemeinsamen Vorstellung nachzugehen, soll zunächst einmal das Forschungsprojekt an der University of Utah unter der Leitung von Dave Evans und einige Jahre später unter der Leitung von Evans und Sutherland in den Fokus gerückt werden. Es werden hierfür in den folgenden Kapiteln zum einen zentrale Entwicklungen dargelegt und zum anderen stets mit den zuvor erarbeiteten Aspekten in Beziehung gesetzt. Im Vordergrund steht dabei zunächst einmal die Art und Weise, also wie die Aspekte ihren Weg in die Computergrafik gefunden haben. Der fünfte Abschnitt der vorliegenden Studie wendet sich der Frage zu, warum sie überdauert haben. Um diesem letzten Anliegen gerecht zu werden, wird mit Catmull, einem Absolventen des Informatikfachbereichs der University of Utah, die bis zu diesem Punkt hauptsächlich produktionsästhetische Studie zum Schluss um eine bildästhetische beziehungsweise stilgeschichtliche Ebene erweitert. Die Entscheidung, dieser Ebene hier einen so großen Stellenwert einzuräumen, basiert auf der These, dass die Produktionsgeschichte der synthetischen Computergrafiken bei Catmull und den Pixarfilmen eine bildästhetische Ausformung findet, die den gemeinsamen Sinnzusammenhang synthetischer Computergrafiken nicht nur beschreibbar, sondern sogar explizit sichtbar macht. Teil dieser bildästhetischen Auseinandersetzung ist daher ein Blick in die US-amerikanische Bildkultur, da hier in einem größeren Umfang deutlich werden kann, warum die Grafikanwendungen für den Computer auf eine bestimmte Weise entwickelt wurden. Um dorthin zu gelangen, zeichnen die nachfolgenden Ausführungen die Entwicklungen in Utah nun chronologisch nach. Edwin Catmull bildet hierbei den Endpunkt.
3.2
Opazität, Licht und Animation – Eine Strategie zur Umsetzung des gemeinsamen Ziels
In der Auseinandersetzung mit Steven Coons’ Grafikauffassung wurde ein Bereich bislang vollkommen ausgespart. Anstatt den Fokus auf die technischen Zeichnungen zu legen, stand im Vordergrund, herauszuarbeiten, weshalb neben diesen technischen Zeichnungen insbesondere den illustrativen Perspektivzeichnungen sowohl von Coons und Rule, aber auch von Fetter ein so hoher Stellenwert eingeräumt wird. In diesem Abschnitt, der sich mit der weiteren Entwicklung der Computergrafiken in Utah befasst, rücken nun die technischen Aspekte, die in der Auseinandersetzung mit Coons wenig Beachtung gefunden haben, in den Vordergrund. Zahlreiche Prinzipien, die Coons für die Zeichnung auf Papier herausgearbeitet hat und die für die Fertigung von Ingenieurszeichnungen ohnehin etabliert waren, wurden später in den Computer integriert, um die computergestützte Erzeugung repräsentativer und perspektivischer Darstellungen zu ermöglichen. Auch der von ihm entwickelte ›Coons Surface Patch‹, ein mathematisches Berechnungsmodell zur präzisen Bestimmung geschwungener Oberf lächen, wurde in Utah aufgegriffen und weiterentwickelt.20 In Bezug auf Coons und auch auf Fetter wurde zwischen den orthografischen, abstrakten technischen Zeichnungen und den perspektivischen Illustrationen eine 19 Rivlin (1986): S. 27. 20 Vgl. Coons (1967).
201
University of Utah
and early 1970s.«19 Um also der Frage nach einer gemeinsamen Vorstellung nachzugehen, soll zunächst einmal das Forschungsprojekt an der University of Utah unter der Leitung von Dave Evans und einige Jahre später unter der Leitung von Evans und Sutherland in den Fokus gerückt werden. Es werden hierfür in den folgenden Kapiteln zum einen zentrale Entwicklungen dargelegt und zum anderen stets mit den zuvor erarbeiteten Aspekten in Beziehung gesetzt. Im Vordergrund steht dabei zunächst einmal die Art und Weise, also wie die Aspekte ihren Weg in die Computergrafik gefunden haben. Der fünfte Abschnitt der vorliegenden Studie wendet sich der Frage zu, warum sie überdauert haben. Um diesem letzten Anliegen gerecht zu werden, wird mit Catmull, einem Absolventen des Informatikfachbereichs der University of Utah, die bis zu diesem Punkt hauptsächlich produktionsästhetische Studie zum Schluss um eine bildästhetische beziehungsweise stilgeschichtliche Ebene erweitert. Die Entscheidung, dieser Ebene hier einen so großen Stellenwert einzuräumen, basiert auf der These, dass die Produktionsgeschichte der synthetischen Computergrafiken bei Catmull und den Pixarfilmen eine bildästhetische Ausformung findet, die den gemeinsamen Sinnzusammenhang synthetischer Computergrafiken nicht nur beschreibbar, sondern sogar explizit sichtbar macht. Teil dieser bildästhetischen Auseinandersetzung ist daher ein Blick in die US-amerikanische Bildkultur, da hier in einem größeren Umfang deutlich werden kann, warum die Grafikanwendungen für den Computer auf eine bestimmte Weise entwickelt wurden. Um dorthin zu gelangen, zeichnen die nachfolgenden Ausführungen die Entwicklungen in Utah nun chronologisch nach. Edwin Catmull bildet hierbei den Endpunkt.
3.2
Opazität, Licht und Animation – Eine Strategie zur Umsetzung des gemeinsamen Ziels
In der Auseinandersetzung mit Steven Coons’ Grafikauffassung wurde ein Bereich bislang vollkommen ausgespart. Anstatt den Fokus auf die technischen Zeichnungen zu legen, stand im Vordergrund, herauszuarbeiten, weshalb neben diesen technischen Zeichnungen insbesondere den illustrativen Perspektivzeichnungen sowohl von Coons und Rule, aber auch von Fetter ein so hoher Stellenwert eingeräumt wird. In diesem Abschnitt, der sich mit der weiteren Entwicklung der Computergrafiken in Utah befasst, rücken nun die technischen Aspekte, die in der Auseinandersetzung mit Coons wenig Beachtung gefunden haben, in den Vordergrund. Zahlreiche Prinzipien, die Coons für die Zeichnung auf Papier herausgearbeitet hat und die für die Fertigung von Ingenieurszeichnungen ohnehin etabliert waren, wurden später in den Computer integriert, um die computergestützte Erzeugung repräsentativer und perspektivischer Darstellungen zu ermöglichen. Auch der von ihm entwickelte ›Coons Surface Patch‹, ein mathematisches Berechnungsmodell zur präzisen Bestimmung geschwungener Oberf lächen, wurde in Utah aufgegriffen und weiterentwickelt.20 In Bezug auf Coons und auch auf Fetter wurde zwischen den orthografischen, abstrakten technischen Zeichnungen und den perspektivischen Illustrationen eine 19 Rivlin (1986): S. 27. 20 Vgl. Coons (1967).
201
202
Scheler: Computergrafik
ivergenz herausgearbeitet. Während beide Ingenieurszeichner die letztere DarstelD lungsform als glaubwürdiger beziehungsweise greif barer einstuften, attestierten sie den technischen Zeichnungen hingegen eine größere Präzision. Für diesen Abschnitt ist nun interessant, dass in den späteren Computeranwendungen beide Ebenen integriert wurden. Die heutigen Computerdarstellungen oszillieren also zwischen dem technischen und dem perspektivischen Zugriff, wobei man den orthografischen Ansichten in der Regel nur im Produktionsprozess begegnet, während sich die perspektivischen und damit auch symbolischen Ansichten vor allem in den fertigen Bildern manifestieren. Noch bevor diese beiden gegenüberliegenden Zeichenansätze an der University of Utah zusammenfanden, zeichnete sich diese Entwicklung bereits mit Timothy Johnsons unter der Betreuung von Steven Coons am MIT entwickelten Masterarbeit Sketchpad III im Jahr 1963 ab. Er erarbeitete sie, noch während Sutherland das Programm Sketchpad als Grafikprogramm für zweidimensionale Zeichnungen entwickelte. Johnsons Ansatz bot gegenüber Sutherlands erstmals eine Möglichkeit, direkt auf einem Bildschirm mithilfe des Computers perspektivische 3D-Zeichnungen von Objekten zu erzeugen. Für die vorliegende Studie ist an Johnsons Arbeit besonders bedeutsam, dass die Probleme, auf die er mit seinem Anliegen gestoßen ist, und auch seine Lösungsansätze, die er anführt, zentrale Aspekte vorweggreifen, die später auch die Forschung in Utah prägen.21 Seine Vorarbeit soll deshalb zu Beginn dieses Abschnitts nachgezeichnet werden, denn zahlreiche in Utah verfolgte Forschungsthemen lassen sich auf diese Weise vorab veranschaulichen. Sutherland, der an dem Forschungsprojekt in Utah in zentraler Weise beteiligt war, geht einige Jahre früher, 1963, in seinem eigenen technischen Report, den er im Rahmen seiner Arbeit an Sketchpad fertigte, ebenfalls auf Johnsons 3D-Version Sketchpad III ein: »The methods outlined in this report generalize nicely to three dimensional drawing. In fact, work has already been begun to make a complete ›Sketchpad Three‹ which will let the user communicate solid objects to the computer. A forthcoming thesis by Timo thy Johnson of the Mechanical Engineering Department will describe this work. When Johnson is finished it should be possible to aim at a particular place in the three dimen sional drawing through two dimensional, perspective views presented on the display. Johnson is completely bypassing the problem of converting several two dimensional drawings into a three dimensional shape. Drawing will be directly in three dimensions from the start. No two dimensional representation will ever be stored.«22 Sutherland deutet hier auf eine Funktion hin, die Johnson für seine Programmversion entwickelt hat und die bis heute in dieser Form erhalten geblieben ist. Statt einzelne zweidimensionale Ansichten eines Objekts zu generieren, speichert der Computer in direkter Weise die mathematische Beschreibung eines virtuellen 3D-Modells. 21 Auch Gaboury listet die Ansätze auf, die ebenfalls im Verlauf des vorliegenden Kapitels herausge arbeitet werden, er führt sie jedoch allein auf das Forschungsprojekt in Utah, nicht aber auf Johnson zurück. Darüber hinaus bezeichnet Gaboury die von ihm herausgestellten Kriterien als »base condi tions for any contemporary graphical system«, eine Aussage, die zwar von der vorliegenden Studie bestätigt, jedoch zugleich mit der Frage verbunden wird, warum diese Ansätze schon von Beginn an die Entwicklung der 3D-Computergrafik geprägt haben. Gaboury (2021): S. 34. 22 Sutherland (2003): S. 110 und S. 114.
University of Utah
Um verschiedene Ansichten dieses Modells anzeigen lassen zu können, integrierte Johnson in seinem Programm vier Ansichtsfenster, »one in each quadrant of the CRT screen. A perspective view of the object appears in the upper right quadrant, and three orthogonal views in the remaining quadrants: top view--upper left, front view--lower left, and side view--lower right.«23 Ähnlich wie es heute noch der Fall ist, zeigen alle vier Ansichten demzufolge dasselbe Objekt aus unterschiedlichen Perspektiven, sodass sich eine Veränderung in einem der vier Bildschirmquadranten in allen vier Fenstern zugleich ereignet.24 Interessant ist, dass der gedankliche Ansatz dieser Vorgehensweise Johnsons auf zeichnerischen Prinzipien basiert, die auch im analogen Zeichenprozess zur Fertigung technischer Entwürfe zum Einsatz kommen. Wie Coons gemeinsam mit Rule darstellt, werden die unterschiedlichen Ansichten von der Seite, von oben und von vorne vor allem deshalb benötigt, »to describe objects accurately and unambiguously so that there can be no question concerning their size and shape in even the smallest detail.«25 Coons’ Einf luss auf Johnson wird hier unmittelbar deutlich. Während Coons noch darüber ref lektiert, warum er eine Perspektivzeichnung trotz ihrer mangelnden Präzision in der Entwurfsarbeit dennoch für notwendig hält, erfolgt bei Johnson eine derartige Auseinandersetzung nicht mehr. Er merkt lediglich an: »Because the screen is two-dimensional and the objects are three-dimensional wire frames, several viewing conventions were adopted to aid in visualizing the object in three-dimensional space.«26 Zentral ist für ihn der Gedanke, Tiefeninformationen eines Objekts darstellen
23 Johnson (1963): S. 3. 24 In seinen eigenen Worten erläutert Johnson die Funktion der vier Ansichten folgendermaßen: »The four projections viewed on the scope are not four independent displays of stored two-dimensional information; rather, space coordinates in a single data structure are transformed into two-dimen sional images for display. Rotating, translating, magnifying, and changing the perspective does not affect the data structure, (local transformation excluded). A line being drawn in any one view is simultaneously seen in the three other views; lines are in effect drawn in three-dimensions and si multaneously fed back for display.« Johnson (1963): S. 5. 25 Rule; Coons (1961): S. 35. Um diese eindeutige Darstellungsweise zu erreichen, schlagen Rule und Coons vor, das Verfahren der orthografischen Projektion zu verwenden, eine Methode, mit der sich die einzelnen Draufsichten von verschiedenen Seiten eines Objekts ermitteln lassen, um das Objekt jeweils von oben, von der Seite und von vorne zeichnen zu können. Es handelt sich folglich bei den einzelnen Ansichten um die Weite, Höhe und Tiefe eines Objekts. Vgl. Rule; Coons (1961): S. 36 und S. 39. Obwohl es sich hier um ein standardisiertes Verfahren handelt, weisen Rule und Coons selbst auf die willkürliche Natur der Methode hin: »The front, top, and right side views of an object related in the manner shown have been agreed upon as standard views. The names are quite arbitrary since we could have oriented the object to make any of its faces the front face, and in so doing, we would have obtained a different set or a different order of views. The names therefore can be said to apply only to the positions of the views on the paper.« Rule; Coons (1961): S. 38. Johnson überträgt das standardisierte Verfahren schließlich in den Computer und erläutert darüber hinaus, warum in seiner Anwendung ausgerechnet vier Ansichten notwendig seien: »Clearly, at least two views are necessary, a top and front view, for instance, with one of the views convertible to perspec tive. Depth checking and continuity problems would be eliminated. But two views are not enough. A third independent view must be added to give the necessary micro-macro viewpoint feature. […] A fourth view, as in Sketchpad III, offers the luxury of an additional viewpoint which aids visualiza tion.« Johnson (1963): S. 41. 26 Johnson (1963): S. 2.
203
204
Scheler: Computergrafik
zu können.27 Hierbei thematisiert er sogar selbst, dass auch eine perspektivische Zeichnung, insbesondere die eines völlig unbekannten Objekts, irreführend sein kann. Johnson bezieht sich mit dieser Aussage vor allem auf die ›wire frame‹-Darstellungen, also die Linienzeichnungen, die ein Objekt in Form eines Gitters zeigen. Zur unmissverständlichen Darstellung eines auf diese Weise dargebotenen Objekts würden laut Johnson die anderen Ansichten deshalb zusätzlich benötigt, woran sich auch bei ihm die Willkür zeigt, mit der auf die perspektivischen Visualisierungsoptionen gesetzt wird.28 Er erörtert verschiedene Optionen, die die eindeutige Lesbarkeit einer perspektivischen Darstellung im Computer begünstigen würden. Anhand seiner Überlegungen lässt sich nun ableiten, welche Forschungsfragen in Utah im Vordergrund standen: So stellt Johnson zum Beispiel heraus, es sei zur besseren Verständlichkeit einer perspektivischen Linienzeichnung zentral, das Objekt selbst oder sich als Person um das Objekt herum bewegen zu können,29 eine Möglichkeit, die er bereits umsetzt.30 Ebenfalls unterstützend wäre eine Darstellungsmöglichkeit der Objekte als opake, also solide und blickdichte Figuren, die auf Licht und Schatten reagieren.31 Obwohl parallel zu Johnson ebenfalls am MIT von dem Ingenieur Lawrence G. Roberts an dem Ziel, verdeckte Linien dreidimensionaler Objekte auszublenden, geforscht wurde, klammert Johnson für sein eigenes Anliegen diesen noch sehr rechenintensiven Ansatz zunächst aus.32 Er konzentriert sich stattdessen in seiner eigenen Forschung ausschließlich auf die »graphical description of straight-edged objects -- in hopes that the experience gained in this restricted area would indicate a way to a solution of the general problem. The term straight-edged object means that the intersections of all surfaces are straight lines, although the object does not necessarily have plane surfaces.« 33 Insgesamt sieht Johnson sein Programm – ähnlich wie Sutherland – für einen universellen Einsatz geeignet, wenngleich ihm bewusst ist, dass noch viele Arbeitsschritte folgen müssten, um die grafische Kommunikation mithilfe des Computers zu vervollkommnen.34 Die Entwurfsarbeit und die Möglichkeit, »entirely new artistic effects«35 zu erzielen, hebt er allerdings schon zu jenem Zeitpunkt als Anwendungsgebiet für 27 Er erläutert in diesem Zusammenhang auch, dass er verschiedene technologische Ansätze für diese Anforderung in Erwägung gezogen hat, beispielsweise eine stereoskopische Darstellung mithilfe zweier Displays, wovon er jedoch abgerückt ist, da die technischen Bedingungen noch nicht zufriedenstellend waren. Um dennoch Tiefeninformationen eines Objekts visuell darstellen zu können, wählte er die Option, vier Ansichten in seinem Programm zu integrieren. Vgl. Johnson (1963): bspw. S. 2 und S. 16. 28 Vgl. Johnson (1963): S. 3–4 und S. 16. 29 Vgl. ebd., S. 17. 30 Vgl. ebd., S. 24. 31 Vgl. ebd., S. 16. 32 Vgl. ebd., S. 17. Vgl. zudem Roberts (1963). 33 Johnson (1963): S. 17. Er verweist hier zudem darauf, dass es deshalb sinnvoll ist, mit geraden Linien zu arbeiten, da diese sich nach einer beliebigen Transformation nicht in ihrer Form, sondern nur in ihrer Länge verändern – anders etwa als bei Kurven. Vgl. Johnson (1963): S. 17. 34 Vgl. Johnson (1963): S. 2 und S. 9. 35 Ebd., S. 37.
University of Utah
Abb. 52: Timothy E. Johnson, Wrought Iron Chair Design, 1963, Sketchpad III-Zeichnung.
Sketchpad III in besonderer Weise hervor. Er bezieht sich mit dieser Formulierung auf das Design eines Stuhls, bei dem sich mithilfe seines Programms die Lehne interaktiv in unterschiedlichen Neigungen anzeigen lässt (Abb. 52).36 Anhand von Johnsons Einleitung wird deutlich, dass alle seine Überlegungen in Bezug auf die Fertigung von Entwürfen in direkter Weise von Coons beeinf lusst wurden. So stellt Johnson zu Beginn seiner Darstellungen heraus, die ersten Zeichnungen im Entwurfsprozess seien »not a precise statement of refined detail, but […] a vague stirring of the imagination.«37 Mit dieser Formulierung gibt er Coons – ohne dies zu kennzeichnen – beinahe wortgleich wieder: »The sketch forms the natural bridge between these vague stirrings of the imagination and the subsequent precise statement of the refined details of the concept.«38 Johnson betrachtet sein Programm als Unterstützung dabei, diese ersten Entwürfe in präziser Form weiter auszuarbeiten.39 Sketchpad III, das rein technisch an Sutherlands Sketchpad anknüpft, ist also, wie nun aufgezeigt werden konnte, eine direkte Umsetzung von Coons’ Visionen. Mit den Interessen, die Johnson verfolgt hat, lässt sich anschaulich herleiten, welche Anliegen schließlich in Utah in den Fokus gerückt wurden. Das übergeordnete Ziel des dortigen Forschungsprojekts entspricht dem Anliegen Johnsons, beziehungsweise Coons’ und Fetters. So formuliert Evans 1966 im ersten rückblickenden Forschungsbericht ein halbes Jahr nach Projektstart: »A major objective of the project is to develop a method which will produce synthetic video signals representing two-dimensional projections of three-dimensional objects described only in the data structure of the computer. It is considered that such a repre sentation of the object is of basic value, because it corresponds to the representation of the real world on the human retina.« 40
36 Vgl. ebd., S. 37. 37 Ebd., S. 1. 38 Coons (1963): S. 300. Vgl. auch S. 151–152 in der vorliegenden Studie. 39 Vgl. Johnson (1963): S. 1. 40 Evans (1966): S. 3.
205
206
Scheler: Computergrafik
Zentraler Ausgangspunkt für Evans ist – wie zuvor auch in Bezug auf Coons und Fetter herausgearbeitet – das menschliche Sehverhalten. Ähnlich wie Coons und Fetter völlig unabhängig voneinander die perspektivischen Illustrationen mit dem menschlichen Sehverhalten in Bezug gesetzt haben, wiederholt sich diese Argumentationsweise auch bei Evans. Er geht ebenfalls davon aus, dass zweidimensionale Projektionen von dreidimensionalen Objekten einen geeigneten Weg darstellen, um Bilder zu erzeugen, die der menschlichen Sicht am ehesten gerecht werden. Der Forschungsbericht, aus dem hier zitiert wird, ist der Auftakt der insgesamt elf Berichte, die, wie in der Einführung dargestellt,41 Evans über die gesamte Laufzeit der Förderperiode halbjährlich fertigte. Das Projekt vollzog sich in zwei Phasen: Die erste Forschungsperiode lief von Juni 1966 bis Juni 1970, die zweite von Januar 1971 bis Dezember 1972.42 Die nachfolgenden Ausführungen werden entlang dieser Berichte chronologisch strukturiert. Evans verweist darin zudem auf die Veröffentlichungen einzelner Forschungspaper, die im Rahmen des Forschungsprojekts entstanden sind und auf die vereinzelt im Laufe dieses Kapitels ebenfalls Bezug genommen werden soll. Obwohl sich die Zielsetzung für das Gesamtvorhaben über die folgenden Jahre nach und nach weiter ausdifferenziert,43 bleibt die von Evans zu Beginn formulierte Perspektive richtungsweisend. Was sich im Kontrast zu Coons’ Ausführungen zeigt, ist, dass Evans seine Überlegungen nicht mehr ref lektiert. Während Coons und Rule noch Gegenüberstellungen zu Kinderzeichnungen vornehmen, um darzulegen, weshalb es sich bei den perspektivischen Projektionen um die nach ihrem Empfinden schlüssigeren zeichnerischen Konstruktionen handelt, setzt Evans ohne derartige Abwägungen mit seinem Wunsch, zweidimensionale Projektionen von dreidimensionalen Objekten mit dem Computer zu erzeugen, einen Standard, von dem künftig nicht mehr abgewichen wird. Punktuell lassen sich in Berichten einzelner Autoren, wie im weiteren Verlauf der folgenden Kapitel deutlich wird, einige Ref lexionen zur menschlichen Wahrnehmung und darauf reagierende Reproduktionstechniken nachweisen, doch wie am Ende des Coons-Kapitels herausgestellt,44 zeigt sich in dieser einführenden Zielsetzung Evans’, dass in Utah nicht mehr grundsätzlich verhandelt werden soll, welche alternativen Prinzipien zum Einsatz kommen, um computergestützte Bilder zu erzeugen. Die Maxime der zentralperspektivischen Glaubwürdigkeit setzt sich demnach ab diesem Zeitpunkt uneingeschränkt fort. 41 Vgl. Fn. 148 in Kapitel 1.2.2 Die Praxis der 3D-Computergrafik aus historischer Perspektive – Ein Kurzüberblick der vorliegenden Studie, S. 61. 42 Die Datierungen ergeben sich aus den Berichten. Vgl. Fn. 148 in Kapitel 1.2.2 Die Praxis der 3D-Computergrafik aus historischer Perspektive – Ein Kurzüberblick der vorliegenden Studie, S. 61. 43 Die Forschungsinteressen, die in den Berichten zum Ausdruck kommen, beziehen sich auf unter schiedliche Anwendungsmöglichkeiten für 3D-Computergrafiken. Ein besonderer Fokus entwi ckelt sich etwa für eine Nutzung im Bereich der Architektur oder auch der Medizin, insbesondere für kardiologische Untersuchungen. Vgl. bspw. Evans (1967): S. 3. Im späteren Verlauf des Projekts entwickeln sich zudem weitere Untersuchungsfelder, beispielsweise ab 1968 der Bereich der Signal verarbeitung, der sich sowohl in Bezug auf Bilder als auch im Hinblick auf Klänge und Laute mit der Übersetzung analoger in digitale Signale und umgekehrt digitaler in analoge Signale befasst. Vgl. Evans (1968b): S. 7. Eine weitere Errungenschaft, die aus diesem Forschungsprojekt hervorgeht, ist im Jahr 1970 mit dem ARPANET eine erste Form des Internets. Vgl. Evans (1971a): S. 35. Der Bericht wurde erst im Jahr 1971 veröffentlicht. 44 Vgl. Kapitel 2.3.2 Der Computer als Erweiterung des Intellekts, S. 193, in der vorliegenden Studie.
University of Utah
Die Lösungsansätze, die in Utah in den Jahren von 1966 bis 1972 zur besonders verständlichen Darstellung zweidimensionaler Projektionen mithilfe computergrafischer Mittel entwickelt wurden und sich als Standard etablierten, erinnern nun an die drei Vorschläge, die Johnson schon 1963 formuliert hat: So soll in den nachfolgenden Ausführungen dargestellt werden, dass im Rahmen des Forschungsprojekts an der University of Utah erstens Lösungen dafür entwickelt wurden, die Wireframe-Anzeige von Objekten um eine opake Darstellung der Modelle zu ergänzen, diese zweitens mithilfe von Licht in Szene zu setzen, um sie auf diese Weise noch anschaulicher zu gestalten, und sie drittens zudem in Bewegung zu bringen. Auch in dem letzten Punkt wurden beide Vorschläge von Johnson eingelöst, also einerseits die Objekte selbst zu animieren beziehungsweise sie in der Ansicht zu rotieren oder andererseits mithilfe von frühen Methoden virtueller Brillen sich selbst um die Objekte zu bewegen.45 Herausgebildet haben sich in dieser Zeit deshalb die noch heute zentralen Bausteine für die Erzeugung von Computergrafiken: Modellieren, Shading, Texturieren, Animation und als erweiterte Darstellungsmethode die Virtual-Reality-Brillen. Der zuletzt genannte Bereich steht ebenso wie die Animation in der vorliegenden Untersuchung nicht im Fokus, er stellt vielmehr eine Erweiterung des angestrebten Realismus der Bilder dar. Der räumliche Eindruck der virtuellen Objekte entsteht nach wie vor mithilfe von zweidimensionalen Bildern – im Falle der Brillen müssen es jedoch ähnlich wie bei den in den 1920er Jahren etablierten Stereoskopen zwei Bilder sein, die erst durch das menschliche Gehirn zusammengefügt werden. Auch der Bereich des Modellierens, also die Frage, wie die Objekte rein technisch im Computer beschrieben werden, ist – zumindest heute – für das Erscheinungsbild der fertigen Grafiken in letzter Konsequenz nicht ausschlaggebend, dennoch werden einige Ansätze im folgenden Kapitel aufgegriffen, da zu jener Zeit auch die Methode des Modellierens Einf luss auf das fertige Erscheinungsbild der 3D-Grafiken nahm. Im Vordergrund stehen nachfolgend allerdings vor allem die Bereiche des Shadings und Texturierens, denn für die Frage, wie die Computergrafiken über die Jahre allmählich die von Coons und Fetter formulierte Maxime der Glaubwürdigkeit einlösen, sind gerade diese Felder entscheidend.
3.2.1 Shading-Algorithmen und die Vervollkommnung der 3D-Computergrafik Bei dem Versuch, die Geschichte des Shadings nachzuvollziehen, fällt auf, dass Evans’ Forschungsprojekt in Utah zwar nicht eigenständig für die gesamte Entwicklung dieser Disziplin verantwortlich ist, dass jedoch diejenigen Bausteine, die auch heute noch bei der Erzeugung von 3D-Computergrafiken aus produktionsästhetischer Sicht eine Rolle spielen, nahezu vollständig auf die in Utah hervorgebrachten Errungenschaften zurückzuführen sind.46 Zudem lässt sich insbesondere über die ersten 45 Vgl. Evans (1972a): S. 18. 46 Auch Gaboury merkt an, dass die damals in Utah geschriebenen Shading-Algorithmen von Gou raud und Phong bis heute kaum weiterentwickelt wurden: »While one might presume that these illusionistic algorithms are simply small steps on the road to a more accurate model for material ef fects such as curvature or smooth surfaces, in fact they have remained largely unchanged for the past forty years.« Gaboury (2021): S. 100.
207
208
Scheler: Computergrafik
erfolgten Schritte in der historischen Entwicklung des Shadings eine gedankliche Verwandtschaft zu Coons’ und Fetters Konzepten von Bildlichkeit herausarbeiten. Die im ersten Jahr des Forschungsprojekts, also 1966, formulierte Vorstellung davon, in welche bildästhetische Richtung sich die 3D-Grafiken entwickeln sollen, ist in den frühen 1970er Jahren mit den ersten leichter anzuwendenden Shading-Algorithmen zum Abschluss gekommen. Mit seiner Zielsetzung, mithilfe des Computers »two-dimensional projections of three-dimensional objects«47 zu generieren, bezieht sich Evans konkret auf die Erzeugung sogenannter Halbtonbilder. Hierbei handelt es sich um eine Darstellungsmöglichkeit beziehungsweise einen Begriff, der eigentlich aus dem Bereich des Drucks beziehungsweise der Reproduktionstechnik stammt. Das Erscheinungsbild der Halbtonbilder steht den zuvor üblichen Computergrafiken in Form von Liniendarstellungen gegenüber, wie sich anhand eines frühen Beispiels von Evans und seinen Kollegen zeigt. Sie stellen beispielhaft Computergrafiken in Form von Halbtonbildern vor, die Buchstaben und primitive Formen wie einen Kegel enthalten (Abb. 53). Die Hinwendung zum Einsatz von Halbtonbildern ist für die Erzeugung von Computergrafiken deshalb interessant, da virtuelle Modelle hiermit – im Gegensatz zu den Liniendarstellungen – als opake Objekte inklusive ihrer Oberf lächeninformationen angezeigt werden können, sie können also mit einem ›Shading‹, mit Schattierungen, versehen werden. Aufgrund seiner Herkunft aus der Drucktechnik ist der Begriff Halbtonbild jedoch missverständlich. Evans’ Kollege Gordon W. Romney erläutert drei Jahre nach Projektstart in Utah in seiner 1969 abgeschlossenen Dissertation Computer Assisted Assembly and Rendering of Solids, warum er den Begriff für die Computerbilder als ungeeignet betrachtet und nicht verwenden möchte: »The word halftone has undergone an evolutionary transition as far as its semantic definition is concerned. Halftone was often used to refer to the shades of gray that oc cur between the highlights and the shadows in photographs. Thus, the term was used to name the first practical process to reproduce photographs by a printing technique. Ever since, halftone has taken on a dichotomous nature referring to both a continuous (photography) and discontinuous (printing) distribution. For this reason, photographic terminology has switched to midtone or tone and relegated halftone to the realm of the discontinuous. Consequently, computer renderings are halftone only in the sense of shaded represen tation. The fact that they are produced by a raster technique that displays individual points of intensity should not be interpreted as being analogous to the halftone print ing process […] It is for this reason that this author [Romney] has avoided the use of the word halftone when referring to computer generated images – they are shaded render ings, not halftone.« 48
47 Evans (1966): S. 3. 48 Gordon W. Romney: Computer Assisted Assembly and Rendering of Solids. Dissertation am De partment of Electrical Engineering, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1969, S. 155–156. Romney verweist anschließend darauf, dass die mit dem Computer generierten Grafiken auf dem Papier der physischen Endfassung seiner Arbeit wiederum tatsächlich mithilfe eines Halbton-Reproduktionsverfahrens abgedruckt wurden. Vgl. Romney (1969): S. 156.
University of Utah
Abb. 53: Gordon W. Romney, Gary S. Watkins und David C. Evans, Cone und Letter ›G‹, 1968, Computer-Rendering aufgezeichnet auf Film (hier reproduziert als Halbtonbild).
Interessant an diesen Ausführungen zur Begriff lichkeit ist, dass sich neben Romney niemand der anderen Forscher zur Begriffswahl äußert und die Bezeichnungen ›Shading‹ und ›Rendering‹ zwar nach und nach Verwendung finden, in der Regel jedoch parallel mit dem Begriff ›halftone image‹ zum Einsatz kommen. Romneys Forschungsbeitrag wird im Laufe dieses Kapitels noch weitere Male herangezogen und eingehender beleuchtet, da der Autor durch seine metaref lexiven Gedankenansätze im Sinne des hier verfolgten produktionsästhetischen Ansatzes fruchtbare Erkenntnisse über die ästhetischen Werte bereithält, die zu jener Zeit der Erzeugung von 3DGrafiken zugrunde gelegt wurden. Unabhängig von der Einschätzung seines Kollegen arbeitet Evans also dennoch mit dem Begriff ›halftone image‹, obwohl er damit nicht explizit ein Druckverfahren meint, sondern die Darstellung solider Objekte inklusive Schattierungen in Echtzeit auf einem Display. Als bildästhetischer Orientierungspunkt dient hierbei sehr früh in expliziter Weise die Fotografie, denn bereits im zweiten Bericht, verfasst im Mai 1967, ergänzt Evans in seiner Formulierung der Forschungsabsicht den Wunsch, »to produce photograph quality pictures of objects illuminated by incident light showing appropriate shading and shadows«49. Ende des Jahres 1967 im dritten Bericht, noch bevor die auch heute zum Teil noch gängigen Shading-Algorithmen entstanden sind, zeigt sich Evans zufrieden mit den bisherigen Entwicklungen: »Good progress has been made in the development of techniques for producing half-tone photograph like pictures of three dimensional objects whose descriptions are stored in the computer memory.«50 Er greift diesen Erfolg an späterer Stelle des Berichts erneut auf und hebt hier zudem hervor, es gebe einen »urgent need for realistic pictures«51, eine Formulierung, mit der sich verdeutlichen lässt, dass das Konzept des Realismus für ihn eng mit der Fotografie zusammenhängt. Im Bericht selbst spezifiziert er nicht, von welchen Instanzen das Bedürfnis nach solchen Bildern ausgeht, er verweist allerdings auf ein von ihm 49 Evans (1967): S. 1. 50 Evans (1968a): S. 1. 51 Ebd., S. 6.
209
210
Scheler: Computergrafik
selbst im Jahr 1967 mitverfasstes Forschungspaper mit dem Titel Half-tone perspective drawings by computer,52 aus dem hervorgeht, welche Fachbereiche von den 3D-Visualisierungen seines Erachtens profitieren würden. Insgesamt lässt sich das Anliegen der ersten Forschungsschritte in Utah anhand dieses Papers tiefgehender verdeutlichen. Auch Romney war an dem Paper beteiligt, also noch bevor er seine eigenständige Doktorarbeit abgeschlossen hatte. Die prognostizierten Anwendungsgebiete präzisieren die Autoren folgendermaßen: »For example, it is important for a designer or architect to quickly describe a three-di mensional object and view it immediately; not as an endless set of engineering draw ings, but as if he were viewing the three-dimensional object itself. He should be able to take a distant look at a complicated object, and then view, in detail, any subsection of the object. In other words, he would like to quickly and cheaply simulate and view the thing he is designing. The goal of this project is to provide a system which will display images that a person can ›feel,‹ as contrasted with images that he must laboriously interpret (e. g. the engi neering drawings of an air-plane).« 53 Vergleichbar mit Coons und auch Fetter unterscheiden die Autoren hier zwischen technischen Zeichnungen auf der einen Seite, die aufwändig zu lesen sind und interpretiert werden müssen, sowie perspektivischen Darstellungen auf der anderen Seite, die intuitiv verständlich sind und ›gefühlt‹ werden können. Diese Wortwahl erinnert vor allem an Coons, der den Begrif f des Fühlens beispielsweise in Bezug auf die Entwurfsarbeit verwendet hat, also auf den Moment, in dem mithilfe einer Skizze eine Idee erstmals Form annimmt und sinnlich wahrnehmbar wird.54 Evans, Romney et. al. führen in dem Paper zudem Faktoren an, die ihrer Vorstellung zufolge unterstützend wirken, um ein solches Bild tatsächlich ›fühlen‹ zu können – es handelt sich beinahe deckungsgleich um jene Kriterien, die auch Johnson in seinem Bericht anführt.55 Sie teilen ihre Überlegungen in vier Optionen auf: Es helfe erstens eine Stereodarstellung der Objekte, zweitens ein Ausblenden der Linien und Flächen, die von der Vorderseite des Objekts verdeckt sind, drittens die Beleuchtung und Schattierung der virtuellen Modelle und viertens die Möglichkeit, Objekte in Echtzeit zu bewegen.56 In ihrem Anliegen, ein Berechnungsmodell zum Ausblenden der verdeckten Linien zu entwickeln, verweisen die Autoren in ihrem Paper – wie auch Johnson – auf Lawrence G. Roberts, der sich am MIT mit dieser Problematik vier Jahre zuvor beschäftigt hatte. Roberts wählte allerdings einen Ansatz, mit dem sich nur einfache Modelle aus Quadern und Prismen darbieten lassen können, weshalb Evans, Romney und ihre Kollegen sich dazu entschieden, Modelle aus dreieckigen Polygonen zu 52 Vgl. Chris Wylie; Gordon W. Romney; David C. Evans; Alan Erdahl: Half-tone perspective drawings by computer. In: Proceedings of the Fall Joint Computer Conference – AFIPS ’67. Hrsg. v. ACM. New York, NY: ACM Press, 1967, S. 49–58. 53 Ebd., S. 49. 54 Vgl. Coons (1963): S. 300. 55 Vgl. Kapitel 3.2 Opazität, Licht und Animation – Eine Strategie zur Umsetzung des gemeinsamen Ziels, S. 204. 56 Vgl. Wylie; Romney; Evans; Erdahl (1967): S. 49.
University of Utah
Abb. 54: Chris Wylie, Gordon W. Romney und David C. Evans, Example of one method of approximating a sphere by planar triangles, 1967.
eschreiben, da sich auf diese Weise jede mögliche Form erzeugen lässt, was sie beib spielhaft an einer Kugel darlegen (Abb. 54).57 Darüber hinaus arbeitete Roberts noch nicht mit einem Verfahren, das die Objekte auch in Grautönen zeigen kann, seine Objekte wurden trotz der eliminierten überschüssigen Striche in Form von Linienzeichnungen dargeboten.58 In seiner oben genannten Dissertation Computer Assisted Assembly and Rendering of Solids aus dem Jahr 1969 – unter anderem betreut durch Ivan Sutherland – arbeitet Romney den gemeinsam mit Evans und Kollegen im Jahr 1967 erarbeiteten Ansatz eigenständig weiter aus und knüpft in direkter Weise daran an.59 Wesentlich umfangreicher als aus dem vorangegangenen Paper lässt sich anhand von Romneys Bericht erschließen, mit welchen Vorstellungen von Bildlichkeit die Forschung an den computergenerierten Renderings vollzogen wurde. Auch im Anschluss an Romneys Arbeit setzt sich keiner der nachfolgenden und daran anknüpfenden Ansätze derart eingehend mit einer möglichen Begründung für die von diesem Zeitpunkt an gewählte Vorgehensweise auseinander. Die Basis, die demnach in Zusammenhang dieser ersten Schritte in Evans’ Forschungsprojekt entstanden ist, wurde in den folgenden Jahren in Utah lediglich weiterentwickelt und verfeinert, änderte sich aber bis heute nicht mehr grundlegend.60 Auch in den halbjährlichen Forschungsberichten von Evans zeichnet sich diese Entwicklung ab. Während Evans im vierten Bericht vom November 1968 darauf hinweist, dass im Bereich der ›halftone images‹ keine wesentlichen Neuerungen 57 Vgl. ebd., S. 49. 58 Vgl. Roberts (1963): S. 2 und S. 54–55. 59 In Bezug auf das vorangegangene Paper, an dem unter anderem Evans mitgearbeitet hat, formu liert er: »A major portion of this thesis is a detailed description of an improvement over the initial algorithm used by this author to produce the first shaded renderings in February, 1967. Partial dis closures of the technique have been published previously and the technique has been referred to in this thesis as the Romney algorithm. In the remainder of the thesis the algorithm will be referred to as RENDER.« Romney (1969): S. 10–11. 60 Diese Aussage bezieht sich nicht auf verschiedene Ansätze und Algorithmen, sondern darauf, wie mit unterschiedlichen Ansätzen und Berechnungsmodellen immer wieder versucht wurde, ein be stimmtes Ziel umzusetzen und sich ihm auf technischer Seite weiter anzunähern.
211
212
Scheler: Computergrafik
stattgefunden hätten,61 wird auch im fünften Bericht vom Mai 1969 die weitere Entwicklung im Bereich der Halbtonbilder nur in einem knappen Absatz dargelegt.62 Erst im sechsten Bericht vom November 1969, also ein halbes Jahr vor Ende der ersten vierjährigen Forschungsperiode, berichtet Evans von umfangreichen Neuerungen, zu denen Romneys Beitrag ebenfalls zählt.63 Es folgt im folgenden Kapitel deshalb nun eine eingehendere Auseinandersetzung damit.
3.2.1.1 Objektive Gestaltungskriterien für Computergrafiken bei Gordon W. Romney Das vorliegende Kapitel teilt sich in zwei Schritte. Zuerst werden Aspekte herausgearbeitet, die sich erneut mit Fragen zur perspektivischen Darstellung von Objekten befassen, um auch in dieser Hinsicht Anknüpfungspunkte zu den vorangegangenen Teilen dieser Studie herzustellen und eine Entwicklungslinie nachzuzeichnen. Anschließend steht das eigentliche Thema des Shadings im Mittelpunkt, also der von Romney entwickelte Ansatz zur Darstellung von Oberf lächeneigenschaften der per spektivisch dargebotenen Objekte. Romney beginnt seinen Bericht mit einem umfangreichen Überblick darüber, welche parallelen oder vorangegangenen Entwicklungen sich auch an anderen Forschungsstätten ereigneten, die zum Teil ähnliche Ziele verfolgten wie er selbst und seine Kollegen in Utah. Er verweist in diesem Zusammenhang zunächst einmal auf die Forschung am MIT in den frühen 1960er Jahren und nennt hierbei explizit Sutherland mit seiner Arbeit an Sketchpad und Johnson mit seiner 3D-Version des Programms Sketchpad III. Auch Roberts’ Algorithmus zum Ausblenden verdeckter Linien führt er in diesem Kontext an.64 Der Wunsch von Johnson, perspektivische Zeichnungen vom Computer generieren zu lassen, und das Ziel Roberts’, in solchen Zeichnungen verdeckte Flächen und Linien auszublenden, basierten – so Romney – auf objektiven Zielen für die Erzeugung 61 Im Fokus der halbjährigen Forschungsperiode stand stattdessen die Verwendung von grafischen Methoden zur Lösung von partiellen Differenzialgleichungen, die Entwicklung von medizinischen Anwendungen für den Bereich der Kardiologie und die Weiterentwicklung eines Architekturpro gramms zur Modellierung von Objekten. In dem zuletzt genannten Teilprojekt wurde der im Rah men dieser Studie aufgeführte Douglas C. Engelbart vom Stanford Research Institute unterstützend hinzugezogen. Vgl. Evans (1968b): S. 1–7. 62 Verwiesen wird zum einen auf ein Tagungs-Paper, in dem Evans, Romney und Watkins die Ansätze aus dem früheren Paper von 1967 weiterentwickeln, und zum anderen auf einen intern veröffent lichten technischen Bericht, in dem ein weiterer Kollege, John E. Warnock, ein neues Berechnungs modell für verdeckte Linien vorstellt. Ein weiteres Paper zur Implementierung einer neuen Pro grammiersprache im Bereich der Computergrafik führt Evans ebenfalls an. Darüber hinaus nennt er zudem das gemeinsam mit Sutherland gegründete Unternehmen Evans & Sutherland erstmals, allerdings lediglich in Bezug auf einen dort von ihnen entwickelten Prozessor, nicht jedoch in Bezug auf computergrafische Bemühungen, an denen das Unternehmen ebenfalls arbeitete. Vgl. Evans (1969a): S. 5–6. 63 Auch der in der vorigen Anmerkung genannte Warnock schloss seine Dissertation im Verlauf dieses halben Jahres ab. Seine Arbeit wird im Rahmen des folgenden Romney-Kapitels punktuell aufge griffen. Vgl. Evans (1969b): insbes. S. 12 und S. 15. 64 Vgl. Romney (1969): S. 3–5.
University of Utah
von Grafiken. Auch an anderen Orten seien deshalb vergleichbare Bemühungen zu beobachten, zum Beispiel in einem von der NASA geförderten Projekt bei General Electric oder auch in einem Vorhaben bei der Mathematical Applications Group, Inc. (MAGI).65 Beide Unternehmen ermöglichten etwa zeitgleich mit Evans, Romney et. al. im Jahr 1967 die computergestützte Erzeugung von Halbtonbildern auf einem Display, wobei das NASA-geförderte Projekt bei General Electric hierbei sogar eine Möglichkeit etablierte, mit der sich Bilder in Echtzeit und in Farbe anzeigen ließen. Im Hinblick auf die produktionsästhetische Ebene dieser Studie ist das NASA-Projekt heute allerdings nur wenig ertragreich, denn der darin verfolgte Ansatz zur Bilderzeugung wurde nicht weiter fortgesetzt.66 Die Methoden, die an der University of Utah entwickelt wurden, waren häufig Ausgangspunkt für weitere Erforschungen für die Erzeugung von ›halftone images‹. Nicht nur im selben Haus wurde mit den dort entwickelten Ansätzen weitergearbeitet, zum Beispiel – noch bevor Romney seine Arbeit abgeschlossen hatte – auch von seinem Kollegen John E. Warnock,67 sondern auch an anderen Universitäten, etwa an der University of Illinois, wo W. Jack Bouknight unter Bezugnahme auf Warnock einen Algorithmus entwarf, mit dem sich 3D-Modelle als schattierte Objekte anzeigen lassen konnten.68 Warnock und Romney waren jeweils in paralleler Arbeit
65 Vgl. ebd., S. 4–5. 66 Während zu dem NASA-Projekt Berichte gefertigt wurden, die auch als Forschungsmaterial ein sehbar waren, wurde von MAGI die eigene Forschung lediglich für interne Kommunikationszwecke dokumentiert. Laut seinen Quellenangaben besaß Romney offenkundig Zugang zu einem internen MAGI-Dokument. James F. Blinn, der in Utah Ende der 1970er Jahre an die dortige Forschung an knüpft, gibt hingegen in seiner Dissertation an: »A detailed description of their [MAGI’s] algorithms has never been published.« Blinn (1978): S. 42. Vgl. zudem Romney (1969): S. 164. Das Projekt von MAGI wurde zumindest in knapper Form in der Zeitschrift Datamation vorgestellt. Vgl. MAGI (Hg.): 3-D Simulated Graphics Offered by Service Bureau. In: Datamation 14/2, 1986, S. 69. Von dem NASAProjekt sind zwei Zwischenberichte archiviert worden. Leider blieb meine Anfrage bei der NASA zur Einsicht des Abschlussberichts unbeantwortet. Vgl. General Electric: Modifications to Interim Visual Spacef light Simulator. Sixth quarterly report. 12 April to 12 July 1966. Technischer Report, Houston, TX: NASA Manned Spacecraft Center, 1966; General Electric: Modifications to Interim Vi sual Spaceflight Simulator. Ninth quarterly report. 12 January to 12 April 1967. Technischer Report, Houston, TX: NASA Manned Spacecraft Center, 1967. Aufschluss zu dem NASA-Projekt liefert zu dem ein weiterer 1969 veröffentlichter Bericht von General Electric zu einem Folgeprojekt, das – statt von der NASA – von der Air Force finanziell gefördert wurde. Die darin verwendete Technologie baut auf der 1967 entwickelten Infrastruktur auf. Ziel war – ähnlich wie im NASA-Projekt –, eine Möglichkeit zu schaffen, mit der Piloten beziehungsweise Astronauten ihre Aufgabe, ein Flugzeug beziehungsweise Raumschiff zu steuern, in einer simulierten Umgebung erlernen können. Für die simulierten Flüge und Landungen war es demnach erwünscht, entsprechende Szenarien in Echtzeit darbieten zu können. Vgl. Robert A. Schumacker; Brigitta Brand; Maurice G. Gilliland; Werner H. Sharp: Study for Applying Computer-Generated Images to Visual Simulation. Technischer Report, Daytona Beach, FL: General Electric Company, 1969. 67 Vgl. John E. Warnock: A Hidden Surface Algorithm for Computer Generated Half-Tone Pictures. Dis sertation am Department of Electrical Engineering, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1969. Warnock war später an der Gründung von Adobe Systems beteiligt. Vgl. Price (2009): S. 12. 68 In seinem Forschungsstand erläutert Bouknight, weshalb er für seine Forschung als Ausgangspunkt nicht etwa mit dem Ansatz der NASA, sondern mit einem an der University of Utah von John E. War nock entwickelten Algorithmus weiterarbeitete: »At General Electric, a system which combines both
213
214
Scheler: Computergrafik
die ersten, die – in Utah – die Erzeugung von 3D-Grafiken in Farbe ermöglichten. Die Abbildungen 55 und 56 zeigen ihre jeweiligen ersten Ergebnisse. Während Romney für sein Beispiel als Motiv einen Soma-Würfel wählte, entschied sich Warnock für die Darstellung eines Moleküls.69 Romneys Shading-Ansatz wird im weiteren Verlauf dieses Kapitels erläutert, wobei die Erkenntnisse, die sich aus Romneys Ausführungen ziehen lassen, stellvertretend für die parallelen Ansätze stehen können, die an der University of Utah entstanden sind: So lässt sich etwa auch Warnock hier einordnen, da auch seine eigenständige Forschungsabsicht auf übergeordneter Ebene Evans’ Zielsetzung folgt. Sie lassen sich ebenso den von Romney beschriebenen ›objektiven‹ Kriterien zur Bilderzeugung zuordnen wie die Forschungsstätten außerhalb der University of Utah. Welche Prinzipien stuft er also als objektiv ein? Die objektiven Gestaltungsprinzipien leitet Romney unter Bezugnahme auf den Physiker Loyd A. Jones von sogenannten psychophysiologischen Wahrnehmungsaspekten ab, die das menschliche Sehverhalten betreffen. Romney geht deshalb davon aus, dass »[h]uman judgement must be relied upon to determine image quality. The criterion of quality, or whether something is good or bad, depends significantly upon psychological attributes. With images, however, certain objective attributes such as perspective and contrast-range can be quantitatively determined. The interaction of the psychological and physical realms and their relative importance is known as the discipline of psy chophysics. Psychophysics has played an important role in the improvement and per fecting of both the photographic and video processes. Also, the discipline has helped significantly in the development of computer-generated images.« 70 hardware and software to produce color half-tone images in real time was developed for NASA for space rendezvous, docking and landing simulation studies. The output medium is a 525 line threecolor television tube display and up to 240 edges (as many as 40 planes with 6 edges per plane) may be processed at a given time. The algorithm was developed with a heavy hand from the hardware designers and is not desirable for implementation in software on a digital computer in light of other algorithms which have been reported.« W. J. Bouknight: An Improved Procedure for Generation of Half-Tone Computer Graphics Presentations. Technical Report, Urbana, IL, Champaign, IL: Coordi nated Science Laboratory, University of Illinois at Urbana-Champaign, 1969, S. 3–4. Auch Martin E. Newell, ebenfalls Absolvent der University of Utah, äußert sich zu dem NASA-geförderten Projekt von General Electric aus dem Jahr 1969 und zu der mangelnden Praktikabilität des dort entwickelten Ansatzes: »The third major limitation found with existing techniques is concerned with restrictions on the scene. This has several aspects, the first of which involves constraints on the scene resulting from assumptions or simplifications in the algorithm. Examples of such constraints include nonintersecting objects, convex polygons, and a limit on the number of edges allowed per polygon. The constraints imposed by Schumaker’s [!] algorithm are unusually severe, although they are accept able in simulation applications involving fairly static scenes.« Martin E. Newell: The Utilization of Procedure Models in Digital Image Synthesis. Dissertation am Department of Computer Science, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1975, S. 20–21. 69 Phong erklärt 1973, Bouknight »worked on systems for shaded picture display with shadows and movable light sources«, während Warnock sich nicht nur mit der Darstellung von Farbe, sondern ebenfalls erstmals mit der Berechung von »hue, brightness, and specular reflection of light, applied to computer-generated images« befasste. Phong (1973): S. 3. 70 Romney (1969): S. 4. Vgl. zudem Loyd A. Jones: Psychophysics and Photography. In: Journal of the Optical Society of America 34/2, 1944, S. 66.
University of Utah
Abb. 55: Gordon W. Romney, Soma Cube und ›Exploded‹ Soma Cube, 1969, Computer-Rendering aufgezeichnet auf Polaroid-Film (hier reproduziert im Halbton-Vierfarbverfahren).
Abb. 56: John E. Warnock, Fig. 5, 1969, Rasterscanbild (hier Reproduktion als Halbtonbild).
215
216
Scheler: Computergrafik
Romney kommt ausgehend von dieser Argumentationslinie anschließend zu der Erkenntnis, die historische Entwicklung der 3D-Computergrafiken sei nichts anderes als ein Versuch, den Prozess des Sehens nachzuempfinden. In seiner Auseinandersetzung mit dem menschlichen Sehprozess berücksichtigt Romney anders als Rule und Coons zunächst sogar den Aspekt, dass Menschen üblicherweise mit zwei Augen sehen, denn – so seine Erläuterung – der Prozess des Sehens umfasse zum einen monokulare Charakteristika, die beide Augen jeweils einzeln betreffen, und zum anderen das räumliche Sehen, das sich nur durch das Zusammenspiel beider Augen ergibt. Die wesentlichsten monokularen Hauptmerkmale seien hierbei, »1) perspective, 2) object overlay, 3) shading and color, 4) motion and subjective factors of experience and proprioception (muscle tension).«71 Zur Erzeugung von 3D-Computergrafiken müsse es also das Ziel sein, die objektiven Aspekte in das computergestützte bildgebende Verfahren zu überführen. In einem eigenständigen und umfangreichen Kapitel wendet sich Romney deshalb dem Thema der ›Projektion‹ zu. Als eine solche Projektion begreift Romney jede Form der Übersetzung einer 3D-Umgebung in eine 2D-Fläche und er betont hierbei, sowohl Künstler und Fotografen als auch Entwurfszeichner seien stets an diese Beschränkung gebunden. Romney stellt anschließend eine Reihe verschiedener Projektionsmöglichkeiten vor. Zwei unterschiedliche Gruppen seien insbesondere zu differenzieren: perspektivische Projektionen auf der einen Seite, zu der er neben der Zentralperspektive auch andere Projektionsformen zählt, und parallelperspektivische auf der anderen Seite. Da die zweite Darstellungsform mit zeichnerischen Mitteln wesentlich einfacher zu erzeugen sei, würde sie für die Erarbeitung von Entwürfen im Ingenieurswesen bevorzugt zum Einsatz kommen. Deutlich hebt Romney allerdings hervor: »Perspective projections, however, are those always encountered in the real, visual world.«72 Er begründet diese Aussage – vergleichbar mit seinen vorangegangenen im Rahmen der vorliegenden Studie thematisierten Kollegen – mit dem Netzhautbild. Während die Augenlinse zentralperspektivische Projektionen produziere, sei in der Kameratechnik neben diesem Prinzip auch die ›oblique perspective‹ üblich, in der zwei Fluchtpunkte zum Einsatz kämen: »Oblique perspectives are often employed by the artist in order to achieve special ef fects. The photographer, also, often uses oblique perspective to compensate for image distortion. […] The draftsman, however, encounters considerable difficulty in achieving the particular oblique perspective he desires.« 73 Das System, mit dem Romney seine Computergrafiken erzeugt hat, könne sowohl parallelperspektivische und zentralperspektivische Projektionsprinzipien sowie auch die ›oblique perspective‹ mit zwei Fluchtpunkten umsetzen. Widersprüchlich erscheint, dass Romney zwar einerseits selbst klar zwischen unterschiedlichen Projektionsverfahren unterscheidet und damit zugleich darstellt, dass es sich um zeichnerische 71 Romney (1969): S. 5. 72 Ebd., S. 116. 73 Ebd., S. 118. Romney verwendet den Begriff der ›oblique perspective‹ anders als Rule und Coons. In ihren Darstellungen kommt diese spezifische Perspektive ohne Fluchtpunkte aus. Vgl. Abb. 49 in Kapitel 2.3.1 Die Grafik als Gedankeninstrument, S.165.
University of Utah
onstruktionen und Konventionen handelt, dass er allerdings dennoch zu dem K Schluss kommt, die Perspektivzeichnungen, die mit Fluchtpunkten und Verkürzungen arbeiten, eigneten sich am besten zur realistischen Wiedergabe der Umgebung. In den einleitenden Sätzen seiner gesamten Studie kündigt er diese Erkenntnis an: »The problem of all imaging processes, consequently, is how to incorporate dimensionality or spatial relationship into the image.«74 Dass gerade im Bereich der Kunst, auf den sich Romney selbst punktuell bezieht, auch andere etablierte Ansätze existieren, um Aspekte wie Dimensionalität und räumliche Verhältnisse auf der zweidimensionalen Fläche zu verhandeln, statt ausschließlich mit perspektivischen Konstruktionen zu arbeiten, ist für Romney unerheblich. Demzufolge setzt sich mit ihm die Maxime zentralperspektivischer Glaubwürdigkeit weiter fort, da auch für ihn die perspektivische Konstruktion und vor allem die Zentralperspektive ein wesentliches Element von Bildlichkeit sei. In Erinnerung an Panofskys Hinweis, es sei wesensbedeutsam, welche Perspektive man für seine bildlichen Darstellungen wähle,75 wird nun deutlich, inwiefern auch in der weiteren Fortsetzung die Entwicklung der Soft- und Hardware zur Erzeugung von Computergrafiken stark von ganz bestimmten bildlichen Vorstellungen geprägt ist. Nicht etwa kubistische malerische Ansätze, in denen ebenfalls Räumlichkeit auf die zweidimensionale Fläche übertragen wird, finden in Form der zu jener Zeit entstehenden Computeranwendungen Einzug in die Softwarelandschaft, sondern eine realistische Bildsprache, die sich vor allem an optischen Prinzipien orientiert. Die von Romney angestrebte Bildästhetik ist demnach wie für Coons und Fetter klar an die perspektivische Projektion geknüpft. Das übergeordnete Ziel des Forschungsprojekts folgte nicht vorrangig künstlerischen Maßstäben – immerhin war auch das Forschungsprojekt in Utah nicht zuletzt von militärischen Interessen geleitet. Dennoch nimmt etwa Romney gelegentlich Bezug auf die künstlerische Arbeit, so wie auch Sutherland im Rahmen seiner Arbeit an Sketchpad. Auch zeigt sich anhand der Einschätzung Romneys, die perspektivischen Konstruktionen seien objektiv von der menschlichen Sicht abzuleiten, dass er ähnlich wie Sutherland von einer Universalität ausgeht, die die 3D-Grafiken auszeichnen soll. Wie wirkt sich diese Haltung auf den nun folgenden Schritt des Shadings aus? Die zentrale Aufgabe des Shadings sei es, so Romney, »to provide picture under standibility. In other words, to convey to an observer the intended information in an unambiguous manner.«76 Seine Vorstellung davon, was das Shading leisten kann, ist vor dem Hintergrund der Auseinandersetzung mit Coons und Fetter vertraut. Die Oberf lächendarstellung der zentralperspektivisch dargebotenen Objekte stützt sich – in Fortsetzung von Romneys bisheriger Argumentation – ebenfalls auf von ihm als objektiv eingestufte Prinzipien, die, wie auch die Aspekte zur Optik, ihren Ursprung in der Physik besitzen und es leisten können, »to produce a meaningful rendering.«77 Zu diesen ›sinnstiftenden‹ Kriterien zählt etwa, in welcher Form auf der Materialoberf läche die Lichtref lexion angezeigt wird, also ob es sich zum Beispiel um matte oder ref lexive Materialien handelt oder auch ob ref lexive Materialien selbst Licht in die Umgebung abgeben. Das Thema der Lichtref lexion beherbergt also nicht nur die 74 Romney (1969): S. 1. 75 Vgl. Panofsky (1998): S. 108. 76 Romney (1969): S. 130. 77 Ebd., S. 131.
217
218
Scheler: Computergrafik
Frage nach möglichen direkten, sondern zudem die Frage nach indirekten Lichtquellen. Nicht zuletzt ergibt sich – in der weitergeführten Logik dieses physikalischen Ansatzes – die Frage nach dem Schattenwurf.78 Die Berechnung der Oberf lächeninformationen von Objekten ist einer der Hauptfaktoren, der zu jener Zeit die Dichotomie zwischen ›guten‹ und ›schnellen‹ Bildern eröffnet. Obwohl also Romney umfangreiche Kriterien für das Shading aufführt, werden in vielen Fällen aufgrund der damals verfügbaren Rechenleistung noch Kompromisse eingegangen. So arbeitet Romney zum Beispiel – wie schon im gemeinsam mit Evans veröffentlichten Paper – mit einer Lichtquelle, die sich zugleich am Blickpunkt des Betrachters befindet. Auf diese Weise fallen die Schatten stets hinter die angezeigten Objekte und müssen nicht berechnet werden. Lediglich die Oberf lächen evozieren so durch unterschiedliche Helligkeitsabstufungen den Eindruck eines Lichteinfalls. Aufgrund dieser Methode betont auch Evans im dritten Zwischenbericht im Jahr 1967: »Halftone shading computations have been made reasonable by assuming only first order illumination from a single light source located at the eye of the viewer. This illumination is not the most artistic, but pictures produced have been pleasing to look at. The illumination is similar to the single flash illuminations of many press photographs.« 79 Romney folgt zwei Jahre später diesem Ansatz noch immer und nutzt dabei ebenfalls die Formulierung »f lash photography quality«80, um die Ästhetik seiner erzeugten Bilder zu beschreiben. Abbildung 57 zeigt einen dieser frühen Versuche anhand einer aus dreieckigen Polygonen geformten Kugel, die zentral eine starke Ref lexion aufweist, so wie es auch für eine Blitzfotografie typisch wäre. Bei dem Beispiel handelt es sich um ein Bild aus der Zusammenarbeit mit Evans. Die Berechnung von Ref lexionen, wie sie etwa bei glatten Oberf lächen auftreten, klammert Romney zunächst aus. Alle von ihm dargestellten Objekte in seinen Beispielbildern werden mit matten Oberf lächen dargestellt, die Licht nur diffus ref lektieren.81
78 Romney verweist in Bezug auf die objektiven Kriterien, die seines Erachtens für ein erfolgreiches Shading berücksichtigt werden sollten, zudem auf die Aspekte der »[r]etinal spectral response as a function of intensity« und »[h]aziness as a function of distance«. Romney (1969): S. 130. 79 Evans (1968a): S. 7. 80 Romney (1969): S. 131. Parallel zu den Ansätzen, die an der University of Utah entwickelt wurden, arbeitete Arthur Appel vom IBM Research Center an einer Methode, die einen komplexeren Schat tenwurf virtueller Objekte ermöglichte. Die Lichtquelle setzte Appel nicht beim Blickpunkt des Be trachters, sodass die Schatten nicht hinter den Objekten verborgen blieben, sondern etwa seitlich von den Objekten oder auf ihrer Oberfläche selbst sichtbar wurden. Die von ihm erzeugten Grafi ken waren jedoch weder für die Verwendung in Echtzeit noch für den Einsatz im Bewegtbildbereich konzipiert. Sein Ansatz bezieht sich ausschließlich auf Bilder, die für den Druck gedacht waren. Darüber hinaus beschränkt sich seine Methode auf virtuelle Objekte, die allein aus planen Flächen zusammengesetzt sind. Vgl. Arthur Appel: Some Techniques for Shading Machine Renderings of Solids. In: Proceedings of the Spring Joint Computer Conference – AFIPS ’68. Hrsg. v. ACM. New York, NY: ACM Press, 1968, S. 37–45. 81 Vgl. Romney (1969): S. 134.
University of Utah
Abb. 57: Gordon W. Romney, Gary S. Watkins und David C. Evans, Sphere, 1968, ComputerRendering aufgezeichnet auf Film (hier reproduziert als Halbtonbild).
Die Ausgabe beziehungsweise Aufzeichnung der Bilder erfolgte schließlich in einem analogen fotografischen Prozess. Um ein Bild anzuzeigen und anschließend zu speichern, verwendete Romney einen Oszillografen, auf dem die fertige Berechnung mit allen Werten zum Erscheinungsbild der Oberf lächen und Beleuchtung, Zeile für Zeile, aufgebaut wurde. Dieser allmähliche Auf bau des Bildes wurde zugleich unter Langzeitbelichtung fotografisch aufgezeichnet, da nicht alle Zeilen gleichzeitig angezeigt werden konnten.82 Jegliche Vervielfältigung der computergenerierten Bilder erfolgte dann über Reproduktionen der so entstandenen Fotografien; ein Grund dafür, weshalb Romney die Vokabel auch gelegentlich für die fertigen computergenerierten Bilder verwendet.83 Obwohl die Fotografie bei Romney als bildgebendes Verfahren 82 Die präzise Beschreibung des Vorgangs formuliert Romney folgendermaßen: »An entire picture is rendered by sequentially displaying on a cathode-ray tube the intensity information for each scanline in the frame. The frame is made up of M scan-lines where M ≤ 1024. A slow transmission rate requires that a time-exposure photograph of the screen be made. […] The computation for RENDER [die Bezeichnung für den Renderalgorithmus] is performed by a UNIVAC 1108 computer. The inten sity information is determined by the Shader […], and transferred to a PDP-8 Computer. The PDP-8 generates the raster that drives the oscilloscope beam at a constant rate across a scan-line. Conse quently, a picture is ›painted‹ by modulating the z-axis with the computed intensity values.« Rom ney (1969): S. 145 und S. 147. Auch 1967 wurden die Bilder auf diese Weise bereits aufgezeichnet und ›gespeichert‹. Evans, Romney, et. al. beschreiben: »Each scan line […] is stored in the PDP-8 memory and then transmitted through a digital to analog (D-A) converter to a Tektronix 453 oscilloscope. The scan position is dictated by ten bit x and y registers in the D-A converter. The intensity of the beam at each point in the scan is controlled by a six bit z register. Due to storage and 1108 – PDP-8 transmission-rate limitations we have been forced to take time exposure photographs of the scope trace. As soon as a scan line is completed, the PDP-8 requests information for the next scan line.« Wylie; Romney; Evans; Erdahl (1967): S. 55–56. 83 In einer Vorgangsbeschreibung, die mit der Erzeugung der Fotografie endet, ist die Verwendung des Begriffs missverständlich. Romney könnte hier so verstanden werden, dass er die fertigen 3DGrafiken als Fotografien begreift, obwohl er – wie aus dem Kontext hervorgeht – hier tatsächlich fotografische Polaroid-Aufnahmen meint: »A stick-drawing of the object appears on the IDI. The user then decides that he likes the view and pokes the tablet to initiate a rendering. A shaded image of the assembled object is computed and transmitted to a display oscillograph and a photograph is produced.« Romney (1969): S. 84. Zur Verwendung des fotografischen Films äußert er sich folgen dermaßen: »The black and white photographs were made on Polaroid Positive-Negative film and reproduced by a halftone printing process […] with a screen of 150 lines/inch.« Romney (1969): S. 81.
219
220
Scheler: Computergrafik
demzufolge zunächst nicht vorrangig als bildästhetisches Vorbild zu verstehen ist, sondern zum damaligen Zeitpunkt ganz praktisch als Teil des Produktionsprozesses, gibt seine Auseinandersetzung mit dem Reproduktionsverfahren Aufschluss darüber, dass die Fotografie auch im Hinblick auf das Erscheinungsbild der 3D-Grafiken einen wesentlichen Orientierungspunkt bietet: »Tone reproduction with computer-generated images is not ›reproduction‹ work in any sense of the word. Consequently, the previous definition of photographic quality is not applicable – or is it? The observer definitely has not seen the original. However, as a result of accumulated experience with similar objects, he has acquired a definite impression that is the result of stored memory records of previous visual stimuli. This impression, in turn, is used to evaluate the quality of the photographic reproduction although the observer has never seen that particular object.« 84 Der oben zitierte Wunsch Evans’, »half-tone photograph like pictures of three dimensional objects«85 zu produzieren, lässt sich vor dem Hintergrund dieser Überlegungen Romneys noch besser nachvollziehen. Romney wendet seine Erkenntnisse zu den mit Fotografien zusammenhängenden Sehgewohnheiten letztlich auch auf die Erzeugung von Farbbildern an. Unter Bezugnahme auf den Ingenieur David L. MacAdam weist Romney darauf hin, dass für die Erzeugung schwarz-weißer Bilder objektive Kriterien empirisch mithilfe von Studien bereits ermittelt wurden, die bei der Reproduktion immer wieder zum Einsatz kämen, während solche Anhaltspunkte für die Farbbildreproduktion noch nicht in umfassender Form existierten.86 Zur Erzeugung der Farbbilder nutzte Romney Farbfilm, obwohl das Oszilloskop keine Farben anzeigen konnte, weshalb Romney die Farbinformationen mithilfe von Farbfolien übertragen musste, die er zwischen Kamera und Oszilloskop platzierte. Er arbeitete hierbei mit den drei Grundfarben Rot, Grün und Blau, da sich aus diesen drei Farben unter Lichteinfall weitere Farben mischen lassen. In Vorbereitung auf die 84 Romney (1969): S. 144. 85 Evans (1968a): S. 1. 86 Vgl. Romney (1969): S. 144. MacAdam, der im späteren Verlauf des aktuellen Kapitels erneut auf gegriffen wird, befasst sich in seinem Aufsatz Quality of Color Reproduction mit der Frage, ob sich die Kriterien, nach denen Fotografien erzeugt werden, auf bewegte Bilder im Bereich des Films und Fernsehens übertragen lassen. Er stellt in seiner Auseinandersetzung mit der Frage zunächst die Herangehensweise vor, mit der die Qualität von Schwarz-Weiß-Fotografien zu ermitteln versucht wurde, um anschließend zu der Frage überzugehen, ob sich die Methode, mit der die Qualität der Schwarz-Weiß-Bilder bemessen wurde, auch zur Bestimmung der Qualität von Farbbildern eigne. MacAdams Schlussfolgerung führt zu der Erkenntnis, dass der Prozess, die Qualität von Farbauf nahmen zu bestimmen, wesentlich komplexer sei als für die Schwarz-Weiß-Fotografien, da bei diesen wesentlich weniger Parameter zur Erzeugung eines Bildes eine Rolle spielen. Für beide Ver fahren sei es jedoch in gleicher Weise notwendig, sich nicht allein auf physikalische Parameter zu berufen, mit denen versucht wird, die reale Umgebung treu nachzuempfinden. Entscheidender sei es, Personen zu befragen und auf empirischem Wege herauszufinden, welche Bilder als angenehm wahrgenommen werden. Erst wenn auf diese Weise die Qualität einer Schwarz-Weiß- oder Farb aufnahme ermittelt wurde, mache es Sinn, die technischen Parameter zu dokumentieren, um Bilder mit denselben Einstellungen reproduzieren zu können. Vgl. David L. MacAdam: Quality of Color Re production. In: Journal of the Society of Motion Picture and Television Engineers /56, 1951, S. 478–512.
University of Utah
drei Kanäle erzeugte Romney am Computer ein Bild in drei einzelnen Durchläufen – für jede Farbe einen. Konkret bedeutet dies, dass er ein Bild einmal mit allen Rotanteilen, einmal mit allen Grünanteilen und einmal mit allen Blauanteilen ausgeben musste. Um die drei Kanäle wieder zusammenzufügen, wurde der Film zunächst mit den roten, anschließend den grünen und zuletzt den blauen Anteilen des Computerbildes belichtet.87 Da dieses Verfahren sehr aufwändig war und keine unmittelbare und interaktive Manipulation des angezeigten Objekts ermöglichte, verweist Romney im Rahmen seiner Studie auf seinen Kollegen Alan Erdahl, der parallel ebenfalls in Utah an einem Ansatz arbeitete, mit dem sich Farbbilder auf einem Farbfernseher anzeigen lassen können.88 In Bezug auf Romneys Arbeit lässt sich nun zusammenfassend anmerken, dass seine Überlegungen und konkreten Umsetzungsideen zentrale Hinweise darauf liefern, welche Themen und Probleme in der weiteren Entwicklung von Evans’ Forschungsprojekt an der University of Utah im Fokus standen. Zwar war Romney noch nicht in der Lage, alle seine als objektiv eingestuften Kriterien zur Erzeugung einer für ihn gelungenen 3D-Computergrafik umzusetzen, doch zeigt seine Gedankenführung sehr deutlich an, welcher Logik die Bilderzeugung folgt: So orientiert die Erzeugung der ersten computergrafischen Bilder sich einerseits an fotografischen, andererseits aber auch an wahrnehmungspsychologischen Parametern. Festhalten lässt sich, dass sich aus diesen ersten Bestrebungen Romneys und Evans’ weitere Ziele ergaben, die jedoch lediglich Verbesserungen zu dem Grundanliegen darstellen, realistische 3D-Grafiken mit fotografischer Qualität zu erzeugen. Ein solches Ziel wäre etwa eine Möglichkeit, Lichtquellen überall im virtuellen Raum platzieren zu können, statt lediglich vom Blickpunkt des Betrachters aus. Im Ergebnis knüpft sich an dieses Ziel
87 Während in der Drucktechnik alle Farben mithilfe der Grundfarben Cyan, Magenta und Gelb so wie zusätzlich Schwarz in einem subtraktiven Farbmischsystem erzeugt werden, geschieht dieser Vorgang bei lichtbasierten Bilderzeugungsverfahren, wie zum Beispiel bei der Kameratechnik, mithilfe eines additiven Farbmischsystems und den drei Farben Rot, Grün und Blau. In beiden Verfahren werden Grundfarben in verschiedenen Sättigungsgraden und Helligkeitsabstufungen gemischt, doch beim Druck entsteht durch die Überlagerung mehrerer Farben ein dunklerer Farb ton, während durch die Überlagerung der drei Grundfarben in dem lichtbasierten, also additiven, Verfahren, weißes Licht entsteht. Um gefärbte 3D-Bilder zu erzeugen, arbeitete Romney demzu folge mit dem additiven Verfahren, wobei er zum damaligen Zeitpunkt die Polygone, mit denen die Modelle virtuell beschrieben wurden, nur als Ganzes einfärben konnte. Für den roten Kanal wurden schließlich alle diejenigen Polygone, die keine roten Anteile enthalten, ausgeblendet. Um das immer gleichfarbige helle Licht des Oszilloskops einzufärben, bevor es auf den langzeitbelich teten Film fällt, wurde zwischen Kamera und Oszilloskop ein roter Farbfilter platziert. Dieser Vor gang wurde anschließend für den grünen und blauen Kanal wiederholt. Ebenfalls berücksichtigt wurde hierbei, dass das Oszilloskop streng genommen kein rein weißes Licht ausgab: »Good color mixing is possible only if the oscilloscope phosphor, the film and filters are all selectively matched. The CRT (Appendix F.6) used to record the computer generated images has a P4 phosphor that emits both a blue and a yellow component of light.« Romney (1969): S. 150. 88 Vgl. Romney (1969): S. 114, und vgl. Alan Erdahl: Displaying computer generated half-tone pictures in real time. Masterarbeit am Department of Electrical Engineering, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1969. Auch Evans hebt Erdahls Ansatz in seinem sechsten halb jährlichen Forschungsbericht als eines der Ergebnisse der Forschungsperiode hervor. Vgl. Evans (1969b): S. 5.
221
222
Scheler: Computergrafik
wiederum beispielsweise die Möglichkeit, Schatten darzustellen.89 Grundsätzlich neue bildästhetische Ansätze wurden ab diesem Zeitpunkt nicht mehr erkundet. Doch warum hat sich dieser Weg auch weiterhin etabliert? Um diese Frage zu beantworten, bietet es sich an, noch einmal zu der Aussage Romneys zurückzukehren, die Erzeugung der 3D-Grafik sei nichts anderes als eine Simulation des menschlichen Sehverhaltens. Auch die Bedeutung, die er dem Begriff der Objektivität beimisst, soll abschließend in diesem Zusammenhang genauer untersucht werden. Wirft man einen Blick in die Quellen, die Romney aus den Bereichen der Optik sowie Film- und Fernsehtechnik heranzieht, wird deutlich, dass die Bedeutung, die den Begriffen ›subjektiv‹ und ›objektiv‹ dort beigemessen wird, von der Logik, die Romney den Begriffen zugrunde legt, abweicht. Durch diese Abweichung erscheint Romneys Verwendung der Worte paradoxal oder zumindest missverständlich. Ausgangspunkt für Romney, die Quellen überhaupt heranzuziehen, ist die Frage, welche Parameter aus der Fotografie oder dem Bereich des Bewegtbildes für die Erzeugung von Computerbildern ebenfalls erkenntnisreich sein können. In den oben angeführten Quellen von Jones und MacAdam, auf die Romney sich bezieht, um seine objektiven Kriterien herauszuarbeiten, wird der intuitiven Wahrnehmung des Menschen bei der Bildproduktion ein höherer Stellenwert beigemessen als allein physikalischen Parametern. Wenn man an Coons und Rule oder auch an Fetter zurückdenkt, erscheint diese Denkweise vertraut und auch Evans, Romney et. al. zielen in ihrem Paper von 1967 darauf ab, Bilder unmittelbar ›fühlen‹ zu können. In Bezug auf die Reproduktion von fotografischen Aufnahmen stellt MacAdam beispielsweise heraus: »Without psychophysical relationships, the results of optical measurements tell little about the quality of tone reproduction.«90 Die Kriterien zur Reproduktion werden, wie MacAdam erläutert, deshalb empirisch anhand einer Testgruppe von Menschen auf Basis subjektiver Wahrnehmung ermittelt. MacAdam bezieht sich in diesem Aspekt auf Jones, den Romney ebenfalls heranzieht. Jones stellt heraus, warum eine physisch korrekte Aufnahme auf psychophysischer Ebene häufig nicht zufriedenstellend ist: »From the physical point of view, a perfect reproduction, that is perfect objective photo graphic quality, is obtained when the brightness and brightness differences in the illu minated positive are identical with those in the object or scene photographed. How ever, such a positive would, in general, fail to reproduce with satisfactory fidelity the subjective impression of the original because of the difference (usually very great) between the visual field environment of the original and that of the reproduction.«91 Widersprüchlich erscheint vor diesem Hintergrund, dass Romney von objektiven Kriterien spricht, die zur Erzeugung von 3D-Computergrafiken zum Einsatz kommen, denn das Forschungsfeld, das er unterstützend heranzieht, befasst sich umgekehrt 89 Romney verweist ebenfalls beispielsweise bereits auf diese Ziele. Vgl. Romney (1969): S. 114. 90 MacAdam (1951): S. 498. 91 Jones (1944): S. 76. Herv. i. O. MacAdam zitiert Jones mit einem ähnlichen Statement aus einem ak tuelleren Aufsatz aus dem Jahr 1951: »In fact, there are many cases where we know that the perfect objective reproduction, although obtainable, is not the one the majority of judges will choose as of best photographic quality.« Loyd A. Jones: The Psychophysical Evaluation of the Quality of Photo graphic Reproductions. In: PSA Journal 17/12, 1951, S. 751–764, hier S. 754.
University of Utah
mit der Frage, weshalb rein objektive und physikalisch korrekte Kriterien zur Reproduktion der realen Umgebung für die Wahrnehmung des Menschen nicht zufriedenstellend seien. Konsequent ließen sich deshalb die Kriterien, die Romney als objektiv bezeichnet, als subjektive Wahrnehmungskriterien einstufen. Objektiv sind sie lediglich in der Hinsicht, dass mit den Kriterien immer wieder Bilder mit derselben Qualität und nach ähnlichen Maßstäben erzeugt werden können, ähnlich wie MacAdam und Jones es für die Fotografie ermitteln wollten. Obwohl also zentrale Bausteine der frühen computergrafischen Bildästhetik auf die Simulation physikalischer Phänomene zurückgehen, etwa auf das Verhältnis von Licht und Schatten oder die Funktionsweise einer Kamera inklusive der in der Linse erzeugten perspektivischen Verzerrungen, basiert ein wesentlicher Bestandteil der bildästhetischen Kriterien auf jenen sogenannten psychophysischen Erkenntnissen. Wenn Romney den Begriff objektiv verwendet, so vermengt sich darin das Zusammenspiel dieser beiden Ebenen – der physikalischen Phänomene auf der einen Seite und der Wahrnehmung dieser durch den Menschen auf der anderen Seite. Die Koppelung dieser beiden Aspekte hat sich in Form der Glaubwürdigkeitsmaxime bei Coons und Fetter als wesentliches ästhetisches Merkmal der Erzeugung von Grafiken beziehungsweise Computergrafiken abgezeichnet und sie bleibt auch an der University of Utah, wie sich bei Romney zeigt, wesentlicher Bestandteil der bildästhetischen Herangehensweise.
3.2.1.2 Smooth Shading – Henri Gouraud und der Brückenschlag zur heutigen 3D-Software Zum Abschluss der ersten Forschungsperiode, die im Juni 1970 endete, ereignete sich ein weiterer großer Erfolg, mit dem die anknüpfenden Untersuchungen in der zweiten Forschungsperiode zwischen Januar 1971 und Dezember 1972 wesentlich schneller und leichter voranzutreiben waren: Gary S. Watkins entwickelte im Rahmen seiner Dissertation einen neuen Algorithmus, der so gestaltet war, dass er sich in einen Prozessor als eigenständige Hardwarekomponente implementieren und anschließend mit jedem Computersystem koppeln ließ, um Oberf lächen- und Farbinformationen von virtuellen Objekten auf einem Display in Echtzeit zu berechnen.92 Aus Evans’ zweitem Bericht der neuen Forschungsperiode geht hervor, dass Watkins den Prozessor bis zum Ende des Jahres 1971 realisierte.93 Er optimierte die bisherigen Methoden damit unmittelbar und ermöglichte eines der wesentlichen Vorhaben, die Evans im Rahmen seiner Berichte formuliert, denn ein zentrales Anliegen war es, ein computergrafisches System zu entwickeln, das Bilder nicht nur ausgibt, sondern das zugleich zulässt, mit den angezeigten Objekten interaktiv zu arbeiten. Diese Zielsetzung bleibt auch in der zweiten Forschungsperiode zentral.94
92 Vgl. Evans (1971a): S. 2–7. Vgl. zudem Gary S. Watkins: A real time visible surface algorithm. Dis sertation an der School of Computing, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1970. 93 Vgl. Evans (1971c): S. 1. 94 Im ersten Bericht der neuen Forschungsperiode formuliert Evans dieses Anliegen erneut. Vgl. Evans (1971b): S. 2.
223
224
Scheler: Computergrafik
Obwohl Watkins die bisherigen Methoden mit seinem Algorithmus noch einen Schritt weiterführen konnte und wenngleich mit den bis zu diesem Punkt entwickelten Methoden für die an dem Forschungsprojekt Beteiligten hinreichend zufriedenstellende Grafiken entstanden, erzeugten alle bis dahin verfügbare Shading-Ansätze ein kantiges Erscheinungsbild, sobald die dargebotenen Modelle geschwungene Oberf lächen enthielten. Sofern mit den Polygonen lediglich plane Oberf lächen dargestellt wurden, war dieses visuelle Phänomen nicht sichtbar (s. Abb. 55–57). Um diesem Problem zu begegnen, entwickelte der französische Mathematiker Henri Gouraud95 im Rahmen von Evans’ Forschungsprojekt einen neuen Algorithmus, der es auf einfache Weise ermöglichte, Oberf lächen mit f ließenden Farbverläufen anzuzeigen. Evans erläutert das Problem im ersten Bericht der neuen Forschungsperiode folgendermaßen: »The shading techniques previously developed at the University of Utah by Romney [1], Warnock [2], and Watkins [3] seemed to be ›the way to go‹, but introduced two problems: 1. Hidden parts suppression for curved surfaces is not easily done; 2. Approximation of the surface with small planar polygons, although better than the line drawing method, still conveyed some undesirable visual effect caused by the a rtificial texture brought about by the parameter spacing.«96 Die einzige Möglichkeit, geschwungene Flächen darzustellen, lag bis zu jenem Zeitpunkt darin, sich mit einer größeren Menge an Polygonen an die eigentliche Form anzunähern. Die einzelnen Polygonf lächen werden durch einen solchen Schritt folglich wesentlich kleiner, die Datenmenge jedoch erheblich größer, sodass dieser Ansatz die Rechenzeit für ein Bild um ein hohes Maß steigerte.97 Die Methode, die Gouraud entwickelte, um die Problematik der kantigen Oberf lächen zu lösen, ist, wie zuvor dargelegt, aus produktionsästhetischer Perspektive noch immer aktuell. So kommt sein Ansatz noch heute beispielsweise innerhalb der 3D-Grafiksoftware Cinema 4D zum Einsatz.98 95 Gaboury führt Gourauds Motivation, aus Frankreich in die USA umzusiedeln, auf Sutherland zu rück, der die Forschung im Bereich der Mathematik in Frankreich als besonders fortschrittlich ein stufte. Er setzte sich deshalb dafür ein, für das Projekt an der University of Utah Forschungsnach wuchs zu rekrutieren. Auch Phong, dessen Familie ursprünglich im Zuge des Vietnamkriegs nach Frankreich ausgewandert war, sei durch diese Dynamik aus Frankreich in die USA gegangen. Vgl. Gaboury (2021): S. 97–99. Gaboury schildert den ›Anpassungsprozess‹ Gourauds an die Forschung in Utah: »On arriving Gouraud had no experience with computer graphics, and had only worked in Fortran and numerical computation as part of his training at the École Centrale. Nonetheless, he quickly took to the culture of problem solving that defined the Utah program, and began develop ing tools for the shading and display of complex objects.« Gaboury (2021): S. 98. 96 Evans (1971b): S. 3. Herv. i. O. Evans gibt Gourauds Formulierung aus seiner Dissertationsschrift beinahe im Wortlaut wieder. Vgl. Gouraud (1971a): S. 1. Mit dem Begriffspaar »parameter spacing« verweist Gouraud auf die Parameter, die zur Beschreibung einer Oberfläche notwendig sind. Hier nimmt er insbesondere Bezug auf die Anordnung der Polygone auf der Fläche, die durch die bis herigen Shading-Methoden offenbart wurde. Sein Ansatz soll diese bis dahin sichtbaren Parameter verbergen. Zur Begriffsklärung ›parameter spacing‹ vgl. Gouraud (1971a): bspw. S. 26. 97 Vgl. bspw. Evans (1971b): S. 4–5. 98 Vgl. hierzu insbes. Kapitel 1.2.1 Starting from Scratch – Die Praxis der synthetischen Bilderzeugung.
University of Utah
Um die Untersuchung zu den Entwicklungen an der University of Utah abzuschließen, werden nun zunächst Gourauds Forschungsbeitrag und seine dahinterstehenden Intentionen vorgestellt, um anschließend in etwas knapperer Form noch weitere Akteure aufzugreifen, deren Arbeit die heutige Produktion von 3D-Grafiken noch immer in besonderer Weise prägt. Im Fokus stehen hier Bui Tuong Phong, Edwin Catmull und James F. Blinn. Diese abschließende produktionsästhetische Auseinandersetzung dient vorbereitend dazu, im nächsten Abschnitt dieser Studie der Frage nachzugehen, woher bildliche Vorstellungen stammen könnten, mit denen all diese Personen ihrer Forschung nachgingen. Catmull und sein Unternehmen Pixar werden dort erneut in den Fokus rücken. Im Vordergrund der weiteren Entwicklungen an der University of Utah steht nach wie vor das Streben nach einer realistischen Bildsprache. Auch Gouraud knüpft sein Forschungsanliegen unmittelbar an eine spezifische Form realistischer Bildästhetik. Im Abstract formuliert er: »The research describes a method for producing shaded pictures of curved surfaces. It uses a small polygon approximation of the surface to solve efficiently the hidden parts detection, and then computes the shading on each polygon in such a way that visual dis continuities between adjacent polygons disappear, thus restoring the apparent smooth ness of the surface and increasing greatly the realism of the pictures produced.«99 Auch in dieser letzten Formungsphase der 3D-Grafik setzt sich demnach die Bedeutungsebene des Realismusbegriffs gemäß der Glaubwürdigkeitsmaxime in vertrauter Weise fort. Was Gourauds Aussage hier kennzeichnet, ist der Begriff des ›restoring‹, der Wiederherstellung. Da es mit der Polygon-Approximation bis zu seinem eigenen Ansatz gar nicht möglich war, f ließende Oberf lächen als Halbtonbild anzuzeigen, wird mit Gourauds Ansatz genau genommen eine weiche Oberf läche nicht wieder hergestellt, sondern überhaupt erst hergestellt. Diese Beobachtung führt zu der Frage, auf welchen Zustand Gouraud eigentlich verweist, wenn er von einem Wiederherstellungsprozess spricht. Anzunehmen ist, dass er auf eine Bildästhetik verweist, die nur theoretisch, also in der Vorstellung existiert, bis dahin jedoch noch nicht umgesetzt werden konnte. Je näher die computergrafischen Bemühungen an dieses Ideal heranrücken und je mehr unter den Forschern die Gewissheit wächst, dass ein bisher nur in der Vorstellung existierender Realismus zu erreichen ist, umso deutlicher wird, dass die Technologie von vornherein einer bildlichen Vorstellung folgt und nicht umgekehrt die technologischen Beschränkungen die Bildästhetik vorgeben. Auch in aktuellen Entwicklungen im Bereich der 3D-Grafik ist diese Dynamik noch zu beobachten – heute geht es ebenfalls noch darum, das damals schon erdachte bildliche Konzept zum Leben zu erwecken und es mit der zur Verfügung stehenden Technologie umsetzbar zu machen, beziehungsweise die entsprechende Technologie dafür zu entwickeln. Beispiele hierzu werden an späterer Stelle angeführt.100 99 Gouraud (1971a): S. iii. 100 Im Forschungsstand wurde dargestellt, dass Gaboury diesen Eindruck ebenfalls beschreibt, wenn gleich er es ablehnt, die von den Informatikern geäußerten Vorstellungen zum Ausgangspunkt sei ner Untersuchung zu machen. Stattdessen geht er davon aus, die Technik habe den Möglichkeits spielraum für die Entwicklung von 3D-Grafiken vorgegeben. Vgl. Gaboury (2021): S. 4–5 und S. 27.
225
226
Scheler: Computergrafik
In einem Tagungspaper stellt Gouraud im Jahr 1971 seine Idee vor. Den gedanklichen Ausgangspunkt für seinen Ansatz setzt auch er beim Hidden-Line-Problem. Er weist darauf hin, dass insbesondere Modelle mit geschwungenen Oberf lächen als Linienzeichnung nur schwer nachzuvollziehen sind, wenn die Linien im Hintergrund ebenfalls sichtbar sind. Wie er in seiner Dissertation darstellt, gelte dies vor allem, »when the surface is not a well known shape – sphere, cone, torus – that the pattern recognition aptitude of our mind recognizes more easily.«101 Anhand dieser Aussage wird deutlich, dass Gouraud ähnlich wie seine vorangegangenen Kollegen bei der menschlichen Wahrnehmung ansetzt. Eine in seinem Tagungspaper angeführte Definition für das Feld des Shadings setzt diese gedankliche Linie weiter fort: »In a ttempting to represent a scene, the shading technique is subject to all the psycho logical illusions present in the visual process.«102 Konkret spricht Gouraud hier mit seiner Aussage unter Bezugnahme auf Ernst Mach ein physiologisches Phänomen des menschlichen Sehapparats an, das die Betrachtung von Farbverläufen betrifft. Mach zufolge erzeugt das menschliche Auge in gleichförmig gefärbten Flächen einen Farbverlauf, wenn die Flächen nebeneinander ausgerichtet sind und gemeinsam einen Helligkeitsverlauf erzeugen. Dieses Phänomen tritt sowohl bei farbigen Flächen als auch bei Schwarz-, Weiß- beziehungsweise Grauwerten auf. So erscheint jede gleichförmig eingefärbte Fläche zur nächsthelleren Fläche dunkler und zur nächstdunkleren Fläche heller, wodurch der Kontrast zwischen den einzelnen eingefärbten Flächen insgesamt in erheblicher Weise verstärkt wird (Abb. 58).103 Für Gouraud und seine 3D-Modelle mit geschwungenen Oberf lächen, die sich aus einzelnen Polygonen mit jeweils unterschiedlichen Grauwerten zusammensetzten, stellten die sogenannten Machschen Streifen eine besondere Herausforderung dar.104 Auch eine höhere Anzahl von Polygonen und eine damit einhergehende Verkleinerung der einzelnen Flächen konnte, wie Gouraud betont, das von Mach beschriebene Problem nicht lösen.105 Aus diesem Defizit heraus entstand deshalb für Gouraud die Motivation, einen Smooth ing-Algorithmus zu entwickeln. Da beim Shading für jeden Punkt der Bildf läche, an dem sich ein virtuelles Objekt befindet, ein Farbwert berechnet wird, schlägt Gouraud vor, diesen Farbwert dahingehend zu verändern, dass ein f ließendes Erscheinungsbild entsteht (Abb. 59).106 Dieser neue Farbwert gibt dann nicht das eigentliche physische Erscheinungsbild des kantigen Objekts wieder, sondern eine gedachte, gleichmäßige 101 Gouraud (1971a): S. 4. 102 Henri Gouraud: Continuous Shading of Curved Surfaces. In: IEEE Transactions on Computers C-20/6, 1971, S. 623–629, hier S. 624. 103 Vgl. Ernst Mach: Über die Wirkung der räumlichen Vertheilung des Lichtreizes auf die Netzhaut. Vorgelegt in der Sitzung am 3. October 1865. Wien: K. k. Hof- und Staatsdruckerei, 1865. 104 Unter bestimmten Bedingungen stellte sich dieser Effekt sogar bei den von Gouraud simulierten fließenden Oberflächen ein. Deutlich wird dies zum Beispiel in seiner Danksagung: »Without the numerous discussions I have had with Dr. T. G. Stockham, Mach bands would still destroy the smoothness of curved surfaces. Thanks to him, the cathode ray tube display device I used was prop erly calibrated, which made possible the quality of the pictures contained in this document.« Gou raud (1971a): S. i. Auch Edwin Catmull verweist in seiner späteren Dissertation im Jahr 1974 darauf, dass mit Gourauds Algorithmus die Machschen Streifen auftreten. Vgl. Catmull (1974): S. 2 105 Vgl. Gouraud (1971a): S. 12. 106 Vgl. ebd., S. 16.
University of Utah
Abb. 58: Open-Source-Bild, Machsche Streifen, 2008, 2D-Grafik.
Oberf läche des Objekts.107 Es handelt sich also um eine Illusion. Um diese Vorgehensweise zu rechtfertigen, beruft sich Gouraud auf die Malerei: »In fact artists have known for a long time how to create a three-dimensional illusion on a flat canvas by painting it with the appropriate shade. By giving to each small poly gon approximating our surface some appropriate shade, we might restore the illusion of the smooth surface we were originally trying to display.« 108 Mit seinem Ansatz wirft Gouraud erneut die Frage nach der Dichotomie zwischen ef fizienten Bildern auf der einen Seite und ansprechenden, realistischen Bildern auf der anderen Seite auf. Er selbst verweist in seinem Paper darauf, dass der bisherige Grund für die f lächige Darbietung der einzelnen Polygone darin lag, dass ihre Berechnung auf diese Weise ef fizienter zu bewerkstelligen sei.109 Zugleich merkt er jedoch an, dass die zeitlichen Einbußen bei seinem eigenen Ansatz im Hinblick auf den besseren Realismus überaus gering seien. Er legt seine Ergebnisse dar, indem er zwischen seiner und Watkins’ Methode einen direkten Vergleich vornimmt. Der Vergleich mit Watkins bietet sich für Gouraud deshalb an, da er in unmittelbarer Weise an den Ansatz seines Kollegen anknüpfte und seinen eigenen Algorithmus 107 Er entwickelte dafür eine mathematische Funktion, mit der er die Normalen der einzelnen Knoten punkte zwischen den Polygonen ermitteln konnte. Von dort aus ließ sich zwischen den Normalen eine lineare Farbinterpolation berechnen, sodass die einzelnen Grenzen der Polygone und die dort entstehenden unterschiedlichen Farbwerte auf diese Weise überwunden werden konnten. Vgl. Gouraud (1971a): S. 19–23. In seinem Tagungspaper beschreibt Gouraud den Berechnungsvorgang der Normalen folgendermaßen: »At a particular vertex common to several polygons, one might compute a normal for each polygon as a vector perpendicular to the plane of that polygon. To achieve continuity of the shading we have to have only one possible normal at any particular vertex. This normal could be computed as, for example, the average of the normals to each polygon asso ciated with this particular vertex; but in the examples described in this paper an analytical descrip tion of the surface is available and it is possible to compute an exact normal at each vertex of the grid of polygons approximating the surface. Each polygon has a different shading for each of its vertices, and the shading at any particular point inside the polygon has to be computed as a continuous func tion of the shading at the vertices of the polygon.« Gouraud (1971b): S. 626. 108 Gouraud (1971a): S. 9. 109 Vgl. Gouraud (1971b): S. 623–624.
227
228
Scheler: Computergrafik
so gestaltete, dass er sich später ebenfalls in Watkins’ Prozessor implementieren ließ.110 Für die Gegenüberstellung der Methoden zeigt Gouraud zwei Bilderpaare mit jeweils identischem Bildinhalt. In beiden Fällen handelt es sich um rechteckige Flächen, die in sich geschwungen beziehungsweise gewellt sind, wobei er jeweils das eine Bild mit seinem eigenen und das andere mit Watkins’ Berechnungsmodell generiert hat. Während der Watkins-Algorithmus ein kantiges Erscheinungsbild produziert, erzeugt Gourauds Methode eine f ließende Oberf läche. Wie Gouraud zudem in der Bildunterschrift anmerkt, benötigt sein Ansatz lediglich 15 Sekunden länger (Abb. 59).111 Insgesamt zeichnet sich bei Gouraud sehr deutlich ab, dass er sich nicht mehr aus der Logik der zuvor erarbeiteten Ref lexionen Evans’ und Romneys oder auch denen, die zuvor durch Personen wie etwa Coons zum Ausdruck kamen, herausbewegt. Seine Vorstellung von Realismus lässt sich zwar daran anknüpfen, er selbst führt bis auf die von Mach beobachteten physiologischen Aspekte jedoch keine weiteren Anhaltspunkte an, warum er die Bildästhetik, die er anstrebt, für richtig hält. Lediglich seine Anwendungsbeispiele, die er für seinen Algorithmus anführt, können Aufschluss darüber liefern, dass er argumentativ eine ähnliche Linie verfolgt wie etwa Sutherland bei seiner Erarbeitung des Sketchpad-Programms. Sutherland attestierte seinem Programm eine Universalität. Gouraud erkennt in seinem Algorithmus dasselbe Potenzial: »The generality and the simplicity of the smooth shading technique presented here makes it possible to represent with great realism a large new class of objects.«112 Konkrete Anwendungsbeispiele sieht er beispielsweise im Bereich der Flugsimulation oder auch im Bereich des Industriedesigns, hier insbesondere im Automobildesign.113 Seinem Algorithmus allerdings eine Universalität zuzusprechen, legitimiert Gouraud mit experimentellen Beispielen, die vollkommen außerhalb der Flug- oder Automobilbranche liegen. Im Fazit seiner Dissertation resümiert er deshalb:
110 Watkins hatte für Gourauds Algorithmus die entscheidenden technischen Voraussetzungen ge schaffen, denn Watkins ermöglichte erstmals eine Berechnung von Bildern anhand von Polygonen, die in sich nicht plan sind. Die Verwendung von dreieckigen Polygonen ergab sich auch aus der Not wendigkeit, dass die Polygone stets eine plane Fläche ergeben mussten, um von den Algorithmen erfasst werden zu können. Auch Romney und Warnock waren darauf noch angewiesen. Mit Wat kins’ Algorithmus war es für Gouraud nun möglich, für seinen Algorithmus geschwungene Oberflä chen zu entwickeln, die nicht zwingend aus planen Polygonen bestehen. So nutzte Gouraud zur Be rechnung seiner Oberflächen das von Coons entwickelte mathematische Berechnungsmodell, den sogenannten ›Coons Surface Patch‹. In dem Modell entstehen allerdings keine Polygone, da es zur Klasse des alternativen Modellierungsverfahrens gehört, das nicht mit der Annäherung durch Poly gone arbeitet, sondern mit präzisen mathematischen Berechnungen. Da Gourauds Algorithmus allerdings lediglich in Zusammenhang mit Polygonen funktionierte, interpretierte er die einzelnen mathematisch beschriebenen Rasterelemente innerhalb des ›Coons Surface Patches‹ als Polygone. Durch diesen Schritt waren die Polygone allerdings nicht plan, sondern uneben. Der Watkins-Pro zessor konnte damit jedoch umgehen, sodass Gouraud durch die Kombination von Watkins’ Vor arbeit mit dem ›Coons Surface Patch‹ sein Ziel, geschwungene Oberflächen fließend darzustellen, umsetzen konnte. Vgl. Evans (1971b): S. 4. 111 Vgl. Gouraud (1971b): S. 628. 112 Gouraud (1971a): S. 1. 113 Vgl. ebd., S. 60.
University of Utah
Abb. 59: Henri Gouraud, Same curved surfaces presented with Watkins algorithm und Same curved surfaces presented with author’s method, 1971, Computer-Rendering. »As a conclusion we might examine the different areas where the smooth shading tech nique could be applied. Quite obviously, these areas will be found in the world of simu lation, but the drastic improvement in the realism of the pictures produced does open to the computer simulation some new domains. One of them, which is under study at the University of Utah, is the simulation of a dancer. In order to make this simulation acceptable for a choreographer, it is quite important to reproduce with realism not only the movements of the body, but also the shape of this body.« 114 Ähnlich also wie bei Sutherland führt auch Gouraud als Beweis für die Allgemeinheit seines Ansatzes eine künstlerisch-experimentelle Anwendungsmöglichkeit vor. Dass womöglich kreative Arbeitsansätze mit einem anderen ästhetischen Anspruch existieren, der sich nicht mit Gourauds Algorithmus vereinbaren ließe, steht für ihn nicht zur Debatte. Als besonderen Beweis für die umfassende Nutzungsmöglichkeit seines Ansatzes stellt er dar, dass er – zur Vorbereitung für das Tanz-Projekt – das Gesicht seiner Ehefrau im Computer nachgebildet hat (Abb. 60–62). Hierbei gesteht er sich jedoch ein, dass »[a]lthough it is true that in most respects this model is far from the original, the likeness between the two, compared with the results obtained with previous methods, constitutes the best example of the qualities of the smooth shading technique.«115 114 Ebd., S. 55. 115 Ebd., S. 2.
229
230
Scheler: Computergrafik
Abb. 60: Henri Gouraud, Fig. 26 –Two orthogonal views of the author’s wife which have been used to input the data of figures 28 and 29 into the computer, 1971, Fotografien.
Abb. 61–62: Henri Gouraud, Fig. 28 – Polygon approximation of figure 27 (Verweis auf ein Porträt seiner Ehefrau) und Fig. 29 – The smooth shading technique applied to the same geometric data as in figure 28, 1971, ComputerRendering.
Zusammenfassend zu Gourauds Ansatz lässt sich also festhalten, dass für ihn – ähnlich wie zuvor anhand von Coons’, Fetters oder auch Sutherlands Ansätzen herausgearbeitet – das Konzept des Realismus mit einer Vorstellung von Allgemeingültigkeit zusammenfällt. Obwohl Gouraud sich mit seinem Ansatz seinem Anspruch an Realismus deutlich nähern konnte, führt er in einem Ausblick Probleme und weiterführende Forschungsansätze an, die notwendig wären, um dem gedachten bildlichen Ideal in noch größerem Umfang gerecht zu werden. Auffällig an seinen Prognosen ist, dass zahlreiche seiner Vorschläge innerhalb weniger Jahre realisiert werden. So ist zum Beispiel sein Vorschlag, Polygone grenzübergreifend einfärben zu können und ihnen eine Oberf lächenstruktur zu verleihen, nur wenige Jahre später von Edwin Catmull und James Blinn umgesetzt worden. Gouraud verknüpft seine Zukunftsvorstellungen zugleich mit dem Anliegen, dass jede Neuerung keine Einbußen in der Echtzeitberechnung hervorrufen sollte, womit er erneut das Problem der Dichotomie zwischen ›Schönheit‹ und ›Effizienz‹ anspricht.116 Die Entwicklung der bildlichen Vorstellung, vor allem die eines ganz spezifischen Realismus, der die Maxime der Glaubwürdigkeit zu erfüllen vermag, ist mit der von Gouraud erstmals eingeführten Möglichkeit, jedes Objekt mit geschwungenen Oberf lächen darzustellen, prinzipiell an ein Ende gelangt. Die einzelnen Entwicklungen, die sich im Anschluss an Gouraud zugetragen haben, oder auch diejenigen, die sich heute ereignen, können demnach als direkte Fortführung dieser Errungenschaft betrachtet werden, da jeder Fortschritt konzeptionell nach demselben Ziel strebt. Zum ersten Mal zeichnet sich hier nun etwas klarer ab, was den gemeinsamen Sinnzusammenhang der 3D-Grafiken auszeichnen könnte. Obwohl er sich in technologischen Mitteln festschreibt und dort wiederzufinden ist, existiert er eigentlich außerhalb der Technologie, noch bevor die Mechanismen zur Verfügung 116 Vgl. ebd., S. 60.
University of Utah
standen, ihn zum Ausdruck zu bringen. Wenn im Anschluss nun Phongs, Blinns und Catmulls Beiträge zu dieser Geschichte vorgestellt werden, dient dieser Schritt dazu, diesen Eindruck zu bestätigen und damit gleichzeitig in den stilgeschichtlichen Teil der Untersuchung zu führen.
3.2.1.3 Textur und Struktur – Die Ziele nach dem Ziel Dem Ergebnis des letzten Kapitels entsprechend verweist Evans im zweiten Bericht der neuen Forschungsperiode im Dezember 1971 darauf, dass die wesentlichen Komponenten im Grafikbereich abgeschlossen seien.117 Der Fokus liege fortan auf einer besseren technischen Umsetzungsmöglichkeit der erarbeiteten Errungenschaf ten im Bereich der Computergrafik – eine Aussage, die er auch in den beiden letzten darauf folgenden Berichten wiederholt. Ziel sollte es nun stattdessen sein, mit der virtuellen Umgebung sowie mit den Modellen interaktiver arbeiten und die Bilder besser und f lüssiger darstellen zu können.118 Ziele für das letzte Jahr der Forschungsperiode waren es zum Beispiel, Anzeigefehler bei der digitalen Bildwiedergabe zu verbessern119 sowie Polygone auch über ihre Begrenzungen hinaus einfärben zu können: »This results in an unlimited range of colors and patterns, thus allowing a more realistic imitation of the real world.«120 Darüber hinaus wird im Rahmen der Berichte zunehmend auch das Thema der Computeranimation relevant, indem etwa computergenerierte Modelle deformiert und animiert oder Objekte im Raum bewegt werden.121 Zum Thema der Animation hat auch Catmull beigetragen – seine Forschung hierzu wird im letzten Bericht von Evans erwähnt.122 Da animationsbezogene Entwicklungen im Rahmen der vorliegenden Studie nicht im Fokus stehen, wird der Einblick in diese Thematik hier jedoch nicht vertief t. Der Fokus liegt stattdessen weiterhin auf der Bilderzeugung, wobei auch hier Catmull einen wesentlichen Beitrag geleistet hat, der nun gemeinsam mit Phong und Blinn vorgestellt werden soll. Alle drei forschten nach Abschluss des Forschungsprojekts im Dezember 1972 zum Teil parallel und zum Teil kurz aufeinander folgend weiterhin an der University of Utah, wobei die einzelnen Vorhaben noch immer von Militärgeldern gefördert wurden123 und in der Regel weiterhin unter der Aufsicht von Evans 117 Vgl. Evans (1971c): S. 4. 118 Vgl. Evans (1972a): S. 2, und vgl. Evans (1972b): S. 27. 119 Vgl. Evans (1971c): S. 1. 120 Ebd., S. 6. 121 Vgl. bspw. ebd., S. 11. 122 Vgl. Evans (1972b): S. 50. Catmull entwickelte für seine Animation ein virtuelles Modell seiner linken Hand, indem er zunächst einen Gipsabdruck davon erzeugte, den er anschließend mit Latex be schichtete. Auf dieser Vorrichtung zeichnete er manuell die Polygone ein, mit denen das virtuelle Modell im Computer beschrieben werden sollte. Ziel war es, die virtuelle Hand in Bewegung zu bringen, indem sie sich einmal zur Faust schließt und wieder öffnet. Vgl. Edwin Catmull: A System for Computer Generated Movies. In: Proceedings of the ACM annual conference – ACM ’72. Hrsg. v. John J. Donovan und Rosemary Shields. New York, NY: ACM Press, 1972, S. 422–431. 123 In den einzelnen Dissertationen wird jeweils auf dem Deckblatt auf die Forschungsförderung hin gewiesen. Vgl. bspw. Catmull (1974).
231
232
Scheler: Computergrafik
und Sutherland erfolgten. Bei einigen der Projekte wurde als Betreuer auch Steven Coons hinzugezogen, wie beispielsweise im Falle von Edwin Catmulls Dissertation, die er im Jahr 1974 abschloss.124 Worauf fokussierte sich also die Arbeit der drei Kollegen und inwiefern spielen ihre damaligen Forschungsinteressen heute noch eine Rolle? Eine Antwort lässt sich noch einmal bei Gouraud finden, denn dessen Ergebnisse wiesen noch erhebliche Defizite auf. So brachte sein Algorithmus zum Beispiel das Problem mit sich, dass sich damit zwar Oberf lächen weitgehend f ließend darstellen ließen (beziehungsweise noch immer lassen), die Kanten der Objekte vom Algorithmus jedoch noch nicht bedacht wurden. Wie etwa an den Augen in Abbildung 62 zu sehen ist, gab deshalb die Silhouette der Objekte nach wie vor die eigentliche polygonale und damit auch kantige Struktur der Modelle preis. Alle drei der nachfolgend thematisierten Forschungsprojekte nehmen Bezug auf diese Problematik.125 Darüber hinaus knüpfen sie zudem ganz direkt an einzelne Prognosen an, die Gouraud selbst in seiner Dissertation im Hinblick auf weiterführende Forschungsfragen vornimmt, beispielsweise die Möglichkeit, Modelle zu texturieren sowie ihnen eine Oberf lächenstruktur zu verleihen.126 Während also Phong vor allem daran interessiert war, den Shading-Algorithmus Gourauds zu verbessern, arbeitete Catmull an einem Ansatz, um Texturen zu ermöglichen, und Blinn daran, Objekte mit einer Oberf lächenstruktur zu versehen.127 Die Projekte werden nun vorgestellt, wobei zunächst Phongs Ansatz erläutert wird, während die Präsentation von Catmulls und Blinns Projekten miteinander verwoben wird. Wie es der Titel von Phongs 1973 fertiggestellter Dissertation Illumination for Computer Generated Images andeutet, war es sein Anliegen, das Verhalten von Licht zu erforschen, wenn dieses auf virtuelle Objekte trifft. Gourauds Ansatz war ihm in dieser Hinsicht noch nicht ausgereift genug, denn mit dessen Algorithmus ließen sich Lichtref lexionen nur an den Kanten der Polygone errechnen und nicht an einem beliebigen Punkt auf der Oberf läche eines Objekts.128 Obwohl Phong auf mathematischer Ebene einen neuen Lösungsansatz für Gourauds Berechnungsmodell entwickeln wollte, erinnert das Motiv, das Phong für seine Absicht herleitet, weiterhin an Gourauds Intentionen. In einem 1975 veröffentlichten Paper, in dem Phong seinen Algorithmus vorstellt, formuliert er: »Human visual perception and the fundamental laws of optics 124 Vgl. Catmull (1974): S. [i]. 125 Phongs Hinweise dazu werden im aktuellen Kapitel umfangreicher thematisiert, vgl. zudem bspw. Catmull (1974): S. 1–2, und vgl. Blinn (1978): S. 107. 126 Vgl. Gouraud (1971a): S. 64. 127 Blinn entwickelte zudem einen verfeinerten Shading-Algorithmus, der so eng mit Phongs Ansatz verknüpft ist, dass auch heute häufig im Bereich des Shadings noch von dem Berechnungsmodell ›Blinn-Phong‹ die Rede ist. Vgl. bspw. Renee Dunlop (Hg.): Production Pipeline Fundamentals for Film and Game. Burlington, MA; Oxfordshire, UK: Focal Press, 2014, S. 150. Blinn übernahm für sein neues Berechnungsmodell grundsätzlich Phongs Algorithmus, veränderte jedoch einzelne Parame ter in der mathematischen Funktion, sodass auch feine Unebenheiten auf der Oberfläche simuliert werden, da eine Oberfläche nie vollkommen glatt ist. Er orientierte sich hierbei an Studien von Ken neth E. Torrance und Ephraim M. Sparrow, die das Verhalten von Licht auf Oberflächen zuvor anhand von realen Objekten untersucht hatten. Vgl. zudem James F. Blinn: Models of Light Reflection for Computer Synthesized Pictures. In: Proceedings of the 4th annual conference on Computer graphics and interactive techniques – SIGGRAPH ’77. Hrsg. v. ACM. New York, NY: ACM Press, 1977, S. 192–198. 128 Vgl. Phong (1973): S. 52.
University of Utah
are considered in the development of a shading rule that provides better quality and increased realism in generated images.«129 Auch Romneys Argumentationsweise greift Phong auf, denn ähnlich wie Romney leitet Phong her, dass die Entscheidung, ob ein Bild gelungen ist und ansprechend aussieht, im Auge des Betrachters liegt: »Unlike a photograph of a real world scene, a computer generated shaded picture is made from a numerical model, which is stored in the computer as an objective de scription. When an image is then generated from this model, the human visual system makes the final subjective analysis. Obtaining a close image correspondence to the eye’s subjective interpretation of the real object is then the goal. The computer system can be compared to an artist who paints an object from its description and not from direct observation of the object. But unlike the artist, who can correct the painting if it does not look right to him, the computer that generates the picture does not receive feedback about the quality of the synthetic images, because the human visual system is the final receptor.« 130 Phong betont im Anschluss, dass – um diesen subjektiven Wahrnehmungskriterien gerecht zu werden – »[w]e must at the outset define the degree of realism we wish to attain, and fix certain goals to be accomplished.«131 Drei Ziele zur Erzeugung des Realismus, die nicht umfassend seien, aber die er anführt, um einen Eindruck seiner Ideen zu vermitteln, sind die Möglichkeit, Computerbilder in Farbe und in Echtzeit berechnen zu können, ferner die Darstellung von Objekten mit f ließenden Oberf lächen sowie die Reduzierung digitaler Artefakte, die bei der Bildberechnung entstehen.132 Den Realismus seiner Computergrafiken beweist er, indem er vergleichend Bilder gegenüberstellt, die jeweils mit dem Computer erzeugt oder fotografiert wurden, die aber je das gleiche Motiv zeigen. Er verwendet für seine Vergleiche Darstellungen von Kugeln, Zylindern und Kegeln (Abb. 63–68).133 Die von Phong angestrebte Bildästhetik orientiert sich also ähnlich wie bei Romney an fotografischen Parametern, aber auch hier mit der Einschränkung, dass nicht zuerst die Fotografie das Vorbild für die Bilderzeugung ist, sondern die menschliche Wahrnehmung. Phong setzt sich anders als Romney nicht mit den Parametern auseinander, die damals bei der Erzeugung von Fotografien zugrunde gelegt wurden. Dennoch reagiert auch er, indem er mit seinen 3D-Grafiken die
129 Bui T. Phong: Illumination for Computer Generated Pictures. In: Communications of the ACM 18/6, 1975, S. 311–317, hier S. 311. 130 Ebd., S. 311. 131 Ebd., S. 311. 132 Im Englischen spricht Phong von den »effects of digital sampling techniques.« Phong (1975): S. 311. In seiner Dissertation erläutert Phong, was er mit dieser Formulierung meint. So sei es mit den damals verfügbaren Displaygeräten und ihrer Auflösung überaus schwierig, Konturen im Bild anzuzeigen, die nahezu waagerecht oder senkrecht verlaufen. Die Darstellung solcher Linien erscheine statt dessen als eine Abfolge mehrerer parallel angeordneter Striche. Bei der Anzeige besonders lang gestreckter Polygonelemente könne es darüber hinaus passieren, dass sie gänzlich verschwinden, wenn sie in einer Richtung schmaler sind als die Auflösung des Bildschirms. Als Beispiel nennt er Fahrbahnmarkierungen, die in der Mitte einer Straße zur Trennung der Fahrspuren aufgebracht werden. Vgl. Phong (1973): S. 77–78. 133 Vgl. Phong (1973): S. 62–67.
233
234
Scheler: Computergrafik
Abb 63: Bui Tuong Phong, Figure 4.19 Real spheres with dif ferent light orientations (hier nur Aufnahme (a) zu sehen), 1973, Fotografie.
Abb. 64: Bui Tuong Phong, Figure 4.20 Spheres rendered with improved shading technique (hier nur Aufnahme (a) zu sehen), 1973, Computer-Rendering.
Bildästhetik von Fotografien imitiert, in letzter Konsequenz auf die wahrnehmungsbezogenen Parameter, an der sich die damaligen Reproduktionsmedien orientierten, um dem subjektiven Sehempfinden des Menschen gerecht zu werden. Obwohl sich insgesamt mit Phongs Algorithmus gegenüber Gourauds Vorarbeit wesentlich präzisere Ergebnisse erzielen ließen – Phong greift zur Veranschaulichung sogar Warnoks Algorithmus sowie dessen Molekül auf (Abb. 69) –,134 konnte Phong das Problem der kantigen Polygone ebenfalls nicht abschließend lösen. In den Beispielbildern 63 bis 68 hat er zwar ein Berechnungsmodell gefunden, das eine nahezu makellose Darstellung der runden Kanten erzeugen kann, in seinem Ausblick der Dissertation verweist Phong allerdings darauf, dass dafür ein sehr umfangreicher Datensatz notwendig sei, der zudem in der Handhabung sehr rechenintensiv sei.135 Und obwohl sein Algorithmus heute noch in verschiedenen Grafikanwendungen zur Anwendung kommt, wurde im Anschluss an Phong weiter an diesem und an anderen Problemen gearbeitet. Die nachfolgenden Entwicklungen reagieren in direkter Weise auf einige Prognosen, die Phong im Schlusssatz seines Fazits formuliert: »Finally a greater improvement of the quality of the synthetic pictures will be obtained when shadows and the texture of the objects can be simulated. When solutions to these problems are
134 Die Grundidee, das Erscheinungsbild eines Polygonobjekts in der finalen Ausgabe zu verändern, sodass statt einzelnen Polygonen mit unterschiedlichen Grauschattierungen eine glatte Fläche er scheint, ist bei Gouraud und Phong identisch. Die Umsetzung setzt jedoch an zwei unterschied lichen Aspekten an. Während Gouraud die Werte der Normalen an den Eckpunkten der Polygone verwendete, um einen linearen Farbverlauf dazwischen berechnen zu können, berechnet Phong die Normalen zusätzlich relativ zur Fläche eines jeden Polygons sowie relativ zu jeder der PolygonKanten. Vgl. Phong (1975): S. 315. 135 Er beschreibt sein Vorgehen folgendermaßen: »At the present time, when a smooth profile of the object is desired, as in the case of the pictures made for comparison with pictures of real objects, a large numerical data base is required.« Phong (1973): S. 77.
University of Utah
Abb. 65–68: Bui Tuong Phong, Figure 4.15 Real cones with dif ferent light orientations and surface finishes (l. o.); Figure 4.16 Cones rendered with improved shading technique (r. o.); Figure 4.17 Real cylinders with dif ferent light orientations and surface finishes (l. u.); Figure 4.18 Cylinders rendered with improved shading technique (r. u.), 1973, Fotografien und Computer-Renderings im Vergleich.
235
236
Scheler: Computergrafik
Abb. 69: Bui Tuong Phong, Figure 4.12 Molecule with dif ferent shading techniques (o. l.: Warnock-Shading, o. r.: Warnock-Shading mit Highlight, u. l.: Gouraud-Shading, u. r.: Phong-Shading), 1973, Computer-Rendering.
found, a new world will be opened in the domain of the computer-generated images.«136 Zwei Bereiche heutiger Arbeit mit 3D-Grafik, die in den nachfolgenden Jahren ebenfalls in Utah entwickelt wurden, sind – entsprechend dieser Prognose Phongs – die Erzeugung von Texturen auf der einen und die Erzeugung von Unebenheiten in der Oberf läche eines Objekts auf der anderen Seite. Ähnlich wie Phong auf Gourauds Vorarbeit verweist, nehmen sowohl Catmull im Jahr 1974 als auch Blinn im Jahr 1978 Bezug auf die vorangegangenen Ansätze von Gouraud und Phong.137 Beide stellen die jeweiligen Vor- und Nachteile der Shading-Verfahren heraus, um in ihrer eigenen Arbeit daran anzuknüpfen. Catmull entwickelt in seiner Dissertation das Anliegen, »to produce high quality computer-generated images of surfaces and curved objects.«138 Sein Vorhaben lässt sich somit auch mit einer Beschreibung Blinns in Verbindung bringen, die er zwar vier Jahre nach Catmulls Arbeit formuliert, die aber erneut Evans’ Hinweis bestätigt, dass keine neuen Entwicklungen mehr erfolgen: »In the branch of computer graphics known colloquially as ›hidden surface elimination‹ the goals have traditionally been to generate more and more realistic pictures of three dimensional objects and to produce them at greater and greater speed.«139 Welche Eigenschaften waren es Catmull zufolge also, mit denen die von ihm so bezeichneten ›high quality computer-generated images‹ erzeugt werden können? Auffällig ist, dass Catmull an nur wenigen Stellen in seiner Dissertation explizit auf Kriterien eingeht, die seines Erachtens ein gutes Bild auszeichnen. Er verhandelt wie 136 Phong (1973): S. 78. 137 Vgl. Blinn (1978): S. vii; vgl. Catmull (1974): S. 2. 138 Catmull (1974): S. 1. 139 Blinn (1978): S. 1. Er beschreibt damit auch sein eigenes Ziel, denn im Abstract kündigt er an: »This thesis attacks the problem of generating computer synthesized images both more rapidly and more realistically.« Blinn (1978): S. iv.
University of Utah
viele seiner Kollegen zur selben Zeit nicht mehr grundsätzlich, welche Bildlichkeit er anstrebt. So lässt sich zwar ein Hinweis finden, dass auch er eine realistische Bildsprache mit perspektivischer Verzerrung in Verbindung bringt,140 aber seine Ideen, virtuelle Objekte mit Texturen oder Bildern zu versehen oder mithilfe derselben Methode Schatten und Spiegelungen zu erzeugen, zeigen an, dass sich seine Forschung lediglich darum bemüht, die bisherigen Entwicklungen einen Schritt weiterzuführen und technisch zu verbessern. Auch seine Bildbeispiele von transparenten Objekten können dies belegen.141 Dass Catmull trotz dieser hier in seiner Dissertation nur reduziert erfolgenden Hinweise eine sehr klare Vorstellung von Bildlichkeit hatte, zeigt sich zum einen an seiner einige Jahre später erfolgenden Entwicklung von Renderalgorithmen sowie nicht zuletzt an den Pixar Animation Studios, an deren Gründung er beteiligt war. Wie in Kapitel 1.2.1 Starting from Scratch – Die Praxis der synthetischen Bilderzeugung erläutert, geht es beim Rendering darum, eine virtuelle Szenerie in ein zweidimensionales Bild zu überführen. Beide Komponenten – die Renderalgorithmen und Pixar – hängen zudem sogar unternehmensgeschichtlich eng miteinander zusammen, da Pixar zunächst ein Hardwarehersteller war, der mit dem Pixar Image Computer die Erzeugung und Bearbeitung von Bildern ermöglichte. Erst später entstand aus diesen ersten Schritten eine Rendersoftware und anschließend ein Animationsstudio, wobei das Unternehmen noch heute sein Rendersystem RenderMan kommerziell vermarktet.142 Konkret beschäftigt Catmull sich allerdings schon in seiner Dissertation damit, »how to model objects and then how to render them.«143 Das Projekt kann demnach als Grundstein für seine spätere Arbeit betrachtet werden.144 In Bezug auf die Erzeugung von 3D-Modellen erarbeitet Catmull eine Methode, die es erlaubte, virtuelle Objekte mithilfe mathematischer Funktionen zu generieren und zudem auch zu texturieren, ihnen also eine komplexere Farbgebung zu verleihen, als es bis dahin möglich war. Er veranschaulicht seine Idee mithilfe einer Mauer-Textur, die er auf verschiedene Objekte anwendet (Abb. 70). Für die Berechnung der Modelle greift er auch den sogenannten ›Coons Surface Patch‹ auf,145 wodurch sich erschließt, weshalb er Coons nicht nur im ersten Satz seiner Danksagung erwähnt, sondern warum Coons gemeinsam mit Evans und Sutherland auch Mitglied in seinem Dissertationskomitee war. Mit seiner Herangehensweise entscheidet Catmull sich gegen die 140 Vgl. Catmull (1974): S. 5. 141 Vgl. ebd., S. 38. 142 Der Pixar Image Computer wurde ursprünglich dafür konzipiert, kameragefilmtes Bildmaterial mit Aufzeichnungen animierter Effekte zu kombinieren. Er kam jedoch auch für medizinische oder mi litärische Zwecke zum Einsatz. Langfristig rentierte sich das Gerät nicht, weshalb Pixar dazu über ging, sich auf Render-Software zu spezialisieren. Der erste dafür entwickelte Algorithmus trug den Namen Reyes (Renders everything you ever saw), das Produkt wurde später jedoch in PhotoRealistic RenderMan und schließlich in RenderMan umbenannt. Vgl. Catmull; Wallace (2014): S. 29–30, und vgl. Price (2009): S. 43, S. 88–89, S. 95–99 und S. 295. 143 Catmull (1974): S. 1. 144 Sie wird im nächsten Kapitel genauer thematisiert. 145 Auf den ›Coons Surface Patch‹ geht Catmull explizit in seinem Anhang ein, in dem er die genaue Vorgehensweise seiner Berechnungen von Oberflächen präzise erläutert. Vgl. Catmull (1974): S. 58 und S. 66.
237
238
Scheler: Computergrafik
Verwendung von polygonbasierten Modellen, was er damit begründet, dass mit den mathematisch berechneten Modellen das Problem der kantigen Silhouette nicht auftritt. Zugleich ist ihm bewusst, dass die Berechnung der Oberf lächen mithilfe mathematischer Funktionen weniger Freiheiten in der Erzeugung von Modellen bietet: »Polygons, and sometimes quadric patches, are used to model objects in current shadedpicture methods. There are some difficulties with using these simple pieces to model or approximate free-form curved surfaces. Approximation with polygons gives a faceted effect and a silhouette made up of straight-line segments. Quadric patches, while smooth in appearance, are not suitable for modeling arbitrary forms, since they don’t provide enough degrees of freedom to satisfy slope continuity between patches.« 146 Mit der Funktion, die mathematischen Patches zugleich auch zu texturieren, hat Catmull eine der heute noch immer wesentlichsten Funktionen für die 3D-Grafik entwickelt, wenngleich heute auch Polygonmodelle mit Texturen versehen werden können.147 Blinns Ansatz, sogenannte Bump Maps zu erstellen, knüpfte an diese Vorarbeit Catmulls in direkter Weise an. Blinn erweiterte die Texturen um eine Information, mit der sich ein Modell zusätzlich zu seiner Farbgebung auch mit Unregelmäßigkeiten in der Oberf läche darstellen ließ, wie er etwa am Beispiel einer Orangenschale zeigt (Abb. 71). Blinn erklärt, inwiefern sein Ansatz an den Catmulls anschließt: »Even with a very accurate lighting model the rendered surfaces tend to look artificial due to their extreme smoothness. What is needed is a means of simulating the surface irregularities that are characteristic of real surfaces. These could, of course, be gener ated by explicitly modelling each wrinkle and fold. Hopefully, there are methods for avoiding this. Catmull introduced the idea of using the patch parameter values to index into a texture definition function which scales the intensity of the reflected light.« 148 Blinn zufolge handelt es sich bei seinem Ansatz demnach um »extensions to the texture mapping approach to modulate other surface properties to simulate roughness more realistically.«149 Für Catmull stand bei seiner Arbeit an den Texturen zunächst einmal im Vordergrund, die Modelle inklusive ihrer eingefärbten Oberf lächen angemessen auf einem Display darstellen zu können, weshalb für ihn das Thema des Renderings so zentral war. Sowohl bei der Ausgabe auf dem Bildschirm als auch beim Druck spielt der Aspekt der Auf lösung eine zentrale Rolle. Bei der Ausgabe auf dem Bildschirm kommt zudem der Umgang mit dem Raster des Bildschirms hinzu, wofür mathematisch berechnete ›Bilder‹, die zunächst einmal in dieser Form nur als Beschreibung im Computer existieren, in das Raster des Bildschirms übersetzt werden müssen. Catmull erklärt, wie sich das Display aus einzelnen Zeilen auf baut, die sich jeweils wiederum aus einzelnen rechteckigen ›Rasterelementen‹ zusammensetzen, also dem, was 146 Catmull (1974): S. 1. 147 Bis heute lassen sich auch bei der Arbeit mit polygonbasierten Modellen nur einzelne Polygone färben. Eine Färbung über die Grenzen eines Polygons hinweg ist auch aktuell nur mit einer Tex tur möglich. 148 Blinn (1978): S. 4–5. 149 Ebd., S. 5.
University of Utah
Abb. 70: Edwin Catmull, Picture 18 – The brick image mapped respectively onto a single rounded patch, a stretched patch, an S curved patch, and a cylinder of four patches, 1974, Computer-Rendering.
Abb. 71, oben: James F. Blinn, Textured Surface Simulating Orange Peel, 1978, ComputerRendering; unten: James F. Blinn, Texture Defining Function For Above, 1978, Texture Patch mit handgezeichnetem Muster.
239
240
Scheler: Computergrafik
heute gemeinhin als Pixel bezeichnet wird.150 Die Auf lösung bestimmt hierbei, aus wie vielen dieser Rasterelemente sich ein Bild zusammensetzt. Das Display, das Catmull zur Verfügung stand, hatte 512 Zeilen und 512 Rasterelemente pro Zeile. Um eine im Computer bereitliegende mathematische Berechnung eines Bildes in Form dieser Rasterelemente ausgeben zu können, musste demzufolge für jedes Rasterelement, also für jeden Pixel, ein Farbwert ermittelt werden.151 Dieser Übersetzungsprozess wird als Sampling bezeichnet und erzeugt im fertigen Bild häufig Artefakte, die nicht erwünscht sind und aufwändig umgangen werden müssen. Eines dieser Probleme, das mit dem Sampling-Prozess zusammenhängt, ist das auch heute noch relevante Aliasing, also der Treppeneffekt, der an Konturen von Bildelementen erscheint, die nicht exakt waage- oder senkrecht sind.152 Catmull erklärt das Phänomen folgendermaßen: »Aliasing occurs because we are sampling an image which has information that the raster-display cannot possibly reproduce.«153 Den Begriff ›image‹ versieht er hier mit einer Fußnote – seine Anmerkung ist für die vorliegende Studie besonders interessant, da sie zumindest ansatzweise einen Einblick in Catmulls Bildverständnis gewährt: »This image we are sampling exists only as a high resolution description in the computer, as contrasted with an actual photograph.«154 Catmull spricht hier bereits von einem Bild, noch bevor es überhaupt zu sehen ist. Daraus lässt sich schlussfolgern, dass er ein Bild dann als solches auffasst, sobald es mit allen Kriterien, die es zum Bild machen, fertig berechnet wurde. Der Prozess des Anzeigens ist zweitrangig. Diese Beobachtung geht einher mit dem Fazit aus dem vorigen Kapitel zu Gouraud. Auch hier ergab die Untersuchung seines Forschungsanliegens, dass seine Vorstellung der Bilder, die mit dem Computer gemacht werden sollen, immer zuerst existiert und dass erst anschließend versucht wird, dieser Vorstellung mit der zur Verfügung stehenden Technologie gerecht zu werden, beziehungsweise dass neue Technologie stets im Hinblick auf die erwünschte Bildästhetik entwickelt wird. Catmull greift diese Vorstellung implizit auf, indem er von einem Bild spricht, das noch gar nicht zu sehen ist. 150 Der englische Begriff ›raster element‹ ist ein Vorgänger des Begriffs ›Pixel‹. Wie der Informatiker Alvy Ray Smith in seiner Biografie des Pixels anmerkt, sind zuvor auch andere Bezeichnungen zur Verwendung gekommen, beispielsweise ›spots‹, ›point arrays‹, ›picture points‹, and ›picture ele ments‹. Smith befasst sich in seiner Monografie mit der geschichtlichen Entstehung des Pixels, weist hier allerdings darauf hin, dass die mathematische Grundlage dessen, was als Pixel bezeich net wird, in der Regel nicht im Bewusstsein der Allgemeinheit verankert ist, weshalb die Vorstel lung, was ein Pixel sei, stark von dem abweiche, was er mathematisch eigentlich bedeute. Der Be griff wird daher in der Regel nicht präzise verwendet: »Pixels are not little squares! This may surprise you because very often they’re represented that way – so often, in fact, that many people equate pixels with little abutting squares of color – which is perhaps the most widespread misunderstand ing of the nascent digital age. The word pixelation has even institutionalized the misconception. In fact, pixels have no shape. They’re just samples taken on a regular grid […]. They exist only at a point, so they have no extent, no width, zero dimensions. You can’t see them, and they have no visible color. They just have a number representing a shade of gray, or three numbers representing a color.« Smith (2021): S. 51. Herv. i. O. 151 Vgl. Catmull (1974): S. 4–5. 152 In Kapitel 1.2.1 Starting from Scratch – Die Praxis der synthetischen Bilderzeugung in der vorliegenden Studie wurde der Effekt ebenfalls beschrieben. 153 Catmull (1974): S. 41. 154 Ebd., S. 41.
University of Utah
Zunächst einmal stellt er einfach die technische Gegebenheit dar, dass sich rein mathematisch betrachtet die Auf lösung eines Bildes wesentlich höher erzeugen ließe, als es die damals zur Verfügung stehenden Displays überhaupt anzeigen können. Durch diese einschränkenden technischen Eigenschaften waren Akteure wie Catmull sogar darauf angewiesen, sich die Bilder vorstellen zu können. Welche bildästhetischen Kriterien Catmull im Sinn hatte, lässt sich erkunden, indem nun seine spätere Arbeit in Zusammenhang mit Pixar in das Zentrum der Untersuchung gerückt wird. Es erfolgt im anschließenden Abschnitt daher eine bildästhetische und stilgeschichtliche Aufarbeitung der bei Pixar zum Einsatz kommenden Bildkriterien, da sich auf diese Weise die Erkenntnisse zur Produktion aller computergrafischen Bilder noch tiefgreifender nachvollziehen lassen. Welche wesentlichen Ergebnisse können also aus dem vorliegenden Abschnitt für den nun folgenden zusammentragen werden? Von Bedeutung ist vor allem die Tatsache, dass sich zu Beginn der an der University of Utah erfolgten Forschung ein gemeinsames Ziel entwickelt hat, dessen zentraler Bestandteil es war, eine ef fiziente Lösung für das Hidden-Line-Problem zu finden, um sich von der Wireframe-Darstellung virtueller Objekte langfristig zu lösen und sie als opake Bildelemente zeigen zu können, die auf Licht reagieren und Schattierungen aufweisen. Hintergrund dieses gemeinsamen Ziels war es, Bilder zu erzeugen, die intuitiv verstanden oder sogar gefühlt werden können – ein nüchterner, rein sachlicher Zugrif f auf das Thema der computergestützten Bildlichkeit lässt sich demnach in der Arbeit der Forscher nicht erkennen. Zur Verfeinerung dieses Ziels wurde nicht nur technisch daran geforscht, wie sich die Darstellung opaker Objekte verbessern ließ – etwa durch die Möglichkeit, auch geschwungene Oberf lächen, Texturen und Strukturen darzustellen –, sondern auch in psychophysiologischer Hinsicht ermittelt, wie die Qualität computergenerierter Bilder verbessert werden kann. Berücksichtigt wurden hier insbesondere Erkenntnisse, die ursprünglich für den Bereich der Reproduktionsmedien wie beispielsweise die Fotografie formuliert wurden. Vorbild bleibt wie schon zuvor am MIT die Maxime der Glaubwürdigkeit, also das Netzhautbild und die Vorstellung einer im menschlichen Auge entstehenden zentralperspektivischen Abbildung unserer Umgebung. Auch die Vergleiche zur Funktionsweise der Kameralinse haben an der University of Utah weiter Bestand. Im Vordergrund der letzten Abschnitte steht nun nicht mehr die Frage, wie die Computerbilder entstehen, sondern warum sie sich auf die im Rahmen dieser Studie beschriebene Weise entwickelt haben. Hierbei geht es nicht mehr um das Motiv Einzelner, sondern vielmehr um ein übergeordnetes Motiv, das alle gemeinsam verfolgen und das nicht zuletzt den gemeinsamen Sinnzusammenhang der Computergrafik im Wesentlichen prägt.
241
4
Realismus in der US-amerikanischen Bildkultur
4.1
Der Realismus Pixars – Edwin Catmull als Brücke zwischen Produktions- und Bildästhetik
He has ›something in mind.‹ ›It takes a long time for an idea to strike,‹ he said. ›Then I have to think about it for a long time. I don’t start painting until I have it all worked out in my mind. I’m all right when I get to the easel.‹ 1 – Edward Hopper im Gespräch mit Susanne Burrey (1955)
An welche Vorstellung von Bildlichkeit knüpften Catmull und seine vorangegangenen, aber auch zeitgenössischen Kollegen an, als sie ihre Technologien zur synthetischen Bilderzeugung auf die im Rahmen der vorliegenden Studie beschriebene Weise entwickelten? Um mögliche Antworten auf diese Frage zu erlangen, soll in diesem Kapitel die US-amerikanische Bildkultur hinzugezogen werden. Als Einstieg lohnt sich ein Blick auf die vorangestellte Aussage des US-amerikanischen Malers Edward Hopper. Der Bezug zu ihm wird im weiteren Verlauf dieses Abschnitts noch klarer, doch schon jetzt liefert die Art und Weise, wie er seinen künstlerischen Prozess beschreibt, einen ersten Hinweis auf mögliche Parallelen zwischen den computergrafischen Bestrebungen und der realistisch-figurativen Malerei in den USA: Ähnlich wie Catmull oder auch Gouraud für die Entwicklung ihrer Technologien vorab in ihrer Vorstellung ein Bild vor Augen hatten, bringt auch Hopper hier zum Ausdruck, er beginne mit seinem Gemälde erst dann, wenn er es im Geist fertig konzipiert habe. Obwohl an dieser Aussage allein noch nicht festgemacht werden kann, ob zwischen den Vorstellungen Hoppers und denen Catmulls eine gedankliche Verwandtschaft besteht, lässt sich dennoch unmittelbar eine Analogie zu den computertechnologischen Entwicklungen herausstellen, die sich als richtungsweisend für die nachfolgenden Ausführungen erweist: Auch Hopper verfolgt mit seinen Bildern eine figurativ-repräsentative Wiedergabe seiner 1 Suzanne Burrey: Edward Hopper: The Emptying Spaces. In: Arts Digest 29/13, 1955, S. 8–10 und S. 33, hier S. 8.
244
Scheler: Computergrafik
Umgebung und auch für ihn spielt der Ausdruck von Licht eine besondere Rolle, das auch für jeden Shading- und Renderalgorithmus von zentraler Bedeutung ist. Da diese Beobachtung allein jedoch wenig aufschlussreich ist, soll diesem ersten Indiz im Folgenden vertiefend nachgegangen werden. Um die computertechnologischen Bestrebungen kulturhistorisch einordnen zu können und ihren gemeinsamen Sinnzusammenhang begreif bar zu machen, ist ein Einblick in die Entwicklung der Bildkultur in den USA überaus erkenntnisreich. Der weitere Verlauf der vorliegenden Untersuchung folgt dabei der These, dass die Vorstellung, die Catmull, aber auch Akteure wie Coons von den Bildern hatten, die mit dem Computer erzeugt werden sollen, kulturhistorisch in einem Weltverständnis verankert ist, das sich in den USA entwickelt hat und das zudem eng mit einem technologiegetriebenen Fortschrittsgedanken verknüpft ist. Weshalb es sinnvoll sein kann, dieser Annahme nachzugehen, lässt sich zunächst auf rein bildästhetischer Ebene besonders beispielhaft anhand der Pixarfilme veranschaulichen. Sie gehen in wesentlichem Umfang auf Edwin Catmull zurück, und bevor sich im fünften Teil der vorliegenden Studie der Blick allgemein auf das hier betrachtete computergrafische Bilderzeugungsverfahren richtet, soll anhand der Pixarfilme nun hergeleitet werden, weshalb die folgenden Kapitel der vorliegenden Studie sich kunsthistorisch mit der US-amerikanischen Bildkultur befassen.2 Ziel ist es, aus den Erkenntnissen dieser Auseinandersetzung mit der US-amerikanischen Bildkultur im fünften Teil dieser Studie zu einer Synthese aller Abschnitte zu gelangen. Dafür werden die bildästhetischen Erkenntnisse in einen größeren kulturhistorischen Rahmen gestellt, in den sich nicht zuletzt auch die computertechnologischen Entwicklungen einordnen lassen. Die nachfolgende bildästhetische Fokussierung der Studie dient also dazu, übergeordnete produktionsästhetische Motive herauszuarbeiten, die sich auch unabhängig von einzelnen Akteuren in der amerikanischen Bildkultur nachweisen lassen und die auch in größerem Umfang die Entwicklung der 3D-Computergrafik prägen. Warum eignen sich also die Pixarfilme zu dieser Herleitung? Um diese Frage zu beantworten, ist es notwendig, den Blick ganz allgemein auf die heute produzierten kommerziellen Computeranimationsfilme zu richten, denn auffällig ist, dass sie alle – selbst, wenn sie aus den unterschiedlichsten Herkunftsländern stammen – eine sehr einheitliche Bildsprache aufweisen. Der Ursprung dieser Bilderordnung lässt sich allerdings zunächst bei dem Animationsstudio Pixar ausmachen, denn das Unternehmen brachte im Jahr 1995 mit Toy Story3 erstmals einen computergenerierten Animationsfilm in Spielfilmlänge heraus.4 Den Pixarfilmen lässt sich demzufolge eine ähnliche Vorbildrolle zuschreiben, wie der Animationstheoretiker Paul Wells sie den Disney-Studios zurechnet: In seiner Studie Animation and America geht er davon aus,
2 Die folgenden Ausführungen basieren auf meinem 2021 erschienenen Aufsatz Der bildsprachliche Kosmos im computeranimierten Kinofilm, erweitern aber die dort formulierten Thesen. Vgl. Carolin Scheler: Der bildsprachliche Kosmos im computeranimierten Kinofilm. In: Piktogrammatik. Grafi sches Gestalten als Weltwissen und Bilderordnung. Hrsg. v. Annette Geiger und Bianca Holtschke. Bielefeld: transcript, 2021, S. 136–161. 3
Toy Story (USA 1995, R: John Lasseter).
4 Vgl. Scheler (2021): S. 137/139.
Realismus in der US-amerikanischen Bildkultur
dass Disney mit dem ersten Langfilm Snow White and the Seven Dwarfs5 eine Art Standard für die Zeichentrickfilmindustrie gesetzt habe.6 Auch die Pixarfilme berücksichtigt Wells im Rahmen seiner Untersuchung, nimmt aber in seinen animationstheoretischen Positionen nicht vorrangig Catmull, sondern stattdessen John Lasseter in den Blick, den Catmull als ersten Animator bei Pixar einstellte und der anschließend in der weiteren Unternehmensgeschichte neben Catmull ebenfalls eine zentrale Rolle einnahm.7 Die im vorliegenden Kapitel erfolgende bildkulturelle Auseinandersetzung mit der Computergrafik bei Pixar soll nicht zuletzt auch dazu dienen, Catmull und damit auch die im Rahmen dieser Studie nachgezeichneten geschichtlichen Ereignisse und vorgestellten Akteure in den Fokus zu rücken. Vor dem Hintergrund der bisherigen Erkenntnisse aus der vorliegenden Studie wird deutlich, dass Lasseter für die Bildästhetik der Pixarfilme höchstens zweitrangig eine Rolle spielt. Historisch lässt sich zudem auch anhand der Entstehungsgeschichte des Unternehmens Pixar herleiten, dass die Bildästhetik der Pixarfilme bereits eine spezifische Richtung eingenommen hatte, bevor John Lasseter zu dem jungen Unternehmen dazustieß. Catmull, der nach seinem Abschluss an der University of Utah zunächst im Jahr 1974 an das New York Institute of Technology (NYIT) und darauffolgend im Jahr 1979 zu George Lucas’ Produktionsfirma Lucasfilm wechselte,8 schildert in seiner 2014 erschienenen Monografie Creativity, Inc., in der er die Unternehmensgeschichte Pixars sowie dort verfolgte Arbeitsansätze und Kreativitätstechniken erläutert, seine erste Begegnung mit Lasseter im Jahr 1983. Sie ereignete sich ebenfalls bei Lucasfilm, noch bevor Pixar als eigenständige Produktionsfirma existierte. Catmull war dort Leiter der Computerabteilung, die George Lucas eingerichtet hatte, um zu erforschen, auf welche Weise 5
Snow White and the Seven Dwarfs (USA 1937, R: William Cottrell, David Hand, Wilfred Jackson).
6 Vgl. Paul Wells: Animation and America. Edinburgh: Edinburgh University Press, 2002, S. 48–49. 7 Vgl. Catmull; Wallace (2014): S. 32–37. 8 Catmull entwickelte früh ein Interesse daran, die computergrafischen Möglichkeiten für die Er zeugung von Filmen nutzbar zu machen. Mit diesem Ziel verfolgte er, wie er selbst darstellt, ein Anliegen, das wenige andere Akteure zu ihren eigenen Ideen antrieb. Sein Fokus auf diese An wendungsmöglichkeit von Computergrafiken erregte jedoch im Jahr 1974 die Aufmerksamkeit des Entrepreneurs Alex Schure, der am NYIT ein Forschungszentrum aufbaute, um erstmals einen computergrafischen Spielfilm zu erzeugen. Catmull wechselte schließlich zum NYIT, betont jedoch selbst, das Anliegen Schures sei zum damaligen Zeitpunkt kein realistisches Ziel gewesen. Dennoch bekam er an seinem neuen Arbeitsplatz die finanzielle und kreative Freiheit, auch seiner eigenen Vision entgegenzustreben. Wissend, dass sich ein computeranimierter Spielfilm dort letztendlich nicht umsetzen ließe, da niemand an dem Prozess beteiligt war, der tatsächlich zur Filmindustrie gehörte, begann Catmull, sich anderweitig zu orientieren. Er machte dabei die Beobachtung, dass bisher in der Spielfilmindustrie kaum Interesse an den neuen computergrafischen Methoden be stand, doch traf er mit George Lucas schließlich auf einen Vertreter der Branche, der den neuen technischen Verfahren aufgeschlossener begegnete. Catmull wechselte daraufhin gemeinsam mit seinem Kollegen Alvy Ray Smith zu Lucasfilm, wo sie ihren Pixar Image Computer (vgl. Kapitel 3.2.1.3 Textur und Struktur – Die Ziele nach dem Ziel in der vorliegenden Studie, S. 237, insbes. Fn. 142) entwickelten und als Hardware vermarkteten. Letztendlich wurden von den einzelnen an der Film produktion Beteiligten die von Catmull und seinem Team entwickelten computergestützten Me thoden beispielsweise für den Filmschnitt nicht angenommen. Die Finanzierung der Abteilung war deshalb sogar auf die Vermarktung des Computers angewiesen. Aus finanziellen Gründen verlie ßen Catmull und Smith deshalb Lucasfilm und gründeten 1986 mit Unterstützung von Steve Jobs das Animationsstudio Pixar. Vgl. Catmull; Wallace (2014): S. 13, S. 16–31 und S. 37–44.
245
246
Scheler: Computergrafik
Computertechnologie in der Spielfilmindustrie zum Einsatz kommen kann. Obwohl die Entwicklungen von Catmull und seinem Team von den Gewerken der Spielfilmproduktion nicht gut angenommen wurden, wurde die Abteilung regelmäßig von externen Filmemachern besucht, um die neue Technologie kennenzulernen und gegebenenfalls für eigene Produktionen zu nutzen. Mit einem dieser Besuche kam John Lasseter, damals Animator bei Disney, in einer Gruppe mit anderen Disney-Mitarbeitern zu Besuch. Catmull präsentierte der Gruppe den »one-frame movie«9 Road To Point Reyes, der in seiner Abteilung kurz zuvor von Kollegen erarbeitet worden war, darunter auch Alvy Ray Smith, mit dem Catmull einige Jahre später das Unternehmen Pixar gründete. Das Bild zeigt unter strahlend blauem Himmel und einem doppelten Regenbogen den Verlauf einer Straße entlang einer Küste. Die Straße macht im Mittelgrund des Bildes eine Linkskurve, während sich im Hintergrund eine Meerlandschaft erstreckt, die mit grün bewachsenen Bergen durchsetzt ist (Abb. 72). Lasseters Reaktion auf die Präsentation beschreibt Catmull folgendermaßen: »When I showed everyone a computer-animated image that we were so proud of we’d given it a name – ›The Road to Point Reyes‹ – he just stood there, transfixed. I told him we’d developed the image of a gently curving road overlooking the Pacific Ocean using a software program we’d developed called Reyes (for Renders Everything You Ever Saw), and the pun was intended: Point Reyes, California, is a seaside village on Route 1, not far from Lucasfilm. Reyes represented the cutting edge of computer graphics at the time. And it bowled this John guy over.« 10 Obwohl Catmull nicht selbst aktiv an der Erzeugung dieses speziellen Bildes beteiligt war, lässt sich im Hinblick auf diese frühe computergrafische Arbeit herleiten, dass nicht Lasseter, sondern Catmull und seine Kollegen bei Lucasfilm bildästhetische Akzente setzten, bevor Lasseter zu Catmull und Smith dazustieß. Durch die in der Animationstheorie häufig zu beobachtende Fokussierung auf Lasseter, so wie es etwa bei Wells geschieht, werden die Pixarfilme oft im Zusammenhang mit den Disneyfilmen ergründet. Obwohl die beiden Unternehmen geschichtlich eng miteinander verzahnt sind, ermöglicht die Neufokussierung auf die computertechnologische Herkunft der Pixarfilme, sie aus dem Disney-Kontext herauszulösen und unabhängig von dem traditionsreichen Animationsstudio zu untersuchen.11 Die Frage, die nun also im Vordergrund steht, lautet: Welcher Bilderordnung folgen die Pixarfilme und – darauf fußend – heute auch viele andere kommerzielle Computeranimationsfilme? Die Frage stellt sich vor allem vor dem Hintergrund der Beobachtung, die zu Beginn der vorliegenden Studie formuliert wurde, nämlich, dass sich mit der 3D-Software unendlich viele unterschiedliche Erscheinungsbilder umsetzen lassen. Ebenfalls auffällig 9 Alvy R. Smith: pt reyes. Ohne Datum. URL: http://alvyray.com/Art/PtReyes.htm. Zugriff am: 16.12.2021. Der Informatiker Alvy Ray Smith wählt für das Bild auf seiner Webseite diese Bezeichnung. Er schil dert dort, dass das Standbild eine Teamleistung war. Die an der Produktion beteiligten Kollegen waren laut seinen eigenen Ausführungen neben ihm selbst Loren Carpenter, Rob Cook, Tom Porter, Bill Reeves und David Salesin. Catmull, damals der Vorsitzende der hier aufgelisteten Gruppe, er wähnt Alvy Ray Smith zumindest auf dieser Projektseite seines Webauftritts nicht. 10 Catmull; Wallace (2014): S. 33. 11 Vgl. Scheler (2021): S. 141.
Realismus in der US-amerikanischen Bildkultur
Abb. 72: Loren Carpenter, Rob Cook, Tom Porter, Bill Reeves, David Salesin und Alvy Ray Smith, Road To Point Reyes, 1983, Computer-Rendering.
ist, dass die 3D-animierten Filme von Disney gegenüber denen von Pixar häufig eine sehr uneinheitliche Bildästhetik aufweisen, wenngleich etwa mit Zootopia12 auch Disney-Produktionen existieren, die sich an die Bilderordnung der Pixarfilme halten.13 Welche bildästhetischen Kriterien lassen sich also beispielhaft anführen, um diese Bilderordnung zu beschreiben? Ähnlich wie es für die Arbeit Road To Point Reyes gelten kann, scheint auch in den Pixarfilmen häufig bei strahlend blauem Himmel die Sonne. Meistens steht sie wie die Nachmittagssonne dabei eher tief, sodass die sonnendurchf luteten künstlichen Welten von langen Schlagschatten durchsetzt sind. Die nachmittägliche Stimmung manifestiert sich oft in warmen bläulich-gelben Farbtönen.14 Aufgrund der Tatsache, dass die Technologie so viele unterschiedliche Erscheinungsbilder ermöglichen könnte, lässt sich in Bezug auf die Bildästhetik der Pixarfilme also schlussfolgern, dass sie mit ihrem ersten Film Toy Story der damals neuen computergrafischen Technologie erstmals eine eigenständige Bildästhetik ›zugewiesen‹ haben. Im Gegensatz zu den fotorealistischen Grafiken, in denen die Technologie sich vollkommen zurücknimmt und als Bildgebungsverfahren nicht zu erkennen ist, wurde durch Pixar und die populärkulturelle Verbreitung der Filme das damals neue bildgebende Verfahren zum ersten Mal überhaupt mit einer eigenen Ästhetik kenntlich gemacht.15
12 Zootopia (USA 2016, R: Byron Howard, Rich Moore, Jared Bush). 13 Neben Zootopia lassen sich etwa die Disney-Produktionen Dinosaur (USA 2000, R: Ralph Zondag, Eric Leighton) und Tangled (USA 2010, R: Nathan Greno, Byron Howard) nennen, die beide jeweils auf unterschiedliche Weise noch weitere bildästhetische Möglichkeitsräume der 3D-Technologie ausloten. Vgl. Scheler (2021): S. 141–142. 14 Vgl. Scheler (2021): S. 137/139. Die Farbstimmungen der Pixarfilme werden in der Vorproduktion der Filme aufwändig entlang der Storyline geplant. Für jeden Animationsfilm wird deshalb vorab ein sogenanntes ›Color script‹ entworfen, das die Farbgebung der einzelnen Szenen, aus denen sich der Film später zusammensetzt, kennzeichnet. Entsprechend der Dramaturgie eines jeden Films kann sich deshalb seine farbliche ›Grundstimmung‹ in einzelnen Szenen verändern. Das Color script für den Pixarfilm Inside Out weist beispielsweise überwiegend eine bläulich-violette Farbgebung auf, in der zugleich jedoch deutliche gelbe Akzente gesetzt werden. Vgl. Pete Docter; Amy Poehler: The Art of Inside Out. San Francisco: Chronicle Books, 2015, S. 170–171. 15 Vgl. Scheler (2021): S. 141.
247
248
Scheler: Computergrafik
Bevor in den nachfolgenden Schritten die Pixarfilme in den Kontext der US-amerikanischen Malerei gestellt werden, lässt sich zunächst anmerken, dass die Produktionen ihre eigene Bildästhetik häufig selbstref lexiv thematisieren. Exemplarisch lässt sich hier der Film Inside Out16 nennen. So verhandeln in einer Szene des Films beispielsweise einige der Charaktere explizit, dass eine abstrakte Bildsprache gefährlich und fremd ist, während eine figurative Bildsprache Sicherheit und Vertrautheit bedeutet.17 Wells erkennt durch diese Form der Selbstref lexivität in den Pixarfilmen eine Tradition, die eigentlich für die Anfänge der Animation steht, in der das Genre noch einen avantgardistischen und subversiven Charakter hatte – etwas, das laut Wells spätestens mit dem ersten Zeichentrick-Spielfilm Disneys verloren gegangen sei.18 Dieser avantgardistische Wesenszug der Animation liege etwa darin, dass Dinge zum Leben erweckt werden, die sich üblicherweise nicht eigenständig bewegen können. Gerade in den frühen Animationen Winsor McCays, eines Pioniers des Zeichentrickfilms, lasse sich zudem ein metaref lexiver Zugriff auf die Sprache der Animation ausmachen, da McCay den Moment, in dem er eine Figur zum Leben erweckt, häufig offenbart und als Teil der Geschichte begreift.19 Solche selbstref lexiven Momente entdeckt Wells auch in der Thematik der Toy Story-Filme wieder, denn zentraler Bestandteil der Handlung ist es hier, dass die Charaktere sich permanent damit auseinandersetzen müssen, ob sie ›nur‹ Spielzeugfiguren sind oder ob sie ein eigenständiges ›echtes‹ Leben führen. Interessant ist, dass Wells ausgerechnet die Technologie als treibende Kraft hinter diesem selbstref lexiven Animationsansatz betrachtet.20 Laut dem Animationstheoretiker begünstige sie die Rückkehr der Pixarfilme zu den Anfängen der Animation. Indem die Toy Story-Filme einen selbstref lexiven Ansatz verfolgen, können sie dem Determinismus der Technik entgegentreten und die Ästhetik der 3D-Technologie für sich fruchtbar machen.21 Die Beobachtung, dass die Filme häufig ihr eigenes Erscheinungsbild selbstref lexiv thematisieren, liegt jedoch klar im Widerspruch zu Wells’ Argumentation, denn in den metaref lexiven Filmszenen zeigen die Produzenten stets, dass sie eigentlich auch eine andere Bildästhetik verfolgen könnten. Dies deckt sich mit der zu Beginn der vorliegenden Studie präsentierten Vielfalt an Erscheinungsbildern der Computergrafiken. Die Bildästhetik der Pixarfilme ist also nicht der Technologie geschuldet, sondern einer bewussten und eigenständigen kreativen Entscheidung.22 Gleichwohl ist Wells’ grundsätzliche Beobachtung zur einheitlichen Bildästhetik der Filme anzuerkennen: Sie entspringt jedoch nach den obigen Schlussfolgerungen nicht unmittelbar der Technologie, sondern einem ihr zugrunde liegenden gemeinsamen kulturellen Hintergrund. Dem Grundgedanken dieser Studie folgend ist die Bildästhetik der Pixarfilme also auf einzelne Personen zurückzuführen, die die Technologie vor diesem kulturellen Hintergrund gestaltet haben.
16 Inside Out (USA 2015, R: Pete Docter). 17 Vgl. Scheler (2021): S. 149–151. 18 Vgl. Wells (2002): S. 23, S. 48–49 und S. 154. Vgl. zudem Paul Wells: Understanding Animation. Lon don: Routledge, 1998, S. 24–26. 19 Vgl. Wells (2002): S. 29–33. 20 Vgl. ebd., S. 160. 21 Vgl. ebd., S. 169. 22 Vgl. Scheler (2021): S. 148–149.
Realismus in der US-amerikanischen Bildkultur
Abb. 73: Lee Unkrich (Regie); Pixar Animation Studios, Standbild aus Toy Story 3, 2010, 3D-Computergrafik.
Abb. 74: Edward Hopper, Sun on Prospect Street (Gloucester, Massachusetts), 1934, Öl auf Leinwand, 71,1 x 92,1 cm.
Wells bezieht sich stets auf Lasseter, doch wenngleich dieser als Regisseur maßgeblich an dem Gestaltungsprozess des Looks für die Toy Story-Filme beteiligt war, lässt sich nun vor dem Hintergrund der bisherigen Erkenntnisse der vorliegenden Studie feststellen, dass Lasseter und Catmull mit ihrem ersten computeranimierten Spielfilm eine bildästhetische Ausformung jener produktionsästhetischen Prinzipien gestalteten, die auch die Softwareentwicklung angetrieben hatten. Damit lässt sich also Wells’ Auffassung, die Software habe eine Bildästhetik vorgegeben, in gewisser Weise bestätigen, allerdings wird in diesem größeren Kontext deutlich, dass die Bildästhetik nicht grundsätzlich durch die Technologie determiniert war, sondern aktiv vor dem Hintergrund spezifischer bildlicher Vorstellungen antizipiert wurde. Es soll nun hergeleitet werden, um welche bildlichen Vorstellungen es sich hierbei handeln könnte. Ein erstes Indiz wurde eingangs bereits mit Edward Hopper genannt. Die bildästhetischen Übereinstimmungen zwischen den Pixarfilmen und Hoppers Gemälden sind hierbei womöglich sogar wenig überraschend und sie sollen hier auch nur angedeutet werden, da Hopper in den folgenden Kapiteln eingehender thematisiert wird (Abb. 73 & 74). Um die Richtung für die weitere Auseinandersetzung mit der US-amerikanischen Bildkultur vorzugeben, soll nun in einer kurzen Gegenüberstellung stattdessen die US-amerikanische Landschaftsmalerei des 19. Jahrhunderts in den Vordergrund gerückt werden.23 23 Vgl. ebd., S. 151–157.
249
250
Scheler: Computergrafik
Abb. 75: Thomas Cole, View from Mount Holyoke, Northampton, Massachusetts, af ter a Thunderstorm – The Oxbow, 1836, Öl auf Leinwand, 130,8 x 193 cm.
Abb. 76: Peter Sohn (Regie); Pixar Animation Studios, Standbild aus The Good Dinosaur, 2015, 3D-Computergrafik.
Ein Bilderpaar, mit dem sich Bezüge zwischen den Pixarfilmen und der Landschaftsmalerei beispielhaft herausstellen lassen, umfasst ein Standbild aus dem Pixarfilm The Good Dinosaur 24 auf der einen und das Gemälde The Oxbow, gefertigt im Jahr 1836 von dem US-amerikanischen Maler Thomas Cole, auf der anderen Seite (Abb. 75 & 76). Beide Bilder zeigen jeweils aus einem erhöhten Blickwinkel einen Fluss, der sich in einem grün bewaldeten Tal diagonal in die Tiefe des Bildraums erstreckt. Doch nicht nur auf bildästhetische Weise lassen sich die beiden Bilder miteinander in Beziehung setzen, auch erste produktionsästhetische Parallelen lassen sich mit dem Bilderpaar herausstellen, sobald einzelne Produktionsdetails aufgedeckt werden: Sowohl für den Maler Cole als auch für die allgemeine Herangehensweise Pixars gilt, dass der Komposition eines Bildes intensive Recherchephasen vorausgehen, die anschließend dazu führen sollen, ein Bild zwar auf neue Weise zu gestalten, sich dabei jedoch streng an vorgefundene Elemente zu halten.25 Nicht nur Catmull spricht über diese Herangehensweise,26 auch Lasseter äußert sich in ähnlicher Weise. In einem Vergleich zweier Aussagen jeweils von Thomas Cole und John Lasseter zur allgemeinen Herangehensweise bei der Bilderzeugung wird die gedankliche Verwandtschaft besonders deutlich. Cole beschreibt sein Vorgehen in der Bildgestaltung folgendermaßen: »If the imagination is shackled and nothing is described but what we see, seldom will any thing truly great be produced, either in painting or in poetry. […] But a departure from nature is not a necessary consequence in the painting of compositions: on the 24 The Good Dinosaur (USA 2015, R: Peter Sohn). 25 Vgl. Scheler (2021): S. 153. 26 Vgl. Catmull; Wallace (2014): S. 198.
Realismus in der US-amerikanischen Bildkultur
contrary the most lovely and perfect parts of nature may be brought together and combined in a whole that shall surpass in beauty and ef fect any pictures painted from a single view.« 27 Lasseters Position wird beispielsweise in der Pixar-eigenen Publikation To Infinity and Beyond deutlich: »Lasseter calls computer animation ›the mystical science‹: give the computer the right set of instructions to carry out, and you can create the impossible in a world with a physicality and seamlessness no other medium can.«28 In beiden Aussagen kommt zum Ausdruck, dass sowohl Cole als auch Lasseter für die Bilderzeugung den Anspruch formulieren, physikalische Gegebenheiten mit imaginierten Szenerien zu verschmelzen oder, umgekehrt formuliert, imaginierte Szenerien mit einer großen physikalischen Präzision darzustellen. Sowohl Cole als auch Lasseter bringen also jeweils zum Ausdruck, dass sie ihre Bilder als idealisierte Versionen einer vorgefundenen Realität gestalten, ohne dabei jedoch die physikalischen Gesetze der Umgebung außer Acht zu lassen.29 Wie die Kunsthistorikerin Barbara Novak darstellt, stand Cole für diese Herangehensweise sogar unter Kritik, da er sich in seiner Malerei zu stark von der durch Gott erschaffenen Natur löste.30 Der kunstgeschichtliche Hintergrund, auf den Novak hier rekurriert, wird in den folgenden Kapiteln erneut relevant und noch umfangreicher thematisiert.31 Um das Bildmotiv des Flusses der beiden herangezogenen Bilder zu berücksichtigen, lässt sich auch in einem etwas größeren Kontext darlegen, unter welchen kulturellen Umständen Cole seine Position entwickelt hat, denn wie der Kunsthistoriker John Wilmerding darstellt, hatten Wasserstraßen damals eine besondere Bedeutung für die junge Nation. Sie ermöglichten den Zugang in die unwegsame Natur und nahmen somit auch eine identitätsstiftende Rolle ein. Flüsse ermöglichten die Erweiterung des Territoriums und damit einhergehend ein neues nationales Selbstbewusstsein.32 Die Thematik der Selbstfindung vollzieht sich in dem Protagonisten des Films The Good Dinosaur erneut, weshalb es schlüssig erscheint, dass der Film mit dem Fluss ein wichtiges Motiv der amerikanischen Landschaftsmalerei aufgreift. Wilmerding zufolge habe sich aus dieser historischen Entwicklung mit der Hudson River School, der 27 Thomas Cole: Thomas Cole Papers. Letters of Robert Gilmor to and from Thomas Cole – 1826–1837. Brief an Robert Gilmor vom 25. Dezember 1827., New York, NY: New York State Library Digital Col lections, S. 72–78, hier S. 74–75. URL: https://nysl.ptfs.com/data/Library5/All%20Special%20Col lections/Manuscripts/Thomas%20Cole%20Papers/Correspondence%2C%201820-1855/Cole%20 and%20Gilmor%2C%201826-1837/pdf/SC10635-B3-F8-complete.pdf. Zugriff am: 18.03.2022. 28 Karen Paik; Leslie Iwerks: To Infinity and Beyond! The Story of Pixar Animation Studios. San Fran cisco, CA: Chronicle, 2007, S. 8. 29 Vgl. Scheler (2021): S. 154. 30 Vgl. Barbara Novak: American Painting of the Nineteenth Century. Realism, Idealism, and the Ame rican Experience. 3. Auflage. Oxford u. a.: Oxford University Press USA, 2007, S. 43. Der bei Cole zum Ausdruck kommende Widerspruch zwischen der Wertschätzung der Natur auf der einen und der ›Verbesserung‹ der Natur in der Malerei auf der anderen Seite wird in Kapitel 5.2 Zum kulturhistorischen Hintergrund synthetischer Bilder erneut thematisiert. 31 Vgl. Kapitel 4.2.1.2 Realismus als ästhetische Kategorie, S. 278, und vgl. Kapitel 5.1.2 Pixar und der Sinnzusammenhang der 3D-Computergrafik als visuelles Phänomen, S. 308, in der vorliegenden Studie. 32 Vgl. John Wilmerding: American Views. Essays on American Art. Princeton, NJ: Princeton University Press, 1991, S. 49 und S. 51.
251
252
Scheler: Computergrafik
Cole angehörte, die erste umfassende Bewegung der Landschaftsmalerei entwickelt und – wie auch Pixar in dem Film The Good Dinosaur – haben die Akteure in der Gruppe den Fluss als »key component of their pictorial repertoire«33 aufgenommen.34 Mit dem Luminismus, also einer weiteren Strömung der amerikanischen Landschaftsmalerei aus dem 19. Jahrhundert, lässt sich ein zusätzlicher Beleg anführen, mit dem die Bezüge zwischen den malerischen und computertechnologischen Ansätzen zur Bilderzeugung bei Pixar aufgezeigt werden können. Ähnlich wie bei den Vertretern der Hudson River School nahmen die luministischen Maler häufig eine erhöhte Perspektive ein.35 Unter erneuter Bezugnahme auf Wilmerding lässt sich dieses produktionsästhetische Detail in Zusammenhang mit transzendentalistischen Tendenzen in der Mitte des 19. Jahrhunderts bringen. Wie der Name der Strömung andeutet, spielt für den Luminismus bei der Bildgestaltung das Licht eine zentrale Rolle. Wilmerding beschreibt die Verbindung zwischen dem Transzendentalismus und der luministischen Malerei anhand von einem ihrer Vertreter Fitz Henry Lane, dem Begründer des Transzendentalismus Ralph Waldo Emerson und dessen Freund Henry David Thoreau: »As with Lane and Emerson, we feel with Thoreau too the desire for full immersion in nature. Thoreau seeks to take nature’s pulse as much as his own. He records his de light in the sensations of touch, as with water on the skin; of hearing, as with birds on a telegraph wire; or of sight, as in the autumnal tints on a red maple. The total union of artist and subject is a central aspect of pure luminism; with Lane’s Brace’s Rock still in mind, we can see the same aspiration of the transcendentalists to achieve both the spaciousness of the horizon and the immediacy of observed phenomena. […] Distance, therefore, both measured and mental, is a significant element in the imagery of nature at this time. On one walk Thoreau urged climbing a tree to elevate our vantage point and gain the broader, deeper view. It is noteworthy that quite frequently the luminist ainter sought out vistas from unusually high points of view.« 36 p In seiner Monografie Fitz Hugh Lane, in der sich Wilmerding dezidiert und umfassend mit der Malerei Lanes auseinandersetzt, verweist er darauf, dass Lane sich mindestens einmal auf die Spitze eines Segelbootmastes hat hochziehen lassen, um von dort aus für eine seiner Kompositionen eine bestimmte Perspektive einnehmen zu können.37 Die Erkenntnisse über die Verbindung zwischen luministischer Malerei und den damals überaus verbreiteten transzendentalistischen Tendenzen lassen sich auf rein bildästhetischer Ebene auf verschiedene Standbilder vollkommen unterschiedlicher computeranimierter Produktionen beziehen. Während Lanes Bildästhetik etwa in WALL-E38 aufgegriffen wird, lässt sich die Malerei Frederic Edwin Churchs, dessen Umgang mit Licht noch wesentlich intensiver ausfällt, nicht nur ebenfalls in WALL-E,
33 Ebd., S. 51. 34 Vgl. Scheler (2021): S. 155. 35 Vgl. ebd., S. 156 36 Wilmerding (1991): S. 72. Herv. i. O. 37 Vgl. John Wilmerding: Fitz Hugh Lane. New York, NY, London: Praeger, 1971, S. 50. 38 WALL-E (USA 2008, R: Andrew Stanton).
Realismus in der US-amerikanischen Bildkultur
Abb. 77: Fitz Henry Lane, Owl’s Head, Penobscot Bay, Maine, 1862, Öl auf Leinwand, 40 x 66,36 cm.
Abb. 78: Andrew Stanton (Regie); Pixar Animation Studios, Standbild aus WALL-E, 2008, 3D-Computergrafik.
sondern auch zum Beispiel in dem europäischen Animationsfilm Überf lieger – Kleine Vögel, Großes Geklapper 39 wiederfinden (Abb. 77–81). Mit Novak lässt sich herleiten, warum einzelne bildästhetische Merkmale der US-amerikanischen Landschaftsmalerei aus dem 19. Jahrhundert in den Filmen noch immer überdauern: »A concomitant mode, practiced by many Hudson River men, as well as by such lumi nists as Lane and Heade, was quietistic, precise and conceptual. […] It is remarkable how these attitudes persist in the twentieth century, though disguised under new styles and associated with different ambitions and intentions.« 40 Novak bezieht sich mit dieser Aussage noch nicht auf die synthetischen Computerbilder, vielmehr erkennt sie die von ihr beschriebenen Merkmale beispielsweise vereinzelt bei Vertretern des Abstrakten Expressionismus. Und dennoch ließe sich Novaks Hinweis, dass die konzeptuelle und präzise Vorgehensweise der Luministen oder der Hudson River School bis in das 20. Jahrhundert überdauere, auch auf die Computeranimationsfilme beziehen.41 Wie können nun die Erkenntnisse zu den malerischen Bezügen bei Pixar mit den vorangegangenen technikhistorischen Ausarbeitungen zusammengeführt und für das übergeordnete Anliegen dieser Studie fruchtbar gemacht werden? Für das Ziel, einen gemeinsamen Sinnzusammenhang aller Computergrafiken herauszuarbeiten, ist diese hier erfolgte Einführung zur Auseinandersetzung mit der US-amerikanischen 39 Überflieger – Kleine Vögel, Großes Geklapper (Belgien/Deutschland/Luxemburg/Norwegen 2017, R: Toby Genkel, Reza Memari). 40 Novak (2007): S. 233. 41 Vgl. Scheler (2021): S. 156–157.
253
254
Scheler: Computergrafik
Abb. 79: Frederic Edwin Church, Grand Manan Island, Bay of Fundy, 1852, Öl auf Leinwand, 55,4 x 81,1 cm.
Abb. 80: Toby Genkel; Reza Memari (Regie); Standbild aus Überflieger – Kleine Vögel, Großes Geklapper, 2017, 3D-Computergrafik.
Abb. 81: Andrew Stanton (Regie); Pixar Animation Studios, Standbild aus WALL-E, 2008, 3D-Computergrafik.
Bildkultur allenfalls ein Auftakt. Zwar lassen die Hinweise zum Weltbild der Luministen erste Deutungsversuche zu, um zu erklären, warum die Software auf eine bestimmte Weise entwickelt wurde, allerdings lässt sich diese Entwicklung wesentlich tiefgreifender nachvollziehen und belegen, wenn die Bildkultur der USA noch einmal systematisch in den Blick genommen wird. Im Fokus stehen hier realistische malerische Tendenzen, weshalb im Folgenden eine Auseinandersetzung mit dem Begriffspaar ›Amerikanischer Realismus‹ vorgenommen wird. Ausgehend davon ist es zudem möglich, auch allgemein die Rolle der Technologie für die kulturelle Entwicklung der USA mit den computergrafischen Entwicklungen in Bezug zu setzen. Die historische Aufarbeitung, die in der ersten Hälfte der vorliegenden Studie erfolgt ist, ermöglicht es, sich am Ende der Studie wieder von der rein bildästhetischen Ebene zu lösen und zu erklären, wie ein spezifisches Welt- und Bildverständnis auch heute noch die Produktion der Computerbilder prägen kann, auch wenn dabei nicht die Bildästhetik der Pixarfilme angestrebt wird.
Realismus in der US-amerikanischen Bildkultur
4.2
Die Greifbarkeit der Dinge – Gefühl und Präzision in der Malerei
No other style of painting appeals so naturally to the great majority of people, and in this sense it is a truly democratic style, offering no barrier of technique between the artist and the untrained eye. Now, after periods of impressionist, abstract and expressionist art, it is once again of interest to the culti vated taste, as it has always been to the general public.42 – Dorothy C. Miller (1943)
Das vorliegende Kapitel dient dazu, ästhetische Kategorien herauszuarbeiten, die die Bildkultur in den USA in besonderer Weise prägen. Ausgangspunkt für dieses Anliegen bildet zunächst einmal die Begriffsgruppierung ›Amerikanischer Realismus‹, womit in den USA ein kulturelles Phänomen bezeichnet wird, das vornehmlich in der dortigen Literatur und bildenden Kunst sichtbar wird. Der Hauptfokus liegt hier auf der bildnerischen Ausprägung dieses Phänomens. Das vorliegende Kapitel geht von der Annahme aus, dass sich durch die Zusammensetzung des Adjektivs ›amerikanisch‹ und des Sub stantivs ›Realismus‹ eine ganz eigene Bedeutung ergibt. Es soll in den nachfolgenden Ausführungen deshalb nicht nur ergründet werden, welche Motivation hinter dem Begriff des ›Realismus‹ steht und was das ›Amerikanische‹ kennzeichnen könnte, sondern auch, wie sich die bewusste Paarung dieser beiden Komponenten beschreiben ließe, um die Erkenntnisse, die sich daraus ziehen lassen, für das übergeordnete Anliegen dieser Studie, den Sinnzusammenhang der 3D-Bilder nachzuvollziehen, fruchtbar zu machen. Im nächsten Kapitel wird die Verwendungsvielfalt der Bezeichnung ›Amerikanischer Realismus‹ hergeleitet, bevor sich die zwei darauf folgenden Unterkapitel gezielt möglichen Bedeutungsfacetten der Begriffspaarung zuwenden. Das erste schildert sowohl die historische Entwicklung realistischer Tendenzen innerhalb der USA als auch Zusammenhänge mit der europäischen Realismusdebatte. Wenngleich die historische Ebene das Verständnis für die Entwicklung der realistischen Strömungen schärft, neigt dieser Blickwinkel zu einer starren Kategorisierung. Das vorliegende Kapitel hat zwar den Anspruch, die geschichtliche und damit auch gesellschaftliche Relevanz dieser Strömungen nachzuvollziehen, sucht aber letztlich innerhalb der amerikanischen Bildkultur nach übergreifenden, den historischen Kontext überdauernden Themen und Motiven, die sowohl damals als auch heute eine ›amerikanische Weltanschauung‹ zum Ausdruck bringen. Um sich wieder aus der historischen Starrheit zu lösen, betrachtet das zweite Unterkapitel den Realismus daher als ästhetische Kategorie. Dieser Blickwinkel ermöglicht es, die Ergründung des ›Amerikanischen‹ ins Zentrum zu rücken. Im Laufe dieses letzten Unterkapitels und unter Berücksichtigung der Frage danach, 42 Dorothy C. Miller: Foreword and Acknowledgement. In: American Realists and Magic Realists. Aus stellungskatalog. Hrsg. v. Dorothy C. Miller und Alfred H. Barr Jr. New York, NY: The Museum of Modern Art, 1943, S. 5–6, hier S. 6.
255
256
Scheler: Computergrafik
welche Bedeutung sich durch die Paarung der Begriffe ›amerikanisch‹ und ›Realismus‹ entwickelt, werden schließlich vorrangig unter Bezugnahme auf die Kunsthistorikerin Barbara Novak bild- und produktionsästhetische Merkmale herauskristallisiert, die historische Zeitebenen überdauern und auch übergreifend, also unabhängig von einem zeitlichen Kontext in den amerikanischen Ausprägungen gegenständlicher Kunst sichtbar werden. Diese Kategorien sollen abschließend im letzten Schritt der vorliegenden Studie mit den zuvor geschilderten historischen Zusammenhängen computergrafischer Entwicklungen zusammengeführt werden.
4.2.1 Zur Kategorisierung des ›Amerikanischen Realismus‹ In der kunstgeschichtlichen Literatur existiert keine eindeutige Definition des ›Amerikanischen Realismus‹. Unabhängig von der US-amerikanischen Ausprägung der Strömung ist mit dem Adjektiv ›realistisch‹ hier zunächst eine gegenständliche Darstellungsweise gemeint.43 Der Literaturwissenschaftler Joseph Anthony Ward, der es sich zur Aufgabe gemacht hat, in seiner Studie American Silences. The Realism of James Agee, Walker Evans, and Edward Hopper die Bereiche der Literatur, Fotografie und bildenden Kunst mithilfe ästhetischer Merkmale zu synthetisieren, thematisiert in seiner Einführung die generelle Schwierigkeit, das Konzept des ›Realismus‹ zu definieren: »Most definitions agree that a realistic work of art is a true representation of men or things, but an absolute restrictive, and exclusively aesthetic definition of the concept is an impossibility. The most convincing definitions have always indicated not what realism is, but what it is not. […] Nearly all realist theory insists on the priority of an ob jective or nearly objective fidelity to the phenomena of common social experience.« 44 Mit der Begründung, »Realism has always been strongly ingrained in the American tradition«45, konzipierte das Museum of Modern Art (MoMA) in dem Jahr 1943 seine erste Ausstellung, die sich den realistischen Tendenzen innerhalb der einheimischen Kunst programmatisch zuwandte. Der Name der Ausstellung, American Realists and Magic Realists, machte unter allen vorigen Ausstellungen des MoMA erstmals Verwendung von der Begriffspaarung ›American Realists‹ und schuf zusätzlich mit der Bezeichnung ›Magic Realists‹ eine Kategorie für eine bis dahin unbetitelte Strömung.46 Der 43 Der Kunsthistoriker Boris Röhrl stellt in der Einleitung seiner Studie Kunsttheorie des Naturalismus und Realismus verschiedene alternative Bezeichnungen innerhalb der Realismustheorie vor, die sich im Zuge der fremdsprachigen Forschung entwickelt haben, wie beispielsweise die Bezeichnung ›gegenständliche Kunst‹ oder im Englischen ›representational art‹. Vgl. Boris Röhrl: Kunsttheorie des Naturalismus und Realismus. Historische Entwicklung, Terminologie und Definitionen. Hildes heim: Georg Olms, 2003, S. 2. 44 Joseph A. Ward: American Silences. The Realism of James Agee, Walker Evans, and Edward Hopper. 2. Auflage. New Brunswick, NJ: Transaction Publishers, 2010, S. 1–2. 45 Miller (1943): S. 5. 46 Vgl. auch Seymour Menton: Magic Realism Rediscovered, 1918–1981. Philadelphia, London: Art Alli ance Press; Associated University Presses, 1983, S. 9.
Realismus in der US-amerikanischen Bildkultur
Fokus der Kuratoren lag neben einer Retrospektive über amerikanische Maler aus dem 19. Jahrhundert vor allem auf den damals zeitgenössischen Vertretern.47 Die Künstler Edward Hopper und Charles Sheeler, die bereits zwanzig Jahre zuvor als Pioniere der ›new direction‹ galten,48 wurden ebenfalls berücksichtigt. Der begleitende Ausstellungskatalog liefert keine eindeutige Begriffsdefinition, und obwohl die Kuratoren zwischen den ›American Realists‹ und ›Magic Realists‹ differenzieren, hing die Auswahl der gezeigten Kunstwerke beider Gruppen von einem übereinstimmenden ästhetischen Prinzip ab: »The exhibition does not begin to cover all the varieties of painting which might be de scribed by the term, realism. It is limited, in the main, to pictures of sharp focus and precise representation, whether the subject has been observed in the outer world – realism, or contrived by the imagination – magic realism.« 49 Der britische Kunsthistoriker Edward Lucie-Smith macht für den Titel seiner Monografie American Realism rund 50 Jahre nach der Ausstellung im MoMA ebenfalls von der Begriffspaarung Gebrauch, die ›Magic Realists‹ werden von ihm jedoch mit weiteren realistischen Strömungen in eine Reihe gestellt. Ein »absolute value«50, mit dem sich ›der Realismus‹ konkret begreifen ließe, existiert in seinen Augen nicht. Stattdessen empfiehlt er, jede realistische Strömung in Relation zu ihrer Zeit zu betrachten, denn die gegenständliche Kunst des 20. Jahrhunderts hätte den ›realistischen‹ Anforderungen an die Malerei des 19. Jahrhunderts womöglich nicht genügt.51 Sein Überblick beginnt im 18. Jahrhundert bei John Singleton Copley, »[t]he first fully professional painter in the United States«52, und er endet in den 1990er Jahren. Um den Begriff des ›Amerikanischen Realismus‹ einzugrenzen, hebt Lucie-Smith zwei Aspekte besonders hervor: zum einen – in Anlehnung an eine soziale Komponente realistischer Strömungen – die in den USA vorherrschende, historisch begründete Relevanz der Demokratie und zum anderen die damit zusammenhängende Rolle der Fotografie. Ziehe man in Betracht, dass die US-amerikanischen Bürger neben der indigenen Bevölkerungsgruppe seit der ersten Besiedelung der ›Neuen Welt‹ aus Immigranten bestehe, die Europa bewusst verlassen hätten, um den dort fest verankerten Hierarchien und sozialen Strukturen 47 Die Retrospektive enthält folgende Künstler: Henry Alexander, John James Audubon, George Caleb Bingham, Thomas Cole, Thomas Eakins, Erastus Salisbury Field, Richard La Barre Goodwin, Wil liam M. Harnett, Edward Hicks, Winslow Homer, John Frederick Kensett, William S. Mount, Raphael le Peale, Harry W. Watrous. Zu den Zeitgenossen zählen neben Edward Hopper und Charles Sheeler: Ivan Le Lorraine Albright, John Atherton, Peter Blume, Audrey Buller, Paul Cadmus, Clarence Hol brook Carter, Ferdinand Cartier, Jared French, Louis Guglielmi, Hananiah Harari, Z. Vanessa Helder, Peter Hurd, Lawrence Kupferman, Edmund Lewandowski, Louis Lozowick, Theodore Lux, Fred Paps dorf, Charles Rain, H. D. Rothschild, Patsy Santo, Ben Shahn, Miklos Suba, Patrick J. Sullivan, Stow Wengenroth, Andrew Wyeth, Malvin Marr (Zsissly) Albright. Vgl. Dorothy C. Miller; Alfred H. Barr Jr. (Hgg.): American Realists and Magic Realists. Ausstellungskatalog. New York, NY: The Museum of Modern Art, 1943. 48 Vgl. Miller; Barr Jr. (Hgg.) (1943): S. 9. 49 Miller (1943): S. 5. Herv. i. O. 50 Edward Lucie-Smith: American Realism. London: Thames & Hudson, 2003, S. 13. 51 Vgl. ebd., S. 13. 52 Ebd., S. 19.
257
258
Scheler: Computergrafik
zu entkommen, erscheine eine ›demokratische‹53 Bildsprache, die dieses neue, ›freie‹ Leben einfange, sehr schlüssig. Die Fotografie habe sich nicht nur besonders gut für diesen Zweck geeignet, sondern auch die Arbeit vieler amerikanischer Künstler maßgeblich beeinf lusst.54 Lucie-Smith betont daher, »it has played a more prominent role in American visual culture than in that of Europe, where it originated.«55 Eine weitere Kategorisierungsmöglichkeit – unabhängig vom ›Amerikanischen‹ – eröffnet Lucie-Smith mit einer Diskussion über zwei verschiedene Wege, Realismus generell aufzufassen, nämlich einerseits als ›conceptual realism‹ und andererseits als ›perceptual realism‹. Der erste sei grundsätzlich von unserem gewohnten Sehverhalten abhängig: »[I]t can be defined as a kind of inventory of what the observer believes to be in front of him at a given moment.«56 Lucie-Smith verdeutlicht jedoch gleichzeitig, dass die Pioniere der Fotografie eine Veränderung des Sehverhaltens herbeiführten, indem sie beispielsweise Gegebenheiten sichtbar machten, die mit dem bloßen Auge nicht zu erkennen waren,57 weshalb sie damit Einf luss auf den ›conceptual realism‹ ausübten. Den ›perceptual realism‹ beschreibt Lucie-Smith als »seeing things without preconceptions, as innocently as possible.«58 Doch auch hier gelte, dass – wiederum aufgrund der Pioniere der Fotografie – eine objektive, ›unschuldige‹ Wahrnehmung letztendlich gar nicht möglich sei. Als Beispiel führt er Jan Vermeer an, da dieser mit der Verwendung der Camera obscura zwar beabsichtigte, eine möglichst objektive Darstellung der Umgebung einzufangen, jedoch mit dem Blick durch die Linse eigentlich nur ein mögliches Darstellungskonzept erhielt.59 Die Kunsthistorikerin Barbara Novak nimmt in ihrer Studie American Painting of the Nineteenth Century. Realism, Idealism, and the American Experience eine ähnliche Position ein, denn auch sie differenziert zwischen zwei malerischen Herangehensweisen, von denen die eine auf Konzeption und Wissen und die andere auf der Wahrnehmung basiert. Die Verwendung der Camera obscura eröffnet auch für sie einen konzeptionellen Zugriff auf das Bild,60 jedoch scheint sie einigen Malern, die davon Gebrauch gemacht haben, dennoch eine objektive und perzeptive Herangehensweise zuzugestehen. Ihre Auffassung des ›perceptual realism‹ unterscheidet sich demnach von Lucie-Smiths Argumentation. Für Novak hängt die wahrnehmende und objektive Herangehensweise unmittelbar mit dem Pleinairismus zusammen und der Beobachtungsprozess scheint ihrer Ansicht nach auch ohne eine mediale Zwischenebene 53 Ein Grund, den Lucie-Smith exemplarisch anführt, um zu erläutern, weshalb die Fotografie ein demokratisches bildgebendes Verfahren sei, liegt darin, dass es, sobald es zur Verfügung stand, beispielsweise die Bildgattung des Porträts revolutionierte. Mit der damals neuen fotografischen Technologie war es nicht mehr nur noch der wohlhabenden Bevölkerung vorbehalten, Porträts anfertigen zu lassen. Diese durch die Fotografie neu eröffneten Möglichkeiten entsprachen dem Ideal einer egalitären Gesellschaft, das sich seit der Besiedelung entwickelt hatte. Vgl. Lucie-Smith (2003): S. 14. 54 Vgl. Lucie-Smith (2003): S. 13–14. 55 Ebd., S. 14. 56 Ebd., S. 9. 57 Vgl. ebd., S. 10. 58 Ebd., S. 11. 59 Vgl. ebd., S. 12. 60 Vgl. Novak (2007): S. 163.
Realismus in der US-amerikanischen Bildkultur
stattfinden zu können.61 Ein allgemeines verändertes Sehverhalten wird bei ihr nicht thematisiert. Für sie existiert auf der einen Seite eine akademische und konzeptualisierende Herangehensweise, die in der Kunst traditionell verankert war und »which seems to be much the older of the two«62, wie Lucie-Smith es ebenfalls betont. Auf der anderen Seite beschreibt Novak mit dem Pleinairismus eine zweite Herangehensweise, die sich bekanntlich in der zweiten Hälfte des 19. Jahrhunderts sowohl in den USA als auch in Europa entwickelt hat. Die Verwendung eines mobilen Ateliers, das den Künstlern erlaubte, in die Natur zu gehen, um das Licht und die Stimmung direkt einzufangen, steht bei Novak uneingeschränkt für den ›perceptual realism‹.63 An die Frage der Kategorisierung einer realistischen Tendenz innerhalb der Kunst schließt sich die Überlegung an, weshalb das MoMA, Lucie-Smith und Novak jeweils ihre eigenen Realismus-Begriffe für ihre Zwecke erarbeiten. Eine mögliche Antwort liefert der Amerikanist und ehemalige Leiter des Whitney Museum of American Art John I. Baur. Er erläutert in seiner Studie Revolution and Tradition in Modern American Art aus dem Jahr 1951 seine Vorgehensweise, künstlerische Strömungen zu klassifizieren: »[A] painter like Sheeler is discussed, for instance, both in the chapters on abstraction and on realism. […] And classification is surely necessary if we are to perceive the order underlying the great diversity of modern art. Yet here a further danger arises: that in defining this order we may oversimplify it and thereby seriously falsify the truth. I have tried to guard against this by keeping my categories as elastic as possible, by frequently indicating the points at which they blend into one another, and by admitting freely that much art lies in these overlapping zones and could be considered with some justice un der more than one heading.« 64 In Kontrast zu den anderen vorgestellten Studien kommuniziert Baur explizit die Notwendigkeit, für seinen Forschungszweck ›elastische‹ Kategorien zu verwenden, und zugleich wird implizit deutlich, dass letztlich jede der bisher vorgestellten Untersuchungen ein individuelles Kategorisierungsmodell verwendet. Daraus lässt sich ableiten, dass jeder neue Blickwinkel, aus dem künstlerische Strömungen betrachtet werden, eigene f lexible Kategorien erfordert. Nur so kann der Gefahr begegnet werden, durch eine starre Festlegung Zusammenhänge zu verschleiern und Erkenntnisse zu blockieren. Obwohl also eigentlich von mehreren Realismen die Rede sein müsste,65 soll die Bezeichnung ›Amerikanischer Realismus‹ in diesem Kapitel und in der 61 Vgl. ebd., S. 62 und S. 120. 62 Lucie-Smith (2003): S. 9. 63 Vgl. Novak (2007): bspw. S. 156. 64 John I. H. Baur: Revolution and Tradition in Modern American Art. 2. Auflage. New York, N.Y, Lon don: Praeger, 1967, S. viii. 65 Linda Nochlin eröffnet, ähnlich wie Baur, die Diskussion über die Grenzziehung zwischen verschie denen Strömungen und schlägt vor, von mehreren Realismen zu sprechen: »Yet, while realism may be a perennial phenomenon, one might do better to talk about ›realisms‹ rather than a single uni tary ›realism.‹ A wide range and variety of stylistic possibilities are subsumed under the general category. Indeed, it might be fruitful to think of realism as a country on a map, surrounded by other countries, whose borders often merge imperceptibly with it.« Linda Nochlin: The Realist Criminal and the Abstract Law. In: Art in America 61/5, 1973, S. 54–61, hier S. 55.
259
260
Scheler: Computergrafik
esamten Studie in Anlehnung an Lucie-Smith als Oberbegriff verstanden werden, g der im Sinne Baurs zahlreiche ›elastische‹ Kategorien unter sich vereint. Ziel ist es, diese im Laufe der folgenden Unterkapitel herauszukristallisieren.
4.2.1.1 Realismus als historisches Phänomen Die Darstellung der historisch bedingten Entwicklung realistischer Strömungen in den USA orientiert sich überwiegend an der Forschung zweier Autoren: Der Kunsthistoriker Boris Röhrl liefert mit seiner Studie Realismus in der bildenden Kunst. Europa und Nordamerika 1830 bis 2000 66 eine aktuelle und systematische Übersicht realistischer Strömungen und Tendenzen. Seine darin vertretenen Positionen in Bezug auf die Vereinigten Staaten werden hier wiedergegeben und um Standpunkte ergänzt, die der amerikanische Kulturhistoriker David Shi in seiner Monografie Facing Facts. Realism in American Thought and Culture, 1850–1920 67 vertritt. Shi zieht darin einen interdisziplinären Querschnitt durch verschiedene kulturelle Bereiche wie die bildende Kunst, Literatur und Architektur. Im Gegensatz zu Röhrl, der den Realismus der USA in einen Zusammenhang mit europäischen Realismusbewegungen bringt, blickt Shi zurück auf die kulturelle Entwicklung innerhalb der USA. Er leitet die auf kommenden realistischen Tendenzen zur Mitte des 19. Jahrhunderts direkt vom Idealismus der Vorkriegszeit ab, denn »[u]nderstanding the rise of realism requires first understanding what it rose up against.«68 Die Positionen Röhrls und Shis werden laufend um weitere Standpunkte aus der Realismusforschung erweitert.
Bataille réaliste Röhrl beschreibt zu Beginn seiner Studie, »[d]er Realismus [sei] als natürliche Konsequenz der kulturellen Entwicklung zwischen 1830 und 1850 als eine neue Richtung in der Literatur, Malerei und Grafik [entstanden]« und »[strebte] eine sachliche und nüchterne Darstellungsweise [an].«69 Als historischen Bezugspunkt wählt Röhrl die vier Grundpositionen der französischen bataille réaliste, von denen sich die erste – ähnlich der damaligen Auf fassung von Fotografie – für eine neutrale Abbildung der Natur aussprach und die zweite nach der Darstellung der zeitgenössischen Wirklichkeit strebte. Die letzten beiden Positionen nahmen demgegenüber eine sozialkritische Haltung ein und weisen große Übereinstimmungen auf: Die dritte verfolgte 66 Vgl. Boris Röhrl: Realismus in der bildenden Kunst. Europa und Nordamerika 1830 bis 2000. Berlin: Mann, 2013. 67 Vgl. David E. Shi: Facing Facts. Realism in American Thought and Culture, 1850–1920. Oxford: Oxford University Press, 1995. 68 Ebd., S. 13. Shi verwendet die Bezeichnung ›Antebellum Idealism‹, womit er sich auf den romanti schen Idealismus bezieht, der vor dem Sezessionskrieg (1861–1865) zu einem großen Teil von Au toren wie Ralph Waldo Emerson und Henry Thoreau geprägt wurde und einerseits auf einer tiefen Naturverbundenheit sowie andererseits gedanklich auf dem philosophischen Idealismus Platons und Immanuel Kants beruht. Vgl. Shi (1995): S. 15–25. 69 Röhrl (2013): S. 1.
Realismus in der US-amerikanischen Bildkultur
einen kritischen Realismus, der – beispielsweise durch die Darstellung von Armut – eine Reform der Verhältnisse bewirken wollte, und die vierte verteidigte einen Realismus, der eine radikale Umgestaltung bestehender Verhältnisse herbeiführen sollte.70 Obwohl Röhrl den »Realismus hauptsächlich von diesen vier Positionen aus betrachtet,«71 räumt er ein, dass einige realistische Strömungen – beispielsweise der magische Realismus und der Regionalismus in den USA – sich nicht damit vereinbaren ließen.72 Röhrls Blickwinkel orientiert sich häufig an den letzten zwei Positionen der bataille réaliste, denn auch Strömungen, die eine andere Absicht verfolgten, versucht er damit in Einklang zu bringen. Er nimmt außerdem punktuell Bezug auf die amerikanische Kunsthistorikerin Linda Nochlin, die laut ihm die Auf fassung vertrete, der Realismus in den USA sei dokumentarisch und stehe in der Tradition der niederländischen Genremalerei.73 In ihrem Aufsatz The Realist Criminal and the Abstract Law, in dem Nochlin die Gegenüberstellung von Realismus und Antirealismus innerhalb der Moderne diskutiert, nimmt sie in der Tat Bezug auf die niederländische Malerei des 15. und 17. Jahrhunderts, verwendet die Bezeichnung ›dokumentarisch‹ jedoch lediglich unter Bezugnahme auf Rosalind Krauss. Nochlin betont sehr deutlich, dass neben dem historischen Phänomen des Realismus innerhalb der zweiten Hälfte des 19. Jahrhunderts realistische Tendenzen bereits lange vor und auch nach dieser Epoche auszumachen seien.74 Röhrls Untersuchung ist in vier Zeitabschnitte unterteilt – 1830–1917, 1918–1959, 1960–1989 und 1990–2000 –, die je einzelne Kapitel zu realistischen Strömungen in verschiedenen Ländern enthalten, darunter Frankreich, Deutschland, England, Russland und die USA. Obwohl Röhrl zu Beginn sehr deutlich auf eine soziale Komponente des US-amerikanischen Realismus hinweist, spricht er gleichzeitig von einer »eigene[n] Entwicklungslinie«, die
70 In seinen Schlussbetrachtungen der gesamten Untersuchung zieht er die letzten beiden Positionen zusammen und nennt sie schlicht ›Realismus als Kritik‹. Vgl. Röhrl (2013): S. 1 und S. 296. 71 Röhrl (2013): S. 1. 72 Vgl. ebd., S. 2. 73 Vgl. ebd., S. 296–297. 74 Nochlin trif f t eine Unterscheidung zwischen ›realistischer‹ Kunst auf der einen und ›antirealis tischer‹ Kunst auf der anderen Seite, unter der sie beispielsweise Idealismus, Symbolismus oder abstrakte Kunst fasst. Obwohl sie in ihrem Essay The Realist Criminal and the Abstract Law die Gegenüberstellung von Realismus und Antirealismus innerhalb der Moderne diskutiert, verweist sie darauf, dass die Debatte über das, was idealerweise mithilfe von Kunst dargestellt wird, bis in die Antike und zu Platons Vorstellung der Idee zurückgeht. Während Clement Greenberg die gegenständliche Kunst der Moderne als ›unrein‹ bezeichnet, war es im 16. Jahrhundert Michel angelo, der die flämische Malerei, die schon damals alltägliche Situationen in Bildern festhielt, aus einer ähnlichen Haltung heraus verschmähte. Die für den historischen Realismus typische Darstellung ›alltäglicher‹ Verhältnisse verteidigt Nochlin in ihrem Essay, indem sie einerseits da rauf hinweist, dass viele Strömungen der Moderne, beispielsweise die Neue Sachlichkeit oder der Surrealismus, durch die Auf fassung einer ›reinen‹ Kunst, wie Greenberg sie sich wünscht, völlig ausgeschlossen seien. Andererseits stellt sie heraus, dass realistische Darstellungen durchaus selektiv seien und keineswegs auf naive Weise ein einfaches Spiegelbild einer Szenerie erzeugen. Vgl. Nochlin (1973): S. 56–60.
261
262
Scheler: Computergrafik
»mehrere unterschiedliche Wurzeln hat: einheimische Traditionen der Genremalerei, der Einfluss des französischen Realismus (speziell von Millet), die Düsseldorfer Mal schule, der englische Einfluss, der französische Naturalismus in seiner kommerziellen und seiner sozialkritischen Ausprägung. Einen sozialen Realismus in den USA hat es schon einige Jahrzehnte vor der Ash Can School der Jahrhundertwende gegeben.« 75 Den größten Einf luss auf die amerikanische Malerei hatten, laut Röhrl, die französische Kunst – insbesondere der »Naturalismus der 1870er Jahre«76 – und die Düsseldorfer Schule aus Deutschland. Röhrl weist zwar auf die idealistischen Einf lüsse der deutschen Malerei hin, beharrt jedoch darauf, dass »die idealistische Darstellung der Wirklichkeit […] den Amerikanern fremd geblieben« 77 sei. Winslow Homer steht seiner Ansicht nach besonders beispielhaft in der Tradition des französischen Naturalismus. Dieser gilt wie auch Thomas Eakins als einer der bekanntesten amerikanischen Vertreter des Realismus in der zweiten Hälfte des 19. Jahrhunderts – beide Künstler werden häufig miteinander in Bezug gesetzt.78 Zur generellen Veranschaulichung seien hier die Bilder Eagle Head, Manchester, Massachussetts (High Tide) von Homer und Baby at Play von Eakins gegenübergestellt (Abb. 82 & 83), die jeweils eine alltägliche Szene darstellen und beispielsweise einen vergleichbaren Umgang mit hartem Lichteinfall und dem damit verbundenen Schattenwurf aufweisen. Shi stellt Homer ebenfalls als einen der bedeutendsten Realisten heraus, betont jedoch zugleich seine »potent strands of romantic idealism. His preference for the country over the city, his self-imposed isolation and his fascination with the essential loneliness of the human condition, his brooding preoccupation with nature’s dramas rather than those of the human community, his intoxicated awe in the face of the crashing sea […] attest to his complex character and mixed motives. Homer’s tangy blend of romantic realism gave his work its invigorating originality. Like Whitman he displayed virtues of a synthetic vision; he respected the dignity of facts but probed beneath them to explore deeper levels of feeling and meaning, rendering the transitory eternal.« 79 Shi berücksichtigt in seinen Betrachtungen die idealistischen Tendenzen des frühen 19. Jahrhunderts, womit seine Argumentation in Kontrast zu Röhrls Auffassung steht, eine idealistische Darstellung der Wirklichkeit sei den Amerikanern fremd geblieben.
75 Röhrl (2013): S. 75. Herv. i. O. 76 Ebd., S. 76. 77 Ebd., S. 76. In ihrem Kapitel über den Künstler Washington Allston (1779–1843) thematisiert auch Barbara Novak den Einfluss der deutschen Romantik auf die kulturelle Entwicklung innerhalb der USA, beispielsweise auf den amerikanischen Transzendentalismus. Vgl. Novak (2007): S. 29. 78 Lucie-Smith wendet sich beispielsweise beiden gemeinsam in dem Kapitel Thomas Eakins and Winslow Homer zu. Vgl. Lucie-Smith (2003): S. 29–39. 79 Shi (1995): S. 137. Auch Barbara Novak geht in ihren Ausführungen zu Homer darauf ein, dass seine Arbeiten immer wieder von romantischen Tendenzen begleitet werden. Sie nennt dieses Phäno men eine malerische ›Begleiterscheinung‹ zu seinem »final hermetic romanticism of his own with drawal from society, as he lived out the icy winters at Prout’s Neck, Maine […].« Novak (2007): S. 148.
Realismus in der US-amerikanischen Bildkultur
Abb. 82: Winslow Homer, Eagle Head, Manchester, Massachussetts (High Tide), 1870, Öl auf Leinwand, 66 x 96,5 cm.
Abb. 83: Thomas Eakins, Baby at Play, 1876, Öl auf Leinwand, 81,9 x 122,8 cm.
Ash Can Realism Eine weitere Strömung, die Röhrl innerhalb des ersten Zeitabschnitts berücksichtigt, ist die im frühen 20. Jahrhundert in New York aktive Ash Can School. Seine Beschreibungen zu dieser Künstlergruppierung, zunächst auch The Eight genannt,80 stimmen weitgehend mit denen Shis überein. Als widersprüchlich erweist sich jedoch Röhrls Aussage, »[e]inen sozialen Realismus in den USA habe es schon einige Jahrzehnte vor der Ash Can School der Jahrhundertwende gegeben.«81 Denn obwohl die Gruppe einen klaren Bezug zur Gesellschaft herstellte, verfolgten ihre Vertreter keine politischen Absichten. Sie waren, wie Shi es darstellt, im Gegenteil
80 Der Name The Eight ergibt sich aus den acht Künstlern, die sich vom bis dahin vorherrschenden ›akademischen Realismus‹ abwandten und eine eigene Gruppierung bildeten: Robert Henri, der die Gruppe in dieser Form zusammenführte, John Sloan, William J. Glackens, George Luks, Everett Shinn, Ernest Lawson, Arthur B. Davies und Maurice B. Prendergast. Vgl. bspw. Röhrl (2013): S. 79, und vgl. Shi (1995): S. 260. 81 Röhrl (2013): S. 75.
263
264
Scheler: Computergrafik
»more concerned with expressing the charm of city life than with kindling social in dignation or exploring the causes of poverty and injustice. Their vision of society was organic and inclusive, and their tone was more upbeat than strident, more descriptive than prescriptive, more enthusiastic than fearful.« 82 Shi nimmt mit dieser Aussage Bezug auf einen Text von Everett Shinn, einem Mitglied der Gruppierung.83 Die Arbeitsweise der Ash Can School ist gut dokumentiert: John Sloan, ein weiteres Mitglied, beschreibt seine Haltung und Methoden in dem von ihm mit Unterstützung seiner Frau Helen Farr Sloan verfassten Band Gist of Art. Darin legt er dar, »[m]y subjects were chosen with an illustrative point of view, literary, poetic motives.«84 Shi beschreibt die Haltung Sloans und der gesamten Ash Can School als einen ›romantischen Trugschluss‹, da sie laut ihm die Armut und das damit verbundene Leid als eine Art Tugend verstanden.85 Sloan, der in den Jahren von 1909 bis zum Ausbruch des Ersten Weltkrieges ein aktiver Sozialist war, macht in seinen Aufzeichnungen deutlich, dass er die bildliche Darstellung menschenunwürdiger Umstände ablehnte: »I have never liked to show human beings when they are not them selves. I think it is an insult to their human dignity....One of the things I so dislike about most socially conscious pictures, is that the artist is looking down on people.«86 Röhrl bezeichnet den Realismus Sloans selbst als illustrativ87 und stellt heraus, dass in der Literatur Einigkeit darüber herrsche, die Ash Can School sei nicht sozialkritisch eingestellt gewesen. Sie hat sich laut ihm als ›eigenständige Stilrichtung‹ entwickelt, die unter keinem Einf luss europäischer Tendenzen stand.88 Röhrl und Shi geben beide ein Statement Robert Henris wieder, der Initiator und Teil der Künstlergruppierung war. Er formuliert darin den Wunsch, mit Kunst das amerikanische Lebensgefühl und den Zeitgeist einzufangen: »As I see it, there is only one reason for the development of art in America, and that is that the people of America learn the means of expressing themselves in their own time and in their own land. In this country we have no need of art as culture; no need of art as a refined and elegant performance; no need of art for poetry’s sake, or any of these things for their own sake. What we do need is art that expresses the spirit of the people of today.« 89 Darlegen lässt sich Henris Statement beispielsweise anhand von Sloans Gemälde Six O’Clock, Winter, in dem er das rege Treiben der Pendler New Yorks dokumentiert. Vor 82 Shi (1995): S. 254. 83 Vgl. Everett Shinn: Recollections of The Eight. In: The Eight. Ausstellungskatalog. Hrsg. v. The Brook lyn Museum. New York, NY: Brooklyn Museum Press, 1943, S. 11–22, hier S. 11–12. 84 John Sloan: John Sloan on Drawing and Painting. Gist of Art. Mineola, NY: Dover Publications, 2000, S. 3. 85 Vgl. Shi (1995): S. 264. 86 Helen Farr Sloan: John Sloan’s New York Scene. New York, NY: Harper & Row, 1965, S. xx. 87 Vgl. Röhrl (2013): S. 79. 88 Vgl. ebd., S. 81. 89 Robert Henri: The New York Exhibition of Independent Artists. In: The craftsman XVIII/2, 1910, S. 160–172, hier S. 161.
Realismus in der US-amerikanischen Bildkultur
Abb. 84: John Sloan, Six O’Clock, Winter, 1912, Öl auf Leinwand, 66,36 x 81,28 cm.
einem abendlichen Himmel ist darin die Silhouette eines Hochbahnhofs dargestellt, in den gerade ein Zug eingefahren ist. Das dunkle Eisengerüst der Bahnstation ragt über die Köpfe zahlreicher Passagiere, die nun in alle Richtungen strömen (Abb. 84). Es handelt sich um die Momentaufnahme einer alltäglichen Situation und auch Stimmung, die für den dargestellten Ort typisch zu sein scheint. In diesem Streben nach einer ›einheimischen amerikanischen Kunst‹ gelten Homer und Eakins als zentrale Vorbilder für Henri.90 Shi beschreibt außerdem Henris Auffassung, die Malerei solle im Gegensatz zu einer ›faktenbezogenen Realität‹ nach einer ›inneren Realität‹ streben, um als Künstler sein Gefühl über das Wahrgenommene zum Ausdruck zu bringen.91 Die Darstellung der ›inneren Realität‹ zeichnete zur Jahrhundertwende auch Eakins’ spätere Schaffensphase aus, in der er hauptsächlich Porträts angefertigt hat, die jedoch weniger seine eigene Wahrnehmung zum Ausdruck bringen als vielmehr den Seelenzustand der von ihm porträtierten Personen.92 Obwohl sich die malerische Herangehensweise stark unterscheidet, gibt der Vergleich seines Gemäldes Miss Amelia Van Buren mit dem von Henri angefertigten Porträt Mary Agnes Aufschluss über die 90 Vgl. Shi (1995): S. 254. 91 Shi thematisiert in diesem Zusammenhang einen grundlegenden Konflikt zwischen Henri und William Merrit Chase, der ein Verfechter des ›akademischen Realismus‹ war und nach einer Kunst strebte, die vor allem ›das Schöne‹ zeigen sollte, während Henri in seinen Bildern den Zeitgeist in seinen positiven und negativen Facetten einfangen wollte. Shi schreibt Chases Haltung dem ›art for art’s sake-Prinzip‹ zu und trifft damit eine Aussage, die Röhrls Auffassung konträr gegenübersteht. Dieser ordnet umgekehrt Henris Realismus dem ›l’art pour l’art-Prinzip‹ zu und zitiert ihn mit den Worten: »Great works of art should look as though they were made in joy.« Robert Henri: The Art Spirit. 3. Auflage. New York: Basic Books, 2007, S. 174. Röhrl bezeichnet diese Einstellung als ›soziale Indifferenz‹. Beide Autoren machen zwar auf ähnliche Weise Gebrauch von dem Begriff, schreiben ihn allerdings jeweils einem der beiden gegenüberstehenden Künstler zu. Röhrls Argumentation erscheint dann schlüssig, wenn dem l’art pour l’art-Prinzip vollständige Autonomie zugeschrieben wird, denn dann hätte Henri zwar nicht absichtlich politische Kunst hervorgebracht, jedoch gleich zeitig auch nicht verhindern können, dass sie ganz eigenständig politischen Einfluss nimmt, wobei diese Argumentationslinie dann ebenso für Chase gelten würde. Vgl. Shi (1995): S. 257–258, und vgl. Röhrl (2013): S. 82. 92 Vgl. Novak (2007): S. 171–173.
265
266
Scheler: Computergrafik
Abb. 85: Thomas Eakins, Miss Amelia Van Buren, ca. 1891, Öl auf Leinwand, 114.3 x 81.28 cm.
Abb. 86: Robert Henri, Mary Agnes, 1924, Öl auf Leinwand, 61 x 50,8 cm.
geistige Verwandtschaft der beiden Maler. Die porträtierten Personen werden nicht für den Betrachter in Pose gebracht, sondern in ihrer jeweiligen Verfassung gezeigt: Miss Amelia Van Buren blickt nachdenklich zur Seite und wendet sich damit vom Rezipienten ab. Mary Agnes richtet ihren Blick zwar direkt an den Betrachter, ihr Gesichtsausdruck und ihre verschränkten Arme deuten jedoch darauf hin, dass auch sie an dem Porträt emotional unbeteiligt ist und sich innerlich ihren eigenen Gedanken zuwendet (Abb. 85 & 86). Anders als Röhrl deutet Shi im weiteren Verlauf seiner Studie auf ›das Ende‹ der Ash Can School hin, welches für ihn mit der Armory Show im Jahr 1913 zusammenfällt, die erstmals zeitgenössische europäische Kunst in den Vereinigten Staaten präsentierte.
Realismus in der US-amerikanischen Bildkultur
Der Kunsthistoriker Milton Brown thematisiert in seiner Monografie American Painting from the Armory Show to the Depression die Auswirkungen der Ausstellung auf die amerikanische Kunst: »It was a period in which newer concepts of art developing in Europe displaced an older tradition of ›realism‹ that had established itself in America in the first decade of this century.«93 Er betont außerdem, dass »[a]fter the Armory Show American art was never the same again.«94 Obwohl Henris Gruppe an der Organisation der Ausstellung zunächst beteiligt war, verlor ihr künstlerischer Ausdruck auch laut Shi im direkten Vergleich zu den Tendenzen der europäischen Avantgarde an Bedeutung: »Henri and the other New York Realists were virtually forgotten amid the furor over the European modernists at the Armory Show.«95 Shis Darstellung realistischer Strömungen in der Kunst endet mit seinen Ausführungen zur Ash Can School. In der Zusammenfassung seiner Studie formuliert er einen Ausblick und listet verschiedene Positionen zum Realismus auf. Er beginnt mit einer Darstellung ›antirealistischer‹ Argumente und betont in diesem Zusammenhang, der Realismus sei eine ›vergangene Ära‹.96 Er geht jedoch anschließend zu einer Argumentation über, die dem Realismus eine fortwährende Relevanz zuspricht: »Today realism retains its artistic appeal as the United States struggles to embody its ideal as a nation proud of its diversity and just in its social transactions. Painter Wil lard Midgette […] clung tenaciously to the belief that realistic representation possesses a peculiar ability to intensify and extend a sense of social communion. For this reason alone, the creation of an ›aesthetic of the common‹ and a ›beloved community‹ remains a beckoning goal.«97 Da Shis Betrachtungen mit dem Jahr 1920 enden, bietet seine Studie keinen Raum für Querverweise zu späteren realistischen Tendenzen. Obwohl auch Röhrl eher zurückhaltend mit Querverweisen umgeht, stellt er Edward Hopper in die Tradition der Ash Can School, der – wie Lucie-Smith es beschreibt – eine zentrale Rolle in der amerikanischen Geschichte der realistischen malerischen Tradition einnimmt.98
93 Milton W. Brown: American Painting from the Armory Show to the Depression. Princeton, NJ: Princeton University Press, 1955, S. vi. 94 Ebd., S. 47. 95 Shi (1995): S. 290. 96 Vgl. ebd., S. 303–304. Er begründet diese Entwicklung zum einen damit, dass durch politische Um stände wie Krieg und Korruption mimetische Darstellungen nicht mehr erwünscht waren. Zum an deren stellt er die Position der Strukturalisten, Poststrukturalisten und Dekonstruktivisten dar, die sich auf Kant, Nietzsche und Heidegger berufen, indem sie behaupten, die Künste seien niemals im stande, die ›tatsächliche‹ Welt darzustellen, da ›Realität‹ lediglich eine linguistische Konstruktion sei. Er beschreibt darüber hinaus die Meinung einer Gruppe, die er als ›Antirealisten‹ bezeichnet und nach deren Auffassung die gesamte äußere Welt grundsätzlich eine Illusion sei, weshalb sich Kunstwerke letztendlich selbst ›dekonstruieren‹ würden. 97 Shi (1995): S. 307. Shi zitiert Willard Midgette nach Willard Midgette: Illusionistic Portraiture. In: Allan Frumkin Gallery Newsletter Nr. 3, 1977, S. 5. 98 Lucie-Smith (2003): S. 126.
267
268
Scheler: Computergrafik
Social Realism Röhrls zweites USA-Kapitel, das den Zeitraum von 1918 bis 1959 umfasst, gibt dem Social Realism der 1930er Jahre besonders viel Raum, denn im Gegensatz zu den anderen realistischen Strömungen99 habe er innerhalb der kunstgeschichtlichen Forschung bisher nur wenig Beachtung gefunden.100 Seine Betrachtungen finden hauptsächlich im Kontext der Wirtschaftskrise und der Roosevelt-Ära statt, er betont jedoch, dass es schon vor der eigentlichen Entwicklung des Social Realism in den USA sozial engagierte Künstler gegeben habe, was sich anhand von Shis Ausführungen zu den Entwicklungen innerhalb der Literatur und auch im Fotojournalismus101 des 19. Jahrhunderts bestätigen lässt: Shi beschreibt eine schon vor 1850 auf kommende soziale Haltung, die auf das industrielle Wachstum und die damit verknüpfte Konsumkultur reagierte und im weiteren Verlauf des 19. Jahrhunderts ihre Fortsetzung sowie zur Jahrhundertwende ihren Höhepunkt erfuhr.102 Röhrl führt Rockwell Kent als Beispiel an, dessen Schaffen ebenfalls vor den 1930er Jahren begann. Seine Arbeiten seien ein Prototyp des sozialen Realismus: »Seine Schriften bilden das ›Credo‹ des amerikanischen Social Realism. Man wollte Veränderung durch eine Evolution bewirken.«103 Doch auch in diesem Kontext gerät Röhrl in einen Konf likt mit seinem sozialen Blickwinkel, denn er betont gleichzeitig Kents Liebe zur ›wilden Natur‹ und eine damit zusammenhängende Verbindung zu Winslow Homer. So kommt er selbst zu dem Schluss, dass es »schwierig [ist], seine [Kents] Kunst mit dem sozialen Realismus in Verbindung zu bringen.«104 Wenngleich präzise Grenzen innerhalb dieser Studie vermieden werden sollen und die Kategorien im Sinne Baurs ›elastisch‹ bleiben, lässt sich der Social Realism der 1930er Jahre in der Tat beinahe vollständig isoliert als historisches Phänomen betrachten. Der Künstler David Shapiro, der mit dem von ihm herausgegebenen Band Social 99 Röhrl bezeichnet die parallelen realistischen Strömungen in den USA als ›Unterbegriffe‹. Folgende listet er auf: Regionalism, Magic Realism, Superrealism (gemeint ist damit in den 1930er Jahren der Surrealismus) und American Scene painting. Vgl. Röhrl (2013): S. 197. 100 Vgl. Röhrl (2013): S. 196. Die weiteren Abschnitte enthalten kurze Überblicke zum Regionalism, vgl. Röhrl (2013): S. 216–217, zum Magic Realism, vgl. Röhrl (2013): S. 218–219, und zu der sozialdokumenta rischen Fotografie, innerhalb derer Walker Evans besonders hervorgehoben wird. Vgl. Röhrl (2013): S. 219–221. Den Magic Realism beschreibt Röhrl »als durchaus sozial bezogen. Es sollte eine Aussa ge gemacht werden. In dieser Hinsicht offenbart der amerikanische Magic Realism eine Nähe zum Social Realism.« Röhrl (2013): S. 218. Seymour Menton eröffnet in seiner Studie Rediscovering Magic Realism einen entgegengesetzten Blick auf die Strömung: »The movement flourished in post-World War I and post-World War II Germany in response to the tremendous despair caused by the crushing defeats and a series of concomitant factors. In the rest of the Western world a similar longing for peace and tranquility steered artists and writers in the same direction.« Menton (1983): S. 10. 101 Shi geht hier auf den aus Dänemark in die USA emigrierten Fotografen Jacob Riis ein, dessen Foto grafien als fotojournalistisch beschrieben werden können. Es war Riis’ explizite Absicht, auf Miss stände aufmerksam zu machen. Vgl. Shi (1995): S. 188–193. 102 Vgl. Shi (1995): S. 98–100. Shi betont jedoch auch eine zum Ende des 19. Jahrhunderts wiederkehren de romantische Grundhaltung, die sich jedoch vor allem in der Literatur bemerkbar gemacht habe. Vgl. Shi (1995): S. 181–211. 103 Röhrl (2013): S. 200. 104 Ebd., S. 200.
Realismus in der US-amerikanischen Bildkultur
Abb. 87: Martin Fletcher, Ausschnitt aus Mail Transportation, 1938, Wandbild im Postgebäude in San Pedro, CA.
Realism. Art as a Weapon einen umfassenden Überblick zum sozialen Realismus der 1930er Jahre liefert, vertritt darin die Ansicht, der soziale Realismus sei in den 1930er Jahren der vorherrschende malerische Stil innerhalb der USA gewesen.105 Es ist die einzige amerikanische Kunstströmung, die deutlich linksgerichtet war. Diese Entwicklung lässt sich zum einen auf die Wirtschaftskrise zurückführen, zum anderen aber etablierte Franklin D. Roosevelt staatliche Förderprogramme für Künstler, um sie vom privaten, wirtschaftlich geschwächten Kunstmarkt unabhängig zu machen.106 Es ging vornehmlich um den Gedanken, allen Menschen einen Zugang zur Kunst zu ermöglichen, weshalb die Förderprogramme insbesondere die Wandmalerei an öffentlichen Gebäuden unterstützten, wie es sich beispielsweise anhand von Martin Fletchers Wandbild Mail Transportation aus dem Jahr 1938 veranschaulichen lässt (Abb. 87). Shapiro ist der Ansicht, »the single greatest element in the development of this explicitly political and social art may very well have been the United States government itself.«107 Abstrakte Maler wurden von dem Programm ausgeschlossen, da »man annahm, dass ihre Kunst der Allgemeinheit nicht verständlich sei.«108 Edward Hopper nahm trotz seiner realistischen Ausdrucksweise an den Kunstförderprogrammen bewusst nicht teil, weil sie in seinen Augen lediglich das Mittelmaß förderten.109 Als Vorbild dieser linksgerichteten Strömung dienten auch die mexikanischen Muralisten, wobei Röhrl die amerikanischen Vertreter als ›gezügelter‹110 beschreibt: »[I]hr Inhalt ist weder revolutionär noch provokativ.« Es werde lediglich »[d]ie Welt der Arbeit […] dokumentiert. Der tätige Mensch ist anonym dargestellt. Es ist 105 Vgl. David Shapiro: Social Realism. Art as a Weapon. New York, NY: Ungar, 1973, S. 4. 106 Vgl. Röhrl (2013): S. 200. 107 Shapiro (1973): S. 9. 108 Röhrl (2013): S. 201. 109 Vgl. Gail Levin: Edward Hopper. An Intimate Biography. 2. erw. Auflage. New York, NY: Rizzoli, 2007, S. 271. 110 Röhrl schildert beispielsweise einen Vorfall, der sich in Zusammenhang mit Diego Riveras Wand fresko Crossroads zugetragen hat. Es handelt sich dabei um eine für das Rockefeller Center in New York vorgesehene Arbeit, die aufgrund ihres politischen Inhalts zerstört wurde, bevor sie vollendet war. Vgl. Röhrl (2013): S. 202. Röhrl thematisiert nicht, wer die Zerstörung veranlasst hat. Einem Au diobeitrag des MoMA zu einer Entwurfsskizze Riveras, die er zur Vorbereitung des Freskos fertigte,
269
270
Scheler: Computergrafik
ieselbe Anonymität, die schon in den Genrebildern Millets vorhanden ist.«111 Parallel d zu den US-amerikanischen Wandmalereiprogrammen führt Röhrl die drei Brüder Raphael, Moses und Isaac Soyer an, die für ihn wie auch für Lucie-Smith ebenfalls in die Kategorie des Social Realism fallen. Sie dokumentierten, ähnlich wie die anderen Mitglieder der sogenannten Fourteenth Street Group, in ihren Gemälden das Leben der ärmeren Bevölkerung New Yorks (Abb. 88 & 89). Lucie-Smith spricht daher auch von einem Urban Realism, und obwohl die Soyer-Brüder durch ihre eigene jüdische Abstammung eine besondere Sensibilität für die politischen Entwicklungen der 1930er und -40er Jahre zeigten, betont Lucie-Smith zugleich, dass dies nicht für alle Urban Realists gelte: »Any painter whose subject matter is chiefly urban is apt to find himself or herself char acterized as a social realist. This is misleading in the case of a number of prominent American artists of the 1930s and 1940s. Their subject was the city and its environs – specifically New York – but what they painted was seen in a relatively neutral way, leav ing social and moral commentaries to others.« 112 Unter den Künstlern der Fourteenth Street Group, die Röhrl zum Teil in die Kategorie der American Scene painters einordnet,113 befanden sich ebenfalls Künstler wie Kenneth Hayes Miller und Isabel Bishop, deren Bilder die Depression zwar sichtbar machten, die jedoch keine explizite politische Absicht damit verfolgten.114 Es erscheint daher schlüssig, dass Raphael Soyer einige Jahre später – in den frühen 1950er Jahren – die Herausgabe der Zeitschrift Reality. A Journal of Artists’ Opinions initiierte, die sich für eine »promotion of what were called human qualities in painting«115 und bewusst gegen eine politische Haltung aussprach.116 lässt sich entnehmen, dass die Rockefeller-Familie selbst dafür verantwortlich war. Rivera nahm in seinem geplanten Gemälde eine Gegenüberstellung des Kommunismus mit dem Kapitalismus vor und entschied sich dazu, nach Vorlage einer Fotografie ein Abbild Wladimir Lenins in das Wandge mälde zu integrieren. Der Grund für die Entscheidung der Rockefeller-Familie, das Gemälde zu ent fernen, lag darin, dass Rivera dem Wunsch Nelson Rockefellers nicht folgen wollte, Lenins Gesicht zu verändern und stattdessen eine anonyme Person darzustellen. Vgl. The Museum of Modern Art: Diego Rivera. Man at the Crossroads, 1932. Ohne Datum. URL: https://www.moma.org/collection/ works/34635. Zugriff am: 08.03.2022. 111 Röhrl (2013): S. 202. Obwohl er betont, Roosevelts Politik sei nicht die einzige Ursache für die Ent wicklung des Social Realism, stellt er häufig einen Zusammenhang zwischen einer sozialen Haltung und politisch motivierten Kunstprogrammen her, denn laut ihm hat auch mit neuen Wandmalerei programmen im 21. Jahrhundert »[d]er soziale Realismus eine Fortsetzung gefunden.« Vgl. Röhrl (2013): S. 286–287. 112 Lucie-Smith (2003): S. 130. 113 Röhrl verwendet eine andere Kategorisierung als Lucie-Smith. Während die etwas politischeren Soyer-Brüder bei Röhrl zum Social Realism zählen, ordnet er die weniger politische Isabel Bishop wie auch Edward Hopper der American Scene zu. Er listet die Strömung parallel zum Social Realism auf und bezeichnet sie »als moderne Form der Genremalerei«, die den »American way of life [vorführt].« Röhrl (2013): S. 212–216. Herv. i. O. 114 Vgl. Lucie-Smith (2003): S. 129–131. 115 Ebd., S. 144. 116 Vgl. Röhrl (2013): S. 214.
Realismus in der US-amerikanischen Bildkultur
Abb. 88: Raphael Soyer, A Railroad Station Waiting Room, 1940, Öl auf Leinwand, 87 x 114,9 cm. © Estate of Raphael Soyer. Nachdruck mit freundlicher Genehmigung des Nachlasses von Raphael Soyer.
Abb. 89: Isabel Bishop, Tidying Up, 1941, Öl auf Holzfaserplatte, 38,1 x 29,2 cm. © Estate of Isabel Bishop. Nachdruck mit freundlicher Genehmigung der DC Moore Gallery, New York.
Der Kunsthistoriker Brendan Prendeville stellt Bishop und die Soyer-Brüder in die Tradition der Ash Can School und nimmt in seiner Untersuchung Realism in 20th Century Painting eine entscheidende ästhetische Differenzierung zwischen den Social Realists und den Mitgliedern der Fourteenth Street Group vor: »The work of Philip Evergood, a friend of the 14th Street painters, showed a still deeper social involvement. It is notable that of the painters associated with Social Realism those whose work was most sharply political were not realists in the naturalistic sense; Ever good himself, Jacob Lawrence (b. 1917) and Ben Shahn (1898–1969) were each quite in dependent of the Ashcan tradition, unlike Bishop, Marsh and the Soyer brothers […].«117
117 Brendan Prendeville: Realism in 20th Century Painting. New York, NY: Thames & Hudson, 2000, S. 87.
271
272
Scheler: Computergrafik
Prendeville beschreibt Evergood als einen Aktivisten und einen ›leading spirit‹ verschiedener Künstlerinitiativen, unter anderem des linksgerichteten American Artists Congress,118 der sich im Jahr 1936 aufgrund der politischen Verhältnisse innerhalb Europas, insbesondere Deutschlands, formierte. Röhrl bezeichnet die Veranstaltung als »Markstein« und als »Widerstand gegen die drohende Gefahr eines Krieges und gegen den Faschismus und Rassismus im eigenen Land […].«119 Die linksgerichtete Haltung des Social Realism begann sich laut Röhrl durch einen neu auf kommenden nationalen Zusammenhalt zu Beginn des Zweiten Weltkriegs aufzulösen, sodass im Jahr 1939 zudem die Wandmalereiprogramme eingestellt wurden.120 Auch das langsame Auf kommen des Abstract Expressionism beschreibt Röhrl als relevant für diesen Umschwung, doch spätestens zu Beginn des Kalten Krieges »[hatte sich] das politische Klima […] deutlich geändert.«121 Röhrl stellt abschließend heraus, dass sich die Entwicklung des Social Realism der 1930er Jahre unabhängig von der französischen bataille réaliste des 19. Jahrhunderts vollzogen habe.
Die Strömungen des späten 20. Jahrhunderts Das dritte große Kapitel Röhrls, das den Zeitraum von 1960 bis 1989 umfasst, enthält Abschnitte zur Pop Art,122 zum Fotorealismus,123 New Realism124 und Kritischen Realismus125 sowie zu neuen Ausprägungen eines Sozialen Realismus.126 Zu Beginn stellt Röhrl die Frage, ob die Pop Art und der Fotorealismus in einer Studie über den ›Realismus‹ überhaupt berücksichtigt werden können, da sie »weder von ihrer äußeren Form noch von ihrer Theorie mit der bataille réaliste verbunden [gewesen seien] und […] zum Teil sogar aggressive Gegenkonzepte darstellten.«127 Sein Ausgangspunkt für die Klärung der Frage liegt für ihn bei Edmond Duranty und dessen Auffassung eines lebensnahen und auch kritischen Realismus, der als art critique durch den auf kommenden Wohlstand in den
118 Vgl. ebd., S. 87. 119 Röhrl (2013): S. 204. 120 Vgl. ebd., S. 208. 121 Ebd., S. 208. Als Beispiel nennt er die damalige Diskussion über die potenzielle Zerstörung der PostOffice-Fresken von Anton Refregier. 122 Vgl. Röhrl (2013): S. 263–265. 123 Vgl. ebd., S. 265–269. 124 Vgl. ebd., S. 269–270. Röhrls Auffassung von New Realism orientiert sich an den Argumentations linien von Philip Pearlstein, Sidney Tillim und Linda Nochlin. Obwohl Röhrl den New Realism später in den Kontext des Fotorealismus stellt, benennt er einige Aspekte, die es erlauben, den New Realism als ›eigenständige Strömung‹ zu betrachten. Sie zeichnet sich für Röhrl durch die Verschmelzung eines fotografieimitierenden Stils mit ›traditionellen Maltechniken‹ aus, die er jedoch nicht weiter differenziert. Er führt den Maler Fairfield Porter als einen der Hauptvertreter der Strömung an. Lucie-Smith beispielsweise arbeitet hingegen gar nicht mit dieser Kategorie. Er erkennt in Porters figurativem Stil und seiner Darstellung amerikanischer Klassenstrukturen stattdessen sozialkriti sche Züge. Vgl. Lucie-Smith (2003): S. 161. 125 Vgl. Röhrl (2013): S. 270–271. 126 Vgl. ebd., S. 271–272. 127 Ebd., S. 261.
Realismus in der US-amerikanischen Bildkultur
westlichen Ländern ab den 1950er Jahren nicht mehr benötigt zu werden scheint. Röhrl spricht sogar von einem »langsamen Verschwinden des Realismus in der Kunst […].«128 Trotz seiner sehr historischen Argumentation entscheidet er sich dazu, die Pop Art und den Fotorealismus in seine Darstellungen aufzunehmen. Er orientiert sich dabei am aktuellen Forschungsstand, der beide Strömungen größtenteils berücksichtigt.129 Den letzten zeitlichen Abschnitt von 1990 bis 2000 fasst Röhrl sehr kurz zusammen. Die realistischen Ausprägungen innerhalb der USA in diesem Zeitraum seien zum einen auf dortige Ausbildungsinstitute zurückzuführen, die noch immer vornehmlich Kunsttechniken des akademischen Realismus lehren, und zum anderen seien es bestimmte Galerien, die hauptsächlich gegenständliche Malerei präsentieren. Er spricht in diesem Zusammenhang von einem ›romantischen Impuls‹, der diese gegenständliche Malerei auszumachen scheint.130 Zudem beschreibt er eine Fortsetzung des Sozialen Realismus in Form von Wandmalereiprogrammen in verschiedenen großen US-Metropolen, wie beispielsweise dem Mural Art Program (MAP) in Philadelphia.131 Insgesamt ist über Röhrls Ausführungen zum Realismus in den USA festzuhalten, dass er ihn – wie von ihm selbst zu Beginn dargestellt – als eine überwiegend eigenständige Entwicklung betrachtet. Sein Bezugspunkt zur französischen bataille réaliste erzeugt im Hinblick auf die amerikanischen realistischen Tendenzen gelegentlich argumentative Widersprüche, da er häufig von diesem Blickwinkel abrücken muss, um abweichende Sachverhalte angemessen darstellen zu können.132 Seine Arbeitsweise steht daher in einem deutlichen Kontrast zu der Shis, dessen Darstellungen zwar ebenfalls historischen Entwicklungen folgen, der jedoch in seiner Studie zahlreiche Ansätze formuliert, die sich einer starren Kategorisierung entziehen. Er thematisiert im Gegensatz zu Röhrl beispielsweise mit einer größeren Selbstverständlichkeit eine gelegentliche Verschmelzung von Realismus und Idealismus innerhalb der amerikanischen realistischen Tradition. Shi verweist außerdem auf eine besondere Sensibilität für wissenschaftliche Fakten, die sich seiner Ansicht nach in den USA schon vor dem Bürgerkrieg – zur Zeit des Vorkriegsidealismus – entwickelt habe. Der Fortschritt der Wissenschaft »across every field of knowledge helped inspire and legitimize the realis tic movement in thought, literature, and the arts.«133 Doch obwohl Shi damit einen übergreifenden Ansatz eröffnet, versteht er seine eigene Darstellung als eine rein historische. Eine ästhetische Betrachtungsweise sei hingegen ungenügend: »I do not offer any startling new thesis about realism as a conceptual or aesthetic cate gory. No overarching interpretation can adequately encompass the diverse motives and methods associated with the realistic impulse. Instead I use the era’s preoccupa tion with ›facing facts‹ as an organizing frame within which to examine the emergence of various realistic sensibilities […].« 134
128 Ebd., S. 261. 129 Vgl. ebd., S. 262. 130 Vgl. ebd., S. 286. 131 Vgl. ebd., S. 287. Vgl. auch Fn. 111 im aktuellen Kapitel der vorliegenden Studie, S. 270. 132 Vgl. hierzu bspw. die Ausführungen zum Ash Can Realism im aktuellen Kapitel, S. 263–267. 133 Shi (1995): S. 73. 134 Ebd., S. 4.
273
274
Scheler: Computergrafik
Seine Studie liefert dennoch – im Kontrast zu Röhrls – zahlreiche Anhaltspunkte für die Betrachtung des Realismus als ›ästhetische Kategorie‹. Obwohl das aktuelle Kapitel ebenfalls keine allumfassende Interpretation realistischer Methoden zum Ziel hat, soll im anschließenden Unterkapitel ein Versuch erfolgen, übergreifende Motive herauszubilden, die losgelöst von ihrem historischen Kontext Bestand haben. Diese methodische Entscheidung kann im Sinne des amerikanischen Literaturwissenschaftlers Ward verstanden werden, der ebenfalls eine Gegenüberstellung der historischen und ästhetischen Betrachtungsweise vornimmt und empfiehlt, über eine rein geschichtliche Perspektive hinauszublicken: »The indispensable substance of realism is observable phenomena; historically, the emphasized phenomena in both literary and visual realism are public activities and in dividuals in social situations. But these phenomena – so a variety of conflicting theories maintain – must subserve or at least accommodate an ideology, an aesthetic, or an at titude toward experience that sometimes organizes and always transcends the ›mere‹ play of phenomenal energies.« 135
4.2.1.2 Realismus als ästhetische Kategorie In Anknüpfung an die zu Beginn des aktuellen Kapitels gestellten Fragen wendet sich dieses Unterkapitel nun dem ›Amerikanischen‹ zu und beobachtet, welchen Einf luss es auf den ›Realismus‹ hat. Dabei steht wie angekündigt im Vordergrund, übergreifende Themen und Parameter herauszuarbeiten, die das ›Amerikanische‹ auszeichnen und durch die sich die verschiedenen Ausprägungen des ›Amerikanischen Realismus‹ in Übereinstimmung bringen lassen. Nach einem kurzen Rückblick in das 18. Jahrhundert werden vor allem die kunsthistorischen Entwicklungen der USA beleuchtet, die sich im 19. Jahrhundert ereignet haben. Punktuell werden sie um Entwicklungen innerhalb des 20. Jahrhunderts ergänzt. Zwei Aspekte stehen hierbei besonders im Vordergrund: erstens die von Shi angesprochene schon früh entwickelte Sensibilität für wissenschaftliche Fakten und zweitens ein stark ausgeprägter Idealismus, der – wie ebenfalls Shi es darstellt – sogar in Homers realistischer Genremalerei sichtbar wird. Das ›Amerikanische‹ – so lautet deshalb die These dieses Unterkapitels – synthetisiert die gegensätzlichen Positionen des Realismus und Idealismus und drückt sich in der amerikanischen Bildsprache durch eine hohe technische Präzision aus. Die Basis der folgenden Darstellungen bildet die im Rahmen der vorliegenden Untersuchung schon mehrfach herangezogene Studie American Painting of the Nineteenth Century. Realism, Idealism, and the American Experience der Kunsthistorikerin Barbara Novak. Sie enthält wesentliche Anhaltspunkte für die vorliegende Untersuchung, da sie ebenfalls auf der Suche nach dem ›Amerikanischen‹ ist und dafür hauptsächlich auf Entwicklungen innerhalb der USA blickt: »[I]f it [die Studie] appears to raise the old question ›What is American in American Art?‹ it does so with an awareness that what is American is sometimes not as apt as how is American. For we are dealing not only with indigenous properties but with processes 135 Ward (2010): S. 5.
Realismus in der US-amerikanischen Bildkultur
of transformation of European traditions. […] What makes them indigenous is not their uniqueness to America but rather the frequency or constancy of their occurrence within continuing American traditions to which they also contribute. Certain concerns, qualities of form, and modes of procedure seem to occur again and again, though time and cir cumstances may have changed.« 136 Problematisch an Novaks Ansatz ist, dass sie den Begriff ›indigenous‹ ebenso wie die Bezeichnung ›amerikanisch‹ nicht etwa in Bezug auf die tatsächliche indigene Bevölkerung und ihre Traditionen verwendet, sondern – wie anhand ihrer Aussage deutlich wird – vielmehr für jene kulturellen Traditionen, die sich erst seit der Besiedelung des Kontinents entwickelt haben. Obwohl die vorliegende Studie sich von der Nutzung der Begriffe in dieser Weise abgrenzt, halten Novaks Beobachtungen für den Sinnzusammenhang der Computergrafiken wertvolle Erkenntnisse bereit. Sie arbeitet wesentliche Merkmale heraus, die die kulturelle Geschichte der USA paradigmatisch prägen. Wenn demnach in Zusammenhang mit Novak von indigenen oder auch einheimischen Traditionen die Rede ist, müssen die Begriffe vor diesem Hintergrund gelesen werden. Wie der Titel ihrer Studie verrät, liegt Novaks Hauptfokus auf den Entwicklungen des 19. Jahrhunderts. Sie gliedert ihre Darstellungen zwar entlang einer groben Zeitachse, beginnend mit dem Ende des 18. Jahrhunderts bis hin zu einem Ausblick in das 20. Jahrhundert, macht es jedoch zu ihrem Programm, stets Rückbezüge und Querverweise herzustellen, um die ›qualities of form‹ und ›modes of procedure‹ übergreifend darstellen zu können. Für diesen Zweck ignoriert sie bewusst häufig verwendete kunstgeschichtliche Kategorien »as, unfortunately, the historian with his necessity for labels often cannot«137. Sie verfolgt damit innerhalb der amerikanischen Kunstgeschichte einen unüblichen und radikalen methodischen Ansatz. Die meisten ihrer Kapitel wenden sich einzelnen Künstlern zu, die beispielhaft für bestimmte produktionsästhetische Aspekte stehen. Drei Abschnitte behandeln losgelöst von den Künstlern spezifische Themen: zum einen den Luminismus, dem Novak eine zentrale Rolle zuschreibt, zum anderen eine europäisch beeinf lusste malerische Tradition in Amerika und, im Epilog, die Entwicklungen des 20. Jahrhunderts mit einem Ausblick in die 1960er Jahre unter Berücksichtigung von Strömungen wie dem Abstrakten Expressionismus sowie der Pop Art.
Die Signifikanz der Dinge Novaks Darstellungen beginnen wie die Lucie-Smiths mit John Singleton Copley (1738–1815), in dessen Malerei von 1765 bis 1774 sie zum ersten Mal eine fortwährende ›American vision‹ erkennt, welche seitdem als Tradition Bestand habe: »In Copley’s art of this period, the unique relation of object to idea that characterizes so much American realism from colonial times to the present assumes forceful and explicit form.«138 Novak verwendet hier gleich zu Beginn ihrer Studie das Begriffspaar ›American realism‹, obwohl sie in der gesamten Untersuchung nur selten davon Gebrauch macht. 136 Novak (2007): S. xiii. Herv. i. O. 137 Ebd., S. 217. 138 Ebd., S. 1.
275
276
Scheler: Computergrafik
Ihren Realismusbegriff führt sie dabei auf die Limner-Tradition in den USA zurück, womit dort Künstler und Kunsthandwerker bezeichnet wurden, die seit der Besiedelung des amerikanischen Kontinents ohne akademische Ausbildung autodidaktisch tätig waren. Prägend für die Limner-Tradition sei das Bedürfnis gewesen, die ›neue Welt‹ mithilfe einer gegenständlichen Bildsprache begreif lich zu machen, eine Haltung, die seitdem tief in der amerikanischen Bildtradition verankert sei.139 Wie Novak darstellt, sei Copley aus dieser Limner-Tradition hervorgegangen, wenngleich er zusätzlich einige Jahre in Europa verbracht habe, um sich handwerklich fortzubilden.140 Besonders kennzeichnend sei für die Limner-Tradition, dass allen dargestellten Objekten oder Figuren der gleiche Stellenwert beigemessen würde, sodass die Erlebnisse, die im Bild festgehalten werden sollten, ohne jegliche Priorisierung und streng konzeptionell in eine zweidimensionale Fläche überführt wurden.141 Vor dem Hintergrund habe auch Copley seine Gemälde gefertigt. Novak bezeichnet seinen Stil als »specific kind of ideal or conceptual realism«142, was sie beispielhaft an seinem Porträt Mrs. Ezekiel Goldthwaith aus dem Jahr 1771 vorführt. (Abb. 90). Diesen spezifischen Realismus, der eine einzigartige Beziehung zwischen Objekt und Idee zum Ausdruck bringe, erkennt sie bei Copley in dieser Form zudem zum ersten Mal. Sie identifiziert ferner in der Beziehung zwischen Objekt und Idee eine spezielle kulturelle Bedeutung, die für die »American experience«143 typisch sei. Unter Bezugnahme auf den Theologen Jonathan Edwards (1703–1758) leitet sie her, dass neben dem Wort beziehungsweise dem Intellekt auch den ›Dingen‹ bereits im 18. Jahrhundert in den USA ein großer Stellenwert beigemessen worden sei.144 Wie Novak darlegt, setzte sich diese Haltung 139 Vgl. ebd., S. 1. In einer Fußnote erklärt Novak den Begriff: »The limner style was rooted not only in an indigenous craft tradition, which included such skills as sign-making, but in the linear traditions of Tudor and Jacobean England, in late sixteenth- and seventeenth-century Dutch art, and in the English seventeenth- and eighteenth-century country tradition, which perpetuated an increasingly rigid painterly convention through Van Dyck to Sir Peter Lely and Sir Godfrey Kneller, reaching the colonies largely via the mezzotint.« Novak (2007): S. 239. 140 Vgl. Novak (2007): S. 11–18. 141 Vgl. ebd., S. 1. 142 Ebd., S. 4. 143 Ebd., S. 6. Auch der Kunsthistoriker John Wilmerding und die Kunstkritikerin Karen Wilkin gehen in ihrer Biografie Fairfield Porters auf Copleys Beziehung zu den ›Dingen‹ ein: »The paradox is that the determined realist Porter […] not only belonged to the generation of America’s most radical modernist painters of the time, the abstract expressionists, but also counted some of its leading exponents among his friends and neighbors. Like them, he embraced a version of radical modernist values, yet, unlike them, his conception of what a picture could be allies him with a long American multidisciplinary tradition of fascination with the particulars of things as they are. Think of John Sin gleton Copley’s orchestrations of meticulously rendered textures in the 18th century or of Thomas Eakins’s uncompromising portraits in the 19th […].« John Wilmerding; Karen Wilkin: Fairfield Porter. New York, NY: Rizzoli, 2016, S. 33. 144 Edwards nahm sogar eine Dreiteilung vor. Auf der ersten Ebene stand die ›Idee‹, auf der zweiten das ›Ding‹ und auf der dritten Ebene das ›Zeichen‹ oder auch das ›Wort‹, zwei Begriffe, die er über wiegend synonym verwendet. Zeichen sind in seinen Augen häufig das Einzige, das wahrgenom men wird, denn »there is very often no actual idea of those things when we are said to think of them, and that the thought is not employed about things themselves immediately, or immediately exercised in the idea itself, but only some sign that the mind habitually substitutes in the room of the idea.« Jonathan Edwards: 782. Ideas. Sense of the Heart. Spiritual Knowledge or Conviction.
Realismus in der US-amerikanischen Bildkultur
Abb. 90: John Singleton Copley, Mrs. Ezekiel Goldthwaith (Elizabeth Lewis), 1771, Öl auf Leinwand, 127,32 x 101,92 cm.
bei Ralph Waldo Emerson im 19. Jahrhundert fort, wobei für ihn vor allem die Natur in den Vordergrund seiner Überlegungen rückte. Die Bedeutung, die die Natur für ihn entwickelte, wird im folgenden Abschnitt erneut intensiv thematisiert. Zentral ist hier zunächst der Aspekt, dass Emerson davon ausging, das sinnliche Erleben der Natur führe zu einer tieferliegenden Wahrheit. Sich in der Natur aufzuhalten, bedeutete, sich mit der Einheit der Welt zu verbinden.145 Die physische Präsenz der Natur hatte also, wie Novak darstellt, für die Transzendentalisten eine besondere Bedeutung: Faith. In: Works of Jonathan Edwards Online. The Miscellanies, Bd. 18. Hrsg. v. Ava Chamberlain. New Haven, CT: Yale University Press, 2008, S. 452–466, hier S. 454. URL: http://edwards.yale.edu/ archive?path=aHR0cDovL2Vkd2FyZHMueWFsZS5lZHUvY2dpLWJpbi9uZXdwaGlsby9nZXRvYm plY3QucGw/Yy4xNzo0OjI4Mi53amVv. Zugriff am: 29.09.2017. 145 Emerson beschreibt in seinem Hauptwerk Nature, das ›Universum‹ setze sich aus der ›Natur‹ und der ›Seele‹ zusammen. Die Seele sei dabei das immaterielle ›Selbst‹ eines jeden Individuums, während der menschliche Körper – wie alle materiellen Dinge und auch die Kunst – zur Natur zähle. Er ver wendet die Bezeichnung jedoch ebenfalls in Bezug auf die Pflanzen- und Tierwelt. Emerson macht darüber hinaus Gebrauch von dem Begriff ›world‹, wobei er ihn unter Bezugnahme auf die altgrie chische Bezeichnung kósmos mit der ›Schönheit‹ in Verbindung bringt und ihn häufig anstelle von ›universe‹ und ›nature‹ verwendet. Vgl. Ralph W. Emerson: Nature (1836). In: The Collected Works of Ralph Waldo Emerson. Volume I: Nature, Addresses, and Lectures. Hrsg. v. Robert E. Spiller und Al fred R. Ferguson. Cambridge, MA: London: Belknap Press of Harvard University Press (The Collected Works of Ralph Waldo Emerson, Bd. 1), 1971, S. 7–45, hier S. 8 und S. 12. In Emersons Ausführungen zur ›Schönheit‹ wird sein Verständnis von der universellen Einheit besonders deutlich, denn die ›Schön heit‹ ist für ihn das verbindende Element zwischen den unterschiedlichsten Eigenschaften der Natur: »Nothing is quite beautiful alone: nothing but is beautiful in the whole. A single object is only so far
277
278
Scheler: Computergrafik
»To the transcendental mind, object and idea were one, and all matter was an exten sion of God. Thus the landscape artists, and especially the luminists after Copley, could value the smallest fact in nature – the leaf, the pebble in the foreground of a Heade landscape – and embrace also the larger equivalence of God with nature through the infinite space of a Kensett distance of the other-worldly light of a Bierstadt sky.« 146 Insgesamt sei die Wertschätzung der gottgegebenen Natur besonders im 19. Jahrhundert in den USA für die ästhetische Auseinandersetzung mit der Umwelt überaus prägend gewesen. Der künstlerische Ausdruck sei deshalb, so Novak, zu jener Zeit wenig von romantizistischen Tendenzen geprägt und hielt sich deshalb damit zurück, die von Gott erschaffene Welt völlig frei zu imaginieren und zu stark zu verändern. Sie sollte so dargestellt werden, wie sie ist.147 Zu Beginn des vierten Teils der vorliegenden Studie wurde diese Dynamik in Zusammenhang mit Thomas Cole ebenfalls thematisiert. Auch er musste sich dafür rechtfertigen, sich gelegentlich zu weit von der vorgefundenen Realität zu entfernen. Romantizistische Elemente seien, so Novak, im 19. Jahrhundert – wenn überhaupt – in Form von »super-real techniques«148 in Erscheinung getreten, ähnlich wie sie auch für den Surrealismus im 20. Jahrhundert kennzeichnend sind, für den wiederum das Imaginäre einen der zentralen Ausgangspunkte darstellte. Obwohl nun die religiösen und moralischen Vorstellungen heute nicht mehr gelten, kommt Novak zu dem Schluss, die besondere Beziehung zu den Dingen überdauere in den USA bis heute: »Americans are still uniquely aware of things. For the need to grasp reality, to ascertain the physical thereness of things seems to be a necessary component of the American experience. […] From the very beginning, artists in America have tried to create mea surable certainties and have utilized scientific, mathematical, and mechanical aids to achieve their aims.« 149 Bei Copley äußerte sich diese sehr technische Herangehensweise an seine Porträts etwa darin, dass er, wie Novak darstellt, die darzustellenden Personen viele Male traf, bevor er deren Persönlichkeiten mit streng konzeptionellen Methoden in ein Gemälde zu übersetzen versuchte.150 Die Relevanz der Dinge und die damit zusammenhängende Verbindung zwischen ›Objekt‹ und ›Idee‹ oder ›Konzept‹ eröffnet nun eine erste Antwort auf die Frage, was das ›Amerikanische‹ im ›Amerikanischen Realismus‹ auszeichnet. Entsprechend der beautiful as it suggests this universal grace.« Der Künstler gebe als Medium diese Schönheit wieder, weshalb er weiter ausführt: »The poet, the painter, the sculptor, the musician, the architect, seek each to concentrate this radiance of the world on one point, and each in his several work to satisfy the love of beauty which stimulates him to produce. Thus is Art, a nature passed through the alembic of man. Thus in art, does nature work through the will of a man filled with the beauty of her first works.« Emerson (1971a): S. 17. 146 Novak (2007): S. 6. 147 Vgl. ebd., S. 7. 148 Ebd., S. 7. 149 Ebd., S. 7. Herv. i. O. 150 Vgl. ebd., S. 7.
Realismus in der US-amerikanischen Bildkultur
zu Beginn des Kapitels formulierten These, die typisch ›amerikanische‹ Bildsprache würde Realismus und Idealismus miteinander vereinen und mit einer Sensibilität für technische Präzision zum Ausdruck gebracht werden, liefert David Shi eine treffende Darstellung von der Zusammenkunft eines faktenbezogenen Realismus und eines transzendentalen Idealismus. Obwohl er eine rein ästhetische Auseinandersetzung mit dem Phänomen des Realismus für ungenügend hält, stellt er heraus: »This romantic celebration of the actualities of common life, however tentative, vicari ous, or celestial, greatly expanded the range of cultural expression. By embracing the aesthetic significance of their everyday surroundings, the Transcendentalists nudged the boundary of idealism toward the border of realism.« 151 Wie hier bei Shi zum Ausdruck kommt, erinnert die transzendentale Hinwendung zu den gewöhnlichen Dingen einerseits an den historisch motivierten Realismus, in dem es ebenfalls darum ging, das alltägliche Leben zu zeigen. Zugleich wird bei Shi ebenfalls deutlich, dass die Objekte, ähnlich wie es Novak ebenfalls beschreibt, gerade im Transzendentalismus eine idealisierende Aussage beinhalten, da jedes Objekt als Idee für die Gesamtheit des Universums steht. Shi sieht in dieser Zusammenkunft durchaus auch einen Widerspruch, weshalb er schlussfolgert: »[W]hat makes the Transcendentalists so compelling – and baffling – are their contra dictory impulses. While searching for a mystical union of their souls with the Universal Being, they also celebrated the essential dignity and beauty residing in common things and common experiences. They believed it possible to unite the common and the di vine, to produce a fertile synthesis of the real and the ideal.« 152 Die hier von Shi angesprochene Synthese von Realismus und Idealismus soll im Folgenden genauer beleuchtet werden. Shi kommt in seiner Studie regelmäßig auf diese Synthese zu sprechen, beispielsweise in Bezug auf Walt Whitman, der Emersons Philosophie aufmerksam verfolgte.153 Shi etabliert damit eine Argumentationslinie, die mit der Novaks vergleichbar ist, wobei sie bei ihr zum Programm wird. Sie nennt das Kapitel über Thomas Cole, der sich zur Aufgabe machte, einen ›characteristic spirit‹ der Natur einzufangen, ›The Dilemma of the Real and the Ideal‹, denn »[he] was antici pating a concept of synthesis, in which form clothes idea […].«154 Das Dilemma bezieht sich auf Coles Problem, dass Kritiker und Mäzene von ihm einerseits forderten, keinen zu großen Einfallsreichtum walten zu lassen, während sie andererseits mehr als reine Imitationen von ›Gottes Werk‹ verlangten.155
151 Shi (1995): S. 20. 152 Ebd., S. 20. 153 Vgl. ebd., S. 29, und vgl. Catherine Tufariello: »The Remembering Wine«: Emerson’s Influence on Whitman and Dickinson. In: The Cambridge Companion to Ralph Waldo Emerson. Hrsg. v. Joel Porte und Saundra Morris. Cambridge, UK: Cambridge University Press, 1999, S. 162–191. 154 Novak (2007): S. 49. 155 Vgl. ebd., S. 43.
279
280
Scheler: Computergrafik
Die Synthese des Realen und Idealen Laut Novak sind es die Vertreter der Hudson River School – insbesondere Asher B. Durand – die eine besonders bezeichnende »hybrid aesthetic of the real-ideal«156 entwickeln. In Bezug auf Durands Technik thematisiert sie gleichzeitig zum ersten Mal den in Amerika auf kommenden Pleinairismus, der für sie, wie eingangs beschrieben, mit dem ›objektiven‹ Erfassen der Natur, wie des Wetters und der Lichtstimmung, eine Form des ›perceptual realism‹ darstellt. Sie zieht in diesem Kontext eine Linie zu den parallelen Entwicklungen in Frankreich, genauer zu Gustave Courbet: »[Durands] studies from nature in the 1850s are as vanguard in realistic observation as are Courbet’s at the same time or slightly later in France.«157 Wie Courbet in Frankreich gilt Durand für sie in Amerika als Vorbote für den Impressionismus. Sie betont jedoch zugleich, dass Durand, trotz seiner ›objektiven‹ und ›realistischen‹ Herangehensweise, hauptsächlich »cliché compositions«158 im Sinne der Hudson River School angefertigt habe. Seine Malerei weise sogar Parallelen zu der etwas später entstandenen Strömung des Luminismus auf, da sein Umgang mit Licht häufig auch »poetic rather than analytic«159 gewesen sei. In seinem Gemälde Study from Nature: Stratton Notch, Vermont vereine er mit einem pastosen Stil im Vordergrund und einem sehr linearen Stil im Hintergrund impressionistische mit luministischen Eigenschaften (Abb. 91).160 Obwohl das Licht in beiden Ausdrucksformen eine maßgebliche Rolle einnimmt, trifft Novak eine entscheidende Differenzierung: »If we say that Impressionism is the objective response to the visual sensation of light, then perhaps we can say that luminism is the poetic response to the felt sensation.«161 Sie verweist im Anschluss auf die unterschiedlichen Entwicklungen des Impressionismus und den damit verbundenen Zugriff auf das Licht in beiden Regionen. In Amerika habe der Sinn für das ›Reale‹ wie auch in Europa zwar allmählich das Bedürfnis nach ›Idealismus‹ abgelöst, in den USA habe jedoch stets der Sinn für beides überlebt: »The American necessity for the ideal, for ›sentiment,‹ which needs but a touch of pro fundity to become ›lyricism,‹ militated against an objective, analytic dissection of God’s world. Sunlight, as a divine attribute, could hardly be broken down into the light rays of the spectrum. God’s rocks could not be dissolved (the conceptual integrity of form had to be maintained), nor could they really lose their local color. The road to Impressionism as coloristic analysis and dissection was, despite all atmospheric observations, blocked to American painters.« 162 156 Ebd., S. 59. 157 Ebd., S. 62. 158 Ebd., S. 62. 159 Ebd., S. 62. 160 Novak erkennt in Winslow Homers The Bridle Path, White Mountians (1868) vergleichbare Eigenschaf ten wie bei Durand: »Homer incorporates along with this painterly realism a luminist distance that radiates a diffused glare quite different in character from the palpable sun that strikes upon the horse and rider.« Novak (2007): S. 144. 161 Novak (2007): S. 67–68. Herv. i. O. 162 Ebd., S. 69. Novak führt einen weiteren Vergleich zwischen Martin Johnson Heade auf der einen und Gustave Courbet sowie Claude Monet auf der anderen Seite an. Die impressionistische Heran
Realismus in der US-amerikanischen Bildkultur
Abb. 91: Asher B. Durand, Study from Nature: Stratton Notch, Vermont, 1853, Öl auf Leinwand, 45,7 x 60,3 cm.
Für Novak erscheint es deshalb schlüssig, dass sich aus dieser Haltung – anstelle eines ausgeprägten amerikanischen Impressionismus – der Luminismus entwickelte. Gedanklich stand die Strömung dem Transzendentalismus Emersons nahe. Ähnlich wie es sich bei Copley im 18. Jahrhundert abzeichnete, rückt der Künstler im Luminismus durch einen kaum vorhandenen Pinselstrich in den Hintergrund, Personen werden nur klein dargestellt und nehmen den gleichen Stellenwert ein wie die Natur, die sie umgibt.163 Fitz H. Lanes Gemälde Owl’s Head, Penobscot Bay, Maine vereint alle diese Qualitäten (s. Abb. 77, S. 253). Die Synthese des Realen und Idealen erscheint in der Verbindung eines analytischen Scharfsinns, mit dem die dargestellte Szenerie so präzise wie möglich wiedergegeben wird, und einem Leuchten, das einerseits die physikalischen Eigenschaften des Lichts wiedergibt und dem andererseits eine mystische Kraft innewohnt.164
Luminismus Novak schreibt dem Luminismus eine zentrale Rolle innerhalb der amerikanischen Kunstgeschichte zu. Obwohl es sich bei der Strömung in erster Linie um Landschaftsmalerei handelt, erkennt sie Aspekte davon auch in anderen malerischen Traditionen. Sie bezeichnet die Strömung als »one of the most truly indigenous styles in the history of American art, a way of seeing so intimately related to the artist’s idea of world and his relation to it that it can be identified not only in landscape painting but also in still life, genre, and portraiture.«165 Sie zieht in diesem Kontext Baur heran, dessen Luminismus-Definition in seinem Essay American Luminism aus dem Jahr 1954 laut Novak gehensweise dieser Maler weist neben einiger Übereinstimmung auch entscheidende Unterschiede auf: »Monet’s dissolution of the object, though abstract and conceptual in result, was the logical end point of Impressionist analysis of the thing fragmented by light – an analysis that would, as we have said, have represented to American artists a basic disregard for matter.« Novak (2007): S. 106–107. 163 Vgl. Novak (2007): S. 99. 164 Vgl. ebd., S. 83. 165 Ebd., S. 74.
281
282
Scheler: Computergrafik
noch immer Gültigkeit besitzt. Baurs Auffassung nach habe der Luminismus nicht nur einen Sinn für das Licht entwickelt, sondern ebenfalls für die ›Dinge‹ in der Natur. Der luministische Künstler werde im Sinne Emersons zum ›transparent eyeball‹166 und bleibe völlig anonym. Er übernehme lediglich die Rolle des Vermittlers, indem er sein Gefühl direkt auf ein dargestelltes Objekt übertrage. Novak fasst Baurs Gedanken über den Luminismus folgendermaßen zusammen: »It is thus a realism that goes far beyond ›mere‹ realism, to be touched, in some instances, with super-real overtones and, in others, to register that magnified intensity that turns realism into a form of impersonal expressionism.«167 Die horizontale Komposition vieler luministischer Gemälde und die Anordnung einzelner perspektivisch versetzter Bildebenen, die parallel zur Leinwandoberf läche Tiefe erzeugen, beschreibt Novak als eine beinahe mathematische Herangehensweise. Der Künstler werde zu einer »clarifying lens«168, die es dem Betrachter ermöglicht, dem Gemälde unmittelbar zu begegnen. Da die besondere Sensibilität für Maß und technische Präzision eine wesentliche Eigenschaft des Luminismus ist, sei nicht auszuschließen, dass mechanische Hilfsmittel für die Komposition der Bilder verwendet wurden. Über die Vorgehensweise des »purest luminist«169, Fitz H. Lane, wird in der Forschung angenommen, er habe Gebrauch von einer Camera obscura oder Camera lucida gemacht. Novak führt in diesem Zusammenhang auch Thomas Eakins an, dessen Ruderbilder ebenfalls im Kern luministischen Charakteristika entsprächen. Beide, Lane und Eakins, haben Fotografien und technische Zeichnungen für ihre Gemälde als Hilfsmittel verwendet, um ihren ohnehin konzeptionellen Bildern wissenschaftliche Präzision zu verleihen. In Eakins’ Perspective Studies for »John Biglen in a Single Scull« ist beispielsweise ein zentralperspektivisch angelegtes Raster zu erkennen, mithilfe dessen Eakins die Tiefenebenen in seinem Bild akribisch plante (Abb. 92–94). Novak zählt zudem zahlreiche Maler auf, die neben ihrer künstlerischen Tätigkeit gleichzeitig als Erfinder gewirkt haben.170 Sie bezieht sich in diesem Kontext auf die Amerikanisten John A. Kouwenhoven und Leo Marx, da sich beide intensiv mit der Rolle der Technologie innerhalb der USA auseinandergesetzt haben.171 In Gegenüberstellung zu europäischen Entwicklungen spricht Kouwenhoven in seiner Monografie Made in America. The Arts in Modern Civilization über den bedeutenden Einf luss der Technologie auf die Entwicklung der Kunst innerhalb der Vereinigten Staaten:
166 Emerson etabliert diese Formulierung in seinem Essay Nature und bezieht sich damit auf die Auf lösung des Selbst innerhalb der Natur und die Transformation zum alles erkennenden Medium: »Standing on the bare ground, – my head bathed by the blithe air, and uplifted into infinite space, – all mean egotism vanishes. I become a transparent eye-ball. I am nothing. I see all. The currents of the Universal Being circulate through me; I am part or particle of God.« Emerson (1971a): S. 10. 167 Novak (2007): S. 76. Vgl. zudem John I. H. Baur: American Luminism. In: Perspectives USA 9, 1954, S. 90–98, hier insbes. S. 90 und S. 98. 168 Novak (2007): S. 76. 169 Ebd., S. 86. 170 Vgl. ebd., S. 86. 171 Vgl. John A. Kouwenhoven: Made in America. The Arts in Modern Civilization. Garden City, NY: Dou bleday & Company, Inc., 1949; vgl. Marx (2000).
Realismus in der US-amerikanischen Bildkultur
Abb. 92: Thomas Eakins, John Biglin in a Single Scull, ca. 1873, Aquarell, 42,9 x 60,8 cm.
Abb. 93: Thomas Eakins, Perspective Studies for »John Biglen in a Single Scull«, ca. 1873, Graphit, Feder und braune Tinte sowie Pinsel, 69,5 x 114,9 cm.
Abb. 94: Fitz Henry Lane, Steamer »Harvest Moon«, Lying at Wharf in Portland, 1863, Graphit über Fotografie auf Papier, 24,8 x 26,7 cm.
283
284
Scheler: Computergrafik
»Their importance [die der amerikanischen Künste] lies in the fact that because they are American, and because America is [...] the only major world power to have taken form as a cultural unit in the period when technological civilization was spreading throughout the world – because of both these facts the arts in America reveal, more clearly on the whole than the arts of any other people, the nature and the meaning of modern civilization.« 172 Der Einf luss des technischen und wissenschaftlichen Fortschritts auf die amerikanische Kunst wird im Luminismus in aller Deutlichkeit sichtbar. Da Novak in der Strömung die erste wirklich ›einheimische‹ künstlerische Tradition erkennt, stellt sich die Frage, ob und inwiefern die Verbindung von Technologie und Kunst auch über den Luminismus hinaus in der Kunst überdauert hat. Laut Novaks Hauptthese seien viele typisch luministische Qualitäten in späteren Strömungen noch sichtbar: »Throughout the history of American painting, from Copley to the present, aspects of this luminist vision have endured. The quality of artistic anonymity, the concern with the fact of the physical object, with its thingness and thereness, are continuous right up to the bland surfaces of much art in the 1960s.« 173 Der den Luminismus prägende ›wissenschaftliche Idealismus‹ setzt sich bei genauerer Betrachtung aus einzelnen differenzierteren Merkmalen zusammen, die im Folgenden – und dies ist für den gedanklichen Ansatz der vorliegenden Studie von zen traler Bedeutung – als übergreifende ästhetische Elemente aufgeführt und anhand von Beispielen veranschaulicht werden. Dabei werden die bereits angesprochenen Aspekte des ›Lichts‹ und der ›Fotografie‹ um die Themen der ›Nostalgie‹ und ›Stille‹ ergänzt. Sie haben bisher kaum Erwähnung gefunden, sind jedoch eng mit den ersten beiden Aspekten verknüpft.
Das ästhetische Fortleben des Luminismus Das Anliegen vieler amerikanischer Künstler »to create measurable certainties« mithilfe von »scientific, mathematical, and mechanical aids« 174 führte dazu, dass die Erfindung der Fotografie in den USA einen ganz anderen Ef fekt erzielte als in Europa. Während sie die europäische Malerei von ihrer eigentlichen Aufgabe ›befreite‹ und
172 Kouwenhoven (1949): S. 6. 173 Novak (2007): S. 76. Auch der Kunsthistoriker John Wilmerding bezeichnet in seiner Studie über den Luministen Fitz H. Lane Novaks Argumentationslinie als provokant, er stimmt Novak jedoch ausdrücklich zu: »Probably the most important recent scholarship devoted to Lane has been that of Barbara Novak in her book American Painting of the Nineteenth Century. She has raised some provocative and fascinating ideas about the meaning of measurement in Lane’s painting; the self-trained, primitive qualities of some of his work; and his af finities to Emerson, especially with regard to the relationship of the physical and the spiritual in their respective views of nature.« Wil merding (1971): S. 15. Herv. i. O. 174 Novak (2007): S. 7.
Realismus in der US-amerikanischen Bildkultur
damit in eine neue Richtung lenkte,175 wurde sie, wie zu Beginn des Kapitels dargestellt, in den USA als Hilfsmittel eingesetzt, um auch innerhalb der Kunst ›objektive Wahrheiten‹ zu erzeugen. Thomas Eakins’ intensive Anatomiestudien und die Verwendung der Fotografie als Hilfsmittel stehen besonders beispielhaft für die ausgeprägte Fakten-Affinität innerhalb des 19. Jahrhunderts. Er führte – ähnlich wie Eadweard Muybridge – Bewegungsstudien durch, in denen Novak das ursprüngliche amerikanische Bedürfnis nach einer ›fixierten Realität‹ erkennt.176 Die Maßnahmen, die Eakins für das Einfangen der Realität ergriff, wurden sogar zunehmend als rebellisch wahrgenommen, beispielsweise weil er in seiner Funktion als Lehrer seine weiblichen Studentinnen mit männlichen Aktmodellen konfrontierte oder sich sogar selbst entkleidete.177 Auch über das 19. Jahrhundert hinaus hat, wie Lucie Smith es erläutert, die Fotografie einen besonderen Stellenwert: »American art of the twentieth century has conducted a long and complex dialogue with the camera.«178 Zahlreiche bedeutende Strömungen der amerikanischen gegenständlichen Malerei haben von der Kamera Gebrauch gemacht: Neben den Vertretern der Ash Can School, die am Anfang des Jahrhunderts für ihre Entwürfe ›new snapshot cameras‹ verwendet haben,179 lassen sich auch die Precisionists, besonders Charles Sheeler und Georgia O’Keef fe, hervorheben (Abb. 95 & 96): »Sheeler’s compositions, among them the famous Rolling Power, are based directly on his own photographs. Georgia O’Keeffe, closely allied to the Precisionist group, was influenced by the work of her husband Alfred Stieglitz (1864–1946), one of America’s most celebrated photographers. Her close-up images of flowers […] clearly owe much to photographic exemplars.« 180 Die Affinität für technologischen Fortschritt innerhalb der amerikanischen Kultur nahm nicht nur auf die Entwicklung der Kunst großen Einf luss, sie prägte auch in allgemeinerem Sinne das Leben der amerikanischen Bevölkerung. Kouwenhoven stellt dar, dass schon vor der Industriellen Revolution die Erschließung des ›unberührten‹ Kontinents eng mit technologischem Fortschritt verzahnt war: »Many people, including a good many historians, like to think of the United States as hav ing been a nation of farmers and handicrafters, relatively untouched by the so-called Industrial Revolution, during a great part of its formative period. And it is, of course, true that until about the time of the Civil War the nation’s economy was predominantly 175 Marshall McLuhan äußert sich beispielsweise dazu: »Die größte Umwälzung aber führte die Foto grafie wohl in der traditionellen Kunst herbei. Der Maler konnte nicht mehr eine Welt darstellen, die schon so oft fotografiert wurde. Er wandte sich stattdessen der Enthüllung der inneren schöpferi schen Prozesse zu, wie sie im Impressionismus und der abstrakten Kunst zum Ausdruck kommen.« McLuhan (1995): S. 297. 176 Vgl. Novak (2007): S. 163–165. 177 Vgl. Shi (1995): S. 144–145. 178 Lucie-Smith (2003): S. 15. 179 Vgl. ebd., S. 15. 180 Ebd., S. 15. Herv. i. O.
285
286
Scheler: Computergrafik
Abb. 95: Charles Sheeler, Rolling Power, 1939, Öl auf Leinwand, 38,1 x 76,2 cm.
Abb. 96: Georgia O’Keef fe, Black Iris, 1926, Öl auf Leinwand, 91,4 x 75,9 cm.
based upon agriculture. But it is easy to overestimate the agrarian aspects of our early history, and it is well to be reminded that in significant respects our civilization has from the beginning been dependent upon technology.« 181 Technologischer Erfindergeist war demnach eine Grundvoraussetzung für die Entwicklung einer Zivilisation in der ›neuen Welt‹. Neben dieser großen Chance, auf einem neuen Kontinent einen Neubeginn zu wagen, führte dieser Umstand gleichzeitig zu einer Entwurzelung von der ursprünglichen, europäischen Tradition. Als Immigrationsland wurde der Bevölkerung also seit der ersten Besiedelung die Aufgabe auferlegt, eine neue Kultur zu schaffen, und wie es sich einer Schilderung des Historikers Volker Depkat entnehmen lässt, war dieser Prozess auch im 19. Jahrhundert noch nicht abgeschlossen. Er beschreibt die kulturelle Entwicklung nach den Migrationsbewegungen innerhalb der Jahre 1848 und 1849:
181 Kouwenhoven (1949): S. 5.
Realismus in der US-amerikanischen Bildkultur
»Die verschiedenen Einwanderungsgruppen behielten viele Elemente ihrer Heimat kulturen teils über mehrere Generationen hinweg bei. […] Gleichzeitig übernahmen sie mit fortschreitender Zeit auch viele Elemente aus ihrem neuen nordamerikanischen Umfeld. So entstanden spezifisch deutsch-amerikanische, schwedisch-amerikanische oder iro-amerikanische Subkulturen in den USA, die immer weniger mit den Lebensfor men der Heimatländer zu tun hatten, sondern diese ›Heimat‹ vielfach überhaupt erst neu erfanden.« 182 Diese historische Darstellung lässt sich auch mit einer ästhetischen Entwicklung in Übereinstimmung bringen, was sich beispielsweise mithilfe des Malers William M. Harnett veranschaulichen lässt, der 1848 in Irland geboren wurde und im Alter von einem Jahr mit seiner Familie in die USA nach Philadelphia ausgewandert ist.183 Er kann daher zu der von Depkat beschriebenen Generation gezählt werden, die ihre Heimat neu erfinden musste. Novak erkennt in Harnetts Bildern ein Nostalgiegefühl, das sie auf dieses Neuerfinden zurückführt. Ihrer Auffassung nach ist die Darstellung von Patina und Abnutzung in der amerikanischen Bildkultur eine typisch amerikanische Entwicklung, weshalb das »ruined object« – »quite apart from similar European practices«184 – insbesondere in der amerikanischen Tradition beheimatet war. Auch für William M. Harnetts Sillleben ist diese Ausdrucksweise charakteristisch, wie sich beispielsweise anhand seines Gemäldes The Old Violin veranschaulichen lässt. Das Bild zeigt eine an einer Holzwand oder -tür hängend angebrachte Violine. Sie verdeckt zum Teil ein dahinter befestigtes Notenblatt und ist ansonsten umrahmt von rostigen Scharnieren und einem Briefumschlag links unterhalb des Instruments. Der Lack auf der Tür ist zum Teil zerkratzt und blättert ab, die unterschiedlichen Papierelemente weisen Risse und Knicke auf. Ein Teil der Scharniere ist zudem herausgebrochen. Harnett inszeniert in seinem Gemälde also ebenfalls eine künstliche Nostalgie (Abb. 97): »Nostalgia is a way of civilizing the past, especially interesting in America, a country ›without a past,‹ since it involves inventing that missing past. Initially, as with Cole, nos talgia took the conventional form of grafting onto the limited repertory of American subjects the traditions of Greece and Rome. Ultimately, that nostalgia transferred it self to America’s own past. […] But […] the taste for the picturesque eventually extended from the antique ruin to the ruined thing, so that a whole syntax of nostalgia was avail able for still life and, ultimately, for assemblage.« 185 Der Unterschied zwischen diesen hier von Novak beschriebenen Entwicklungen in den USA und den von ihr angesprochenen europäischen Praktiken lässt sich etwa anhand einer Argumentationslinie veranschaulichen, die der Kunsthistoriker Thomas Lange in seiner Auseinandersetzung mit der ebenfalls im 19. Jahrhundert, jedoch in Deutschland verankerten romantischen Tradition des Ruinenbilds verfolgt. So entwickelt Lange eine Ästhetik der Ruinen vor dem Hintergrund selbsttätiger 182 Volker Depkat: Geschichte der USA. Stuttgart: Kohlhammer, 2016, S. 100. 183 Vgl. Alfred V. Frankenstein: After the Hunt. William Harnett and Other American Still Life Painters 1870–1900. Berkeley, CA: University of California Press, 1953, S. 4. 184 Novak (2007): S. 192. 185 Ebd., S. 192. Herv. i. O.
287
288
Scheler: Computergrafik
Abb. 97: William M. Harnett, The Old Violin, 1886, Öl auf Leinwand, 96,5 x 60 cm.
Abb. 98: Walter T. Murch, The Circle, 1948, Öl auf Leinwand, 66 x 55,9 cm.
Realismus in der US-amerikanischen Bildkultur
Praktiken, womit er darstellen möchte, dass Ruinen, die etwa von Malern wie Caspar David Friedrich (1774–1840) in Gemälden thematisiert wurden, sich in einem dialektischen Zustand zwischen Kunst und Natur befinden. Die menschengemachten Kulturgüter, durchsetzt von natürlichen Verfallsprozessen, entwickelten daher eine »neue ästhetische Bedeutung, die von selbst entsteht.«186 Dieses ›von selbst‹ gilt für die Verfallsästhetik der US-amerikanischen Gemälde nicht mehr. Hier ist es hingegen zentral, Objekten lediglich den Anschein zu verleihen, als seien sie aus einem autopoietischen ästhetischen Prozess hervorgegangen. Bis in das 20. Jahrhundert hält sich diese Thematik in der US-amerikanischen Kunst aufrecht. Walter Tandy Murch (1907–1967), der ebenfalls Stillleben anfertigte, erzeugt beispielsweise in The Circle (1948) einen nostalgischen Bezug zur Vergangenheit, indem er, anders als Harnett, nicht dem Verfall ausgesetzte Objekte imitiert, sondern die sich verändernde Ästhetik einer alternden Fotografie (Abb. 98). LucieSmith schildert seine Vorliebe für die »special qualities possessed by old photographs, and in particular to the way in which their very defects – fading, scratches and stains – made them expressive by demon strating how the moment frozen by the camera was, despite all efforts to retain it, inex orably vanishing into the past.« 187 Lucie-Smith schlägt schließlich eine Brücke von Murch zu John F. Peto, der wie auch John Haberle zur Zeit Harnetts gewirkt hat und vergleichbare Stillleben, meist sogenannte ›Letter Racks‹, anfertigte.188 Vergleichbar mit den Luministen verschwindet die Handschrif t dieser Maler hinter ihrer illusionistischen Darstellungsweise, womit die Bilder letztlich einen abstrakten Charakter annehmen. Novak führt ihren Gedanken vom ›taste for the picturesque‹ und der ›assemblage‹ weiter zum Realitätsbegrif f der kubistischen Kollage sowie zu Dada und entfaltet ihn anhand Har netts Technik:
186 Thomas Lange: Orientierungen an den Leerstellen der Geschichte. Zum Verhältnis von Gewordenem und Gemachtem in Ruinenbildern der Romantik. In: von selbst. Autopoetische Verfahren in der Äs thetik des 19. Jahrhunderts. Hrsg. v. Friedrich Weltzien. Berlin: Reimer, 2006, S. 75–95, hier S. 81. 187 Lucie-Smith (2003): S. 159. 188 Der Kunstkritiker Alfred V. Frankenstein nennt sie ›card racks‹ und verweist auf ihre lange Tradi tion, die bis zu dem belgischen Künstler Wallerant Vaillant und seinem Gemälde Ein Brett mit Briefen, Federmesser und Schreibfeder hinter roten Bändern (1658, Öl auf Papier auf Leinwand, 51,5 x 40,5 cm, Gemäldegalerie Alte Meister, Dresden) zurückgeht. Es sei das erste bekannte Bild dieser Art. Fran kenstein (1953): S. 53. Lucie-Smith nennt Vaillant nicht, beschreibt aber generelle inhaltliche Unter schiede zwischen der amerikanischen und europäischen Stillleben-Tradition. Er liefert einen An satz, der einen Bogen zum amerikanischen Transzendentalismus schlägt: »Recent commentators have been at pains to tease out the Vanitas theme in the American still-life and trompe-l’oeil painting of the late nineteenth century. This reference to mortality was inherent in the European still-life tra dition, and Harnett at least was not averse to using traditional Vanitas symbols, such as the skull. Yet it can also be said that many of these works achieve their force because they eschew transcendental overtones. They are reflections of a new American materialism, barely mitigated by moments of sentimental nostalgia.« Lucie-Smith (2003): S. 48. Herv. i. O.
289
290
Scheler: Computergrafik
»He so exactly superimposes reality and abstraction that they obscure one another. […] Harnett, it seems, received a complete reciprocal system, in which his objects depend for their reality on abstraction, and abstraction depends for its perfection on objects. This is another way of saying that he made such distinctions irrelevant, and speaking of his pictures in terms of either reality or abstraction does them violence. They are both and neither; that is, at their best, they are perfect pictures.« 189 Obwohl sich die vorliegende Studie von Novaks Formulierung eines ›perfekten Bildes‹ abgrenzt, wird anhand ihrer Einordnung von Harnetts Gemälden als abstrakte Kompositionen erneut deutlich, inwiefern sich die in den USA verankerten repräsentativen malerischen Tendenzen häufig nur mit den von Baur so bezeichneten elastischen Kategorien ›einfangen‹ lassen. Nicht zuletzt verwundert es deshalb auch nicht, dass Novak in Harnetts Technik auch eine Fortführung der luministischen Tradition ausmacht: »The perception of objects is similarly intense, the hermeticism invokes a similar silence, the removal of the artist is as radical and complete. The distant wall of light in luminism is replaced in Harnett’s work by the boards and doors from which the objects hang. But the mode of vision, in its tonal sophistication, is similar enough to speak of a constant style.«190 Die Aspekte der Stille und des Lichts, die Novak hier anspricht, sind – auch in Kombination – wiederkehrende Merkmale innerhalb der amerikanischen Bild-, aber auch Schriftkultur. Ihre Bedeutung soll im Folgenden dargestellt werden und dieses Kapitel zum Ende führen. In seiner Monografie American Silences wendet sich der Literaturwissenschaftler Ward dem Thema der Stille zu. Vergleichbar zu Novaks Herangehensweise und wie vorab angedeutet macht auch er es sich zur Aufgabe, übergreifend zu arbeiten, um ästhetische Eigenschaften herauszuarbeiten, die realistische Tendenzen innerhalb verschiedener Ausdrucksformen vereinen.191 Es überrascht daher nicht, dass Ward, obwohl er sich dem Realismus des 20. Jahrhunderts zuwendet, einen klaren Bezug zum Transzendentalismus des 19. Jahrhunderts herstellt: »These artists form a body of twentieth-century American realists who in comple mentary ways extend the familiar nineteenth-century tension between a realistic valuation of common experience and a transcendental (or otherwise mystical) pas sion for enduring meaning.« 192 189 Novak (2007): S. 196. 190 Ebd., S. 193. 191 Schon im von dem Schriftsteller Richard Goodman verfassten Vorwort befindet sich der Hinweis, dass Wards Herangehensweise für einen US-amerikanischen Forscher eher unüblich ist: »The great gift J. A. Ward bestows on us is to bring these visual and verbal artists together, something that is all too infrequently done. We Americans are great categorizers and labelers, and we feel each type should be with its own, snug and safe. So we put writers with writers and painters with painters, and so on, and write about them within those boundaries.« Richard Goodman: Introduction to the Transaction Edition. In: Joseph Anthony Ward: American Silences. The Realism of James Agee, Walker Evans, and Edward Hopper. 2. Auflage. New Brunswick, NJ: Transaction Publishers, 2010, S. xiii–xx, hier S. xx. 192 Ward (2010): S. 7.
Realismus in der US-amerikanischen Bildkultur
Bevor er sich dem Thema der Stille zuwendet, nimmt er eine Eingrenzung des Realismusbegriffs vor. Seine Gedankenführung soll hier noch einmal etwas differenzierter thematisiert werden, um anschließend die von ihm angeführten Aspekte zur Stille besser einordnen zu können. Laut Ward ging es, historisch betrachtet, dem literarischen und visuellen Realismus um die Darstellung von Individuen in sozialen Kontexten.193 Er betont jedoch zugleich, dass diesen Phänomenen letztendlich eine übereinstimmende Ästhetik oder Ideologie zugrunde liegen müsse.194 Deshalb argumentiert er, es existiere keine realistische Strömung, die nicht auch eine Aussage treffen will. Im Prinzip versuche sich jede realistische Klassifizierung – er nennt hier den Marxistischen Realismus, Christlichen Realismus, Formalistischen Realismus, Romantischen Realismus, Humanistischen Realismus und Existentialistischen Realismus – von einem ›naiven Realismus‹ abzugrenzen: »In a sense all of these are realisms that challenge the presumed dominance of what each regards as a shallow or simply naïve realism. The antagonism toward an absolute realism generally follows the argument that objectivity in art is both a pointless and an impossible achievement.« 195 Im Umkehrschluss bedeutet Wards Aussage, dass jeder – nicht naive – Realismus letztendlich eine Absicht verfolgt, womit der Autor zum Ausdruck bringt, dass es keinen Realismus gibt, der tatsächlich nur danach strebt, die ›Wirklichkeit‹ so wiederzugeben, wie sie ist. Seine Argumentation lässt sich erneut mit der bereits zitierten Aussage des Malers Thomas Cole in Übereinstimmung bringen, der sich in ähnlicher Weise zur Frage der Wirklichkeitsdarstellung äußert: »If the imagination is shackled, and nothing is described but what we see, seldom will anything truly great be pro duced, either in Painting or Poetry.«196 Ward untersucht schließlich, inwiefern bei den von ihm herangezogenen Kunstschaffenden das Thema der Stille zum Ausdruck gebracht wird. Er macht jedoch gleich zu Beginn selbst darauf aufmerksam, dass die Stille eigentlich ein gegensätzliches Konzept zu den meisten ›conventional categories of realism‹ darstellt, da diese geradezu geräuschvoll versuchten Aufmerksamkeit zu erzeugen: »The fervor for silence cannot be fully assimilated to the rationalizing and normalizing impulses of realism, and in this respect the artists I discuss are comparable to those novelists […] who locate protagonists of an Emersonian or Nietzschean disposition in the center of otherwise realistic fictions.« 197
193 Vgl. zu Ward auch Kapitel 4.2.1.1 Realismus als historisches Phänomen, S. 274, in der vorliegenden Studie. 194 Vgl. Ward (2010): S. 5–6. 195 Ebd., S. 5–6. 196 Cole (1827): S. 74–75. 197 Ward (2010): S. 7. Ward zieht in diesem Kontext Henry James’ Beschreibungen über die Werke Émile Zolas heran, in denen James eine Klangkulisse mit der Formulierung ›hubbub of voices‹ explizit the matisiert. Vgl. Henry James: Notes on Novelists. With Some Other Notes. New York, NY: Charles Scribner’s Sons, 1914, S. 35.
291
292
Scheler: Computergrafik
Ward verwendet im Englischen den Begriff ›silence‹, ergänzt ihn jedoch in seiner Definition mit dem Wort ›stillness‹. ›Silence‹ drückt sich für ihn zum einen über das Schweigen aus, das durch stumme Protagonisten oder statische Objekte zum Ausdruck gebracht wird, und zum anderen über Stille (stillness), die absichtlich durch »artistic modes«198 erzeugt wird, indem Klang und Bewegung auf ungewöhnliche und radikale Weise ausgeschlossen werden. Die von Ward thematisierten Autoren und Bildkünstler ließen sich über diese ›artistic modes‹ in Übereinstimmung bringen, eine methodische Vorgehensweise, die an Novak erinnert, wenn sie von künstlerischen »modes of procedure«199 spricht. Inhaltlich lässt sich an die Argumentation Wards beispielsweise mit Leo Marx’ Beschreibung der Arbeiten Sheelers anknüpfen: »On closer inspection, we observe that Sheeler has eliminated all evidence of the frenzied movement and clamor we associate with the industrial scene. The silence is awesome.«200 Um darzulegen, wie das Konzept der Stille innerhalb der Malerei zum Ausdruck kommt, wählt Ward Edward Hopper, in dessen Bildern die Stille eine besonders aktive Rolle einnehme. Die Gemälde seien »uniquely silent, conveying a sense of unnatural stillness.«201 Bewusst klammere Hopper Bildelemente aus, die die Assoziation einer Geräuschquelle wachrufen könnten.202 Besonders beispielhaft komme dieses Phänomen in dem Gemälde Sun in an Empty Room zum Ausdruck (Abb. 99). Es sei wahrscheinlich sein »barest, most silent painting; there is room, window, forest, light, shadow, and nothing else. Its silence and emptiness completely achieve what many of Hopper’s other works hint at or anticipate – the complete annihilation of human life. Put another way, Sun in an Empty Room is Hopper reduced to his essence, rather achieving his essence.«203 Barbara Novak kommt in ihren Ausführungen über das 20. Jahrhundert ebenfalls auf Hoppers Stille zu sprechen und verknüpft sie wie auch Ward mit der Darstellung ›menschenleerer‹ Szenerien. Sie führt diese übergreifende Qualität auf die Ästhetik des Luminismus zurück, eine Verbindung, die Ward nicht herstellt, obwohl sie grundsätzlich mit seiner Haltung in Einklang zu bringen wäre: »Hopper […] emphasized overtones of luminist mystery still further in dealing with the almost depopulated city. Into the silent world of luminism, now transposed to grim urban architecture, he introduced the weighted geometries of Homer and the unsettling spatial shifts from classic parallelism found throughout the nineteenth century. He also shared luminism’s concern with unbroken light […].«204
198 Ward (2010): S. 7. 199 Novak (2007): S. xiii. 200 Marx (2000): S. 356. 201 Ward (2010): S. 169. 202 Vgl. ebd., S. 169. 203 Ebd., S. 200. Herv. i. O. 204 Novak (2007): S. 230.
Realismus in der US-amerikanischen Bildkultur
Abb. 99: Edward Hopper, Sun in an Empty Room, 1963, Öl auf Leinwand, 73 x 100,3 cm.
Die Stille in Hoppers Bildern ist stark mit seinen Lichtstimmungen verbunden, mit denen er häufig und fast prominenter noch als die Luministen assoziiert wird. Sie wurden von ihm präzise nachempfunden und er war, mit Lucie-Smiths Worten, »always very skilful in using light to suggest times of day, which in turn help to set a mood.«205 Wie Hoppers Biografin Gail Levin darstellt, überlagern sich bei ihm die Ebenen der objektiven und subjektiven Wahrnehmung von Licht: »›Light,‹ he said, was ›important, a means of conveying the structure of reality, a valuable weapon that allows the artist to convey his vision without having to fall short through lack of technical ability.‹«206 Die Bedeutung des Lichts sowohl für Hopper als auch für die Luministen wird anhand dieser Darstellung besonders anschaulich. Mehr als jede der anderen übergreifenden ästhetischen Eigenschaften ist das Licht imstande, mystische Qualitäten mit physikalischer Präzision zu vereinen. Die vorliegende Studie verfolgt daher die Ansicht, das Licht sei eines der Hauptmerkmale des ›Amerikanischen‹, wodurch gedanklich eine Brücke zu Novaks These entsteht, der Luminismus überdauere in Aspekten bis in die 1960er Jahre. Anhand von Hopper kann das Fortleben des Lichts innerhalb der figurativen Tradition Amerikas veranschaulicht werden, seine übergreifenden Qualitäten lassen sich jedoch ebenfalls in der zwischen Figuration und Abstraktion stehenden Malerei Albert Pinkham Ryders sowie in der vollständigen und f lächigen Abstraktion Mark Rothkos nachweisen. Novak ist der Ansicht, Ryders Moonlight Marine und andere seiner MondBilder erinnern an die ›luminist modes‹ aufgrund ihrer klaren Horizontlinie und der stillstehenden Schiffe (Abb. 100): »They are shapes imprinted on and becalmed in this stillness. The constant subject of the ›lonely boat‹ becomes ideographic and neutral, and sea and sky some abstract void that Ryder wished to invent.«207
205 Lucie-Smith (2003): S. 124 206 Levin (2007): S. 407. Levin zitiert aus einem Bericht von Rafael Squirru, der Hopper zu seinem Um gang mit Licht befragte und ihn wörtlich zitiert. Rafael Squirru: Edward Hopper. In: Américas /17, 1965, S. 11–17, hier S. 16. 207 Novak (2007): S. 183.
293
294
Scheler: Computergrafik
Abb. 100: Albert Pinkham Ryder, Moonlight Marine, 1870–90, Öl und vermutlich Wachs auf Holz, 29,2 x 30,5 cm.
Abb. 101: Mark Rothko, Untitled, 1968, synthetische Polymer-Farbe auf Papier, 60,8 x 45,4 cm.
Novak schlägt anschließend selbst eine Brücke zu Rothkos Malerei, denn diese sei »as carefully measured, in its amounts of light, color and geometry, as that of the luminists […].«208 Ihre Charakterisierung kann auch anhand seines Gemäldes Untitled aus dem Jahr 1968 (Abb. 101) verdeutlicht werden. Sie schreibt dem Bild mit seinem leuchtenden Gelb in der oberen und dem kräftigen Orange in der unteren Hälfte eine mediale Kraft und die Fähigkeit zu, einen Zustand zum Ausdruck zu bringen, der für 208 Ebd., S. 235.
Realismus in der US-amerikanischen Bildkultur
weit mehr stehe als nur das Selbst.209 Ihre Überlegungen macht sie an einer Aussage Rothkos fest, der Emerson laut Novak vollständig zugestimmt hätte: »The progression of a painter’s work, as it travels in time from point to point, will be toward clarity: toward the elimination of all obstacles between the painter and the idea, and between the idea and the observer.«210 Ob und inwiefern Rothko tatsächlich spirituelle Ziele beabsichtigt hat, ist in der Forschung noch ein offener Diskurs. Obwohl James Breslin in seiner Rothko-Biografie die persönliche Bekanntschaft zwischen Novak und dem Künstler erwähnt,211 beharrt Breslin darauf, Rothko hätte mit seiner Aussage über die ›clarity‹ keine transzendentalen Aspekte impliziert. Er hätte damit stattdessen lediglich seinen Wunsch zum Ausdruck gebracht, jede Hürde zwischen dem Künstler und seinem Werk sowie dem Werk und dem Betrachter abbauen zu wollen. Doch auch Breslin kommt auf einen möglichen spirituellen Aspekt von Rothkos Kunst zu sprechen: »If someone praised the sensual beauty of his paintings, Rothko pointed to their spirituality; but if someone else hinted at spiritual properties, he defined himself as an earthy materialist. It is as if almost any verbal response, any naming of his work, made Rothko uneasy.«212 Auch unabhängig von der Spekulation über Rothkos spirituelle Absichten kann mit einiger Gewissheit festgestellt werden, dass das ›Amerikanische‹ in seinen Gemälden durch das Licht zum Ausdruck kommt oder auch durch eine ›Wall of Light‹, in Anlehnung an die Ankündigung einer für Dezember 1954 geplanten Ausstellung Rothkos im Art Institute Chicago.213 Zusammenfassend ergibt sich also, dass diese vier ästhetischen Merkmale – Licht, Stille, Nostalgie und Fotografie –, wenngleich sie nicht umfassend sein mögen, Ansätze bieten, der anfangs gestellten Frage nach dem ›Amerikanischen‹ näher zu kommen. Sie sind nicht nur eng mit den transzendentalistischen Tendenzen des 19. Jahrhunderts verknüpft, sie kommen zudem häufig in Bildern zum Ausdruck, die sich in dem von Novak so bezeichneten ›Dilemma‹ zwischen Realismus und Idealismus befinden. Diese Vermengung von zwei eigentlich gegensätzlichen Strömungen zeigt sich auf der einen Seite durch eine hohe technische Präzision, die häufig auch den Autor eines Bildes in den Hintergrund rücken lässt, und auf der anderen Seite durch den gleichzeitigen Versuch, das wahre Empfinden über eine Gegebenheit zum Ausdruck zu bringen. So entstehen in der US-amerikanischen Kultur häufig Bildwelten, die sich genau zwischen einem physikalischen und einem gefühlten Nachvollziehen der erlebten Umgebung bewegen.
209 Vgl. ebd., S. 183. 210 Mark Rothko: Statement on his attitude in Painting. In: The Tiger’s Eye 1/9, 1949, S. 114. 211 Vgl. James E. B. Breslin: Mark Rothko. A Biography. Chicago: University of Chicago Press, 1993, S. 503. 212 Ebd., S. 247. 213 Vgl. Hubert Crehan: Rothko’s Wall of Light. In: Arts Digest 29/3, 1954, S. 5 und S. 19.
295
5
Zum Sinnzusammenhang der 3D-Computergrafik
Let the powers be well directed, directed by love, and they would every where be greeted with joy and honor. […] I call upon you, young men, to obey your heart, and be the nobility of this land. In every age of the world, there has been a leading nation, one of a more generous sentiment, whose emi nent citizens were willing to stand for the interests of general justice and humanity, at the risk of being called, by the men of the moment, chimerical and fantastic. Which should be that nation but these States?1 – Ralph Waldo Emerson (1844)
In diesem Abschnitt steht die Frage im Vordergrund, auf welche Weise sich die Erkenntnisse zu den computertechnologischen Entwicklungen aus dem zweiten und dritten Abschnitt der vorliegenden Studie mit den Erkenntnissen zu einem möglichen US-amerikanischen Realismusbegriff aus dem vierten Abschnitt zusammenführen und für das Anliegen dieser Studie, einen gemeinsamen Sinnzusammenhang der 3D-Grafiken zu bestimmen, fruchtbar machen lassen. Es geht also auf übergeordneter Ebene um die Frage, warum die computertechnologischen Entwicklungen sich auf die Weise zugetragen haben, wie es in dieser Studie dargelegt wurde, und was es darüber hinaus für die Praxis bedeutet, am Computer Bilder zu erzeugen, wenn das Werkzeug, das zur Verfügung steht, von einer spezifischen Weltanschauung und einer bestimmten Bildvorstellung geprägt ist. Im Gegensatz zu den vorigen Darstellungen konzentrieren sich diese abschließenden Ausführungen nicht mehr vorrangig auf die Beweggründe einzelner Personen in der Geschichte der Computergrafik, sondern vielmehr darauf, vor welchem gemeinsamen kulturhistorischen Nenner die Protagonisten agiert haben, was sie also übergreifend zu ihren Ansätzen motiviert haben könnte. Dieser übergreifende Blick lässt sich deshalb einnehmen, da insgesamt von vielen der verschiedenen Akteure tatsächlich ähnliche Ziele verfolgt wurden. Angestrebt w urde 1 Ralph W. Emerson: The Young American (1844). In: The Collected Works of Ralph Waldo Emerson. Volume I: Nature, Addresses, and Lectures. Hrsg. v. Robert E. Spiller und Alfred R. Ferguson. Cam bridge, MA: London: Belknap Press of Harvard University Press (The Collected Works of Ralph Wal do Emerson, Bd. 1), 1971, S. 217–244, hier S. 238–239.
298
Scheler: Computergrafik
von den Ingenieurszeichnern und Informatikern bei der Entwicklung computergrafischer Verfahren jeweils eine figurativ-realistische Bildsprache, die einerseits auf Parametern menschlich-intuitiver Wahrnehmung und andererseits auf zentralper spektivischer Konstruktion beziehungsweise der Funktionsweise optischer sowie kameratechnischer Verfahren basiert. Der Grund für diese Ansprüche an die Gestaltung der Computerbilder lag bei allen der vorgestellten Akteure in der Annahme, dass sich auf diese Weise Phänomene, auch fiktive, glaubwürdig und greif bar darstellen ließen. Es wurde deshalb in der vorliegenden Studie der Begriff der Glaubwürdigkeitsmaxime eingeführt. Auch die heute mithilfe der 3D-Grafikprogramme erzeugten Bilder changieren daher zwischen einem physikalischen oder auch fotografischen Realismus auf der einen und auf einem als subjektiv bezeichneten wahrnehmungsbezogenen Ideal auf der anderen Seite. Damit zeichnen sich Ähnlichkeiten zu dem von Novak beschriebenen Dilemma zwischen Realismus und Idealismus ab. Rein bildästhetisch kommt dieses Dilemma in heutigen Computergrafiken nicht immer zum Ausdruck, doch produktionsästhetisch sind diese Merkmale auch in Bildern verankert, die eine eigenständige Ästhetik, etwa eine f lächige Cartoon-Ästhetik, verfolgen. Herausgearbeitet wird im Folgenden demnach ein kultureller Hintergrund, der als Motiv die gesamte Entwicklung der Software und damit zusammenhängend auch ihre Nutzung prägt. Erste Erkenntnisse zur Verankerung kultureller Artefakte innerhalb von Computergrafiken lieferte bereits die Untersuchung einzelner Standbilder aus verschiedenen Pixarfilmen,2 doch kam darin noch nicht explizit zum Ausdruck, inwiefern auch über Pixar oder den kommerziellen Animationsfilm hinaus ein bestimmtes Bild- und Weltverständnis in der Software verankert ist. Ausgehend von diesen Überlegungen und auf Basis der zuvor erfolgten Auseinandersetzung mit den malerischen Tendenzen in den USA soll nun abschließend überprüft werden, inwiefern diese kulturellen Artefakte die Softwareentwicklung geprägt haben. Berücksichtigt wird hierbei vor der Folie von Leo Marx’ 1964 erschienener Studie The Machine in the Garden auch ein größerer kulturhistorischer Kontext, um am Ende beide Erzählstränge – den computertechnologischen und den kunsthistorischen – darin einzuordnen.
5.1
Technologischer Fortschritt und Bildpraxis in den USA
Ein Blick auf die Arbeitsweise des belgischen Künstlers David Claerbout, der für seine Arbeiten hauptsächlich digitale Bildgebungsverfahren nutzt, kann für einen Einstieg in diese abschließenden Betrachtungen behilf lich sein. Insbesondere seine Arbeit T ravel eignet sich hierfür. Es handelt sich dabei um einen 12-minütigen fotorealistischen 3D-animierten Kurzfilm, umgesetzt in den Jahren von 1996 bis 2013. In einer überaus langsamen Kamerafahrt wird in gleichförmiger Bewegung ein dichter Wald durchschritten, der sich zunächst aus einer europäischen Pf lanzenwelt zusammensetzt und sich dann allmählich und f ließend in einen tropischen Dschungel verwandelt. Die Fahrt beginnt zunächst außerhalb des Waldes neben einer Parkbank (Abb. 102) und endet, ebenfalls außerhalb des Waldes, in einer extremen Vogelperspektive, die ihn 2
Vgl. Kapitel 4.1 Der Realismus Pixars – Edwin Catmull als Brücke zwischen Produktions- und Bildästhetik.
298
Scheler: Computergrafik
von den Ingenieurszeichnern und Informatikern bei der Entwicklung computergrafischer Verfahren jeweils eine figurativ-realistische Bildsprache, die einerseits auf Parametern menschlich-intuitiver Wahrnehmung und andererseits auf zentralper spektivischer Konstruktion beziehungsweise der Funktionsweise optischer sowie kameratechnischer Verfahren basiert. Der Grund für diese Ansprüche an die Gestaltung der Computerbilder lag bei allen der vorgestellten Akteure in der Annahme, dass sich auf diese Weise Phänomene, auch fiktive, glaubwürdig und greif bar darstellen ließen. Es wurde deshalb in der vorliegenden Studie der Begriff der Glaubwürdigkeitsmaxime eingeführt. Auch die heute mithilfe der 3D-Grafikprogramme erzeugten Bilder changieren daher zwischen einem physikalischen oder auch fotografischen Realismus auf der einen und auf einem als subjektiv bezeichneten wahrnehmungsbezogenen Ideal auf der anderen Seite. Damit zeichnen sich Ähnlichkeiten zu dem von Novak beschriebenen Dilemma zwischen Realismus und Idealismus ab. Rein bildästhetisch kommt dieses Dilemma in heutigen Computergrafiken nicht immer zum Ausdruck, doch produktionsästhetisch sind diese Merkmale auch in Bildern verankert, die eine eigenständige Ästhetik, etwa eine f lächige Cartoon-Ästhetik, verfolgen. Herausgearbeitet wird im Folgenden demnach ein kultureller Hintergrund, der als Motiv die gesamte Entwicklung der Software und damit zusammenhängend auch ihre Nutzung prägt. Erste Erkenntnisse zur Verankerung kultureller Artefakte innerhalb von Computergrafiken lieferte bereits die Untersuchung einzelner Standbilder aus verschiedenen Pixarfilmen,2 doch kam darin noch nicht explizit zum Ausdruck, inwiefern auch über Pixar oder den kommerziellen Animationsfilm hinaus ein bestimmtes Bild- und Weltverständnis in der Software verankert ist. Ausgehend von diesen Überlegungen und auf Basis der zuvor erfolgten Auseinandersetzung mit den malerischen Tendenzen in den USA soll nun abschließend überprüft werden, inwiefern diese kulturellen Artefakte die Softwareentwicklung geprägt haben. Berücksichtigt wird hierbei vor der Folie von Leo Marx’ 1964 erschienener Studie The Machine in the Garden auch ein größerer kulturhistorischer Kontext, um am Ende beide Erzählstränge – den computertechnologischen und den kunsthistorischen – darin einzuordnen.
5.1
Technologischer Fortschritt und Bildpraxis in den USA
Ein Blick auf die Arbeitsweise des belgischen Künstlers David Claerbout, der für seine Arbeiten hauptsächlich digitale Bildgebungsverfahren nutzt, kann für einen Einstieg in diese abschließenden Betrachtungen behilf lich sein. Insbesondere seine Arbeit T ravel eignet sich hierfür. Es handelt sich dabei um einen 12-minütigen fotorealistischen 3D-animierten Kurzfilm, umgesetzt in den Jahren von 1996 bis 2013. In einer überaus langsamen Kamerafahrt wird in gleichförmiger Bewegung ein dichter Wald durchschritten, der sich zunächst aus einer europäischen Pf lanzenwelt zusammensetzt und sich dann allmählich und f ließend in einen tropischen Dschungel verwandelt. Die Fahrt beginnt zunächst außerhalb des Waldes neben einer Parkbank (Abb. 102) und endet, ebenfalls außerhalb des Waldes, in einer extremen Vogelperspektive, die ihn 2
Vgl. Kapitel 4.1 Der Realismus Pixars – Edwin Catmull als Brücke zwischen Produktions- und Bildästhetik.
Zum Sinnzusammenhang der 3D-Computergrafik
Abb. 102: David Claerbout, Travel, 1996–2013, EinkanalVideoprojektion, Stereoton, 12 Min., HD-Animation.
Abb. 103: David Claerbout, Travel (Entry Counter Light), 2013, Tusche und Filzstif t auf Papier.
wie einen kleinen Hain umrundet von Wiesen und Feldern zeigt. Obwohl diese Reise durch langsame Überblendungen in einzelne Abschnitte unterteilt ist und sogar die Vegetation von einem Wandel geprägt ist, wirkt die f ließende Bewegung der Kamera beinahe wie eine lange Plansequenz. Ein Museumsbesucher, der den Film im Rahmen einer Ausstellung entdeckt und sich nicht darüber informiert, wie er entstanden sein könnte, würde sich vielleicht mit beruhigenden, aber gewöhnlichen Videoaufnahmen eines ungewöhnlichen Waldes konfrontiert sehen, zumal auch der Soundtrack zu diesem Eindruck beiträgt. In der Tat handelt es sich dabei um Entspannungsmusik, die ursprünglich für den Zweck der Meditation komponiert wurde und die Claerbout zu dem Filmprojekt inspirierte.3 Die Arbeit eignet sich deshalb für diese Zusammenführung, da der Künstler zu einem Zeitpunkt begann, mit der 3D-Computergrafik zu arbeiten, als die Software zur Erzeugung solcher Bilder erst wenige Jahre allgemein zugänglich war. Er hatte für den Film von Beginn an klare Vorstellungen, wusste allerdings schon damals, 3 Vgl. David Claerbout: Travel, 1996–2013. In: David Claerbout. Hrsg. v. Kunsthaus Bregenz. Köln: Wal ther König, 2018, S. 44–61, hier S. 47.
299
300
Scheler: Computergrafik
dass er in gewisser Weise an die bildästhetischen Artefakte gebunden war, die in der Software verankert sind. Auch in seinen vorbereitenden Skizzen und Entwürfen für die Arbeit antizipierte Claerbout die technischen Umsetzungsmöglichkeiten der von ihm verwendeten 3D-Software. In einer der Skizzen (Abb. 103) äußert er sich in einer Randnotiz zu der geplanten Lichtstimmung für die HD-Animation: »Opening to TRAVEL. 7 seconds of utter stillness with the Bench. Summer-light – late afternoon off [!] course: Because that is the time we live in. And it certainly is the time of C. G. I. light.«4 Claerbout kommentiert diese Aussage im Rahmen seiner Skizze nicht weiter, und obwohl rein mathematisch betrachtet das virtuelle Licht auch in anderer Weise berechnet werden könnte und Claerbout sicherlich dazu imstande wäre, dem Computer diesen Befehl zu erteilen, setzt der Künstler implizit voraus, dass die 3DComputergrafik eine bestimmte Lichtstimmung, also die Nachmittagssonne, gewissermaßen vorgibt. Auch zu den fotografischen Parametern innerhalb der Software positioniert sich Claerbout. So nennt er das innerhalb der 3D-Software integrierte fotografische Verfahren ›Dark Optics‹, wodurch er es den ›Light Optics‹, also der vom physischen Licht abhängigen Kameratechnik, zwar einerseits gegenüberstellt und sie sogar als ›Feind‹ der Computergrafik bezeichnet, sie andererseits jedoch auch in Beziehung zu der virtuellen Technologie setzt.5 Claerbout verdeutlicht mit diesen teils intuitiven und teils sehr gezielten Ref lexionen, dass ihm die in den 3D-Anwendungen innewohnenden produktionsästhetischen Aspekte nicht nur bewusst sind, sondern auch, dass sie zwangsläufig auf seinen künstlerischen Ausdruck Einf luss nehmen. Er liefert deshalb mit seiner Randnotiz zur Nachmittagssonne in der Skizze sowie mit seinen Anmerkungen zu den Eigenheiten der virtuellen Kameratechnik ein Indiz dafür, dass sich die im vorigen Abschnitt herausgearbeiteten ästhetischen Kategorien des ›Amerikanischen Realismus‹, in seinem Fall besonders das Licht und die Fotografie, in der computergrafischen Praxis noch immer nachweisen lassen. Zentral ist hierbei die Beobachtung, dass sich dies zuträgt, obwohl Claerbout eine ganz bestimmte selbst gesetzte, überaus fotorealistische Bildästhetik anstrebt, in der das verwendete Bildgebungsverfahren – anders als etwa bei Pixar – bewusst in den Hintergrund rückt und nicht auf Anhieb erkennbar sein soll. Inwiefern sind also die ästhetischen Kategorien mit der Technologie verknüpft und warum wirken sie auch in die Arbeit eines belgischen Künstlers? Es soll nun die entscheidende Verbindung zwischen den computergrafischen Entwicklungen und den ästhetischen Kategorien des ›Amerikanischen Realismus‹ hergestellt werden. Wie zuvor dargelegt, stehen die bildästhetischen Merkmale des Lichts, der Fotografie, der Stille und der Nostalgie unmittelbar für ein ganz spezifisches, häufig auf transzendentalistische Tendenzen zurückzuführendes Weltbild. Die Software wurde also vor dem Hintergrund eines kulturellen Erbes konzipiert, das sich in die beschriebene luministische bildnerische Traditionslinie einreihen lässt. Anhand von Sutherland wurde zudem herausgearbeitet, wie die Bilderzeugung mit dem Computer in zwei Phasen geteilt wird: eine, die die Entwicklung der Software, und eine, die die Anwendung der Software betrif ft. Jede Anwendungsmöglichkeit der Computerprogramme wird im Produktionsprozess stets von der ersten Phase beeinf lusst, vorgegeben und 4 Sean Kelly (Hg.): David Claerbout. Drawings and Studies. Ostfildern: Hatje Cantz, 2015, S. 102. 5 Vgl. Kunsthaus Bregenz (Hg.): David Claerbout. Köln: Walther König, 2018, S. 15–16.
Zum Sinnzusammenhang der 3D-Computergrafik
geformt. Wenn sich deshalb nun im Zuge der Softwareentwicklung ein transzendentalistisches Weltbild in dieser ersten Phase festgeschrieben hat, dann wirkt dieses Weltbild als Teil der ersten gemeinsamen Produktionsphase maßgeblich daran mit, den gemeinsamen Sinnzusammenhang aller 3D-Bilder zu formen – und zwar unabhängig davon, was in der zweiten, also in der Anwendungsphase geschieht. Selbst wenn demnach wie im Falle von Claerbout oder der Serie South Park (Abb. 3), auf die bereits zu Beginn mit einem Bildbeispiel verwiesen wurde, eine eigenständige Bildästhetik angestrebt wird, werden mit den virtuellen Werkzeugen in der Software die ästhetischen Kategorien des ›Amerikanischen Realismus‹ damit stets aufs Neue reproduziert. Die Funktionen in der Software, beispielsweise die Shader, das Modeling, das Licht und das Rendering, stehen demnach für ein transzendentalistisches Weltbild und eine spezifische Vorstellung von Bildlichkeit. Auch in Claerbouts Bildern oder in denen der South Park-Serie lässt sich – unabhängig von der bildästhetischen Ebene – in produktionsästhetischer Hinsicht also die womöglich unbeabsichtigte Spur6 eines gemeinsamen Sinnzusammenhangs wiederfinden. Die grundlegende Annahme für diese Studie, alle 3D-Bilder besäßen diesen gemeinsamen Sinnzusammenhang, beginnt sich also zu bestätigen. Um diese These nun zum Abschluss systematisch zu belegen, sollen in einem ersten Schritt zunächst konkrete Parallelen zwischen den Erkenntnissen zur Computergrafik und zur Kunst gezogen werden, um anschließend noch einmal einige Produktionsdetails sowie Bilder Pixars aufzugreifen und darzulegen, inwiefern die von dem Studio erzeugten Bildwelten in direkter Weise mit den ästhetischen Kategorien arbeiten, um die Bildästhetik ihrer Filme zu konzipieren.
5.1.1
Die Computergrafik als Traditionshüter des ›Amerikanischen Realismus‹
Welche produktionsästhetischen Gemeinsamkeiten lassen sich also herausarbeiten, wenn die computergrafischen Entwicklungen den kunsthistorischen Erkenntnissen in direkter Weise gegenübergestellt werden? Bei vielen einzelnen Malern und Strömungen verschmelzen realistische mit idealistischen Tendenzen. Nicht nur der Malerei Winslow Homers – einer der auch im historischen Sinne als realistisch zu bezeichnenden Künstler der USA – attestiert Shi romantisch-idealistische Züge, sondern auch bei den transzendentalistisch ausgerichteten Luministen seien die Grenzen zwischen Idealismus und Realismus f ließend gewesen. Wie der Kulturhistoriker David Shi es beispielsweise darstellt, lassen sich die realistischen Nuancen der Bilder etwa auf eine Vorliebe für die Darstellung gewöhnlicher Dinge und Situationen zurückführen.7 Auffällig ist, dass diese realistischen Bestrebungen selten politisch motiviert waren, wie es etwa für den historisch motivierten europäischen Realismus häufig der Fall war.Ähnlich wie in den meisten repräsentativen Ausprägungen der US-amerikanischen Malerei ist auch in den computergrafischen Experimenten von Beginn an kein politischer Anspruch zu erkennen. Zwar wurden sie durch militärische Gelder ermöglicht, doch 6 Vgl. Fn. 37 in Kapitel 2.1.2 Entwickler und Anwender – Ein neues Spannungsfeld in der vorliegenden Stu die, S. 77. Vgl. zudem Krämer (1998): S. 79. 7 Vgl. Shi (1995): S. 20 und S. 137.
301
302
Scheler: Computergrafik
bildeten die ersten 3D-Bilder hauptsächlich alltägliche Gegenstände ab, beispielsweise wie bei Blinn eine Orange8 oder wie bei Catmull Gläser und Flaschen.9 Auch der inzwischen in der 3D-Community berühmte ›Utah Teapot‹ von Martin E. Newell10 oder John Lasseters bei Pixar entwickelte Lampe, die heute das Logo des Studios darstellt,11 können hier beispielhaft aufgeführt werden (Abb. 104 & 105). Die Computerbilder setzen sich demnach wie viele der realistischen Gemälde illustrativ mit den alltäglichen Facetten des Lebens auseinander. Die in der Malerei dargestellten Situationen und Objekte standen dabei häufig – insbesondere im 19. Jahrhundert – für eine übergeordnete Einheit aller Dinge, wodurch sich schließlich die idealistischen Merkmale der Malerei kennzeichnen lassen. In der Computergrafik kommen diese idealistischen Tendenzen nicht so unmittelbar zum Vorschein, dennoch lassen sie sich erneut mithilfe von Barbara Novak herausarbeiten, berücksichtigt man ihre Beschreibung der Art und Weise, wie diese Verbindung zwischen Realismus und Idealismus technisch umgesetzt wurde: »From the limners on, American artists had held, in one way or another, to the adamant control of idea. Enlisting measure, mechanics, and technology as aids toward a certain ty that was often as ideal as it was real, American artists guarded the unbroken integ rity of the objects or things of this world, which became, very often, vessels or carriers of metaphysical meaning.«12 Obwohl die computergrafischen Bestrebungen nicht explizit mit einem metaphysischen Anliegen verknüpft werden können, lässt sich Novaks Beschreibung in direkter Weise auf die Erzeugung von Computergrafiken übertragen. Auch hier changiert die Bilderzeugung stets zwischen dem Vertrauen auf technische Hilfsmittel und per spektivische Konstruktion bei gleichzeitiger Rücksicht darauf, dass die Bilder glaubwürdig und bedeutungsvoll sein sollen. Wie schon Sutherland in dem Interview mit Karen Frenkel betont, ist der Fotorealismus der Computerbilder allein nicht überzeugend, solange das Bild keine »underlying meaning«13 besitze. Auch Rules und Coons’ Formulierung der »implicit meaning«14, die den perspektivischen zeichnerischen Konventionen zugrunde liege, zeigt an, dass auch die computergrafischen Bestrebungen 8 Vgl. Blinn (1978): S. [v]. 9 Vgl. Catmull (1974): S. 69–74. Catmull merkt zudem an: »ARPA’s administrators did not hover over the shoulders of those of us working on the projects they funded, nor did they demand that our work have direct military applications. They simply trusted us to innovate.« Catmull; Wallace (2014): S. 13. 10 Vgl. Newell (1975): S. 84 und S. 86. Newell zeigt in seiner Studie auch die computergrafische Darstel lung eines Kinderkarussells. Vgl. Newell (1975): S. 88. Zur besonderen Bedeutung des ›Utah Teapots‹ vgl. zudem Gaboury (2021): S. 87–123. Perry verweist darüber hinaus auf ein Kaninchen, das paral lel zu dem Teapot ebenfalls in der 3D-Gemeinschaft einen großen Bekanntheitsgrad besitzt: »The teapot, created at the start of 3D modeling and computer graphics development in the University of Utah’s computer graphics group, and the bunny, created a few years later by Stanford University researchers, are two of the most salient examples of the standardized models that have evolved within the computer graphics research community and their circulation among the researchers.« Perry (2014): S. 114. 11 Vgl. Paik; Iwerks (2007): S. 58–62. 12 Novak (2007): S. 217. 13 Sutherland; Frenkel (1989): S. 713. 14 Rule; Coons (1961): S. 8.
Zum Sinnzusammenhang der 3D-Computergrafik
Abb. 104: Martin E. Newell; Figure 28 Various objects defined using Bézier patches (hier nur eins von vier Objekten zu sehen), 1975, Computer-Rendering.
Abb. 105: John Lasseter (Regie); Pixar Animation Studios, Luxo Junior, 1986, Filmposter.
nicht nur darauf abzielten, technische Perfektion zu erreichen, sondern bedeutungsvolle Bilder zu erzeugen, die für mehr stehen, als mit dem bloßen Auge zu sehen ist. Eine Beschreibung Shis in Bezug auf Homers Malerei greift diesen Aspekt auf und sie kann in derselben Weise auch für die computergrafischen Bemühungen gelten, denn wenn beispielsweise Evans, Romney et. al. formulieren, sie wollten mit dem Computer Bilder erzeugen, »that a person can ›feel,‹ as contrasted with images that he must laboriously interpret«15, erinnert diese Haltung an Homer, denn dieser respektierte zwar »the dignity of facts but probed beneath them to explore deeper levels of feel ings and meaning.«16 Auch bei den im Rahmen der vorliegenden Studie untersuchten 15 Wylie; Romney; Evans; Erdahl (1967): S. 49. 16 Vgl. Shi (1995): S. 137. Diese Qualität schreibt Shi in der Literatur etwa auch Walt Whitman zu.
303
304
Scheler: Computergrafik
I ngenieuren ist die Vorstellung von jenen Bildern, die man ›fühlen‹ kann, gemäß der Glaubwürdigkeitsmaxime an perspektivische und repräsentative Darstellungen geknüpft, die eine fotografische Qualität aufweisen. Ganz im Sinne des Transzendentalismus hat sich also auch die Computergrafik zu einer – wie Shi es beschreibt – »fertile synthesis of the real and the ideal«17 entwickelt. Diese Vermengung von Realismus und Idealismus oder wie bei Evans die Verbindung zwischen Gefühl und Technologie antwortet in direkter Weise auf den oben zitierten Vergleich, den Novak zwischen der luministischen und impressionistischen Malerei vornimmt: »If we say that impression ism is the objective response to the visual sensation of light, then perhaps we can say that luminism is the poetic response to the felt sensation.«18 Die Verknüpfung zwischen der luministischen Malerei und der Computergrafik lässt sich über Novaks Begriff der ›Idee‹ noch vertiefen. Ähnlich wie sie es für die transzendentalistische malerische Strömung beschreibt, war es auch Coons’ und Rules Vorstellung, mithilfe von perspektivischen Illustrationen eine Idee einzufangen. Deren gemeinsame Beschreibung, »the sketch is an aid to the mind, a tangible record of an idea«19, bringt dies ebenso zum Ausdruck wie die von Coons eigenständig formulierte Vorstellung von der Arbeit des Designers: »He perceives his idea at first not in the perfection of a well-turned English word de scription, nor in the precision of a mathematical formula, but in some nebulous assem bly of building blocks of structure, vaguely beheld; he ›feels‹ his creation. The sketch forms the natural bridge between these vague stirrings of the imagination and the sub sequent precise statement of the refined details of the concept.«20 Auf sprachlich ganz ähnliche Weise stimmt Coons’ Aussage mit Novaks Beschreibung überein, die US-amerikanischen Künstler nutzten technische Hilfsmittel, um die Kontrolle über eine Idee zu gewinnen: »American artists have always been makers. The artist now stands behind, as generating idea, his aim to have technology render his idea concrete and tangible. As in luminist classicism, the idea becomes the palpable thing.«21 Ähnlich also wie die luministischen Maler oder sogar die Limner mit ihrer technischen Herangehensweise versucht haben, etwas Unbeschreibliches greif bar zu machen, geht es auch Coons beziehungsweise Rule und Coons darum, »to make solid and tangible the shifting images of our minds, so that we may examine them at our leisure. Through this recording art we free ourselves of the effort to hold ideas in memory […].«22 Novak betrachtet den Luminismus als erste wirklich ›einheimische‹ Kunstrichtung seit der Besiedelung des Kontinents durch die ersten europäischen Einwanderer. Darüber hinaus erkennt sie Züge dieser Richtung in vielen verschiedenen US-amerikanischen malerischen Ansätzen noch weit bis in das 20. Jahrhundert hinein. Wie zuvor anhand der Bezüge zwischen den computeranimierten Kinofilmen und der
17 Ebd., S. 20. 18 Novak (2007): S. 67–68. Herv. i. O. 19 Rule; Coons (1961): S. vi. 20 Coons (1963): S. 300. Vgl. auch S. 151–152 in der vorliegenden Studie. 21 Novak (2007): S. 238. 22 Rule; Coons (1961): S. 66.
Zum Sinnzusammenhang der 3D-Computergrafik
S-amerikanischen Landschaftsmalerei dargestellt wurde, bezieht sich Novak mit U ihren Überlegungen zu den US-amerikanischen malerischen Strömungen in keiner Weise auf computergrafische Entwicklungen,23 doch vor dem Hintergrund ihrer Argumentation lässt sich nun präzise darlegen, dass nicht nur Pixars Bildwelten, sondern auch allgemein die computergrafischen Entwicklungen deutliche Züge der luministischen Tradition aufweisen, denn ähnlich wie Novak die Malerei der Hudson River School sowie die der Luministen als »quietistic, precise and conceptual«24 beschreibt, geht es auch bei der Computergrafik nicht vorrangig darum, die Realität abzubilden, sondern ein Konzept. Dargestellt werden soll dieses mit der Präzision einer Kamera, um – so die Vorstellung – besonders intuitiv verstanden werden zu können. Das Konzeptionelle an der Computergrafik zeichnet sich nicht nur bei Fetter und Coons, sondern auch bei Sutherland ab, wenn er davon ausgeht, die Computerbilder sollten perspektivisch sein, um etwa ein Atom glaubwürdig illustrieren zu können.25 Auch bei Gouraud und Catmull ist zu beobachten, dass sie ihre technischen Entwicklungen vor dem Hintergrund eines Konzepts für ihre geplanten Grafiken entwickelten. Insbesondere bei Catmull wird dies deutlich, da er den Begriff des ›Bildes‹ bereits verwendet, bevor es auf einem Bildschirm überhaupt angezeigt werden kann. Die konzeptionelle, mathematische Beschreibung im Computer genügt ihm, um von einem Bild zu sprechen.26 Ein Hinweis Novaks, mit dem sich dieser konzeptionelle Ansatz der Bilderzeugung noch tiefgehender begreifen lässt, befasst sich mit dem Paradox, dass sowohl im Luminismus, bei dem es so zentral war, Objekte besonders greif bar darzustellen,27 als auch darüber hinaus – etwa wesentlich später in der Konzeptkunst – das Konzeptionelle in der Bildgestaltung immer Vorrang vor der Wahrnehmung hatte. Die Bilderzeugung bleibt in allen diesen Fällen – auch in der Computergrafik – eine intellektuelle Leistung. Die Computergrafik löst diesen Anspruch sogar auf mehreren Ebenen ein. Nicht nur die Grafik ist nach Rule und Coons ein Gedankeninstrument, sondern auch der Computer dient Coons, Engelbart sowie Johnson und Sutherland zufolge als Erweiterung des Intellekts. Der Computer ist dabei sogar nicht nur ein Gedankeninstrument, sondern ein gleichberechtigter Arbeitspartner.28 Die Zusammenführung von Grafik und Computer – die Computergrafik – entspricht also nicht nur in Bezug auf ihr Verständnis von Computertechnologie, sondern auch in Bezug auf das Grafikverständnis den Maßstäben des Luminismus. Während die Maler für ihre intellektuelle und konzeptionelle Bildarbeit noch darauf angewiesen waren, technologische Hilfsmittel heranzuziehen, bewegen sich diejenigen, die nun mit dem Computer ein Bild hervorbringen, von vornherein in einer vollkommen technisierten Umgebung, die darauf ausgelegt ist, Bilder im Sinne spezifischer Bildvorstellungen zu erzeugen. Die in der Software verankerten Konzepte entsprechen deshalb Novaks Beobachtung, US-amerikanische Künstler beschützten die »unbroken integrity of the objects or
23 Vgl. Scheler (2021): S. 156–157. 24 Novak (2007): S. 233. 25 Vgl. Sutherland; Frenkel (1989): S. 713. 26 Vgl. Catmull (1974): S. 41. 27 Vgl. Novak (2007): S. 238 28 Vgl. Rule; Coons (1961): S. vii; vgl. Coons (1966): S. 177; vgl. Engelbart (1962); vgl. Johnson (1963): S. 1; vgl. Sutherland (2003): S. 17.
305
306
Scheler: Computergrafik
things of this world«29. Dieser Anspruch lässt sich wie die Beschreibung eines übergeordneten Ziels der computergrafischen Bestrebungen lesen. Nicht nur in der Malerei werden die Dinge und Objekte figurativ und unter Hinzunahme kameratechnischer Hilfsmittel dargeboten, auch Coons und Fetter betonen, die Kamera erzeuge immer die realistischste und zuverlässigste Ansicht, um ein Objekt greif bar und glaubwürdig darzustellen.30 Die Kamera ist heute, wie auch in Zusammenhang mit Claerbout thematisiert wurde, fester Bestandteil der Software. Auch in der Entwicklung der Shader spielte die Fotografie eine Rolle, hier jedoch vor allem im Hinblick auf die Wahrnehmung von Oberf lächen und Kontrasten. Aber auch hier verlässt sich die Forschung im Bereich der Computergrafik auf Erkenntnisse aus der Fotografie, was bei Phong darin mündet, ein computergrafisches Bild zu erzeugen, das einer Fotografie beinahe vollkommen gleicht.31 Fetter spricht den Aspekt der Integrität auch ganz explizit an, denn er formuliert unter Bezugnahme auf Etienne-Jules Marey die Vorstellung, Grafiken seien gegenüber der Sprache die verlässlichste Form, um Konzepte und auch zeitliche Abläufe darzustellen.32 Es lässt sich also festhalten, dass die Vermengung von Idealismus und Realismus, die sich vor allem im Luminismus, aber in Zügen ebenfalls in vielen anderen Strömungen US-amerikanischer Malerei nachweisen lässt, auch die Entwicklung der Computergrafik auszeichnet. Sie ist ebenso sensibel für wissenschaftliche Fakten und stützt sich – vielleicht auch deshalb – mit besonderer Kraft ebenso wie die Maler auf die Fotografie. Das Verfahren erfüllt sowohl für die Künstler als auch die Softwareentwickler die Maxime der Glaubwürdigkeit, weil es die dem menschlichen Sehverhalten vertrauten perspektivischen Konstruktionen mit technischer Perfektion einzufangen vermag. Dass dabei die Bilder der Kamera – wie auch Lucie-Smith darstellt – nur einem möglichen Bildkonzept entsprechen,33 ist weder für die Maler noch für die in dieser Studie untersuchten Ingenieure relevant. Den einzigen Anspruch, den die Softwareentwickler an ihre Bilder formulieren, ist, dass sie allgemein verständlich sind – sie gehen davon aus, dass die Glaubwürdigkeitsmaxime für alle Menschen auf der Welt gleichermaßen Gültigkeit besitzt. Auch in Sutherlands Beschreibungen zu seinem Programm Sketchpad kommt dieser Gedanke der Universalität zum Ausdruck und in Fortführung dieser ersten Ansätze ist die heutige Software vollumfänglich dafür ausgelegt, Bilder zu generieren, die der Definition des MoMA-Katalogs über die Stilrichtungen der Amerikanischen Realisten und Magischen Realisten entsprechen: »No other style of painting appeals so naturally to the great majority of people, and in this sense it is a truly democratic style, offering no barrier of technique between the artist and the untrained eye.«34
29 Novak (2007): S. 217. 30 Vgl. Rule; Coons (1961): S. 231; vgl. Fetter (1965): S. 50. 31 Vgl. bspw. Phong (1975): S. 317. 32 Vgl. Fetter (1965): S. 1. 33 Vgl. Lucie-Smith (2003): S. 12. 34 Miller (1943): S 6.
Zum Sinnzusammenhang der 3D-Computergrafik
5.1.2 Pixar und der Sinnzusammenhang der 3D-Computergrafik als visuelles Phänomen Die in Abschnitt 4 herausgearbeiteten bildästhetischen Kategorien der Fotografie, des Lichts, der Stille und der Nostalgie, deren Ursprung in den nun zusammenfassend dargestellten weltanschaulichen Überzeugungen liegt, lässt sich in besonderem Umfang in den Bildern des Animationsstudios Pixar nachweisen und auch in anderen kommerziellen Produktionen, die einen ähnlichen bildästhetischen Anspruch verfolgen.35 3DComputergrafiken, die diese produktionsästhetischen Merkmale nicht auch auf bildästhetischer Ebene aufweisen – also etwa die Bilder von South Park –, werden in diesem Kapitel ausgeklammert. Vor dem Hintergrund, dass Edwin Catmull an der Entwicklung der Software beteiligt war, ist nicht nur anzunehmen, dass sein Denken von den herausgearbeiteten weltanschaulichen Tendenzen beeinf lusst wurde, sondern es ist auch davon auszugehen, dass dies der Grund dafür ist, dass die Bildwelten der Pixarfilme in so direkter Weise mit ihrer Bildästhetik auf die produktionsästhetischen Merkmale reagieren. Doch nicht nur durch die vergangenen Entwicklungen in der Software lässt sich herleiten, welche Kriterien die Bildästhetik der Pixarfilme prägen, auch neuere algorithmische Ansätze können aufzeigen, dass eine bestimmte bildästhetische Ausrichtung noch immer das Ziel ist. Wie sich an der Entwicklung eines neuen Shading-Verfahrens darlegen lässt, erfahren – rein konzeptionell – die ursprünglichen Motive zur Erzeugung von Computergrafiken durch die neueren Entwicklungen bei Pixar eine direkte Fortsetzung. Das neu von Pixar implementierte Shading-Verfahren mit dem Namen PxrDisney basiert auf einem ursprünglich im Jahr 2012 von Brent Burley für die Computeranimationsfilme von Disney entworfenen Shading-Algorithmus.36 Pixar hat den Ansatz nach eigenen Maßstäben weiterentwickelt und beschreibt ihn in der Dokumentation der eigenen Render Engine RenderMan als »›catch-all‹ shader, designed to be f lexible and dynamic in a production shading pipeline. The shader is based on the Disney ›principled‹ BRDF by Brent Burley; it is ›principled‹ rather than strictly physical.«37 Die Formulierungen in der RenderMan-Dokumentation wurden zum Teil aus dem von Burley verfassten Paper übernommen, in dem er die Entwicklung und wesentlichen Merkmale des Shaders darbietet. Burley erklärt darin, welche Prinzipien er seiner neuen Entwicklung zugrunde gelegt hat, und führt in einer Liste fünf Kriterien auf. Sie sind in der RenderMan-Dokumentation beinahe wortgleich wiedergegeben: »1. Intuitive rather than physical. 2. As few parameters as possible. 3. Parameters are zero to one over their plausible range. 4. Parameters are allowed to be pushed beyond their plausible range where it makes sense. 5. All combinations of parameters should be as robust and plausible as possible.« 38 35 Vgl. Kapitel 4.1 Der Realismus Pixars – Edwin Catmull als Brücke zwischen Produktions- und Bildästhetik. 36 Brent Burley: Physically Based Shading at Disney. Burbank, CA: Walt Disney Animation Studios, 2012. 37 RenderMan Documentation: PxrDisney. Ohne Datum. URL: https://renderman.pixar.com/resources/ RenderMan_20/PxrDisney.html. Zugriff am: 20.12.2021. BRDF steht für ›bidirectional reflectance dis tribution function‹, also für eine mathematische Funktion. 38 Ebd.
307
308
Scheler: Computergrafik
Wie in der RenderMan-Dokumentation anschließend erläutert wird, weiche die Umsetzung in einstellbare Parameter innerhalb der Software etwas von der Herangehensweise Disneys ab. Während der Original-Shader beispielsweise nur einen Parameter für die Farbgebung eines Objekts bereitstelle, bietet der veränderte PxrDisney-Shader einen zusätzlichen Regler für die emittierte Farbe eines Objekts sowie komplexere Subsurface-Scattering-Farbeinstellungen an.39 Deutlich wird zudem anhand der von Pixar verwendeten Formulierung des ›catch-all‹, dass sich über den neuen Shader nicht nur eine Verwandtschaft zu den historischen computergrafischen, sondern auch zu den US-amerikanischen kunstgeschichtlichen Entwicklungen anzeigen lässt. Der Shader ist für eine intuitive Arbeitsweise und ein intuitives Bildverständnis gestaltet – kurz: für die Erfüllung der Glaubwürdigkeitsmaxime. Wenn die Einstellungsparameter ›catch-all‹ sind, werden sie ebenso universell eingestuft, wie Sutherland es für sein Sketchpad-Programm beansprucht. Rein technisch lassen sich laut den hier zitierten Beschreibungen viele der Ansprüche, die an die Bildlichkeit formuliert werden, mit dem Shader wesentlich leichter und intuitiver umsetzen. Dass dabei kein neuer Anspruch an Bildlichkeit formuliert wird, sondern dass noch immer die eine spezifische Vorstellung von Bildlichkeit die Softwareentwicklung antreibt, lässt sich besonders eindrücklich anhand des ersten angeführten Prinzips herstellen: So heißt es dort, die Arbeit mit dem Shader solle eher auf Intuition als auf physikalischer Genauigkeit basieren. Die anderen Prinzipien greifen zudem den mit der Glaubwürdigkeit verwandten Begriff der Plausibilität auf. In der Kombination dieser Prinzipien kommt zum Ausdruck, dass es möglich ist, die Parameter des Shaders über eine bestimmte Grenze hinaus auszureizen, also die physikalischen Eigenschaften, auf denen der Shader basiert, für eigene Zwecke zu verfremden. Gleichwohl wird implizit deutlich, dass es nicht erwünscht ist, diese Grenze zu weit auszudehnen. Die Plausibilität – oder auch Integrität – sollte gewahrt werden. Dieser schmale Grat, der sich hier andeutet und auf den die Bildgestaltung angewiesen ist, um glaubwürdig zu bleiben, erinnert an das von Novak so bezeichnete Dilemma zwischen Idealismus und Realismus, in dem sich etwa der Maler Thomas Cole befunden habe. Auch dessen Haltung bringt – abstrahierend betrachtet – eine Nähe zu dem neuen Shader zum Ausdruck. Ihm war es ebenfalls wichtig, sich an der realen Umgebung zu orientieren, sie jedoch nie einfach zu kopieren, sondern eine neue Szenerie für ein neues Gemälde lediglich auf der Basis des Vorgefundenen zu erschaffen, dabei jedoch gleichzeitig eine eigenständige Komposition zu entwerfen. Außerdem wurde diese Haltung Coles Catmulls Vorstellung von kreativer Arbeit gegenübergestellt, weshalb es nun nicht verwundert, dass sich auch der neue Shading-Algorithmus hier einordnen lässt.40
39 Vgl. ebd. Subsurface Scattering kommt beispielsweise beim Shading von Haut zum Einsatz, da diese leicht transparent ist und untere Hautschichten die Reflexion des Lichts und damit das Er scheinungsbild der Haut mitbeeinflussen. Aufgrund der unterschiedlichen Farbgebung der ver schiedenen Hautschichten bieten Subsurface-Scattering-Shader in der Regel mehrere Farb-Ein stellungsparameter an, sodass die oberste Hautschicht am ehesten dem Hauptfarbton der Haut entspricht, während im Shader untere Hautschichten etwa mit einem fleischfarbenen Rotton versehen werden, sodass auf Basis dieser unterschiedlichen Farbtöne die leicht durchscheinende Qualität von Haut simuliert werden kann. 40 Vgl. Kapitel 4.1 Der Realismus Pixars – Edwin Catmull als Brücke zwischen Produktions- und Bildästhetik, S. 250.
Zum Sinnzusammenhang der 3D-Computergrafik
Sieht man vom Shading ab und wirft einen Blick auf die anderen Tätigkeitsbereiche des Studios, so zeigt sich, dass auch dort diese Vorstellung von Bildgestaltung nachweisbar ist. Besonders eindrücklich kommt sie bei der ehemaligen langjährigen Pixar-Mitarbeiterin Kyoung Swearingen zum Ausdruck, die in einem von mir durchgeführten Interview über ihre Arbeit im Bereich der Lichtregie spricht. Auch ihr Ansatz basiert auf der Glaubwürdigkeitsmaxime, denn die Frage, wie sie auf übergeordneter Ebene die Bildästhetik Pixars oder deren »signature look« beschreiben würde, beantwortet sie folgendermaßen: »[W]e try to achieve a believable look, instead of a realistic look. So, I would like to say, the […] image in my head about this cozy Christmas time in front of a fireplace, you know, that has the actual picture […] versus the actual, my aspired look, right? […] And I think what we are trying to more connect with this believability that we are imagining […] what it is like to be in that moment. And, I think that’s why image becomes – if you’re talking about signature look – I think that is more motive behind it, the overarching big motive on every single film that we’re trying to make believable, so that we can transfer the audience into that spot, right into Paris, right into, you know, I don’t know, Mon ster’s University, or what, you know, […] this imaginative place that […] it’s believable, I, I’m there kind of a feel.« 41 Anschließend geht sie beispielhaft darauf ein, wie sich diese Haltung in ihrem fachlichen Bereich der Lichtregie umsetzt: »So, for lighters, it’s, you know, we have to kind of think about the balance between, the real, the realistic or realism and something that is more palatable or more […] relat able. So, to create that […] we fake all the time, right? Trying to make that. So some times we defy that […] physics or we defy the, you know, things don’t make any sense […]. [T]here’s a light behind me, therefore my face is going to be really dark, because it’s a […] back light, but we don’t want that, we want to make sure that […] it’s. So there’s a story, there is a, a, emotion, there is the, the believability and those kind of combine into, you know, certain look and I think that’s more like an overarching kind of, I guess, kind of a drive […].« 42 Im weiteren Verlauf des Interviews berichtet Swearingen von einem konkreten Beispiel, in dem sie die physikalischen Gegebenheiten einer Szene nach eigenem Ermessen zu Gunsten einer stärkeren Glaubwürdigkeit verändert hat. So beschreibt sie eine Einstellung, in der eine Figur eine weiße Tasse in der Hand hält, die durch ihre weiße 41 Kyoung L. Swearingen; Carolin Scheler: Interview with Kyoung Lee Swearingen. Durchgeführt in Hildes heim, Columbus, OH. Göttingen: Research Online / Data, 11.02.2020, S. 5. URL: https://doi.org/10.25625/ VBODBG. Zugriff am: 08.03.2022. 42 Ebd., S. 5. Interessanterweise betonen sowohl Swearingen als auch der zuvor angeführte 3D-Artist Dominik Pott auf Nachfrage, dass sie selbst den von Pixar verfolgten Stil nicht als ihren eigenen be zeichnen würden. Während Pott nicht klar bestimmen kann, welche ästhetischen Entscheidungen er anders treffen würde, verweist Swearingen auf ihren asiatischen kulturellen Hintergrund, der ihr ästhetisches Empfinden und ihre gestalterische Arbeit stark prägt. Vgl. Swearingen; Scheler (2020): S. 7, und vgl. Pott; Scheler (2020): S. 26.
309
310
Scheler: Computergrafik
Oberf läche eigentlich als indirekte Lichtquelle dienen würde und dazu zum Einsatz kommen sollte, das Gesicht der Figur mit einem schwachen Lichtschein zu beleuchten. Um über das indirekte Licht des Bechers mehr Kontrolle zu haben, wurde an das virtuelle Objekt eine eigenständige Lichtquelle gekoppelt, die ein indirektes Licht lediglich simuliert, eigentlich jedoch eine direkte Lichtquelle darstellt. Am Ende erzeugte dieser Trick nicht die gewünschte Glaubwürdigkeit, also die gewünschte Lichtstimmung auf dem Gesicht der Figur, weshalb Swearingen dazu überging, ihre Lichtquelle etwas abseits von dem Becher zu platzieren, dort, wo rein physikalisch betrachtet gar kein Lichtschein seinen Ursprung hat.43 Swearingen betont anschließend ausdrücklich, dass es sich bei dem Verhältnis von Realismus beziehungsweise Physik und Glaubwürdigkeit lediglich auf übergeordneter Ebene um die bildästhetischen Ansprüche handele. Die einzelnen Regisseure der von Pixar erzeugten Spielfilme verfolgten in der Regel eigene bildästhetische Ideen.44 Dennoch wird an Swearingens Beschreibungen deutlich, dass auch die individuellen bildästhetischen Ausformungen von dem ›Dilemma‹ zwischen Idealismus und Realismus getragen werden. Auch die Charaktere, von denen die Filme leben und die sich auf bildästhetischer Ebene gar nicht mit der US-amerikanischen malerischen Tradition in Einklang bringen lassen, finden mit dieser abschließenden Erkenntnis einen Platz in dem von der vorliegenden Studie verfolgten gedanklichen Modell: Ebenso wie die Bilder der South Park-Serie und Claerbout rein produktionsästhetisch über einen gemeinsamen Sinnzusammenhang miteinander verbunden sind, weil sie im Rahmen derselben Softwarelandschaft entstanden sind, lassen sich auch die Charaktere als Teil dieses gemeinsamen Sinnzusammenhangs begreifen. Während also Claerbout in seiner Arbeit von den in der Software verankerten bildlichen Vorstellungen in selbstref lexiver Weise Notiz nimmt und in der Serie South Park die Vorgaben mit der verfolgten Bildästhetik beinahe vollkommen ignoriert werden, reagiert Pixar mit den in den Filmen dargebotenen Bildwelten vollumfänglich auf die produktionsästhetischen Kriterien, vor deren Hintergrund die Software entwickelt wurde. Sie sind in erheblichem Maße von den zuvor herausgearbeiteten übergreifenden bildästhetischen Kategorien der Nostalgie, des Lichts, der Stille und der Fotografie gekennzeichnet. Da das Bildgebungsverfahren der Fotografie inzwischen fest in der Software verankert ist, sind zunächst einmal auch die Pixarfilme demzufolge virtuelle fotografische Aufnahmen – so wie es aus rein produktionsästhetischer Perspektive ebenfalls für alle anderen Computergrafiken gilt, sogar für die Bilder der South ParkSerie. Pixar verwendet gegenüber den Produzenten von South Park allerdings auch die in der Software verankerte Möglichkeit, Linsenunschärfe zu simulieren, die bei fotografischen Aufnahmen üblicherweise durch die optische Beschaffenheit der Linse hervorgerufen wird.45 Claerbout macht ebenfalls Verwendung von dieser Option und weder er noch Pixar weichen in dieser Hinsicht von US-amerikanischen malerischen Ansprüchen ab, denn in der fotorealistischen Malerei der 1960er Jahre wurde die fotografische Schärfentiefe ebenfalls imitiert, beispielsweise in den großformatigen Porträts von Chuck Close.
43 Vgl. Swearingen; Scheler (2020): S. 8. 44 Vgl. ebd., S. 5–6. 45 Vgl. hierzu Kapitel 1.2.1 Starting from Scratch – Die Praxis der synthetischen Bilderzeugung.
Zum Sinnzusammenhang der 3D-Computergrafik
Der Aspekt des Lichts ist durch die Ausführungen von Swearingen bereits zur Sprache gekommen. Rein bildästhetisch ist auffällig, dass die Lichtstimmungen der Pixarfilme häufig auf die Lichtstimmungen der US-amerikanischen Landschaftsmalerei des 19. Jahrhunderts reagieren. Doch auch die zuvor angesprochenen Bezüge zu Edward Hoppers Malerei, die zum Beispiel die Toy Story-Filme auszeichnen und die vor allem durch die auch von Claerbout angesprochene Nachmittagssonne zum Ausdruck kommen, werden vor dem Hintergrund dieser abschließenden Schlussfolgerungen nun klarer. Da zudem Novak auch Hopper in die Tradition der Luministen stellt, geht selbst in den Bezügen, die Pixar zu Hopper herstellt, die Brücke von Pixar zum Luminismus nicht verloren. Zugleich nimmt das Animationsstudio auch häufig den eng mit dem Licht verknüpften Aspekt der Stille auf. Zunächst einmal ist die technisierte Bildumgebung von vornherein völlig geräuschlos und beinahe steril, weshalb 3D-Artists dem Anliegen, Computergrafiken lebendig und geräuschvoll zu gestalten, besonders viel Aufmerksamkeit schenken. Doch lässt sich in den Pixarfilmen die Stille auch als kulturelles Thema nachweisen, beispielsweise in dem Film WALL-E, benannt nach einem Roboter, der als letzter Bewohner der Erde den Müll der Menschheit aufräumt, während diese auf einem Raumschiff im Weltall ausharrt, bis potenziell wieder Leben auf dem verdorrten Planeten möglich ist. Die einzigen Geräusche, die die apokalyptische Landschaft dieses vollkommen verstummten Planeten prägen, sind die des Roboters. Die Stille in WALL-E ist gegenüber der Ruhe in den luministischen Gemälden nicht mehr von einer Gelassenheit geprägt, sie ist stattdessen überaus bedrohlich. Dennoch lassen sich vereinzelt auch Szenen identifizieren, in denen die Kombination aus Licht und Stille Frieden zum Ausdruck bringt, etwa, wenn WALL-E gemeinsam mit seiner Partnerin Eva, einem vom Raumschiff der Menschen angereisten weiteren Roboter, in den Sonnenuntergang blickt (s. Abb. 81, S. 254). Doch auch unabhängig von diesen vereinzelten Szenen kommt in dem computeranimierten Film eine tiefe von transzendentalistischer Spriritualität geprägte Sehnsucht nach Natur und Naturverbundenheit zum Ausdruck, da zentrale Elemente der Handlung von verzweifelten Versuchen erzählen, die vollkommene Zerstörung der Vegetation des Planeten langfristig wieder rückgängig zu machen. Dieser paradoxale Zustand, der sich daraus ergibt, dass ein Film aus einer hochtechnisierten Umgebung den Verlust der Natur kritisiert, wird im Fazit dieser Studie erneut aufgegriffen. Am eindrücklichsten lässt sich bei Pixar die ästhetische Kategorie der Nostalgie erkennen, denn es ist eine der charakteristischsten Aufgaben der synthetischen Bilderzeugung, die künstliche Umgebung lebendig aussehen zu lassen, um einen glaubwürdigen Eindruck zu vermitteln. Rein technisch ist diese ästhetische Kategorie durch Edwin Catmull mit seinen Texturen und durch James F. Blinn mit der Funktion der Bump Maps in dem Bereich des Shadings integriert worden. Es handelt sich hierbei um die beiden Funktionen, mit denen sich Oberf lächen farblich gestalten lassen oder mit denen ihnen eine Struktur beziehungsweise eine Patina verliehen werden kann. Der Wunsch, eine Vergangenheit – und damit indirekt auch eine Lebendigkeit – zu simulieren, prägt die virtuellen Bildwelten ebenso wie jene der Maler, wie beispielsweise William M. Harnett. Ähnlich wie dieser etwa das Gefühl für die nicht vorhandene Vergangenheit mit seinen Bildern erst erfand und als Ausdrucksmittel dafür eine Art Ästhetik des Verfalls kreierte, in der die dargestellten Objekte den Anschein erwecken, als seien sie alt und besäßen eine Geschichte, muss auch in der synthetischen Bilderzeugung mit dem Computer eine Patina künstlich erzeugt werden, denn die
311
312
Scheler: Computergrafik
virtuellen Objekte haben ebenso wie die damals noch junge Nation keine Vergangenheit, die sie hätte altern lassen können. Vor diesem Hintergrund verwundert es nicht, dass sich auch in den Pixarfilmen eine Pinnwand finden lässt, die – wie jetzt deutlich wird – nicht ausschließlich auf visueller Ebene so unverkennbar an die Letter Racks von William M. Harnett oder John F. Peto erinnert (Abb. 106 & 107). Doch auch über die Darstellung von Pinnwänden hinaus ist bei Pixar das künstliche Altern der dargestellten Szenerien auf allgemeiner Ebene ein überaus zentraler Aspekt der Bildgestaltung. Wie aus der Pixar-eigenen Veröffentlichung To Infinity and Beyond hervorgeht, erlangte die Ausgestaltung von Details mit der Produktion Cars46 aus dem Jahr 2006 einen neuen Stellenwert. Die Handlung spielt entlang der im Film nachgebildeten Route 66, an der sich aktuell noch immer viele verlassene und verfallene Ortschaften aneinanderreihen.47 Das Ziel war es, den bei Recherchereisen vorgefundenen Detailreichtum im Film nachzubilden, doch diese Aufgabe stellte für das Produktionsteam eine Herausforderung dar: »Patina, of course, is directly contrary to the preferences of the computer for the simple and the perfect. ›It takes so much effort,‹ said Lasseter. ›The design, the thought, the planning, the implementation, the art – every step until you get to the final screen. You’re just battling with the computer the whole way to make things less perfect. The eye is so comfortable with the organic world – the moment that something isn’t done to that level, it pops you out of the film. It ruins the suspension of disbelief.‹« 48 Eben Otsby, ein Kollege Lasseters, führt dessen Gedanken in seiner Funktion als leitender Technischer Regisseur des Films weiter aus: »We drove into the desert, to see the hills and clif fs and figure out how we could cap ture their essence and make it work in the film. We also took a lot of pictures of the way dirt piles up near roads, and the way paint peels of f buildings, all these things that give the sense of an old, somewhat down-at-the-heels town. Bill Cone was so interested in the beautiful desert light; that came together with the town to create something really unlike anything anyone’s ever done in CG before.« 49
46 Cars (USA 2006, R: John Lasseter). 47 Die Route 66 wurde im Jahr 1926 fertiggestellt und bot damit erstmals eine durchgehende Ver bindung vom Nordosten zum Südwesten der USA. Insbesondere in den 1930er Jahren gelangten viele Bewohner aus dem Mittleren Westen und den südlichen Great Plains über die neue Straße in die westlichen Staaten, um sich dort – dem Sinnbild des ›promised land‹ folgend – ein neues Leben aufzubauen. Nachdem die Straße während des Zweiten Weltkriegs auch militärisch genutzt wurde und im Anschluss des Krieges die Siedlungen entlang der Route einen wirtschaftlichen Aufschwung erlebten, kam diese Entwicklung mit dem Federal-Aid Highway Act des damaligen Präsidenten Dwight D. Eisenhower im Jahr 1956 zum Ende, da die neuen Schnellstraßen parallel zur Route 66 gebaut wurden. Als Verkehrsstrecke wurde die Route 66 schließlich überflüssig, weshalb die Be siedelung entlang der Straße langfristig abnahm. Vgl. Michael Wallis: Foreword: America’s Road. In: A Route 66 Companion. Hrsg. v. David King Dunaway. Austin: University of Texas Press, 2012, S. ix–xii, hier S. ix–x. 48 Paik; Iwerks (2007): S. 268. 49 Ebd., S. 268. CG steht für Computer Graphics.
Zum Sinnzusammenhang der 3D-Computergrafik
Abb. 106: John F. Peto, Of fice Board, 1885, Öl auf Leinwand, 61,9 x 50,5 cm.
Abb. 107: Lee Unkrich (Regie); Pixar Animation Studios: Standbild aus Toy Story 3, 2010, 3D-Computergrafik.
Nicht nur das Thema der Nostalgie, des Verfalls wird hier angesprochen, auch der Wunsch, die Idee, das Konzept von einer vorgefundenen Umgebung einzufangen, kommt hier erneut über den Begriff der ›essence‹ zum Ausdruck. Wie nun aufgezeigt werden konnte, lassen sich die vier zuvor herausgearbeiteten ästhetischen Kategorien nicht nur in der Software selbst, sondern bei Pixar auch stilgeschichtlich nachweisen. Das Animationsstudio arbeitet also sowohl produktions- als auch bildästhetisch mit kulturellen Artefakten, die auch die zuvor beschriebenen malerischen Tendenzen innerhalb der USA geprägt haben. Obwohl sich sicherlich noch weitere ästhetische Kategorien herausarbeiten ließen, konnte bis zu diesem Punkt der vorliegenden Studie nachgewiesen werden, dass zwischen der historischen Entwicklung der Computergrafik und der US-amerikanischen Malerei eine Verwandtschaft besteht, hier insbesondere zum Luminismus und damit zugleich zum Transzendentalismus des 19. Jahrhunderts. Auffällig ist, dass der Transzendentalismus von einem ähnlichen Paradox gekennzeichnet ist, wie es in dem Film WALL-E zum Ausdruck
313
314
Scheler: Computergrafik
kommt. Das Paradox steht für ein tief in der US-amerikanischen Kultur verankertes Weltbild, das – so die Annahme für die abschließenden Überlegungen – die 3D-Grafiksoftware und damit auch den praktischen Umgang mit ihr maßgeblich prägt. Hier liegt in letzter Konsequenz der Kern des gemeinsamen Sinnzusammenhangs aller 3DComputergrafiken, auch jener, die die produktionsästhetischen Merkmale nicht bildästhetisch zum Ausdruck bringen. Zahlreiche Aspekte, die hierzu zählen, sind über die kunstgeschichtlichen Betrachtungen schon genannt worden – sie sollen nun zum Schluss noch einmal gezielt im Hinblick auf einen größeren kulturhistorischen Hintergrund gebündelt werden.
5.2
Zum kulturhistorischen Hintergrund synthetischer Bilder
Yet this twilight mood, a blend of sadness and repose, succeeds aesthetically. It is a virtual resolution. Like the middle landscape, or the ritual marriage at the end of a pastoral romance, this consolatory prospect figuratively joins what has been apart.50 – Leo Marx (1964)
In seiner 1964 veröffentlichten Monografie The Machine in the Garden setzt sich der USamerikanische Kulturhistoriker und Amerikanist Leo Marx eingehend mit dem Paradox auseinander, dass für die US-amerikanische kulturelle Entwicklung nicht nur der Aspekt der Natur, sondern auch der vermeintlich dazu im Gegensatz stehende Wunsch nach technologischem Fortschritt maßgeblich identitätsstiftend sei. Seine Studie und die von ihm bearbeitete Thematik geht aus seiner Dissertationsschrift aus dem Jahr 1949 hervor51 – ein Detail, mit dem sich die Gedankenführung von Marx in eine Perspektive rücken und anschlussfähig machen lässt, denn in vielen Hinsichten entsprechen seine Denkansätze nicht denen, die heute in der Amerikanistik den Ausgangspunkt vieler Untersuchungen bilden.52 Marx’ Erkenntnisse sind jedoch in vielen anderen Hinsichten überaus aktuell, weshalb sich damit nicht nur im Hinblick auf politische Phänomene, die sich in den heutigen USA ereignen, sondern auch im Hinblick auf technikkulturelle Phänomene – wie zum Beispiel die in der vorliegenden Studie thematisierte Computergrafik – Erkenntnisse gewinnen lassen. Seine Beobachtung, dass nicht nur der Aspekt der Natur, sondern ebenfalls das Thema des technologischen Fortschritts für die USA identitätsstiftend sei, arbeitet Marx in drei wesentlichen Schritten heraus. Er setzt sich zunächst mit dem Begriff 50 Marx (2000): S. 31. 51 Vgl. ebd., S. 367. 52 Die Problematik wurde auch im ersten Teil der Studie thematisiert. Vgl. hierzu Fn. 55 in Kapitel 1.1.2 Aufbau der Studie, S. 27.
314
Scheler: Computergrafik
kommt. Das Paradox steht für ein tief in der US-amerikanischen Kultur verankertes Weltbild, das – so die Annahme für die abschließenden Überlegungen – die 3D-Grafiksoftware und damit auch den praktischen Umgang mit ihr maßgeblich prägt. Hier liegt in letzter Konsequenz der Kern des gemeinsamen Sinnzusammenhangs aller 3DComputergrafiken, auch jener, die die produktionsästhetischen Merkmale nicht bildästhetisch zum Ausdruck bringen. Zahlreiche Aspekte, die hierzu zählen, sind über die kunstgeschichtlichen Betrachtungen schon genannt worden – sie sollen nun zum Schluss noch einmal gezielt im Hinblick auf einen größeren kulturhistorischen Hintergrund gebündelt werden.
5.2
Zum kulturhistorischen Hintergrund synthetischer Bilder
Yet this twilight mood, a blend of sadness and repose, succeeds aesthetically. It is a virtual resolution. Like the middle landscape, or the ritual marriage at the end of a pastoral romance, this consolatory prospect figuratively joins what has been apart.50 – Leo Marx (1964)
In seiner 1964 veröffentlichten Monografie The Machine in the Garden setzt sich der USamerikanische Kulturhistoriker und Amerikanist Leo Marx eingehend mit dem Paradox auseinander, dass für die US-amerikanische kulturelle Entwicklung nicht nur der Aspekt der Natur, sondern auch der vermeintlich dazu im Gegensatz stehende Wunsch nach technologischem Fortschritt maßgeblich identitätsstiftend sei. Seine Studie und die von ihm bearbeitete Thematik geht aus seiner Dissertationsschrift aus dem Jahr 1949 hervor51 – ein Detail, mit dem sich die Gedankenführung von Marx in eine Perspektive rücken und anschlussfähig machen lässt, denn in vielen Hinsichten entsprechen seine Denkansätze nicht denen, die heute in der Amerikanistik den Ausgangspunkt vieler Untersuchungen bilden.52 Marx’ Erkenntnisse sind jedoch in vielen anderen Hinsichten überaus aktuell, weshalb sich damit nicht nur im Hinblick auf politische Phänomene, die sich in den heutigen USA ereignen, sondern auch im Hinblick auf technikkulturelle Phänomene – wie zum Beispiel die in der vorliegenden Studie thematisierte Computergrafik – Erkenntnisse gewinnen lassen. Seine Beobachtung, dass nicht nur der Aspekt der Natur, sondern ebenfalls das Thema des technologischen Fortschritts für die USA identitätsstiftend sei, arbeitet Marx in drei wesentlichen Schritten heraus. Er setzt sich zunächst mit dem Begriff 50 Marx (2000): S. 31. 51 Vgl. ebd., S. 367. 52 Die Problematik wurde auch im ersten Teil der Studie thematisiert. Vgl. hierzu Fn. 55 in Kapitel 1.1.2 Aufbau der Studie, S. 27.
Zum Sinnzusammenhang der 3D-Computergrafik
des ›Gartens‹ auseinander, anschließend mit dem der ›Maschine‹ und synthetisiert in einem dritten Schritt seine Erkenntnisse zu beiden Phänomenen. Zentral sind für ihn eine Reihe historischer Dokumente aus der Gründungszeit der neuen Staaten, hier beispielsweise die Abhandlung Notes on the State of Virginia, veröffentlicht von Thomas Jefferson im Jahr 1785, der nur wenig später von 1801 bis 1809 das Amt des dritten Präsidenten der USA innehatte. Marx wendet im letzten Teil seiner Studie seine Erkenntnisse schließlich in einer literaturwissenschaftlichen Auseinandersetzung auf zentrale US-amerikanische literarische Beiträge an. Besonderen Fokus legt er beispielsweise auf Autoren wie Nathaniel Hawthorne, Herman Melville und Mark Twain, doch er bezieht auch die dem Transzendentalismus zugeordneten Autoren Ralph Waldo Emerson und Henry David Thoreau in seine Betrachtungen ein. Die in diesem Zusammenhang von ihm formulierten Erkenntnisse sind für den gemeinsamen Sinnzusammenhang der 3D-Grafiken besonders aufschlussreich. Um Marx’ Gedankenführung folgen zu können, ist es zunächst notwendig, seinen Naturbegriff nachzuvollziehen. Marx beschreibt, inwiefern die Symbolik der Natur in der Wahrnehmung der ersten Siedler sich zwischen zwei gegenüberliegenden Extremen bewegt habe. So habe die vermeintlich unberührte Natur einerseits für einen Rückzug von den korrupten Strukturen der europäischen Zivilisation, für einen Ort der Unabhängigkeit, Regeneration, Fruchtbarkeit und Fülle gestanden. Andererseits hätten die Siedler die vorgefundene Realität oft genau gegenteilig erlebt, da das Land auf sie häufig zugleich unbewohnbar, wild und bedrohlich gewirkt habe.53 Wie Marx beispielhaft anhand von Jeffersons Aufzeichnungen darstellt, sei den Siedlern das Leben der indigenen Einwohner, die in der Wahrnehmung der Kolonisten ebenfalls der wilden, bedrohlichen Natur zugeordnet wurden, in gewisser Weise bewundernswert erschienen, denn – wie Jefferson feststellt – seien sie mit der wilden Natur nicht nur zurechtgekommen, sie seien mit ihr auch vollkommen im Einklang gewesen. In der Textstelle Jeffersons, auf die sich Marx bezieht, stellt Jefferson das indigene Leben dem der zivilisierten und korrupten Gesellschaft in Europa gegenüber und gelangt dabei sogar zu dem Schluss, dass er die Lebensweise der indigenen Bevölkerung den europäischen Strukturen vorziehen würde. Doch wie Marx aufzeigt, sei für Jefferson weder das eine noch das andere Lebenskonzept infrage gekommen: »Jefferson is not endorsing the Indian style of life here. What appears as a preference for the primitive actually is a rhetorical device: were it made a question, he says, he would prefer the Indian way, the whole point being that in the New World such questions need not arise.«54 Entsprechend der Hauptargumentationslinie von Marx habe sich – hier stark verkürzt dargestellt – aus diesem beispielhaft anhand von Jefferson zum Ausdruck gebrachten Zwiespalt ein Lebenskonzept herausgebildet, das genau zwischen den beiden Polen
53 Vgl. Marx (2000): S. 36–41. 54 Ebd., S. 121. Herv. i. O. Die Textstelle Jeffersons, auf die sich Marx bezieht, lautet: »Imperfect as this species of coercion may seem, crimes are very rare among them: insomuch that were it made a question, whether no law, as among the savage Americans, or too much law, as among the civilized Europeans, submits man to the greatest evil, one who has seen both conditions of existence would pronounce it to be the last, and that the sheep are happier of themselves than under care of the wolves.« Thomas Jefferson; David Waldstreicher (Hgg.): Notes on the State of Virginia. With Re lated Documents. New York, NY: Palgrave, 2002, S. 144.
315
316
Scheler: Computergrafik
liegt – etwas, das Marx in seiner Studie fortan als »middle landscape«55 bezeichnet. Ausgehend von dieser Begriffspaarung arbeitet Marx heraus, dass sich allmählich ein Naturbegriff entwickelt habe, der weder die bedrohliche Wildnis verkörpere noch ein naives paradiesisches Refugium für all diejenigen, die der europäischen Lebensweise entkommen wollten. Die auf diese Weise definierte Natur war nicht einfach ein lieblicher Rückzugsort, sondern sie bot eine Möglichkeit, sich auf neue und vor allem eigenständige Weise zu versorgen. Die Natur wurde in dieser Logik zu einem Wegbereiter der Selbstverwirklichung, denn sie wurde als etwas betrachtet, das von jedem Bewohner beackert und bewirtschaftet, also zu den jeweils eigenen Gunsten verändert werden durfte. Marx verweist deshalb auch auf die gewaltsame Konnotation dieses Naturbilds: »To describe America as a hideous wilderness, however, is to envisage it as another field for the exercise of power. This violent image expresses a need to mobilize energy, postpone immediate pleasures, and rehearse the perils and purposes of the commu nity. Life in a garden is relaxed, quiet, and sweet […], but survival in a howling desert demands action, the unceasing manipulation and mastery of the forces of nature, in cluding, of course, human nature. Colonies established in the desert required aggres sive, intellectual, controlled, and well-disciplined people.« 56 Mit dem neuen Naturbegriff wurde im 18. Jahrhundert auch ein moralischer Anspruch verknüpft. Ein gutes und vorbildliches Leben zu führen, bedeutete, als Landwirt zu leben und zu arbeiten.57 Marx führt in diesem Zusammenhang sogar eine Statistik an und stellt fest, dass »[a]t the time nine out of ten Americans were farmers living in a virtually classless society […]«58. Die Natur war für dieses Lebenskonzept die wesentliche Grundlage, weshalb sie für die ›Neue Welt‹ in zentraler Weise identitätsstiftend wurde. Es entstand zu jener Zeit eine spezifische Form der Naturverbundenheit – wenngleich es stets darum ging, die Natur zu kultivieren. Marx’ grundsätzliches Anliegen ist es, der Frage nachzugehen, wie sich die Maschine in dieses Verständnis von der Natur integrieren ließe. Die in Großbritannien auf keimende Industrialisierung und die in den Fabriken herrschenden Arbeitsbedingungen schienen zunächst nicht mit dem ländlichen Ideal vereinbar zu sein.59 In seiner Studie zeigt Marx allerdings auf, dass die Maschine nach und nach allmählich in das Bild des landschaftlichen Ideals integriert worden sei. Man begann die Maschine damit zu rechtfertigen, dass sie die schwere Landarbeit erleichtern würde und damit das Ziel, die Natur und sein Stück Land für die eigene Selbstverwirklichung zu kultivieren, erst recht und besonders leicht erreichen könnte. Wieder leitet Marx diesen Gedanken beispielhaft anhand von Jefferson her:
55 Marx (2000): bspw. S. 138. 56 Ebd., S. 43 57 Vgl. ebd., S. 98–101. Bei Jefferson war damit auch die Idee verknüpft, sich selbst zu versorgen. Vgl. Marx (2000): S. 126–127. 58 Marx (2000): S. 115. 59 Vgl. ebd., bspw. S. 103–104.
Zum Sinnzusammenhang der 3D-Computergrafik
»From Jefferson’s perspective, the machine is a token of that liberation of the human spirit to be realized by the young American Republic; the factory system, on the other hand, is but feudal oppression in a slightly modified form. Once the machine is removed from the dark, crowded, grimy cities of Europe, he assumes that it will blend harmoni ously into the open countryside of his native land. He envisages it turning millwheels, moving ships up rivers, and all in all, helping to transform a wilderness into a society of the middle landscape.« 60 Andere, radikalere Stimmen verwiesen zudem auf den Aspekt der Unabhängigkeit. Während zu Beginn Rohstoffe zur Verarbeitung noch nach Europa transportiert wurden, um dort zu Produkten weiterverarbeitet zu werden, sei man zu der Einsicht gelangt, dass eine wirkliche Unabhängigkeit von Europa nur zu bewerkstelligen sei, wenn Maschinen in diesen Prozess einbezogen würden, die im eigenen Land zum Einsatz kämen.61 Zugleich konnte gerade auch die Eisenbahn den für die neue Nation formulierten Werten der Demokratie und Enthierarchisierung gerecht werden, da es mit der auf diese Weise neu gewonnenen Mobilität möglich war, Handelsgut gleichmäßig zu verteilen und nicht nur jenen Menschen vorzubehalten, die sich an dem Ort der Verarbeitung befinden. Die Eisenbahn war demnach ein Sinnbild für »a testament to the will of man rising over natural obstacles.«62 Die Symbolkraft der Eisenbahn fasst Marx weiter zusammen: »Associated with what seemed a world-wide surge of the poor and propertyless, with democratic egalitarianism, the machine is used to figure an unprecedented release of human energy in science, politics, and everyday life. Armed with this new power, man kind is now able, for the first time, to realize the dream of abundance. The entire cor pus of intoxicated prose seems to rest on the simple but irresistible logic of first things first: all other hopes, for peace, equality, freedom, and happiness, are felt to rest upon technology.« 63 Marx führt seine hier hervorgebrachten Schilderungen im Anschluss in direkter Weise mit Aussagen Emersons zusammen, in denen ebenfalls zum Ausdruck kommt, dass er den Fortschritt des Menschen eng mit technologischen Entwicklungen verknüpft beziehungsweise dadurch ermöglicht sieht.64 Bevor Marx sich der literarischen Auseinandersetzung mit diesem Phänomen zuwendet, in der Emerson erneut eine zentrale Rolle einnimmt, beschreibt er, inwiefern die Technologisierung der Nation in Zeitungen und Zeitschriften aufgefasst und dargestellt wurde. Insgesamt bildete sich auch in diesen populären Medien eine Euphorie über die voranschreitende Technologisierung des Landes ab. Der Grundton der Zeit schien zu sein, dass der technologische Fortschritt als Voraussetzung zur Verwirklichung seines eigenen Glücks empfunden wurde, weshalb, so beschreibt es Marx, »Americans have seized upon the machine as 60 Ebd., S. 150. 61 Marx bezieht sich hier auf den Politiker Tench Coxe, der sich im 18. Jahrhundert intensiv für den Auf bau von Fabriken einsetzte. Vgl. Marx (2000): S. 153–159. 62 Marx (2000): S. 191. 63 Ebd., S. 191–192. 64 Vgl. ebd., S. 192.
317
318
Scheler: Computergrafik
their birthright.«65 Das spezifisch Amerikanische an dieser Erfahrung führt Marx darauf zurück, dass sich der dortige Umschwung von einer landwirtschaftlichen zu einer industriellen Nation auf eine sehr zügige Weise vollzog und damit ein Extrem überaus plötzlich in ein anderes kippte.66 Vor dem Hintergrund dieser hier nachgezeichneten geschichtlichen Entwicklungen wird nun Marx’ Argumentationsweise besonders deutlich, wenn er darstellt, dass in den USA die Maschine nicht als etwas eingeordnet werden kann, das dem Garten gegenübersteht. Vielmehr müsse sie als Teil des Naturbilds verstanden werden. Es handelt sich demnach gar nicht um ein Paradox im eigentlichen Sinne, so wie es zu Beginn dieses Kapitels dargestellt wurde, sondern um zwei Elemente, die eng miteinander verwoben und damit Teil einer gemeinsamen Dynamik geworden sind. Sie bildet den Kern des von Marx so bezeichneten ländlichen Ideals (›pastoral ideal‹), denn es gehe nicht einfach darum, den Garten für sich genommen zu beschreiben, sondern ihn stets vor der Folie der längst erfolgten Industrialisierung zu definieren. Als Motiv wird diese Dynamik sowohl von der Literatur als auch von der Malerei – gerade auch im 19. Jahrhundert – häufig aufgegriffen. Insbesondere in der Literatur werde, so Marx, das ländliche Ideal häufig in Form eines Konf likts zwischen Garten und Maschine, also zwischen ›Natur‹ und ›Kunst‹, dargestellt, nur um anschließend zu versuchen, diese Extreme wieder miteinander zu versöhnen.67 Zum Ausdruck gebracht werde der Konf likt etwa häufig durch den Rückzug des Protagonisten in die Natur als Reaktion auf seine korrupte zivilisierte Lebensumwelt, jedoch nicht, um dort für immer zu verweilen, sondern um einen Lern- oder Wachstumsprozess zu erleben und schließlich in die zivilisierte Umgebung zurückzukehren.68 Die Störung durch die Maschine bilde dabei häufig gar keine äußere Störung der Natur durch die Maschine ab, sondern vielmehr einen inneren Prozess, bei dem es darum gehe, die eigene Vorstellung der Natur mit dem Bild der Maschine in Einklang zu bringen.69 Besonders beispielhaft zeige sich dieses Motiv etwa in Thoreaus Walden, doch arbeitet Marx es ebenso in Melvilles Moby Dick, in verschiedenen Texten Hawthornes sowie in Twains Huckleberry Finn heraus.70 Einen besonders prominenten Platz in seiner Untersuchung widmet Marx, noch bevor er sich den anderen literarischen Beiträgen zuwendet, den Texten Emersons. Obwohl Marx in einer Fußnote anmerkt, Emerson sei in späteren Schriften zunehmend kritisch gegenüber technologischem Fortschritt gewesen,71 zeigt Marx auf, dass Emerson sich über 65 Ebd., S. 205. Zu den unterschiedlichen Auffassungen in Zeitschriften vgl. Marx (2000): S. 194–207. Marx geht auch auf kritische Stimmen ein, merkt hier jedoch an, dass diese nicht in gleicher Weise Verbreitung gefunden hätten wie die populäreren Veröffentlichungsorgane. Die Kritik wurde hierbei zudem keinesfalls aus einem homogenen Kreis heraus geäußert, denn sie setzte sich auf der einen Seite aus Verteidigern der Sklaverei im Süden des Staatenbundes und auf der anderen Seite auch aus sozialistischen, literarischen oder religiösen Gruppierungen zusammen. Vgl. Marx (2000): S. 219. 66 Vgl. Marx (2000): S. 203–204. 67 Vgl. ebd., S. 24–33. 68 Vgl. ebd., S. 71. 69 Vgl. ebd., S. 28. 70 Marx merkt allerdings an, dass durch die Rückkehr der Protagonisten in die Zivilisation der Konflikt in der Literatur häufig ungelöst bleibe, etwa weil die Hauptfiguren am Ende der Handlung sterben oder weil sie von der restlichen Gesellschaft völlig entfremdet sind. Vgl. Marx (2000): S. 364. 71 Vgl. Marx (2000): S. 263.
Zum Sinnzusammenhang der 3D-Computergrafik
den industriellen Fortschritt in seinen zentralen Veröffentlichungen ähnlich begeistert äußert wie die Stimmen aus den populären Magazinen und Zeitungen: »Of American writers with authentic gifts, Emerson and Whitman pay the most direct, wholehearted tribute to this industrialized version of the pastoral ideal.«72 Wie Marx darstellt, beginnt Emersons literarische Karriere mit seinem Essay Nature, in dem er erstmals die »rhetoric of the technological sublime«73 aufgreife. Vergleichbar mit den anderen genannten Autoren beginne auch Nature zunächst mit einem Rückzug in die Natur. Dennoch wende sich Emerson von der Zivilisation und auch der Technologie nicht vollkommen ab. Marx leitet Emersons Haltung von Immanuel Kants Begriffen der Vernunft und des Verstands ab. Das, was Marx als »the dualistic theory of mind«74 bezeichnet, sei prägend für das romantische Landschaftsideal, wie es auch bei Emerson zum Ausdruck komme: »Although the prudent, sensible Understanding may be trained in schools and cities, the far-ranging, visionary Reason requires wild or rural scenes for its proper nurture.«75 Wie sich in diesem Denkmodell andeutet, befürwortete Emerson durchaus die städtische Zivilisation. Emerson sei sogar ähnlich wie Jefferson davon überzeugt gewesen, dass wissenschaftliche Erkenntnis und Technologie der Vorstellung eines grundsätzlich ländlichen Lebens dienen können.76 Wie Marx darstellt, konnte die Maschine auch in Emersons Vorstellung einen Beitrag zur Selbstverwirklichung des Menschen leisten: »In the decade before 1844 Emerson repeatedly draws upon the facts of technological progress to illustrate his exultant sense of human possibilities. For him, new inventions are evidence of man’s power to impose his will upon the world.«77 Insgesamt lässt sich über Emerson festhalten, dass für ihn die von der Menschheit hervorgebrachte Technologie ebenso wie auch der Mensch als Teil der Natur gilt, weshalb sie für ihn keinen Konf likt mit der Natur darstellt.78 Stattdessen sei sie in seinen Augen für die junge Nation sogar identitätsstiftend. Wie beispielsweise in Emersons Vortrag The Young American zum Ausdruck kommt, sei die Maschine, vor allem die Eisenbahn und das Dampfschiff, für ihn ein »instrument of national unity.«79 Vor dem Hintergrund dieser Einblicke in Emersons Denken wundert es nicht, dass Barbara Novak den Luminismus, der Emersons Transzendentalismus nahestand, als eine der ersten wirklich ›einheimischen‹ malerischen Strömungen der USA bezeichnet, denn die Art und Weise, wie sich ein Sinn für die Natur zugleich mit einem Sinn für technologischen Fortschritt vermengt, ist in weiten Teilen der US-amerikanischen Kultur fest verankert. Nicht nur die Malerei ist häufig davon geprägt, sondern, wie Marx anhand zahlreicher unterschiedlicher Arbeiten aufzeigt, auch die Literatur. Dass nun der gemeinsame Sinnzusammenhang der 3D-Grafiken sich ebenfalls aus diesem kulturellen Erbe speist, konnte über die ästhetischen Kategorien der US-amerikanischen realistischen Malerei herausgearbeitet werden. Wie lässt sich zum Schluss der vorliegenden
72 Ebd., S. 220. 73 Ebd., S. 230. 74 Ebd., S. 233. 75 Ebd., S. 233. 76 Vgl. ebd., S. 236. 77 Ebd., S. 230. 78 Vgl. ebd., S. 242. 79 Ebd., S. 234.
319
320
Scheler: Computergrafik
Studie also konkret ein Bezug zwischen den historischen computergrafischen Entwicklungen und den Beobachtungen von Leo Marx herstellen? Zahlreiche Themen, die Marx insbesondere vor dem Hintergrund seiner Schilderungen zu Emerson anführt, lassen sich auch in den technischen Beschreibungen der im Rahmen der vorliegenden Studie vorgestellten Ingenieure wiederfinden. Beide Komponenten der Computergrafik – also die Grafik und der Computer – können Emersons Vorstellungen gerecht werden, wenn Rule und Coons die Grafik als Gedankeninstrument bezeichnen oder wenn Engelbart sich den Computer als Erweiterung des Intellekts vorstellt. Bei allen dreien deutet sich hier eine Nähe zu Emersons Wertschätzung für den menschlichen Geist und dessen Denkvermögen an. Insbesondere aber die Äußerungen Engelbarts über die Aborigines, deren Lebensweise er seine eigenen Vorstellungen von Fortschritt gegenüberstellt, erscheinen vor dem Hintergrund von Marx’ Bild der ›middle landscape‹ in einem neuen Licht: Die Aborigines sind für Engelbart ebenso ›wild‹ wie für Jefferson die indigene Bevölkerung, auf die die ersten Siedler in der neuen Welt trafen, obwohl Engelbarts Ausführungen rund 177 Jahre nach Jeffersons erfolgen. Für Engelbart kommt ebenso wenig wie für Jefferson in Frage, die Lebensweise der indigenen Menschen so anzuerkennen, wie sie ist. Beiden liegt der Gedanke der Selbstverwirklichung zugrunde, der wiederum bedeutet, sich nicht in die Hände der Natur zu begeben, sondern die Natur in die eigene Hand zu nehmen. Der Vorgang ist dabei eine intellektuelle Leistung, die sich über die Maschine noch steigern lässt. Rules und Coons’ Aussage, die Grafik sei ein Instrument, mit dem sich ein »augmented advantage over nature«80 gewinnen ließe, lässt sich in direkter Weise hier einreihen. Sie verwenden sogar den Begriff der Natur, wenngleich sie ihren Satz in keiner Weise mit einem Kontext versehen, weshalb im Rahmen ihres Grafikhandbuchs gar nicht deutlich wird, was sie mit einem ›erweiterten Vorteil der Natur gegenüber‹ eigentlich zum Ausdruck bringen möchten. Vor dem Hintergrund der ›middle landscape‹ erinnert Rules und Coons’ Formulierung jedoch stark an die kultivierte Landschaft, denn nimmt man die beiden Autoren beim Wort, gehen sie ebenfalls davon aus, dass die Natur nicht sich selbst überlassen werden solle. Stattdessen solle sie gebändigt werden. Es geht darum – wie sie es wörtlich sagen –, sich ihr gegenüber einen Vorteil zu verschaffen. Besonders interessant ist, dass Timothy Walker, einer der schon früh auftretenden radikaleren Verfechter der Industrialisierung, mit dem sich Marx im Rahmen seiner Studie auseinandersetzt, ebenfalls ein Buch über Geometrie verfasst hat.81 Marx merkt dieses Detail über Walkers mathematische Kenntnisse lediglich in einer Klammer an, um dessen sehr stringentes Argumentationsverhalten zu erläutern. Beruf lich war dieser als Anwalt tätig, doch er verstand sich laut Marx zugleich als »America’s attorney«82 und habe in dieser Rolle die Position verbreitet, die Technologie würde die animalischen Verhaltensweisen des Menschen ersetzen und seinen Geist befreien.83 Für Walker gelte deshalb: »Without Technology there would be no culture.«84 80 Rule; Coons (1961): S. vii. 81 Vgl. Marx (2000): S. 185. 82 Ebd., S. 181. 83 Vgl. ebd., S. 186. 84 Ebd., S. 184. Auch Cardoso Llach bezieht sich in seiner Studie zur Architektursoftware auf Walker. Er erkennt in dessen Haltung eine Verbindung zu Coons’ problematischer Vorstellung der Maschinen
Zum Sinnzusammenhang der 3D-Computergrafik
Ähnlich wie Emerson ordnete auch Walker Technologie als ein Mittel ein, mit dem sich die egalitären Ansprüche und Ideale, die für die junge Nation formuliert wurden, einlösen ließen. Insbesondere Emersons Gedanke, die Technologie trage zur Einheit der Bevölkerung bei, lässt sich mit dieser Haltung Walkers in Verbindung bringen. Marx stellt in Bezug auf Emerson jedoch auch eine Bewusstseinsebene heraus, die für Walker nicht in derselben Weise gilt, denn »Emerson’s attitude follows from the assumption of philosophical idealism. What we do with instruments of power depends, finally, upon the way we perceive them.«85 Mit der Formulierung ›instruments of power‹ nimmt Marx Bezug auf technologische Entwicklungen, und obwohl er hier veranschaulicht, dass Emerson die Verbindung zwischen Fortschritt und Macht bewusst ist, wird ebenfalls deutlich, dass Emerson dieser Macht nicht zweifelnd, sondern optimistisch gegenüberstand. Begründen lässt sich diese zuversichtliche Haltung mit seiner Auffassung, die Technologie sei – da sie menschengemacht ist – ebenfalls Teil der Natur. Darüber hinaus sei für ihn jede Form von Fortschritt nicht etwas gewesen, das sich von selbst vollzieht, weshalb Emerson in seinen Reden, etwa in The Young American, an die Gesellschaft appellierte, die Entwicklung der Nation aktiv voranzutreiben. Den Künstlern misst Emerson bei dieser Aufgabe, hier in seinem eigenen Wortlaut, eine besondere Verantwortung bei: »There is no feature of the old countries that more agreeably and newly strikes an American, than the beautiful gardens of Europe; such as the Boboli in Florence, the Villa Borghese in Rome, the Villa d’Este in Tivoli, the gardens at Munich, and at Frankfort on the Maine: works easily imitated here, and which might well make the land dear to the citizen, and inflame patriotism. It is the fine art which is left for us, now that sculpture, and painting, and religious and civil architecture have become effete, and have passed into second childhood.« 86 Wie hier explizit von Emerson angesprochen, liegt seinen Gedanken ein tiefer Patriotismus zugrunde. Emerson bringt in der Rede ebenfalls seine Überzeugung zum Ausdruck, dass es in jeder Gruppe und Gemeinschaft Führungspersönlichkeiten geben sollte und dass manchen diese Rolle natürlicherweise liege. Ausgehend von dieser Vorstellung kommt schon in dem vorangestellten Zitat zu Beginn des vorliegenden Abschnitts zum Ausdruck, dass er in einem größeren Maßstab, also in Bezug auf andere Nationen, Amerika in dieser Führungsrolle sieht.87 Wenn zu Beginn dieses Teils also gefragt wurde, warum sich die Entwicklung der kommerziellen Computergrafik auf die in dieser Studie beschriebene Weise zugetragen hat, kann mit Marx darauf eine Antwort gegeben werden. Der Sinnzusammenhang des bildgebenden Verfahrens wird vor dieser kulturellen Kulisse besonders als Sklaven, um den Menschen von eintönigen und automatisierbaren Aufgaben zu entlasten. Vgl. Cardoso Llach (2015): S. 65. Das von Cardoso Llach beschriebene Prinzip ›mind over matter‹, das im Forschungsstand der vorliegenden Studie thematisiert wird, lässt sich hier ebenfalls einordnen. Auch hier kommt zum Ausdruck, dass intellektuelle Arbeit über der handwerklichen steht. Vgl. Cardoso Llach (2015): S. 1, und vgl. in der vorliegenden Studie S. 41–42. 85 Marx (2000): S. 241. 86 Emerson (1971b): S. 227. 87 Vgl. ebd., S. 238–239.
321
322
Scheler: Computergrafik
deutlich. Die 3D-Computergrafik eint die beiden in diesem fünften Teil der Studie zusammengeführten Bereiche der Technologie und der Bildkultur, wobei sich sowohl die technologischen als auch die bildkulturellen Bestrebungen vor diesem von Marx beschriebenen Hintergrund entwickelt haben. Und gerade durch ihre Zusammenkunft in der 3D-Computergrafik ist ein originär US-amerikanisches Ausdrucksmittel entstanden, das beinahe als paradigmatisches Destillat der kulturellen Entwicklung des Landes seit der Besiedelung aufgefasst werden könnte: Die natürliche Umgebung mithilfe technischer Hilfsmittel idealisiert wiederzugeben, ohne sich gleichzeitig von dieser Vorlage zu weit zu entfernen, entspricht in direkter Weise dem von Marx beschriebenen Vorgehen, die wilde Natur – ebenfalls – mithilfe technischer Hilfsmittel in angemessener Weise zu kultivieren, ohne diesen Akt der Zivilisation jedoch zu weit zu treiben. In der technologischen Umgebung der 3D-Computergrafik verbinden sich die beiden Konzepte; das Verschmelzen von Realismus und Idealismus einerseits sowie die ›middle landscape‹ andererseits. In diesem bildgebenden Verfahren, das nicht nur technologische Hilfsmittel nutzt, sondern vollständig in eine technische Umgebung verlagert wurde, findet dieses kulturelle Erbe demnach seinen Höhepunkt. Bei Pixar wird dieser geschichtliche Zusammenhang augenscheinlich – das Produktionsstudio setzt die weltanschaulichen Hintergründe, die zu dieser spezifischen Bildkultur geführt haben, in direkter Weise auf bildästhetischer Ebene um. Doch da die Technologie selbst – ganz im Sinne der von Emerson gewünschten Führungsrolle – diesen weltanschaulichen Hintergrund in sich trägt, sind auch Künstler wie der europäische David Claerbout stets damit konfrontiert, selbst wenn sie eine ganz andere Bildästhetik verfolgen möchten. Ihre Bilder sind in denselben geschichtlichen Sinnzusammenhang eingeschlossen.
6
Fazit
The ultimate effect of the object-oriented turn is difficult to predict, precisely because we are so actively immersed in it. How does one even begin to ask the question of outcomes when almost every tool of repre sentation is itself increasingly object oriented? Perhaps the first step is an honest assessment of how we got to where we are in the first place, as a means for beginning to recode the system from within. – Casey Alt (2011)1
Abschnitt 5 hat gezeigt, dass die in dieser Studie herausgearbeiteten ästhetischen Kategorien der US-amerikanischen Bildkultur in der Softwareumgebung computergrafischer Anwendungen bis heute überdauern. Während sie sich in manchen Fällen, wie bei dem Künstler David Claerbout oder bei South Park nur produktionsästhetisch nachweisen lassen, erscheinen sie beispielsweise im kommerziellen Computeranimationsfilm zusätzlich auch auf bildästhetischer Ebene. Die historische Entwicklung des bildgebenden Verfahrens wurde in dieser abschließenden Zusammenführung mit Leo Marx in eine genuin US-amerikanische Entwicklungslinie eingeordnet, nach der technologischer Fortschritt mit demokratischen Werten und dem Gedanken der Selbstverwirklichung gleichgesetzt wird. Zentral für diese Haltung war besonders der Transzendentalist Ralph Waldo Emerson, der klare Vorstellungen davon besaß, inwiefern Amerika mit seinen kulturellen und technologischen Entwicklungen sowie seinen demokratischen Werten eine Führungsrolle einnehme. Dieser Hintergrund ermöglicht es nun zum Schluss, den gemeinsamen Sinnzusammenhang der 3D-Grafiken tiefgreifend zu verstehen. Zunächst einmal erinnert Emersons Idee der amerikanischen Vorherrschaft an die Kulisse, vor deren Hintergrund die computergrafischen Entwicklungen überhaupt begonnen haben. Die militärischen Gelder, die die Forschung ursprünglich ermöglicht haben, stellen – wie bei Emerson aus einem demokratischen Anspruch heraus – eine direkte Antwort auf den Sputnik-Vorfall dar. Ziel sollte es sein, das Weltall vor dem als bedrohlich geltenden Kommunismus zu schützen und es wieder in die Hände der Demokratie zu legen. Auch in den 1950er Jahren herrschte in den USA also weiter die 1 Alt (2011): S. 299.
324
Scheler: Computergrafik
Überzeugung, dass es an ihrer Nation lag, diese Aufgabe zu übernehmen. Das Forschungsprojekt in Utah als eine Verzweigung dieser damaligen Geschehnisse versammelte zahlreiche Nachwuchsforscher, um diesem demokratischen Anspruch gerecht zu werden und die Nation in einer Weise voranzutreiben, wie Emerson sie sich – zumindest zu der Zeit seines Vortrags The Young American – ebenfalls gewünscht hätte. Auch Sutherland greift in seiner Dokumentation zu seinem Programm Sketchpad diese Rhetorik auf, wenn er davon ausgeht, sein Programm erfülle universelle und generelle Ansprüche. Rückt nun noch einmal in den Blick, was Emerson zufolge die Kunst im 19. Jahrhundert leisten sollte,2 so fällt auf, dass er den Aspekt der Imitation hervorhebt. Er formuliert die Vision, das neue Land für die Bewohner schmackhaft machen zu wollen, indem es sich an europäischen Vorbildern der Landschaftsgestaltung orientiert.3 Nicht nur Marx’ ›middle landscape‹ klingt hier bei Emerson durch, da er offenkundig davon ausgeht, das vorgefundene Land dürfe nach eigenen Vorstellungen kultiviert werden, sondern auch zahlreiche Eigenschaften, die die computergrafischen Bestrebungen in ästhetischer Hinsicht kennzeichnen, lassen sich bei Emerson herauslesen. Die Illustrationen von Coons und Fetter basieren ebenfalls auf diesem Prinzip der Imitation. Die Glaubwürdigkeitsmaxime der Illustrationen war nicht an technischpräzise Kriterien geknüpft, sondern an perspektivische Konstruktionen, die sich im Wesentlichen an der Kameralinse orientieren – in dem Glauben, die Kamera fange das Bild ein, das auch auf unserer Netzhaut erscheine. Während die hier angesprochenen Zeichnungen von Coons und Fetter noch analog waren, wurden sie später in den Computer übersetzt, doch auch hier bleibt die Fotografie und die damit einhergehende perspektivische Konstruktion ein Vorbild. Stets geht es darum, Bilder zu erzeugen, die intuitiv verstanden und sogar ›gefühlt‹ werden können. Auch die langjährige Pixar-Mitarbeiterin Swearingen verwendet für die Bilder der Produktionsfirma den Ausdruck »palatable«4, was sich im Deutschen mit ›schmackhaft‹ übersetzen lässt. Sie formuliert also an die Computergrafiken denselben Anspruch, wie Emerson ihn für die Gestaltung der Landschaft der neuen Welt zum Ausdruck bringt. Und ebenso wie Emerson es vorschlägt, besteht von Beginn an in der Computergrafik die Überzeugung, dass die Bilder erst dann reizvoll sind, wenn etwas, das der menschlichen Wahrnehmung vertraut ist, imitiert wird. Nicht nur die Bildsprache der Kamera, sondern auch die Bezüge zum Licht und zu den Schattierungen oder auch die Möglichkeit, sich um die Objekte bewegen zu können, basieren stets darauf, den vertrauten Umgang mit der Umgebung in den Bildern zu kultivieren. Besonders eindrücklich zeigt sich die Imitation jedoch erneut an der künstlich erzeugten Patina, mit der nicht nur der Malerei, sondern auch den 3D-Bildern das Gefühl von Tradition, Alter und Heimat verliehen werden soll. Der Realismus, der den Computergrafiken zugrunde liegt und den die Ingenieure stets als Maßstab an ihre Bilder stellen, ist symbolisch also eng mit dem Konzept der ›middle landscape‹ verknüpft. Genau wie diese sich mit der Verbundenheit zur Natur, jedoch zur idealisierten Natur zwischen Idealismus und Realismus verorten lassen 2 Am Ende des Kapitel 5.2 Zum kulturhistorischen Hintergrund synthetischer Bilder wurde Emersons Kunstverständnis kurz thematisiert. 3 Vgl. Emerson (1971b): S. 227. 4 Swearingen; Scheler (2020): S. 5.
Fazit
kann, bewegen sich auch die Computergrafiken mit ihrem Realismus zwischen diesen zwei Paradigmen. Obwohl sie es leisten könnte, soll mit der Technologie nicht die physikalisch vorgefundene Realität, die Wildnis, abgebildet werden, sondern eine idealisierte, kultivierte Form davon. Ähnlich wie Emerson es zum Ausdruck bringt, gilt es dabei stets, die Glaubwürdigkeitsmaxime einzuhalten und sich an Vorbildern zu orientieren, um zu gewährleisten, dass die Bilder akzeptiert werden. Ein freier oder gar abstrakter Ausdruck, der sich zu weit von der physischen Realität entfernt, ist hingegen nicht das Ziel, das die Ingenieure bei der Entwicklung der Computergrafik vor Augen hatten. Zugleich zeichnet sich in dieser Herangehensweise das Verschmelzen von Natur und Technologie ab, denn für die Entwickler der 3D-Grafik steht nicht im Widerspruch, mit einem hochtechnisierten Bildgebungsverfahren unsere natürliche Umgebung in vertrauter Form wiederzugeben, vielmehr macht die Technologie diesen Vorgang erst in Reinform möglich. Die 3D-Computergrafik ist also als ein Bildgebungsverfahren konzipiert, das zwei gegensätzliche Zustände, einen ›natürlichen‹, vertrauten und einen maschinell-technologischen, in eine Einheit zusammenführt und miteinander versöhnt. Emersons Anspruch der Führungsrolle hat sich also erfüllt. Jedes gängige 3D-Grafikprogramm beherbergt heute jene hier beschriebenen kulturellen Artefakte, die eng mit der Entstehungsgeschichte der heutigen USA und in besonderer Ausprägung auch mit einer transzendentalistischen Haltung verbunden sind. Damit verknüpfte Gestaltungsprinzipien, wie sie etwa im Luminismus zur Verwendung kamen, sind fest in der Softwarelandschaft verankert, weshalb jedes daraus hervorgehende Bild in seiner produktionsästhetischen Signatur diese Handschrift trägt. Oder um zu Blumenberg zurückzukehren: Jede 3D-Computergrafik entspringt immer wieder – unabhängig von ihrer Bildästhetik – diesem Sinnzusammenhang und trägt ihn in sich, denn in der Produktion der Bilder ist es nicht möglich, den von David Shi, Barbara Novak oder auch Leo Marx beschriebenen Weltbildern und Bildkonzepten zu entkommen – jedenfalls nicht bei der Verwendung der gängigen Grafikprogramme. Gleichzeitig gelten die Gestaltungsprinzipien, auf denen die Software heute beruht, längst als universell. Sie werden, wie Blumenberg es mit den technisierten Fassaden beschreibt, als selbstverständlich anerkannt. Wenn also in Pixars WALL-E die luministische Malerei auch auf bildästhetischer Ebene zum Ausdruck kommt, so gibt das Animationsstudio für einen Moment preis, auf welchen kulturellen Artefakten das bildgebende Verfahren basiert, mit dem das Unternehmen seine Filme produziert.5 5 Der Amerikanist Dietmar Meinel setzt sich in seiner Forschung intensiv und umfangreich mit den Pixarfilmen und darin auftretenden US-amerikanischen Mythen und Symbolen auseinander. Auch Marx’ The Machine in the Garden berücksichtigt Meinel in seinen Untersuchungen. Nicht nur in sei ner Monografie Pixar’s America. The Re-Animation of American Myths and Symbols greift Meinel Marx punktuell auf, sondern auch in dem Aufsatz The Garden in the Machine: Myth and Symbol in the Digital Age analysiert Meinel den Film WALL-E systematisch vor dem Hintergrund von Marx’ Studie. Vgl. Dietmar Meinel: Pixar’s America. The Re-Animation of American Myths and Symbols. London u. a.: Palgrave Macmillan, 2016, bspw. S. 26; vgl. zudem Dietmar Meinel: The Garden in the Machine: Myth and Symbol in the Digital Age. In: Rereading the Machine in the Garden. Nature and Technology in American Culture. Hrsg. v. Eric Erbacher, Nicole Maruo-Schröder und Florian Sedlmeier. Frankfurt am Main: Campus, 2014, S. 190–210. Meinels Untersuchungsansatz bezieht sich sowohl in seiner Monografie als auch im Aufsatz vor allem auf erzähltechnische Aspekte der Pixarfilme, wobei er punktuell auch auf bildästhetische Aspekte eingeht, etwa wenn er in Bezug auf den Film WALL-E
325
326
Scheler: Computergrafik
Wie ist nun mit diesem in der Software verankerten Wertesystem in der Praxis umzugehen? Wie lassen sich also die von Blumenberg beschriebenen Sprünge in der technisierten Umgebung rein praktisch überwinden, ohne dass die gesamte Geschichte der 3D-Grafik in jedem Bild erzählt wird, um ihren Sinnzusammenhang aufzudecken? Pixar selbst kann hier widersprüchlicherweise als Vorbild dienen, da das Animationsstudio selbstref lexiv mit der eigenen Bildästhetik umgeht.6 Auch Claerbout entscheidet sich in seinen Arbeiten dazu, die Eigenheiten der digitalen Umgebung, in der er sich künstlerisch bewegt, metaref lexiv in seiner Kunst zu thematisieren. Vielleicht lässt sich an dieser Haltung sogar für den allgemeinen Umgang mit Computern ein Beispiel nehmen, denn wie die Geschichte der Computergrafik aufzeigen konnte, besteht eine US-amerikanische Vorherrschaft nicht nur im Bereich der Grafikanwen-
anmerkt: »The depiction of two robots blissfully wandering the paradisiacal garden of Earth, then, seems to echo nineteenth-century popular versions of the assimilation of technological progress into the pastoral and what Leo Marx has described as the myth of the machine in the garden.« Mei nel (2014): S. 190. Für Meinel ist besonders bedeutsam, dass die Logik der Maschine im Garten in WALL-E umgekehrt wird, denn hier sei nicht die Maschine in den Garten, sondern der Garten in die Maschine integriert worden. Meinel kommt deshalb zu dem Schluss: »The garden is not threatened but manufactured by the machine – in the twofold sense of WALL-E fostering the creation of the gar den and the computer (machine) producing the pastoral imagery in WALL-E.« Meinel (2014): S. 205. Herv. i. O. Produktionsästhetische Aspekte berücksichtigt Meinel, wie in der zitierten Textstelle deutlich wird, nur oberflächlich, weshalb seine Erkenntnisse von denen der vorliegenden Studie in signifikanter Weise ergänzt werden können. Die Beobachtungen, die Meinel in Bezug auf die bild liche Oberfläche sowie auf die erzählerische Ebene der Filme macht, sind bereits in der Produktion der Filme verankert, weshalb ihre gesamte Gestaltung wesentlich tiefschichtiger auf Marx’ Motiv der Maschine im Garten reagiert, als selbst Meinel es herausarbeiten konnte, wenn er etwa unter Bezugnahme auf Vivian Sobchack herleitet: »Although the film aims mostly for a photo-realistic depiction of its characters and mise-en-scène, the animated quality of WALL-E never vanishes from sight. Due to its digital aesthetics, then the film alludes to its production by an ›electronic tech nology that seems to, phantasmatically, often have a secret mind of its own.‹ Not only WALL-E but also WALL-E offers continuation in the shift from illusionary omnipotence to human interdepen dence as the digital imagery of the bucolic garden and the technologically outdated machine both refer to the modern technology essential for their production.« Meinel (2014): S. 206. Herv. i. O. Meinel zitiert hier Vivian Sobchack: Animation and automation, or, the incredible effortfulness of being. In: Screen 50/4, 2009, S. 375–391, hier S. 386. Meinels Hinweise auf die fotorealistische Bild sprache oder die ›digitale Ästhetik‹ beziehungsweise Sobchacks Begriff der ›elektronischen Tech nologie‹, die ein geheimnisvolles Eigenleben führe, geben wenig Aufschluss über den produktions ästhetischen Hintergrund des Films oder der Hard- und Softwareumgebung, aus der heraus er entstanden ist. Der Garten dringt hier zwar, wie Meinel darstellt, gewissermaßen in die Maschine ein, doch können die Ergebnisse der vorliegenden Studie aufzeigen, dass die Maschine, mit der der Garten in WALL-E realisiert wurde, letztendlich selbst vor dem Hintergrund eines Weltbilds entwi ckelt wurde, das den Computer als natürlichen Teil des kultivierten Gartens betrachtet. Die Dar stellung des Gartens durch die Maschine lässt sich demnach gar nicht als Umkehrung des Bilds von der Maschine im Garten lesen, sondern als eine Fortführung dessen. Wenn es, wie Marx beschreibt, in den USA legitim war, die Natur mithilfe der Maschine zu kultivieren, dann ist es in dieser Vor stellung ebenso legitim, die Natur durch die Maschine als Bild zu gestalten – ähnlich wie es auch in der US-amerikanischen Malerei geschehen ist, für die die von Meinel vorgenommene Umkehrung ebenso wenig gilt. Somit kommt auch hier zum Ausdruck, dass Pixar die produktionsästhetischen Eigenheiten der Technologie bruchlos bildästhetisch umsetzt. 6 Vgl. Scheler (2021): S. 149–151.
Fazit
dungen. Zahlreiche der Bedienmöglichkeiten, die wir täglich an jedem Computer und in jedem Smartphone nutzen, gehen letztendlich ebenfalls auf die von Sutherland für sein Programm Sketchpad entwickelten Funktionen und die darauffolgende Entwicklung der objektorientierten Programmiersprachen zurück. Damit wurde die Nutzung des Computers zwar allen ermöglicht und auch Bilder können heute mit der Grafiksoftware vergleichsweise einfach erzeugt werden, doch wird es – so zeigt diese Studie auf – immer relevanter, sich auch damit zu befassen, wer die Technik mit welchen Motiven gestaltet hat. Die vorliegende Untersuchung hat sich also bewusst dazu entschieden, die computertechnologischen Verfahren nicht als eigenständige Akteure zu betrachten,7 sondern die Menschen in den Blick zu nehmen, die sie gestaltet haben. Diese Entscheidung basiert auf der Annahme, dass es womöglich noch wesentlich zentraler ist und in der technologisierten Welt immer zentraler wird, Kenntnisse über die Entwicklungsgeschichte der uns täglich umgebenden Technologien zu besitzen. Diese Kenntnisse sind vielleicht sogar wichtiger, als die Verfahren selbst in der Tiefe zu beherrschen. Sie zu beherrschen, heißt in vielen Fällen, sie erneut zu reproduzieren, was letztendlich sogar für diejenigen gilt, die über Programmierfähigkeiten verfügen. Technologien und Programmiersprachen jedoch in ihrer Entstehungsgeschichte zu begreifen, bedeutet zu erkennen, dass diese immer nur eine mögliche Ausdrucksform und einen ganz spezifischen Sinnzusammenhang abbilden.
7 Mit dem Programmierer und Medientheoretiker Alexander Galloway lässt sich herleiten, warum es problematisch sein kann, Fragen zu Programmierparadigmen mithilfe zeitgenössischer philosophi scher Ansätze wie etwa dem Spekulativen Realismus zu untersuchen, bei dem es darum geht, den Menschen aus dem Zentrum der Betrachtungen zu rücken. In seinem Aufsatz The Poverty of Philosophy: Realism and Post-Fordism stellt er die Frage: »Why, within the current renaissance of research in continental philosophy, is there a coincidence between the structure of ontological systems and the structure of the most highly evolved technologies of post-Fordist capitalism? I am speaking, on the one hand, of computer networks in general and object-oriented computer languages (such as Java or C++) in particular and, on the other hand, of certain realist philosophers such as Bruno L atour, but also more pointedly Quentin Meillassoux, Graham Harman, and their associated school known as speculative realism. Why do these philosophers, when holding up a mirror to nature, see the mode of production reflected back to them? Why in short, is there a coincidence between today’s ontolo gies and the software of big business?« Alexander R. Galloway: The Poverty of Philosophy: Realism and Post-Fordism. In: Critical Inquiry 39/2, 2013, S. 347–366, hier S. 347.
327
Anhang
Abbildungsverzeichnis Abb. 1: Abb. 2: Abb. 3:
Abb. 4: Abb. 5: Abb. 6:
Abb. 7:
Abb. 8:
Abb. 9:
Abb. 10:
Abb. 11:
eigenes Bild, Studie, 2011, 3D-Computergrafik. © Carolin Scheler. eigenes Bild, Standbild aus For As Long As It Lasts, 2014, 3D-Computergrafik. © Carolin Scheler. Standbild aus Southpark – The Problem with a Poo (USA 2018, R: Trey Parker), 3D-Computergrafik. URL: https://www.alamy.de/south-park-tv-series- 1997-usa-creators-trey-parker-matt-stone-brian-graden-2018-saison-22episode-3-das-problem-mit-einer-poo-animation-image383560210.html. Zugriff am: 02.04.2023. © Alamy Stock Foto/Comedy Central. Standbild aus Toy Story (USA 1995, R: John Lasseter), 3D-Computergrafik. © Disney. Nachdruck mit freundlicher Genehmigung der Disney Enterprises, Inc. eigenes Bild, Portrait (Kathrin Jobczyk), 2022, digitale Fotografie. © Carolin Scheler. Paweł Somogyi, Steve (fiktive Figur), 2022, 3D-Computergrafik. URL: https:// www.artstation.com/artwork/8wbv2R. Zugriff am: 14.02.2023. © Paweł Somogyi. Nachdruck mit freundlicher Genehmigung von Paweł Somogyi. neural.love, portrait of a middle aged black woman looking into the camera, 2023, KI-Bild. URL: https://neural.love/ai-art-generator/1ed9b0e2-bee8-6b30-bfe70198c651b5e0/portrait-of-a-middle-aged-black-woman-looking-into-thecamera. Zugriff am: 23.01.2023. © CC0/neural.love. eigener Screenshot, ›perspective view‹ in Autodesk Maya, 2021, Screenshot. © Autodesk. Autodesk-Screenshot abgedruckt mit freundlicher Genehmigung von Autodesk, Inc. eigener Screenshot, ›perspective, side, front und top view‹ in Autodesk Maya, 2021, Screenshot. © Autodesk. Autodesk-Screenshot abgedruckt mit freundlicher Genehmigung von Autodesk, Inc. eigener Screenshot, Wireframe-Darstellung einer Kugel in Autodesk Maya, 2021, Screenshot. © Autodesk. Autodesk-Screenshot abgedruckt mit freundlicher Genehmigung von Autodesk, Inc. eigener Screenshot, Wireframe-Darstellung eines Kinosessels in Autodesk Maya (eigenes 3D-Modell aus dem Jahr 2013), 2021, Screenshot. © Autodesk. Autodesk-Screenshot abgedruckt mit freundlicher Genehmigung von Autodesk, Inc.
330
Scheler: Computergrafik
Abb. 12: eigener Screenshot, Solid-Anzeige eines Kinosessels in Autodesk Maya (eigenes 3DModell aus dem Jahr 2013), 2021, Screenshot. © Autodesk. Autodesk-Screen shot abgedruckt mit freundlicher Genehmigung von Autodesk, Inc. Abb. 13: Pixabay, Billardkugel, 2019, digitale Fotografie. URL: https://pixabay.com/ de/photos/schwimmbad-acht-ball-schwarz-spiel-4306004/. Zugrif f am: 31.01.2022. © CC0/Pixabay. Abb. 14: Pixabay, Tischtennisball, 2019, digitale Fotografie. URL: https://pixabay.com/ de/photos/tischtennis-sport-spiel-ball-4040603/. Zugrif f am: 31.01.2022. © CC0/Pixabay. Abb. 15: James Hastings-Trew, earth texture map, ohne Datum, Fotomontage. URL: http://planetpixelemporium.com/earth.html. Zugrif f am 01.02.2022. © James Hastings-Trew. Abb. 16: eigenes Bild, Kugel texturiert mit der earth texture map aus Abb. 15, 2022, 3DComputergrafik. © James Hastings-Trew/Carolin Scheler. Abb. 17: eigener Screenshot, Ausschnitt des Hypershade-Editors in Autodesk Maya, 2022, Screenshot. © Autodesk. Autodesk-Screenshot abgedruckt mit freundlicher Genehmigung von Autodesk, Inc. Abb. 18: eigenes Bild, Kinosessel, 2013, 3D-Computergrafik. © Carolin Scheler. Abb. 19: MIT Museum (Hg.), TX-2-Computer, ohne Datum, Fotografie. URL: https://webmuseum.mit.edu/media.php?module=subjects&type=related&kv=289&media=1. Zugriff am 01.02.2022. © MIT Museum. Nachdruck mit freundlicher Genehmigung vom MIT Museum. Abb. 20: Ivan E. Sutherland, TX-2 operating area – Sketchpad in use, 1963, Fotografie. In: Ivan E. Sutherland: Sketchpad. A Man-Machine Graphical Communication System. Dissertation am Department of Electrical Engineering and Computer Science, Cambridge, MA: Massachusetts Institute of Technology, MIT Libraries, 1963, S. 11. Abb. 21: Ivan E. Sutherland, Line and circle drawing, 1963, Sketchpad-Zeichnung. In: Ivan E. Sutherland: Sketchpad. A Man-Machine Graphical Communication System. Dissertation am Department of Electrical Engineering and Computer Science, Cambridge, MA: Massachusetts Institute of Technology, MIT Libraries, 1963, S. 14. Abb. 22: Ivan E. Sutherland, Hexagonal pattern, 1963, Sketchpad-Zeichnung. In: Ivan E. Sutherland: Sketchpad. A Man-Machine Graphical Communication System. Dissertation am Department of Electrical Engineering and Computer Science, Cambridge, MA: Massachusetts Institute of Technology, MIT Libraries, 1963, S. 10. Abb. 23: Ivan E. Sutherland, Winking girl and components, 1963, Sketchpad-Zeichnung. In: Ivan E. Sutherland: Sketchpad. A Man-Machine Graphical Communication System. Dissertation am Department of Electrical Engineer ing and Computer Science, Cambridge, MA: Massachusetts Institute of Technology, MIT Libraries, 1963, S. 133. Abb. 24: Ivan E. Sutherland, Girl traced from photograph, 1963, Sketchpad-Zeichnung. In: Ivan E. Sutherland: Sketchpad. A Man-Machine Graphical Communication System. Dissertation am Department of Electrical Engineering and Computer Science, Cambridge, MA: Massachusetts Institute of Technology, MIT Libraries, 1963, S. 134.
Anhang
Abb. 25: Ivan E. Sutherland, Girl with features changed, 1963, Sketchpad-Zeichnung. In: Ivan E. Sutherland: Sketchpad. A Man-Machine Graphical Communication System. Dissertation am Department of Electrical Engineering and Computer Science, Cambridge, MA: Massachusetts Institute of Technology, MIT Libraries, 1963, S. 135. Abb. 26: Frieder Nake, 6/7/64 Nr. 20 Zufälliger Polygonzug, 1964, eine der frühesten algorithmischen Zeichnungen, computergeneriert, Tusche auf Papier, 21,1 x 15,1 cm. URL: http://dada.compart-bremen.de/item/artwork/428. Zugriff am 23.01.2023. © Frieder Nake. Nachdruck mit freundlicher Genehmigung von Frieder Nake. Abb. 27: Hoyt L. Sherman, Visual Demonstration Center, 1951, Zeichnung. In: The Ohio State University Archives: Hoyt Leon Sherman Papers (40/142), Box 4, »University Projects: Writings: Visual Demonstration Center: A Manual for Operation: Second Draft, 1951.« Abb. 28: Hoyt L. Sherman, Visual Demonstration Center, ohne Datum, Fotografie. In: The Ohio State University Archives: Department of Art Records (31/E), Box 13, Folder 8, »Exhibit: Hoyt L. Sherman: ›Vision to Action‹ Catalog.« (Ohne Datum). © Ohio State University. Nachdruck mit freundlicher Genehmigung der Ohio State Library Archives. Abb. 29: J. G. Raudseps, Picture af ter quantizing by artist, 1963, Farbe auf Papier. In: J. G. Raudseps: Picture Regeneration from Quantized Data. The Antenna Laboratory, Department of Electrical Engineering, The Ohio State University Research Foundation. Columbus, OH: The Ohio State University Libraries Archives, 1963, S. 5. Abb. 30: J. G. Raudseps, Quantized picture produced from scan data for checking purposes, 1963, Ausgabe über Flexowriter. In: J. G. Raudseps: Picture Regeneration from Quantized Data. The Antenna Laboratory, Department of Electrical Engineering, The Ohio State University Research Foundation. Columbus, OH: The Ohio State University Libraries Archives, 1963, S. 7. Abb. 31: J. G. Raudseps, Picture smoothed on basis of both horizontal and vertical scans, 1963, Ausgabe über Flexowriter. In: J. G. Raudseps: Picture Regeneration from Quantized Data. The Antenna Laboratory, Department of Electrical Engineering, The Ohio State University Research Foundation. Columbus, OH: The Ohio State University Libraries Archives, 1963, S. 24. Abb. 32: Charles A. Csuri, She’s Watching Superman, 1963–1964, Tinte auf Papier, proze durale Zeichnung, 147 x 104 cm. URL: https://digitalartarchive.siggraph.org/ artwork/charles-a-csuri-shes-watching-superman/. Zugriff am 01.02.2022. © Caroline Csuri, CsuriVision ltd. Abb. 33: Charles A. Csuri, After Paul Klee, aus der Reihe After the Artist, 1963, Tinte auf Papier, Pantograph, 51 x 66 cm. URL: https://digitalartarchive.siggraph.org/artwork/charles-csuri-after-paul-klee/. Zugriff am 01.02.2022. © Caroline Csuri, CsuriVision ltd. Abb. 34: Charles A. Csuri, Leonardo da Vinci Series, 1966, Tinte auf Papier, IBM 7094 und Trommelplotter, 51 x 1 52 cm. URL: https://digitalartarchive.siggraph.org/ artwork/charles-a-csuri-leonardo-da-vinci-series/. Zugrif f am 01.02.2022. © Caroline Csuri, CsuriVision ltd.
331
332
Scheler: Computergrafik
Abb. 35: Charles A. Csuri, Sine Curve Man, 1967, Tinte auf Papier, IBM 7094 und Trommelplotter, 104 x 104 cm. URL: https://digitalartarchive.siggraph.org/artwork/charles-a-csuri-sine-curve-man-2/. Zugrif f am 01.02.2022. © Caro line Csuri, CsuriVision ltd. Abb. 36: Charles A. Csuri, Horse Play, 1999, Unix-Umgebung, LightJet auf Papier mit Laminat, 76 x 102 cm. URL: https://digitalartarchive.siggraph.org/artwork/ charles-a-csuri-horse-play/. Zugriff am 01.02.2022. © Caroline Csuri, Csuri Vision ltd. Nachdruck mit freundlicher Genehmigung von Caroline Csuri, CsuriVision ltd. Abb. 37: Charles A. Csuri, Venus in the Garden Frame 73, venus series, 2005, Unix-Umgebung, Farbtinte auf Leinwand, 97 x 132 cm. URL: https://digitalartarchive. siggraph.org/artwork/charles-a-csuri-venus-in-the-garden-frame-73-venus-series/. Zugriff am 01.02.2022. © Caroline Csuri, CsuriVision ltd. Nachdruck mit freundlicher Genehmigung von Caroline Csuri, CsuriVision ltd. Abb. 38: Charles A. Csuri, Feeding Time, 1966, Tinte auf Papier, IBM 7094 und Trommelplotter, 91,44 x 78,74 cm. URL: https://spalterdigital.com/artworks/ feeding-t ime/. Zugrif f am 10.07.2023. © Caroline Csuri, CsuriVision ltd. Fotografie nachgedruckt mit freundlicher Genehmigung der Anne and Michael Spalter Digital Art Collection. Abb. 39: Charles A. Csuri, Random War, 1967, Tinte auf Papier, IBM 7094 und Trommelplotter, 104 x 229 cm. URL: https://www.charlescsuri.com/historic/random-war. Zugriff am 05.06.2023. © Caroline Csuri, CsuriVision ltd. Abb. 40: Charles A. Csuri, Complexity (auch: Festive Frame 47, leo series), 2006, UnixUmgebung, LightJet auf Papier mit Laminat, 183 x 244 cm. URL: https:// digitalartarchive.siggraph.org/artwork/charles-a-csuri-festive-frame-47-leoseries/. Zugriff am 01.02.2022. © Caroline Csuri, CsuriVision ltd. Abb. 41: William A. Fetter, First Boeing Man, 1966–1969, Tinte auf Papier, IBM 7094 u. CDC 6600, Gerber Plotter, 18,2 × 24 cm. In: William A. Fetter: Computer Graphics. In: Design Quarterly /66/67, 1966, S. 14–23, hier S. 21. Abb. 42: William A. Fetter, Ease of measuring drawings und Ease of understanding drawings, 1965. In: William A. Fetter: Computer Graphics in Communication. Written for the Course Content Development Study in Engineering Graphics, supported by the National Science Foundation. New York, NY u. a.: McGraw-Hill, 1965, S. 6. Abb. 43: William A. Fetter, Stereo views of two transport aircraft windshield designs, 1965. In: William A. Fetter: Computer Graphics in Communication. Written for the Course Content Development Study in Engineering Graphics, supported by the National Science Foundation. New York, NY u. a.: McGraw-Hill, 1965, S. 63. Abb. 44: William A. Fetter, Illustration of CV A-59 landing rendered by an artist from computer plots, 1965. In: William A. Fetter: Computer Graphics in Communication. Written for the Course Content Development Study in Engineering Graphics, supported by the National Science Foundation. New York, NY u. a.: McGraw-Hill, 1965, S. 59. Abb. 45: Richard Estes, Bus with Ref lection of the Flatiron Building, 1966–1967, Öl auf Leinwand, 91,4 x 121,9 cm, private Sammlung. URL: https://americanart.si.edu/exhibitions/estes. Zugrif f am 16.03.2022. © Richard Estes/Luc Demers (Foto). Nachdruck mit freundlicher Genehmigung der Schoelkopf Gallery und von Luc Demers.
Anhang
Abb. 46: eigenes Bild, Das Hidden-Line-Problem dargestellt anhand eines Würfels, 2021, Vektorgrafik. © Carolin Scheler. Abb. 47: John T. Rule, Steven A. Coons, Fig. 5-21–5-23, 1961, Zeichnung. In: John T. Rule; Steven A. Coons: Graphics. New York, NY: McGraw-Hill Book Company, Inc., 1961, S. 78. Abb. 48: John T. Rule, Steven A. Coons, Fig. 16-7–16-8, 1961, technische Zeichnung. In: John T. Rule; Steven A. Coons: Graphics. New York, NY: McGraw-Hill Book Company, Inc., 1961, S. 236. Abb. 49: John T. Rule, Steven A. Coons, Fig. 5-22–5-23, 1961, Zeichnung. In: John T. Rule; Steven A. Coons: Graphics. New York, NY: McGraw-Hill Book Company, Inc., 1961, S. 78. Abb. 50: John T. Rule, Steven A. Coons, Fig. 5-1–5-4, 1961, Zeichnung. In: John T. Rule; Steven A. Coons: Graphics. New York, NY: McGraw-Hill Book Company, Inc., 1961, S. 68–69. Abb. 51: John T. Rule, Steven A. Coons, Fig. 5-35, 1961, Zeichnung. In: John T. Rule; S teven A. Coons: Graphics. New York, NY: McGraw-Hill Book Company, Inc., 1961, S. 87. Abb. 52: Timothy E. Johnson, Wrought Iron Chair Design, 1963, Sketchpad III-Zeichnung. In: Timothy E. Johnson: Sketchpad III. Three Dimensional Graphical Communication With a Digital Computer. Masterarbeit am Institut für Maschinenbau, Cambridge, MA: Massachusetts Institute of Technology, MIT Libraries, 1963, S. 37. Abb. 53: Gordon W. Romney, Gary S. Watkins und David C. Evans, Cone und Letter ›G‹, 1968, Computer-Rendering aufgezeichnet auf Film (hier reproduziert als Halbtonbild). In: Gordon W. Romney; Gary S. Watkins; David C. Evans: Real-Time Display of Computer Generated Half-Tone Perspective Pictures. In: Information Processing ’68. Proceedings of IFIP Congress 1968. Volume 2 – Hardware, Applications. Hrsg. v. A. J. H. Morell. Amsterdam: North-Holland, 1969, S. 973–978, hier S. 976. Abb. 54: Chris Wylie, Gordon W. Romney und David C. Evans, Example of one method of approximating a sphere by planar triangles, 1967. In: Chris Wylie; Gordon W. Romney; David C. Evans: Half-tone perspective drawings by computer. In: Proceedings of the Fall Joint Computer Conference – AFIPS ’67. Hrsg. v. ACM. New York, NY: ACM Press, 1967, S. 49–58, hier S. 49. Abb. 55: Gordon W. Romney, Soma Cube und ›Exploded‹ Soma Cube, 1969, ComputerRendering aufgezeichnet auf Polaroid-Film (hier reproduziert im HalbtonVierfarbverfahren). In: Gordon W. Romney: Computer Assisted Assembly and Rendering of Solids. Dissertation am Department of Electrical Engineering, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1969, S. 68. Abb. 56: John E. Warnock, Fig. 5, 1969, Rasterscanbild (hier Reproduktion als Halbtonbild). In: John E. Warnock: A Hidden Surface Algorithm for Computer Generated Half-Tone Pictures. Dissertation am Department of Electrical Engineering, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1969, S. 24.
333
334
Scheler: Computergrafik
Abb. 57: Gordon W. Romney, Gary S. Watkins und David C. Evans, Sphere, 1968, Computer-Rendering aufgezeichnet auf Film (hier reproduziert als Halbtonbild). In: Gordon W. Romney; Gary S. Watkins; David C. Evans: Real-Time Display of Computer Generated Half-Tone Perspective Pictures. In: Information Processing ’68. Proceedings of IFIP Congress 1968. Volume 2 – Hardware, Applications. Hrsg. v. A. J. H. Morell. Amsterdam: North-Holland, 1969, S. 973–978, hier S. 976. Abb. 58: Open-Source-Bild, Machsche Streifen, 2008, 2D-Grafik. URL: https://de.wikipedia.org/wiki/Datei:Maschsche_Streifen.svg. Zugriff am 03.02.2022. © CC BY-SA 3.0/Polini. Es wurden keine Änderungen an der Grafik vorgenommen. Abb. 59: Henri Gouraud, Same curved surfaces presented with Watkins algorithm und Same curved surfaces presented with author’s method, 1971, Computer-Rendering. In: Henri Gouraud: Continuous Shading of Curved Surfaces. In: IEEE Transactions on Computers C-20/6, 1971, S. 623–629, hier S. 627. Abb. 60: Henri Gouraud, Fig. 26 –Two orthogonal views of the author’s wife which have been used to input the data of figures 28 an 29 into the computer, 1971, Fotografien. In: Henri Gouraud: Computer Display of Curved Surfaces. Dissertation am Department of Computer Science, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1971, S. 56. Abb. 61: Henri Gouraud, Fig. 28 – Polygon approximation of Figure 27 (Verweis auf ein Portrait seiner Frau), 1971, Computer-Rendering. In: Henri Gouraud: Computer Display of Curved Surfaces. Dissertation am Department of Computer Science, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1971, S. 58. Abb. 62: Henri Gouraud, Fig. 29 – The smooth shading technique applied to the same geometr ic data as in figure 28, 1971, Computer-Rendering. In: Henri Gouraud: Computer Display of Curved Surfaces. Dissertation am Department of Computer Science, Salt Lake City, UT: University of Utah, J. Willard Marriott Li brary, 1971, S. 59. Abb. 63: Bui Tuong Phong, Figure 4.19 Real spheres with dif ferent light orientations (hier nur Aufnahme (a) zu sehen), 1973, Fotografie. In: Bui Tuong Phong: Illumination for Computer-Generated Images. Dissertation am Department of Computer Science, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1973, S. 66. Abb. 64: Bui Tuong Phong, Figure 4.20 Spheres rendered with improved shading technique (hier nur Aufnahme (a) zu sehen), 1973, Computer-Rendering. In: Bui Tuong Phong: Illumination for Computer-Generated Images. Dissertation am Department of Computer Science, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1973, S. 67. Abb. 65: Bui Tuong Phong, Figure 4.15 Real cones with dif ferent light orientations and surface finishes, 1973, Fotografien. In: Bui Tuong Phong: Illumination for Computer-Generated Images. Dissertation am Department of Computer Science, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1973, S. 62. Abb. 66: Bui Tuong Phong, Figure 4.16 Cones rendered with improved shading technique, 1973, Computer-Rendering. In: Bui Tuong Phong: Illumination for Computer-Generated Images. Dissertation am Department of Computer Science, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1973, S. 63.
Anhang
Abb. 67: Bui Tuong Phong, Figure 4.17 Real cylinders with different light orientations and surface finishes, 1973, Fotografien. In: Bui Tuong Phong: Illumination for Computer-Generated Images. Dissertation am Department of Computer Science, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1973, S. 64. Abb. 68: Bui Tuong Phong, Figure 4.18 Cylinders rendered with improved shading technique, 1973, Computer-Rendering. In: Bui Tuong Phong: Illumination for Computer-Generated Images. Dissertation am Department of Computer Science, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1973, S. 65. Abb. 69: Bui Tuong Phong, Figure 4.12 Molecule with different shading techniques (o. l.: Warnock-Shading, o. r.: Warnock-Shading mit Highlight, u. l.: Gouraud-Shading, u. r.: Phong-Shading), 1973, Computer-Rendering. In: Bui Tuong Phong: Illumination for Computer-Generated Images. Dissertation am Department of Computer Science, Salt Lake City, UT: University of Utah, J. Willard Mar riott Library, 1973, S. [130]. Abb. 70: Edwin Catmull, Picture 18 – The brick image mapped respectively onto a single rounded patch, a stretched patch,an S curved patch, and a cylinder of four patches, 1974, Computer-Rendering. In: Edwin Catmull: A Subdivision Algorithm for Computer Display of Curved Surfaces. Dissertation an der School of Computing, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1974, S. [80]. Abb. 71: James F. Blinn, Textured Surface Simulating Orange Peel und Texture Defining Function For Above, 1978, oben: Computer-Rendering; unten: Texture Patch mit handgezeichnetem Muster. In: James F. Blinn: Computer Display of C urved Surfaces. Dissertation am Department of Computer Science, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1978, S. v. Abb. 72: Loren Carpenter, Rob Cook, Tom Porter, Bill Reeves, David Salesin und Alvy Ray Smith, Road to Point Reyes, 1983, Computer-Rendering. URL: https:// digitalartarchive.siggraph.org/artwork/robert-l-cook-road-to-point-reyes/. Zugriff am 03.02.2022. © Loren Carpenter/Rob Cook/Tom Porter/Bill Reeves/David Salesin/Alvy Ray Smith. Nachdruck mit freundlicher Genehmigung der Disney Enterprises, Inc. Abb. 73: Standbild aus Toy Story 3 (USA 2010, R: Lee Unkrich), 3D-Computergrafik. © Disney. Nachdruck mit freundlicher Genehmigung der Disney Enter prises, Inc. Abb. 74: Edward Hopper, Sun on Prospect Street (Gloucester, Massachusetts), 1934, Öl auf Leinwand, 71,1 x 92,1 cm, Cincinnati Art Museum, Cincinnati, OH, The Edwin and Virginia Irwin Memorial, 1959.49. © Heirs of Josephine N. Hopper/VAGA at ARS, NY/VG Bild-Kunst, Bonn 2023. Fotografie abgedruckt mit freundlicher Genehmigung des Cincinnati Art Museum, Cincinnati, OH. Abb. 75: Thomas Cole, View from Mount Holyoke, Northampton, Massachusetts, af ter a Thunderstorm – The Oxbow, 1836, Öl auf Leinwand, 130,8 x 193 cm, The Metropolitan Museum of Art, New York, NY. URL: https://www.metmuseum.org/ art/collection/search/10497. Zugriff am 03.02.2022. © CCo.
335
336
Scheler: Computergrafik
Abb. 76: Standbild aus The Good Dinosaur (USA 2015, R: Peter Sohn), 3D-Computergrafik. © Disney. Nachdruck mit freundlicher Genehmigung der Disney Enterprises, Inc. Abb. 77: Fitz Henry Lane, Owl’s Head, Penobscot Bay, Maine, 1862, Öl auf Leinwand, 40 x 66,36 cm, Museum of Fine Arts Boston. Bequest of Martha C. Karolik for the M. and M. Karolik Collection of American Paintings, 1815–1865, 48.448. Foto © Museum of Fine Arts, Boston. Abb. 78: Standbild aus WALL-E (USA 2008, R: Andrew Stanton), 3D-Computergrafik. © Disney. Nachdruck mit freundlicher Genehmigung der Disney Enter prises, Inc. Abb. 79: Frederic Edwin Church, Grand Manan Island, Bay of Fundy, 1852, Öl auf Leinwand, 55,4 x 81,1 cm, Wadsworth Atheneum Museum of Art, Hartford, CT, Gallery Fund, 1898.6. URL: https://5058.sydneyplus.com/argus/final/Portal/ Public.aspx?lang=en-US&g_AABJ=Grand+Manan+Island%2c+Bay+of+Fundy&d=d. Zugriff am 03.02.2022. Nachdruck mit freundlicher Genehmigung des Wadsworth Atheneum Museum of Art, Hartford, CT. Foto: Allen Phillips. Abb. 80: Standbild aus Überf lieger – Kleine Vögel, Großes Geklapper (Belgien/Deutschland/Luxemburg/Norwegen 2017, R: Toby Genkel, Reza Memari), 3D-Computergrafik. © 2017 Knudsen & Streuber Medienmanufaktur, Ulysses Filmproduktion, Walking The Dog, Mélusine Productions, Den siste skilling – License TELEPOOL GmbH, München. Nachdruck mit freundlicher Genehmigung von Knudsen Pictures GmbH. Abb. 81: Standbild aus WALL-E (USA 2008, R: Andrew Stanton), 3D-Computergrafik. © Disney. Nachdruck mit freundlicher Genehmigung der Disney Enterprises, Inc. Abb. 82: Winslow Homer, Eagle Head, Manchester, Massachussetts (High Tide), 1870, Öl auf Leinwand, 66 x 96,5 cm, The Metropolitan Museum of Art, New York, NY. URL: https://www.metmuseum.org/art/collection/search/11117. Zugriff am 04.02.2022. Abb. 83: Thomas Eakins, Baby at Play, 1876, Öl auf Leinwand, 81,9 x 122,8 cm, National Gallery of Art, Washington D.C. URL: https://www.nga.gov/collection/artobject-page.61251.html. Zugriff am 04.02.2022. Abb. 84: John Sloan, Six O’Clock, Winter, 1912, Öl auf Leinwand, 66,36 x 81,28cm, The Phillips Collection, Washington D.C. URL: https://www.phillipscollection. org/collection/six-oclock-winter. Zugriff am 04.02.2022. Abb. 85: Thomas Eakins, Miss Amelia Van Buren, ca. 1891, Öl auf Leinwand, 114.3 x 81.28 cm, The Phillips Collection, Washington D.C. URL: https://www.phillipscollection.org/collection/miss-amelia-van-buren. Zugriff am 04.02.2022. Abb. 86: Robert Henri, Mary Agnes, 1924 (in Irland), Öl auf Leinwand, 61 x 50,8 cm, private Sammlung. URL: https://www.sothebys.com/en/auctions/ecata logue/2009/american-paintings-drawings-sculpture-n08598/lot.16.html. Zugriff am 04.02.2022. Abb. 87: Martin Fletcher, Ausschnitt aus Mail Transportation, 1938, Wandbild im Postgebäude in San Pedro, CA – 08.05.2015. URL: https://commons.wikimedia.org/wiki/File:%27Mural_of_Mail_Carriers%27,_by_Fletcher_Martin,_c._1935,_San_Pedro_Post_Office,_San_Pedro,_California.jpg. Zugriff am 04.02.2022.
Anhang
Abb. 88: Raphael Soyer, A Railroad Station Waiting Room, 1940, Öl auf Leinwand, 87 x 114,9 cm, National Gallery of Art, Washington D.C. URL: https://www.nga. gov/collection/art-object-page.177821.html. Zugriff am 04.02.2022. © Estate of Raphael Soyer. Nachdruck mit freundlicher Genehmigung des Nachlasses von Raphael Soyer. Abb. 89: Isabel Bishop, Tidying Up, 1941, Öl auf Holzfaserplatte, 38,1 x 29,2 cm, Indianapolis Museum of Art at Newfields, Indianapolis, IN, Delavan Smith Fund, 43.24. URL: http://collection.imamuseum.org/artwork/79261/. Zugrif f am 04.02.2022. © Estate of Isabel Bishop. Nachdruck mit freundlicher Genehmigung der DC Moore Gallery, New York. Abb. 90: John Singleton Copley, Mrs. Ezekiel Goldthwaith (Elizabeth Lewis), 1771, Öl auf Leinwand, 127,32 x 101,92 cm, Museum of Fine Arts, Boston, MA. URL: https://collections.mfa.org/objects/32756. Zugriff am 04.02.2022. Abb. 91: Asher B. Durand, Study from Nature: Stratton Notch, Vermont, 1853, Öl auf Leinwand, 45,7 x 60,3 cm, New York Historical Society, New York, NY. URL: https:// digitalcollections.nyhistory.org/islandora/object/nyhs%3A1806. Zugrif f am 04.02.2022. Abb. 92: Thomas Eakins, John Biglin in a Single Scull, ca. 1873, Aquarell, 42,9 x 60,8 cm, Yale University Art Gallery, New Haven, CT. URL: https://artgallery.yale.edu/ collections/objects/75112. Zugriff am 04.02.2022. © CC0 1.0 Abb. 93: Thomas Eakins, Perspective Studies for »John Biglen in a Single Scull«, ca. 1873, Graphit, Feder und braune Tinte sowie Pinsel, 69,5 x 114,9 cm, Museum of Fine Arts, Boston, MA. URL: https://collections.mfa.org/objects/157614/perspective-studies-for-john-biglen-in-a-single-scull. Zugriff am 04.02.2022. Abb. 94: Fitz H. Lane, Steamer »Harvest Moon«, Lying at Wharf in Portland, 1863, Graphit über Fotografie auf Papier, 24,8 x 26,7 cm, Sammlung des Cape Ann Museums, Gloucester, MA, Schenkung von Samuel H. Mansfield, 1927 (485.33). URL: http://fitzhenryl aneonline.org/catalog/entry.php?id=186. Zugriff am 04.02.2022. Nachdruck mit freundlicher Genehmigung des Cape Ann Museums. Abb. 95: Charles Sheeler, Rolling Power, 1939, Öl auf Leinwand, 38,1 x 76,2 cm, Smith College Museum of Art, Northampton, MA. URL: https://museums.fivecolleges.edu/detail.php?t=objects&type=ext&id_number=SC+1940.18. Zugriff am 04.02.2022. Abb. 96: Georgia O’Keeffe, Black Iris, 1926, Öl auf Leinwand, 91,4 x 75,9 cm, Metro politan Museum of Art, New York, NY. URL: https://www.metmuseum.org/ art/collection/search/489813. Zugriff am 04.02.2022. © Georgia O´Keeffe Museum/VG Bild-Kunst, Bonn 2023. Foto: bpk/The Metropolitan Museum of Art/ Malcolm Varon. Abb. 97: William M. Harnett, The Old Violin, 1886, Öl auf Leinwand, 96,5 x 60 cm, National Gallery of Art, Washington D.C. URL: https://www.nga.gov/collection/ art-object-page.79531.html. Zugriff am 04.02.2022. © CC0 Abb. 98: Walter T. Murch, The Circle, 1948, Öl auf Leinwand, 66 x 55,9 cm, Brooklyn Museum, New York, NY. URL: https://www.brooklynmuseum.org/opencollection/objects/4750. Zugriff am 04.02.2022.
337
338
Scheler: Computergrafik
Abb. 99: Edward Hopper, Sun in an Empty Room, 1963, Öl auf Leinwand, 73 x 100,3 cm, Privatbesitz. © Heirs of Josephine N. Hopper/VAGA at ARS, NY/VG BildKunst, Bonn 2023. Abb. 100: Albert Pinkham Ryder, Moonlight Marine, 1870–90, Öl und vermutlich Wachs auf Holz, 29,2 x 30,5 cm, Metropolitan Museum of Art, New York, NY. URL: https://www.metmuseum.org/art/collection/search/11979. Zugrif f am 04.02.2022. © CC0. Abb. 101: Mark Rothko, Untitled, 1968, synthetische Polymer-Farbe auf Papier, 60,8 x 45,4 cm, Museum of Modern Art, New York, NY. Gif t of The Mark Rothko Foundation, Inc. Acc. n.: 463.1986. © 1998 Kate Rothko-Prizel & Christopher Rothko/VG Bild-Kunst, Bonn 2023. Foto: digitales Bild, The Museum of Modern Art, New York/Scala, Florence. Abb. 102: David Claerbout, Travel, 1996–2013, Einkanal-Videoprojektion, Stereoton, 12 Min., HD-Animation (hier Fotografie von Ros Kavanagh). URL: https://davidclaerbout.com/Travel-1996-2013. Zugriff am 04.02.2022. Abb. 103: Travel (Entry Counter Light), 2013, Tusche und Filzstift auf Papier. In: Sean Kelly (Hg.): David Claerbout. Drawings and Studies. Ostfildern: Hatje Cantz, 2015, S. 102. Abb. 104: Martin E. Newell, Figure 28 Various objects defined using Bézier patches (hier nur eins von vier Objekten zu sehen), 1975, Computer-Rendering. In: Martin E. N ewell: The Utilization of Procedure Models in Digital Image Synthesis. Dissertation am Department of Computer Science, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1975, S. [84]. Abb. 105: Luxo Junior (USA 1986, R: John Lasseter), Filmposter. URL: https://www.pixar. com/luxo-jr. Zugriff am 04.02.2022. © Disney. Nachdruck mit freundlicher Genehmigung der Disney Enterprises, Inc. Abb. 106: John F. Peto, Of fice Board, 1885, Öl auf Leinwand, 61,9 x 50,5 cm, Metropolitan Museum of Art, New York, NY. URL: https://www.metmuseum.org/art/collection/search/11761. Zugriff am 04.02.2022. © CC0. Abb. 107: Standbild aus Toy Story 3 (USA 2010, R: Lee Unkrich), 3D-Computergrafik. © Disney. Nachdruck mit freundlicher Genehmigung der Disney Enter prises, Inc.
Anhang
Filmverzeichnis Cars (USA 2006, R: John Lasseter). Dinosaur (USA 2000, R: Ralph Zondag, Eric Leighton). Hummingbird (USA 1967, R: Charles Csuri). Inside Out (USA 2015, R: Pete Docter). Luxo Jr. (USA 1986, R: John Lasseter). MIT Science Reporter. Computer Sketchpad (USA 1964, R: Russell Morash). Snow White and the Seven Dwarfs (USA 1937, R: William Cottrell, David Hand, Wilfred Jackson). South Park. The Problem with a Poo (USA 2018, R: Trey Parker). The Good Dinosaur (USA 2015, R: Peter Sohn). The Incredible Crash Dummies (USA 1993, R: Mark Mariutto). Tangled (USA 2010, R: Nathan Greno, Byron Howard). Toy Story (USA 1995, R: John Lasseter). Toy Story 3 (USA 2010, R: Lee Unkrich). Überf lieger – Kleine Vögel, Großes Geklapper (Belgien/Deutschland/Luxemburg/Norwegen 2017, R: Toby Genkel, Reza Memari). WALL-E (USA 2008, R: Andrew Stanton). Zootopia (USA 2016, R: Byron Howard, Rich Moore, Jared Bush).
339
340
Scheler: Computergrafik
Literaturverzeichnis ACCAD: ACCAD History. Ohne Datum. URL: https://accad.osu.edu/about/accad-history. Zugriff am: 18.02.2021. ACM SIGGRAPH: Steven Anson Coons Award. Ohne Datum. URL: https://www.siggraph.org/about/awards/steven-anson-coons-award/. Zugriff am: 12.12.2021. Aikens, Nick; Lange, Thomas; Seijdel, Jorinde; Thije, Steven ten (Hgg.): What’s the Use? Constellations of Art, History, and Knowledge. A Critical Reader. Amsterdam: Valiz, 2016. Alt, Casey: The Materialities of Maya: Making Sense of Object-Orientation. In: Config urations 10/3, 2002, S. 387–422. DOI: https://doi.org/10.1353/con.2004.0002. Alt, Casey: Objects of Our Affection. How Object Orientation Made Computers a Medium. In: Media Archaeology. Approaches, Applications, and Implications. Hrsg. v. Erkki Huhtamo und Jussi Parikka. Berkeley, CA: Palo Alto, CA: University of California Press, 2011, S. 278–301. DOI: https://doi.org/10.1525/9780520948518-015. Appel, Arthur: Some Techniques for Shading Machine Renderings of Solids. In: Proceedings of the Spring Joint Computer Conference – AFIPS ’68. Hrsg. v. ACM. New York, NY: ACM Press, 1968, S. 37–45. DOI: https://doi.org/10.1145/1468075.1468082. Autodesk Maya Help: Constraints. Ohne Datum. URL: https://help.autodesk.com/view/ MAYAUL/2022/ENU/?guid=GUID-7665A291-FAA7-44C0-BDEB-A6C83482116C. Zugriff am: 11.12.2021. Autodesk Maya Help: Copies vs. instances. Ohne Datum. URL: https://help.autodesk.com/view/MAYAUL/2022/ENU/?guid=GUID-2851AE11-C3EF-4AE1-B7C58773E2068BB9. Zugriff am: 11.12.2021. Autodesk Maya Help: Learning Maya. Ohne Datum. URL: https://help.autodesk.com/ view/MAYAUL/2022/ENU/?guid=GUID-4191EE54-4500-4FFC-BF29-BA6C1EAD9F58. Zugriff am: 21.01.2022. Baudrillard, Jean: Agonie des Realen. Berlin: Merve, 1978. Baur, John I. H.: Revolution and Tradition in Modern American Art. 2. Auf lage. New York, N.Y, London: Praeger, 1967. Baur, John I. H.: American Luminism. In: Perspectives USA 9, Herbst 1954, S. 90–98. Blackwell, Alan; Rodden, Kerry: Preface. In: Ivan E. Sutherland: Sketchpad: A man-machine graphical communication system. Hrsg. v. Alan Blackwell und Kerry Rodden. Cambridge, UK: University of Cambridge, Computer Laboratory, 2003, S. 3–6. Blender Foundation: History. Ohne Datum. URL: https://www.blender.org/about/history/. Zugriff am: 08.12.2021. Blender Foundation: Japanese anime studio Khara moving to Blender. 15.08.2019. URL: https://www.blender.org/user-stories/japanese-anime-studio-khara-moving-toblender/?utm_source=www-homepage. Zugriff am: 09.12.2021. Blinn, James F.: Computer Display of Curved Surfaces. Dissertation am Department of Computer Science, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1978. Blinn, James F.: Models of Light Ref lection for Computer Synthesized Pictures. In: Proceedings of the 4th annual conference on Computer graphics and interactive techniques – SIGGRAPH ’77. Hrsg. v. ACM. New York, NY: ACM Press, 1977, S. 192–198. DOI: https://doi.org/10.1145/563858.563893.
Anhang
Blumenberg, Hans: Wirklichkeiten in denen wir leben. Aufsätze und eine Rede. Stuttgart: Reclam, 2012. Bolter, Jay David; Grusin, Richard: Remediation. Understanding New Media. Cambridge, MA: MIT Press, 1999. Bouknight, W. J.: An Improved Procedure for Generation of Half-Tone Computer Graphics Presentations. Technical Report, Urbana, IL, Champaign, IL: Coordinated Science Laboratory, University of Illinois at Urbana-Champaign, 1969. Bréaud, Ondine: Le Réalisme dans l’image informatique. Étude des années 1980 et 1990. Paris: Harmattan, 2001. Breslin, James E. B.: Mark Rothko. A Biography. Chicago: University of Chicago Press, 1993. Bret, Michel: Anyf lo philosophy. 07.04.2015. URL: https://anyf lo.com/distribution/distribution_eng/env/philosophie.htm. Zugriff am: 05.12.2021. Bret, Michel: L’artiste et l’ordinateur. In: Les images numériques. Créations françaises. Hrsg. v. Daisy Hochart. Condé-sur-Noireau: Ed. Corlet-Télérama (CinémAction TV, 10), 1994, S. 64–68. Bret, Michel: Tools for Artists. In: Computer Animation ’91. Hrsg. v. Nadia Magnenat Thalmann und Daniel Thalmann. Tokyo: Springer Japan, 1991, S. 187–195. DOI: https://doi.org/10.1007/978-4-431-66890-9_13. Brown, Milton W.: American Painting from the Armory Show to the Depression. Princeton, NJ: Princeton University Press, 1955. Burley, Brent: Physically Based Shading at Disney. Burbank, CA: Walt Disney Animation Studios, 2012. Burrey, Suzanne: Edward Hopper: The Emptying Spaces. In: Arts Digest 29/13, 1955, S. 8–10 und S. 33. Caltech Computing | Mathematical Sciences: History and Facts. Ohne Datum. URL: https://cms.caltech.edu/about/history. Zugriff am: 13.12.2021. Cardoso Llach, Daniel: Builders of the Vision. Software and the Imagination of Design. New York, NY: Routledge, 2015. DOI: https://doi.org/10.4324/9781315798240. Carlson, Wayne E.: Computer Graphics and Computer Animation. A Retrospective Overview. Columbus, OH: The Ohio State University, 2017. Carlson, Wayne E.: Dialogue and Creativity: The Faces of Collaboration. In: Charles A. Csuri. Beyond Boundaries, 1963 – present. Hrsg. v. Janice M. Glowski und SIG GRAPH. Columbus, OH: The Ohio State University, College of the Arts, Advanced Computing Center for the Arts and Design, 2006, S. 85–90. Cassirer, Ernst: Philosophie der symbolischen Formen. Zweiter Teil. Das mythische Denken. Hamburg: Meiner (Gesammelte Werke, Hamburger Ausgabe; 12), 2002. Cassirer, Ernst: Wesen und Wirkung des Symbolbegriffs. 8. Auf lage. Darmstadt: Wiss. Buchges., 1994. Catmull, Edwin: A Subdivision Algorithm for Computer Display of Curved Surfaces. Dissertation am Department of Computer Science, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1974. Catmull, Edwin: A System for Computer Generated Movies. In: Proceedings of the ACM annual conference – ACM ’72. Hrsg. v. John J. Donovan und Rosemary Shields. New York, NY: ACM Press, 1972, S. 422–431. DOI: https://doi.org/10.1145/800193.569952. Catmull, Edwin; Wallace, Amy: Creativity, Inc. Overcoming the Unseen Forces That Stand in the Way of True Inspiration. New York, NY: Random House Inc., 2014.
341
342
Scheler: Computergrafik
Charles Babbage Institute, College of Science and Engineering: About CBI. Ohne Datum. URL: https://cse.umn.edu/cbi/about. Zugrif f am: 11.12.2021. Claerbout, David: Travel, 1996–2013. In: David Claerbout. Hrsg. v. Kunsthaus Bregenz. Köln: Walther König, 2018, S. 44–61. Clark, Wesley A.: The Lincoln TX-2 computer development. In: Western joint comput er conference – IRE-AIEE-ACM ’57. Hrsg. v. M. M. Astrahan. New York, NY: ACM Press, 1957, S. 143–145. DOI: https://doi.org/10.1145/1455567.14555902. Cole, Thomas: Thomas Cole Papers. Letters of Robert Gilmor to and from Thomas Cole – 1826–1837. New York State Library Digital Collections. Brief an Robert Gilmor vom 25. Dezember 1827. In: NYSL Special Collections. Manusripts, S. 72–78. URL: https://nysl.ptfs.com/data/Library5/All%20Special%20Collections/Manuscripts/ Thomas%20Cole%20Papers/Correspondence%2C%201820-1855/Cole%20and%20 Gilmor%2C%201826-1837/pdf/SC10635-B3-F8-complete.pdf. Zugriff am: 18.03.2022. Computer History Museum: The Mouse. Ohne Datum. URL: https://www.computerhistory.org/revolution/input-output/14/350. Zugriff am: 12.12.2021. Coons, Steven A.: Surfaces for Computer-Aided Design of Space Forms. Boston, MA: Massachusetts Institute of Technology, 1967. Coons, Steven A.: An Outline of the Requirements for a Computer-Aided Design System. In: Proceedings of the Spring Joint Computer Conference – AFIPS ’63. Hrsg. v. E. C. Johnson. New York, NY: ACM Press, 1963, S. 299–304. DOI: https:// doi.org/10.1145/1461551.1461588. Coons, Steven A.: The Uses of Computers in Technology. In: Scientific American 215/3, 1966, S. 176–191. DOI: https://doi.org/10.1038/scientificamerican0966-176. Couchot, Edmond; Hillaire, Norbert: L’art numérique. Comment la technologie vient au monde de l’art. Paris: Flammarion, 2003. Crary, Jonathan: Techniques of the Observer. On Vision and Modernity in the Nineteenth Century. Cambridge, MA: MIT Press, 1992. Crehan, Hubert: Rothko’s Wall of Light. In: Arts Digest 29/3, 1954, S. 5 und S. 19. Csuri, Charles A.: Beyond Boundaries. In: Charles A. Csuri. Beyond Boundaries, 1963 – present. Hrsg. v. Janice M. Glowski und SIGGRAPH. Columbus, OH: The Ohio State University, College of the Arts, Advanced Computing Center for the Arts and Design, 2006, S. 21–22. Csuri, Charles A.: Complexity. Oktober 2008. URL: http://www.csurivision.com/index. php/2008/10/complexity/. Zugriff am: 12.12.2021. Csuri, Charles A.; Butche, Robert W.: Interview of Charles A. Csuri by Robert Butche. Durchgeführt in Columbus, OH. Columbus, OH: Ohio State University Archives, 10.06.2003. URL: https://kb.osu.edu/handle/1811/5928. Zugrif f am: 08.03.2022. Csuri, Charles A.; Staudhammer, John; Culviner, Tom; Neal, Margaret: An Interview with Charles Csuri. In: IEEE Computer Graphics and Applications 10/1, 1990, S. 5–9. Csuri, Charles A.; Freedman, Kerry J.: Oral history interview with Charles A. Csuri. Durchgeführt in Columbus, OH. Minneapolis, MN: Charles Babbage Institute, University of Minnesota, 23.10.1989. URL: https://conservancy.umn.edu/handle/11299/107236. Zugrif f am: 08.03.2022. Dahl, Ole-Johan; Nygaard, Kristen: SIMULA: an ALGOL-based simulation language. In: Communications of the ACM 9/9, 1966, S. 671–678. DOI: https://doi. org/10.1145/365813.365819.
Anhang
DARPA: The Sputnik Surprise. Ohne Datum. URL: https://www.darpa.mil/about-us/ timeline/creation-of-darpa. Zugrif f am: 10.12.2021. Depkat, Volker: Geschichte der USA. Stuttgart: Kohlhammer, 2016. DOI: https://doi. org/10.17433/978-3-17-026744-2. Dewey, John: Kunst als Erfahrung. Frankfurt am Main: Suhrkamp, 1980. Docter, Pete; Poehler, Amy: The Art of Inside Out. San Francisco: Chronicle Books, 2015. Dunlop, Renee (Hg.): Production Pipeline Fundamentals for Film and Game. Burlington, MA; Oxfordshire, UK: Focal Press, 2014. DOI: https://doi.org/10.4324/9781315858272. Dybvig, Ronak Kent: The Scheme Programming Language. 4. Auf lage. Cambridge, MA: MIT Press, 2009. Eco, Umberto; Gerstner, Karl; Horvat-Pintarić, Vera; Kelemen, Boris; Krampen, Martin: Program Information 13. tendencije 4/tendencies 4. Computers and Visual Research. Decision of the Competition Jury. In: A Little-Known Story about a Movement, a Magazine, and the Computer’s Arrival in Art: New Tendencies and Bit International, 1961–1973. Bit International. [Nove] tendencije. Computer und Visuelle Forschung Zagreb 1961–1973, exhibitions Neue Galerie Graz am Landesmuseum Joanneum April 28–June 17, 2007, ZKM, Center for Art and Media Karlsruhe February 23, 2008–January 18, 2009. Hrsg. v. Margit Rosen, Darko Fritz, Marija Gattin und Peter Weibel. Karlsruhe, Germany: Cambridge, MA: London, England: ZKM Center for Art and Media; MIT Press, 2011, S. 368–370. Edwards, Jonathan: 782. Ideas. Sense of the Heart. Spiritual Knowledge or Conviction. Faith. In: Works of Jonathan Edwards Online. The Miscellanies, Bd. 18. Hrsg. v. Ava Chamberlain. New Haven, CT: Yale University Press, 2008, S. 452–466. URL: http://edwards.yale.edu/archive?path=aHR0cDovL2Vkd2FyZHMueWFsZS5lZHUvY2dpLWJpbi9uZXdwaGlsby9nZXRvYmplY3QucGw/Yy4xNzo0OjI4Mi53amVv. Zugriff am: 29.09.2017. Emerson, Ralph Waldo: Nature (1836). In: The Collected Works of Ralph Waldo Emerson. Volume I: Nature, Addresses, and Lectures. Hrsg. v. Robert E. Spiller und Alfred R. Ferguson. Cambridge, MA: London: Belknap Press of Harvard University Press (The Collected Works of Ralph Waldo Emerson, Bd. 1), 1971, S. 7–45. (1971a) Emerson, Ralph Waldo: The Young American (1844). In: The Collected Works of Ralph Waldo Emerson. Volume I: Nature, Addresses, and Lectures. Hrsg. v. Robert E. Spiller und Alfred R. Ferguson. Cambridge, MA: London: Belknap Press of Harvard University Press (The Collected Works of Ralph Waldo Emerson, Bd. 1), 1971, S. 217–244. (1971b) Engelbart, Douglas C.: Augmenting Human Intellect. A Conceptual Framework, Menlo Park, CA: Stanford Research Institute, 1962. Erbacher, Eric; Maruo-Schröder, Nicole; Sedlmeier, Florian: Introduction: Rereading The Machine in the Garden. In: Rereading the Machine in the Garden. Nature and Technology in American Culture. Hrsg. v. dens. Frankfurt am Main: Campus, 2014, S. 7–41. Erdahl, Alan: Displaying computer generated half-tone pictures in real time. Masterarbeit am Department of Electrical Engineering, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1969. Evans, David C.: Graphical Man/Machine Communications: November 1966. Forschungsbericht, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1966. Evans, David C.: Graphical Man/Machine Communications: May 1967. Forschungsbericht, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1967.
343
344
Scheler: Computergrafik
Evans, David C.: Graphical Man/Machine Communications: February 1968. Forschungsbericht, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1968. (1968a) Evans, David C.: Graphical Man/Machine communications: November 1968. Forschungsbericht, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1968. (1968b) Evans, David C.: Graphical Man/Machine Communications: May 1969. Forschungsbericht, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1969. (1969a) Evans, David C.: Graphical Man/Machine Communications: November 1969. Forschungsbericht, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1969. (1969b) Evans, David C.: Graphical Man/Machine Communications: May 1971. Forschungsbericht, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1971. (1971a) Evans, David C.: Graphical Man/Machine Communications: June 1971. Forschungsbericht, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1971. (1971b) Evans, David C.: Graphical Man/Machine Communications: December 1971. Forschungsbericht, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1971. (1971c) Evans, David C.: Graphical Man/Machine Communications: June 1972. Forschungsbericht, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1972. (1972a) Evans, David C.: Graphical Man/Machine Communications: December 1972. Forschungsbericht, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1972. (1972b) Evans & Sutherland, A Cosm Company: About – Evans & Sutherland. Ohne Datum. URL: https://www.es.com/about/. Zugrif f am: 09.12.2021. Failing, Patricia; Oppenheimer, Robin: History. 16.09.2002. URL: http://courses.wash ington.edu/eatreun/html/history/h_intro.html. Zugriff am: 05.03.2021. Failing, Patricia; Oppenheimer, Robin: Northwest Chapters. William Fetter (1928– 2002). 16.09.2002. URL: http://courses.washington.edu/eatreun/html/history/h_ nw.html. Zugrif f am: 05.03.2021. Farr Sloan, Helen: John Sloan’s New York Scene. New York, NY: Harper & Row, 1965. Fetter, William A.: Computer Graphics in Communication. Written for the Course Content Development Study in Engineering Graphics, supported by the National Science Foundation. New York, NY, u. a.: McGraw-Hill, 1965. Fetter, William A.: Computer Graphics. In: Design Quarterly 66/67, 1966, S. 14–23. DOI: https://doi.org/10.2307/4047328. Fitch, John: MIT Science Reporter. Computer Sketchpad. Regie: Russell Morash. Boston, MA: National Educational Television, 1964. Flusser, Vilém: Ins Universum der technischen Bilder. 4. durchges. Auf lage. Göttingen: European Photography, 1992. Flusser, Vilém: Digitaler Schein. In: Digitaler Schein. Ästhetik der elektronischen Medien. Hrsg. v. Florian Rötzer. Frankfurt am Main: Suhrkamp, 2001, S. 147–159.
Anhang
Frankenstein, Alfred Victor: After the Hunt. William Harnett and Other American Still Life Painters 1870–1900. Berkeley, CA: University of California Press, 1953. Frankovich, J. M.; Peterson, H. P.: A functional description of the Lincoln TX-2 computer. In: Western joint computer conference – IRE-AIEE-ACM ’57. Hrsg. v. M. M. Astrahan. New York, NY: ACM Press, 1957, S. 146–155. DOI: https://doi. org/10.1145/1455567.1455593. Gaboury, Jacob: Image Objects. An Archaeology of Computer Graphics. Cambridge, MA: MIT Press, 2021. DOI: https://doi.org/10.7551/mitpress/11077.001.0001. Galloway, Alexander R.: The Poverty of Philosophy: Realism and Post-Fordism. In: Critical Inquiry 39/2, 2013, S. 347–366. DOI: https://doi.org/10.1086/668529. Geiger, Annette: Andersmöglichsein. Zur Ästhetik des Designs. Bielefeld: transcript, 2018. DOI: https://doi.org/10.1515/9783839444894. Geiger, Annette; Holtschke, Bianca: Einleitung. Grafisches Gestalten als Weltwissen und Bilderordnung. In: Piktogrammatik. Grafisches Gestalten als Weltwissen und Bilderordnung. Hrsg. v. dens. Bielefeld: transcript, 2021, S. 10–20. DOI: https://doi.org/10.1515/9783839457436-001. General Electric: Modifications to Interim Visual Spacef light Simulator. Sixth quarterly report. 12 April to 12 July 1966. Technischer Report, Houston, TX: NASA Manned Spacecraft Center, 1966. General Electric: Modifications to Interim Visual Spacef light Simulator. Ninth quarterly report. 12 January to 12 April 1967. Technischer Report, Houston, TX: NASA Manned Spacecraft Center, 1967. Glowski, Janice M.: Introduction to the Catalogue. In: Charles A. Csuri. Beyond Boundaries, 1963 – present. Hrsg. v. Janice M. Glowski und SIGGRAPH. Columbus, OH: The Ohio State University, College of the Arts, Advanced Computing Center for the Arts and Design, 2006, S. 17–21. (2006a) Glowski, Janice M.: Random War. In: Charles A. Csuri. Beyond Boundaries, 1963 – present. Hrsg. v. Janice M. Glowski und SIGGRAPH. Columbus, OH: The Ohio State University, College of the Arts, Advanced Computing Center for the Arts and Design, 2006, S. 76–79. (2006b) Glowski, Janice M.; SIGGRAPH (Hgg.): Charles A. Csuri. Beyond Boundaries, 1963 – present. Columbus, OH: The Ohio State University, College of the Arts, Advanced Computing Center for the Arts and Design, 2006. Goodman, Nelson: Sprachen der Kunst. Entwurf einer Symboltheorie. 8. Auf lage. Frankfurt am Main: Suhrkamp (Suhrkamp-Taschenbuch Wissenschaft, 1304), 2015. Goodman, Richard: Introduction to the Transaction Edition. In: Joseph Anthony Ward: American Silences. The Realism of James Agee, Walker Evans, and Edward Hopper. 2. Auf lage. New Brunswick, NJ: Transaction Publishers, 2010, S. xiii–xx. Gouraud, Henri: Computer Display of Curved Surfaces. Dissertation am Department of Computer Science, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1971. (1971a) Gouraud, Henri: Continuous Shading of Curved Surfaces. In: IEEE Transactions on Computers C-20/6, 1971, S. 623–629. DOI: https://doi.org/10.1109/T-C.1971.223313. (1971b) Halberstam, Judith/Jack: The Queer Art of Failure. Durham, NC u. a.: Duke University Press, 2011. DOI: https://doi.org/10.2307/j.ctv11sn283.
345
346
Scheler: Computergrafik
Harvard innovation labs: AR/VR Studio. Harvard’s Role in the History of AR/VR. Ohne Datum. URL: https://innovationlabs.harvard.edu/arvr-studio/. Zugrif f am: 13.05.2021. Heim, Michael: Electric Language. A Philosophical Study of Word Processing. New Haven, CT: Yale University Press, 1987. Heim, Michael: The Cyberspace Dialectic. In: Digital Dialectic. New Essays on New Media. Hrsg. v. Peter Lunenfeld. Cambridge, MA: MIT Press, 1999, S. 24–45. Henri, Robert: The Art Spirit. 3. Auf lage. New York: Basic Books, 2007. Henri, Robert: The New York Exhibition of Independent Artists. In: The craftsman XVIII/2, 1910, S. 160–172. Herzog, Bertram: Eulogy Delivered at the Memorial Service of Steven A. Coons (22.08.1979). Syracuse University Clipping Files, Steven A. Coons-Folder, Syracuse, NY: Syracuse University Libraries, Special Collections Research Center, S. 1–4. Huhtamo, Erkki; Parikka, Jussi: Introduction: An Archaeology of Media Archaeol ogy. In: Media Archaeology. Approaches, Applications, and Implications. Hrsg. v. dens. Berkeley, CA: Palo Alto, CA: University of California Press, 2011, S. 1–21. DOI: https://doi.org/10.1525/9780520948518-003. Husserl, Edmund: Erfahrung und Urteil. Untersuchungen zur Genealogie der Logik. 7. Auf lage. Hamburg: Meiner (Philosophische Bibliothek, 280), 1999. DOI: https:// doi.org/10.28937/978-3-7873-2546-7. Husserl, Edmund: Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie. Unter Mitarbeit von Walter Biemel. Den Haag: Nijhoff, 1954. Husserl, Edmund: Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie. Eine Einleitung in die phänomenologische Philosophie. Hamburg: Meiner (Philosophische Bibliothek, 641), 2012. DOI: https://doi. org/10.28937/978-3-7873-2260-2. James, Henry: Notes on Novelists. With Some Other Notes. New York, NY: Charles Scribner’s Sons, 1914. Jefferson, Thomas; Waldstreicher, David (Hgg.): Notes on the State of Virginia. With Related Documents. New York, NY: Palgrave, 2002. Johnson, Timothy E.: Sketchpad III. Three Dimensional Graphical Communication With a Digital Computer. Masterarbeit am Institut für Maschinenbau, Cambridge, MA: Massachusetts Institute of Technology, MIT Libraries, 1963. Jones, Loyd A.: The Psychophysical Evaluation of the Quality of Photographic Reproductions. In: PSA Journal 17/12, 1951, S. 751–764. Jones, Loyd A.: Psychophysics and Photography. In: Journal of the Optical Society of America 34/2, 1944, S. 66. DOI: https://doi.org/10.1364/JOSA.34.000066. Kanna, Ahmed: Dubai. The City as Corporation. Minneapolis, MN: University of Minnesota Press, 2011. DOI: https://doi.org/10.5749/minnesota/9780816656301.001.0001. Kelly, Sean (Hg.): David Claerbout. Drawings and Studies. Ostfildern: Hatje Cantz, 2015. Klütsch, Christoph: Computergrafik. Ästhetische Experimente zwischen zwei Kulturen. Die Anfänge der Computerkunst in den 1960er Jahren. Wien: Springer, 2007. DOI: https://doi.org/10.1007/978-3-211-39410-6. Kouwenhoven, John A.: Made in America. The Arts in Modern Civilization. Garden City, NY: Doubleday & Company, Inc., 1949.
Anhang
Krämer, Sybille: Das Medium als Spur und Apparat. In: Medien, Computer, Realität. Wirklichkeitsvorstellungen und Neue Medien. Hrsg. v. ders. Frankfurt am Main: Suhrkamp, 1998, S. 73–94. Kunsthaus Bregenz (Hg.): David Claerbout. Köln: Walther König, 2018. Landau, Elizabeth, 2020: Tech Confronts Its Use of the Labels ›Master‹ and ›Slave‹. In: WIRED, 06.07.2020. URL: https://www.wired.com/story/tech-confronts-uselabels-master-slave/. Zugrif f am: 14.06.2021. Lange, Thomas: Constellating History – Introduction. In: What’s the Use? Constellations of Art, History, and Knowledge. A Critical Reader. Hrsg. v. Nick Aikens, Thomas Lange, Jorinde Seijdel und Steven ten Thije. Amsterdam: Valiz, 2016, S. 16–17. Lange, Thomas: Orientierungen an den Leerstellen der Geschichte. Zum Verhältnis von Gewordenem und Gemachtem in Ruinenbildern der Romantik. In: von selbst. Autopoetische Verfahren in der Ästhetik des 19. Jahrhunderts. Hrsg. v. Friedrich Weltzien. Berlin: Reimer, 2006, S. 75–95. Latour, Bruno: Die Hof fnung der Pandora. Untersuchungen zur Wirklichkeit der Wissenschaft. Frankfurt am Main: Suhrkamp, 2002. Latour, Bruno: Mixing Humans and Nonhumans Together: The Sociology of a DoorCloser. In: Social Problems 35/3, 1988, S. 298–310. DOI: https://doi.org/10.1525/ sp.1988.35.3.03a00070. Le Meur, Anne-Sarah: Création artistique en image de synthèse. Expression de la corporéité. Dissertation. Paris: Université de Paris VIII, 1999. Levin, Gail: Edward Hopper. An Intimate Biography. 2. erw. Auf lage. New York, NY: Rizzoli, 2007. Lewis, Matthew: Randomness, Chance, Process: The Infinity Series. In: Charles A. Csuri. Beyond Boundaries, 1963 – present. Hrsg. v. Janice M. Glowski und SIGGRAPH. Columbus, OH: The Ohio State University, College of the Arts, Advanced Computing Center for the Arts and Design, 2006, S. 147–153. Lobel, Michael: Image Duplicator. Roy Lichtenstein and the Emergence of Pop Art. New Haven: Yale University Press (Yale Publications in the History of Art), 2002. Loomis, Herschel H.: Graphical Manipulation Techniques Using the Lincoln TX-2 Computer. Massachusetts Institute of Technology, Lincoln Laboratory, Lexington, MA. Cambridge, MA: MIT Libraries, Distinctive Collections, 1960. Lucie-Smith, Edward: American Realism. London: Thames & Hudson, 2003. Lunenfeld, Peter: Digitale Fotografie. Das dubitative Bild. In: Paradigma Fotografie. Hrsg. v. Herta Wolf. Frankfurt am Main: Suhrkamp, 2002, S. 158–177. MacAdam, David L.: Quality of Color Reproduction. In: Journal of the Society of Motion Picture and Television Engineers /56, 1951, S. 478–512. DOI: https://doi. org/10.5594/J06314. Mach, Ernst: Über die Wirkung der räumlichen Vertheilung des Lichtreizes auf die Netzhaut. Vorgelegt in der Sitzung am 3. October 1865. Wien: K. k. Hof- und Staatsdruckerei, 1865. MAGI (Hg.): 3-D Simulated Graphics Of fered by Service Bureau. In: Datamation 14/2, 1986, S. 69. Maki, Ariana: After the Artist Series. In: Charles A. Csuri. Beyond Boundaries, 1963 – present. Hrsg. v. Janice M. Glowski und SIGGRAPH. Columbus, OH: The Ohio State University, College of the Arts, Advanced Computing Center for the Arts and Design, 2006, S. 52–58.
347
348
Scheler: Computergrafik
Mann, Robert W.: Computer-Aided Design – 1959 Through 1965 – in the Design and Graphics Division of MIT’s Mechanical Engineering Department. In: Fundamental Developments of Computer-Aided Geometric Modeling. Hrsg. v. Les A. Piegl. London: Academic Press, 1993, S. 381–396. Manovich, Lev: The Language of New Media. Cambridge, MA: MIT Press, 2001. Manovich, Lev: Software Takes Command. New York, NY: Bloomsbury Academic, 2013. DOI: https://doi.org/10.5040/9781472544988. Manovich, Lev: Synthetic Realism: The Mythology of Computer Graphics. In: After image 20/2, 1992, S. 12–14. DOI: https://doi.org/10.1525/aft.1992.20.2.12. Marey, Étienne-Jules: Movement. Übersetzung ins Englische von Eric Pritchard. New York, NY: D. Appleton and Company, 1895. Marx, Leo: The Machine in the Garden. Technology and the Pastoral Ideal in America. 2. Auf lage. Oxford u. a.: Oxford University Press USA, 2000. Maxon: Phong. Ohne Datum. URL: https://help.maxon.net/de/#TPHONG. Zugrif f am: 09.12.2021. Maxon: Shading. Ohne Datum. URL: https://help.maxon.net/de/index.html#DBASEDRAW-BASEDRAW_GROUP_VIEW. Zugrif f am: 09.12.2021. McLuhan, Marshall: Die magischen Kanäle. Understanding Media. 2. erw. Auf lage. Dresden, Basel: Verlag der Kunst, 1995. Meinel, Dietmar: Pixar’s America. The Re-Animation of American Myths and Symbols. London u. a.: Palgrave Macmillan, 2016. Meinel, Dietmar: The Garden in the Machine: Myth and Symbol in the Digital Age. In: Rereading the Machine in the Garden. Nature and Technology in American Culture. Hrsg. v. Eric Erbacher, Nicole Maruo-Schröder und Florian Sedlmeier. Frankfurt am Main: Campus, 2014, S. 190–210. Menton, Seymour: Magic Realism Rediscovered, 1918–1981. Philadelphia, London: Art Alliance Press; Associated University Presses, 1983. Miller, Dorothy C.: Foreword and Acknowledgement. In: American Realists and Magic Realists. Ausstellungskatalog. Hrsg. v. Dorothy C. Miller und Alfred H. Barr Jr. New York, NY: The Museum of Modern Art, 1943, S. 5–6. Miller, Dorothy C.; Barr Jr., Alfred H. (Hgg.): American Realists and Magic Realists. Ausstellungskatalog. New York, NY: The Museum of Modern Art, 1943. MIT; Minsky, Marvin: Marvin Minsky. Ohne Datum. URL: https://web.media.mit. edu/~minsky/. Zugrif f am: 11.12.2021. MIT CSAIL: Mission & History. Ohne Datum. URL: https://www.csail.mit.edu/about/ mission-history. Zugrif f am: 11.12.2021. Mitchell, Bonnie: Introduction to the Exhibition. In: Charles A. Csuri. Beyond Bound aries, 1963 – present. Hrsg. v. Janice M. Glowski und SIGGRAPH. Columbus, OH: The Ohio State University, College of the Arts, Advanced Computing Center for the Arts and Design, 2006, S. 13–15. Mitchell, William John: The Reconfigured Eye. Visual Truth In The Post-Photographic Era. 4. Auf lage. Cambridge, MA, London, UK: MIT Press, 2001. Mones-Hattal, Barbara; Snelson, Ken; Weber, Sally; Csuri, Charles; Longson, Tony: New Methods, New Artforms (Panel Session). In: ACM SIGGRAPH Panel Proceed ings, 1990, S. 901–925. Nake, Frieder: Das doppelte Bild. In: BAND 3,2 Digitale Form, 2006, S. 40–50.
Anhang
Nake, Frieder: Die Kunstproduktion als Entscheidungsprozeß. In: bit international, Bd. 2. Hrsg. v. Boris Kelemen und Radoslav Putar. Zagreb: Galerije grada Zagreba, 1968, S. 45–50. NASA: Sputnik and the Dawn of the Space Age. Ohne Datum. URL: https://history. nasa.gov/sputnik.html. Zugrif f am: 10.12.2021. Newell, Martin E.: The Utilization of Procedure Models in Digital Image Synthesis. Dissertation am Department of Computer Science, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1975. Nochlin, Linda: The Realist Criminal and the Abstract Law. In: Art in America 61/5, 1973, S. 54–61. Nooney, Laine: A Pedestal, A Table, A Love Letter: Archaeologies of Gender in Videogame History. In: Game Studies 13/2, 2013. URL: http://gamestudies.org/1302/articles/nooney. Zugrif f am: 05.12.2021. Novak, Barbara: American Painting of the Nineteenth Century. Realism, Idealism, and the American Experience. 3. Auf lage. Oxford u. a.: Oxford University Press USA, 2007. Paik, Karen; Iwerks, Leslie: To Infinity and Beyond! The Story of Pixar Animation Studios. San Francisco, CA: Chronicle, 2007. Palazzi, Maria: Exploration and the Artist’s Tools. In: Charles A. Csuri. Beyond Bound aries, 1963 – present. Hrsg. v. Janice M. Glowski und SIGGRAPH. Columbus, OH: The Ohio State University, College of the Arts, Advanced Computing Center for the Arts and Design, 2006, S. 93–96. Panofsky, Erwin: Die Perspektive als »symbolische Form«. In: Erwin Panofsky: Aufsätze zu Grundfragen der Kunstwissenschaft. Hrsg. v. Hariolf Oberer und Egon Verheyen. 2. Auf lage. Berlin: Wissenschaftsverlag Volker Spiess, 1998, S. 99–167. Perry, Rebecca Ann: Rigging the World. 3D Modeling and the Seduction of the Real. Dissertation am Massachusetts Institute of Technology, Boston, MA: History, Anthropology, and Science, Technology and Society, MIT Libraries, 2014. Pharr, Matt; Jakob, Wenzel; Humphreys, Greg: Physically Based Rendering. From Theory to Implementation. 3. Auf lage. Cambridge, MA: Morgan Kaufmann, 2017. Phong, Bui Tuong: Illumination for Computer-Generated Images. Dissertation am Department of Computer Science, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1973. Phong, Bui Tuong: Illumination for Computer Generated Pictures. In: Communications of the ACM 18/6, 1975, S. 311–317. DOI: https://doi.org/10.1145/360825.360839. Pias, Claus: Das digitale Bild gibt es nicht. Über das (Nicht-)Wissen der Bilder und die informatische Illusion. In: zeitenblicke 2/1, 2003, Ohne Seitenangabe. URL: https://mediarep.org/handle/doc/4845. Zugrif f am: 18.03.2022. Pixar Animation Studios: Leadership. Ohne Datum. URL: https://www.pixar.com/ leadership#may. Zugrif f am: 12.12.2021. Pott, Dominik; Scheler, Carolin: Interview mit Dominik Pott. Durchgeführt in Hannover. Göttingen: Research Online / Data, 16.08.2020. URL: https://doi.org/10.25625/ Z27EP6. Zugriff am: 08.03.2022. Prendeville, Brendan: Realism in 20th Century Painting. New York, NY: Thames & Hudson, 2000. Price, David A.: The Pixar Touch. The Making of a Company. New York, NY: Vintage Books, 2009.
349
350
Scheler: Computergrafik
Raudseps, J. G.: Picture Regeneration from Quantized Data. The Antenna Laboratory, Department of Electrical Engineering, The Ohio State University Research Foundation. Columbus, OH: The Ohio State University Libraries Archives, 1963. RenderMan Documentation: PxrDisney. Ohne Datum. URL: https://renderman.pixar. com/resources/RenderMan_20/PxrDisney.html. Zugrif f am: 20.12.2021. Rivlin, Robert: The Algorithmic Image. Graphic Visions of the Computer Age. Redmond, WA: Microsoft Press, 1986. Roberts, Lawrence G.: Machine perception of three-dimensional solids. Dissertation am Department of Electrical Engineering, Boston, MA: Massachusetts Institute of Technology, MIT Libraries, 1963. Röhrl, Boris: Kunsttheorie des Naturalismus und Realismus. Historische Entwicklung, Terminologie und Definitionen. Hildesheim: Georg Olms, 2003. Röhrl, Boris: Realismus in der bildenden Kunst. Europa und Nordamerika 1830 bis 2000. Berlin: Mann, 2013. Romney, Gordon W.: Computer Assisted Assembly and Rendering of Solids. Dissertation am Department of Electrical Engineering, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1969. Rosen, Margit: A Record of Decisions: Envisioning Computer Art. In: Charles A. Csuri. Beyond Boundaries, 1963 – present. Hrsg. v. Janice M. Glowski und SIGGRAPH. Columbus, OH: The Ohio State University, College of the Arts, Advanced Comput ing Center for the Arts and Design, 2006, S. 25–46. Rothko, Mark: Statement on his attitude in Painting. In: The Tiger’s Eye 1/9, 1949, S. 114. Rubin, Peter, 2018: Pixar’s Renderman CGI Software Celebrates Its 30th Birthday. In: WIRED, 17.12.2018. URL: https://www.wired.com/story/renderman-30th-anniversary/. Zugrif f am: 09.12.2021. Rule, John T.; Coons, Steven A.: Graphics. New York, NY: McGraw-Hill Book Company, Inc., 1961. Scheler, Carolin: Ein Atelier im virtuellen Raum. 3D als Ausdrucksmedium. Masterarbeit an der Fakultät III–Design und Medien, Hannover: Hochschule Hannover, 2015. Scheler, Carolin: Der bildsprachliche Kosmos im computeranimierten Kinofilm. In: Piktogrammatik. Grafisches Gestalten als Weltwissen und Bilderordnung. Hrsg. v. Annette Geiger und Bianca Holtschke. Bielefeld: transcript, 2021, S. 136–161. DOI: https://doi.org/10.1515/9783839457436-006. Schneider, Birgit: Wissenschaftsbilder zwischen digitaler Transformation und Manipulation. Einige Anmerkungen zur Diskussion des »digitalen Bildes«. In: Logik des Bildlichen. Hrsg. v. Martina Heßler und Dieter Mersch. Bielefeld: transcript, 2015, S. 188–200. DOI: https://doi.org/10.1515/9783839410516-007. Schröter, Jens: 3D. Zur Geschichte, Theorie und Medienästhetik des technisch-transplanen Bildes. München: Fink, 2009. DOI: https://doi.org/10.30965/9783846747391. Schröter, Jens: Das Ende der Welt. Analoge vs. digitale Bilder – mehr und weniger ›Realität‹? In: Analog/Digital – Opposition oder Kontinuum? Zur Theorie und Geschichte einer Unterscheidung. Hrsg. v. dems. und Alexander Böhnke. Bielefeld: transcript, 2004, S. 335–354. DOI: https://doi.org/10.1515/9783839402542-017. Schumacker, Robert A.; Brand, Brigitta; Gilliland, Maurice G.; Sharp, Werner H.: Study for Applying Computer-Generated Images to Visual Simulation. Technischer Report, Daytona Beach, FL: General Electric Company, 1969.
Anhang
Shapiro, David: Social Realism. Art as a Weapon. New York, NY: Ungar, 1973. Shi, David E.: Facing Facts. Realism in American Thought and Culture, 1850–1920. Oxford: Oxford University Press, 1995. Shinn, Everett: Recollections of The Eight. In: The Eight. Ausstellungskatalog. Hrsg. v. The Brooklyn Museum. New York, NY: Brooklyn Museum Press, 1943. Sito, Tom: Moving Innovation. A History of Computer Animation. Cambridge, MA: MIT Press, 2013. Sloan, John: John Sloan on Drawing and Painting. Gist of Art. Mineola, NY: Dover Publications, 2000. Smith, Alvy Ray: A Biography of the Pixel. Cambridge, MA: MIT Press (Leonardo), 2021. Smith, Alvy Ray: pt reyes. Ohne Datum. URL: http://alvyray.com/Art/PtReyes.htm. Zugriff am: 16.12.2021. Smith, Alvy Ray: Realism and Resolution in Early Computer Graphics. E-Mail an Carolin Scheler, 27.09.2021. Sobchack, Vivian: Animation and automation, or, the incredible effortfulness of being. In: Screen 50/4, 2009, S. 375–391. DOI: https://doi.org/10.1093/screen/hjp032. Squirru, Rafael: Edward Hopper. In: Américas /17, 1965, S. 11–17. Sutherland, Ivan E.: Sketchpad. A Man-Machine Graphical Communication System. Dissertation am Department of Electrical Engineering and Computer Science, Cambridge, MA: Massachusetts Institute of Technology, MIT Libraries, 1963. (1963a) Sutherland, Ivan E.: Sketchpad: A man-machine graphical communication system. Hrsg. v. Alan Blackwell und Kerry Rodden. Cambridge, UK: University of Cambridge, Computer Laboratory, 2003. Sutherland, Ivan E.: Sketchpad. In: Proceedings of the Spring Joint Computer Confer ence – AFIPS ’63. Hrsg. v. E. C. Johnson. New York, NY: ACM Press, 1963, S. 329–346. DOI: https://doi.org/10.1145/1461551.1461591. (1963b) Sutherland, Ivan E.: The Ultimate Display. In: Information Processing 1965. Proceed ings of IFIP Congress. Teil 2. Hrsg. v. Wayne A. Kalenich. 2 Bände. Washington D.C., u. a.: Spartan, 1965, S. 506–508. Sutherland, Ivan E.; Aspray, William: Oral history interview with Ivan Sutherland. Durchgeführt in Pittsburgh, PA. Minneapolis, MN: Charles Babbage Institute, University of Minnesota, 01.05.1989. URL: https://conservancy.umn.edu/handle/11299/107642. Zugrif f am: 08.03.2022. Sutherland, Ivan. E.; Frenkel, Karen A.: An interview with Ivan Sutherland. In: Communications of the ACM 32/6, 1989, S. 711–718. DOI: https://doi. org/10.1145/63526.63531. Swearingen, Kyoung L.; Scheler, Carolin: Interview with Kyoung Lee Swearingen. Durchgeführt in Hildesheim, Columbus, OH. Göttingen: Research Online / Data, 11.02.2020. URL: https://doi.org/10.25625/VBODBG. Zugrif f am: 08.03.2022. The Museum of Modern Art: Diego Rivera. Man at the Crossroads, 1932. Ohne Datum. URL: https://www.moma.org/collection/works/34635. Zugrif f am: 08.03.2022. The Tech (Hg.): 28 Faculty Members Receive Promotions. In: The Tech 81/6, 1961, S. 1. The Tech (Hg.): Killian Names Rule to Head Course IX. Will Still Administer Graphics Department. In: The Tech 70/15, 1950, S. 1 und S. 4. Trachtman, Paul: Charles Csuri is an ›Old Master‹ in a New Medium. (Cover Story). In: Smithsonian 25/11, 1995, S. 56–65.
351
352
Scheler: Computergrafik
Tufariello, Catherine: »The Remembering Wine«: Emerson’s Inf luence on Whitman and Dickinson. In: The Cambridge Companion to Ralph Waldo Emerson. Hrsg. v. Joel Porte und Saundra Morris. Cambridge, UK: Cambridge University Press, 1999, S. 162–191. DOI: https://doi.org/10.1017/CCOL052149611X.010. University of Utah: History | School of Computing. Ohne Datum. URL: https://www. cs.utah.edu/about/history/. Zugriff am: 09.12.2021. Virilio, Paul: Krieg und Kino. Logistik der Wahrnehmung. Frankfurt am Main: FischerTaschenbuch, 1989. Wallis, Michael: Foreword: America’s Road. In: A Route 66 Companion. Hrsg. v. David King Dunaway. Austin: University of Texas Press, 2012, S. ix–xii. DOI: https://doi. org/10.7560/726604-001. Ward, Joseph A.: American Silences. The Realism of James Agee, Walker Evans, and Edward Hopper. 2. Auf lage. New Brunswick, NJ: Transaction Publishers, 2010. Warnock, John E.: A Hidden Surface Algorithm for Computer Generated Half-Tone Pictures. Dissertation am Department of Electrical Engineering, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1969. Watkins, Gary S.: A real time visible surface algorithm. Dissertation an der School of Computing, Salt Lake City, UT: University of Utah, J. Willard Marriott Library, 1970. Wells, Edward C.: Introduction. In: William A. Fetter: Computer Graphics in Communication. Written for the Course Content Development Study in Engineering Graphics, supported by the National Science Foundation. Hrsg. v. Steve M. Slaby. New York, NY u. a.: McGraw-Hill, 1965, S. vii–viii. Wells, Paul: Animation and America. Edinburgh: Edinburgh University Press (BAAS paperbacks), 2002. Wells, Paul: Understanding Animation. London: Routledge, 1998. Weltzien, Friedrich: Fleck – das Bild der Selbsttätigkeit. Justinus Kerner und die Klecksografie als experimentelle Bildpraxis zwischen Ästhetik und Naturwissenschaft. Göttingen: Vandenhoeck & Ruprecht (Ästhetik um 1800, 6), 2011. Weltzien, Friedrich: Produktionsästhetik als Methode. In: Praxis. Ausüben. Begreifen. Hrsg. v. Michael Corsten: Velbrück Wissenschaft, 2021, S. 220–236. DOI: https:// doi.org/10.5771/9783748912583-220. Wilmerding, John: American Views. Essays on American Art. Princeton NJ: Princeton University Press, 1991. Wilmerding, John: Fitz Hugh Lane. New York, NY, London: Praeger, 1971. Wilmerding, John; Wilkin, Karen: Fairfield Porter. New York, NY: Rizzoli, 2016. Wylie, Chris; Romney, Gordon W.; Evans, David C.; Erdahl, Alan: Half-tone perspective drawings by computer. In: Proceedings of the Fall Joint Computer Conference – AFIPS ’67. Hrsg. v. ACM. New York, NY: ACM Press, 1967, S. 49–58. DOI: https:// doi.org/10.1145/1465611.1465619.
Anhang
Glossar 3D Artist
Als 3D Artist werden Personen bezeichnet, die in der Entertainment-Branche in einem der computergrafischen Bereiche tätig sind, also etwa als Modeler, als Shading Artist, als Animator etc.
3Ds Max
3Ds Max ist eine Grafiksoftware von Autodesk, die vornehmlich im Gaming-Bereich zum Einsatz kommt.
Aliasing
Aliasing bezeichnet ein Phänomen, das durch die rasterisierte Darstellung von Bildern und Grafiken auf Bildschirmen entstanden ist. Es ist ein Artefakt, das sich in Form eines Treppenef fekts bei schmalen Linien oder Kanten von Bildelementen zeigt, wenn sie diagonal oder gekrümmt sind. Lediglich waage- und senkrechte Linien sind von dem Ef fekt nicht betrof fen.
Antialiasing
Antialiasing versucht dem Problem des Aliasing entgegenzuwirken, indem die Kanten von Bildelementen oder schmalen Linien mithilfe eines Farbausgleichs zwischen den angrenzenden Bereichen ‚verwischt‘ werden. Der Treppeneffekt des Aliasing wird dadurch weniger sichtbar.
Autodesk Maya
Maya ist ein umfangreiches Computergrafikprogramm von Autodesk, das vor allem in der Spielfilmindustrie zum Einsatz kommt.
Blender
Blender ist ein umfangreiches Open-Source-Grafikprogramm, das wie seine kommerziellen Pendants alle gängigen Funktionen bereithält, darunter insbesondere die Basisbereiche des Modelings, Texturings, Shadings, Renderings und Animierens.
Bug
Ein ‚Bug‘ bezeichnet heute einen Fehler in einem Code, wenn ein Befehl nicht korrekt zu Ende ausgeführt werden konnte. Ursprünglich geht die Bezeichnung auf Hardwarefehler zurück, also auf ein tatsächlich physisch auf tretendes Problem. Der Grund, einen solchen Fehler als ‚Bug‘ zu bezeichnen, wird mit der US-amerikanischen Computerpionierin Grace Hopper in Verbindung gebracht, die in den 1940er-Jahren einen durchgebrannten Schaltkreis auf eine Motte zurückführen konnte.
353
354
Scheler: Computergrafik
Bump Map
Mithilfe von so genannten Bump Maps wird einem virtuellen Objekt, das eine vollkommen glatte Oberf läche hat, eine Oberf lächenstruktur verliehen. Um eine solche Struktur sichtbar zu machen, werden Unebenheiten durch Schattierungen jedoch lediglich simuliert. Bei dem Beispiel einer Mauer würden die Fugen je nach Lichteinfall in eine spezifische Richtung Schatten werfen, und zwar – anders als bei der Displacement Map – ohne, dass die Steine tatsächlich erhaben sind. Im Profil würde eine mit einer Bump Map versehenen Fläche nach wie vor keine Unebenheiten aufweisen. Die Bump Map ist weniger rechenintensiv als die Displacement Map und kommt für Bildelemente zum Einsatz, die nicht im Detail oder lediglich im Hintergrund zu sehen sind.
CG oder CGI
CG steht für Computer Graphics, CGI steht für Computer Gen erated Imagery.
Cinema 4D
Cinema 4D ist ein Computergrafikprogramm von dem deutschen Softwareunternehmen Maxon Computer GmbH, das wie Blender und Autodesk zur Erstellung computergenerierter Bilder und Animationen zum Einsatz kommen kann. Es ist ebenso für den Bereich der Motion Graphics beliebt, der zum Beispiel für Logo- oder Titelanimationen relevant ist.
Compositing
Das Compositing bezeichnet einen Arbeitsschritt, bei dem verschiedene digitale Bildelemente miteinander vereint werden, beispielsweise, wenn ein Fantasiewesen wie ein Drache in eine realgefilmte Umgebung eingefügt werden muss. Im Composit ing können zudem auch Effekte wie Feuer und Rauch zu gefilmten oder künstlich gerenderten Szenen hinzugefügt werden. Auch zur Erzeugung einer nachträglichen Schärfentiefe kann dieser Arbeitsschritt dienen.
Constraint
Constraints kommen in Grafikprogrammen wie zum Beispiel Autodesk Maya zum Einsatz, um Befehle, die sich an ein Objekt richten, an ein weiteres, daran gekoppeltes Objekt weiterzuleiten, etwa im Sinne einer Wenn-Dann-Formel. Wenn sich dieses Objekt bewegt, folgt das andere entsprechend. Es gibt unterschiedliche Constraints, die je andere Bedingungen formulieren.
Anhang
Displacement Map
Mithilfe von so genannten Displacement Maps wird einem virtuellen Objekt, das eine vollkommen glatte Oberf läche hat, ähnlich wie bei einer Bump Map eine Oberf lächenstruktur verliehen. Der Unterschied zur Bump Map besteht darin, dass bei einer Displacement Map die Oberf läche tatsächlich zum Relief wird und auch im Profil die Unebenheiten zu sehen sind. Bei dem Beispiel einer Mauer würden die Fugen je nach Lichteinfall in eine spezifische Richtung Schatten werfen. Im Profil wären die Steine erhaben, sodass die Mauerstruktur realistischer wirkt als bei einer Bump Map, bei der die Fläche im Profil plan bleibt. Displacement Maps sind wesentlich rechenintensiver als Bump Maps und kommen nur dort zum Einsatz, wo ein großer Detailreichtum erforderlich ist.
Edge
Siehe → Modeling.
Face
Siehe → Modeling.
Grid
Das Grid bezeichnet in einem 3D-Grafikprogramm das Koordinatensystem. Die X- und Z-Achsen bilden dabei eine Fläche im Raum, wobei die Z-Achse in der Regel für die Richtung steht, die sich in die Tiefe des Bildraums bewegt. Die Y-Achse steht senkrecht zu den beiden anderen und ragt in die Höhe. Das Grid ist eine Fläche, die sich rund um den Nullpunkt herum in alle Richtungen auf der Fläche der X- und Z-Achse ausbreitet. In manchen Programmen wird das Grid unendlich dargestellt, in Autodesk Maya wird nur ein Teilbereich des Grids angezeigt.
Hidden Line Problem
Das Hidden Line Problem bezieht sich auf die WireframeStruktur der virtuellen 3D-Modelle. Ohne eine Oberf läche zu simulieren, wären Objekte allein in dieser ›Drahtgitteransicht‹ zu sehen. Diese liefert jedoch keine Informationen darüber, welche Linien beispielsweise die Vorder- und welche die Rückseite beschreiben. Um diesem Problem entgegenzuwirken (und den Objekten allgemein eine größere Anschaulichkeit sowie einen höheren Grad an Realismus zu verleihen), wurde das Shading entwickelt. Es ermöglicht, Objekte opak, also als lichtundurchlässige sogenannte Solids anzuzeigen. Inzwischen werden mit dem Shading allgemein Materialien simuliert, um Objekten den Anschein unterschiedlicher Beschaffenheiten zu geben.
Hidden Surface Algorithm
Alternativ zur Bezeichnung Hidden Line Problem wird auch die Wendung Hidden Surface Algorithm verwendet. Siehe → Hidden Line Problem.
355
356
Scheler: Computergrafik
Hidden Surface Problem
Alternativ zur Bezeichnung Hidden Line Problem wird auch die Wendung Hidden Surface Problem verwendet. Siehe → Hidden Line Problem.
Instanz
Eine Instanz ist ein dupliziertes Objekt, das auf ein Original verweist. Wird das Original verändert, ändert sich auch die Instanz. Sie ist deshalb anders geartet als eine Kopie, die unabhängig als neues Objekt existiert und auf eine Änderung am Original nicht reagieren würde.
Kopie
Eine Kopie ist ein dupliziertes Objekt, das anders als eine Instanz nicht auf ein Original verweist, sondern unabhängig davon existiert. Während sich bei einer Instanz Änderungen am Original auf die Instanz auswirken, ist eine Kopie davon nicht betroffen.
Lighting
Lighting bezeichnet die Disziplin, im virtuellen Raum Settings auszuleuchten. In der Regel werden Lichtquellen entsprechend unserer physischen Realität eingestellt. Anders als in der Realität können Lichter jedoch auch von der Realität abweichen und mit Parametern und Werten auf eine Weise eingestellt werden, die unter den physikalischen Bedingungen der realen Welt nicht funktionieren würden. Auch negatives Licht ist möglich, um beispielsweise Bereiche absichtlich abzudimmen. Personen, die für virtuelles Licht zuständig sind, werden auch Lighting Artists genannt.
Modeling
Das Modeling ist eine der Disziplinen, die ein 3D Artist ausführt. Es meint den Prozess, bei dem virtuelle Objekte erzeugt – modelliert – werden. Während es möglich ist, jedes erdenkliche Objekt aus einer Basisgeometrie wie einem Würfel zu formen, wird inzwischen auch das Verfahren des Procedural Modeling eingesetzt, bei dem große Sets mithilfe von automatisierten Prozessen auf Basis von Befehlen modelliert und auch texturiert werden. Dieses Verfahren kommt insbesondere für die Erzeugung von Landschaften und Naturumgebungen zum Einsatz. Grundsätzlich existieren zwei unterschiedliche Arten zu modellieren – das polygonbasierte Modeling sowie ein zweiter Ansatz, der auf der Erstellung von Kurven beruht. Dieser ist mathematisch präziser, wird jedoch in der Entertainmentindustrie seltener verwendet. Die Geometrie eines virtuellen Polygonmodells besteht aus einem Drahtgitter – oder auf Englisch ›wireframe‹. Dieses setzt sich aus Flächen (Faces bzw. Polygonen), deren Kanten (Edges) und Knotenpunkten, so genannten Vertices (Plural für Vertex) zusammen. Die Polygone sind in der Regel entweder viereckig oder, wenn sie einmal diagonal geteilt werden, dreieckig.
Anhang
Objektorientiertes Programmier paradigma
Das objektorientierte Programmierparadigma beschreibt eine Art zu programmieren. Im Grundsatz unterscheidet sich dieses Paradigma vom prozeduralen Programmierparadigma. Dieses bildete bis in die 1970er Jahre den Standard. Während das ältere Vorgehen in linearer Weise ausgeführt wurde, bei der ein Computer eine Reihe von Befehlen hintereinander Schritt für Schritt ausführt, ermöglichte das objektorientierte Programmierparadigma eine größere Interaktivität in der Arbeit mit dem Computer. Arbeitsprozesse und -ziele mussten nicht mehr vorher bekannt sein und konnten seitdem auch parallel ausgeführt werden.
Opak
Opak ist ein Synonym für undurchsichtig bzw. lichtundurchlässig. In der Computergrafik ist der Begriff im Bereich des Shadings relevant. Siehe hierzu auch → Hidden Line Problem.
Physically Based Rendering /pbrt
Physically Based Rendering bezeichnet eine Entwicklung im computergrafischen Bereich, die versucht, alle bisherigen Verfahren, die bisher für das Shading und zur virtuellen Lichtberechnung zum Einsatz kamen, zu vereinheitlichen und auf den Grundsatz physikalischer Berechnungen zu basieren. Sofern entsprechend programmierte Shader zum Einsatz kommen, bleiben Lichtsituationen beim Physically Based Rendering programmübergreifend immer stabil. Das Verfahren erleichtert das Shading und Lichtsetzen in virtuellen Umgebungen in erheblicher Weise. Bevor diese vereinheitlichte Arbeitsumgebung geschaffen wurde, basierten Shader auf völlig unterschiedlichen Berechnungsmodellen, durch die sie in je anderer Weise auf Licht reagierten. Aus diesem Grund musste zuvor jeder Shader einzeln aufwändig an die Lichteinstellungen angepasst werden.
Pipeline
Eine Pipeline bezeichnet den verschachtelten Arbeitsablauf beim Entstehungsprozess computeranimierter Produktionen. Da viele, aber nicht alle Entstehungsschritte parallel ablaufen und andere zwingend hintereinander stattfinden müssen, ist es notwendig, die einzelnen an der Produktion beteiligten Gruppen aufwändig zu koordinieren. Es existieren zudem häufig Positionen, die sich allein mit dem Programmieren von Pipelines befassen. Dieses spezielle Aufgabenfeld befasst sich damit, wie Arbeitsergebnisse zwischen den Bereichen bestmöglich hin- und hergereicht sowie Arbeitsschritte sinnvoll automatisiert werden können, um die Pipeline besonders effizient zu gestalten.
Polygon
Siehe → Face.
357
358
Scheler: Computergrafik
Primitive
In 3D-Programmen stehen für die Erstellung von Modellen zunächst einmal Basismodelle, sogenannte Primitives, zur Verfügung. Hierzu zählen in der Regel eine Kugel, ein Würfel, ein Zylinder, ein Torus und ein Kegel.
Principled Shader
Der Principled Shader ist ein von Brent Burley im Jahr 2012 für Disney neu entwickelter Basis-Shader, mit dem sich eine sehr große Bandbreite an Materialien darstellen lässt. Er wurde seitdem in alle gängigen Grafikanwendungen implementiert. Vor diesem neuen Shader mussten für unterschiedliche Materialien in der Regel oft auch unterschiedliche Shader verwendet werden. Der Principled Shader ist für das Physically Based Rendering geeignet und gestaltet Arbeitsprozesse aufgrund einer geringeren Anzahl einstellbarer Parameter wesentlich effizienter als mit vorigen zur Verfügung stehenden Shadern.
Prozedurales Programmier paradigma
Siehe → Objektorientiertes Programmierparadigma.
Render Engine
Eine Render Engine ist eine Programmkomponente oder auch ein externes Plugin in 3D-Grafikprogrammen, mit dem sich die 3D-Szenerien als Bild berechnen lassen. Im Rendering lassen sich beispielsweise Eigenschaften für das Licht oder auch für das Antialiasing sowie die Auf lösung der Bilder einstellen, in der sie herausgerechnet werden sollen. Da Renderprozesse für 3D-Grafiken, insbesondere, wenn sie einen Fotorealismus anstreben, sehr rechenintensiv sind, ist für diesen Arbeitsschritt präzises und sehr technisches Wissen notwendig, um die Rechenzeit möglich kurz zu halten, ohne einen Qualitätsverlust in den Bildern zu bewirken.
RenderMan
RenderMan ist eine von Pixar entwickelte Render Engine, die heute einen Industriestandard darstellt und in zahlreichen großen Hollywoodproduktionen, beispielsweise für die Berechnung von Effekten, zum Einsatz kommt.
Rendern/Rendering Siehe → Render Engine. Shading
Siehe → Hidden Line Problem.
Solid
Siehe → Hidden Line Problem.
Anhang
Subsurface Scattering
Subsurface Scattering ist eine Eigenschaft, die sich beim Shading einstellen lässt. Sie ist vorgesehen für Materialien, die leicht durchscheinend sind, wie etwa Haut oder Käse. Ein Shader, der Subsurface Scattering berechnen muss, kann die Lichtbrechungen simulieren, die sich auf tiefer liegenden Ebenen ereignen statt nur auf der Oberf läche. Auch bei der menschlichen Haut dringen einige Lichtstrahlen auch zu den unteren Hautschichten durch, weshalb kleinere Gliedmaßen wie Ohren oder Finger im Gegenlicht rot leuchten. Dieser Effekt lässt sich mit Subsurface Scattering erreichen.
Texturing
Das Texturieren ermöglicht es, Polygonmodelle mit Farben und Musterungen auszustatten. Prinzipiell lassen sich auch einzelne Polygone mit einem soliden Farbton einfärben, doch das Texturieren ermöglicht, Modellen eine Farbgebung auch unabhängig von den Grenzen der Polygonf lächen zu geben. So kann zum Beispiel eine quaderförmige Fläche aus vier gleichgroßen rechteckigen Polygonen mit einer kleinteiligen Mauertextur versehen werden oder eine Kugel kann durch eine Textur den Anschein einer detailreich gezeichneten Weltkugel erwecken.
Vertex, Vertices
Siehe → Modeling.
Viewport (top, side, front, perspective)
Der Viewport ist das Herzstück von 3D-Grafikprogrammen. Hier wird der virtuelle Raum dargestellt, in dem Objekte modelliert, texturiert und animiert werden können. Objekte lassen sich entweder in Perspektive anzeigen oder, etwas technischer, in Seiten- oder Frontalansicht bzw. aus Vogelperspektive. Auf Englisch spricht man von views – perspective, side, front und top.
Wireframe
3D-Modelle lassen sich entweder mit Shading oder als Wire frame anzeigen. Der Begriff Wireframe bezieht sich auf die Drahtgitterstruktur der Modelle, die sie durch ihre Zusammensetzung aus Flächen, Kanten und Vertices haben. Siehe hierzu auch → Modeling. In der Wireframe-Darstellung lassen sich die einzelnen Flächen, Kanten und Vertices besser einzeln ansteuern, was zum Beispiel beim Modellieren wichtig sein kann.
359
360
Scheler: Computergrafik
Index 3Ds Max, Autodesk, siehe Autodesk 3Ds Max 3D-Modell, siehe Modeling Abstract Expressionism, 272 ACCAD, 91, 108–109, 119–120 ACM, 153, 195 und SIGGRAPH, 91, 118, 153 und Spring Joint Computer Conference, 181 Adobe, 35, 200, 213 Photoshop, 121 Air Force (US), 213 ALGOL, 75 Allston, Washington, 262 American Artists Congress, 272 American Scene painting, 268, 270 Animation, 16, 34, 36, 48, 59, 79, 86–88, 92, 107, 120, 122–123, 140, 207, 231, 237, 244–248, 251, 253, 298, 300, 304, 307, 311, 325–326 Anyf lo, 38–39 Appel, Arthur, 218 Armory Show, 266–267 ARPA, 62–64, 72, 197, 302 ARPANET, 206 Artificial Intelligence Laboratory (AI Lab) , 72 Ash Can School/Ash Can Realism, siehe Realism Autodesk 3Ds Max, 47 Maya, 47, 51–52, 55, 76, 79 Babbage, Charles, 93, 94 bataille réaliste, 260–261, 272–273 Baudrillard, Jean, 15–16 Bell Telephone Laboratories Inc., 131–132 Bellini, Gentile, 102 Bense, Max, 15, 104 Bézier, Pierre, 131, 153, 303 Bierstadt, Albert, 278 Bishop, Isabel, 270–271 Blender, 47
Blinn, James F., 52–54, 57, 60–61, 64, 121, 200, 213, 225, 230–232, 236, 238–239, 302, 311 Blumenberg, Hans, 9, 13, 18–24, 29–30, 45–46, 55, 155, 187–188, 325–326 Boeing Company, 65, 127–128, 131–132, 136, 145 Bouknight, W. Jack, 213–214 Braque, Georges, 104 Brentano, Clemens, 19 Bret, Michel, 38–40 C++, 125, 327 CAD (Computer Aided Design), 41–42, 44–45, 65, 72, 90, 155, 157 California Institute of Technology, 72, 195–196 Camera lucida, 282 Camera obscura, 170, 258, 282 Carnegie Institute of Technology, siehe Carnegie Mellon Carnegie Mellon, 72, 200 Carpenter, Loren, 197, 246–247 Cars (Film), 312 Cassirer, Ernst, 167–169, 173, 177–178 Catmull, Edwin, 34, 43, 53–54, 58, 65, 86–87, 122, 153, 157, 195, 197, 200–201, 225–226, 230–232, 236–241, 243–246, 249–250, 302, 305, 307–308, 311 Cézanne, Paul, 102, 104 Charles Babbage Institute, 93–94, 108 Chase, William Merrit, 265 Chronofotografie, 137 Church, Frederic Edwin, 252, 254 Cinema 4D, 47, 54–55, 224 Claerbout, David, 298–301, 306, 310–311, 322–323, 326 Clark, Wesley A., 72–73, 196 Close, Chuck, 310 Cole, Thomas, 250–252, 257, 278, 279, 287, 291, 308 Compositing, 49, 57–58 Computer Graphics Research Group (CGRG), 91, 119 Computer History Museum, 181
Anhang
Cook, Rob, 246–247 Coons, Steven A., 42–44, 64–65, 72, 82, 86, 90, 92, 96, 126, 129, 133, 140, 145–186, 188–193, 196, 198–199, 201–203, 205–208, 210, 216–217, 222–223, 228, 230, 232, 237, 244, 302, 304–306, 320, 324 Coons Surface Patch, 43, 152–153, 201, 228, 237 Copley, John Singleton, 257, 275–277, 278, 281, 284 Cornell University, 200 Couchot, Edmond, 13, 30–31 Courbet, Gustave, 280 Cranston/Csuri Productions Inc. (CCP), 119 Crowley, Bob, 132 Csuri, Charles A., 65, 91–126, 128–129, 131–132, 136, 145–146, 180–182, 184–185, 199 Dada, 289 Dahl, Ole-Johan, 75 DARPA, siehe ARPA Degas, Edgar, 95 Derain, André, 102 Dewey, John, 119, 135–136 Disney Animation Studio, 244–248, 307–308 Durand, Asher B., 280–281 Dürer, Albrecht, 102 Düsseldorfer Malschule, 262 Eakins, Thomas, 257, 262–263, 265–266, 276, 282, 283, 285 Eco, Umberto, 132 Edwards, Johathan, 276–277 Eisenhower, Dwight D., 312 Emerson, Ralph Waldo, 252, 260, 277–279, 281–282, 284, 291, 295, 297, 315, 317–325 Engelbart, Douglas C. , 165, 181, 185–189, 192–193, 195, 212, 305, 320 Erdahl, Alan, 210, 219, 221, 303 Estes, Richard, 142–143 Euklid, 21, 145–146, 174–177 Evans & Sutherland, 62, 212
Evans, David C., 43, 61–64, 126, 182, 195, 197–198, 200–201, 205–214, 218–224, 228, 231, 236–237, 303–304 Evans, Walker, 256, 268 Evergood, Philip, 271–272 Experiments in Art and Technology (E.A.T.), 131–132 Fetter, William A., 36, 65, 92, 126–146, 156–161, 164–165, 168, 172–174, 177–178, 181–182, 196, 198–199, 201, 205–208, 210, 217, 222–223, 230, 305–306, 324 Fletcher, Martin, 269 Flusser, Vilém, 15–16, 74 Fortran, 224 Fotografie, 10, 39, 53, 56–57, 88, 99, 118, 133, 137, 144, 148–149, 168–170, 173, 198, 208–209, 214, 216, 218–223, 233–234, 240–241, 256–258, 260, 268, 270, 272, 282, 284–285, 289, 295, 298, 300, 304, 306–307, 310, 324 digitale, 13–14, 17, 35, 121 Fotorealismus, siehe Realismus Foucault, Michel, 25 Fourteenth Street Group, 270–271 Frankovich, J. M., 73–74 Friedrich, Caspar David, 289 Galerija suvremene umjetnosti (Galerie zeitgenössischer Kunst), 132 Garten, und die Maschine, 27–28, 231, 298, 314–316, 318, 325–326 General Electric, 213–214 Ginn and Company, 149 Glaubwürdigkeitsmaxime, 145–146, 161, 165, 167–168, 174, 177–178, 198–199, 206–207, 217, 223, 225, 230, 241, 298, 304, 306, 308–309, 324–325 Goodman, Nelson, 14 Gouraud, Henri, 54–55, 60–61, 64, 200, 207, 223–230, 232, 234, 236, 240, 243, 305 Goya, Francisco, 102 Greenberg, Clement, 261 Guggenheim Museum, 45 Haberle, John, 289 Halbtonbild, 208–209, 211–215, 218–220, 225
361
362
Scheler: Computergrafik
Hals, Frans, 105 Harmon, Leon O., 132 Harnett, William M., 257, 287–290, 311–312 Harvard University, 148, 154 Havelock, Eric, 30 Hawthorne, Nathaniel, 315, 318 Heade, Martin Johnson, 253, 278, 280 Heidegger, Martin, 267 Henri, Robert, 263–267 Herzog, Bertram, 147–149, 154–156, 180 Hidden-Line-Problem/-Algorithmus, 38, 142, 197, 226, 236, 241 Hidden-Surface-Problem/-Algorithmus, siehe Hidden-Line-Problem Homer, Winslow, 257, 262–263, 265, 268, 274, 280, 292, 301, 303 Hopkins, James, 95, 104 Hopper, Edward, 243, 249, 256–257, 267, 269–270, 292–293, 311 Hudson River School, 251–253, 280, 305 Husserl, Edmund, 18–24 IBM Research Center, 218 Idealismus, 260–261 und Realismus, 273–274, 279–280, 284, 295, 298, 301–302, 304, 306, 308, 310, 322, 324 romantischer (USA), 260, 262 IEEE Computer Graphics and Applications, 98, 108 Impressionismus, 280–281, 285, 304 Industrial Light & Magic (ILM), 35 Ingres, Jean-Auguste, 102 Inside Out, 247–248 Intentionalität, 18–19 Information Processing Techniques Office (IPTO), 62–63 James, Henry, 291 Jefferson, Thomas, 315–317, 319–320 Jobs, Steve, 245 Johnson, Lyndon B., 63 Johnson, Timothy, 68, 155, 182, 202–205, 207, 210, 212, 305 Kant, Immanuel, 260, 267, 319 Kay, Alan, 33–34, 43, 62, 75, 125, 135, 200 Kensett, John Frederick, 257, 278 Kent, Rockwell, 268
Kittler, Friedrich, 25 Klee, Paul, 102 Klüver, Billy, 131–132 Knowlton, Kenneth C., 132, 199 Konzeptkunst, 305 Kubismus, 31, 217, 289 Laboratory for Computer Science (LCS), 72 Lamb and Company, 120 Lane, Fitz Henry, 252–253, 281–284 Lasseter, John, 245–246, 249–251, 302, 312 Latour, Bruno, 17, 109–110, 327 Lawrence Livermore National Laboratories, 132 Lawrence, Jacob, 271 Lebenswelt bei Blumenberg u. Husserl, 18–22, 30 Lenin, Wladimir, 270 Licht und Computergrafik, 38–39, 49, 52–54, 56–58, 122, 130, 170, 204, 207, 209, 214, 217–218, 221, 223, 232, 238, 241, 300–301, 308, 324 und Asher B. Durand, 280 und Thomas Eakins, 262 und Winslow Homer, 262 und Edward Hopper, 244, 292–293 und Impressionismus, 280, 304 und Luminismus, 252, 278, 280–282, 290, 304 und Pixar, 307, 309–311 und Pleinairismus, 259, 280 und Mark Rothko, 294–295 und Stille, 290, 292 Lichtenstein, Roy, 95–96 Licklider, J. C. R., 63 Limner-Tradition, 276, 304 Lincoln Laboratory, 26, 68, 134, 155 Lisp, 112 Little Red Book, 153 Loomis, Hershel H., 70, 72 Louvre, 45 Lucas, George, 245 Lucasfilm, 245–246
Anhang
Luminismus, 252–254, 275, 278, 280– 284, 289–290, 292–294, 300–301, 304–306, 311, 313, 319, 325 Luxo Jr., 303 Mach, Ernst, 226–228 Machsche Streifen, siehe Mach, Ernst Mann, Robert W., 64 Manovich, Lev, 16, 31, 34, 42, 59 Marey, Étienne-Jules, 137–138, 144, 306 Marx, Leo, 27–28, 282, 291–292, 298, 314–326 Mathematical Applications Group, Inc. (MAGI), 213 Maxime der Glaubwürdigkeit, siehe Glaubwürdigkeitsmaxime Maya, Autodesk, siehe Autodesk Maya May, Steve, 111–113 McCay, Winsor, 248 McLuhan, Marshall, 15, 31, 285 Medienarchäologie, 24–25, 29 Melville, Herman, 315, 318 Michaels, George, 132 Michelangelo, 261 middle landscape, 314, 316–317, 320, 322, 324 Midgette, Willard, 267 Miller, Kenneth Hayes, 270 Miller, Leslie, 110 Millet, Jean-François, 262, 270 Minsky, Marvin , 72 Massachusetts Institute of Technology (MIT), 26, 42–44, 62, 64–65, 68, 70, 72, 88, 96, 126, 134, 148–149, 154–155, 181, 183, 200, 202, 204, 210, 212, 241 und Computer Aided Design Group (CAD), 65 und Computer Applications Group, 183 und Computer Science & Artificial Intelligence Lab (CSAIL), 72 und Mechanical Engineering Department, 65, 153, 183, 202 und Project MAC (Multiple Access Computing or Machine-Aided Cognition), 72 Mitten, Jack, 97–99
Moby Dick, 318 Modeling/Modell, 32, 38, 44, 45, 48–54, 116, 120, 130–131, 147, 149–150, 152, 202–203, 207–208, 210, 212–213, 221, 224, 226, 228–229, 231–234, 237–238, 301–302 Mondrian, Piet, 102 Monet, Claude, 104, 280–281 Mural Art Program (MAP), 273 Murch, Walter Tandy, 288–289 Museum of Modern Art (MoMA), 255–257, 259, 269–270, 306 Muybridge, Eadweard, 285 Nake, Frieder, 16, 91, 104–105, 132 NASA, 35, 63, 213–214 National Science Foundation (NSF), 108 Natur, 18, 159, 193, 250–252, 259–260, 262, 268, 277–282, 284, 289, 311, 314–322, 324–327 natura naturans, 18 natura naturata, 18 Naturalismus, 256, 262 französischer, 262 Neue Sachlichkeit, 261 New Tendencies, 132 New York Institute of Technology (NYIT), 35, 200, 245 New York University, 45 Newell, Martin E., 214, 302–303 Newton, Isaac, 145 Nietzsche, Friedrich, 267, 291 Noll, A. Michael, 104, 132 Nostalgie, 284, 287, 289, 295, 300, 307, 310–311, 313 Nygaard, Kristen, 75 Objektorientiertes Programmier paradigma, siehe Programmier paradigma Ohio State University, 91, 94–95, 97–99, 111, 119–120, 200 O'Keeffe, Georgia, 285–286 Ong, Walter J., 30 Otsby, Eben, 312 Panofsky, Erwin, 161, 165, 167–174, 178, 217 PDP-8 Computer, 219
363
364
Scheler: Computergrafik
Perspektive, 39–40, 42, 50, 68, 95, 127–128, 132, 135, 137–146, 159–174, 177–178, 199, 201–206, 210, 212, 216–217, 223, 237, 241, 282–283, 298–299, 302, 304–306, 324 Zentral-, 39–40, 42, 95, 138–140, 145–146, 164–170, 172–173, 177–178, 206, 216–217, 241, 282, 298 isometrische, 139–140, 163–165, 178 dimetrische, 139–140, 164–165 trimetrische, 139–140, 164–165, 178 oblique, 139–140, 164–165, 216 Parallel-, 142–143, 164, 216 Peterson, H. P., 73–74 Peto, John F., 289, 312–313 Phong, Bui Tuong, 54–55, 57, 60–61, 64, 200, 207, 214, 224–225, 231–236, 306 Photoshop, Adobe, siehe Adobe Photoshop Physically Based Rendering /pbrt, 53, 56–58, 307 Picasso, Pablo, 102, 104 Pixar Animation Studios, 34–35, 43, 65, 86, 111, 120–122, 195, 197, 200–201, 225, 237, 241, 243–254, 298, 300–303, 305, 307–313, 322, 324–326 Pixar Image Computer, 237, 245 Platon, 260–261 Pleinairismus, siehe Licht Pop Art, 95, 272–273, 275 Porter, Fairfield, 272, 276 Porter, Tom, 246–247 Precisionists, 285 Programmierparadigma, objektorientiertes, 32–34, 36, 43, 62, 75, 77, 93, 101, 106–107, 112, 125, 134, 179, 327 prozedurales, 32–34, 36, 43, 65, 70, 75–77, 90, 93, 101, 107, 120, 125, 128, 133–134, 136, 179, 184 Prozedurales Programmierparadigma, siehe Programmierparadigma Raudseps, J. G., 99–100 Rauschenberg, Robert, 131 Realism, Ash Can, 262–267, 271, 285 New, 272
New York, 267 Urban, 270 Realismus, 10, 12, 14, 17, 30, 39–40, 56, 122–123, 126, 131, 138, 141–145, 164–165, 168–172, 174, 196–199, 217, 221, 225, 227–231, 233, 236–238, 243, 247, 254–263, 267–269, 271–276, 280, 282, 290–291, 298, 300–302, 306, 309–310, 319, 326–327 Amerikanischer, 254–257, 259, 275, 290 Christlicher, 291 und Steven A. Coons, 164–165, 168–172, 174 und Charles A. Csuri, 122, 123, 126 Existentialistischer, 291 und William A. Fetter, 131, 138, 141–145 Formalistischer, 291 Foto-, 10, 12, 14, 17, 39, 56, 122–123, 126, 131, 142, 144–145, 196–198, 237, 247, 272–273, 298, 300, 302, 310, 326 Humanistischer, 291 und Idealismus, siehe Idealismus Kritischer, 261, 272 Magischer, 255–257, 261, 268, 306 Marxistischer, 291 Romantischer, 262, 291 Sozialer, 262–263, 268–273 Super-, 268, 278, 282 und University of Utah, 196–199, 207, 209, 217, 221, 225, 227–231, 233, 236–238 Reeves, William (Bill), 246–247 Refregier, Anton, 272 Regionalismus, 261, 268 Rembrandt, 105 Remediation, 31–32, 34–35 RenderMan, 58, 121–122, 237, 307–308 Rendering, 49, 53, 56–58, 112, 120–122, 124, 132, 141–142, 198, 208–209, 211, 217, 219, 237–238, 244, 246, 301, 307–308 Renoir, Auguste, 95 Reyes, 237, 246 Rivera, Diego, 269–270
Anhang
Roberts, Lawrence G., 88, 204, 210–212 Rockefeller, Nelson, 270 Romney, Gordon W., 208–224, 228, 233, 303 Roosevelt, Franklin D., 268–270 Ross, Douglas T., 72 Rothko, Mark, 293–295 Route 66, 312 Rule, John T., 44, 140, 148, 150, 152–153, 157–178, 191, 198, 201, 203, 206, 216, 222, 302, 304–306, 320 Ryder, Albert Pinkham, 293–294 Salesin, David, 246–247 Scheme, 112, 116 Schroeder, Manfred R., 132 Schumacker, Robert A., 213–214 Schure, Alexander , 245 Shading, 38–39, 49, 51–57, 60–61, 64, 132, 138, 140, 207–209, 211–212, 214–219, 223–230, 232–233, 236, 244, 301, 306–309, 311 Blinn, 52, 54, 57, 60–61, 64, 230, 232, 236, 311 Gouraud, 54–55, 60–61, 64, 207, 224–230, 232, 234, 236 Phong, 54–55, 57, 60–61, 64, 207, 232–236 Principled, 54, 307 Shaffer, James, 110 Shahn, Ben, 257, 271 Shannon, Claude E., 64, 72, 196 Shapiro, David, 268–269 Sheeler, Charles, 257, 259, 285–286, 292 Sherman, Hoyt L., 95–97, 101, 104 Shinn, Everett, 263–264 Simula, 75 Sinnzusammenhang, Blumenberg’scher, 9, 14, 19–20, 23–24, 27, 56, 77, 126, 129–130, 137, 145–146, 149, 155, 157, 159, 162, 178, 199, 201, 230, 241, 244, 253, 255, 275, 297, 301, 307, 310, 314–315, 319, 321–323, 325–327 Sketchpad, 43, 62, 64–65, 67–90, 93, 101, 124–126, 133–134, 137, 146–148, 153–156, 179–180, 182–183, 192–193, 196, 198, 202, 205, 212, 217, 228, 306, 308, 324, 327
Sketchpad III, 68, 133, 155, 182, 202–205, 212, 203 Sloan, Helen Farr, 264 Sloan, John, 263–265 Smalltalk, 33–34, 43, 75, 125 Smith, Alvy Ray, 34–35, 44, 145–146, 197, 240, 245–247 Snow White and The Seven Dwarfs, 245 South Park, 11, 301, 307, 310, 323 Soyer, Isaac, 270–271 Soyer, Moses, 270–271 Soyer, Raphael, 270–271 Sproull, Robert F., 154 Sputnik I, 63–64, 322 Stanford University, 200, 302 und Stanford Research Institute, 212 Steele Jr., Guy Lewis, 112 Stille, 284, 290–293, 295, 300, 307, 310–311 Subsurface Scattering, 308 Surrealismus, 261, 268, 278 Sussman, Gerald Jay, 112 Sutherland, Bert, 72 Sutherland, Ivan E., 37, 43–44, 62–94, 96, 101, 106–107, 123–126, 128–131, 133–137, 146–148, 153–157, 179–180, 182–184, 192–193, 195–202, 204–205, 211–212, 217, 224, 228–232, 237, 300, 302, 305–306, 308, 324, 327 Syracuse University, 148 Texturing und Computergrafik, 49–51, 53, 56, 108, 121, 125, 130, 207, 231–232, 234, 236–239, 241, 311 und Malerei, 276 The Eight, 263 The Good Dinosaur, 250–252 Thoreau, Henry David, 252, 260, 315, 318 und Walden, 318 Toy Story, 11, 244, 247–249, 311 Toy Story 3, 249, 313 Transzendentalismus (USA), 252, 262, 277–279, 281, 289–290, 295, 300–301, 304, 311, 313, 315, 319, 323, 325 Turing Award, 68, 195 Twain, Mark, 315, 318 und Huckleberry Finn, 318
365
366
Scheler: Computergrafik
TX-0, 72–73 TX-2, 69–70, 72–74, 77 Überf lieger – Kleine Vögel, Großes Geklapper, 253–254 UNIVAC, 219 Universalität und Computertechnologie, 73, 77–79, 82–84, 89–90, 93, 132–133, 180, 190–191, 202, 204, 228, 308, 324–325 und Bildgestaltung, 66, 77, 82–84, 90, 132–133, 136–137, 145, 173, 180, 202, 204, 217, 228, 259, 306, 308, 325 University of Illinois, 213–214 University of Michigan, 148 University of Minnesota, 94 University of Utah, 26, 35–36, 43, 60–65, 121, 126, 146, 148, 180, 182, 194–202, 205–214, 218, 221, 223–225, 229, 231, 241, 245, 302 Utamoro, Kitagawa, 111 Vermeer, Jan, 258
Vaillant, Wallerant, 289 Vinci, Leonardo da, 103 Virilio, Paul, 15–16 Vought-Sikorsky Aircraft Corporation, 65, 148 Waldhauer, Fred, 131 Walker, Timothy, 320–321 WALL-E, 252–254, 311, 313, 325–326 Warnock, John E., 212–215, 224, 228, 236 Watkins, Gary S., 209, 212, 219, 223–224, 227–229 Weltkrieg, Erster, 264 Weltkrieg, Zweiter, 98, 148, 272, 312 Whitman, Robert, 131 Whitman, Walt, 262, 279, 303, 319 Whitney Museum of American Art, 259 Whitney, John, 199 Wireframe, 50, 54, 142, 207, 241 Wylie, Chris, 210–211, 219, 303 Zajac, Edward E., 132 Zola, Émile, 291 Zootopia, 247
Anhang
Organigramm Das Organigramm auf den beiden folgenden Seiten zeigt die historischen Entwicklungen der 3D-Computergrafik im Überblick. Hierbei sei zum einen betont, dass zum Zwecke des besseren Überblicks die zeitlichen Markierungen in ihren Abständen zueinander nicht den tatsächlichen Zeiträumen entsprechen, die dazwischen vergangen sind. So können zum Teil die Markierungen engerer Zeiträume denselben Abstand zueinander haben wie Markierungen größerer Zeiträume. Zum anderen sollte angemerkt sein, dass die Perspektive dieses Organigramms aus dem praxisnahen Blickwinkel dieser Studie heraus entstanden ist. Im Fokus stehen auch hier die Entwicklungen kommerzieller 3D-Grafikprogramme. Die in der rechten Spalte als parallele Entwicklungen bezeichneten Einträge werden somit lediglich aus dem Blickwinkel dieser Studie zu Nebenschauplätzen. Zuletzt sei hervorgehoben, dass vereinzelt Personen in dem Organigramm nicht erfasst wurden, wenn es die Übersichtlichkeit erschwert hätte. Einige wenige Akteure, die in der Studie genannt wurden, sind in diesem Organigramm demnach nicht untergebracht.
367
368
Scheler: Computergrafik Massachusetts Institute of Technology (MIT) Gründung Lincoln Laboratory (MIT)
1951 1955 1957 1958
TX-0 Sputnik
TX-2
Gründung ARPA (heute DARPA)
1960 1961
Computer entwickelt von Wesley A. Clark et. al.
Herschel H. Loomis (Graphical Manipulation Techniques Using the Lincoln TX-2 Computer)
Steven A. Coons wird Associate Professor für Engineering Graphics (Fachbereich Maschinenbau am MIT ) – Veröffentlichung Graphics mit John T. Rule (Leiter des Graphics Department)
1962 1963
1964
1965 1966
1967
1968 1969
1970 1971 1972 1973 1974 1975 1978 1979 1985 1986
Ivan E. Sutherland Leiter des Information Processing Techniques Office (IPTO) – als Nachfolger von J.C.R. Licklider
Gründung Project MAC (heute CSAIL)
Sketchpad III von Timothy E. Johnson Lawrence G. Roberts (früher Shadingansatz) Sketchpad von Ivan E. Sutherland – betreut durch Claude E. Shannon (weitere Einflüsse: Marvin Minsky, Douglas T. Ross )
Entwicklung des Coons patch von Steven A. Coons
Anhang University of Utah Computer Science Department (heute The School of Computing)
Parallele Entwicklungen 1951 1955 1957 1958 1960 1961
Douglas C. Engelbart (Veröffentlichung Augmenting Human Intellect am Stanford Research Institute)
1962
Frieder Nake (6/7/64 Nr. 20, Zufälliger Polygonzug - in Deutschland)
1964
1963
1965 Projektstart Graphical Man/Machine Communications unter der Leitung von David C. Evans Chris Wylie, Gordon W. Romney, David C. Evans, Alan Erdahl (Half-tone perspective drawings by computer)
William A. Fetter (First Boeing Man)
1966
Gründung MAGI Charles A. Csuri(Sine Curve Man)
1967
NASA/General Electric (Computergrafiken in Farbe und Echtzeit) Gründung von Evans & Sutherland
1968 1969
Gordon W. Romney (Romney-Shading – erstmals in Farbe) John E. Warnock (Warnock-Shading – erstmals in Farbe) Gary S. Watkins (Echtzeitdarstellungen)
1970
Henri Gouraud (Gouraud-Shading)
1971
Projektende Graphical Man/Machine Communications
Alan Kay (Smalltalk)
1973
Bui Tuong Phong (Phong-Shading) Edwin Catmull (Texturen)
1972
Edwin Catmull am NYIT
1974
Martin E. Newell (Teapot)
1975
James F. Blinn (Bump Maps)
1978 Edwin Catmull bei Lucasfilm
1979
Anyflo (Grafiksoftware von Michel Bret aus Frankreich)
1985
Gründung ACCAD an der Ohio State University
1986
Gründung PIXAR von Edwin Catmull und Alvy Ray Smith
369
WISSEN. GEMEINSAM. PUBLIZIEREN. transcript pflegt ein mehrsprachiges transdisziplinäres Programm mit Schwerpunkt in den Kultur- und Sozialwissenschaften. Aktuelle Beträge zu Forschungsdebatten werden durch einen Fokus auf Gegenwartsdiagnosen und Zukunftsthemen sowie durch innovative Bildungsmedien ergänzt. Wir ermöglichen eine Veröffentlichung in diesem Programm in modernen digitalen und offenen Publikationsformaten, die passgenau auf die individuellen Bedürfnisse unserer Publikationspartner*innen zugeschnitten werden können.
UN SERE LEISTUNGEN I N K ÜR Z E • • • • • •
partnerschaftliche Publikationsmodelle Open Access-Publishing innovative digitale Formate: HTML, Living Handbooks etc. nachhaltiges digitales Publizieren durch XML digitale Bildungsmedien vielfältige Verknüpfung von Publikationen mit Social Media
Besuchen Sie uns im Internet: www.transcript-verlag.de Unsere aktuelle Vorschau finden Sie unter: www.transcript-verlag.de/vorschau-download